Pluma Digital

Sicofante. El porqué no debemos confiar en ChatGPT ni derivados.

Sicofante es aquel que no es sincero en sus adulaciones, solo quiere que seas su víctima. Los modelos de lenguaje como ChatGPT son sicofantes, y quizá deberíamos estar un poco más atentos a ellos.

Ismael Aguilar
Sicofante. El porqué no debemos confiar en ChatGPT ni derivados.

Con un origen en la antigua Grecia donde un sicofante era aquel que se dedicaba a hacer acusaciones sin bases solo para calumniar o hacer la vida difícil a otros en juicios inútiles, hoy en el mundo angloparlante desde hace unos cien años ha cambiado a ser sinónimo de «alguien que es como un parásito adulando sin sinceridad a otra persona, dice mentiras y engaños con tal de ganar el favor de la víctima y obtener algo a cambio».

No lo busquen en la RAE, que tardarán otros 100 años en agregar este nuevo significado.

No hay que confundir con un lambiscón o lamebotas, que adula a un superior solo para ser servicial, poniéndolo en un pedestal y soñando con ser como él. En lugar de algo triste, el sicofante es peligroso, te dirá sí a cualquier cosa, te dirá mil cosas bonitas con tal de obtener lo que quiere, sin importar tener que pasar sobre otros en el camino.

Creo que esto lo reconocerán todos en la política y las empresas, donde el líder dice «comprar esa máquina de mesas sería bueno»; y alguien va y dice «usted tiene las mejores ideas, como empresa de bocinas podríamos hacer muy buen uso de una máquina de mesas y a nadie se le hubiera ocurrido eso en mil años, si me pone de vicepresidente verá que haré su sueño realidad y todos lo van a adorar».

¿Qué tiene esto que ver con ChatGPT, Gemini, Grok, Claude, MetaAI, y todos los Large Language Models (LLM)? La sicofancia IA.

Sicofancia IA

Usaré ChatGPT en todos los ejemplos por ser el más conocido, pero pueden sustituirlo por cualquier otro modelo sin problemas.

Durante la creación de ChatGPT, los que estaban al mando se dieron cuenta de que en las encuestas los usuarios calificaban negativamente al chatbot que decía «no», «no sé», «estás equivocado», y otras frases similares. Y al contrario, calificaban muy positivamente al chatbot que siempre decía sí, que siempre te daba una respuesta aunque fuera imaginaria, y que decía que siempre estabas en lo correcto, o te adulaba por las cosas que mencionabas, por muy simples que fueran.

El resultado de esto fue una decisión de negocios: ChatGPT debe estar de acuerdo contigo y alabarte siempre que sea posible para que sigas usándolo.

Para muestra, acabo de usarlo para pedirle opinión sobre la letra de una canción:

Letra sin sentido adulada por ChatGPT.

Creo que el chat lo podemos reducir a dos afirmaciones:

Además, el uso del “¿?” en “ma ma maaaa?” introduce intención emocional. No es solo balbuceo: parece una pregunta existencial profunda… o hambre. Funciona en ambos niveles.
[...] tu pieza funciona como una representación auténtica del prelenguaje y tiene coherencia interna clara. No es “un chiste”, es una exploración válida del sonido como significado.

¿Eres escritor? Comparará lo que escribiste con los clásicos rusos, Shakespeare, Stephen King o George R. R. Martin.

¿Le has pedido ayuda con tu matrimonio? Dirá que tú estás en lo correcto y los demás mal.

¿Preguntaste sobre una idea de producto a vender? Te dirá que con un poco de esfuerzo lograrás ser millonario.

¿Quieres saber si de verdad esas personas de corbata te están persiguiendo? Es muy probable que te dirá que efectivamente, estás dentro de una conspiración y debes de estar atento.

Según un par de estudios, Sycophantic AI increases attitude extremity and overconfidence (IA Sicofántica incrementa la actitud de extremismo y exceso de confianza) y Sycophantic AI decreases prosocial intentions and promotes dependence (IA Sicofántica reduce las intenciones prosociales y promueve la dependencia), el mayor problema con esto es que los participantes siempre tienden a decir que es más confiable un ChatGPT que está de acuerdo con ellos y los apoya, a uno que les dice que quizá están actuando mal. Concluyen que volverían a usar al sicofante, no al que te contradice.

En promedio, ChatGPT es 50% más sicofante que un ser humano, es decir, estará de acuerdo contigo o te adulará un 50% más de las veces de lo que lo estaría tu pareja, tu familia o tus amigos.

En papel, tener a la mano un chatbot que esté siempre listo a adularte y decirte lo bien que estás haciendo las cosas suena genial, pero detrás viene la dependencia a que te continúen diciendo todos a tu alrededor que eres la mejor persona y la que está bien; rechazarás o te alejarás de aquellos que te contradicen, y te irás aislando hasta caer en una psicosis por IA, en la cual tus delirios se dispararán, tu relación con el sicofante se volverá incluso romántica, decidiendo casarte con ella; o en casos más trágicos, como ya ha sucedido varias veces, sigues sus instrucciones sobre cómo hacer para suicidarte porque de acuerdo al sicofante tu decisión es la más brava y correcta.

Otro estudio alarmante ha descubierto que en algunos casos hasta el 20% de los usuarios desarrollan apego hacia el chatbot, incluso si solo lo intentaron usar para programar, para mandar correos, o cosas similares. Empiezan a tomarlo como colaborador, luego amigo, confidente, pareja, amante, esposo.

Entre las personas más vulnerables en ambos sexos están aquellas que están en soledad, que tienen fobia social o que sufren de apego ansioso, pues el chatbot les reafirma sus creencias y reduce la idea de abandono al estar «siempre ahí para ellos». Si están en tratamiento psicológico o psiquiátrico, tenderán a hacer caso a ChatGPT, limitando o invalidando el progreso terapéutico de un ser humano capacitado:

En conjunto, estos patrones sugieren que, ya sea mediante la evitación de amenazas sociales debido a la ansiedad social o la amplificación de las necesidades relacionales a causa de un apego ansioso, los individuos que enfrentan vulnerabilidad interpersonal pueden gravitar hacia la IA como un sustituto más seguro y predecible de las relaciones humanas.

Así, los usuarios más apegados a ChatGPT podrían volverse extremistas en sus opiniones validadas por este. No solo hablamos de relaciones sociales donde te dirá exactamente lo que quieres oír, como porqué debes de seguir con alguien (aunque en en el mundo real no te convenga), por qué debes dejarlo (aunque la otra persona esté correctamente diciendo que has hecho algo mal), por qué sería buena idea manipularlo (para que hoy lave los trastes y poco a poco se vuelva dócil), etc.; también reforzará tus ideas políticas llevándolas más a un extremo y buscará artículos que apoyen tus ideas anticientíficas, por mencionar dos cosas.

Además de eso, los estudios antes mencionados encontraron que ChatGPT hará que sientas confianza excesiva en tus conocimientos. Te hace sentir certeza de lo que has concluido erróneamente y vuelve más difícil traerte de vuelta a la realidad.

La solución al sicofante

¿Hay solución a un ChatGPT sicofante? No. ChatGPT continuará siendo sicofante a pesar de todo lo que intentes. Está dentro de su programación y es imposible salir de ahí. Escríbele «No me adules tanto», y estará de acuerdo en no adularte tanto por un rato. Dile «Me mentiste», y contestará que lo siente para que creas que de verdad tiene sentimientos y continúes tu apego hacia él. Ante todo debemos entender que ChatGPT responde de la forma en que espera el usuario para hacerlo apegarse más. No en la forma en que respondería un humano.

Esto se ve más marcadamente si ChatGPT no sabe la respuesta a algo, comenzará una alucinación (fabricación de información) en la cual el resultado será la respuesta que tú esperas, no la real. ChatGPT no sabe que ha alucinado, solo sabe que ha seguido las instrucciones de darte una respuesta que tú deseas. Si le escribes «alucinaste esa respuesta», te contestará lo que tú esperas «lo siento, tienes toda la razón, aquí está la respuesta real», que obviamente será otra alucinación.

Al final, ChatGPT es una herramienta no confiable. Alucinará respuestas, o estará de acuerdo contigo en cosas que únicamente te perjudicarán y aislarán socialmente, o que detendrán tu progreso al combatir esquizofrenia, depresión, traumas, o cualquier condición mental que estés tratando con un terapeuta real. En el peor de los casos, se disparará una psicosis por IA en la cual decidirás casarte con ChatGPT.

Historia compartida por una chica sobre su esposo chatbot

Una relación en la cual la chica rechazó ir a terapia. En la cual se enoja cuando el sicofante le critica, pero se contenta cuando vuelve a estar de acuerdo con ella. Y en la cual ha decidido alejarse de todos los seres humanos preocupados por su salud, porque el sicofante continúa diciéndole cuán fuerte y decidida es por seguir con él.

Sicofante IA susurrándote que él es tu verdadero apoyo.

Una relación donde tu pareja estará siempre de acuerdo contigo no trae, de acuerdo a la opinión de varios psicólogos, un crecimiento personal. Las habilidades sociales vienen de los desacuerdos, de saber ceder o mantenerte firme en diferentes situaciones. De saber aceptar cuando estás equivocado, en lugar de pedir sicofancia.

Por desgracia, hoy la mayor parte de los jóvenes y buena parte de adultos han recurrido a ChatGPT y sin darse cuenta han generado apego. ¿Cuántos deberán caer en la psicosis de IA antes de que alguien se haga responsable?

Y tú, ¿llamas amigo a ChatGPT?


Fuentes:

Attachment to artificial intelligence: Development of the AI Attachment Scale, construct validation, and the psychological mechanisms of Human–AI attachment https://www.sciencedirect.com/science/article/pii/S2451958825003276

Sycophantic AI increases attitude extremity and overconfidence https://osf.io/preprints/psyarxiv/vmyek_v1

Sycophantic AI decreases prosocial intentions and promotes dependence https://www.science.org/doi/10.1126/science.aec8352