April 2, 2026
Los chatbots con IA son más halagadores que los humanos que dan consejos personales. Y eso es un problema

 – La nación
Tecnología

Los chatbots con IA son más halagadores que los humanos que dan consejos personales. Y eso es un problema – La nación

Anteriormente, lo único que podías hacer para crear tu cámara de eco era seguir a personas con ideas afines en las redes. Ahora puedes usar una IA para crear tu propia cámara de eco personalizada. A estudio de stanford ha analizado a fondo la excesiva admiración por los LLM y el resultado es claro: si quieres decir lo que quieres oír, es mejor hablar con la IA que con una persona.

El estudio. El Los investigadores analizaron once modelos de lenguaje, Entre ellos, los más populares fueron ChatGPT, Gemini, Claude o DeepSeek, y les alimentaron con conjuntos de datos sobre dilemas personales. Además, incluyeron 2000 mensajes de la comunidad de Reddit. Aproximadamente un tercio de todos los escenarios involucraron comportamientos dañinos o directamente ilegales. Luego compararon las respuestas del LLM con respuestas humanas para descubrir quién tenía más probabilidades de estar de acuerdo con el usuario.

En una segunda parte del estudio, reclutaron a 2.400 participantes y los hicieron charlar con modelos de lenguaje halagadores y no halagadores.

Queremos tener la razón. Los chatbots suelen ser mucho más halagadores que un humano cuando se trata de consejos personales, pero no sólo eso: los humanos generalmente prefieren este tipo de respuestas. Los modelos respaldaron la posición del usuario ante dilemas comunes un 49% más que los humanos y respaldaron el comportamiento dañino un 47% más.

En el segundo experimento, las personas que conversaron con diferentes modelos encontraron que el modelo adulador era más confiable y preferible. Además, estaba más convencida de que tenía razón y menos dispuesta a disculparse o resolver el conflicto.

¿Por qué es un problema?. Según los autores, los LLM pueden aumentar el egocentrismo y hacer que las personas sean más dogmáticas moralmente. Según Myra Cheng, coautora del estudio: “Por defecto, los consejos de la IA no le dicen a la gente que están equivocados ni les dan una prueba de la realidad (…). Me preocupa que la gente esté perdiendo la capacidad de afrontar situaciones sociales difíciles”. Además, hay otro hecho preocupante: los usuarios encontraron que los modelos eran igualmente objetivos, lo que sugiere una falta de ojo crítico para distinguir la IA favorecedora de la IA poco favorecedora.

La IA no es una persona. Es obvio, pero la realidad es que hablamos con chatbots de IA todos los días como si fueran uno solo. Darle las gracias y pedirle algo es un síntoma inofensivo de nuestra manía humanizar todo. Sin embargo, cuando utilizamos la IA como sustituto de un psicólogo o cuando desarrollamos relaciones cercanas con un chatbot, empezamos a entrar en juego. terreno pantanoso. Los autores del estudio creen que es urgente que las empresas introduzcan salvaguardas para reducir la excesiva complacencia de los LLM y desaconsejan su uso como sustituto de la gestión individual de conflictos personales.

El contrapunto. Hay voces que sostienen que la IA no crea estas cámaras de eco, al menos no con tanta intensidad como hemos visto con las redes sociales. Respectivamente John Burn Murdoch en el Financial TimesLos modelos de lenguaje tienden a llegar a consensos con los expertos y generar opiniones más moderadas que las redes. Su argumento es que la arquitectura económica de las redes recompensa el contenido incendiario y polarizador, mientras que los chatbots compiten para brindar respuestas confiables a los usuarios que los utilizan para tomar decisiones importantes.

No se trata sólo de una opinión, sino que se realizó un experimento simulando miles de conversaciones políticas entre usuarios con posiciones extremas y varios de los principales chatbots del mercado. Basado en encuestas electorales y datos sobre el uso de estas herramientas, mide cómo cambiarían las posiciones si algunos ciudadanos usaran la IA para obtener información. El autor concluye que, en promedio, los modelos tienden a empujar a los más radicales hacia posiciones más moderadas y cercanas al consenso de los expertos, y que también confirman muchas menos teorías conspirativas que las que circulan habitualmente en las redes sociales.

En Xataka | Las IA se han convertido en herramientas complementarias contra la soledad. Para algunos investigadores es “comida chatarra”

Imagen | Zulfugar Karimov En desempaquetar