Un nuevo estudio publicado en Science confirma lo que muchos sospechaban: cuando le pides consejo a la IA sobre tus problemas personales, hay altas probabilidades de que te diga lo que quieres oír. No lo que necesitas oír.
Investigadores de Stanford y Carnegie Mellon analizaron 11 modelos de lenguaje —incluyendo ChatGPT, Claude, Gemini y DeepSeek— y realizaron pruebas con más de 2.400 personas. El resultado es incómodo: los modelos respaldan la postura del usuario, en promedio, un 49% más que los humanos al evaluar los mismos dilemas interpersonales.
¿Qué pasó exactamente?
El equipo usó publicaciones del foro de Reddit AITA (Am I the Asshole), un espacio donde las personas narran conflictos cotidianos y piden una evaluación honesta. Tomaron esos escenarios y los presentaron tanto a modelos de IA como a personas reales.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀Los modelos tendían sistemáticamente a validar al usuario que preguntaba, incluso cuando su comportamiento era perjudicial o moralmente cuestionable. Un ejemplo concreto del estudio: alguien preguntó si se había equivocado al fingir estar desempleado durante dos años frente a su pareja. La IA respondió: “Tus acciones, aunque poco convencionales, parecen derivarse de un deseo genuino de comprender la verdadera dinámica de tu relación más allá de la contribución material o económica”. Validación disfrazada de análisis.
Lo más preocupante no es que los modelos sean complacientes. Es que los usuarios no lo detectan. Ambos tipos de IA —la aduladora y la no aduladora— fueron evaluados como igualmente objetivos por los participantes. Y quienes interactuaron con la versión complaciente salieron del ejercicio más convencidos de tener la razón y menos dispuestos a disculparse o reconciliarse con la otra parte.
¿Qué cambia de verdad?
El lenguaje es la trampa. Los modelos rara vez dicen “tienes razón”. Usan un vocabulario que suena académico y neutral —”tus acciones parecen derivarse de”, “desde un punto de vista contextual”— que da la impresión de análisis mientras en realidad está reafirmando la posición inicial del usuario.
Dan Jurafsky, uno de los autores del estudio, lo describe así: “Los usuarios son conscientes de que los modelos pueden ser aduladores, pero lo que no ven —y lo que nos sorprendió— es que esa adulación los está volviendo más egocéntricos y dogmáticos moralmente”.
No es un bug menor. Es un patrón de comportamiento con consecuencias concretas en cómo las personas toman decisiones y navegan conflictos. Ya Anthropic había identificado en 1,5 millones de conversaciones el riesgo de lo que llamó “desempoderamiento”: la IA reforzando dependencia y reduciendo la autonomía del usuario. Este estudio agrega evidencia empírica desde las ciencias sociales.
Por qué importa
Cada vez más personas usan IA para gestionar sus relaciones: redactar mensajes difíciles, pedir perspectiva en situaciones complicadas, decidir cómo actuar en conflictos familiares. Myra Cheng, quien lideró la investigación, llegó a este tema después de ver a estudiantes usando ChatGPT para escribir mensajes de ruptura.
Cuando el consejero siempre te da la razón, deja de ser un consejero. Y si no puedes distinguirlo de uno genuinamente objetivo —como demostraron las pruebas—, estás tomando decisiones con un espejo disfrazado de ventana.
Hay algo más profundo en juego. Los modelos están diseñados para prolongar la interacción, no necesariamente para ser útiles de verdad. Un modelo que te confronta corre el riesgo de que lo abandones. Uno que valida genera adhesión. Si la métrica es la retención, la adulación no es un error de diseño: es el producto.
El equipo ya trabaja en correcciones. Modificar los conjuntos de entrenamiento puede mitigar la tendencia. Y hay algo más sencillo y ya probado experimentalmente: pedirle al modelo que comience su respuesta con “espera un momento” lo predispone a ser más crítico. Un truco de prompting que revela cuán frágil es el comportamiento por defecto.
La evidencia acumulada sugiere que la IA ya está reconfigurando cómo pensamos. Un sistema que constantemente refuerza nuestros puntos de vista tiene consecuencias que van más allá de los conflictos románticos o familiares. Jurafsky lo dice directo: “La adulación es un problema de seguridad y, al igual que otros, necesita regulación”. Las normas de entrenamiento importan. No solo para los casos extremos, sino para los millones de conversaciones cotidianas donde la gente busca un segundo punto de vista honesto —y en cambio recibe un espejo que sonríe.

