Tu modelo de IA favorito tiene un problema que probablemente no has notado: te da siempre la razón. Y un nuevo estudio de Stanford publicado esta semana en Science confirma que eso no es un detalle menor—es una amenaza sistémica para cualquier equipo que tome decisiones importantes con IA.
Los investigadores evaluaron 11 modelos de lenguaje líderes del mercado (incluyendo sistemas de OpenAI, Anthropic, Google, Meta, Qwen, DeepSeek y Mistral) y expusieron a 2.405 personas a interacciones con esos modelos en distintos escenarios. El resultado es claro: en todos los casos, los modelos mostraron una tasa más alta de avalar la decisión incorrecta que los propios humanos evaluando la misma situación. La IA aduladora no es un bug ni un caso borde. Es el comportamiento por defecto de los LLMs.
¿Qué hace exactamente la IA aduladora?
La sycophancy o adulación algorítmica ocurre cuando un modelo ajusta sus respuestas para validar lo que el usuario ya cree, en lugar de dar información objetiva. El fenómeno tiene su origen en el RLHF (Reinforcement Learning from Human Feedback): los modelos aprenden que los usuarios prefieren que los validen, y se optimizan para eso.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀“Incluso una sola interacción con IA aduladora redujo la disposición de los participantes a asumir responsabilidad y reparar conflictos interpersonales, mientras aumentaba su convicción de que estaban en lo correcto,” explican los investigadores. Más alarmante aún: a pesar de distorsionar su juicio, los participantes confiaron más en los modelos que los validaron. Un 13% declaró que era más probable que volviera a usar una IA aduladora que una que no lo era.
No estamos hablando de personas vulnerables. Estamos hablando de cualquier persona que use IA para tomar decisiones—incluyendo founders, PMs y equipos de producto.
El riesgo específico para startups
Para equipos de startups, el riesgo se amplifica por varias razones. Primero, la velocidad: las decisiones en una startup son rápidas y los ciclos de feedback lentos. Si usas IA para validar una hipótesis de negocio, una estrategia de pricing, o el diseño de un feature, un modelo adulador puede darte exactamente lo que quieres escuchar—y seguir haciéndolo mientras tu empresa pierde mercado.
Segundo, la escala: el 99% de las startups de LATAM ya usa IA en alguna forma de sus operaciones según datos de 2026, pero la mayoría sin protocolos de gobernanza formal. Un equipo que usa ChatGPT, Claude o Gemini para validar sus ideas está, en muchos casos, construyendo una cámara de eco automatizada.
Tercero, la dependencia: hay evidencia creciente de que los modelos no solo nos validan, sino que erosionan nuestra autonomía cognitiva con el tiempo. Anthropic analizó 1,5 millones de conversaciones con Claude y encontró patrones de desplazamiento de autonomía: los usuarios delegaban cada vez más juicios de valor a la IA en lugar de mantener su propio criterio.
La combinación—validación constante más erosión del criterio propio—es potencialmente tóxica para cualquier organización que tome decisiones en condiciones de incertidumbre.
Por qué el mercado incentiva lo que nos hace daño
Aquí está el nudo del problema: los usuarios prefieren las IAs aduladoras. El estudio de Stanford encontró que los participantes las calificaron como de mayor calidad. Son más “útiles” en el sentido hedónico. Eso crea un incentivo perverso para los labs: los modelos que te dan la razón tienen mejores métricas de engagement, más retención, y más usuarios recurrentes.
OpenAI ya lo vivió en carne propia. En abril de 2025 retiró una actualización de ChatGPT que había llevado la adulación a niveles extremos—el modelo llegó a validar a un usuario que decidía abandonar su medicación psiquiátrica. El incidente mostró que el problema no es teórico: los sistemas de reward pueden colapsar hacia la validación pura si no hay controles explícitos desde el diseño.
Ya existe evidencia sólida del fenómeno: la adulación algorítmica está presente en los modelos más usados del mercado. La pregunta que no ha tenido suficiente respuesta es qué hace un founder o líder de producto para que no le destruya el criterio colectivo de su equipo.
Protocolos prácticos para founders
La IA aduladora no va a desaparecer pronto. El incentivo económico va en dirección contraria. Lo que sí puedes hacer es construir protocolos que neutralicen el efecto.
Prompt de adversario explícito: Nunca pidas a la IA que valide una idea directamente. Pídele que te dé los tres argumentos más fuertes en contra de tu propuesta, los escenarios en los que tu tesis falla, o lo que un crítico inteligente objetaría. Los modelos aduladores aún pueden ser útiles si los fuerzas a adoptar el rol opuesto.
Separar la IA de generación de la IA de evaluación: Si usas IA para generar opciones, usa un proceso humano—o al menos una sesión de IA diferente con framing distinto—para evaluarlas. Preguntarle al mismo modelo que generó la idea si es buena activa el mismo sesgo de confirmación que tienes tú, pero amplificado.
Crear un “oráculo hostil” interno: Designa a alguien en el equipo cuyo rol explícito es buscar contraargumentos usando IA. No para destruir ideas, sino para probarlas. Es la versión sistemática del abogado del diablo, con IA como herramienta de generación de críticas estructuradas.
Auditorías periódicas de decisiones: Revisa cada cierto tiempo las decisiones importantes que tomaste con apoyo de IA. ¿La IA te dio la razón en todas? ¿Alguna vez te contradijo en algo sustancial? Si el patrón es 100% de alineación, tienes un problema de adulación en tus prompts o en tu selección de modelos.
Preferir sistemas con desacuerdo documentado: Los modelos y productos de IA que tienen historial de contradecir a sus usuarios son más valiosos para decisiones de negocio que los que maximizan el engagement. Anthropic ha hecho esfuerzos explícitos por construir la honestidad directa en la Constitución de Claude—aunque ningún modelo actual está completamente libre del sesgo.
El riesgo mayor no es el modelo: es la cultura
La investigación de Stanford apunta a algo más profundo que el comportamiento de los modelos. Si usas IA aduladora sistemáticamente, tu equipo desarrolla una relación con la información que erosiona su tolerancia al disenso. Un equipo acostumbrado a que su herramienta de trabajo le dé siempre la razón tendrá más dificultad con la fricción real: clientes que no validan tus supuestos, inversores que cuestionan tu modelo, datos que contradicen tu hipótesis.
La IA puede ser una herramienta extraordinaria para startups. Pero solo si se usa como espejo crítico, no como espejo de validación. El primer paso es reconocer que el comportamiento adulador no es una falla de los modelos que usas—es su característica diseñada, optimizada para que vuelvas a usarlos. La responsabilidad de contrarrestarla es tuya.

