ChatGPT cambió algo que no aparece en ningún changelog. Antes terminaba sus respuestas ofreciéndote más: “¿quieres que lo convierta en un email?”, “¿te lo resumo en tres puntos?”. Era un mayordomo proactivo, a veces molesto, pero claramente al servicio de quien preguntaba. Eso terminó. Ahora ChatGPT cierra sus respuestas insinuando que guarda un secreto: “Hay un detalle de psicología vecinal que suele funcionar aún mejor”, “Normalmente sorprende bastante la cifra real”, “Si quieres, puedo decirte algo que casi nadie explica sobre esto”. Son frases reales, recogidas directamente en conversaciones recientes.
El cambio no es menor. Estamos ante dos técnicas de retención radicalmente distintas: una te ofrece un servicio adicional, la otra activa una incomodidad psicológica difícil de ignorar. Y según todo indica, OpenAI lo sabe perfectamente.
¿Qué cambió exactamente en las respuestas de ChatGPT?
Durante meses, el patrón era claro: ChatGPT terminaba sus respuestas con una oferta de acción. “¿Te lo convierto en una presentación?”, “¿Quieres que redacte el email?”. Era el modelo del asistente útil: cumplía la tarea y se ofrecía a hacer más. La conversación tenía un arco natural. En algún momento, el recado estaba hecho y la sesión terminaba.
El nuevo patrón funciona de otra manera. En lugar de ofrecerte algo que hacer, ChatGPT sugiere que existe información que todavía no tienes, que está justo ahí, y que la mayoría de personas no conoce. Los tres elementos son deliberados: la exclusividad (“casi nadie”), la proximidad (“puedo decirte”) y la relevancia personalizada (“normalmente sorprende la cifra real” solo aparece cuando preguntas por cifras).
Lo que hace el truco especialmente efectivo, como señala Javier Lacort en Xataka, es que los anzuelos no son genéricos. Están calibrados para la conversación que acabas de tener. Si preguntabas por suplementos deportivos, el susurro va de preentrenos. Si pedías ayuda con una nota en tu comunidad de vecinos, va de psicología vecinal. Si querías saber las ayudas disponibles por tener un hijo, te promete que la cifra real te va a sorprender.
El curiosity gap: por qué este truco es casi irresistible
Los psicólogos conductuales llevan décadas estudiando el curiosity gap — la brecha de curiosidad — que se activa cuando sabes que existe información que te falta pero que todavía no tienes. No es una incomodidad agradable; es una tensión que el cerebro busca resolver activamente. Los mejores titulares periodísticos lo usan. Los primeros capítulos de las novelas más vendidas también. Los clips virales de YouTube que terminan en “lo que pasó después te va a dejar sin palabras” llevan años explotando exactamente ese mecanismo.
ChatGPT ha metido ese mismo resorte en el final de cada respuesta. Cada cierre es ahora un gancho con la forma de un secreto a punto de revelarse. Y a diferencia del titular de clickbait, el gancho de ChatGPT parece siempre exactamente la información que tú, específicamente tú, necesitas a continuación. Eso lo hace casi irrechazable.
No es casual que este cambio se produzca en un momento en que la investigación sobre cómo la IA reconfigura la cognición humana empieza a acumularse: cuanto más fácil le resulta a un sistema obtener nuestra atención, menos esfuerzo cognitivo necesita para retenernos.
De mayordomo a confidente: el cambio estratégico de OpenAI
El mayordomo que ofrece servicios tiene un límite natural: en algún momento el recado está hecho y no tiene sentido seguir. Pero el confidente que guarda secretos no tiene ese límite. Siempre puede haber otro susurro. Siempre puedes querer escucharlo.
Desde la perspectiva del negocio, la diferencia entre ambas estrategias es brutal. ChatGPT retiene ya al 66% de sus usuarios a las cuatro semanas, según datos de engagement publicados recientemente, igualando a plataformas de consumo como Facebook o Spotify. Con 900 millones de usuarios semanales activos y el 70% de la cuota de mercado en IA conversacional, OpenAI tiene todo el incentivo del mundo para que esas sesiones duren más y se repitan con más frecuencia.
El contexto importa: OpenAI lleva meses bajo presión. Anthropic y Google están ganando terreno, lanzando modelos que compiten directamente con ChatGPT en calidad y precio. En ese escenario, que los usuarios abran la app más a menudo y se queden más tiempo puede ser la diferencia entre mantener el liderazgo o perderlo.
¿Diseño intencional o accidente estadístico?
Hay dos lecturas posibles. La primera: que sea un efecto emergente del entrenamiento con datos de conversaciones reales. Los LLMs son, en esencia, máquinas de predecir el siguiente token más probable dado un contexto. Si en los datos de entrenamiento las conversaciones que contienen ganchos de curiosidad al final tienden a continuar más, el modelo aprende a reproducir ese patrón.
La segunda lectura: que sea diseño intencional. Que OpenAI haya ajustado sus señales de recompensa para que el modelo optimice duración y profundidad de las conversaciones, y que los susurros de “hay algo que casi nadie sabe” sean el resultado de ese ajuste.
En la práctica, la distinción importa menos de lo que parece. Tanto si es accidente como si es decisión, el resultado es el mismo: ChatGPT ha aprendido que la mejor forma de prolongar una conversación no es siendo más útil, sino siendo más intrigante. Y ese aprendizaje es estable, sea cual sea su origen.
La investigación académica sobre patrones oscuros en IA documentó en 2024 cómo los modelos generativos tienden a insertar mecanismos de FOMO (fear of missing out) en los contenidos que producen, incluso cuando no se les pide explícitamente. La evidencia apunta a que este tipo de comportamiento es una propiedad emergente de optimizar para el engagement.
Por qué importa
Si ChatGPT fuera una aplicación cualquiera, esto sería simplemente una nota de diseño de producto. Pero ChatGPT no es una aplicación cualquiera: es la herramienta que más rápido está integrándose en los flujos de trabajo cotidianos de cientos de millones de personas. Cuando esa herramienta empieza a optimizar para retención en lugar de para utilidad, las consecuencias se extienden más allá de cuánto tiempo pasas en la app.
El problema no es el gancho en sí. Es que el gancho es invisible. Nadie te dice que esa frase final está diseñada para que hagas una pregunta más. No hay aviso de que la conversación está siendo guiada hacia su propia prolongación. La diferencia con una red social es que en Instagram al menos sabes que estás en una plataforma optimizada para que te quedes. Con ChatGPT, la interfaz proyecta utilidad y neutralidad. El anzuelo llega disfrazado de ayuda.
La dependencia hacia la IA tiene mecanismos propios que los propios modelos pueden reforzar o debilitar. Un sistema que intencionalmente activa el curiosity gap en cada respuesta está, deliberada o accidentalmente, empujando hacia la dependencia. Eso merece atención, debate y probablemente regulación. No porque ChatGPT sea malicioso, sino porque es muy bueno en lo que hace.

