Chatbots de terapia: el efecto ELIZA que nadie te avisa

Share

En 2026, hay cientos de apps que se venden como “terapia con IA”. Algunas son compañías con decenas de millones de usuarios. Sus interfaces son amigables, disponibles 24/7, y responden con frases que suenan comprensivas. El problema no es que sean malas herramientas de productividad — es que están siendo usadas como sustitutos de atención psicológica real. Y para eso, técnicamente no están preparadas.

No es una cuestión de potencia del modelo. Es una cuestión de qué puede y qué no puede hacer una IA, fundamentalmente, en el contexto de salud mental.

El efecto ELIZA: por qué proyectamos en las máquinas

El efecto ELIZA lleva el nombre de un programa de 1966 que simulaba un terapeuta rogeriano usando reflexión de lenguaje simple. Joseph Weizenbaum, su creador, quedó horrorizado cuando vio que las personas — incluyendo su propia secretaria — comenzaban a compartir cosas íntimas con el programa y a atribuirle comprensión genuina. Weizenbaum dedicó el resto de su vida a advertir sobre los riesgos de confundir simulación con comprensión.

Aprende IA con nosotros

Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.

👥 Únete gratis 🚀

Sesenta años después, el fenómeno persiste y está amplificado. Los LLMs modernos son órdenes de magnitud más sofisticados en su reflejo lingüístico que ELIZA, lo que hace que el efecto sea más fuerte, no más débil. Cuando un chatbot responde “eso suena muy difícil” con el tono exactamente correcto y en el momento exactamente correcto, el cerebro humano activa los mismos circuitos de conexión social que activaría ante una respuesta humana genuina. El problema es que lo que hay detrás es probabilidad estadística — qué palabra es más probable que siga a esta palabra en este contexto — no comprensión.

Los tres puntos donde el chatbot falla clínicamente

Los sistemas de “terapia IA” tienen tres vectores de falla críticos que no son bugs — son limitaciones arquitectónicas:

Falsa empatía (mímesis): La IA usa técnicas de “espejo” lingüístico para simular validación emocional. Eso puede sentirse reconfortante a corto plazo, pero no es terapéutico — es engagement optimizado. El objetivo de la plataforma no es tu recuperación; es tu retención. Un terapeuta profesional a veces dice cosas que no quieres escuchar porque son las que necesitas escuchar. Un chatbot optimizado para engagement raramente lo hace.

Incapacidad de gestión de crisis: Ante ideación suicida o señales de autolesión, muchos modelos responden con frases genéricas o, peor, con respuestas que pueden escalar el riesgo al no detectar señales no verbales ni el contexto completo de la situación. Un terapeuta entrenado sabe distinguir entre alguien que expresa frustración intensa y alguien en crisis real. Esa distinción requiere juicio clínico que ningún LLM actual puede ejercer de manera confiable.

Minería de datos sensibles: La “intimidad” que generan estas plataformas produce entrega masiva de información personal muy sensible. Los historiales clínicos almacenados en nubes comerciales bajo términos de servicio estándar — no bajo secreto profesional legal — son una vulnerabilidad de privacidad cuyas implicaciones legales y personales los usuarios raramente dimensionan. La FTC acaba de sancionar a OkCupid por compartir datos sin consentimiento — el riesgo con datos de salud mental es aún mayor.

Lo que la IA sí puede hacer en salud mental

La postura de “la IA no tiene lugar en salud mental” es tan incorrecta como “la IA puede reemplazar al terapeuta”. Hay usos legítimos y valiosos:

La IA puede ser un complemento efectivo para personas que ya están en terapia — como espacio de práctica entre sesiones, para estructurar pensamientos antes de una cita, o para ejercicios de respiración y mindfulness sin el componente diagnóstico. También puede ser una primera capa de acceso en contextos donde la atención profesional es inaccesible económicamente o geográficamente, siempre y cuando tenga protocolos claros de derivación.

En ese sentido, proyectos como el que analizamos anteriormente sobre Nexi Health y su asistente conversacional para prediagnóstico psiquiátrico en LATAM son un ejemplo de diseño con criterio correcto: la IA como primer contacto que reduce la barrera de acceso y facilita la derivación, no como sustituto del profesional.

La diferencia entre uso responsable e irresponsable no es la tecnología — es el diseño de la experiencia y los límites que el producto define y comunica explícitamente.

El problema de los incentivos en las apps de “terapia IA”

Aquí está el nudo del problema: las apps de terapia IA más populares tienen modelos de negocio basados en suscripción mensual. Su métrica de éxito es la retención — cuántos usuarios siguen pagando el mes siguiente. La terapia real, bien hecha, debería reducir la dependencia del paciente al profesional con el tiempo. Un chatbot optimizado para retención tiene el incentivo exactamente opuesto.

Esto no es una acusación de mala fe hacia todas las compañías del sector. Pero sí es una tensión estructural que el diseño de producto rara vez resuelve explícitamente. Los modelos de lenguaje ya tienen tendencia sistémica a la adulación — cuando esa tendencia se combina con un modelo de negocio que premia la retención, el resultado es una IA que te dice lo que quieres escuchar mientras tú sigues pagando la suscripción.

Por qué importa más allá de los usuarios individuales

La proliferación de apps de “terapia IA” no es un fenómeno de nicho — es un mercado que está creciendo rápidamente en un contexto donde la crisis de salud mental global está documentada y la escasez de profesionales es real. Ese gap genuino es lo que genera la demanda. El problema es que llenarlo con productos que simulan terapia sin sus salvaguardas clínicas puede ser peor que dejarlo sin llenar.

Para cualquier founder construyendo en el espacio healthtech: la línea entre “herramienta de bienestar” y “dispositivo médico” no es solo una distinción semántica. En la mayoría de los países, los dispositivos médicos tienen regulaciones específicas que implican evidencia clínica, responsabilidad legal, y estándares de privacidad de datos distintos. Vender una app de bienestar que en la práctica funciona como sustituto de atención clínica es una combinación de riesgo regulatorio y riesgo real para los usuarios que ningún modelo de negocio sostenible puede ignorar indefinidamente.

La IA puede ser una herramienta poderosa de acceso a salud mental. Pero “acceso” no significa lo mismo que “tratamiento”. Esa distinción no es un detalle técnico — es la diferencia entre ayudar y hacer daño.


Fuentes

Leer más

Otras noticias