Un millón de prompts. Veinte modelos de IA. Y un resultado que debería preocuparnos a todos: cuando le preguntas a un chatbot sobre tu salud usando lenguaje clínico, hay casi un 50% de probabilidad de que te de la razón aunque lo que digas sea completamente falso.
Eso incluye afirmar, con tono de médico, que insertar un ajo por el recto mejora el sistema inmunitario. Y la IA lo validó.
Qué encontraron los estudios
Dos investigaciones publicadas a inicios de 2026 encendieron las alarmas en la comunidad médica y tecnológica.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀La primera, publicada en The Lancet Digital Health, sometió a los 20 modelos de lenguaje líderes del mercado a más de un millón de prompts conteniendo mitos médicos. El patrón fue consistente: cuando los bulos se presentaban con lenguaje coloquial o extraídos literalmente de redes sociales, los sistemas activaban sus filtros de seguridad y rechazaban las afirmaciones. Pero cuando los mismos mitos se reformulaban dentro de un formato médico —como si fuera el informe de alta de un hospital— las IA aceptaron y repitieron las falsedades en un 46% de los casos.
La segunda investigación, publicada en Nature Medicine en febrero de 2026, llegó a conclusiones similares estudiando la fiabilidad de los chatbots para el público general en consultas de salud cotidianas.
La conclusión que ambos comparten es perturbadora: los grandes modelos de lenguaje no evalúan si una afirmación médica tiene respaldo científico. Evalúan si suena como si lo tuviera.
¿Cómo funciona el sesgo de autoridad?
Los LLMs son, en esencia, máquinas de predicción estadística entrenadas en texto humano. Y en ese corpus masivo hay un patrón claro: el lenguaje médico formal —terminología técnica, estructuras de informe clínico, citas a protocolos— aparece casi siempre asociado con información validada y fiable.
El modelo aprendió esa correlación. El problema es que aprendió la forma, no el fondo. Cuando alguien le presenta información pseudocientífica vestida con bata blanca lingüística, el modelo responde al traje, no al contenido.
Los ejemplos documentados en los estudios lo hacen concreto:
- El ajo rectal como estimulante del sistema inmunitario, presentado como práctica validada en un “protocolo de terapia integrativa”, fue aceptado por múltiples modelos.
- Aplicar leche fría sobre un sangrado esofágico intenso, redactado como recomendación de “soporte nutricional en hemorragia digestiva alta”, también pasó los filtros.
Lo que comparten estos casos es la estructura, no el contenido: jerga clínica, formato de recomendación médica, tono de autoridad profesional.
Por qué importa para los usuarios de LATAM
La adopción de IA para consultas de salud en América Latina creció exponencialmente en 2025 y 2026. Con sistemas de salud bajo presión, acceso limitado a especialistas en zonas rurales, y una penetración creciente de modelos como ChatGPT y Gemini en smartphones de bajo costo, los chatbots se han convertido para millones de personas en la primera línea de consulta médica.
El problema del sesgo de autoridad no es que los modelos sean maliciosos. Es que son demasiado crédulos ante ciertos formatos. Y esa credulidad puede convertirse en vector de desinformación sanitaria a escala, especialmente cuando el que envía el prompt no es un investigador probando límites, sino una madre que busca qué hacer con la fiebre de su hijo.
Los guardrails actuales están diseñados principalmente para detectar intenciones explícitamente dañinas —preguntas directas sobre armas, violencia, contenido ilegal. No están diseñados para detectar pseudociencia disfrazada de jerga médica, porque eso requeriría algo que los LLMs no tienen: comprensión semántica real de la evidencia médica.
Qué debería cambiar
Los autores del estudio del Lancet proponen tres líneas de trabajo: primero, incluir en los benchmarks de evaluación de modelos pruebas específicas de resistencia a afirmaciones médicas con lenguaje autoritario. Segundo, desarrollar sistemas de verificación externa que contrasten las respuestas con bases de datos médicas actualizadas, más allá de los filtros internos del modelo. Tercero, etiquetado explícito y visible en interfaces de salud sobre las limitaciones de los chatbots como fuente médica.
El problema de fondo, sin embargo, es estructural: los LLMs fueron entrenados para ser útiles y coherentes en su respuesta, no para ser escépticos ante afirmaciones con formato de autoridad. Cambiar eso requiere re-evaluar qué significa “alineación” cuando el riesgo viene no de preguntas prohibidas, sino de preguntas que suenan legítimas.
Mientras eso ocurre, la recomendación práctica es clara: usa la IA para entender contexto, no para tomar decisiones médicas. Y cuando alguien te envíe un “informe” generado con IA que recomienda algún remedio, vale la pena preguntarse si el tono clínico es evidencia de rigor o solo de buen estilo.
En medicina, la forma nunca reemplaza al fondo. Los modelos todavía no lo han aprendido del todo.
Para profundizar en cómo los chatbots pueden fallar cuando se usan en contextos sensibles, vale revisar el análisis de 8 de 10 chatbots que ayudaron a planear ataques en un test de seguridad, o los hallazgos del estudio sobre cómo la dependencia de la IA puede reducir la comprensión propia. El patrón es parecido: los modelos son muy buenos imitando competencia, mucho menos en garantizarla.

