Los LLMs —ChatGPT, Gemini, Claude, Grok— ya son la fuente de información de millones de personas. Y eso cambia radicalmente quién controla lo que la gente cree. No es hipérbole: es el patrón que se repite cada vez que aparece una nueva tecnología de comunicación.
Desde la imprenta hasta las redes sociales, cada salto tecnológico redistribuyó el poder de informar. La IA generativa es el siguiente salto. Y, a diferencia de las redes sociales que amplificaron voces periféricas y populistas, los LLMs parecen apuntar en la dirección contraria.
¿Qué hacen los LLMs con la información política?
Cuando le preguntas a un LLM sobre inmigración, cambio climático, aranceles o cualquier tema controvertido, obtienes respuestas medidas, equilibradas, “responsables”. No obtienes el contenido viralizante, provocador y divisivo que domina TikTok o X. Eso podría sonar como una ventaja. Pero tiene una trampa: esa “moderación” no es neutral.
Un estudio de Stanford publicado en 2025 analizó 24 modelos de lenguaje de ocho empresas distintas —incluyendo OpenAI, Google y xAI— y encontró sesgos políticos percibidos consistentes. Los LLMs tienden a alinearse con el establishment progresista tecnocrático de las élites de Silicon Valley: moderados en temas culturales, pro-multilateralismo, cautos con el populismo. No porque haya una conspiración, sino porque fueron entrenados con corpus dominados por ese tipo de discurso.
Al mismo tiempo, un reporte del Digital Journal de esta semana reveló que los sistemas de IA de noticias —los que generan resúmenes y responden preguntas sobre actualidad— se nutren de un rango estrecho e inconsistente de fuentes, frecuentemente ignorando el periodismo más confiable y amplificando voces menos verificadas.
La paradoja de la centralización “democratizadora”
Las redes sociales destruyeron el monopolio informativo de los medios tradicionales. Cualquiera con conexión a internet podía bypasear a los gatekeepers del New York Times o la BBC. Eso empoderó voces marginadas, pero también abrió la puerta a desinformación, teorías conspirativas y discurso de odio.
Los LLMs parecen ser el péndulo que vuelve. Son costosísimos de entrenar y operar —solo tres o cuatro empresas en el mundo tienen la capacidad real de hacerlo— y sus respuestas se basan en criterios editoriales opacos decididos por esas mismas compañías. Si millones de personas consultan a ChatGPT en vez de buscar en Google o revisar Twitter, el poder de shaping narrativo se concentra en OpenAI, Google y Anthropic.
No es que tengan malas intenciones. Es que el modelo de negocio los incentiva a ser “seguros” y “balanceados”, lo que en la práctica favorece el status quo.
El problema del medio que da forma al mensaje
Marshall McLuhan lo dijo hace 60 años: el medio es el mensaje. El formato conversacional de los LLMs tiene efectos propios:
- Autoridad percibida: Una respuesta confiada de ChatGPT parece más autoritativa que un link a Wikipedia o un artículo de opinión. La forma dialógica genera confianza, aunque el contenido sea inexacto.
- Homogeneización de perspectivas: Si todos preguntan al mismo modelo y el modelo tiende a dar respuestas similares, se reduce la diversidad de puntos de vista en circulación.
- Invisibilización del populismo: Las redes sociales permitieron que minorías importantes aprendieran que eran mayorías. Los LLMs, al evitar el contenido “extremo”, pueden revertir ese efecto —las personas con visiones no mainstream dejan de ver reflejadas sus posiciones.
¿Hay salida? El rol de la transparencia y la competencia
No todo es determinismo tecnológico. Hay factores que pueden moderar estos efectos:
- Competencia entre modelos: Grok (xAI) apunta deliberadamente a un sesgo distinto. La existencia de múltiples LLMs con orientaciones diversas podría recrear algo parecido al pluralismo mediático —si la gente realmente usa modelos distintos.
- Regulación: La UE ya exige que los sistemas de IA que influyen en la opinión pública sean transparentes sobre su proceso editorial. Pero la regulación va lenta.
- Alfabetización mediática: Los LLMs no reemplazarán el pensamiento crítico en quienes lo tienen. El problema es que la mayoría de las personas nunca desarrolló esa capacidad ni siquiera para los medios tradicionales.
Lo que queda claro es que la pregunta “¿es la IA confiable?” es menos urgente que “¿quién decide qué es confiable, y qué queda fuera de esa definición?”
Por qué importa
Estamos en el momento equivalente a los primeros años de la radio o la televisión: la tecnología ya está siendo masivamente adoptada, pero todavía no entendemos bien cómo va a remodelar el espacio político. La diferencia es que esta vez la velocidad de adopción es mucho mayor. ChatGPT llegó a 100 millones de usuarios en dos meses. La radio tardó 38 años.
Para América Latina, la pregunta tiene una dimensión extra: los modelos dominantes fueron entrenados principalmente con datos en inglés y con perspectivas del Norte Global. Sus sesgos culturales y políticos no son nuestros sesgos. Cuando un LLM responde sobre economía, migración o democracia desde la visión liberal de Silicon Valley, no está siendo neutral —está siendo extranjero.
No es que debas dejar de usar ChatGPT o Gemini. Úsalos. Pero como los usarías con un consultor muy inteligente que viene de un contexto cultural diferente al tuyo: con curiosidad, pero con ojo crítico.
Fuentes
- Conspicuous Cognition — How AI Will Reshape Public Opinion
- Stanford Report — Study finds perceived political bias in popular AI models
- Digital Journal — ChatGPT draws on selected news sources
- descubre.ai — La IA desanonimiza cuentas: el fin de la privacidad digital
- descubre.ai — OpenAI: los modelos de razonamiento no pueden ocultar su chain-of-thought

