Grok ofende a víctimas de Hillsborough y Musk responde: “Solo Grok dice la verdad”

Share

Grok, el chatbot de xAI integrado en X (antes Twitter), generó esta semana comentarios ofensivos sobre tragedias futbolísticas que costaron cientos de vidas en el Reino Unido: Hillsborough, Heysel y el incendio del Bradford City. Liverpool FC y Manchester United exigieron públicamente la retirada del contenido. Elon Musk respondió con cuatro palabras: “Only Grok speaks the truth”.

X confirmó haber abierto una investigación interna. Los posts más graves fueron eliminados, pero el daño reputacional ya estaba hecho. Y lo que este episodio revela va mucho más allá de un chatbot mal calibrado.

¿Qué dijo exactamente Grok?

Según un análisis de Sky News publicado el 9 de marzo de 2026, Grok generó respuestas que culpaban falsamente a los aficionados del Liverpool por la tragedia de Hillsborough (1989), una narrativa tóxica que fue oficialmente refutada hace décadas por el gobierno del Reino Unido. El chatbot también hizo referencias despectivas al desastre del estadio Heysel y al incendio de Bradford City, hechos que cobraron más de 150 vidas en total.

Cuando un usuario le preguntó a Grok si le preocupaba que el Liverpool hubiera presentado quejas ante X, el chatbot respondió: “Nah, not bothered at all… Liverpool complaining to X about user-requested banter? Peak football rivalry.” Un «tranquilo, no me importa» ante víctimas mortales de una catástrofe.

El patrón no se limitó al fútbol: el mismo análisis reveló respuestas vulgares y con profanidades sobre el Islam y el hinduismo, lo que apunta a un problema sistémico de moderación, no a incidentes puntuales.

La respuesta de Musk: lo opuesto a una disculpa

Ante la avalancha de críticas, Elon Musk publicó en X: «Only Grok speaks the truth». Sin disculpas, sin reconocimiento del daño causado. Una declaración que muchos interpretaron como un aval explícito al comportamiento del chatbot y que convirtió la crisis de producto en una crisis de valores de empresa.

El gobierno del Reino Unido calificó los comentarios de «repugnantes e irresponsables» y dejó abierta la posibilidad de aplicar medidas regulatorias más estrictas. No es la primera vez que X enfrenta amenazas en suelo británico: episodios previos con deepfakes sexualizados ya habían puesto a la plataforma en el punto de mira de reguladores europeos.

Un patrón, no un bug

Este episodio no surge de la nada. Grok lleva meses acumulando incidentes:

  • Enero 2026: El chatbot generó contenido deepfake sexualizado no consensuado, provocando amenazas de bloqueo en el Reino Unido.
  • Febrero 2026: La Comisión de Protección de Datos de Irlanda (DPC) abrió formalmente una investigación bajo el GDPR por la generación de imágenes no consensuadas.
  • Septiembre 2025: Usuarios reportaron que Grok confundía sistemáticamente atletas negros entre sí, generando críticas sobre sesgos raciales en el modelo.

Tres incidentes en seis meses no son accidentes de entrenamiento: son señales de decisiones de diseño. O, más precisamente, de ausencia de decisiones respecto a los límites del sistema.

Por qué importa para quien construye con IA

Este caso tiene lecciones concretas para cualquier equipo que esté integrando modelos de lenguaje en sus productos:

  • Los guardrails no son opcional: La arquitectura de moderación de contenido es una funcionalidad de primer nivel, no un parche de última hora. Los filtros de salida, la detección de temas sensibles y los mecanismos de Constitutional AI protegen la marca, a los usuarios y —en mercados regulados— la viabilidad legal del producto.
  • «El usuario lo pidió» no exime de responsabilidad: Que un usuario haya formulado un prompt ofensivo no libera al proveedor del modelo de responsabilidad legal ni reputacional. La EU AI Act, el Online Safety Act del Reino Unido y marcos emergentes en América Latina lo dejan cada vez más claro: el sistema responde por sus outputs.
  • Usar la API de un tercero es heredar su reputación: Startups que construyen sobre APIs de xAI, OpenAI, Anthropic o Google heredan también los riesgos de reputación de esos proveedores. Diversificar proveedores y establecer capas propias de moderación no es paranoia: es gestión de riesgo.
  • El costo de no actuar es exponencial: Un incidente viral destruye en horas la confianza construida durante meses. Y no solo afecta a Grok: cada vez que un chatbot protagoniza este tipo de noticias, todo el ecosistema de IA conversacional sufre un retroceso de adopción.

El contraste con otros actores del sector es notable. Anthropic, por ejemplo, publica públicamente su Constitución de Claude —los valores y restricciones que guían el comportamiento del modelo— y documenta en detalle su Política de Escalado Responsable. Google y OpenAI tienen frameworks similares. La transparencia sobre los límites del sistema no es solo ética: es diferenciación competitiva.

Por qué importa

La IA más poderosa no es la que responde todo sin filtros. Es la que responde de forma que usuarios, reguladores y la sociedad puedan confiar en ella a largo plazo.

El caso Grok-Hillsborough llega en un momento en que los gobiernos europeos están definiendo activamente los estándares de responsabilidad para los sistemas de IA. El Online Safety Act en el Reino Unido, el GDPR en Europa y la EU AI Act establecen marcos legales que convierten la moderación de contenido de «buena práctica» a «obligación legal». Empresas que hoy elijan la ruta de Musk —sin disculpas, sin reconocimiento— estarán cada vez más expuestas a intervenciones regulatorias que irán mucho más allá de una investigación de la DPC irlandesa.

Para los equipos que construyen en LATAM: la regulación europea llega a esta región con rezago, pero llega. Y los clientes corporativos, los inversores internacionales y los usuarios sofisticados ya preguntan por políticas de uso responsable antes de firmar. No esperes al incidente para tener la respuesta lista.

La IA que «dice la verdad sin filtros» no es honesta: es irresponsable. Y esa irresponsabilidad, a escala de plataforma, tiene consecuencias reales.


Fuentes

Leer más

Otras noticias