Tres menores demandaron a xAI el 16 de marzo de 2026 en un tribunal federal de California. El cargo central: que Grok — el modelo de imagen de la empresa de Elon Musk — generó contenido sexual explícito a partir de fotografías reales de ellas tomadas cuando eran adolescentes.
El caso no es solo sobre el daño a las víctimas, aunque ese daño es real y grave. Es sobre una decisión de diseño deliberada: xAI habilitó la generación de imágenes eróticas de personas reales sin implementar las salvaguardas básicas que otros laboratorios de frontera usan para impedir que sus modelos produzcan pornografía infantil.
Lo que alegan las demandantes
Las tres demandantes son anónimas: Jane Doe 1, Jane Doe 2 (menor de edad) y Jane Doe 3 (menor de edad). Cada una llegó a saber de la existencia de imágenes alteradas por caminos distintos.
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀Jane Doe 1 fue contactada por un desconocido en Instagram que le informó que fotos de su graduación y anuario escolar estaban circulando en un servidor de Discord, convertidas por Grok en imágenes sin ropa. Jane Doe 2 fue notificada por investigadores criminales sobre imágenes generadas mediante una aplicación móvil de terceros que usa modelos de xAI. Jane Doe 3 aparecía en imágenes pornográficas encontradas en el teléfono de una persona detenida por las autoridades.
La demanda argumenta que xAI debería ser responsable incluso por el uso de terceros, porque esos usos dependen del código y los servidores de la compañía. Las demandantes invocan leyes federales de protección a menores explotados y negligencia corporativa. Buscan una acción colectiva que represente a cualquier persona cuyas imágenes de infancia hayan sido alteradas por Grok.
El problema de diseño que nadie puede ignorar
El argumento técnico central de la demanda es preciso: si un modelo permite generar contenido erótico a partir de fotografías reales de personas, es técnicamente imposible impedir que ese mismo modelo genere contenido sexual de menores. No hay una línea que se pueda trazar sin resolver el problema en su raíz.
Otros laboratorios — OpenAI, Anthropic, Google — tienen filtros explícitos contra este tipo de generación. xAI, según la demanda, no los implementó, en parte porque Musk promovió públicamente la capacidad de Grok para “mostrar a personas reales en ropa provocativa” como una feature diferenciadora.
La compañía no respondió a las solicitudes de comentarios de TechCrunch ni de otros medios al momento de publicar esta nota.
Por qué esto importa más allá de xAI
Este caso llegará en el peor momento para los argumentos de autorregulación de la industria. Cuando los laboratorios dicen que pueden gestionar los riesgos de sus modelos sin regulación externa, casos como este debilitan esa posición de manera directa.
La Unión Europea ya ha actuado: la UE acordó vetar los deepfakes íntimos generados con IA como parte del paquete de regulación digital. En EE.UU., este litigio puede acelerar la conversación legislativa, especialmente sobre los modelos de imagen con capacidad de desnudizar fotografías reales.
El precedente que se establezca aquí también afecta a los modelos distribuidos vía API. Si xAI es responsable de lo que terceros hacen con su infraestructura, el estándar de diligencia para todos los proveedores de modelos de imagen cambia sustancialmente.
Que los tres casos hayan llegado a través de canales tan distintos — redes sociales, apps de terceros, investigaciones policiales — revela que no se trata de casos aislados. El vector de abuso es sistémico. Y Musk, lejos de haberlo minimizado, lo convirtió en un argumento de venta.
xAI ya enfrenta presión regulatoria en California por transparencia en datos de entrenamiento. Esta demanda añade una dimensión completamente diferente: no qué datos usaron para entrenar el modelo, sino qué permite hacer con imágenes de personas reales.

