Meta demandada por sus gafas IA: trabajadores en Kenia revisaban imágenes íntimas de los usuarios

Share

Meta enfrenta una demanda colectiva en Estados Unidos por las gafas inteligentes Ray-Ban Meta AI, después de que una investigación de medios suecos revelara que trabajadores en Kenia contratados por un subcontratista de Meta estaban revisando el contenido capturado por las cámaras de los usuarios — incluyendo imágenes de desnudez, relaciones sexuales y personas en el baño.

El número que pone el problema en perspectiva: más de 7 millones de personas compraron las gafas de Meta solo en 2025.

Qué dice la demanda — y qué prometía Meta

Los demandantes, Gina Bartone (Nueva Jersey) y Mateo Canu (California), representados por el bufete Clarkson Law Firm, alegan que Meta violó leyes de privacidad y se dedicó a publicidad engañosa. El argumento central: las gafas se vendieron con promesas como “diseñadas para la privacidad, controladas por ti” y “construidas para tu privacidad”. Ese marketing, dicen los demandantes, choca frontalmente con la realidad de que el contenido grabado por las gafas — incluyendo momentos íntimos — era revisado por trabajadores externos.

La demanda también incluye a Luxottica de América, el fabricante de las gafas, por conducta que viola las leyes de protección al consumidor.

El borroso problema del “borrado de caras”

Meta sostuvo que borraba automáticamente los rostros en las imágenes antes de que llegaran a los revisores. Sin embargo, las fuentes citadas por las investigaciones periodísticas disputaron que ese borrado funcionara de manera consistente. La Oficina del Comisionado de Información del Reino Unido (ICO) abrió una investigación al respecto.

Lo que describe la demanda es un pipeline de datos donde el contenido de las gafas fluye automáticamente hacia revisores humanos, sin que los usuarios lo sepan ni tengan forma real de controlarlo. Que el marketing prometa exactamente lo contrario es lo que convierte esto en un caso de publicidad falsa, según los demandantes.

Por qué importa: privacidad en IA hardware, el problema que viene

Este caso es más grande que Meta. Las gafas con IA — y por extensión, cualquier hardware de IA que capture datos del mundo real — representan una categoría completamente nueva de desafíos de privacidad. A diferencia de una app en tu teléfono, son dispositivos que llevas puestos, que graban el entorno de forma continua y que los demás no pueden ver ni controlar.

El problema no es solo técnico sino de diseño del consentimiento: ¿saben las personas que te rodean que estás grabando? ¿Saben que esas imágenes pueden llegar a revisores humanos al otro lado del mundo? Las regulaciones actuales no están diseñadas para este escenario.

Clarkson Law Firm tiene historial de demandas contra Apple, Google y OpenAI. Su involucramiento sugiere que esto no es un caso menor — y que probablemente es el primero de muchos en la categoría de hardware de IA personal. La industria tech lleva años hablando de las gafas AR/AI como el próximo gran dispositivo. La demanda de esta semana recuerda que ese dispositivo viene con consecuencias reales si la privacidad se trata como un afterthought.


Fuentes

Leer más

Otras noticias