El Parlamento Europeo aprobó esta semana, con 569 votos a favor, 45 en contra y 23 abstenciones, un paquete de enmiendas a la Ley de IA de la UE que hace dos cosas a la vez: retrasa los plazos de cumplimiento para los sistemas de IA de alto riesgo y propone prohibir las aplicaciones de “nudify”, esas herramientas que usan IA para generar o manipular imágenes sexualmente explícitas de personas reales sin su consentimiento.
Las dos decisiones parecen contradictorias —más tiempo para los proveedores, pero una línea roja nueva— y juntas revelan algo importante sobre el momento regulatorio en Europa: la UE no está retirando su ambición de regular la IA, pero sí está aprendiendo —a empujones— que los plazos demasiado apretados generan más caos que cumplimiento.
¿Qué se retrasa exactamente y hasta cuándo?
La Ley de IA de la UE (AI Act) era la regulación más completa del mundo cuando se aprobó. Pero su implementación práctica se está topando con una realidad incómoda: las guías y estándares técnicos que las empresas necesitan para cumplirla todavía no están listas.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀El paquete aprobado esta semana propone tres nuevas fechas:
- 2 de diciembre de 2027: Para sistemas de IA de alto riesgo listados explícitamente en la regulación — incluidos los que usan biometría, los aplicados a infraestructura crítica, educación, empleo, servicios esenciales, fuerzas del orden, justicia y control fronterizo.
- 2 de agosto de 2028: Para sistemas de IA cubiertos por legislación sectorial europea de seguridad (dispositivos médicos, juguetes, equipos de radio, entre otros).
- 2 de noviembre de 2026: Para los requisitos de marca de agua (watermarking) en contenido generado por IA — audio, imagen, video y texto.
Todo esto tenía fecha límite original en agosto de 2026. El retraso no es menor: hablamos de entre uno y dos años adicionales.
La prohibición de las apps nudify: contexto y límites
La incorporación de una prohibición a las apps de nudificación es la parte nueva del paquete. No estaba en el texto original del AI Act. El impulso viene en gran medida de la oleada de deepfakes sexualizados generados con Grok de xAI que circularon en X a principios de 2026 y generaron una investigación de la UE. El escándalo de Grok produciendo imágenes inapropiadas puso el tema en el centro del debate regulatorio europeo.
Los eurodiputados quieren que estas herramientas queden incluidas en la categoría de aplicaciones prohibidas por el AI Act. La redacción aún es genérica: no aplica a “sistemas de IA con medidas de seguridad efectivas que impidan a los usuarios crear tales imágenes”, lo que deja margen de interpretación. Tampoco hay todavía detalles sobre cómo se implementaría la prohibición ni quién verificaría el cumplimiento.
Lo que sí está claro es que este voto del Parlamento no convierte la prohibición en ley. Ahora debe negociarse con el Consejo Europeo —los ministros de los 27 estados miembro— para alcanzar un texto final. Y existe la duda de si ese proceso puede completarse antes del plazo original de agosto de 2026.
Incertidumbre legal que no desaparece
Este es el punto que muchos análisis pasan por alto: el voto del Parlamento no cambia automáticamente los plazos legales vigentes. El AI Act sigue siendo ley con sus fechas originales hasta que el Consejo apruebe las enmiendas. Las empresas operando en Europa se encuentran así en una zona gris: saben que es probable que los plazos cambien, pero no tienen certeza legal de que ese cambio ocurra antes de agosto.
Esto es especialmente problemático porque no es la primera vez que la UE genera esta situación. La Comisión ya incumplió sus propios plazos para publicar guías de implementación clave, lo que dejó a los desarrolladores sin hoja de ruta. El debate sobre Chat Control mostró la misma tensión: legislación ambiciosa que avanza más rápido que la capacidad institucional de acompañarla con normas técnicas claras.
Qué significa esto para empresas y desarrolladores
Para los sistemas de IA de menor riesgo o propósito general (como los modelos de lenguaje de gran escala), los plazos originales ya se aplican desde el año pasado. El retraso anunciado afecta específicamente a los sistemas de alto riesgo, que son también los más complejos de certificar y los que requieren mayor inversión en documentación, auditorías y cumplimiento.
La extensión beneficia principalmente a:
- Startups y empresas medianas con recursos limitados para absorber el coste de cumplimiento acelerado.
- Empresas de sectores muy regulados (salud, educación, fuerzas del orden) donde los sistemas de IA están cubiertos por múltiples capas normativas a veces conflictivas.
- Proveedores de infraestructura y herramientas para desarrolladores que necesitan que los estándares técnicos estén definidos antes de adaptarse a ellos.
Para las empresas de mayor tamaño, el retraso es una noticia agridulce: más tiempo para prepararse, pero también más tiempo en una situación de incertidumbre que dificulta la planificación a largo plazo. En LATAM, donde se observa de cerca la regulación europea como referencia, este giro también tendrá efecto: los legisladores locales que seguían el modelo de la UE ahora tienen que recalibrar.
Por qué importa
La decisión del Parlamento Europeo es un reconocimiento tácito de algo que los críticos del AI Act llevan tiempo señalando: regular la IA con plazos que no dependen de la disponibilidad real de guías técnicas crea un problema de cumplimiento ficticio. Las empresas se ven obligadas a “cumplir” con estándares que aún no existen, lo que en la práctica significa documentación cosmética, no mejoras reales de seguridad.
El ban a las apps de nudify, en cambio, es una señal en sentido contrario: que hay áreas donde la UE está dispuesta a actuar con rapidez y sin esperar a estándares técnicos, cuando el daño concreto a personas reales es evidente. La pregunta es si esa velocidad diferencial —rápida para prohibir, lenta para exigir cumplimiento técnico— produce un marco regulatorio coherente o uno lleno de asimetrías.

