ChatGPT estrena Lockdown Mode: cómo protege tus datos del prompt injection

Share

OpenAI acaba de dar un paso concreto en seguridad empresarial: Lockdown Mode, un modo de protección avanzado para ChatGPT que blinda a ejecutivos y equipos de seguridad contra los ataques de prompt injection. No es un ajuste de privacidad de datos de entrenamiento —eso ya existe como opción separada— sino una defensa técnica contra atacantes que intentan robar información sensible a través de las capacidades de red del modelo.

La amenaza es real: cuando un agente de IA puede navegar la web, descargar archivos o conectarse a apps externas, un atacante puede inyectar instrucciones maliciosas en el contenido que el modelo lee y así exfiltrar datos privados. Lockdown Mode corta ese vector de raíz.

¿Qué hace exactamente Lockdown Mode?

El modo funciona desactivando de forma determinista todas las capacidades que podrían usarse para sacar datos fuera de la red controlada de OpenAI. Según el anuncio oficial de OpenAI, esto incluye:

  • Navegación web en vivo deshabilitada: ChatGPT solo puede acceder a contenido en caché, sin peticiones de red en tiempo real que puedan dirigirse a servidores del atacante.
  • Agent Mode desactivado: el agente que puede navegar y ejecutar acciones en tu nombre queda bloqueado.
  • Deep Research desactivado: la función que analiza fuentes externas de forma autónoma no puede operar.
  • Canvas sin acceso a red: el editor colaborativo pierde conectividad externa.
  • Descarga de archivos bloqueada: el modelo no puede enviar archivos a destinos externos.
  • Imágenes en respuestas desactivadas (aunque el usuario puede seguir subiendo sus propias imágenes y usar generación de imágenes).

La lógica es clara: si el modelo no puede hacer peticiones de red salientes, no puede exfiltrar datos aunque un atacante logre inyectar instrucciones maliciosas en el contexto. Lockdown Mode no evita que llegue el prompt injection —eso sigue siendo un problema abierto de la industria— pero sí corta el canal de salida que usaría el atacante para recibir los datos robados.

¿Quién lo necesita?

OpenAI es explícito en que esto no es para el usuario promedio. La compañía lo diseñó para “un pequeño conjunto de usuarios altamente conscientes de la seguridad, como ejecutivos o equipos de seguridad en organizaciones prominentes”.

Si usas ChatGPT para escribir emails o resumir textos, probablemente no lo necesitas. Pero si tu equipo usa ChatGPT Enterprise para analizar contratos legales, financieros o estratégicos, o si eres un alto ejecutivo con acceso a información sensible, el modo tiene sentido. Trail of Bits demostró a principios de 2026 lo vulnerables que son los navegadores agénticos a este tipo de ataques: lograron exfiltrar datos a través de métodos creativos en un entorno de prueba.

Control granular para los admins de empresa

Como muchas organizaciones dependen de apps conectadas para sus flujos de trabajo, los administradores de workspace mantienen control granular: pueden decidir exactamente qué apps —y qué acciones dentro de cada app— permanecen disponibles incluso en Lockdown Mode. Esto significa que si tu equipo necesita la integración con Salesforce o Slack para operar, puedes mantenerla activa evaluando el riesgo de forma consciente.

Los admins configuran el modo desde Workspace Settings creando un nuevo rol con permisos restringidos. También se lanzó la Compliance API Logs Platform para que los administradores tengan visibilidad completa sobre qué apps se usan, qué datos se comparten y qué fuentes se conectan.

Elevated Risk Labels: señales de advertencia en todo el ecosistema

Junto con Lockdown Mode, OpenAI introdujo las etiquetas “Elevated Risk” para funciones que introducen riesgo adicional en ChatGPT, ChatGPT Atlas y Codex. Por ejemplo, en Codex, cuando habilitas acceso de red para que el agente de código pueda consultar documentación, ahora ves esta etiqueta con una explicación clara de qué cambia y cuándo es apropiado usarlo.

La filosofía de OpenAI aquí es que una vez que las salvaguardas técnicas sean suficientemente robustas, las etiquetas desaparecerán. Es una señal positiva: en lugar de simplemente habilitar todo sin aviso, la empresa está apostando por transparencia sobre los riesgos durante el período de maduración de estas capacidades.

Disponibilidad: enterprise primero, consumidores después

Por ahora, Lockdown Mode está disponible para ChatGPT Enterprise, ChatGPT Edu, ChatGPT for Healthcare y ChatGPT for Teachers. OpenAI anunció que planea expandirlo a planes de consumo y equipos en los próximos meses.

La decisión de empezar por enterprise tiene sentido: son los contextos con mayor riesgo real (información corporativa sensible, datos de salud, información legal) y los que ya tienen admins capaces de configurarlo de forma responsable.

Por qué importa

Los ataques de prompt injection son el talón de Aquiles de los agentes de IA. A medida que los modelos acumulan más capacidades —navegar la web, ejecutar código, conectarse a apps— la superficie de ataque crece. Durante años, la respuesta de la industria fue básicamente “eduquen a los usuarios”. Lockdown Mode es el primer intento serio de un laboratorio frontier de resolver esto a nivel de sistema, no de manual.

El timing también es relevante: Claude lleva meses compitiendo en el segmento enterprise con su propio conjunto de capacidades de seguridad para código. Que OpenAI salga con una respuesta técnica concreta al problema de prompt injection en agentes sugiere que la competencia en el mercado B2B está empujando la barra de seguridad hacia arriba. Para las empresas que procesan información confidencial con IA, eso es buena noticia, llegue de donde llegue.


Fuentes

Leer más

Otras noticias