A partir del 24 de abril de 2026, GitHub cambia las reglas del juego para millones de desarrolladores: los datos de interacción de Copilot Free, Pro y Pro+ —prompts, respuestas, fragmentos de código, nombres de archivos, estructura de repositorios y feedback— se usarán para entrenar los modelos de IA de GitHub, por defecto y sin que nadie te haya preguntado si estás de acuerdo.
No es una sorpresa. Es un patrón que ya vimos en OpenAI, Google y Anthropic. Pero esta vez ocurre dentro de la herramienta de desarrollo más usada del mundo, y eso cambia la escala del dilema.
¿Qué cambia exactamente desde el 24 de abril?
GitHub publicó actualizaciones a su Privacy Statement y Terms of Service el 25 de marzo de 2026. Los cambios aplican solo a usuarios de los planes gratuitos y de pago individuales (Free, Pro, Pro+). Los planes Copilot Business y Copilot Enterprise no están afectados: sus usuarios mantienen el mismo nivel de privacidad que tenían antes.
Aprende IA con nosotros
Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.
👥 Únete gratis 🚀Los datos recopilados incluyen:
- Los prompts que escribes en Copilot Chat
- Las respuestas que el modelo genera
- Fragmentos de código y contexto del repositorio
- Nombres de archivos y estructura del proyecto
- Tu feedback (si aceptas, rechazas o modificas sugerencias)
Estos datos pueden compartirse con Microsoft, pero no con proveedores externos de modelos de IA. Si ya habías desactivado el ajuste de recolección de datos para mejoras de producto antes de este cambio, tu configuración se respeta y no tienes que hacer nada. Para los demás, el opt-out está en github.com/settings/copilot/features → sección “Privacy” → desactivar “Allow GitHub to use my data for AI model training”.
El argumento de GitHub: datos reales hacen mejores modelos
Mario Rodriguez, Chief Product Officer de GitHub, justifica el cambio con un argumento técnico sólido: los datos de uso real mejoran los modelos. Las pruebas internas con datos de empleados de Microsoft ya mostraron tasas de aceptación más altas en las sugerencias de Copilot.
Es un argumento válido y bien documentado en la literatura de machine learning. Los modelos entrenados con datos reales de uso —especialmente las señales de aceptación y rechazo de sugerencias— aprenden mejor que los entrenados con datos sintéticos o de repositorios públicos. El feedback de los desarrolladores es una señal extremadamente valiosa: cuando rechazas una sugerencia y la corriges, estás entregando información de alta calidad sobre qué salió mal y por qué.
El problema no es técnico. Es de diseño y poder.
El verdadero dilema: quién se beneficia de tus datos
La decisión de GitHub expone una tensión fundamental en el modelo de AI-as-a-Service: los usuarios gratuitos no pagan con dinero, sino con datos. Y cuando esos datos son correcciones de código de alta calidad hechas por desarrolladores expertos, el valor que se transfiere es real y cuantificable.
Esto crea un sistema de dos velocidades que merece examinarse con cuidado:
- Los usuarios de planes enterprise y business pagan más dinero y retienen privacidad total sobre su código.
- Los usuarios de planes gratuitos e individuales pagan menos dinero pero contribuyen con datos de entrenamiento.
En otras palabras: la privacidad en el ecosistema de herramientas de IA para código ya tiene precio, y ese precio sube en los planes corporativos. Es coherente como modelo de negocio. Es problemático como política pública implícita.
La elección del opt-out por defecto (en lugar de opt-in) amplifica esto. Las investigaciones de economía conductual muestran consistentemente que la mayoría de los usuarios no cambia los ajustes por defecto, incluso cuando les importa el tema. GitHub lo sabe. Con ese diseño, la captura de datos será masiva aunque la opción de salida exista.
Ya hemos visto cómo la IA está redefiniendo quién construye software: Copilot se ha convertido en una capa de infraestructura que muchos desarrolladores usan como extensión de su propio pensamiento. Eso hace más delicada —no menos— la pregunta sobre qué pasa con los datos que genera esa interacción.
El patrón que se repite: datos de usuarios como combustible de modelos
GitHub no es el primero y no será el último. La secuencia es casi predecible:
- La empresa lanza un producto de IA con política de privacidad conservadora para ganar adopción.
- Una vez que hay suficiente masa crítica de usuarios, actualiza los términos para incluir datos de uso en el entrenamiento.
- Lo comunica como mejora del producto, no como cambio en la propuesta de valor.
Lo que diferencia el caso de GitHub es la naturaleza de los datos en juego. El código es diferente al texto de un chat o a un historial de búsqueda. Puede contener lógica de negocio propietaria, credenciales mal guardadas, arquitecturas de sistemas que las empresas prefieren mantener privadas. Los usuarios individuales que trabajan en proyectos de empleadores deben verificar si esta política es compatible con sus contratos o acuerdos de confidencialidad, antes del 24 de abril.
Esto tiene resonancia directa con la deuda de verificación que nadie te avisa cuando adoptas IA para programar: los costos ocultos no son solo técnicos, también son contractuales y de privacidad.
Por qué importa aunque uses el opt-out
Incluso si tú desactivas la opción, la mayoría de los usuarios de Copilot Free no lo harán. Eso significa que el modelo que usarás en seis meses estará entrenado con los datos de millones de desarrolladores que no leyeron las notas del changelog de marzo 2026.
Para quienes llevamos tiempo evaluando la dependencia que generan las herramientas de IA en el desarrollo, este movimiento de GitHub añade una capa nueva al análisis: no solo dependemos de estas herramientas para trabajar, sino que nuestro trabajo las alimenta y las hace cada vez más difíciles de reemplazar por competidores que no tienen ese flujo de datos.
La decisión es legítima. El diseño del opt-out es discutible. La transparencia inicial fue mínima. Y el precedente es claro: si lo acepta la comunidad de desarrollo, todas las demás plataformas de herramientas de IA irán en la misma dirección.
Quienes quieran mantener el control de sus datos tienen hasta el 24 de abril para hacer el cambio en configuración. Después, la recolección comienza.
Fuentes
- GitHub Blog — Updates to GitHub Copilot interaction data usage policy
- GitHub Changelog — Updates to Privacy Statement and Terms of Service
- The Decoder — GitHub will use Copilot interaction data to train AI models starting April 2026
- The Register — GitHub: We going to train on your data after all
- Help Net Security — GitHub jumps on the bandwagon and will use your data to train AI

