Debian, una de las distribuciones Linux más influyentes del mundo y pilar del software libre, acaba de enfrentarse a uno de sus debates más difíciles en décadas: ¿se permite el código generado o asistido por LLMs en el proyecto? La respuesta, por ahora, es un silencio deliberado — y ese silencio dice mucho sobre la tensión real entre los valores fundacionales del open source y la realidad de cómo se programa en 2026.
El detonante: código con huellas de IA en la cola de revisión
Todo comenzó cuando se detectó contenido con apariencia de generado por IA en la DFSG-new-queue — la cola donde se revisan nuevos paquetes para verificar que cumplen con las Directrices de Software Libre de Debian. Eso derivó en una propuesta de Resolución General (GR) titulada “Allow AI-Assisted Contributions”, debatida en la lista debian-vote durante febrero y marzo de 2026.
Los nombres pesados de la comunidad participaron: Lucas Nussbaum, Simon Josefsson, Theodore Tso, Thorsten Glaser y Andreas Tille, el Líder del Proyecto Debian (DPL). Tille describió el ambiente el 5 de marzo como “reflexivo y, en ocasiones, intenso” — y el debate cerró sin resolución.
El campo a favor: ya es una herramienta como cualquier otra
Quienes defienden permitir las contribuciones asistidas por IA tienen argumentos concretos:
- Los LLMs son IDEs avanzados. Si nadie prohíbe usar un linter automático o un compilador con sugerencias, ¿por qué prohibir un asistente de código? Los mantenedores del kernel Linux LTS ya usan LLMs para resolver conflictos de merge y generar documentación.
- El peer review sigue siendo el filtro. En open source, lo que importa es la calidad del código que llega a producción, no la herramienta con la que fue escrito. Si un humano firma el código, ese humano es responsable.
- Potencial de investigación. Permitir contribuciones con IA — con reglas de divulgación claras — abriría oportunidades para estudiar su impacto real en proyectos distribuidos de largo aliento.
El campo en contra: calidad, ética y el problema de las licencias
El bando opuesto tiene preocupaciones que no son fáciles de desestimar:
- El problema del “AI slop”. El código generado por LLMs puede ser plausible y pasar una revisión superficial mientras encierra bugs sutiles, condiciones de carrera o comportamientos incorrectos difíciles de detectar. El volumen que un modelo puede generar amenaza con inundar los procesos de revisión.
- El problema de licencias. Los LLMs son entrenados con código de múltiples fuentes, algunas con licencias restrictivas. ¿Cómo garantizar que el output de un modelo no reproduzca código bajo GPL o Apache con atribución insuficiente? Debian tiene un historial de ser extremadamente cuidadoso con licencias — y aquí esa vigilancia se vuelve opaca.
- La ética de la autoría. Algunos miembros señalan que aceptar código generado por IA sin divulgación socava la confianza y la responsabilidad personal que hace que Debian funcione. En un proyecto voluntario, la reputación y la responsabilidad importan.
La decisión de no decidir
El proyecto Debian optó por no resolver la GR formalmente — al menos por ahora. No es un veto ni una aprobación. Es un reconocimiento de que la comunidad está dividida y que cualquier política apresurada podría fracturarla.
Esta postura es coherente con la historia de Debian: el proyecto tardó años en adoptar systemd, en resolver debates sobre firmware no libre y en actualizar sus políticas de accesibilidad. La lentitud deliberativa es parte de su identidad. El problema es que la IA no espera.
Debian no está solo: el debate en todo el open source
La Linux Foundation publicó en 2025 una guía sobre buenas prácticas para contribuciones IA en proyectos abiertos. La mayoría de proyectos grandes — Apache, Fedora, PostgreSQL — tienen políticas en desarrollo, no consolidadas.
GitHub Copilot ya es la herramienta de desarrollo más usada entre desarrolladores profesionales a nivel mundial. El 40% de los commits en proyectos privados en GitHub tienen algún nivel de asistencia por IA. El open source no puede ignorar esto indefinidamente.
Por qué importa
El debate de Debian no es un problema técnico — es un problema de valores. El software libre nació con la premisa de que cualquier persona puede leer, modificar y redistribuir el código. ¿Qué significa eso cuando el código lo “escribe” un modelo que aprendió de internet, no tiene intenciones, y no puede rendir cuentas?
La respuesta que Debian dé — aunque tarde — será un precedente para cómo el movimiento de software libre en general integra (o rechaza) la IA generativa en sus procesos. Y dado que Debian es la base de Ubuntu, que es la base del 80% del cloud computing mundial, la decisión pesa más que un debate interno.

