La gallina de tres alas del SAG: lecciones de IA generativa para no quedar en ridículo

Share

El Servicio Agrícola y Ganadero de Chile publicó una imagen en Instagram para alertar sobre la influenza aviar. La imagen, generada con IA, mostraba una gallina con tres alas volando por los aires. El resultado fue una ola de memes bajo el hashtag “póngale más voluntad” y una lección pública sobre lo que pasa cuando una institución usa IA generativa sin el proceso correcto.

El caso sería anecdótico si no fuera porque se repite constantemente. No solo en Chile, no solo en el sector público: empresas y organizaciones de toda LATAM están usando IA generativa para crear contenido institucional sin entender bien qué puede salir mal, y cuándo. El 99% de las startups de la región ya usa IA, pero pocos la usan bien — y el SAG es la versión institucional del mismo problema.

¿Qué pasó exactamente en el SAG?

El SAG quería comunicar los riesgos de la influenza aviar. Alguien usó un generador de imágenes con IA, obtuvo una imagen de gallina “en el aire” o “volando” y la publicó sin revisarla. El modelo generó lo que los generadores hacen cuando el prompt es ambiguo: llenó los espacios en blanco con sus propias asociaciones. “Ave en el aire” puede activar representaciones de aves con alas más prominentes, vuelos más dramáticos, anatomías que mezclan referencias visuales distintas.

Aprende IA con nosotros

Únete gratis a mi comunidad en Skool, donde compartimos noticias, tutoriales y recursos para seguir aprendiendo juntos.

👥 Únete gratis 🚀

La gallina terminó con tres alas. Y el SAG terminó en los memes.

Desde el punto de vista técnico, al menos tres cosas fallaron:

  • No había restricciones negativas: El prompt no le dijo a la IA qué evitar — sin indicaciones explícitas como “anatomía realista, dos alas, sin deformidades”, el modelo tiene libertad creativa que no necesitas.
  • El contexto era ambiguo: Pedir una gallina “en una campaña sobre influenza aviar” no es lo mismo que especificar “gallina doméstica de corral, vista lateral, en campo, luz de día”. La ambigüedad se convierte en interpretación libre.
  • No hubo revisión humana experta antes de publicar: El punto más importante. No es un fallo del modelo; es un fallo del proceso.

¿Por qué las instituciones son especialmente vulnerables?

Las empresas privadas cometen el mismo error, pero con menos visibilidad. Una institución pública que usa IA sin supervisión adecuada enfrenta un riesgo adicional: cada error es potencialmente un meme de alcance nacional.

El problema de fondo no es técnico. Es cultural. Muchas organizaciones adoptan IA generativa como si fuera un buscador avanzado: le das una consulta y obtienes un resultado listo para usar. No funciona así. Un modelo de imagen generativa es más parecido a un diseñador junior que trabaja rápido, tiene mucho talento visual, pero no conoce el contexto de tu institución, no entiende las implicancias de lo que está dibujando, y necesita revisión antes de que su trabajo llegue al público.

El “human-in-the-loop” — tener a una persona que revisa el output antes de publicar — no es una precaución opcional. Es la diferencia entre una campaña exitosa y una gallina con tres alas.

¿Qué cambia de verdad en 2026?

La paradoja es que los modelos de generación de imágenes de 2026 son técnicamente mejores que nunca. Midjourney, Flux, Imagen y sus equivalentes pueden producir imágenes de calidad fotográfica. Pero “mejor técnicamente” no significa “menos propenso a errores de contexto”. Un modelo más capaz puede cometer el mismo error con mayor resolución.

Lo que sí ha cambiado es la velocidad de adopción. Hace dos años, usar generadores de imágenes para campañas institucionales requería un conocimiento técnico específico. Hoy es accesible para cualquier comunicador con una cuenta en cualquier plataforma. La barrera de entrada bajó; la necesidad de proceso y revisión no bajó con ella.

El mismo fenómeno ocurre en el texto. Los modelos de lenguaje tienden a validar y complacer — no necesariamente te dicen cuando el resultado que generaron es inadecuado para tu contexto. El filtro experto sigue siendo tuyo.

Cuatro reglas concretas para no ser el próximo SAG

El caso sirve como checklist. Antes de publicar cualquier imagen o texto generado con IA en un contexto institucional:

  1. Define el sujeto con precisión biológica o factual: No “gallina volando” — “gallina doméstica Leghorn, anatomía realista, dos alas cerradas, en corral, luz de día”. Mientras más específico, menos interpretación libre.
  2. Usa restricciones negativas: La mayoría de los generadores aceptan instrucciones sobre qué evitar. Úsalas. “Sin deformidades, sin extremidades adicionales, sin elementos fantásticos”.
  3. Establece revisión humana experta como paso obligatorio: No una revisión rápida por la misma persona que generó el contenido — una revisión por alguien con conocimiento del dominio (en este caso, alguien que sepa que las gallinas no vuelan y tienen dos alas).
  4. Define un proceso, no un caso de uso: La pregunta no es “¿podemos usar IA para esto?” — es “¿tenemos el proceso correcto para usar IA para esto?”. Son preguntas distintas con respuestas distintas.

Por qué importa más allá de los memes

La gallina del SAG es graciosa. Pero la misma lógica que produce gallinas mutantes produce informes con datos inventados, contratos con cláusulas incorrectas, y comunicaciones que distorsionan hechos. La diferencia entre un error gracioso y uno grave es el contexto donde ocurre, no el proceso que falló.

Las instituciones — públicas o privadas — que adopten IA generativa sin construir procesos de revisión primero no están siendo eficientes. Están acumulando riesgo reputacional silencioso que eventualmente explota en público. El SAG pagó ese costo en memes. Otros lo pagarán de formas menos entretenidas.

La IA generativa no es mágica ni traicionera. Es una herramienta potente que requiere el mismo rigor que cualquier otro proceso de producción de contenido. La velocidad que ofrece no exime de la responsabilidad de revisar.


Fuentes

Leer más

Otras noticias