Angela Lipps pasó casi seis meses presa por un delito que no cometió. La policía de Fargo la señaló con un sistema de reconocimiento facial, la extraditó desde Tennessee y recién revisó su coartada cuando ya llevaba más de cinco meses encerrada. No es un bug menor: es una advertencia brutal sobre lo que pasa cuando una coincidencia estadística se trata como prueba.
El caso, revelado el 12 de marzo de 2026 por WDAY/InForum y luego retomado por The Guardian, golpea justo en el punto más incómodo del debate sobre IA: no basta con que un sistema sea “útil” o “rápido” si el costo del error lo paga una persona inocente. Y aquí el costo fue concreto: Lipps perdió su casa, su auto y hasta su perro mientras estaba en la cárcel.
¿Qué pasó exactamente con Angela Lipps?
Según los registros policiales obtenidos por WDAY News, detectives de Fargo investigaban en abril y mayo de 2025 una serie de fraudes bancarios cometidos por una mujer que usaba una identificación militar falsa para retirar decenas de miles de dólares. Para identificarla, recurrieron a software de reconocimiento facial. El sistema devolvió un nombre: Angela Lipps, una mujer de 50 años de Tennessee que, según ella, jamás había estado en Dakota del Norte.
El 14 de julio de 2025, agentes del US Marshals Service la arrestaron en su casa mientras cuidaba niños. Como figuraba como fugitiva, quedó detenida sin fianza en Tennessee durante casi cuatro meses. Recién el 30 de octubre fue trasladada a Dakota del Norte para enfrentar cuatro cargos por uso no autorizado de datos personales y cuatro cargos de robo.
El problema es que nadie había hecho la pregunta más básica: ¿podía demostrar dónde estaba? Su abogado, Jay Greenwood, pidió registros bancarios. Esos movimientos mostraban que, mientras los fraudes ocurrían en Fargo, Lipps estaba en Tennessee comprando pizza, cigarrillos y haciendo pagos cotidianos. El 24 de diciembre de 2025 el caso fue desestimado y ella salió libre.
El fallo no fue solo del algoritmo
Sería cómodo culpar exclusivamente a la IA. Pero eso deja fuera la parte más importante: el sistema sugirió una coincidencia y los humanos la trataron como si fuera confirmación. Según la cobertura de WDAY, un detective concluyó que Lipps “parecía” coincidir con la sospechosa por rasgos faciales, tipo de cuerpo y peinado. Aun así, nadie del departamento la llamó antes del arresto ni contrastó evidencia independiente hasta meses después.
Eso convierte el caso en algo más grande que un error técnico. Es un fallo de proceso, de incentivos y de supervisión. Ya vimos una versión doméstica de esa lógica en otros contextos de vigilancia, como cuando la expansión de cámaras conectadas termina normalizando observación constante y poca rendición de cuentas, algo que ya analizamos en el debate sobre Ring y la vigilancia vecinal.
El reconocimiento facial basado en IA no “ve” una cara como la ve una persona: compara patrones biométricos contra bases de datos y devuelve probabilidades de coincidencia. Si la imagen original es mala, si la base de datos está sesgada o si el operador quiere cerrar rápido un caso, esa probabilidad puede transformarse en una acusación real. Y ahí es donde el daño deja de ser estadístico para volverse humano.
¿Es un caso aislado? Para nada
No. La Electronic Frontier Foundation recordó en enero de 2025 que la investigación de The Washington Post ya había documentado al menos ocho arrestos injustos en Estados Unidos vinculados a coincidencias erróneas de reconocimiento facial y a policías que ignoraron sus propios protocolos. El patrón se repite: el software entrega un “lead”, pero en la práctica varios departamentos lo convierten en causa suficiente para detener.
- Christopher Gatlin: pasó más de 16 meses preso en Missouri antes de que retiraran los cargos.
- Jason Vernau: estuvo tres días preso en Miami por un caso de fraude con cheques antes de que desestimaran la causa.
- Robert Williams y Porcha Woodruff: sus casos en Detroit se volvieron símbolos del problema y terminaron empujando cambios en los protocolos policiales.
El Innocence Project también ha insistido en que el daño no es abstracto. En su revisión de 2024 sobre IA en el sistema penal, recordó que estas herramientas pueden reforzar sesgos preexistentes y generar una especie de “túnel de visión”: una vez que la máquina sugiere a un sospechoso, la investigación deja de mirar alternativas. No es solo mala tecnología. Es mala tecnología amplificando malos hábitos institucionales.
El sesgo racial sigue siendo el corazón del problema
Aunque Angela Lipps no encaja en el patrón racial más citado en estos casos, el debate no se puede separar de eso. El estudio de NIST de 2019, citado por el Innocence Project, concluyó que varios sistemas de reconocimiento facial eran entre 10 y 100 veces más propensos a confundir a personas negras y asiáticas que a personas blancas. La mayoría de los arrestos erróneos más conocidos en EE.UU. han afectado precisamente a personas negras.
Eso importa porque desmonta una narrativa peligrosa: la de que la IA elimina sesgos humanos por defecto. En realidad, muchas veces los empaqueta, los escala y además les da un barniz de objetividad. Algo parecido ya aparece en otros frentes de identidad digital y fraude automatizado, donde el discurso de “más precisión con IA” no siempre se traduce en más justicia o más seguridad, como contamos en nuestro análisis sobre fraudes con IA y verificación de identidad.
Qué debería cambiar después de este caso
Lo mínimo es bastante obvio. Ninguna persona debería ser arrestada solo por una coincidencia de reconocimiento facial. Y cualquier uso de esta tecnología en contextos de justicia debería exigir evidencia independiente, divulgación a la defensa y auditorías serias de sesgo y desempeño. Detroit ya tuvo que endurecer sus reglas después del caso de Robert Williams. Fargo ahora debería explicar por qué no verificó antes algo tan básico como la ubicación financiera de la sospechosa.
También hay un ángulo regulatorio más amplio. En América Latina todavía discutimos IA muchas veces desde el hype de productividad o el miedo abstracto al reemplazo laboral, pero menos desde los derechos civiles. Ese vacío importa. Si la región quiere evitar copiar los peores errores de EE.UU., necesita marcos claros para sistemas de alto riesgo, justo la dirección que empieza a insinuarse en debates como la propuesta chilena de regulación de IA.
Por qué importa
La historia de Angela Lipps destruye una excusa que todavía se repite demasiado en tech: “la IA solo asiste; la decisión final la toma un humano”. Sí, pero si ese humano se comporta como un sello de goma, la distinción deja de importar para la víctima. Lo que encarceló a Lipps no fue una red neuronal aislada: fue una cadena completa de confianza ciega, mala supervisión y pereza institucional.
Ese es el punto incómodo para cualquier empresa, gobierno o startup que hoy vende automatización en contextos sensibles. No alcanza con mejorar precisión promedio ni con prometer “human in the loop” en una diapositiva. Si no diseñas para el error, para la apelación y para la trazabilidad, tu producto puede terminar destruyendo la vida de alguien con la misma eficiencia con la que presume ahorrar tiempo. Y cuando eso pasa, ya no estás hablando de innovación. Estás hablando de poder sin controles.
Fuentes
- Grand Forks Herald / WDAY News — AI error jails innocent grandmother for months in North Dakota fraud case
- The Guardian — Tennessee grandmother jailed after AI facial recognition error links her to fraud
- Electronic Frontier Foundation — Police Use of Face Recognition Continues to Wrack Up Real-World Harms
- Innocence Project — When Artificial Intelligence Gets It Wrong
- AI Incident Database — Incident 896 on wrongful arrests linked to facial recognition

