Aunque la tecnología se vende a menudo como una herramienta de precisión matemática, cuando el software falla y la supervisión humana es inexistente, el resultado es el caos absoluto. Angela Lipps, una mujer de 50 años, madre de tres hijos y abuela de cinco, descubrió de la peor manera posible que un error de reconocimiento facial puede ser suficiente para arrebatarle a una persona su libertad.

Un algoritmo sin filtros y una detención de película

La pesadilla de Lipps comenzó a más de mil kilómetros de distancia de donde se cometieron los delitos. Mientras ella se encontraba en su casa de Tennessee, un sistema de inteligencia artificial utilizado por la policía de Fargo, en Dakota del Norte, la identificaba erróneamente como sospechosa de un fraude bancario.

El software analizó las imágenes de seguridad de una mujer que utilizaba una identificación militar falsa para retirar miles de dólares y, de forma equivocada, la señaló como responsable.

Ante la denuncia, autoridades federales se presentaron en su vivienda y la arrestaron utilizando armas de fuego. A pesar de que Lipps insistió desde el primer momento en que jamás había pisado Dakota del Norte ni conocía a nadie allí, fue ingresada en una prisión de Tennessee sin derecho a fianza. Allí pasó cuatro meses bajo un proceso de extradición, tratada como una fugitiva de la justicia por un crimen que no comprendía.

Ausencia de verificación humana tras el fallo tecnológico

El error inicial de la IA fue grave, pero la verdadera tragedia radica en la falta de verificación posterior. Según los reportes de Futurism, los detectives de Fargo se limitaron a aceptar el resultado del software sin realizar comprobaciones adicionales.

Nadie llamó a Lipps para interrogarla antes de emitir la orden de arresto y nadie verificó si su ubicación física coincidía con el lugar del fraude. "Yo nunca he estado en Dakota del Norte y no conozco a nadie de Dakota del Norte", afirmó Lipps en declaraciones a una emisora local tras su liberación.

Hicieron falta cinco meses entre rejas para que recibiera su primer interrogatorio formal. En ese punto, la labor de su abogado fue sorprendentemente sencilla: bastó con revisar registros bancarios y compras realizadas el día del delito para demostrar que Angela estaba a 1.200 kilómetros de la escena del crimen.

Unos minutos de investigación manual habrían evitado medio año de injusticia, pero el sistema prefirió delegar la responsabilidad en el código informático.

Daños irreparables

La liberación de Angela Lipps no fue el final feliz que se esperaría. Tras ser absuelta de todos los cargos, la policía ni siquiera se hizo cargo de su traslado de regreso a Tennessee. Lipps se encontró varada en el frío invierno de Fargo, vistiendo solo su ropa de verano y sin recursos para volver a casa, hasta que una ONG local intervino para ayudarla.

Las consecuencias de este error algorítmico son devastadoras y permanentes. Durante los meses que pasó en prisión, Angela perdió su casa, su coche y a su perro al no poder hacerse cargo de sus pagos ni de sus cuidados.

Hasta la fecha, no ha recibido una disculpa oficial por parte de las autoridades que confiaron más en un algoritmo defectuoso que en el sentido común.

Este caso reitera que la inteligencia artificial no es infalible. Cuando se utiliza de forma indiscriminada en el ámbito de la justicia, el riesgo de "falsos positivos" se convierte en una ruleta rusa para los ciudadanos.

Este incidente, sumado a otros similares, sobre la mesa una realidad incómoda: la tecnología actual no está lista para tomar decisiones autónomas de tal importancia, especialmente si no hay un ser humano dispuesto a cuestionar lo que dice la pantalla.