Tot i que la tecnologia es ven sovint com una eina de precisió matemàtica, quan el programari falla i la supervisió humana és inexistent, el resultat és el caos absolut. Angela Lipps, una dona de cinquanta anys, mare de tres fills i àvia de cinc, va descobrir de la pitjor manera possible que un error de reconeixement facial pot ser suficient per arrabassar a una persona la seva llibertat.
Un algorisme sense filtres i una detenció de pel·lícula
El malson de Lipps va començar a més de mil quilòmetres de distància d'on es van cometre els delictes. Mentre ella es trobava a casa seva de Tennessee, un sistema d'intel·ligència artificial utilitzat per la policia de Fargo, a Dakota del Nord, la identificava erròniament com a sospitosa d'un frau bancari.
El programari va analitzar les imatges de seguretat d'una dona que usava una identificació militar falsa per retirar milers de dòlars i, de manera equivocada, la va assenyalar com a responsable.
Davant la denúncia, autoritats federals es van presentar al seu habitatge i la van arrestar utilitzant armes de foc. Malgrat que Lipps va insistir des del primer moment que mai havia trepitjat Dakota del Nord ni coneixia ningú allà, va ser ingressada en una presó de Tennessee sense dret a fiança. Allà va passar quatre mesos sota un procés d'extradició, tractada com una fugitiva de la justícia per un crim que no comprenia.
Absència de verificació humana després de la fallada tecnològica
L'error inicial de la IA va ser greu, però la veritable tragèdia rau en la manca de verificació posterior. Segons els informes de Futurism, els detectius de Fargo es van limitar a acceptar el resultat del programari sense fer comprovacions addicionals.
Ningú va trucar a Lipps per interrogar-la abans d'emetre l'ordre d'arrest i ningú va verificar si la seva ubicació física coincidia amb el lloc del frau. "Jo mai he estat a Dakota del Nord i no conec ningú de Dakota del Nord", va afirmar Lipps en declaracions a una emissora local després del seu alliberament.
Van caldre cinc mesos entre reixes perquè rebés el seu primer interrogatori formal. En aquell punt, la tasca del seu advocat va ser sorprenentment senzilla: va bastar amb revisar registres bancaris i compres realitzades el dia del delicte per demostrar que Angela era a 1.200 quilòmetres de l'escena del crim.
Uns minuts d'investigació manual haurien evitat mig any d'injustícia, però el sistema va preferir delegar la responsabilitat en el codi informàtic.
Danys irreparables
L'alliberament d'Angela Lipps no va ser el final feliç que s'esperaria. Després de ser absolta de tots els càrrecs, la policia ni tan sols es va fer càrrec del seu trasllat de tornada a Tennessee. Lipps es va trobar encallada en el fred hivern de Fargo, vestint només la seva roba d'estiu i sense recursos per tornar a casa, fins que una ONG local va intervenir per ajudar-la.
Les conseqüències d'aquest error algorítmic són devastadores i permanents. Durant els mesos que va passar a la presó, Angela va perdre casa seva, el seu cotxe i el seu gos com que no (...) fer-se càrrec dels seus pagaments ni de les seves cures.
Fins a la data, no ha rebut una disculpa oficial per part de les autoritats que van confiar més en un algorisme defectuós que en el sentit comú.
Aquest cas reitera que la intel·ligència artificial no és infal·lible. Quan s'utilitza de forma indiscriminada en l'àmbit de la justícia, el risc de "falsos positius" es converteix en una ruleta russa per als ciutadans.
Aquest incident, sumat a altres de similars, sobre la taula una realitat incòmoda: la tecnologia actual no està preparada per prendre decisions autònomes de tanta importància, especialment si no hi ha un ésser humà disposat a qüestionar el que diu la pantalla.
