La intel·ligència artificial està en tots costats. Quan realitzes una recerca a Google, el gegant mostra sovint una resposta generada amb aquesta tecnologia abans dels resultats perquè els usuaris no hagin d'accedir a cap lloc web, donant l'estocada final a Internet. Quan obrim WhatsApp al nostre mòbil, un petit cercle a la cantonada inferior dreta de la pantalla dona accés a Meta AI, el bot conversacional de la companyia de Mark Zuckerberg amb el qual planeja fer front a OpenAI.

Els professors es queixen que els estudiants fan les seves tasques preguntant a la IA, mentre que els estudiants es queixen que els professors preparen els continguts dels exàmens o corregeixen les tasques utilitzant eines basades en la intel·ligència artificial, com ChatGPT, per "estalviar temps", encara que això signifiqui atorgar qualificacions inexactes o immerescudes.

I així, amb innombrables casos. Un dels més curiosos i que molta gent desconeix és que, almenys als Estats Units, els policies utilitzen la intel·ligència artificial per elaborar informes. El treball de 30 a 45 minuts que suposa es redueix a només vuit segons. Es tracta d'un programa que utilitza l'àudio de les cambres corporals per redactar-lo automàticament. Encara que pugui sonar bé, ja que això permetria els agents a centrar-se en tasques més "importants", sabem que la IA no és fiable. I per això utilitzen una eina d'IA per eliminar els indicis que han utilitzat la IA.

La policia podria estar lliurant informes generats amb IA sense revisar els errors primer, el que és molt perillós

L'estiu passat, es va estrenar l'eina Draft One de Axon, feta servir per un departament de policia de Colorado per a l'elaboració d'informes policials elaborats amb IA. Aleshores, molts van alçar la veu sobre els perills d'utilitzar-la i el seu impacte negatiu en el sistema de justícia penal.

Draft One utilitza una versió personalitzada de ChatGPT per generar informes policials basats en l'àudio de les cambres corporals, que els agents han d'editar per corregir errors i avaluar els resultats de la IA a la recerca de biaixos o afegir context clau.

Fa uns dies, l'Electronic Frontier Foundation (grup de drets digitals) va publicar una investigació exhaustiva sobre els informes policials generats per intel·ligència artificial que, segons el grup, són, per disseny, gairebé impossibles d'auditar, la qual cosa podria facilitar als policies mentir sota jurament. L'EFF va descobrir que la tecnologia "sembla dissenyada per obstaculitzar qualsevol intent d'auditoria, transparència i rendició de comptes". A més, la policia no està obligada a revelar quan s'utilitza intel·ligència artificial en cada departament, i Draft One no guarda els esborranys ni conserva un registre que mostri les parts que es van generar amb aquesta tecnologia.

Ara mateix, resulta complicat saber si la policia està editant els informes o "aprovant automàticament els esborranys per avançar el més ràpid possible". I això és perillós, ja que se sap d'almenys un cas en el qual els enginyers van descobrir un error que va permetre als agents, en almenys altres ocasions, eludir les barreres de seguretat que impedeixen de presentar informes generats per IA sense llegir-los primer.

A més, l'eina també sembla estar "excedint-se en la seva interpretació de l'àudio", malinterpretant argot o agregant context que mai no es va produir. "No hi ha constància de si el culpable va ser l'agent o la IA. Això dificulta enormement, si no impossibilita, avaluar com el sistema afecta els resultats de la justícia al llarg del temps".