La inteligencia artificial está en todos lados. Cuando realizas una búsqueda en Google, el gigante muestra a menudo una respuesta generada con esta tecnología antes de los resultados para que los usuarios no tengan que acceder a ningún sitio web, dando la estocada final a Internet. Cuando abrimos WhatsApp en nuestro móvil, un circulito en la esquina inferior derecha de la pantalla da acceso a Meta AI, el bot conversacional de la compañía de Mark Zuckerberg con el que planea hacer frente a OpenAI.
Los profesores se quejan de que los estudiantes hacen sus tareas preguntando a la IA, mientras que los estudiantes se quejan de que los profesores preparan los contenidos de los exámenes o corrigen las tareas utilizando herramientas basadas en la inteligencia artificial, como ChatGPT, para “ahorrar tiempo”, aunque eso signifique otorgar calificaciones inexactas o inmerecidas.
Y así, con innumerables casos. Uno de los más curiosos y que mucha gente desconoce es que, al menos en Estados Unidos, los policías utilizan la inteligencia artificial para elaborar informes. El trabajo de 30 a 45 minutos que supone se reduce a solamente ocho segundos. Se trata de un programa que utiliza el audio de las cámaras corporales para redactarlo automáticamente. Aunque pueda sonar bien, ya que eso permitiría a los agentes a centrarse en tareas más “importantes”, sabemos que la IA no es fiable. Y por eso utilizan una herramienta de IA para eliminar los indicios de que han usado la IA.
La policía podría estar entregando informes generados con IA sin revisar los errores primero, lo que es muy peligroso
El verano pasado, se estrenó la herramienta Draft One de Axon, empleada por un departamento de policía de Colorado para la elaboración de informes policiales elaborados con IA. En aquel entonces, muchos alzaron la voz sobre los peligros de utilizarla y su impacto negativo en el sistema de justicia penal.
Draft One utiliza una versión personalizada de ChatGPT para generar informes policiales basados en el audio de las cámaras corporales, que los agentes deben editar para corregir errores y evaluar los resultados de la IA en busca de sesgos o añadir contexto clave.
Hace unos días, la Electronic Frontier Foundation (grupo de derechos digitales) publicó una investigación exhaustiva sobre los informes policiales generados por inteligencia artificial que, según el grupo, son, por diseño, casi imposibles de auditar, lo que podría facilitar a los policías mentir bajo juramento. La EFF descubrió que la tecnología “parece diseñada para obstaculizar cualquier intento de auditoría, transparencia y rendición de cuentas”. Además, la policía no está obligada a revelar cuándo se utiliza inteligencia artificial en cada departamento, y Draft One no guarda los borradores ni conserva un registro que muestre las partes que se generaron con esta tecnología.
Ahora mismo, resulta complicado saber si la policía está editando los informes o “aprobando automáticamente los borradores para avanzar lo más rápido posible”. Y esto es peligroso, ya que se sabe de al menos un caso en el que los ingenieros descubrieron un error que permitió a los agentes, en al menos otras ocasiones, eludir las barreras de seguridad que impiden presentar informes generados por IA sin leerlos primero.
Además, la herramienta también parece estar “excediéndose en su interpretación del audio”, malinterpretando jerga o agregando contexto que nunca ocurrió. “No hay constancia de si el culpable fue el agente o la IA. Esto dificulta enormemente, si no imposibilita, evaluar cómo el sistema afecta los resultados de la justicia a lo largo del tiempo”.