La irrupció de la intel·ligència artificial en la vida quotidiana és una realitat imparable. Milions d'usuaris utilitzen eines com ChatGPT per resoldre dubtes, redactar documents o, fins i tot, gestionar assumptes de gran transcendència personal.
Tanmateix, un cas recent a Espanya serveix com una potent advertència sobre els perills de confiar cegament en aquestes tecnologies sense la supervisió humana adequada. Un home de 60 anys va veure com la seva pensió de jubilació anticipada es reduïa dràsticament a tot just 200 euros mensuals, una quarta part del que esperava, després de seguir les instruccions proporcionades pel xatbot d'OpenAI.
Els fets, reportats inicialment per Business Insider, es van desenvolupar quan el ciutadà, buscant orientació per calcular i sol·licitar la seva jubilació anticipada, va consultar la intel·ligència artificial.
En resposta, ChatGPT no només li va detallar un procediment pas a pas, sinó que a més li va assegurar, citant una suposada "disposició quaranta-setena" de la legislació espanyola, que tindria dret a una prestació mensual d'aproximadament 800 euros. Basant-se en aquesta informació, que va considerar veraç i definitiva, l'home va formalitzar la seva sol·licitud davant de la Seguretat Social sense realitzar cap consulta addicional a un advocat o a la mateixa administració.
El desenllaç va ser contundent i advers. La resolució oficial de la Seguretat Social va notificar una pensió concedida de només 200 euros al mes, equivalent a un 25% de la seva base reguladora. La promesa dels 800 euros es va esfumar. L'arrel del problema no va ser un error de càlcul de l'administració pública, sinó la completa fiabilitat dipositada en una eina que, en aquest cas, va ser incapaç d'interpretar correctament la complexa normativa laboral vigent.
L'anàlisi jurídica posterior del cas, a càrrec de l'advocat laboralista Ignacio de la Calzada, va revelar el rovell de l'ou de l'equívoc: ChatGPT havia "al·lucinat". El terme tècnic, hallucination en anglès, es refereix a la tendència d'aquests models a generar informació falsa o inventada que presenten com real. La IA va citar articles, lleis i disposicions que, senzillament, mai no han existit en l'ordenament jurídic espanyol. La "disposició quaranta-setena" era una invenció.
En declaracions recollides per aquest mitjà, De la Calzada va subratllar la gravetat de l'assumpte: "En comptes de consultar únicament a una eina digital, l'interessat havia de recórrer a un expert en dret laboral abans de formalitzar un tràmit de conseqüències irreversibles". L'advocat va explicar que revertir una resolució d'aquest tipus és pràcticament impossible, ja que la sol·licitud es va efectuar ajustant-se a la normativa real i els càlculs de la Seguretat Social són correctes. El dany, per tant, és irrevocable.
Els límits de la IA
Aquest incident transcendeix l'anecdòtic i assenyala limitacions tècniques i ètiques crítiques en l'ús de sistemes d'intel·ligència generativa per gestionar assumptes oficials o legals. Encara que OpenAI inclou advertències en la seva interfície sobre la possible ocurrència d'errors i recomana verificar qualsevol informació important, molts usuaris ometen aquestes alertes i actuen amb excessiva confiança.
Els experts recalquen que aquestes plataformes, malgrat la seva sofisticació, no són bases de dades infal·libles. El seu funcionament es basa a predir la següent paraula més probable en una seqüència, no en comprendre conceptes o discernir fets veritables de falsos. A més, poden oferir explicacions radicalment diferents sobre un mateix tema depenent de com es formuli la pregunta, la qual cosa afegeix una capa més d'inconsistència.
Si bé empreses i individus utilitzen cada vegada més aquesta tecnologia per agilitar tasques com la redacció d'informes o continguts, la seva fiabilitat en àmbits normatius i legals és encara molt limitada.
La intel·ligència artificial és una poderosa eina de suport, però no pot, ni deu, substituir el criteri, l'experiència i la supervisió d'un professional humà, especialment en assumptes que afecten directament el futur i el benestar de les persones. Aquest cas és un recordatori que, davant de la complexitat de la llei, la tecnologia encara no està a punt per donar el consell final.