En un món on la intel·ligència artificial generativa s'integra cada vegada més a la vida quotidiana, el govern espanyol ha decidit actuar per prevenir els seus riscos en un dels àmbits més sensibles: la salut mental. La comissionada de Salut Mental, Belén González, ha anunciat que el seu departament, dependent del Ministeri de Sanitat, manté contactes directes amb Meta i OpenAI per desenvolupar conjuntament protocols de seguretat que impedeixin que aquests sistemes emetin respostes que puguin exacerbar el sofriment psíquic o, en el pitjor dels casos, precipitar un desenllaç tràgic en usuaris vulnerables.
L'anunci s'ha produït durant la clausura de la jornada Prevenció Integral del Suïcidi: territori i comunitat. González ha exposat una preocupació creixent: la de persones amb ideació suïcida o trastorns mentals que van als xatbots d'IA a la recerca de consol o acompanyament, una pràctica que considera "simptomàtica de la societat en la qual vivim" i que ha de ser regulada urgentment.
"Ara resulta que quan tinc ganes de morir-me, en lloc de dir-se'l al meu company, al meu germà, a la meva mare, al meu oncle, al meu veí, a la meva amiga, l'hi dic a un xatbot, li ho dic a ChatGPT", alerta González durant la seva intervenció. "Això no pot continuar passant i té a veure amb aquesta eina de la intel·ligència artificial generativa i amb la falsa sensació que és una persona la que tenim a l'altre costat", manté la dirigent.
El perill no és hipotètic. Els models de llenguatge avançat, entrenats amb ingents quantitats de dades d'internet, manquen de l'empatia, el criteri clínic i la responsabilitat legal d'un professional de la salut. Poden generar respostes coherents, però inapropiadament fredes, contradictòries o, al pitjor escenari, accidentalment incentivadores, si l'usuari enquadra la seva consulta d'una manera determinada. L'objectiu del Govern és col·laborar amb les empreses per implementar "mecanismes de control i de seguretat" específics que detectin paraules clau o patrons lingüístics associats a crisis emocionals i activin respostes predefinides segures, com la derivació immediata a recursos humans d'ajuda.
L'aproximació del Govern no és la de prohibir, sinó la de guiar i regular. "Estem en contacte per poder millorar aquestes eines, que són inevitables i amb les quals hem de relacionar-nos, però des d'un lloc que no sigui per al sofriment psíquic", explica González. El treball se centra a dos fronts:
-Prevenció de danys. Evitar que els xatbots proporcionin informació errònia sobre mètodes de suïcidi, minimitzin la gravetat de la condició de l'usuari o fomentin l'aïllament social.
-Delineació de límits. Deixar absolutament clar que aquestes IA "no substituiran a cap terapeuta" i no poden ser considerades per cap concepte com eines terapèutiques.
Aquest enfocament col·laboratiu situa a Espanya a l'avantguarda de la regulació ètica de la IA a Europa, anticipant-se a l'aplicació plena de la Llei d'Intel·ligència Artificial de la UE, que classifica els sistemes d'IA utilitzats en l'atenció sanitària com d'"alt risc". L'interès per regular la IA no eclipsa el problema de fons que és subjacent a l'anunci: la persistent dificultat social per abordar la salut mental i el suïcidi. González va dedicar una part crucial de la seva intervenció a criticar la tendència, fins i tot dins del sistema sanitari, a derivar de manera automàtica i defensiva la persona que expressa idees suïcides cap a urgències, sense prioritzar una escolta profunda i compassiva.
"Costa moltíssim escoltar aquestes idees. I costa escoltar-les perquè ens commouen, perquè ens mobilitzen una cosa que és profundament humana," exposa Belén González. Davant el desafiament que planteja la IA, González presenta el telèfon d'atenció a la conducta suïcida 024 com l'antídot humà i efectiu.
El missatge final de la comissionada és clar. La tecnologia ha de ser una aliada regulada, mai un substitut del contacte humà, especialment en assumptes tan delicats com el desig de morir. La iniciativa del Ministeri de Sanitat marca un camí crucial per assegurar que la revolució digital no es produeixi a costa dels més vulnerables, establint ponts entre la innovació tecnològica i l'ètica de la cura.