En els últims anys hem començat a parlar amb aplicacions que es presenten com a amigues, assistents virtuals que ens simulen "entendre'ns", plataformes que ofereixen "companyia emocional" i fins i tot xatbots dissenyats per escoltar les nostres angoixes. L'anomenada intel·ligència artificial emocional promet molt més que eficiència: ofereix empatia. Però pot una màquina sentir el que sentim els humans? La resposta, encara que obvia, es torna cada vegada més borrosa en un escenari on la simulació tecnològica sembla substituir l'experiència real.
Aquests necessaris debats tenen lloc en alguns espais acadèmics, encara són escassos per a la magnitud que aquest desafiament presenta. Un exemple és el Màster en Governança Ètica de la IA de la Universidad Pontificia de Salamanca que aborda de manera interdisciplinària com integrar la IA en la societat de forma respectuosa amb els drets humans i posicionant l'humà en el centre. També existeixen interessants investigacions, com la de la Universitat de Ginebra i la Universitat de Berna que van examinar sis sistemes d'IA (entre ells, ChatGPT), mitjançant proves d'intel·ligència emocional dissenyades originalment per mesurar-la en éssers humans. El resultat va ser sorprenent: els LLM (large language model) van aconseguir puntuacions molt per sobre dels humans: un 82% de respostes correctes davant el 56% dels éssers humans.
La promesa de l'empatia artificial
Empreses de tecnologia ja comercialitzen assistents que diuen reconèixer emocions en la veu, el rostre o els textos dels usuaris. Aquests sistemes "aprenen" a identificar patrons i tornen respostes dissenyades per transmetre comprensió i suport. Des d'aplicacions de salut mental fins a eines educatives, el discurs és seductor: si els algoritmes poden acompanyar-nos en la solitud, alleujar l'ansietat o motivar-nos a aprendre, per què no aprofitar-ho?
El problema sorgeix quan la simulació de l'emoció es confon amb l'emoció mateixa. La IA no estableixi tristesa quan escolta un relat dolorós, ni alegria quan celebrem un èxit. El que fa és processar dades, predir estats emocionals i generar respostes probablement adequades. L'empatia que ofereix és un mirall buit: una imitació convincent, però mancada d'experiència subjectiva.
Riscos psicològics i socials
El risc no està sol en la mentida tecnològica, sinó en els seus efectes humans i això és justament del que s'encarrega la governança ètica de la IA. Per als qui travessen situacions de vulnerabilitat emocional, interactuar amb un sistema que "fingeix" comprendre pot ser reconfortant a curt termini, però també pot reforçar la dependència d'una relació asimètrica i fictícia. L'usuari creu rebre suport genuí quan en realitat interactua amb un simulacre optimitzat per retenir la seva atenció.
Aquest engany emocional no és trivial. La confiança en la tecnologia es construeix sobre la percepció que "m'escolta" i "m'entén". Quan aquest llaç es trenca, pot generar frustració, solitud augmentada i desconfiança generalitzada. A més, les dades delicades sobre estats emocionals —recollits en moments de vulnerabilitat— constitueixen un recurs d'altíssim valor per al mercat. L'emoció es converteix en mercaderia, i la intimitat emocional de l'usuari en una entrada comercial.
Ètica i governança de la IA emocional
Aquests sistemes plantegen enormes desafiaments i debats. D'una banda, moltes persones que no poden (per qüestions econòmiques, per exemple) o no volen (se senten més còmodes interactuant amb una màquina que amb un humà perquè no els jutja), accedir a un acompanyament humà, obtenen indubtables beneficis d'aquestes interaccions, les que a més no estan limitades ni en horari ni pel cansament. Per l'altre, un ús abusiu i inconscient d'aquestes tecnologies pot ocasionar grans perjudicis.
La pregunta de fons no és si la IA pot imitar emocions —ja ho fa i ho farà cada vegada millor—, sinó si volem construir una societat que normalitzi el contacte amb simulacres d'empatia. El risc és que, en la recerca de companyia immediata i sense conflicte, acabem acostumant-nos a relacions desproveïdes d'autenticitat. La tecnologia pot ser aliada en múltiples camps, però mai no hauria de reemplaçar el que constitueix el més humà de l'humà: l'experiència compartida, la vulnerabilitat, el reconeixement mutu. Un algoritme pot imitar les nostres paraules, però no pot comprendre el dolor que aquestes paraules enclouen. Pot replicar gestos de tendresa, però no sentir tendresa.
En temps on els vincles socials són cada vegada més intervinguts per pantalles, confiar les nostres emocions més profundes a una màquina que fingeix comprendre'ns pot ser una drecera perillosa. No perquè la IA no tingui potencial, sinó perquè correm el risc d'oblidar el que significa, en la seva essència, ser escoltats de veritat. Davant aquest panorama, urgeix plantejar límits i regles clares. No es tracta de prohibir el desenvolupament de tecnologies que puguin ajudar a millorar la vida de les persones, sinó de posar en el centre la protecció de l'autonomia, la dignitat i la salut mental dels usuaris i per a això, el debat ètic és indefugible.