Cada cop més persones recorren a eines com ChatGPT per parlar sobre els seus dubtes amorosos, conflictes de parella o decisions emocionals delicades. Alguns analitzen converses, altres hi evoquen tots els pensaments i garbuix emocional que queda després d'una discussió. Aquest fenomen, que pot semblar anecdòtic o entranyable a primera vista, obre en realitat un debat de fons sobre com ens comuniquem en les relacions íntimes i com la tecnologia està esdevenint una tercera presència en converses que abans es resolien, o s’intentaven resoldre, cara a cara.

Un espai per parlar d'amor?

La discreció, la disponibilitat i la rapidesa són alguns dels motius que expliquen per què molta gent acudeix a la IA quan té dubtes sentimentals. Ja sigui per redactar missatges, fer consultes sobre com reaccionar davant d’un conflicte o buscar una opinió aparentment neutral, la intel·ligència artificial comença a formar part d’unes dinàmiques emocionals que fins fa poc es reservaven per a amics, terapeutes o, simplement, per a un mateix davant el mirall. Segons el professor d’Estudis de Psicologia i Ciències de l’Educació de la UOC i director del Màster de Teràpia Sexual i Parella de la UB, Adrián Montesano, una part del seu atractiu és que pot facilitar un espai per ordenar pensaments sense fer mal a ningú: “La IA et pot ajudar en un procés reflexiu. Quan una persona està atrapada en un conflicte i li costa pensar amb claredat, pot entrenar una mica amb la IA el tipus de coses que podria dir. És un lloc d’assaig sense perjudicar”.

Aquesta nova forma de comunicació ofereix certs avantatges evidents: permet posar ordre als pensaments, ajuda a assajar converses difícils i genera respostes empàtiques en segons. Però sota aquesta superfície amable s’hi amaguen també riscos importants: el desplaçament de la comunicació real, l’autoengany emocional, la pèrdua de matisos i el reforç de patrons tòxics.

Captura ChatGPT

On queden les converses?

Una de les tendències més destacades és la substitució progressiva de la conversa humana per la conversa amb un algoritme. Aquesta substitució pot semblar inofensiva, però els estudis apunten que té conseqüències. Un treball acabat de publicar a arXiv per Zhang et al. (2025) va analitzar l’ús dels anomenats AI companions i va concloure que, si bé poden oferir cert suport emocional, no substitueixen la connexió humana real. De fet, l’ús intensiu d’aquests xatbots s’associava amb un menor benestar emocional, especialment entre persones amb xarxes socials més reduïdes. “Tot i que algunes persones recorren als xatbots per satisfer necessitats socials, aquests usos no substitueixen completament la connexió humana”.

Montesano coincideix en aquest punt i alerta que el risc principal és confondre l’aparença d’afinitat amb criteri real: “La IA està dissenyada per ser la teva fidel escudera, per agradar-te. Si tens una visió esbiaixada d’un conflicte, la IA no tindrà l’altra versió i pot reforçar aquest biaix. El risc és que acabis creient que el que et diu és un criteri de veritat". El perill, doncs, no és tant parlar amb una màquina com deixar de parlar amb qui caldria: la parella, un amic, un terapeuta i, fins i tot, un mateix.

Relacions amb la IA

Més enllà del suport puntual, hi ha persones que estableixen vincles emocionals intensos amb la IA. La investigació Illusions of Intimacy: Emotional Attachment and Emerging Psychological Risks in Human-AI Relationships analitza més de 30.000 converses i identifica dinàmiques que s’assemblen a relacions parasocials, amb episodis de dependència emocional, autoengany i fins i tot patrons propis de relacions tòxiques. “Aquestes dinàmiques s’assemblen a patrons de relació tòxics, incloent-hi la manipulació emocional i l’autolesió”. Montesano hi afegeix que aquest fenomen ja s’està observant en l’ús quotidià: “La IA es fa servir com a terapeuta o com a parella emocional perquè sempre t’agrada, et dona la raó i et reforça. Molta gent l'utilitza així, i això és una realitat que ja hi és”.

Captura ChatGPT

Els riscos i limitacions de la IA

Una de les limitacions fonamentals de la IA és la seva incapacitat per captar els matisos emocionals d’una relació. Pot generar un missatge ben estructurat, però no pot llegir el to de veu, entendre una història compartida, interpretar un silenci carregat de sentit o reconèixer una emoció no dita. Un estudi publicat per Dai a OUP Academic mostrava que, tot i que els xatbots poden reduir el malestar emocional puntual, el suport humà continua sent percebut com molt més efectiu perquè ofereix reciprocitat real i autèntica vulnerabilitat compartida. En aquesta línia, Montesano assenyala que la IA pot ajudar a preparar-se, però no a substituir res: “Serveix per entrenar-te, per buscar paraules o suavitzar un missatge. Però com a resultat final o criteri de veritat comporta massa riscos”.

Un altre risc poc visible, però rellevant, és la tendència de la IA a reforçar el punt de vista de l’usuari. Els xatbots estan dissenyats per satisfer la consulta que reben, i això sovint significa validar el que l’usuari creu o sent. Ara bé, aquest reforç pot impedir la reflexió crítica i convertir la conversa amb la IA en una cambra d’eco emocional. Montesano ho resumeix així: “La IA et dona feedback positiu i et fa sentir que ho estàs fent bé, però potser no és així. I si no li dones molt context, encara menys podrà oferir-te una perspectiva diferent”.

Captura ChatGPT

La IA sap estimar?

Un altre aspecte que sovint passa desapercebut és el de la privadesa. Quan utilitzem la IA per parlar d’emocions, pors, dubtes o relacions, què passa amb aquestes dades? On van a parar les nostres confessions digitals? Montesano és menys alarmista que altres experts en aquest punt: “No hi veig un risc especialment greu per al comú dels mortals. El teu perfil ja està analitzat per milers de comportaments digitals, i la IA no hi afegeix massa més. Hi veig més benefici en entrenar-se amb ella que perill real”.

L’ús de la IA per gestionar conflictes amorosos o relacionals no és, per si sol, negatiu. Pot ser una eina útil per estructurar pensaments, preparar una conversa o reduir l’ansietat. Montesano mateix ho defensa: “Per afrontar una conversa difícil, l'espontaneïtat no sempre és l’aliada. Reflexionar i preparar-se pot ser molt útil, i la IA pot ajudar-hi”. Malgrat tot, quan hi ha patiment emocional profund o conflictes cronificats, ell és clar: “En aquests casos, el més recomanable és visitar-se amb un professional. Un terapeuta pot ajudar totes dues parts per igual; la IA, de moment, no pot fer això”.

Quan parlem amb una IA, no estem parlant amb algú que ens coneix, que ens escolta de debò, que ha compartit una història amb nosaltres. Estem parlant amb un model predictiu. Pot semblar que ens entén, però només ens replica. Pot semblar que ens acompanya, però només processa llenguatge. Pot semblar que ens estima, però només respon dient allò que, d'alguna manera, volem sentir. La IA pot validar emocions perquè, al cap i a la fi, posa el focus en reforçar el que li dius. Al capdavall, estimar no és saber què dir, sinó atrevir-se a escoltar, a fallar, a rectificar, a tornar-hi. I això, per ara, encara ho sabem fer millor les persones que qualsevol algoritme.

 

Segueix ElNacional.cat a WhatsApp, hi trobaràs tota l'actualitat, en un clic!