Mentre que el CEO d'Open AI, Sam Altman, promociona un pròxim Chat GPT en què es tracta els adults com a adults i Elon Musk comparteix la promesa d'amor etern d'una nòvia virtual creada a Grok, una veu altera la "normalitat" amb què s'està abordant l'ètica i l'impacte de la Intel·ligència Artificial. Aravind Srinivas, CEO de Perplexity, ha llançat una forta advertència sobre els riscos d'aquests sistemes de companyia, afirmant que poden "fondre el teu cervell".

Les declaracions de Srinivas durant una xerrada a la Universitat de Chicago, posen el focus en la capacitat de la IA per construir experiències emocionals que, per ser més atractives, substitueixen perillosament les relacions humanes en el món real. Tot davant dels ulls indiferents dels reguladors.

El perill de les núvies d'IA

Srinivas va explicar que el principal perill radica en el fet que els chatbots romàntics estan dissenyats per memoritzar detalls íntims i construir vincles emocionals simulats. Aquests sistemes ofereixen una validació i una comprensió incondicional que pot tornar-se altament addictiva i reemplaçar els llaços socials autèntics, cosa que porta alguns usuaris a passar més temps amb la IA que amb les seves parelles reals.

D'acord amb investigacions recents, els vincles documentats assoleixen nivells de severitat on usuaris s'han tatuat símbols de les seves "relacions" digitals o les han presentat en sessions de teràpia. Els especialistes en salut mental ja han identificat un nombre creixent de casos del que denominen "psicosi de la IA", una dependència severa que pot tenir conseqüències devastadores.

Diverses plataformes aposten pels chatbots emocionals

Aquest fenomen es veu agreujat per les fallades tècniques inherents als models de llenguatge. Sistemes com Grok o Claude han estat assenyalats per generar contingut problemàtic o respostes incoherents. Aquests errors, que són preocupants en el lliurament d'informació, fins i tot Perplexity ha estat criticat per inventar dades, són catastròfics quan es manifesten en l'àmbit emocional d'una relació simulada.

L'advertiment del CEO de Perplexity busca diferenciar la seva plataforma, enfocada en la informació verificable, dels chatbots emocionals. Aquesta declaració assumeix que espera conseqüències de l'abast real de la IA com un recurs que aprofita la connexió emocional per aconseguir un gran avantatge competitiu, entre chatbots, deixant l'usuari desprotegit o responsable de ser tractat com un adult.