La intel·ligència artificial (IA) ha irromput amb força en gairebé tots els àmbits de les nostres vides: des de suggerir rutes de viatge fins a redactar textos complexos o ajudar-nos a programar. Eines com ChatGPT ofereixen respostes ràpides i accessibles a preguntes de tota índole, cosa que ha despertat tant entusiasme com preocupació entre experts. Tanmateix, per a l'expert en IA Joan Hernández, convertir aquests models en substituts de professionals de la salut no és només erroni, sinó potencialment nociu —d'aquí la seva taxativa recomanació: “si coneixes algú que la faci servir de psicòleg, truca-li el mòbil” (segons el vídeo de Roca Project). Tot i que no hi ha regulació mèdica que avali els xatbots com a terapeutes, moltes persones ja els utilitzen d'aquesta manera, especialment joves i a les xarxes socials.
La intel·ligència artificial: usos positius i negatius
El desenvolupament de la IA ha portat múltiples beneficis. En educació, permet personalitzar l'aprenentatge; en negocis, millora l'eficiència de processos; i en la vida quotidiana, resol dubtes o suggereix solucions de forma immediata. Aquestes eines poden donar suport a l'escriptura, oferir idees per a projectes o ajudar a organitzar tasques diàries. Aquest tipus d'aplicacions té un valor clar si s'empra amb criteri i coneixent-ne els límits.

No obstant això, també existeixen usos problemàtics. Una de les preocupacions més rellevants —i que subratlla Hernández— és la utilització de xatbots com a “psicòlegs casolans”. La idea de conversar amb una intel·ligència artificial per parlar d’emocions o problemes personals pot semblar atractiva per la seva accessibilitat i gratuïtat, però comporta riscos importants. Els xatbots no tenen llicència, no poden avaluar contextos complexos ni reconèixer situacions de risc —per exemple, pensaments suïcides o crisi emocional— ni oferir intervencions clíniques segures.
Diverses anàlisis assenyalen que eines com ChatGPT no estan dissenyades ni certificades per a teràpia psicològica i que, si s'interpreten com a equivalents a professionals, poden donar lloc a informació errònia o inadequada, reforçar creences nocives o generar una dependència emocional amb la màquina.
Per què no serveix com a substitut del psicòleg
Joan Hernández i altres especialistes coincideixen que el principal dèficit de la IA com a “psicòleg” és la manca de context humà i empatia real. Un psicoterapeuta humà no només sent paraules: percep tons, gestos, pauses, contradiccions i emocions complexes basades en la història de vida del pacient. La IA, per la seva banda, respon a patrons estadístics de llenguatge sense comprendre l'experiència subjectiva de l'usuari. Això pot portar a consells que sonen útils, però no ho són, o fins i tot a validar de forma inadvertida pensaments perillosos.

A més, perquè no comptar amb mecanismes clínics d'emergència, una IA no pot identificar quan és necessària una ajuda professional immediata, la qual cosa és crític en salut mental.
Ús correcte d'eines com ChatGPT
Això no significa que la IA no pugui ser útil en àmbits saludables: ChatGPT pot ser un complement, no un substitut. Usar-lo com a eina per organitzar idees, practicar escriptura, explorar emocions a un nivell bàsic o reflexionar sobre hàbits és perfectament vàlid. El truc està a mantenir una perspectiva crítica, saber que els xatbots no reemplacen professionals formats i cercar ajuda humana quan es tracta d'assumptes profunds o de risc.
En definitiva, l'advertència d'Hernández subratlla una realitat: la IA és poderosa i versàtil, però no té la capacitat terapèutica ni la responsabilitat clínica d'un psicòleg humà. Utilitzar-la amb criteri i límits clars pot aportar beneficis, però confiar-hi com a substituta de la teràpia professional pot ser contraproduent per a la salut mental de les persones.