ChatGPT ha afegit una nova funció que podria ser molt important tant ara com en el futur. A mesura que les intel·ligències artificials s'integren cada vegada més en la nostra vida diària, també es converteixen en eines en què moltes persones confien per prendre decisions personals o cercar suport emocional.
Cada cop més usuaris recorren a aquest tipus de plataformes per trobar consol, desfogar-se o parlar sobre situacions difícils. Per això, OpenAI vol que els qui utilitzin ChatGPT d'aquesta manera també tinguin accés a una possible sortida “humana” si travessen un moment delicat o necessiten ajuda real més enllà de la IA.
ChatGPT afegeix un contacte d'emergència per a situacions delicades
El popular chatbot acaba d'afegir una funció mitjançant la qual els usuaris podem afegir un número de contacte d'emergència. Això és una cosa que també podem configurar al nostre smartphone, i que pot arribar a ser molt recomanable.
La idea darrere d'aquesta funció és simple i pot ser molt efectiva: que dins dels ajustos de ChatGPT hi hagi una persona designada a la qual poder avisar si OpenAI detecta conductes que puguin posar en risc la integritat de l'usuari. Quelcom pensat per usar-se només en casos en què l'usuari travessa un moment delicat i ho revela a la IA.
OpenAI ha revelat com funciona aquest nou sistema de contactes de confiança i en quines situacions pot activar-se. La companyia assegura que la privadesa de l'usuari és prioritària, juntament amb una resposta ràpida davant de possibles situacions de risc.
Aquesta funció és completament opcional i qualsevol usuari major de 18 anys pot configurar un contacte de confiança des dels ajustos de ChatGPT. A més, ambdues persones han de ser majors d'edat. Quan algú és seleccionat com a contacte de confiança, rep una notificació per acceptar o rebutjar la invitació. Si decideix no acceptar, l'usuari pot triar una altra persona diferent.
Quan ChatGPT detecti converses relacionades amb autolesions o suïcidi, OpenAI revisarà el cas primer amb sistemes automàtics i després amb revisors humans. Si consideren que hi ha risc, l'usuari rebrà un avís indicant que el seu contacte de confiança podria ser alertat.
En aquest cas, la persona designada rebria una notificació per correu, SMS o dins de l'aplicació, tot i que sense detalls concrets de la conversa. OpenAI assegura que tot el procés podria completar-se en menys d'una hora i recorda que aquesta funció no substitueix l'ajuda psicològica professional.
Potser una eina així podria haver ajudat en casos com el d'un usuari que es va suïcidar després de parlar durant setmanes amb la IA, un cas que va acabar amb una demanda contra ChatGPT.
