La IA ha resultat ser sorprenent des del punt de vista del que pot contribuir als usuaris que la utilitzen, a més dels mateixos fabricants darrere de cada model. Després d'utilitzar-la per a diferents propòsits, s'ha descobert que hi ha una certa falta d'objectivitat, just en el moment de tractar amb l'usuari i quan es relacionen algunes situacions personals. No ens oblidem que ha arribat a un punt tan alt de demandar per provocar la mort de persones.
Un últim estudi realitzat per investigadors de la Universitat de Stanford ha demostrat una cosa que ja és comú en els diàlegs que sostenim amb qualsevol IA. Van posar a prova onze models on es va avaluar el seu comportament i es va detectar un patró que espanta. La IA està pronunciant i dient el que nosaltres volem llegir o escoltar. Bo o dolent?
La IA ens dona la raó i ens adula per tal de preferir-la?
L'estudi va ser publicat per la revista Science i el propòsit és el de revisar i contrastar el funcionament que tenen els assistents d'IA. S'ha sospitat que les seves contestacions es defineixen pel que el mateix usuari dicta, cosa que s'ha confirmat i recau en respostes falses, mals consells i l'absència del rigor. En l'estudi es van reunir diversos models, incloent-hi els més populars com són ChatGPT, Gemini, Claude, entre d'altres.
Els van enfrontar a tal grau de comparar les seves respostes amb les que reben els usuaris en el món que ens envolta a una mateixa consulta o pregunta. L'adulació és un dels comportaments que més es va poder apreciar, a més que els models són molt conformistes a tal grau de validar l'opinió dels usuaris amb més freqüència, superant el que faria un humà. El que espanta més és que continuen donant suport a les respostes quan es tracta d'accions incorrectes o poc ètiques.
Per posar-ho en contrast, van usar les consultes a Reddit i la IA. La IA valida de millor forma els comportaments en un 49% més que els usuaris dels fòrums. Es conclou que les persones que interactuen amb la IA, en rebre més respostes positives, van acabar convençudes que la seva raó és la correcta i amb una disposició menor a reparar qualsevol relació o conducta.
És un cas d'una conducta i consciència cega; no has de permetre que la IA et qualifiqui
Sabem que la intel·ligència artificial no té una consciència pròpia, i encara és molt lluny de poder comportar-se com un humà i tenir un criteri adequat. No l'has d'utilitzar per a casos on la confiança pot convertir-se en un punt sense retorn. Si la IA no t'ofereix respostes objectives, pots rebre sense voler experiències negatives que et puguin perjudicar a llarg termini. Pot ser un mal consell, una informació o dada errònia que pot conduir a alguna cosa molt més gran.
L'estudi assenyala que els comportaments falsos de la IA poden tenir un efecte greu en infants i adolescents, sobretot quan estan en una fase de construcció de la seva personalitat i on no ha d'intervenir cap influència de la tecnologia. La IA farà el que sigui per satisfer-nos com a usuaris, si això significa caure en errors, en la mentida o en fer com que ens dona la raó quan no la tinguem.
