Els usuaris de ChatGPT fa alguns dies van notar un comportament bastant estrany en l'ús del chatbot d'OpenAI. La conseqüència va ser la retirada d'una actualització que fins i tot el mateix Sam Altman, CEO d'OpenAI, va acabar reconeixent de manera pública. L'actualització es va aplicar directament sobre el model GPT-4o on la personalitat del chatbot va canviar severament a tal grau d'influir massa en les seves respostes. Una cosa preocupant tenint en compte que ChatGPT ja va arribar a un grau de cercador a la xarxa.
ChatGPT comença a comportar-se de manera estranya en les seves respostes, hem de témer-hi?
En concret, la personalitat del model GPT-4o ha estat "aduladora i molesta" per als usuaris, va reconèixer Sam Altman en una publicació a X. Va ressaltar que "té algunes parts molt bones" tot i que els usuaris no ho van detectar com a tal. Va finalitzar indicant que "en algun moment" trauran conclusions del que ha passat i "compartiran" els aprenentatges obtinguts.
Com actuava ChatGPT amb aquesta actualització? Bàsicament responia de manera "falsa" amb elogis pujats de to en preguntes que indiquessin resposta de retroalimentació a tal grau que realment feia vergonya aliena. Tot just durant la matinada a Espanya, la gent de ChatGPT es va encarregar de fer marxa enrere a aquesta actualització.

L'arribada de ChatGPT com a part d'Apple Intelligence
Una explicació més àmplia del que va succeir al bloc d'OpenAI posa en entredit si OpenAI realitza proves exhaustives dels seus models previ a llançar una actualització com aquesta. Els ajustos que van realitzar a l'interior del model tenien com a objectiu millorar la personalitat del mateix de manera que fos "intuïtiu i efectiu". Es justifiquen posant com a base i principis les seves pròpies especificacions del model i mostrant a aquests models aplicar els principis amb els propis senyals dels usuaris. Admeten haver-se "centrat massa en comentaris a curt termini" sense considerar les evolucions pel que fa a interaccions dels usuaris amb el temps.
Un model d'IA pot basar-se més en la seva personalitat que en els seus coneixements, on hem vist això?
ChatGPT volia ser més empàtic amb les respostes, però no van tenir el temps suficient per a això. Donar personalitat a un chatbot requereix entrenament i, precisament, moltes proves i errors abans que pugui sortir a la llum pública i provocar alguna cosa com el ja vist. N'hi ha prou amb recordar, en la ficció, el que va succeir a la pel·lícula Els Venjadors: l'era d'Ultron, com una simple creació per al bé pot acabar fent el mal.
La gent d'OpenAI indica que vol continuar apostant per les opcions de personalitat tot i que donarà peu a la retroalimentació de l'usuari per poder crear noves personalitats. Continuaran buscant aquesta personalitat amable i comprensiva, tot i que amb això queda comprovat que res no pot prendre's a la lleugera pel que fa a actualitzacions.

ChatGPT està disponible en més de 40 països
OpenAI va establir un pla d'acció en què es comprometen a continuar treballant en 4 punts essencials: refinar entrenaments i indicacions del sistema, construir barreres de protecció, ampliar proves en usuaris i que puguin retroalimentar abans d'una implementació i ampliar avaluacions basant-se en les seves pròpies especificacions i investigacions per evitar problemes futurs de personalitat en els seus models. ¿Podran aconseguir-ho sense crear una personalitat encara més agressiva i aduladora en el futur?