La intel·ligència artificial avança molt ràpid per poder guanyar credibilitat. El laboratori d'investigació d'intel·ligència artificial OpenAI ha llançat GPT-4, l'última versió del innovador sistema d'IA que impulsa ChatGPT i asseguren que amb la nova eina es pot ser més creatiu, menys propens a inventar fets i menys esbiaixat que el seu predecessor. I, per damunt de tot, una característica que vol trencar esquemes: la capacitat de raonar i no copiar o establir simples nexes de connexió entre una paraula i la seva definició.

Sota la premissa que han llançat assegurant que "aquest model té una alta capacitat", el cofundador d'OpenAI, Sam Altman, va assegurar aquest dimarts que el nou sistema és un model "multimodal", el que significa que pot acceptar imatges i text com a entrades, cosa que permet als usuaris fer preguntes sobre imatges. La nova versió pot gestionar entrades de text massives i pot recordar i actuar sobre més de 20.000 paraules alhora, permetent que prengui una novel·la sencera com a indicació.

Aposta per la imatge i el llenguatge

El nou model està disponible avui per als usuaris de ChatGPT Plus, la versió de pagament del chatbot de ChatGPT, que va proporcionar algunes de les dades de formació per a la darrera versió. D'altra banda, OpenAI també ha treballat amb socis comercials per oferir serveis basats en GPT-4. Un nou nivell de subscripció de l'aplicació d'aprenentatge d'idiomes Duolingo, Duolingo Max, ara oferirà als usuaris de parla anglesa converses amb intel·ligència artificial en francès o espanyol, i podrà utilitzar GPT-4 per explicar els errors que han comès els aprenents d'idiomes. A l'altre extrem de , l'empresa de processament de pagaments Stripe utilitza GPT-4 per respondre a les preguntes d'assistència dels usuaris corporatius i per ajudar a marcar els possibles estafadors als fòrums d'assistència de l'empresa.

OpenAI afirma que GPT-4 soluciona o millora moltes de les crítiques que els usuaris tenien amb la versió anterior del seu sistema. Com a "gran model de llenguatge", GPT-4 s'entrena amb grans quantitats de dades extretes d'Internet i intenta donar respostes a frases i preguntes que són estadísticament similars a les que ja existeixen al món real. Però això pot significar que inventa informació quan no sap la resposta exacta (un problema conegut com "al·lucinació") o que proporciona respostes molestes o abusives quan se li donen les indicacions equivocades.

Durant una demostració de GPT-4 dimarts, el president i cofundador d'Open AI, Greg Brockman, també va donar als usuaris un cop d'ull a les capacitats de reconeixement d'imatges de la versió més recent del sistema, que encara no està disponible públicament i només està provada per una empresa anomenada Be My Eyes. La funció permetrà a GPT-4 analitzar i respondre a les imatges que s'envien juntament amb les indicacions i respondre preguntes o realitzar tasques basades en aquestes imatges. "GPT-4 no és només un model de llenguatge, també és un model de visió", va dir Brockman, "pot acceptar de manera flexible entrades que intercalen imatges i text de manera arbitrària, com un document".

En un moment de la demostració, se li va demanar a GPT-4 que descrigués per què una imatge d'un esquirol amb una càmera era divertida. (Perquè "no esperem que facin servir una càmera o actuïn com un humà".) En un altre moment, Brockman va enviar una foto d'un esbós rudimentari i dibuixat a mà d'un lloc web a GPT-4 i el sistema va crear un web basada en el dibuix.