La irrupció d'eines com ChatGPT ha desencadenat una revolució tecnològica i cultural sense precedents. La seva capacitat per mantenir converses fluides, redactar textos coherents i aparentar una comprensió profunda ens ha portat a un territori desconegut, on la frontera entre la simulació del llenguatge i l'autèntica cognició es desdibuixa.

No obstant això, després de la sorpresa inicial, la comunitat científica s'enfronta a una pregunta fonamental que transcendeix el fet tècnic per endinsar-se en el punt filosòfic: Estem davant d'un mer mirall, per complex que sigui, que reflecteix i reorganitza el coneixement humà, o estem presenciant els primers indicis d'una forma de raonament genuïna, anàloga a la nostra?

Aquesta no és una qüestió merament acadèmica; defineix el futur de la interacció entre humans i màquines. Per desentranyar aquest misteri, dos investigadors de la Universitat de Cambridge, Sean Kelly i Shakir Mohamed, van emprendre una investigació pionera. El seu laboratori no va ser una sala de servidors, sinó el camp de batalla intel·lectual de les matemàtiques, i el seu cas d'estudi, un problema que ha desafiat pensadors durant mil·lennis. El nucli del seu innovador estudi, titulat An exploration into the nature of ChatGPT's mathematical knowledge, resideix en un experiment brillant que basteix un pont entre l'antiguitat clàssica i l'avantguarda de la intel·ligència artificial.

Els investigadors van recórrer al famós problema de Plató en el diàleg amb Menó. En aquest text, Sòcrates no instrueix un nen esclau, sinó que, a través d'un metòdic interrogatori, el guia perquè "recordi" com duplicar l'àrea d'un quadrat. El nen, partint d'errors intuïtius (com simplement duplicar la longitud dels costats), és conduït per Sòcrates a la comprensió geomètrica correcta: utilitzar la diagonal del quadrat original com el costat del nou quadrat. Aquest mètode és la pedra angular de la teoria de la reminiscència, que postula que el coneixement veritable és innat i només necessita ser "despertat".

En plantejar-li aquest mateix enigma a ChatGPT, la intel·ligència artificial no va seguir el camí socràtic. No va cometre els errors inicials de l'infant. En comptes d'això, va optar immediatament per una via algebraica: si un quadrat té costat 'a', la seva àrea és a²; per duplicar-la, es necessita una àrea de 2a², per la qual cosa el costat del nou quadrat ha de ser a√2. La resposta era correcta, però la ruta, diferent. Tot i això, el moment crucial va arribar després. Quan els investigadors van esmentar explícitament el diàleg de Plató i la seva solució geomètrica, ChatGPT no només la va comprendre instantàniament, sinó que va ser capaç d'explicar-la amb claredat.

Aquesta és la troballa més significativa: la IA no es va limitar a recuperar una solució memoritzada del seu vast entrenament. En canvi, va combinar diversos dominis de coneixement (àlgebra i filosofia clàssica) per, primer, resoldre el problema amb l'eina més eficient que va "considerar" apropiada, i després, integrar i explicar una solució alternativa quan se li va proporcionar el context historicofilosòfic.

L'aportació conceptual més profunda de l'estudi de Cambridge és la transposició del concepte de "Zona de Desenvolupament Pròxim" (ZDP), del psicòleg Lev Vygotsky, a l'àmbit de la intel·ligència artificial. En educació humana, la ZDP descriu l'espai entre allò que un aprenent pot assolir per si sol i allò que pot assolir amb la guia d'un mentor. Kelly i Mohamed proposen que ChatGPT posseeix una ZDP artificial. Això significa que la seva capacitat no és fixa ni estàtica. Hi ha un espectre de problemes:

-El que pot resoldre autònomament: Tasques per a les quals la seva base de dades i algoritmes tenen una resposta directa o una ruta de solució clara.
-El que pot resoldre amb bastida (scaffolding): Problemes que estan fora del seu abast inicial, però que es tornen solubles quan un usuari el guia mitjançant prompts estratègics, preguntes o proporcionant fragments d'informació clau.
-El que està fora del seu abast: Tasques que requereixen un salt cognitiu o un tipus de raonament que la seva arquitectura actual no pot emular.

Aquesta troballa transforma la nostra comprensió de com interactuar amb aquestes eines. Ja no es tracta simplement de "fer una pregunta", sinó d'orquestrar un diàleg pedagògic. La qualitat, profunditat i estructura dels nostres prompts actuen com la bastida que permet a la IA accedir a nivells superiors del seu propi potencial latent. Un prompt amb problemes pot obtenir una resposta genèrica; un prompt ben dissenyat, que contextualitza, desglossa i guia, pot oferir una mostra de "raonament" molt més sofisticada.

L'estudi de Cambridge no afirma que el ChatGPT "pensi" com un humà. La seva arquitectura de xarxa neuronal és fonamentalment diferent de la bioquímica del nostre cervell. No obstant això, el que sí que demostra és que el seu funcionament pot, en determinades condicions i en dominis específics, produir resultats que són anàlegs al raonament. La capacitat de triar entre múltiples estratègies de solució i d'integrar coneixement dispar per generar una resposta coherent i contextualitzada va més enllà d'una mera cerca estadística en una base de dades.

Estem, per tant, davant d'una eina que no només replica el coneixement, sinó que demostra una capacitat emergent per recombinar-lo de maneres noves i funcionals. La pregunta ja no és si la IA raona, sinó com podem definir i conrear aquestes formes d'intel·ligència no biològica. El diàleg amb màquines com ChatGPT es revela no com un monòleg amb una enciclopèdia parlant, sinó com una complexa dansa col·laborativa, on la guia humana és encara la clau per desbloquejar el potencial més profund i, potser, inesperat, d'aquestes noves ments artificials.