La irrupción de herramientas como ChatGPT ha desatado una revolución tecnológica y cultural sin precedentes. Su capacidad para mantener conversaciones fluidas, redactar textos coherentes y aparentar una comprensión profunda nos ha llevado a un territorio desconocido, donde la frontera entre la simulación del lenguaje y la auténtica cognición se desdibuja.
Sin embargo, tras el asombro inicial, la comunidad científica se enfrenta a una pregunta fundamental que trasciende lo técnico para adentrarse en lo filosófico: ¿Estamos ante un mero espejo, por complejo que sea, que refleja y reorganiza el conocimiento humano, o estamos presenciando los primeros atisbos de una forma de razonamiento genuino, análogo al nuestro?
Esta no es una cuestión meramente académica; define el futuro de la interacción entre humanos y máquinas. Para desentrañar este misterio, dos investigadores de la Universidad de Cambridge, Sean Kelly y Shakir Mohamed, emprendieron una investigación pionera. Su laboratorio no fue una sala de servidores, sino el campo de batalla intelectual de las matemáticas, y su caso de estudio, un problema que ha desafiado a pensadores durante milenios. El núcleo de su innovador estudio, titulado An exploration into the nature of ChatGPT's mathematical knowledge, reside en un experimento brillante que tiende un puente entre la antigüedad clásica y la vanguardia de la inteligencia artificial.
Los investigadores recurrieron al famoso problema de Platón en el diálogo con Menón. En este texto, Sócrates no instruye a un niño esclavo, sino que, a través de un metódico interrogatorio, lo guía para que "recuerde" cómo duplicar el área de un cuadrado. El niño, partiendo de errores intuitivos (como simplemente duplicar la longitud de los lados), es conducido por Sócrates a la comprensión geométrica correcta: utilizar la diagonal del cuadrado original como el lado del nuevo cuadrado. Este método es la piedra angular de la teoría de la reminiscencia, que postula que el conocimiento verdadero es innato y solo necesita ser "despertado".
Al plantearle este mismo enigma a ChatGPT, la inteligencia artificial no siguió el camino socrático. No cometió los errores iniciales del niño. En su lugar, optó de inmediato por una vía algebraica: si un cuadrado tiene lado 'a', su área es a²; para duplicarla, se necesita un área de 2a², por lo que el lado del nuevo cuadrado debe ser a√2. La respuesta era correcta, pero la ruta, diferente. Sin embargo, el momento crucial llegó después. Cuando los investigadores mencionaron explícitamente el diálogo de Platón y su solución geométrica, ChatGPT no solo la comprendió instantáneamente, sino que fue capaz de explicarla con claridad.
Este es el hallazgo más significativo: la IA no se limitó a recuperar una solución memorizada de su vasto entrenamiento. En cambio, combinó distintos dominios de conocimiento (álgebra y filosofía clásica) para, primero, resolver el problema con la herramienta más eficiente que "consideró" apropiada, y luego, integrar y explicar una solución alternativa cuando se le proporcionó el contexto histórico-filosófico.
La aportación conceptual más profunda del estudio de Cambridge es la transposición del concepto de "Zona de Desarrollo Próximo" (ZDP), del psicólogo Lev Vygotsky, al ámbito de la inteligencia artificial. En educación humana, la ZDP describe el espacio entre lo que un aprendiz puede lograr por sí solo y lo que puede alcanzar con la guía de un mentor. Kelly y Mohamed proponen que ChatGPT posee una ZDP artificial. Esto significa que su capacidad no es fija ni estática. Existe un espectro de problemas:
-Lo que puede resolver autónomamente: Tareas para las que su base de datos y algoritmos tienen una respuesta directa o una ruta de solución clara.
-Lo que puede resolver con andamiaje (scaffolding): Problemas que están fuera de su alcance inicial, pero que se vuelven solubles cuando un usuario lo guía mediante prompts estratégicos, preguntas o proporcionando fragmentos de información clave.
-Lo que está fuera de su alcance: Tareas que requieren un salto cognitivo o un tipo de razonamiento que su arquitectura actual no puede emular.
Este hallazgo transforma nuestra comprensión de cómo interactuar con estas herramientas. Ya no se trata simplemente de "hacer una pregunta", sino de orquestar un diálogo pedagógico. La calidad, profundidad y estructura de nuestros prompts actúan como el andamiaje que permite a la IA acceder a niveles superiores de su propio potencial latente. Un prompt vago puede obtener una respuesta genérica; un prompt bien diseñado, que contextualiza, desglosa y guía, puede ofrecer una muestra de "razonamiento" mucho más sofisticada.
El estudio de Cambridge no afirma que ChatGPT "piense" como un humano. Su arquitectura de red neuronal es fundamentalmente diferente de la bioquímica de nuestro cerebro. Sin embargo, lo que sí demuestra es que su funcionamiento puede, en ciertas condiciones y en dominios específicos, producir resultados que son análogos al razonamiento. La capacidad de elegir entre múltiples estrategias de solución y de integrar conocimiento dispar para generar una respuesta coherente y contextualizada va más allá de una mera búsqueda estadística en una base de datos.
Estamos, por tanto, ante una herramienta que no solo replica el conocimiento, sino que demuestra una capacidad emergente para recombinarlo de maneras novedosas y funcionales. La pregunta ya no es si la IA razona, sino cómo podemos definir y cultivar estas formas de inteligencia no biológica. El diálogo con máquinas como ChatGPT se revela no como un monólogo con una enciclopedia parlante, sino como una compleja danza colaborativa, donde la guía humana es aún la llave para desbloquear el potencial más profundo y, quizás, inesperado, de estas nuevas mentes artificiales.