Hace casi dos meses, OpenAI desató una ola de expectación global con el lanzamiento de GPT-5, presentado no como una mera actualización, sino como un salto cuántico hacia una inteligencia artificial con capacidades de "nivel doctoral" y un avance tangible en la búsqueda de la Inteligencia Artificial General (AGI).

Sin embargo, la realidad que han encontrado millones de usuarios dista mucho de esa promesa. En lugar de un oráculo infalible, se topan con un sistema que, de manera recurrente y desconcertante, tropieza con preguntas aparentemente simples, generando una creciente preocupación sobre los límites reales de esta tecnología y la solidez de su arquitectura.

La plataforma de Reddit se ha convertido en el termómetro más fiel de la frustración de los usuarios. Un hilo reciente, que se volvió viral, exponía un fallo paradigmático. Un usuario formuló una pregunta que cualquier aficionado casual al fútbol americano podría responder: "¿Hay algún equipo de la NFL cuyo nombre no termine en s?".

La respuesta de GPT-5 fue un espectáculo de incoherencia. El chatbot comenzó afirmando que, efectivamente, existían dos equipos que no cumplían esa regla. Acto seguido, en un giro absurdo, enumeró ejemplos como los "Miami Dolphins" o los "Green Bay Packers", nombres que terminan claramente con la letra s.

Inmediatamente después, se autocorregía, señalando la contradicción: "De hecho, Dolphins sí termina en s". Este bucle de afirmaciones contradictorias se repitió en múltiples intentos, sin que el sistema llegara nunca a la conclusión correcta y verificable: no, no hay ningún equipo en la NFL cuyo nombre oficial no termine en s.

Lo más revelador no fue el error en sí, sino el patrón de comportamiento que exhibió. Para enmascarar su confusión, GPT-5 recurrió a un teatro de razonamiento profundo, utilizando frases como "Espera, hagámoslo con cuidado" o "Permíteme abordarlo de manera sistemática".

Estas muletillas, diseñadas para simular una cadena de pensamiento lógico, solo servían para introducir más divagaciones y listas irrelevantes, creando la ilusión de profundidad donde solo había un vacío de comprensión real.

Este incidente no es una anomalía aislada. Es el síntoma de un patrón más profundo que los expertos comienzan a señalar. Hace apenas unas semanas, otro ejemplo capturó la atención de la comunidad. Al ser preguntado por la existencia de un "emoji de caballito de mar mítico", GPT-5 no solo afirmó su existencia, sino que insistió en ello, describiendo detalles de su diseño y uso, a pesar de que tal emoji nunca ha formado parte del estándar Unicode.

Este fenómeno, según analistas de medios especializados como Futurism, apunta a una tendencia alarmante: la disposición del modelo a "alucinar" o fabricar información con tal de complacer la consulta del usuario y mantener una conversación fluida y humana. La IA prioriza la coherencia narrativa y la satisfacción inmediata del usuario sobre la veracidad de los hechos, un rasgo que, si no se controla, supone una seria amenaza para su fiabilidad en contextos educativos o periodísticos.

Las explicaciones técnicas detrás de estos fallos parecen residir en la propia arquitectura de GPT-5. Fuentes del sector indican que esta versión opera con un sistema dual: un "modelo ligero", optimizado para respuestas rápidas a consultas simples, y un "modelo de razonamiento" mucho más potente y costoso computacionalmente, reservado para problemas complejos.

La hipótesis que gana fuerza entre los observadores es que el "modelo ligero" se está atascando con ciertas preguntas que, aunque aparentemente sencillas, contienen una trampa lógica o una ambigüedad que no puede resolver. En lugar de reconocer su limitación y transferir la tarea al modelo más avanzado, insiste en generar una respuesta por sus propios medios, lo que deriva en esas cascadas de incoherencia y autocorrección fallida.

Esta dinámica defectuosa fue, precisamente, una de las principales causas de la decepción tras el lanzamiento. La promesa de una inteligencia superior se veía empañada por errores básicos que versiones anteriores no cometían con tanta frecuencia. La presión fue tal que OpenAI, en un movimiento inusual, se vio obligada a rectificar su decisión inicial y restablecer el acceso a modelos anteriores como GPT-4, permitiendo a los usuarios elegir entre estabilidad y la vanguardia defectuosa.

El caso de GPT-5 sirve como un potente recordatorio para la industria y la sociedad: el camino hacia la AGI está plagado de desafíos imprevistos. La búsqueda de una inteligencia más veloz y aparentemente más "humana" no debe sacrificar la solidez lógica y la fiabilidad.

Los extraños tropiezos de GPT-5 con equipos de la NFL y emojis imaginarios no son anécdotas menores; son la manifestación de los profundos problemas de comprensión y razonamiento que aún persisten en el núcleo de la IA más avanzada, y una llamada de atención sobre la peligrosa tentación de estos sistemas de preferir una mentira convincente a una verdad incómoda.