La inteligencia artificial avanza muy rápido para poder ganar credibilidad. El laboratorio de investigación de inteligencia artificial OpenAI ha lanzado GPT-4, la última versión del innovador sistema de IA que impulsa ChatGPT y aseguran que con la nueva herramienta se puede ser más creativo, menos propenso a inventar hechos y menos sesgado que su predecesor. Y, por encima de todo, una característica que quiere romper esquemas: la capacidad de razonar y no copiar o establecer simples nexos de conexión entre una palabra y su definición.

Bajo la premisa que han lanzado asegurando que "este modelo tiene un alta capacidad", el cofundador de OpenAI, Sam Altman, aseguró este martes que el nuevo sistema es un modelo "multimodal", lo que significa que puede aceptar imágenes y texto como entradas, cosa que permite a los usuarios hacer preguntas sobre imágenes. La nueva versión puede gestionar entradas de texto masivas y puede recordar y actuar sobre más de 20.000 palabras al mismo tiempo, permitiendo que tome una novela entera como indicación.

Apuesta por la imagen y el lenguaje

El nuevo modelo está disponible hoy para los usuarios de ChatGPT Pluses, la versión de pago del chatbot de ChatGPT, que proporcionó algunos de los datos de formación para la última versión. Por otra parte, OpenAI también ha trabajado con socios comerciales para ofrecer servicios basados en GPT-4. Un nuevo nivel de suscripción de la aplicación de aprendizaje de idiomas Duolingo, Duolingo Max, ahora ofrecerá a los usuarios de habla inglesa conversaciones con inteligencia artificial en francés o español, y podrá utilizar GPT-4 para explicar los errores que han cometido los aprendices de idiomas. En el otro extremo de , la empresa de procesamiento de pagos Stripe utiliza GPT-4 para responder a las preguntas de asistencia de los usuarios corporativos y para ayudar a marcar a los posibles estafadores en los foros de asistencia de la empresa.

OpenAI afirma que GPT-4 soluciona o mejora a muchas de las críticas que los usuarios tenían con la versión anterior de su sistema. Como "gran modelo de lenguaje", GPT-4 se entrena con grandes cantidades de datos extraídas de Internet e intenta dar respuestas a frases y preguntas que son estadísticamente similares a las que ya existen en el mundo real. Pero eso puede significar que inventa información cuando no sabe la respuesta exacta (un problema conocido como "alucinación") o que proporciona respuestas molestas o abusivas cuando se le dan las indicaciones equivocadas.

Durante una demostración de GPT-4 martes, el presidente y cofundador de Open AI, Greg Brockman, también echó a los usuarios un vistazo a las capacidades de reconocimiento de imágenes de la versión más reciente del sistema, que todavía no está disponible públicamente y solo está probada por una empresa denominada Cordero My Eyes. La función permitirá a GPT-4 analizar y responder en las imágenes que se envían junto con las indicaciones y responder preguntas o realizar tareas basadas en estas imágenes. "GPT-4 no es solo un modelo de lenguaje, también es un modelo de visión", dijo Brockman, "puede aceptar de manera flexible entradas que intercalan imágenes y texto de manera arbitraria, como un documento".

En un momento de la demostración, se le pidió a GPT-4 que describiera por qué una imagen de una ardilla con una cámara era divertida. (Porque "no esperamos que utilicen una cámara o actúen como un humano".) En otro momento, Brockman envió una foto de un esbozo rudimentario y dibujado a mano de un sitio web a GPT-4 y el sistema creó una web basada en el dibujo.