¿Quién se está quedando con nuestro futuro?
- Esteve Almirall
- Barcelona. Jueves, 19 de febrero de 2026. 05:30
- Tiempo de lectura: 5 minutos
Hace unos días pasó una cosa que debería haber abierto todos los informativos. Una investigación científica en física teórica, firmada por dos de los mejores especialistas del mundo —Andrew Strominger y Alex Lupsasca— incluía también un tercer nombre: GPT-5.2.
No era una anécdota ni una provocación. En doce horas, el modelo había ayudado a resolver y demostrar un problema de física cuántica relevante para la investigación. La frontera del conocimiento ya no es exclusivamente humana.
Y esta no es la parte más importante de la historia. Hace pocos días otro modelo —Anthropic Code 4.6— se situó octavo en la Olimpiada Mundial de Programación. Y hay pocas dudas de que muy pronto será el primero: la distancia con los otros siete humanos es pequeña y la progresión, acelerada.
Ejemplos que indican que los modelos de IA ya están llegando —y en algunos casos superando— la frontera del conocimiento humano hay muchos. En los próximos meses veremos una nueva generación de sistemas que, sin duda, lo harán aún mejor.
Tenemos dos retos evidentes: qué adoptamos (y qué no) y, sobre todo, la velocidad con la que lo hacemos
Todo esto es importante. Pero no es la cuestión central. La tecnología no crea valor por sí misma. El valor aparece cuando se convierte en innovación, cuando se adopta y transforma procesos reales. Y esta adopción redefine el mapa de ganadores y perdedores: quién prospera y quién queda relegado, qué economías crecen y cuáles se empobrecen, qué sociedades aspiran al bienestar y cuáles ven cómo se les escapa.
Y aquí es donde empezamos a tener un problema serio. Tenemos dos retos evidentes: qué adoptamos (y qué no) y, sobre todo, la velocidad con la que lo hacemos.
El gran desfase: la tecnología vuela, la adopción camina
Dos ejemplos recientes nos dan una idea de la magnitud del cambio.
Hace pocos días Anthropic lanzó Cowork y OpenAI presentó Codex 5.3. Lo más revelador no es solo el producto, sino el proceso: ambos sistemas fueron programados y verificados de manera extensiva con la ayuda de otros modelos. Las mismas organizaciones hablan de porcentajes cercanos al 90%. En otras palabras: la IA ya está construyendo la siguiente generación de la IA.
De hecho, en estas empresas muchos ingenieros de software ya no programan como antes. Usan modelos que escriben, revisan y mejoran el código. El papel humano se desplaza: menos ejecución y más supervisión, menos producción manual y más orquestación.
No disponemos de datos comparativos completos de Codex 5.3, pero Anthropic sí que ha compartido orientaciones sobre sus tiempos de desarrollo. Si para construir Anthropic Code hicieron falta cerca de dos años y un equipo de unos 100 ingenieros, Cowork se habría desarrollado con cinco ingenieros en aproximadamente una semana y media.
No es una comparación estrictamente justa, y sería ingenuo presentarla como tal. Pero sirve para entender una cosa: el incremento de productividad ya no es marginal. Es de otra escala.
Los que usamos habitualmente GPT Deep Research, Anthropic Code o Cowork sabemos perfectamente de qué hablamos. No es una mejora incremental. Es un cambio de paradigma. Un antes y un después.
La IA ya está construyendo la siguiente generación de IA. Muchos ingenieros de software ya no programan como antes. Usan modelos que escriben, revisan y mejoran el código
Hace unos días, Anthropic también lanzó un plug-in legal. De hecho, ya tenía de finanzas, productividad o integración con Microsoft Office. Pero un plug-in, en este contexto, no es un simple añadido: es un conjunto de conectores, habilidades y agentes capaces de ejecutar tareas completas.
En el caso legal, permite hacer compliance, revisar contratos y conectar con bases de datos como LexisNexis o Thomson Reuters. Anthropic no hizo una gran campaña. Y, aun así, en cuestión de días provocó una reacción significativa en los mercados: Thomson Reuters llegó a caer cerca de un 19% y otras empresas del sector registraron descensos similares.
Los analistas empezaron a hablar de "SaaSpocalypse": la hipótesis de que muchas empresas SaaS, como Salesforce o Hubspot, podrían verse progresivamente sustituidas por sistemas de IA agéntica capaces de capturar una parte sustancial del valor que hoy genera el software tradicional, especialmente en ámbitos como la business intelligence o el acceso a datos.
Y aquí es donde deberíamos hacernos la pregunta clave: si esto pasa en Silicon Valley, ¿qué pasará aquí?
El espejismo europeo: mucho uso, poca transformación
Hay un desfase enorme entre la velocidad de la tecnología y la velocidad de su adopción. Y conviene repetirlo, porque es el elemento central: el valor no se crea en el laboratorio, se captura en la adopción.
Algunas organizaciones y algunos países ya están integrando estas tecnologías en el corazón de sus procesos. Otros, en cambio, dedican más tiempo a la crítica que a la construcción. Y, como pasa a menudo, quien solo critica, pero no propone ni construye, acaba teniendo poco impacto real.
A menudo, además, la adopción está condicionada por un espejismo. Europa —y España en particular— es una de las regiones con más uso de IA generativa. Es difícil encontrar a alguien que no utilice ChatGPT para redactar un texto, preparar un informe o resolver una duda. Pero aquí es donde se produce la confusión: se confunde el uso de un producto con la transformación profunda de una economía.
Usar chatbots puede aumentar la productividad individual. Pero mientras todo lo que hagamos siga requiriendo nuestra supervisión constante, estos incrementos tendrán un techo inevitable: nuestro tiempo y nuestra capacidad de atención. Totalmente diferente es cuando automatizamos. Cuando no solo utilizamos la IA, sino que delegamos procesos enteros. Aquí es donde aparecen los grandes incrementos de productividad.
Los profesionales pasan de hacer trabajo repetitivo a convertirse en supervisores, orquestadores y árbitros
Ponemos un ejemplo claro: el compliance. Tradicionalmente, revisar si un contrato cumplía las políticas internas implicaba equipos de abogados juniors leyendo documentos línea por línea. Una tarea lenta, repetitiva, cara y poco agradable.
Hoy, en empresas punteras, son sistemas de agentes los que revisan los contratos. Si todo es correcto, el proceso se cierra. Si hay cláusulas que conviene estandarizar porque el mercado ha cambiado o porque hay nueva legislación, el sistema eleva propuestas. Y solo en caso de duda interviene un abogado.
Los profesionales pasan así de hacer trabajo repetitivo a convertirse en supervisores, orquestadores y árbitros. En programación el patrón es el mismo: los modelos escriben, refactorizan y prueban código; los humanos deciden arquitectura, prioridades y criterios.
Como se puede imaginar, la diferencia de productividad entre un abogado que trabaja con un chatbot y un sistema de agentes que opera 24x7 es abismal. Son dos universos diferentes.
No podemos medir la adopción por el número de personas que utilizan chatbots de IA, sino por la capacidad de construir sistemas que transformen organizaciones enteras
Aquí radica la trampa: no podemos medir la adopción por el número de personas que utilizan chatbots de IA, sino por la capacidad de construir sistemas que transformen organizaciones enteras.
Y es en esta curva donde no estamos bien posicionados.
Tenemos mucho uso de chatbots, algunas automatizaciones, pero pocos sistemas agénticos que redefinan realmente nuestras organizaciones. Nos estamos acostumbrando a consumir IA como si fuera una herramienta personal, cuando la verdadera batalla se juega en la capacidad de desplegarla como infraestructura productiva.
Adoptar una tecnología no es solo utilizar herramientas genéricas. Es construirlas, integrarlas y transformar con ellas el tejido productivo.
La pregunta incómoda es inevitable: ¿quién se está quedando con nuestro futuro? ¡Porque el futuro será de quien lo cree!
Quien lo haga capturará valor. Quien no lo haga quedará en un estadio similar al de hoy. Y como la tecnología avanza rápidamente, también lo hace la distancia entre los que adoptan profundamente y los que no.
Esta distancia no crece de manera lineal. Crece a la velocidad de la evolución tecnológica.
Quienes están mejor situados en este proceso tienen más capacidad para avanzar aún más rápidamente, crear productos nuevos y competir de una manera radicalmente diferente. El caso de Anthropic no es solo un ejemplo, pero el patrón es general.
El futuro no será de quien utilice mejor un chatbot. El futuro será de quien construya sistemas que trabajen para él.
Y la pregunta incómoda es inevitable: ¿quién se está quedando con nuestro futuro? ¡Porque el futuro será de quien lo cree!