Sí, esta semana también hay modelos nuevos. OpenAI ha lanzado un modelo de imagen, el GPT 1.5 Image, que compite bien con el Nano Banana de Google. En muchos casos hace imágenes más realistas y en los temas de corrección de imágenes, lo hace igual de bien. Ambos están muy igualados y dependerá probablemente más de los gustos personales y del tipo de tarea. Pero en ambos casos se da un impulso importante a las infografías, presentaciones y diagramas que todos usamos habitualmente.
Finalmente, ya hay conversaciones entre Amazon y OpenAI. Uno necesita modelos que funcionen bien y el otro, recursos económicos y capacidad de cómputo. Si los incentivos están ahí, al final las cosas pasan. Y malas noticias para Europa. China ya tiene un prototipo de hardware de litografía ultravioleta equivalente al que hace ASML. Lo que era la única área donde Europa tenía una ventaja global empieza a desaparecer. Es el resultado de las limitaciones a la exportación, era totalmente previsible.
GPT Imagen 1.5
OpenAI ha presentado su modelo GPT Image 1.5 – disponible en ChatGPT. Es un modelo mucho mejor y mucho más rápido que el anterior que compite cara a cara con Nano Banana de Google, también es más barato. Al igual que Nano Banana, no solo crea imágenes, sino que nos permite editarlas como si fuera Photoshop, pero a partir de prompts, funciona bien y es cómodo. Preserva mucho mejor los detalles y sobre todo la consistencia de las imágenes y los textos, lo cual era un problema con muchos modelos.
También la luz y su apariencia es probablemente más profesional. Va cuatro veces más rápido que el modelo anterior. También hay un apartado dedicado a imágenes dentro de ChatGPT que permite reutilizarlas o usar su estilo. Igualmente, puedes usar un estilo de los que proporciona el sistema. Estas imágenes permiten hacer mucho mejores presentaciones de PowerPoint e infografías, algo siempre útil.
OpenAI y Amazon: un acuerdo de $10B
Amazon está en conversaciones con OpenAI para invertir 10.000 millones de dólares. En el acuerdo se incluye que OpenAI utilizaría los chips Trainium de AWS. Una vez finalizado el acuerdo, el valor de OpenAI alcanzará los 500.000 millones de dólares, la valoración más grande que jamás ha conseguido una empresa de IA. El acuerdo sigue el mismo esquema que los anteriores con CoreWeave, AMD y Broadcom, donde a la vez hemos visto un acuerdo de inversión junto con el uso de chips. La nueva estructura de OpenAI hace posible todos estos acuerdos, a pesar de que Microsoft tenga un 27% de la empresa.
Hay que recordar que estos incrementos de valor también suponen un incremento de valor para Microsoft. La visión estratégica de este acuerdo es doble. Por un lado, nos encontraremos con una disrupción del mercado de GPU hoy dominado casi exclusivamente por Nvidia. Por otro, posiciona OpenAI como el modelo genérico que está en todas partes y todo el mundo tiene, el modelo que todos usamos por defecto, un posicionamiento altamente deseable porque crea efectos-red y se convierte en el modelo estándar.
Nvidia crece en modelos OpenSource
Nvidia ha lanzado una nueva familia de modelos Neotron 3 y ha adquirido SchedMD, el creador de Slurm, una aplicación líder en la gestión de trabajos en supercomputación e IA. Neotron está disponible en tres versiones: nano, super para tareas agénticas, y ultra para razonamientos complejos. Recordemos que hace poco también Nvidia lanzó Alpamayo-R1 para vehículos autónomos y Cosmos para IA física. Algunos os preguntaréis por qué Nvidia produce modelos OpenSource.
La razón es simple: hacer crecer sus procesadores implica modelos que los hagan servir, y para ello un camino excelente es el OpenSource, que es lo que se utiliza en universidades y centros de investigación. Actualmente, el OpenSource está dominado por modelos chinos, ya algunos de ellos entrenados con procesadores chinos. Este es el futuro que Nvidia quiere combatir. En otros ámbitos, tener un modelo para vehículos autoconducidos o robots que funcionara al nivel de los de Tesla implicaría que todos los coches que quisieran disponer de autoconducción deberían utilizar procesadores Nvidia, lo mismo con los robots. Ambos campos tienen el potencial para superar con creces la demanda de GPU de la IA.
Gemini 3 Flash
Google ha lanzado su modelo Gemini 3 Flash, una versión mucho más pequeña y mucho más rápida del modelo Gemini 3 a un precio sensiblemente inferior. El Gemini 3 Flash lo hace tan bien como el Gemini 3 Pro, en algunos casos mejor, y está a la par con GPT 5.2. El modelo Flash es el que estará detrás de las apps de Gemini, la búsqueda, API y herramientas. Es especialmente valioso en agentes donde la velocidad en el tiempo de respuesta es primordial.
TPU y Meta & PyTorch
Google y Meta han unido fuerzas para crear TorchTPU, una versión de PyTorch para TPU. PyTorch es la librería OpenSource sobre la que están construidos la mayor parte de los modelos y, en general, la gran mayoría de las herramientas de Deep Learning. Esta versión especialmente destinada a obtener un rendimiento excelente con las TPU de Google representa una amenaza importante para Nvidia, que hasta ahora estaba protegida por su software CUDA desarrollado a lo largo de 18 años. Hasta ahora las mejores librerías para usar las TPU de Google eran desarrollos internos y no estaban disponibles. Este es, pues, un paso más para erosionar el dominio de NVIDIA en los procesadores de IA. Se piensa abrir partes del proyecto en OpenSource.
El ASML chino
Finalmente, China ha tenido éxito en la construcción de un prototipo de EUV (extreme ultraviolet lithography) que se utiliza para fabricar los chips más avanzados. Hasta ahora solo ASML era capaz de hacerlo. Se trata de un programa patrocinado por el gobierno chino en el que han sido clave antiguos ingenieros chinos de ASML y ha sido coordinado por Huawei. Parece que el objetivo es entrar en producción alrededor de 2028. Este esfuerzo era un tema conocido en todas partes. Singularmente, hace pocos días salía en The Guardian una noticia que se hacía eco de un comentario de la Comisión Europea en la dirección de que Europa debía usar industrias como ASML como arma contra Estados Unidos y China. Es sorprendente cómo medios y políticos pueden ir tan despistados.
La Investigación en IA
On the Interplay of Pre-Training, Mid-Training, and RL on Reasoning Language Models
AI Lab: Carnegie Mellon University
El entrenamiento por Reinforcement es muy costoso y es importante saber en qué condiciones realmente aporta. Este estudio analiza hasta qué punto el entrenamiento avanzado mejora realmente la capacidad de razonamiento de los modelos de inteligencia artificial. Mediante experimentos totalmente controlados, los investigadores muestran que las técnicas de aprendizaje por refuerzo solo aportan ganancias reales cuando el modelo todavía tiene margen de mejora y se le pone ante retos justo al límite de lo que puede hacer. El estudio también revela que una fase intermedia de entrenamiento, a menudo ignorada, es clave para mejorar el rendimiento, y que premiar los pasos del razonamiento —y no solo el resultado final— hace los sistemas más fiables. Los resultados ayudan a entender mejor cómo se debe entrenar la IA para que razone de manera más robusta y coherente.
Towards a Science of Scaling Agent Systems
AI Lab: Google Research, DeepMind, MIT
Escalar ha sido en LLM la solución universal y existe una gran tentación a trasladarla a los agentes de IA. Estos "agentes" —capaces de razonar, planificar y actuar— se están convirtiendo en el modelo dominante para aplicaciones reales, pero aún se sabe poco sobre qué determina su rendimiento. Un nuevo estudio establece reglas claras que explican cuándo conviene usar un solo agente y cuándo coordinar varios. Los resultados muestran que añadir más agentes no siempre mejora el rendimiento: en muchas tareas complejas, la coordinación introduce costes y errores que pueden empeorar los resultados. En cambio, una coordinación centralizada funciona muy bien en tareas paralelas, mientras que otras estructuras solo son útiles en casos muy concretos. El trabajo ofrece un marco predictivo que permite elegir la estrategia óptima de agentes según el tipo de tarea, y ayuda a entender mejor cómo diseñar sistemas de IA más eficientes y fiables.
DeepSeek v3.2: Pushing the Frontier of Open Large Language Models
AI Lab: DeepSeek AI
DeepSeek, siempre hay que aprender de DeepSeek, presenta una nueva generación de modelos de IA capaces de gestionar textos muy largos de manera mucho más eficiente. Gracias a una nueva técnica de atención que reduce drásticamente el coste computacional sin perder calidad, el sistema puede razonar sobre contextos enormes con menos recursos. A esto se añade un entrenamiento avanzado basado en refuerzo y agentes especializados que mejoran el razonamiento y el uso de herramientas. El resultado es un rendimiento comparable —y en algunos casos superior— al de los mejores modelos comerciales actuales, con una versión de alto rendimiento que alcanza resultados de élite en competiciones matemáticas y de programación.
Otras noticias
-Yann LeCun recauda $500M para su nueva empresa emergente AMI Labs con una valoración de $3B. Alex Lebrun, cofundador de Nabla, se convertirá en el CEO de la nueva empresa.
-La App Store de ChatGPT ya está disponible.
-TikTok USDS ya está firmado. Una alianza de empresas entre Oracle, Silver Lake y MGX que vigilará y auditará las operaciones de TikTok.
-Donald Trump ya ha firmado la orden ejecutiva que fija las prioridades de la NASA, entre ellas la de volver a la luna en 2028 y establecer una base allí dos años después.
-OpenAI está on track para conseguir batir su objetivo de $13B en ingresos para 2025. El mes pasado ya consiguió alcanzar los $19B, triplicando los ingresos de enero.
-Thinking Machines (Mira Murati) sacará modelos en 2026, así como un producto destinado a consumidores finales.
-Meta sacará un modelo de vídeo "Mango" en 2026.
-Coursera comprará Udemy por $950M.
-Meta ha introducido SAM Audio, un modelo capaz de aislar sonidos de una pista de audio compleja a partir de prompts.
-Manus ha conseguido un ARR de $125M.
-Tesla ya está probando sus robotaxis sin conductor en Austin.
