Si la semana pasada fue la de Anthropic, con toda una serie de novedades como Claude Design —un gran producto; si aún no lo usáis, os perdéis una herramienta muy potente—, el modelo 4.7 y Claude Routines, esta ha sido claramente la semana de OpenAI, con el lanzamiento de GPT 5.5, Images 2.0 y agentes, el sucesor de los custom GPT. Detrás de esta pugna está la clara constatación: OpenAI dispone de más capacidad de computación que Anthropic.
Ahora bien, el jueves por la noche DeepSeek, finalmente, publicó el preview de su nuevo modelo DeepSeek 4. Lo que sabemos de él era lo esperado. Lo hace tan bien como GPT 5.4 u Opus 4.6, se convierte en el líder en modelos Open Weights y, en algunos aspectos, como uso en agentes o desarrollo de código, lo hace especialmente bien. La próxima semana sabremos más, pero el plan de competición entre China y Estados Unidos, queda claramente nivelado en estos modelos generales.
En cuanto a GPT 5.5, ya disponible en ChatGPT y Codex, supone una mejora notable respecto al 5.4, especialmente en eficiencia y programación. Pero la estrella de la semana ha sido OpenAI Images 2.0, un modelo de imagen que supone un salto muy notable respecto a lo que habíamos visto hasta ahora.
La competencia por los grandes mercados de la IA —desde el modelo generalista hasta los agentes de programación— entre OpenAI, Anthropic y los modelos líderes chinos es feroz, y todo indica que continuará así mientras haya margen de mejora. Y, visto el ritmo de los últimos meses, todavía hay mucho.
OpenAI también ha presentado sus workspace agents, que se pueden leer como la evolución natural de los GPT dentro del entorno profesional. Permiten ejecutar tareas de manera autónoma, trabajar en la nube y conectarse a herramientas como Slack. Sus usos recuerdan a los de plataformas de agentes y automatización como Agent Builder o n8n, pero aquí hay un elemento diferencial importante: detrás de estos agentes está Codex, la capa de OpenAI orientada a trabajo de programación y ejecución. Los agentes que realmente harán el trabajo por nosotros ya empiezan a ser una realidad.
La semana, sin embargo, ha dado más de sí. Entre las noticias más comentadas está el acuerdo que da a SpaceX el derecho de comprar Cursor por 60.000 millones de dólares más adelante este año. Cursor había perdido parte del impulso inicial ante la mejora de herramientas como Claude Code o Codex, pero sigue siendo un producto excelente y estratégico dentro del mercado del código asistido por IA. Si la operación acaba cerrándose, reforzará aún más la batalla por el control de las herramientas con las que programadores y empresas trabajarán sobre los grandes modelos.
También hemos visto una nueva tanda de modelos chinos, como Qwen3.6-Max-Preview, Qwen3.5-Omni y Kimi K2.6. Son sistemas que ya compiten muy de cerca con los estadounidenses, sobre todo en programación, agentes y benchmarks multimodales o agentivos. La distancia no ha desaparecido del todo, pero se ha reducido lo suficiente como para que la carrera por la IA de frontera sea hoy, claramente, una competición entre Estados Unidos y China.
Finalmente, Apple ha anunciado que John Ternus sustituirá a Tim Cook como consejero delegado a partir del 1 de septiembre. El relevo refuerza la idea de que la compañía quiere seguir jugando su partida principal allí donde siempre ha sido más fuerte: la combinación de hardware y software bajo un mismo control. ¡La historia se acelera, y la IA no se detiene!
DeepSeek vuelve a sacudir la carrera de la IA con V4 Pro y V4 Flash
DeepSeek ha lanzado las versiones preview de DeepSeek V4 Pro y DeepSeek V4 Flash, el primer gran salto de arquitectura de la compañía desde V3. El movimiento es relevante porque sitúa de nuevo a China en el centro de la competición global en inteligencia artificial: V4 Pro llega con 1,6 billones de parámetros totales y 49.000 millones de activos, mientras que V4 Flash apuesta por una versión más ligera, con 284.000 millones de parámetros totales y 13.000 millones de activos. Ambos modelos soportan una ventana de contexto de 1 millón de tokens, muy por encima de los 128.000 tokens de V3.2.
La lectura principal es clara: DeepSeek ya no compite solo en precio, sino también en capacidad. Según la ficha técnica publicada en Hugging Face, V4 Pro mejora especialmente en tareas de razonamiento, programación y uso agéntico, y en el benchmark GDPval-AA obtiene 1554 puntos Elo, por delante de otros modelos abiertos como Kimi K2.6 y muy cerca de algunos modelos cerrados de primera línea.
La novedad también tiene una dimensión geopolítica. Associated Press subraya que DeepSeek presenta V4 como un paso importante en la rivalidad tecnológica entre China y Estados Unidos, mientras que The Next Web destaca que el modelo se publica en Hugging Face y se plantea como un reto directo para OpenAI, Anthropic y Google.
Ahora bien, conviene mantener cierta prudencia. Buena parte de las comparaciones iniciales provienen de DeepSeek o de evaluaciones aún en curso, y algunos analistas recuerdan que habrá que esperar pruebas independientes completas antes de concluir si V4 es realmente un nuevo "momento R1" o simplemente una actualización muy competente.
En síntesis: DeepSeek V4 Pro confirma que la carrera entre China y EE. UU. en IA generalista vuelve a estar muy viva. OpenAI y Anthropic continúan liderando buena parte de la conversación, pero DeepSeek demuestra que los modelos de pesos abiertos todavía pueden presionar la frontera, sobre todo cuando combinan escala, eficiencia y precios agresivos.
OpenAI GPT 5.5
OpenAI ha anunciado este 23 de abril de 2026 el lanzamiento de GPT-5.5, que define como su modelo “más inteligente e intuitivo” hasta ahora. La compañía asegura que es un paso más hacia una IA capaz de asumir tareas complejas de manera más autónoma, especialmente en ámbitos como la programación, la investigación, el análisis de datos, la creación de documentos y el uso de herramientas digitales.
Según OpenAI, GPT-5.5 mejora de manera notable respecto a GPT-5.4 en áreas como la programación agentiva, el trabajo de conocimiento, el uso del ordenador y la investigación científica temprana, pero sin penalizar la velocidad. De hecho, la firma sostiene que mantiene una latencia similar a la del modelo anterior, mientras requiere menos tokens para completar determinadas tareas. Se posiciona de nuevo como el mejor modelo en el índice de Artificial Analysis.
La compañía destaca también los resultados en diversos bancos de pruebas, donde GPT-5.5 supera a GPT-5.4 en benchmarks de código, uso de herramientas, contexto largo, matemáticas y ciberseguridad. Entre las cifras más relevantes, OpenAI subraya el 82,7% en Terminal-Bench 2.0, el 84,9% en GDPval y el 78,7% en OSWorld-Verified. OpenAI defiende que el modelo no solo es mejor respondiendo, sino también planificando, comprobando errores, navegando por la incertidumbre y perseverando hasta terminar el trabajo.
Esta evolución, según la firma, lo acerca a un uso más práctico en entornos profesionales, desde la ingeniería de software hasta finanzas, comunicación, educación o investigación biomédica. En cuanto a la disponibilidad, GPT-5.5 ya llega a ChatGPT y Codex para los usuarios Plus, Pro, Business y Enterprise, mientras que GPT-5.5 Pro queda reservado a los planes Pro, Business y Enterprise. OpenAI también ha avanzado que el modelo llegará “muy pronto” a la API, con precios superiores a los de GPT-5.4 pero, según la empresa, compensados por una eficiencia más alta.
ChatGPT Images 2.0
OpenAI ha presentado ChatGPT Images 2.0, una actualización que da un salto importante en la generación de imágenes con inteligencia artificial y la acerca a usos profesionales reales. La nueva versión incorpora capacidades de “razonamiento”, de modo que el sistema puede planificar mejor la composición antes de crear la imagen, revisar los resultados y generar versiones coherentes a partir de una sola instrucción.
Una de las mejoras más destacadas es la representación de texto dentro de las imágenes, hasta ahora uno de los grandes puntos débiles de esta tecnología. Si antes estos sistemas solían producir carteles, menús o interfaces con palabras deformadas o inventadas, ahora pueden generar con mucha más precisión piezas útiles para entornos reales de trabajo, como anuncios, pósteres, interfaces de usuario o diseños con composiciones densas.
Entre las novedades, también destaca la posibilidad de crear varias imágenes consistentes a partir de un solo prompt, manteniendo el mismo estilo y los mismos personajes, así como el soporte para textos en múltiples idiomas, incluyendo lenguas no latinas como el japonés, el coreano, el hindi, el bengalí o el chino. El modelo es compatible con estilos muy diversos —desde el fotorrealismo hasta el cine, el manga, el pixel art o la infografía— y permite trabajar con formatos flexibles, proporciones personalizadas y resoluciones de hasta cerca de 2K.
Según OpenAI, Images 2.0 aporta un nivel inédito de especificidad y fidelidad visual, con capacidad para seguir instrucciones complejas, preservar detalles y representar con más precisión elementos que hasta ahora a menudo fallaban, como el texto pequeño, la iconografía, las interfaces o las restricciones estilísticas sutiles. Estas capacidades, sin embargo, implican que la generación no sea tan inmediata como una respuesta de texto, aunque la creación de contenidos complejos continúa haciéndose en pocos minutos. La importancia de este lanzamiento radica en el hecho de que, por primera vez, la generación de imágenes con IA parece preparada para entornos de producción. Ya no se trata solo de una herramienta experimental o lúdica, sino de una tecnología que puede transformar la manera en que creadores, equipos de marketing y empresas pasan de una idea inicial a una pieza visual acabada, sin necesidad de recurrir siempre a herramientas de diseño tradicionales. (Venturebeat)
OpenAI Agentes
OpenAI ha lanzado los workspace agents, una nueva herramienta de ChatGPT pensada para equipos y organizaciones. La compañía ha anunciado que los usuarios de ChatGPT Business, Enterprise, Edu y Teachers podrán crear agentes compartidos capaces de gestionar tareas complejas y flujos de trabajo de larga duración dentro de los límites de permisos y controles definidos por cada organización.
Según OpenAI, estos agentes son una evolución de los GPT y están impulsados por Codex. Su función es asumir trabajos habituales dentro de la empresa, como preparar informes, escribir código, responder mensajes, generar seguimientos comerciales o elaborar reportings periódicos. Como operan en la nube, pueden continuar trabajando incluso cuando el usuario no está conectado, y se pueden compartir entre miembros de un mismo equipo o desplegar también en Slack.
La compañía defiende que estos agentes están pensados para flujos de trabajo colaborativos, en los que es necesario combinar contexto compartido, herramientas conectadas, procesos internos y aprobaciones. Entre los ejemplos que destaca hay agentes para revisar solicitudes de software, ordenar feedback de producto, elaborar informes semanales, calificar contactos comerciales o analizar riesgos de proveedores. OpenAI subraya que los administradores mantienen el control sobre qué datos y herramientas puede utilizar cada agente, qué acciones puede ejecutar y en qué casos debe pedir autorización antes de continuar.
Además, las organizaciones dispondrán de funciones de monitorización, analítica de uso y herramientas de gobernanza para supervisar cómo se crean y se utilizan estos agentes. Los workspace agents están disponibles desde ahora en fase de research preview y serán gratuitos hasta el 6 de mayo de 2026. A partir de esa fecha, OpenAI aplicará un modelo de precios basado en créditos. Con este movimiento, la empresa da un paso más en la transformación de ChatGPT, de asistente conversacional a plataforma de trabajo compartido con agentes capaces de actuar de manera persistente dentro del entorno empresarial. (OpenAI)
Amazon y Anthropic amplían su colaboración
Amazon y Anthropic han ampliado su alianza estratégica en inteligencia artificial con un acuerdo que refuerza tanto la infraestructura como la inversión financiera entre las dos compañías. Amazon ha anunciado una inversión inmediata de 5.000 millones de dólares en Anthropic, con la posibilidad de añadir hasta 20.000 millones más en el futuro si se cumplen determinados objetivos comerciales. Esta cifra se suma a los 8.000 millones que Amazon ya había invertido previamente en la firma de IA.
El acuerdo prevé que Anthropic destine más de 100.000 millones de dólares en diez años a tecnologías de AWS, incluyendo varias generaciones de los chips Trainium y decenas de millones de núcleos Graviton. Según las dos empresas, esta infraestructura servirá para entrenar y operar modelos avanzados de inteligencia artificial a gran escala. En este marco, Anthropic se garantizará hasta 5 gigavatios de capacidad computacional, incluida una parte significativa de la nueva generación Trainium3.
Otro de los puntos destacados es que la plataforma de Claude estará disponible de manera nativa dentro de AWS, lo que facilitará que los clientes de Amazon accedan a las herramientas de Anthropic sin tener que gestionar nuevas cuentas, contratos o sistemas de facturación. Amazon asegura que ya hay más de 100.000 clientes que utilizan modelos Claude a través de Amazon Bedrock, hecho que convierte esta familia de modelos en una de las más populares dentro de su ecosistema.
SpaceX podrá comprar Cursor por 60.000 millones de dólares
SpaceX se ha reservado la opción de comprar Cursor por 60.000 millones de dólares este mismo año, en una operación que evidencia hasta qué punto la carrera por la inteligencia artificial se está trasladando también a las herramientas de programación. Según han informado medios norteamericanos, la empresa de Elon Musk ha pactado con la empresa emergente detrás de Cursor un acuerdo que le da derecho a adquirirla más adelante en 2026 por esta cifra. Si finalmente la compra no se cierra, SpaceX abonaría 10.000 millones de dólares por el trabajo conjunto entre las dos compañías.
La operación refuerza la apuesta de Musk por integrar infraestructura masiva de computación con herramientas de IA orientadas al desarrollo de software. El objetivo declarado es combinar el producto y la base de usuarios de Cursor con la capacidad computacional de SpaceX y xAI para construir modelos más útiles para programación y trabajo del conocimiento. Cursor, desarrollada por Anysphere, se ha convertido en una de las plataformas de asistencia a la programación más seguidas del sector.
La cifra pactada supone una prima muy notable respecto a las valoraciones anteriores de la compañía. Cursor había buscado recientemente una nueva ronda de financiación que la habría valorado en torno a los 50.000 millones de dólares, después de haber sido valorada por debajo de esta cifra en rondas precedentes.
Según The Information, aquella ronda habría quedado detenida a raíz del nuevo acuerdo con SpaceX. Más allá de la magnitud financiera, el movimiento refleja una tendencia de fondo: las grandes plataformas tecnológicas quieren controlar no solo los modelos de IA, sino también las herramientas con las que programadores y empresas interactúan cada día con estos sistemas. En este contexto, Cursor se ha convertido en una pieza estratégica en la batalla entre SpaceX-xAI, OpenAI y Anthropic para dominar el mercado del código asistido por IA.
Moonshot Kimi K2.6 y Qwen3.6-Max-Preview
Los modelos chinos de inteligencia artificial han dejado de ir a remolque de los norteamericanos. En los últimos lanzamientos, compañías como Alibaba o Moonshot AI han presentado sistemas que ya compiten en capacidades clave con OpenAI, Google o Anthropic, sobre todo en programación, agentes y uso multimodal. La brecha no ha desaparecido del todo, pero sí que se ha acortado lo suficiente para que la carrera por la IA de frontera ya sea, claramente, una competición entre Estados Unidos y China.
En este contexto, Moonshot AI ha reforzado su apuesta con Kimi K2.6, un modelo orientado a programación, agentes y tareas de largo contexto. La compañía lo despliega tanto en Kimi Chat como en su API, con diversas variantes pensadas para cubrir desde respuestas rápidas hasta automatizaciones más complejas, búsqueda o ejecución masiva de tareas. Moonshot defiende que el modelo obtiene resultados muy competitivos en benchmarks de código y uso de herramientas, y lo presenta como una de sus grandes cartas para disputar el mercado de los modelos abiertos y de los entornos de trabajo asistidos por IA.
También Qwen, la familia de modelos de Alibaba, continúa acelerando. La compañía ha anunciado Qwen3.6-Max-Preview, una nueva versión preliminar de su modelo propietario más avanzado, con mejoras en conocimiento general, seguimiento de instrucciones y programación agentiva. Según Alibaba, esta nueva iteración lidera diversos benchmarks de código y refuerza la idea de que la competencia ya no gira solo alrededor del razonamiento general, sino también de la capacidad de los modelos para actuar como agentes útiles, usar herramientas y ejecutar flujos de trabajo reales. Entre Kimi y Qwen, la fotografía es cada vez más clara: China ya no solo intenta seguir el ritmo de los grandes laboratorios de Estados Unidos, sino que quiere disputarles directamente el liderazgo en algunos de los terrenos más decisivos de la nueva generación de inteligencia artificial. (Qwen)
La investigación IA
Qwen 3.5-Omni Technical Report-AI Lab: Qwen (Alibaba)
Alibaba presenta Qwen3.5-Omni, un modelo multimodal que aspira a competir con los grandes sistemas de IA generales. La nueva versión de la familia Qwen supone un salto notable respecto a la anterior: escala hasta cientos de miles de millones de parámetros, admite contextos de hasta 256.000 tokens y ha sido entrenada con una base de datos masiva que combina texto, imagen, audio y vídeo. Según sus desarrolladores, Qwen3.5-Omni-Plus consigue resultados de vanguardia en 215 pruebas relacionadas con comprensión, razonamiento e interacción en audio y audiovisual, hasta el punto de superar a Gemini 3.1 Pro en algunas tareas de audio e igualarlo en comprensión audiovisual global. El modelo puede procesar más de 10 horas de audio y hasta 400 segundos de vídeo en 720p, hecho que refuerza su orientación hacia usos multimodales complejos.
Una de las principales novedades técnicas es ARIA, un sistema pensado para mejorar la síntesis de voz en tiempo real. Esta tecnología busca resolver un problema habitual de los modelos de voz conversacional: la falta de estabilidad y naturalidad. Según el equipo, ARIA permite alinear mejor texto y habla, lo que mejora la prosodia y la fluidez sin penalizar mucho la latencia. El modelo también amplía sus capacidades lingüísticas: entiende y genera voz en 10 idiomas, con más matices emocionales e incluso con opciones de personalización de voz a partir de muestras aportadas por el usuario. A esto se añade una mejor capacidad para describir contenido audiovisual de manera estructurada, con subtítulos sincronizados, segmentación automática de escenas y una nueva habilidad que los autores llaman “audiovisual vibe coding”, es decir, la capacidad de programar a partir de instrucciones en audio y vídeo.
Many-Tier Instruction Hierarchy in LLM Agents-AI Lab: Johns Hopkins University
Otro de los frentes emergentes en la carrera de la IA es la fiabilidad de los agentes cuando reciben órdenes contradictorias. Un nuevo trabajo pone el foco en este problema y sostiene que los modelos actuales aún fallan a menudo a la hora de decidir qué instrucción deben obedecer cuando reciben mensajes de muchas fuentes diferentes, como el sistema, el usuario, herramientas externas u otros agentes. Los autores proponen un nuevo enfoque, llamado Many-Tier Instruction Hierarchy (ManyIH), pensado para gestionar conflictos entre instrucciones con muchos más niveles de prioridad que los esquemas habituales. Hasta ahora, la mayoría de sistemas parten de una jerarquía simple —por ejemplo, sistema por encima del usuario—, pero esto se queda corto en entornos agentivos reales, donde pueden intervenir muchas capas y contextos diferentes.
Para evaluar este problema, los investigadores han creado ManyIH-Bench, el primer benchmark centrado en esta cuestión. Incluye 853 tareas agentivas, tanto de programación como de seguimiento de instrucciones, y obliga a los modelos a navegar conflictos entre hasta 12 niveles de privilegios. El resultado es claro: incluso los modelos más avanzados obtienen un rendimiento modesto, de alrededor del 40% de acierto, lo que evidencia que la resolución de conflictos de instrucciones sigue siendo una asignatura pendiente. La conclusión es relevante porque refuerza una idea clave del momento actual: el reto de los agentes de IA ya no es solo que sean más potentes, sino que sean también más obedientes, fiables y gobernables en entornos complejos.
Cómo la IA nos cambiará la vida
Quién limpia las calles y los parques en China: robots
Camiones eléctricos y autónomos
Camiones eléctricos y autónomos, claro: en China
Autobuses autónomos 24x7x365
Camiones eléctricos y autónomos en Texas
Portacontenedores eléctricos
Otras noticias
-Tencent y Alibaba estarían interesadas en invertir en DeepSeek, pero la cifra de 20.000 millones no la daría por buena sin una confirmación más sólida.
-OpenAI ha empezado a probar anuncios con modelo coste-por-clic dentro de ChatGPT.
-Microsoft ha recortado el precio de las suscripciones de Xbox un 23%.
-Tencent ha lanzado su versión de un agente tipo OpenClaw.
-Anthropic investiga usos no autorizados de Mythos.
-John Ternus sustituirá a Tim Cook como CEO de Apple a partir del 1 de septiembre.
