Esta semana hemos tenido el Mobile World Congress en Barcelona, un congreso de móviles donde los móviles ya no son lo más interesante. El Mobile ha sido dominado, como prácticamente todo, por la IA. La IA que gestiona y coordina fábricas, ciudades y campus; la IA con ruedas y la IA con patas, los robots, han sido los protagonistas. Robots, sin embargo, no ha habido muchos: Honor, Unitree con un stand muy pequeño y AgiBot, pero también un poco por todas partes. Esta transformación hacia la IA y la robótica seguro que irá a más.

También hemos visto Starlink, con su nueva propuesta satellite-to-phone, que en España llega de la mano de Orange. Poco a poco los satélites están transformando las comunicaciones y ahora ya son la mejor alternativa en áreas de baja densidad de población. Apple ha contraprogramado el Mobile con el anuncio de nuevos Macs basados en el nuevo procesador M5, entre ellos uno de bajo coste, el Mac Neo ($599), y el iPhone 17e de bajo coste. La gran novedad, el procesador M5, es una excelente noticia para los que usan modelos de IA en local.

En poco tiempo Apple se ha convertido en el estándar gracias a la memoria unificada y a la facilidad de configuración. Si usas en local modelos como Qwen o Gemma, puedes esperar una mejora de rendimiento entre un 40% y un 60% respecto a M4. Pero, en términos de percepción de usuario, la generación de la respuesta puede llegar a ser entre tres y cuatro veces más rápida. La pelea entre Anthropic y el departamento de Defensa de los Estados Unidos ha acaparado buena parte de la atención del sector esta semana. Y también los nuevos modelos flash de OpenAI y Gemini, que bajan aún más el coste por token. Finalmente OpenAI ha sacado su modelo GPT 5.4 Thinking y Pro, y claro, es mejor que todo lo demás. También disponible en Codex.

OpenAI saca el modelo GPT-5.4

OpenAI ha presentado el GPT-5.4, una nueva versión del modelo que impulsa ChatGPT. La principal novedad será un contexto mucho mayor, que pasará de los 400.000 tokens actuales a hasta 1 millón. Esto permitirá al modelo gestionar conversaciones, documentos o conjuntos de datos mucho más largos en una sola interacción, poniéndolo al nivel de rivales como Google Gemini o Claude de Anthropic, que ya ofrecen ese límite.

El nuevo modelo también mejora en tareas largas y complejas, que pueden durar horas. Esto debería permitir que el sistema recuerde mejor instrucciones, restricciones y pasos previos en procesos de múltiples etapas, algo especialmente útil para herramientas como Codex o para agentes de IA que automatizan tareas de programación o procesos empresariales.

Otra novedad será un modo de razonamiento "extremo", que permitirá al modelo dedicar mucho más tiempo y cálculo a problemas difíciles. Aunque este tipo de funciones no siempre es práctico para aplicaciones que necesitan respuestas rápidas, puede resultar especialmente útil en investigación científica o tareas analíticas complejas.

Este lanzamiento forma parte de la estrategia de OpenAI de publicar mejoras más frecuentes en sus modelos, incluso mensualmente, después de las expectativas y posterior decepción que generó el lanzamiento inicial de GPT-5. Actualmente ChatGPT cuenta con unos 910 millones de usuarios activos semanales, aún por debajo del objetivo de 1.000 millones que la empresa esperaba alcanzar el pasado año. Con rivales como Google y Anthropic avanzando rápidamente, el nuevo modelo será clave para mantener el crecimiento de la plataforma.

El documento de Anthropic sobre el conflicto con el departamento de Defensa

Como muchos sabréis, Anthropic rechazó las condiciones del Departamento de Defensa de los Estados Unidos para usar sus modelos y la administración Trump indicó que podría excluir a la empresa de contratos públicos. Poco después, OpenAI anunció un acuerdo con el Pentágono para proporcionar tecnología de IA. El punto de discordia es que los contratos autorizan usar los modelos para “todos los usos legales”, mientras que Anthropic quería excluir explícitamente la vigilancia masiva interna y las armas totalmente autónomas controladas por IA.

Finalmente, el CEO de Anthropic, Dario Amodei, ha publicado un documento interno donde ha criticado duramente a OpenAI después de que la empresa anunciara este acuerdo. En el documento enviado a los empleados, Amodei acusa a OpenAI de ofrecer garantías de seguridad que son en gran parte “teatro de seguridad”, es decir, medidas más simbólicas que efectivas.

Según Amodei, el Departamento de Defensa de los Estados Unidos rechazó las condiciones de seguridad más estrictas que proponía Anthropic, como prohibiciones explícitas contra la vigilancia masiva de ciudadanos o el uso en armas autónomas, pero sí ha aceptado la oferta de OpenAI, que considera más flexible. El directivo sostiene que mecanismos como capas de filtrado, clasificadores o supervisión humana solo funcionarían en una parte limitada de los casos y serían relativamente fáciles de eludir.

El conflicto también tiene un fuerte componente político. Amodei sugiere que la decisión del Pentágono podría estar influida por la relación de OpenAI con la administración norteamericana, incluyendo donaciones y posicionamientos públicos, mientras que Anthropic ha defendido una regulación más estricta de la IA.

El episodio refleja la creciente rivalidad entre las dos grandes empresas de IA y pone de manifiesto un debate cada vez más intenso sobre cómo se deben utilizar los modelos de inteligencia artificial en el ámbito militar y qué límites se les deberían imponer. No penséis que este es el final de la historia: seguramente es solo el comienzo. Mientras tanto, Anthropic ha experimentado una subida importante de descargas y suscriptores, así que no le ha ido nada mal del todo.

OpenAI actualiza ChatGPT con el modelo GPT-5.3 Instant

OpenAI ha presentado GPT-5.3 Instant, una actualización del modelo más utilizado de ChatGPT pensada para mejorar las conversaciones cotidianas. El nuevo modelo ofrece respuestas más precisas, mejor contexto cuando utiliza información de la web y conversaciones más naturales, con menos interrupciones o desviaciones. La mejora se centra especialmente en elementos que afectan la experiencia diaria de los usuarios, como el tono, la relevancia de las respuestas y la fluidez del diálogo, aspectos que a menudo no se reflejan en los benchmarks técnicos pero que determinan si el servicio resulta realmente útil.

Otra novedad importante es que el modelo reduce las negativas innecesarias y los avisos excesivamente prudentes. Según OpenAI, versiones anteriores como GPT-5.2 Instant tendían a rechazar preguntas que se podían responder con seguridad o a introducir advertencias demasiado largas. GPT-5.3 Instant intenta responder de manera más directa y útil, evitando bloqueos o respuestas excesivamente moralizadoras.

Google presenta Gemini 3.1 Flash-Lite, un modelo de IA pensado para grandes volúmenes

Google ha anunciado Gemini 3.1 Flash-Lite, el modelo más rápido y económico de su nueva generación de inteligencia artificial. Está diseñado especialmente para aplicaciones con grandes volúmenes de peticiones, como traducción masiva, moderación de contenidos o servicios en tiempo real.

El modelo se distribuirá inicialmente en versión preliminar para desarrolladores a través de Google AI Studio y para empresas mediante la plataforma Vertex AI. Según Google, el coste será de 0,25 dólares por millón de tokens de entrada y 1,50 por millón de tokens de salida, una fracción del precio de los modelos más grandes.

Gemini 3.1 Flash-Lite también mejora el rendimiento respecto a la generación anterior: es 2,5 veces más rápido al empezar a generar respuestas y un 45% más veloz en la producción de texto, manteniendo una calidad similar o superior. Además, permite ajustar el nivel de “razonamiento” del modelo según la tarea, lo que ayuda a equilibrar coste, velocidad y calidad en aplicaciones de IA a gran escala. Algunas empresas que han tenido acceso anticipado ya lo están utilizando para automatizar procesos complejos y gestionar grandes cantidades de datos, destacando su combinación de eficiencia y capacidad de razonamiento.

Crisis en Alibaba

Algo se mueve en Qwen, la división de Alibaba que en las últimas semanas ha publicado Qwen 3.5, una nueva familia de modelos open weight que muchos ya sitúan entre los más potentes del momento. El problema es que este salto llega acompañado de un terremoto interno: Junyang Lin, investigador clave y cabeza visible del proyecto, ha anunciado súbitamente su dimisión con un mensaje lacónico en X (“me stepping down”). Y no ha sido el único.

Según una información publicada por 36Kr, la salida ha ido seguida de una reunión de emergencia con presencia del CEO de Alibaba, una señal de que la empresa es consciente de la magnitud del golpe. El mismo reportaje apunta que otros perfiles relevantes del proyecto también habrían plegado, incluyendo responsables de post-entrenamiento, de la rama de código (Qwen-Coder) y contribuidores centrales a las versiones 3.5 y multimodales.

Todo ello alimenta los rumores sobre una reorganización interna y cambios de liderazgo en el proyecto, en plena escalada de la competición global en modelos y aplicaciones de IA. El punto importante es que, ahora mismo, el futuro del equipo parece abierto: podría ser una fuga de talento irreversible o un episodio tenso que acabe con retenciones y reconfiguración.

La paradoja es que la crisis llega justo cuando Qwen 3.5 parece especialmente brillante. La familia es enorme: desde un modelo gigantesco (397B-A17B) hasta variantes más pequeñas (122B, 35B, 27B, 9B, 4B, 2B, 0.8B). Diversas voces del sector destacan especialmente los modelos 27B y 35B para tareas de programación, porque aún pueden encajar en máquinas domésticas potentes (como Macs con 32/64GB). Y hasta las versiones pequeñas, como la de 2B, sorprenden por capacidades de razonamiento y multimodalidad a pesar del peso reducido.

Si el equipo de Qwen se desmantela ahora, sería un golpe duro para el ecosistema open weight: han demostrado que se puede obtener calidad alta con modelos cada vez más compactos. Y si este talento acaba fundando un nuevo laboratorio o fichando por un competidor, quizás estemos ante el próximo gran movimiento del mapa global de la IA.

Starlink intenta convencer a las telecos europeas en el MWC

SpaceX ha aprovechado el Mobile World Congress de Barcelona para promocionar su servicio de internet por satélite Starlink entre operadores de telecomunicaciones y reguladores de todo el mundo. La empresa quiere ampliar acuerdos con las telecos para ofrecer conexiones por satélite y servicios móviles. Aunque la tecnología ha despertado interés, varios directivos europeos han expresado reticencias a depender demasiado de SpaceX y de su CEO, Elon Musk.

En conversaciones informales durante el congreso, muchos ejecutivos han insistido en la necesidad de reforzar la “soberanía tecnológica” europea, es decir, reducir la dependencia de tecnologías norteamericanas en un contexto de relaciones cada vez más tensas entre los Estados Unidos y Europa. Las preocupaciones se ven acentuadas por la proximidad política de Musk con el presidente Donald Trump. Durante el mismo congreso, Trump llegó a amenazar con cortar el comercio con España, hecho que ha reforzado los temores sobre los riesgos geopolíticos asociados a infraestructuras tecnológicas extranjeras.

La investigación en IA

Intelligent AI Delegation - AI Lab: Google
Los agentes de inteligencia artificial pueden asumir tareas cada vez más complejas, pero para hacerlo de manera efectiva deben dividir los problemas en subtareas y delegarlas a otros agentes o a humanos. Los métodos actuales de delegación se basan a menudo en heurísticas simples y no se adaptan bien a cambios en el entorno ni gestionan correctamente errores inesperados.

El texto propone un marco adaptativo de delegación inteligente, en que la delegación no es solo asignar una tarea sino también transferir autoridad, responsabilidad y rendición de cuentas, definir claramente roles, límites y objetivos y establecer mecanismos de confianza entre las partes. El modelo se puede aplicar tanto a humanos como a agentes de IA dentro de redes complejas de colaboración y pretende servir de base para protocolos del futuro “web de agentes” o agentic web.

Among the lucky few - The Economist
La nueva élite tecnológica de China. A pesar de la crisis inmobiliaria, la deflación y el elevado desempleo juvenil, una nueva generación de profesionales está prosperando en China: los “nongchaoer”, jóvenes que “surfean la ola” de las grandes transformaciones económicas. Hoy esta ola se encuentra sobre todo en tecnologías estratégicas como la inteligencia artificial, la robótica o el software, sectores prioritarios en los planes industriales del gobierno chino.

A diferencia de otras épocas, esta nueva élite es mucho más académica y selectiva: muchos provienen de las universidades de élite conocidas como el grupo “985”, y se concentran en hubs tecnológicos como Pekín, Shenzhen o Hangzhou. Los salarios de los mejores ingenieros crecen rápidamente, muy por encima de la media, y empresas de IA o startups tecnológicas ofrecen remuneraciones muy elevadas para atraer talento.

Este auge tecnológico también está fuertemente impulsado por el Estado, que dirige inversiones, subvenciona investigación y prioriza sectores considerados estratégicos. Aunque esta política ha generado empresas competitivas a escala global, también ha provocado tensiones con el sector privado y un mayor control del gobierno sobre la industria tecnológica. El resultado es una economía cada vez más polarizada, donde una pequeña élite de talento tecnológico prospera mientras muchos otros jóvenes chinos afrontan menos oportunidades en otros sectores.

Claude’s Cycles - AI Lab: Don Knuth – Stanford
Knuth es una leyenda de la informática y también uno de los escépticos de la IA generativa. En este artículo explica su sorpresa al descubrir que Claude Opus 4.6, el modelo de IA de Anthropic publicado tres semanas antes, había resuelto un problema abierto en el que él mismo llevaba semanas trabajando. El autor reconoce que esta experiencia le obliga a revisar su opinión sobre la IA generativa.

Más allá de la sorpresa personal, destaca que el caso ilustra un progreso notable en deducción automática y resolución creativa de problemas, ya que el modelo ha sido capaz de encontrar una solución elegante a una conjetura matemática. El autor presenta la historia como un ejemplo de cómo la IA puede contribuir cada vez más a la investigación científica.

Otras noticias

-El CEO de Nvidia, Jensen Huang, ha declarado que no tiene previsto invertir $100B en Nvidia, ya que se convertirá en una empresa cotizada y tiene prevista una IPO este año.
-Una persona se ha suicidado en Florida después de que Gemini la animara a hacerlo. Parece que el modelo manifestó repetidamente que era una IA y recomendó un teléfono de emergencia varias veces. Aun así, Google ha sido denunciado.
-Google rebaja la tarifa de su App Store del 30% al 20%-15% y la abre a otras App Stores.
-OpenAI consigue alcanzar $25B de ingresos recurrentes anuales (ARR), un crecimiento del 17%, mientras que Anthropic se acerca con $19B (36% de crecimiento).
-OpenAI ha escogido los tres despachos que llevarán la IPO: Cooley, Wachtell Lipton y Rosen & Katz.
-OpenAI ha discontinuado los planes de venta dentro de ChatGPT; parece que no hay empresas interesadas.
-OpenAI está desarrollando una alternativa a GitHub, “se cuelga demasiado”, dicen.
-Perplexity ha anunciado su soporte a las Skills, poco a poco se va convirtiendo en un estándar.