Meta ha vuelto con un nuevo modelo, Muse Spark, después de una inversión de unos 15.000 millones de dólares para construir el Meta Superintelligence Lab, dirigido por Alexandr Wang. Ya podemos ver los primeros resultados. El punto fuerte del equipo es claro: la calidad de los datos. En los benchmarks donde este factor es determinante (relativamente pocos), el modelo funciona muy bien; en el resto, todavía queda por detrás de los grandes actores del sector.

Es, en cualquier caso, un primer paso, y es evidente que Meta quiere competir de nuevo al máximo nivel. El open source, igual que en el caso de sus homólogos chinos, ha pasado a un segundo plano. Las inversiones son demasiado grandes y hay que monetizarlas, a la vez que se da la mínima información posible a la competencia. La fase actual ya no es de compartir conocimiento, sino de competir.

Anthropic, por su parte, ha lanzado a un grupo restringido una versión de su nuevo modelo, Claude Mythos, orientada a ciberseguridad, dentro del proyecto Glasswing. En muy poco tiempo ha detectado vulnerabilidades que hacía más de veintisiete años que estaban abiertas. Ya es muy claro que el futuro de la ciberseguridad pasará por modelos como este, capaces de detectar la gran mayoría de brechas.

Aquello que algunos preveían, que la programación con agentes generaría un problema enorme de seguridad, está evolucionando en dirección contraria: serán estos mismos agentes los que acabarán resolviendo muchos de los problemas de seguridad que han creado los humanos. Anthropic también ha lanzado en beta un sistema para crear agentes a partir de prompts (Claude Managed Agents). La creación de agentes que ejecuten tareas concretas se está democratizando, y todo apunta a que el prompt será la interfaz que prevalecerá. También esta semana han pasado muchas cosas en investigación. ¡La IA no se detiene!

Meta Muse Spark

Meta ha dado un paso importante en la carrera por la inteligencia artificial con el lanzamiento de Muse Spark, el primer modelo público de su nuevo laboratorio de “superinteligencia”. Pero detrás de este anuncio hay una apuesta mucho más grande. Hace menos de un año, Mark Zuckerberg invirtió 14.300 millones de dólares para incorporar a Alexandr Wang, un joven de 28 años que nunca había entrenado un modelo de frontera. Nueve meses después, esta apuesta ya tiene un primer resultado tangible.

Muse Spark marca una ruptura con la familia Llama y simboliza un reinicio estratégico: Meta quiere competir directamente con OpenAI, Google o Anthropic con una nueva generación de modelos. Y los resultados son, de momento, ambivalentes. Por un lado, el modelo destaca en ámbitos muy vinculados a la calidad de los datos: visión multimodal, comprensión de imágenes o consultas de salud. En benchmarks como SimpleVQA o ScreenSpot, Muse Spark iguala o supera modelos rivales. No es casualidad: refleja el perfil de Wang, experto en datos y etiquetado.

Pero el contraste es claro en otras áreas. Muse Spark queda atrás en programación y razonamiento abstracto, precisamente donde la innovación en arquitectura y entrenamiento es más determinante. Esto sugiere una lectura clara: Meta ha construido un modelo excelente en todo aquello que se puede optimizar con datos, pero aún no lidera en los problemas más profundos de la IA.

Al mismo tiempo, el modelo se integra plenamente con el ecosistema de Meta. Puede utilizar contenidos de Instagram, Facebook o Threads y, en el futuro, incorporar directamente publicaciones dentro de las respuestas. Es una IA pensada para escalar alrededor de 3.000 millones de usuarios. Meta también introduce novedades como un modo de “contemplación”, donde múltiples agentes trabajan en paralelo, y asegura que ya está desarrollando modelos más grandes. El acceso, de momento, es parcial: disponible para usuarios, pero con API restringida a algunos socios.

La gran pregunta es si esta es solo la primera iteración. Si Meta logra cerrar la brecha en programación y razonamiento, puede convertirse en uno de los tres grandes actores del sector. Si no, habrá invertido 15.000 millones para construir, esencialmente, un muy buen asistente, potente, pero limitado. En un mercado donde cada avance se traduce en miles de millones en valor, la jugada de Zuckerberg redefine el debate: no se trata solo de construir el mejor modelo, sino de acertar dónde se encuentra realmente el valor de la IA.

El proyecto Glasswing de Anthropic

En un momento en que la inteligencia artificial avanza más deprisa que nunca, la ciberseguridad entra en una nueva era. Un nuevo modelo de IA desarrollado por Anthropic, llamado Claude Mythos, ha demostrado una capacidad sorprendente: es capaz de encontrar errores críticos en el software, algunos escondidos durante décadas, mejor que casi cualquier experto humano.

De hecho, ya ha identificado vulnerabilidades que llevaban hasta 27 años abiertas. Por ejemplo, ha descubierto un fallo en el sistema operativo OpenBSD, considerado uno de los más seguros del mundo, que permitía bloquear remotamente cualquier máquina. También ha detectado errores en herramientas tan extendidas como FFmpeg o incluso en el núcleo de Linux, la base de gran parte de internet.

Esto tiene una doble cara. Por un lado, puede ayudar a hacer sistemas más seguros; por el otro, puede facilitar ciberataques mucho más rápidos y sofisticados. Para responder a este riesgo, Anthropic ha lanzado Project Glasswing, una iniciativa propia para reforzar la seguridad del software crítico a escala global. Ahora bien, no se trata de un proyecto abierto: es un programa altamente restringido y por invitación, al cual solo tienen acceso un número muy limitado de organizaciones.

Entre estas se encuentran algunos de los actores más influyentes del mundo tecnológico y financiero —Amazon Web Services, Google, Microsoft, Apple, NVIDIA, Cisco, CrowdStrike, Broadcom o JPMorgan Chase— así como instituciones clave del ecosistema open source como la Linux Foundation. Estas organizaciones no impulsan el proyecto, sino que han sido seleccionadas para participar en él.

El objetivo es claro: utilizar esta IA con fines defensivos, detectando y corrigiendo vulnerabilidades antes de que lo hagan actores maliciosos. La restricción no es casual: una tecnología capaz de detectar y explotar fallos a escala global no puede ser de acceso abierto sin riesgos enormes. En paralelo, iniciativas de este tipo se desarrollan en coordinación con gobiernos y entornos de seguridad nacional, incluyendo la órbita del Pentágono, hecho que refleja hasta qué punto la ciberseguridad se ha convertido en una cuestión geopolítica.

La idea de fondo es tan potente como inquietante: la misma tecnología que puede romper internet puede ser también la mejor herramienta para protegerlo. Con unos costes globales del cibercrimen que ya se estiman en cientos de miles de millones anuales, el mensaje es claro: en la nueva economía de la IA, la seguridad deja de ser un detalle técnico y se convierte en una prioridad estratégica global.

Anthropic supera OpenAI en ingresos

En plena carrera global por la inteligencia artificial, se está produciendo un giro inesperado: Anthropic ha superado a OpenAI en ingresos. A principios de 2026, la compañía ha alcanzado unos 30.000 millones de dólares de ingresos anuales recurrentes (ARR), después de un crecimiento extraordinario. En solo 15 meses, sus ingresos se han multiplicado por 30, y entre febrero y abril de 2026 han pasado de 19.000 a 30.000 millones.

Para ponerlo en contexto: Anthropic ha sido capaz de añadir en un único mes el volumen de ingresos que empresas como Palantir o Atlassian tardaron décadas en construir. La clave de este crecimiento es clara: el dominio en el mercado empresarial. Actualmente, Anthropic cuenta con cerca de 1.000 empresas que pagan más de 1 millón de dólares anuales, una cifra que se ha duplicado en menos de dos meses.

Detrás de este éxito hay sobre todo sus modelos de programación, como Claude, que se han convertido en referencia en el desarrollo de software. Esta ventaja ha impulsado una nueva ola de adopción en empresas. El movimiento es significativo porque cambia el relato del sector: hasta hace poco, OpenAI, Google o Meta parecían dominar claramente. Hoy emerge un nuevo líder que ha sabido convertir la capacidad tecnológica en negocio real. El mensaje de fondo es claro: en la carrera de la IA, no gana solo quien innova más, sino quien sabe monetizar mejor.

Anthropic Claude Agentes Gestionados

Anthropic continúa avanzando en el terreno donde hoy se decide la carrera de la IA: las aplicaciones empresariales. El último movimiento es el lanzamiento de Claude Managed Agents, una nueva suite de herramientas pensada para desplegar agentes de inteligencia artificial a escala. La propuesta es clara: facilitar que empresas y desarrolladores puedan crear agentes autónomos sin tener que construir toda la infraestructura desde cero. El sistema ofrece ejecución segura de código, gestión de sesiones, control de acceso y coordinación entre múltiples agentes, todo gestionado en la nube.

En la práctica, esto permite pasar de ideas a aplicaciones reales en cuestión de días, y no meses. Empresas como Notion, Rakuten o Asana ya lo utilizan para automatizar tareas que van desde el desarrollo de software hasta procesos de recursos humanos o finanzas. El movimiento es significativo porque apunta a un cambio de modelo: la IA deja de ser una herramienta puntual para convertirse en una infraestructura operativa continua, con agentes que trabajan de manera persistente.

Además, Anthropic refuerza su apuesta por el segmento empresarial. Con esta nueva capa de infraestructura, no solo ofrece inteligencia, sino también el sistema para ponerla en producción. El mensaje es claro: en la nueva economía de la IA, el valor no es solo el modelo, sino la capacidad de convertirlo en trabajo real dentro de las organizaciones.

 

La investigación IA 

GLM-5.1: Towards Long-Horizon Tasks - AI Lab: Z.ai

El nuevo modelo GLM-5.1 representa este salto. No solo escribe código mejor que sus predecesores, sino que cambia la forma de trabajar: es capaz de comportarse como un ingeniero autónomo, capaz de afrontar problemas complejos durante horas. En pruebas exigentes de desarrollo de software, GLM-5.1 supera modelos anteriores y se coloca a la cabeza en tareas reales, desde la generación de repositorios completos hasta la resolución de problemas en terminales. Pero lo más relevante no es solo el rendimiento inicial.

Los modelos anteriores a menudo resolvían los primeros pasos y luego se estancaban. GLM-5.1, en cambio, es capaz de persistir: descompone problemas, prueba soluciones, analiza errores y ajusta la estrategia de manera iterativa. Puede trabajar durante cientos de interacciones, mejorando progresivamente el resultado. Esto lo hace especialmente potente en contextos con poca estructura o sin métricas claras, como la construcción de una aplicación web completa, donde el mismo modelo decide qué hay que mejorar.

Política Industrial - AI Lab: OpenAI 

OpenAI ya no habla solo de tecnología, sino de cómo transformar toda la economía. En un documento estratégico de 13 páginas, la compañía dibuja cómo podría ser un mundo dominado por la inteligencia artificial. La propuesta parte de una idea clave: si la IA reduce el peso del trabajo humano, también será necesario repensar cómo se distribuye la riqueza.

Por eso, OpenAI plantea trasladar parte de la fiscalidad del trabajo al capital, incluyendo ideas como impuestos sobre robots, fondos públicos de riqueza o incluso pagos directos a los ciudadanos financiados por los beneficios de la IA. Al mismo tiempo, el documento apunta a cambios sociales profundos: una posible semana laboral de cuatro días y un refuerzo de los beneficios empresariales, como la sanidad, el cuidado de los niños o las pensiones. En paralelo, defiende una inversión masiva en infraestructuras —chips, centros de datos y energía— y propone tratar la IA como una infraestructura básica, casi como un servicio público, para garantizar su acceso generalizado.

PaperOrchestra: Un marco multiagente para la escritura automatizada de artículos de investigación de IA - Laboratorio de IA: Google

La inteligencia artificial empieza a entrar en uno de los terrenos más complejos del mundo académico: la escritura científica. Un nuevo sistema llamado PaperOrchestra propone automatizar una tarea clave pero poco explorada: transformar materiales de investigación desordenados —notas, datos o esbozos— en artículos científicos completos y listos para publicar.

A diferencia de otras herramientas, este modelo funciona con un enfoque multiagente, capaz de sintetizar literatura académica, estructurar argumentos e incluso generar elementos visuales como gráficos o diagramas. El objetivo es ir más allá de simples resúmenes y producir manuscritos con calidad real.

Para medir su rendimiento, los investigadores han creado PaperWritingBench, un nuevo estándar basado en 200 artículos de conferencias de IA de primer nivel. En evaluaciones con humanos, el sistema supera claramente otras soluciones automáticas, con mejoras significativas en la calidad de la revisión bibliográfica y del documento final.

Lo que está en juego es relevante: la IA no solo ayuda a investigar, sino que empieza a escribir ciencia. Si esta tendencia se consolida, podría transformar profundamente la producción académica, acelerando el ritmo de publicación pero también abriendo nuevos debates sobre autoría, calidad y criterios científicos.

Self-Adapting Language Models - AI Lab: MIT

La inteligencia artificial da un nuevo paso hacia la autonomía. Un nuevo enfoque, llamado SEAL (Self-Adapting LLMs), plantea un cambio profundo: modelos capaces de aprender y adaptarse por sí mismos. Hasta ahora, los grandes modelos de lenguaje eran esencialmente estáticos. Para mejorarlos era necesario entrenarlos de nuevo con datos externos y procesos complejos.

SEAL rompe esta lógica. El sistema permite que el propio modelo genere sus propias instrucciones de aprendizaje: crea datos de entrenamiento, decide cómo optimizarse e incluso ajusta sus propios parámetros. Este proceso se basa en un bucle de aprendizaje en el que el modelo se “reprograma” a sí mismo en función de los resultados obtenidos.

Lo más relevante es que estos cambios no son temporales: el modelo incorpora los nuevos conocimientos de manera persistente, modificando sus pesos internos. En experimentos, este enfoque mejora la capacidad de incorporar nueva información y de adaptarse a tareas con pocos ejemplos. El mensaje es claro:  la IA empieza a pasar de ser entrenada por los humanos a entrenarse a sí misma. Si esta línea evoluciona, podría transformar completamente el desarrollo de modelos, acercándonos a sistemas mucho más flexibles —y potencialmente mucho más difíciles de controlar.

Cómo la IA nos cambiará la vida

Robots que limpian playas
Robots que solo limpian las playas.

Cultivo sin pesticidas
Cultivo ecológico sin pesticidas con robots que eliminan las malas hierbas.

La maratón de robots
Robots entrenándose para la próxima maratón de robots en China.

Otras noticias

-Microsoft Exec Eric Boyd ha fichado por Anthropic como jefe de infraestructura.
-Intel se incorpora al proyecto Terafab de SpaceX y Tesla.
-Elon Musk intenta sacar a Sam Altman y Greg Brockman de la non-profit de OpenAI.
-Intel apuesta por el packaging de chips, combinando varios chiplets.
-El nuevo modelo de generación de imágenes de OpenAI, Image V2, parece muy prometedor y ya se está testeando.
-Google también tiene en fase de pruebas su agente Jules V2, dedicado a la programación.
-Anthropic ha firmado un acuerdo con Google y Broadcom por valor de varios gigavatios.
-Algunos modelos de Meta serán open source, pero solo algunos, más pequeños y en el futuro. Esto marca un cambio de rumbo de la empresa, similar a lo que está pasando en China.