La semana ha estado caracterizada por la filtración del código, unas 512.000 líneas y unos 2.000 ficheros de Anthropic Code. Code es el producto estrella de Anthropic, el sistema que ha dado lugar a Cowork y que ha hecho tambalear la bolsa los últimos meses. Todo apunta a un error humano: en cuestión de horas, el código ya estaba disponible en Internet y, para evitar problemas de copyright (el código original es en TypeScript), se empezó a traducir a Python. Muy pronto han aparecido múltiples análisis de su funcionamiento.

Seguro que muy pronto veremos copias de Code y Cowork desarrolladas por otros actores, especialmente chinos. Esto es positivo para el progreso global de la innovación, pero obviamente representa un gran susto para Anthropic. Sabe mal que pasen estas cosas, especialmente en empresas con una trayectoria tan limpia como Anthropic. Todos esperamos que puedan salir reforzados. SpaceX ya ha presentado la documentación ante la Securities and Exchange Commission para su salida a bolsa, con una operación estimada entre los 40.000 y los 80.000 millones de dólares, potencialmente la más grande de la historia.

Ha coincidido, simbólicamente, con el regreso del hombre a la Luna. Pero los modelos no se detienen. Qwen, el modelo de Alibaba que más se acerca a los modelos americanos, ha presentado una nueva versión, esta vez muy cerca de los mejores. También han aparecido muchas noticias sobre los nuevos modelos de Anthropic y OpenAI, que todo indica que representarán un salto importante. La IA no se detiene ni por Semana Santa!

La filtración de Anthropic Code

Anthropic ha expuesto accidentalmente el funcionamiento interno de Claude Code, una de sus herramientas de inteligencia artificial más rentables, después de publicar por error un archivo técnico en el repositorio NPM. La filtración incluye cerca de 512.000 líneas de código distribuidas en unos 2.000 archivos, que ya han sido replicados y analizados por miles de desarrolladores. Rápidamente, ha aparecido en X y en GitHub y, para evitar demandas de copyright (Anthropic ha hecho más de 8.000 peticiones de retirada a GitHub), el código se ha traducido a Python.

También han aparecido muchos análisis de cómo funciona el agente, que durante estos meses ha provocado una verdadera revolución en el sector, haciendo caer a muchas empresas en bolsa que se han visto superadas por su sucesor: Cowork. La empresa, que factura a ritmo de 19.000 millones de dólares anuales, ve comprometida una parte clave de su propiedad intelectual. Claude Code genera por sí solo unos 2.500 millones de dólares anuales, con un fuerte peso del segmento empresarial, lo que hace que el impacto competitivo sea especialmente relevante.

El código filtrado revela cómo Anthropic ha resuelto uno de los grandes retos de los agentes de IA: la gestión de la memoria y el contexto. El sistema utiliza una arquitectura en tres capas con una “memoria autocorrectiva” que evita errores y alucinaciones, y que obliga al modelo a verificar la información antes de actuar. También se descubre KAIROS, una funcionalidad que permite que el agente funcione de manera autónoma en segundo plano, mejorando su contexto mientras el usuario no interactúa. Además, el código deja entrever nuevos modelos internos aún no lanzados y sus limitaciones actuales.

Otro elemento controvertido es el llamado modo encubierto, que permitiría utilizar la IA para contribuir a proyectos de código abierto sin revelar su origen. Anthropic ha asegurado que se trata de un error humano en el proceso de publicación y que no se han expuesto datos de clientes. Sin embargo, la filtración ofrece a los competidores un auténtico manual para replicar este tipo de agentes, acelerando la carrera en el desarrollo de IA autónoma. La conclusión más general es clara: no son solo los modelos la salsa secreta de este rendimiento extraordinario de Code y Cowork, sino sobre todo la capa de agentes. Y esto no proviene de un único gran avance, sino de una infinidad de mejoras de ingeniería que ahora, al hacerse públicas, veremos incorporadas a muchos sucesores —muchos de ellos, sin duda, chinos.

Qwen 3.6 Plus, muy cerca de los mejores modelos

Alibaba ha lanzado un nuevo modelo de inteligencia artificial, Qwen3.6-Plus, marcando un giro estratégico hacia soluciones de código propietario después de años apostando por el open source. El nuevo modelo, centrado en la programación con agentes de IA, representa una evolución respecto a versiones anteriores, que sí eran abiertas. También esta semana la compañía ha presentado Qwen3.5-Omni, un modelo multimodal capaz de entender texto, audio, imágenes y vídeo, también con acceso restringido. Este cambio responde a una prioridad clara: monetizar mejor la IA a través de clientes empresariales.

Alibaba, líder del cloud en China, busca reforzar ingresos en un contexto de competencia creciente, especialmente con ByteDance. Aunque la compañía mantiene algunos modelos abiertos, los más avanzados pasan a ser de pago e integrados en su ecosistema, incluyendo la plataforma Model Studio, el chatbot Qwen y la aplicación empresarial Wukong. El movimiento refleja una tendencia más amplia del sector: el equilibrio entre innovación abierta y control comercial de los modelos más potentes. El modelo Qwen 3.6 Plus consigue resultados muy similares a Opus 4.6 en los benchmarks, y la distancia con los mejores se reduce claramente.

La IPO de SpaceX

SpaceX, la empresa de Elon Musk, ha dado un paso clave para salir a bolsa en una operación que podría convertirse en una de las más grandes jamás vistas. La compañía ha presentado de manera confidencial la documentación ante el regulador estadounidense y aspira a captar entre 40.000 y 80.000 millones de dólares. Si el calendario se cumple, la empresa podría debutar en los mercados este mismo verano. La operación estaría liderada por grandes bancos como Goldman Sachs, JPMorgan o Morgan Stanley, que se disputan una de las operaciones financieras más relevantes de los últimos años.

La salida a bolsa llega después de la integración de SpaceX con la compañía de IA de Musk, xAI, en una operación valorada en 1,25 billones de dólares, una de las mayores de la historia corporativa. Con este movimiento, Musk busca dotarse de músculo financiero para competir en la nueva frontera de la IA. Aunque los datos financieros se mantienen en gran parte en secreto, el negocio espacial —con Starlink y los contratos con la NASA y el gobierno estadounidense— ya genera ingresos sólidos. En cambio, la división de inteligencia artificial se encuentra todavía en una fase inicial y requiere inversiones masivas.

Musk ha cambiado así su estrategia histórica: durante años había defendido que SpaceX no saldría a bolsa hasta que sus cohetes volaran regularmente a Marte. Ahora, sin embargo, el foco ha cambiado hacia la construcción de infraestructuras de IA, incluyendo centros de datos —incluso en órbita—, un proyecto con necesidades de capital enormes. Con esta operación, SpaceX podría marcar un antes y un después en los mercados tecnológicos y en la carrera global por la inteligencia artificial.

Oracle despide a decenas de miles de trabajadores para financiar la apuesta por la IA

Oracle ha iniciado una gran ola de despidos que podría afectar entre 20.000 y 30.000 empleados, es decir, hasta cerca del 18% de su plantilla global. Aunque en una primera fase se hablaba simplemente de “miles” de puestos de trabajo eliminados, diferentes estimaciones apuntan que el recorte podría escalar hasta decenas de miles en el conjunto del proceso. La decisión se explica por la enorme inversión de la compañía en centros de datos para inteligencia artificial, que ha tensionado su tesorería y la ha obligado a endeudarse masivamente. Este giro estratégico busca posicionar a Oracle como actor clave en la infraestructura de IA, pero tiene un coste inmediato en empleo.

Con unos 162.000 empleados en 2025, Oracle también muestra una eficiencia inferior a la de otras grandes tecnológicas, con ingresos por empleado claramente por debajo de competidores como Microsoft o Salesforce. Este hecho ha reforzado la necesidad de reestructuración. El caso de Oracle no es aislado. Otras grandes tecnológicas como Amazon, Meta o Microsoft también han anunciado despidos o congelaciones de contratación mientras incrementan el gasto en IA. Todo apunta a una reconfiguración profunda del sector: menos software tradicional, más infraestructura de inteligencia artificial.

OpenAI levanta una ronda de 122.000 millones de dólares

OpenAI ha cerrado la ronda de financiación más grande de su historia, con 122.000 millones de dólares y una valoración de 852.000 millones, a pesar de seguir siendo una empresa privada. La operación ha sido liderada por SoftBank y Andreessen Horowitz, con la participación de gigantes como Amazon, Nvidia y Microsoft. De manera poco habitual, unos 3.000 millones de dólares han llegado de pequeños inversores a través de canales bancarios, anticipando una base accionarial más amplia de cara a una futura salida a bolsa. La compañía asegura ingresar 2.000 millones de dólares mensuales y contar con más de 900 millones de usuarios semanales, con un crecimiento extraordinario.

El negocio empresarial ya representa el 40% de los ingresos y podría igualar el segmento de consumo antes de finales de 2026. Además, su experimento con publicidad ya genera más de 100 millones anuales en pocos meses, una nueva línea de negocio con mucho potencial. A pesar de estas cifras, OpenAI continúa en pérdidas y prevé perder unos 14.000 millones de dólares en 2026. Esta distancia entre crecimiento y rentabilidad es lo que hace esta ronda especialmente interesante: los inversores están apostando por el futuro, no por los resultados actuales. Con esta operación, la empresa se prepara claramente para una salida a bolsa prevista para finales de 2026, con el objetivo de alcanzar una valoración cercana a 1 billón de dólares, que la convertiría en una de las mayores OPV de la historia.

Anthropic: Claude Mythos y Capybara

Anthropic prepara un nuevo salto en la carrera de la inteligencia artificial con el desarrollo de Claude Mythos, un modelo que apunta a redefinir lo que pueden hacer los sistemas de IA avanzados. Más que una simple evolución, se trata de un cambio de escala que introduce una nueva categoría interna: Capybara, situada por encima de los actuales modelos como Opus. Con Mythos, la compañía busca llevar la IA a un nivel superior en tres dimensiones clave: razonamiento complejo, programación avanzada y ciberseguridad. El objetivo no es solo generar texto o código, sino operar con un grado de autonomía y fiabilidad mucho más alto en entornos reales, especialmente en contextos empresariales.

Capybara representa este salto conceptual. No es solo un modelo más grande, sino una nueva generación pensada para resolver problemas más difíciles y con menos margen de error. En este sentido, Mythos se posiciona como el primer exponente de esta nueva familia, orientada a usos de alto valor añadido, donde la precisión y la capacidad de verificación son críticas. Uno de los ámbitos donde este avance se hace más evidente es la ciberseguridad. El modelo está diseñado para identificar vulnerabilidades con una profundidad superior a la de los sistemas actuales, lo que puede transformar tanto la defensa como la detección de riesgos digitales. Este potencial, sin embargo, también obliga a desplegarlo con prudencia, especialmente en entornos sensibles.

Al mismo tiempo, este aumento de capacidades conlleva otro reto: el coste computacional. Modelos como Mythos requieren infraestructuras mucho más exigentes, hecho que limita su uso inicial a grandes organizaciones y proyectos con recursos elevados. En paralelo, Anthropic parece apostar por una estrategia más selectiva y controlada en el despliegue de este tipo de tecnología, priorizando calidad, seguridad e integración en flujos de trabajo profesionales. En conjunto, Mythos y la nueva capa Capybara apuntan hacia una nueva etapa en la IA: menos centrada en la escala masiva y más en la capacidad real de actuar, decidir y ejecutar tareas complejas.

OpenAI Spud, la nueva frontera

OpenAI prepara el que puede ser su salto más ambicioso hasta ahora. El proyecto, conocido internamente como Spud, no es simplemente una nueva versión de sus modelos, sino una apuesta por transformar el papel de la inteligencia artificial: de responder preguntas a ejecutar tareas de manera autónoma. Todo apunta a que Spud será el sucesor de los actuales modelos GPT-5 y que incorporará años de investigación acumulada. A diferencia de las mejoras incrementales habituales, el objetivo aquí es más profundo: construir una IA capaz de entender mejor el contexto, actuar con menos instrucciones y operar de manera más independiente en entornos reales.

Este cambio responde a una nueva visión dentro de OpenAI. La compañía quiere dejar atrás el modelo de chatbot y avanzar hacia sistemas que funcionen como asistentes completos, capaces de gestionar flujos de trabajo, programar, analizar información y tomar decisiones con menos supervisión humana. En este sentido, Spud se inscribe en la estrategia más amplia de OpenAI para acercarse a una inteligencia artificial más general. La creación de una división específica para el despliegue de AGI indica que el proyecto no es solo tecnológico, sino también estratégico.

Para hacerlo posible, la compañía ha tomado decisiones significativas. Ha reasignado recursos, ha reducido el peso de algunos proyectos experimentales y ha concentrado esfuerzos en el desarrollo de agentes y en la infraestructura necesaria para soportar modelos mucho más exigentes. Aunque todavía no hay una fecha oficial de lanzamiento, Spud ya ha superado la fase de preentrenamiento y se encuentra en procesos de ajuste y seguridad, el paso previo a cualquier despliegue público. El reto, sin embargo, no es solo tecnológico. Modelos de esta escala requieren una enorme capacidad computacional, lo que puede limitar su disponibilidad inicial y obligar a un despliegue progresivo. Con Spud, OpenAI no solo busca mejorar el rendimiento de sus sistemas, sino redefinir qué es una IA útil. El paso clave ya no es responder mejor, sino hacer más cosas, con más autonomía y en menos tiempo.

La investigación IA 

PrismML - AI Lab: Caltech 

Investigadores vinculados al Caltech han presentado un avance que podría redefinir el desarrollo de la inteligencia artificial. La empresa emergente PrismML ha desarrollado un modelo de lenguaje de 1 bit, capaz de reducir drásticamente el tamaño de los sistemas de IA sin perder rendimiento. La tecnología, ya publicada en código abierto, permite ejecutar modelos avanzados directamente en dispositivos como teléfonos móviles o portátiles, y a la vez reducir de manera significativa los costes energéticos de los centros de datos. El salto técnico es notable: mientras que los modelos habituales utilizan precisión de 16 bits, PrismML reduce cada parámetro a un solo bit (+1 o -1), logrando aceleraciones de hasta 8 veces y ahorros energéticos del 75% al 80%. Esto permite, por ejemplo, comprimir modelos muy grandes hasta una fracción de su tamaño original.

Según los impulsores del proyecto, se trata de un avance matemático más que de una simple optimización, con potencial para transformar tanto la IA en dispositivos personales como la infraestructura global. La iniciativa ha captado 16,25 millones de dólares en financiación y cuenta con el apoyo de inversores como Khosla Ventures. Su objetivo es claro: construir una nueva generación de IA más eficiente, adaptable y menos dependiente de grandes infraestructuras. Ya existen prototipos de 4B y 1,7B de parámetros que solo ocupan 0,5 GB y 0,24 GB. 

TurboQuant - AI Lab: Google

Un equipo de investigación ha presentado una nueva generación de algoritmos de compresión que podrían transformar el funcionamiento de los modelos de inteligencia artificial y de los motores de búsqueda. Las técnicas, basadas en una cuantificación avanzada, permiten reducir drásticamente el tamaño de los vectores —el elemento clave con el que la IA representa la información. Los vectores de alta dimensión son esenciales para entender textos, imágenes o datos complejos, pero también consumen grandes cantidades de memoria, especialmente en componentes críticos como la key-value cache, que acelera el acceso a la información. Este consumo genera cuellos de botella tanto en velocidad como en coste.

Para resolverlo, los investigadores proponen TurboQuant, un nuevo algoritmo que optimiza la compresión evitando el sobrecoste habitual de la cuantificación tradicional. A diferencia de los métodos clásicos, que requieren información adicional y reducen parte de los beneficios, esta nueva aproximación minimiza este “ruido” extra. El sistema se complementa con otras técnicas como Quantized Johnson-Lindenstrauss (QJL) y PolarQuant, que permiten mantener el rendimiento de los modelos mientras se reduce significativamente el uso de memoria. Las pruebas iniciales indican que estas tecnologías pueden mejorar la velocidad de búsqueda y reducir costes computacionales sin perder precisión, un avance con implicaciones directas en ámbitos como los motores de búsqueda, la IA generativa y las infraestructuras de datos.

Towards a Medical AI Scientist - AI Lab: The Chinese University of Hong Kong, Lehigh, Stanford y Microsoft Research

Un nuevo sistema de inteligencia artificial propone un cambio radical en la manera de hacer investigación médica. Se trata del Medical AI Scientist, un modelo diseñado para generar hipótesis, ejecutar experimentos y redactar artículos científicos de manera autónoma, pero adaptado específicamente al ámbito clínico. A diferencia de otros sistemas generalistas, este modelo integra el conocimiento médico existente y lo transforma en ideas accionables mediante un mecanismo de co-razonamiento entre clínicos e ingenieros, que permite trazar mejor el origen de las hipótesis. Esto es clave en medicina, donde la investigación debe estar fuertemente basada en evidencia.

El sistema puede operar en tres modos: reproducir estudios existentes, generar nuevas ideas a partir de la literatura científica o explorar problemas concretos de manera autónoma. Además, incorpora criterios éticos y una estructura formal para redactar artículos, adaptada a los estándares médicos. Los resultados son destacados. En pruebas con 171 casos clínicos, el sistema ha generado ideas de mayor calidad que las de los modelos comerciales actuales, y ha mostrado una mejor capacidad para llevar estas ideas a experimentos funcionales. Los artículos producidos alcanzan niveles comparables a conferencias médicas de primer nivel. Este avance apunta a un futuro en el que la IA no solo asiste la investigación, sino que puede liderar partes del proceso científico, especialmente en campos complejos como la medicina.

Cómo la IA nos cambiará la vida

Camiones para minería eléctricos y controlados a distancia
China ya utiliza camiones eléctricos y controlados a distancia para tareas de minería en Mongolia, con el objetivo de alcanzar este año los 10.000 vehículos operativos. Este tipo de automatización combina robótica, electrificación e IA para transformar sectores tradicionalmente intensivos en mano de obra y riesgo.

Casas impresas en 3D en 15 días
También en China ya se construyen casas de dos pisos impresas en 3D en solo 15 días, una muestra clara de cómo la tecnología puede transformar la construcción. La combinación de fabricación aditiva y automatización puede reducir drásticamente costes y tiempo, con implicaciones enormes para la vivienda.

Otras noticias

-Cognichip, un modelo de deep learning para ayudar en el diseño de chips, ha levantado **60 millones de dólares**.
-ByteDance está ayudando a OpenClaw a operar una versión china de ClawHub, un marketplace para el desarrollo de tareas específicas.
-OpenAI ha introducido un plug-in de Codes para Claude Code, lo que permite comparar fácilmente los resultados de los dos modelos en un esquema de revisión adversarial.
-Qwen ha lanzado el modelo **Qwen 3.5-Omni**, una variante multimodal.
-El nuevo modelo de Meta, Advocado y Advocado Agent, parece que aún no tiene el rendimiento esperado y se ha pospuesto como mínimo hasta mayo.
-Google financiará un megacentro de IA para Anthropic.
-Agibot, uno de los fabricantes de robots chinos más destacados, ha llegado a la cifra de 10.000 unidades producidas.