Esta semana vivimos lo que se ha denominado SaaSpocalypse: una caída en los mercados de los proveedores de software SaaS. Para que os hagáis una idea de la magnitud de la tragedia, HubSpot ha caído un 71,28% en lo que llevamos de año y Salesforce un 42,57%. La culpa la tiene la IA generativa y la chispa ha venido de Anthropic. Lo explicamos todo aquí, pero hay que tener en cuenta que esto solo es el principio de un cambio de gran magnitud.
También tenemos la presentación de Claude Opus 4.6, un modelo con más contexto y más orientado al trabajo, particularmente a la programación y a las tareas agénticas. La compra de la semana es la de SpaceX, que integra xAI. Ya estaba anticipada desde hacía tiempo. El conglomerado de Elon Musk está sufriendo transformaciones muy importantes, orientando la empresa hacia los robotaxis y los robots humanoides. Pero todo se prepara para una nueva ola de modelos que serán mucho mejores que los actuales. En nada veremos los nuevos modelos de DeepSeek, de Anthropic, de OpenAI y de Google. Meta no se lo quiere perder y también ha filtrado datos de su nuevo modelo.
SaaSpocalypse
Hace unos días asistimos a un momento de pánico en los mercados. Anthropic lanzó Cowork, un agente generalista similar a Manus o al Deep Research de OpenAI, pero dotado de skills, que son ficheros que apuntan a herramientas para una determinada tarea o actividad. Las skills se han convertido en un estándar que ahora también usa OpenAI. Anthropic sacó primero toda una serie de skills para trabajar con documentos de Office.
Después sacó toda una serie de conectores para el mundo financiero, orientados básicamente a los proveedores de información. Posteriormente, sacó un plug-in para Excel que te permite gestionar hojas de cálculo muy grandes con Anthropic Claude en el sidebar. Pero hace unos días sacó unas skills dirigidas a tareas de compliance, contract-review, risk-assessment o NDA y aquí estalló todo, provocando bajadas de hasta el 19% en Thomson Reuters, y también importantes en LexisNexis, Pearson y Sage. En general, a todos los proveedores de legal que veían cómo su mercado estaba súbitamente amenazado.
Este, sin embargo, no es un tema solo del mercado de proveedores legales y de legaltech. Los productos de generación de código de OpenAI, Anthropic, Gemini y también los productos open source chinos suponen una amenaza para todos los proveedores de aplicaciones, que ahora deben redefinir sus aplicativos en versión agéntica. El futuro ya no pasa por una persona de marketing navegando por un dashboard encontrando leads y oportunidades: este trabajo lo harán agentes que calificarán los leads e incluso establecerán contacto con ellos.
Lo mismo ocurre en tareas como aprobar proveedores y contratos, o toda la parte de compliance. Esto se mueve hacia agentes que aprueban directamente, y solo en los casos más complicados intervienen los especialistas. No solo eso, sino que identifican las condiciones que podrían devenir genéricas y enriquecen las tareas. Como resultado hemos visto que HubSpot ha caído un 71,28% en lo que va de año, Salesforce un 42,75%, Adobe un 38,13% y tenemos empresas que están construyendo los nuevos ERP y CRM en formato agéntico. Este no es un fenómeno puntual, sino el principio de la redefinición de todo el mercado de SaaS.
¡Qué Carnicería!
— Equity Insights Elite (@EquityInsightss) 6 de febrero de 2026
La mayoría de estos nombres han bajado un 50-70% desde ATH, con rendimientos negativos a 5 años
Wall Street lo llama el "SaaSpocalypse" pic.twitter.com/MwSj5IToni
Hemos hablado mucho de esto en el Pod, pero el Gran Colapso del SaaS ha comenzado y no hay vuelta atrás.
— Chamath Palihapitiya (@chamath) 21 de enero de 2026
¿Qué está pasando exactamente?
En resumen, el SaaS de alto crecimiento y baja/nula rentabilidad ya no es una estrategia ganadora porque la gran pregunta es la durabilidad de ese crecimiento… pic.twitter.com/i1CrYRiAJ3
Anthropic Claude 4.6
Anthropic ha presentado Claude Opus 4.6, una nueva versión de su modelo más avanzado, con un mensaje claro: menos “chatbot” y más herramienta de trabajo para empresas y equipos técnicos. La empresa asegura que el modelo mejora en programación, planificación de tareas largas y trabajo agéntico (tareas que la IA puede ejecutar durante un rato con más autonomía y consistencia). La gran novedad es que, por primera vez dentro de la línea Opus, Anthropic activa en beta una ventana de contexto de hasta 1 millón de tokens. En la práctica, esto quiere decir poder “verter” al modelo repositorios de código grandes, especificaciones larguísimas, documentos desordenados o proyectos enteros y mantener el hilo sin estar copiando y pegando constantemente.
Esta opción, sin embargo, está condicionada a determinados niveles de uso y tiene tarificación especial cuando se superan umbrales elevados de contexto. Anthropic también amplía la apuesta por la productividad cotidiana: mejoras en flujos de trabajo con Excel y PowerPoint, y novedades para desarrolladores como agent teams en Claude Code (múltiples agentes colaborando) y controles de API para gestionar mejor el coste y el comportamiento del modelo en trabajos largos. El objetivo es que se parezca más a “delegar el trabajo y revisar después” que a “supervisar cada paso”.
OpenAI presenta Frontier: una plataforma para construir 'AI co-workers'
OpenAI ha anunciado Frontier, una nueva plataforma para que las empresas construyan, desplieguen y supervisen agentes de IA. La idea es que los agentes puedan combinar datos de múltiples fuentes (archivos, sistemas internos o mensajería) y ejecutar tareas como trabajar con documentos y correr código, pero dentro de un marco de control y gestión pensado para entornos corporativos. Un punto clave del relato es cómo lo posicionan: Fidji Simo (CEO of Applications) defiende que Frontier no está pensado para “matar el software”, sino para convertirse en una capa estándar de orquestación y distribución de agentes, incluyendo agentes que no sean de OpenAI. De hecho, dice explícitamente que OpenAI no construirá todos los agentes que necesitarán las empresas, y que Frontier está diseñado para que otros proveedores desplieguen sus agentes “encima”.
Esto conecta directamente con el pánico del SaaSpocalypse: el mismo artículo enmarca el lanzamiento tras la caída de valores de software y datos, alimentada por el miedo a que la IA reduzca la necesidad de herramientas SaaS tradicionales. La diferencia es que OpenAI intenta girar el marco mental: no “sustituir apps”, sino hacer de infraestructura para que el software existente (Microsoft, Oracle, SAP y ServiceNow) incorpore agentes y para que estos agentes puedan acceder a datos de sistemas como Salesforce o Slack. Entre los primeros clientes que se mencionan hay Intuit, State Farm, Thermo Fisher y Uber, y el producto de momento está disponible para un grupo limitado.
SpaceX adquiere xAI
Elon Musk ha unido formalmente sus dos grandes obsesiones: el espacio y la inteligencia artificial. SpaceX ha comprado xAI, su laboratorio de IA, en una operación que, según Bloomberg, da lugar a la compañía privada más valiosa del mundo, con una valoración combinada de unos 1,25 billones de dólares. Según Musk, el objetivo de la fusión es impulsar un plan ambicioso: crear centros de datos en el espacio para alimentar los futuros sistemas de IA. Argumenta que los centros de datos terrestres tendrán cada vez más dificultades para satisfacer las necesidades de potencia y refrigeración sin generar impactos negativos en las comunidades locales.
El movimiento también responde a presiones económicas. xAI estaría quemando cerca de 1.000 millones de dólares al mes, mientras que SpaceX depende en gran parte de los ingresos asociados a Starlink y a sus lanzamientos. En este sentido, la nueva estrategia podría garantizar demanda sostenida de satélites y lanzamientos a largo plazo, reforzando el negocio principal de SpaceX. La operación es relevante porque vincula de manera directa la escala futura de la IA a la infraestructura espacial. Si la visión de Musk se impone, SpaceX podría convertirse en una pieza clave del computing global de nueva generación. Si fracasa, la fusión concentra el riesgo de dos negocios ya de por sí intensivos en capital y con necesidades de financiación enormes.
Las inversiones de NVIDIA en OpenAI, congeladas
El ambicioso plan para que Nvidia invirtiera hasta 100.000 millones de dólares en OpenAI —vinculado a la construcción de unos 10 gigavatios de capacidad de computación para IA— ha quedado, de facto, congelado. Según diversos medios, aquel entendimiento anunciado el pasado septiembre era un memorando no vinculante (un “acuerdo de intenciones”) y no pasó de conversaciones preliminares. Fuentes citadas por la prensa indican que el CEO de Nvidia, Jensen Huang, habría expresado en privado dudas sobre la disciplina empresarial de OpenAI y sobre la presión creciente de competidores como Google y Anthropic, lo que habría enfriado la operación.
Ahora bien, Nvidia no se desentiende del todo: mantendría la participación en la ronda de equity de OpenAI, pero con un importe muy inferior a los 100.000 millones. Y el mismo Huang ha salido públicamente a rebajar el relato de “crisis” y a defender que no hay “drama” con OpenAI, admitiendo que la cifra de 100.000 millones no era realista. El caso es relevante porque OpenAI necesita cantidades inéditas de computación para sostener su crecimiento y, según el mismo ecosistema mediático, se prepara para una posible salida a bolsa hacia finales del 2026. Que un “megapacto” tan espectacular quede en suspenso pone de manifiesto el riesgo de anunciar grandes alianzas antes de cerrar los términos y, sobre todo, la fragilidad del relato financiero que debe aguantar la expansión de la IA a escala industrial.
Filtraciones del nuevo modelo de Meta: Avocado
Según un memo interno, Meta afirma que Avocado —su próximo modelo de IA de nueva generación— es su “modelo base preentrenado más capaz hasta ahora” y que ya han terminado el preentrenamiento. Meta sostiene que Avocado supera los principales modelos base de código abierto y que, en tareas de texto, está obteniendo ganancias de eficiencia de computación muy importantes: en otro memo (de mediados de diciembre), la empresa habla de hasta 10 veces más eficiencia respecto a Maverick y de más de 100 veces respecto a Behemoth, una versión de Llama 4 que Meta acabó retrasando. La noticia es relevante porque apunta a un giro estratégico: Meta quiere un modelo flagship que le permita competir con los grandes actores (OpenAI, Google y Anthropic) y, al mismo tiempo, reducir el coste energético y de computación de operar IA a escala. Varias informaciones recientes también sugieren que Avocado podría marcar un desplazamiento parcial respecto de la apuesta totalmente abierta que había caracterizado a la familia Llama.
OpenAI y el mercado corporativo
OpenAI está preparando un salto agresivo hacia el mercado corporativo: según The Information, la empresa quiere contratar cientos de consultores técnicos para ayudar a grandes compañías a construir aplicaciones y agentes de IA a medida que automaticen tareas de los empleados. La jugada tiene un objetivo claro: acelerar ventas enterprise y frenar el avance de Anthropic, que también está reforzando su oferta para empresas. En paralelo, OpenAI está articulando una nueva propuesta para unificar el uso corporativo de la IA —es decir, pasar de pilotos dispersos a una plataforma y gobernanza comunes—, en un momento en que muchas organizaciones ya no quieren solo “chatbots”, sino automatización integrada y controlada.
El movimiento es relevante porque confirma una tendencia: el gran campo de batalla del 2026 no será solo quién tiene el mejor modelo, sino quién despliega mejor la IA dentro de las empresas (procesos, datos, permisos, integración y seguridad). Y aquí, los “consultores/ingenieros incrustados” pueden ser la diferencia entre una demo espectacular y un sistema que realmente funcione en producción. Este no es un movimiento exclusivo de OpenAI: los frontier engineers, ingenieros de las empresas de modelos destacados incrustados en los usuarios finales para ayudarles a hacer agentes, se está generalizando.
La investigación IA
One year of agentic AI: Six lessons from the people doing the work . AI Lab: McKinsey – Quantum Black
McKinsey (QuantumBlack) hace balance tras un año de proyectos de IA agentiva y la conclusión es clara: desplegar agentes con éxito es mucho más difícil de lo que prometen las demos. Aunque algunas empresas ya empiezan a ver ganancias de productividad, muchas otras no consiguen capturar valor real y, en algunos casos, incluso han tenido que dar marcha atrás y recontratar personas porque los agentes han fallado.
La primera lección es que el debate no va tanto del agente como del workflow. Las organizaciones a menudo crean agentes impresionantes, pero los colocan sobre procesos que no se han rediseñado. Sin cambios en el flujo de trabajo —personas, sistemas, puntos de decisión y gobernanza— el resultado es un agente vistoso pero inútil. La segunda lección es que los agentes no siempre son la mejor solución. Hay tareas repetitivas, reguladas y de baja variabilidad donde un agente basado en un modelo probabilístico puede añadir más riesgo que valor. En muchos casos es preferible una combinación de reglas, automatización clásica, analítica predictiva o prompting sencillo.
Un tercer punto fundamental es evitar lo que muchos trabajadores ya llaman AI Slop: respuestas que parecen correctas, pero son mediocres, vagas o erróneas. Cuando esto pasa, la confianza se rompe rápidamente y la adopción cae. Por eso McKinsey insiste en que hay que invertir en evaluaciones (evals), calidad y entrenamiento continuo.
De hecho, proponen entender a los agentes como si fueran empleados nuevos: hay que darles una descripción clara del trabajo, formarlos, evaluarlos y corregirlos. No existe el “lanzar y olvidar”. En resumen: la Agentic AI puede transformar empresas, pero solo si se trata como un programa de transformación real, no como una simple compra tecnológica.
PaperBanana Automatic Academic Illustration. AI Lab: Google
PaperBanana es un framework agentic automatizado pensado para investigadores en IA que quieren generar ilustraciones académicas de alta calidad (diagramas de metodología, arquitecturas de modelos, flujos y gráficos estadísticos) a partir de descripciones textuales o referencias básicas. Funciona con un flujo en varios pasos: Retrieve (recupera contexto), Plan (planifica el diseño), Render (genera una primera versión con modelos de imagen avanzados) y Refine (itera con autocorrección para mejorar precisión y estética). También permite pulir bocetos hechos a mano y convertirlos en diagramas limpios de estilo vectorial.
El sistema se presenta como apto para conferencias de alto nivel (NeurIPS), ya que evalúa los resultados con criterios como fidelidad, claridad, concisión, legibilidad y estética. Además, es open source y no requiere conocimientos de diseño: el usuario aporta el contenido científico y los agentes se encargan de la presentación visual.
Teaching Models to Teach Themselves: Reasoning at the Edge of Learnability. AI Lab: MIT, Meta FAIR, New York University
Cuando el refuerzo (RL) se aplica para afinar grandes modelos de razonamiento, a menudo topa con una pared muy concreta: si los problemas son demasiado difíciles, el modelo no acierta nada y, por lo tanto, no hay recompensa ni señal de aprendizaje. Es el plateau clásico: un sistema que podría saber más de lo que muestra, pero que no encuentra ningún primer paso útil. La pregunta que se plantea este trabajo es casi pedagógica: ¿puede un modelo preentrenado aprovechar su conocimiento latente para inventarse un camino de ejercicios que lo lleve, progresivamente, hacia problemas que de entrada no sabe resolver?
La respuesta que exploran es SOAR, un esquema de mejora propia basado en meta-RL. El truco es dividir el modelo en dos copias: una hace de “maestro” y la otra de “alumno”. El maestro propone problemas sintéticos —como quien diseña un currículum— y no es recompensado porque estos problemas parezcan interesantes o porque maximicen alguna medida de diversidad, sino porque su alumno mejore de verdad en un pequeño conjunto de problemas extremadamente difíciles. Esto es importante: el currículum queda “anclado” al progreso medido, no a recompensas intrínsecas que a menudo acaban generando inestabilidad o colapso de variedad.
Otras noticias
-Bolt (China) ya ha presentado un robot humanoide que corre a 10 m/s (equivalente a unos 36 km/h). Como una moto.
-Anthropic hará anuncios en la Super Bowl por primera vez. El anuncio tiene un punto de ironía con OpenAI: Ads are coming to AI. But not to Claude.
-Moltbook ha dejado al descubierto más de 1M de credenciales de acceso y cientos de correos.
-Gemini ha superado los 750M de usuarios mensuales activos, acercándose a OpenAI.
-NVIDIA retrasará los nuevos chips para juegos debido a la escasez de chips de memoria.
-OpenAI está discutiendo un acuerdo con Amazon para encargarse de Alexa.
-Los ingresos de Alphabet en búsqueda han crecido un 17% y los de Cloud un 48%. Esto ha llevado a Alphabet a doblar las inversiones en infraestructuras hasta $180B.
-Los ingresos de Uber han crecido un 20%.
-Waymo ya ha aterrizado en Londres. Se habla de que París y Madrid son los siguientes.
-Enrique Lores (exCEO de HP) se ha convertido en el nuevo CEO de PayPal, una compañía con muchos problemas. Enrique ha estado siempre ligado al patronato de Esade.
-La startup de chips Cerebras ha levantado $1B con una valoración de $23B.