La IA no descansa. En estas Navidades y Fin de Año hemos asistido a una serie de movimientos que han sorprendido a todos y que, a primera vista, cuestan de entender. Nvidia, el líder indiscutible del hardware para IA, ha anunciado una operación sobre una empresa emergente de nicho que lo estaba haciendo muy bien, pero que en principio no parecía una amenaza directa para su liderazgo. Hablamos de Groq, una empresa con solo nueve años de vida y una valoración que los más optimistas situaban por debajo de los 7.000 millones de dólares, pero donde Nvidia —según las cifras que circulan— estaría pagando alrededor de 20.000 millones. ¿Por qué?
Y eso no es todo. Meta también ha hecho una jugada fuerte comprando Manus, un agente de IA que utiliza modelos de otras empresas (principalmente Anthropic, pero también de otras). En este caso, se habla de un precio de entre 2.000 y 3.000 millones de dólares. De nuevo: una empresa de origen chino, de un centenar de personas, con una valoración previa de unos 500 millones, pero Meta pagaría varias veces más. ¿Por qué? En ambos casos, además, no estamos hablando técnicamente de una compra clásica.
Es una licencia de uso del producto combinada con la incorporación de los fundadores y del núcleo duro a Nvidia y Meta, respectivamente. Es decir: una manera de tener lo mejor de la adquisición —tecnología y talento— minimizando los riesgos de una revisión regulatoria agresiva, ya sea por competencia o por consideraciones de seguridad nacional. Pero estas no son las únicas cosas que han pasado estas fiestas. De hecho, para la IA el 2026 ha comenzado antes de que acabara el 2025. Por cierto: en su alocución de fin de año, el presidente Xi Jinping habló de IA, de modelos y de procesadores. Una muestra más de que la IA ya es, sin ninguna duda, un elemento central del progreso y la competitividad de las naciones.
¿Por qué una prima tan elevada?
Hablar de Groq es hablar de Jonathan Ross, su fundador y uno de los creadores de las TPU de Google. Groq se fundó en 2016 con el objetivo de llevar al mercado una versión del tipo de procesadores que Google había desarrollado internamente y que, en aquel momento, no eran accesibles como producto comercial. Las TPU son bastante diferentes de las GPU de Nvidia. Son dispositivos optimizados para realizar unas pocas operaciones de la manera más eficiente posible. Es un intercambio: se renuncia a parte de la versatilidad de las GPU para ganar eficiencia extrema, esencial para compañías como Google, que quieren reducir al mínimo el coste por consulta y, así, mantener un modelo de negocio publicitario con costes controlados.
Tanto las TPU como Groq tienen un elemento clave: un compilador capaz de optimizar las operaciones al máximo. Con el tiempo, Groq ha incorporado memoria SRAM (mucho más rápida pero más cara que la memoria habitual) y ha conseguido rendimientos muy altos en inferencia. Su apuesta es tener tantos datos como sea posible dentro de esta memoria, evitando tener que recurrir constantemente a memoria externa, como ocurre en muchas arquitecturas GPU, donde el movimiento de datos es costoso en tiempo y energía.
La pregunta es: ¿por qué Groq es ahora interesante para Nvidia? Porque los modelos de IA se dirigen cada vez más a sistemas de “razonamiento”, donde la inferencia pesa cada vez más. Es decir: cuando el modelo no solo responde, sino que “piensa”, genera rutas alternativas, verifica y decide. Esta nueva fase hace que la inferencia ya no sea un complemento, sino un campo de batalla. Y esto es precisamente lo que Groq —y las TPU de Google— hacen bien. Los planes de Nvidia exigen tener versiones especializadas de su nuevo procesador Rubin, dedicadas a hacer inferencia a bajo coste. ¿Podría Nvidia desarrollarlo internamente? Probablemente sí. Pero el mundo de la IA va muy rápido y Nvidia tiene, literalmente, decenas de miles de millones en caja.
Lo más racional puede ser comprar Groq y ganar tiempo. Esto es lo que ha hecho (o, como mínimo, esto es lo que ha conseguido mediante la fórmula de licencia + incorporación de personal clave). Veremos, pues, versiones de los procesadores de Nvidia —como el Rubin CPX, presentado en septiembre— cada vez más especializadas en tareas que ya hoy son una parte central del mercado.
De hecho, esto no es nuevo: AWS lleva años apostando por procesadores especializados, separando arquitecturas para entrenamiento e inferencia (Inferentia y Trainium). Hay otro elemento muy importante: la necesidad de traspasar datos de la memoria a los procesadores hace que las GPU de Nvidia sean muy dependientes de memorias de alta velocidad, como la HBM, un componente caro y con pocos fabricantes —que se han hecho de oro. Si Nvidia puede explorar otras arquitecturas o caminos, reduce dependencias en una cadena de suministro estratégica y limitada.
Meta compra Manus por 3.000 millones de dólares
Manus es el agente de la empresa emergente china Butterfly Effect, fundada en Pekín por Xiao Hong, que estudió ingeniería de software en HUST (Wuhan). En 2023, el fondo ZhenFund invirtió en ella con una valoración de 14 millones de dólares. Después entraron otros fondos como HongShan y el gigante Tencent. Manus es un agente muy bueno. Yo lo utilizo desde hace más de un año y lo explico en clase. Últimamente, hace presentaciones muy convincentes (al estilo BCG) y es especialmente bueno produciendo informes e investigación estructurada. Es un agente que, en lugar de basarse en un modelo propio, utiliza modelos externos —sobre todo Anthropic— y los orquesta de manera muy eficiente.
Quizás no todo el mundo sabe que Mark Zuckerberg habla un buen mandarín, ha estado a menudo en China y su mujer es china. Y Xiao Hong es, probablemente, uno de los CEO chinos con un estilo más occidental, similar en cierta manera al de Xiaomi o al de Jack Ma: todos ellos, de alguna forma, herederos del modelo de “producto + narrativa” que perfeccionó Steve Jobs.
Manus son un centenar de personas y movieron su sede a Singapur ya hace un tiempo. En ese momento ya parecía que buscaban posicionarse para una adquisición. Los fondos que participan son early-stage y buscan una salida relativamente rápida. Por otro lado, Meta necesita producto para competir con Google y OpenAI e integrarlo en sus plataformas. Manus podría ser el mejor agente generalista hoy en el mercado. Como veis, todo encaja.
La fórmula de licencia con incorporación de figuras clave es la clásica para evitar intervenciones regulatorias: la estás comprando, sin comprarla del todo. Y este caso es también un ejemplo de que los ecosistemas de China y Estados Unidos no están tan separados como a menudo algunos quieren hacer creer. Las grandes multinacionales operan en ambos lados y esto podría ser el inicio de muchas más operaciones de este tipo, que ayudarán a consolidar un ecosistema de empresas emergentes rico y potente en China.
2026, el año de las IPO: el capital privado quiere hacer caja
Tras unos años marcados por la subida de tipos de interés y la sequía de salidas a bolsa, 2026 se está perfilando como el año del gran retorno de las IPO tecnológicas. El motivo es tan simple como potente: el capital privado —fondos de capital riesgo y capital de inversión— necesita materializar ganancias tras una década acumulando participaciones en “unicornios” que han crecido mucho en valor, pero que aún no han encontrado una ventana clara para convertirlo en liquidez.
La pieza clave de este nuevo ciclo es la IA y, sobre todo, el puñado de compañías que han dominado la narrativa tecnológica de los últimos dos años. Según información del Financial Times, SpaceX, OpenAI y Anthropic —tres de las privadas más valiosas de Estados Unidos— se están preparando para salir a bolsa tan pronto como en 2026, con el objetivo de captar decenas de miles de millones de dólares en cada operación.
Las cifras que se mueven son de una magnitud inédita en el sector tecnológico. El mismo FT apunta que SpaceX podría alcanzar una valoración del orden de cientos de miles de millones (en ventas secundarias recientes se ha hablado de unos 800.000 millones de dólares) y que una IPO podría batir récords mundiales de captación.
En paralelo, Reuters informaba hace solo unos días que OpenAI ha cerrado una de las rondas privadas más grandes de la historia con SoftBank, y que el mercado ya especula con una eventual salida a bolsa que podría situar a la compañía en valoraciones de cientos de miles de millones.
Hong Kong también quiere su gran momento
Al otro lado del mundo, Hong Kong se prepara para capitalizar la ola con la salida a bolsa de empresas chinas de IA. Un caso emblemático es MiniMax, una de las empresas emergentes más destacadas del sector, que según Reuters busca captar hasta unos 539 millones de dólares en su IPO y lo hace con una valoración aproximada de unos 6.500 millones de dólares. Esta operación se enmarca en un importante resurgimiento del mercado hongkonés, que en 2025 recaudó mucho más capital que en 2024 gracias a un retorno del apetito inversor, especialmente en IA y semiconductores.
China regula la interacción de la IA con personas
China ha propuesto nuevas normas para regular los servicios de IA que imitan personalidades humanas y pueden crear vínculos emocionales con los usuarios. El borrador obligaría a las empresas a avisar sobre el uso excesivo, monitorizar indicios de dependencia o malestar e intervenir si detectan adicción o riesgo psicológico. También refuerza el control sobre algoritmos, datos y privacidad, y fija límites estrictos de contenido relacionados con seguridad nacional, desinformación, violencia o pornografía. El mensaje es claro: los companions de IA ya se tratan como una cuestión de salud y seguridad, con posibles efectos más allá de China.
La IA en la búsqueda – las mejores ideas de 2025
The Shape of AI: Jaggedness, Bottlenecks and Salients
AI Lab: Ethan Mollick
Ethan Mollick defiende que, a pesar de los grandes avances, la IA sigue teniendo una capacidad "irregular": puede ser excelente en tareas muy complejas y, al mismo tiempo, fallar en otras aparentemente simples. A esto lo llama la "frontera dentada" (jagged frontier), y es una buena explicación de por qué la IA todavía cuesta de aplicar de manera robusta al trabajo real. Esta irregularidad crea cuellos de botella: un único punto débil —memoria limitada, alucinaciones, falta de acceso a datos o barreras regulatorias— puede impedir automatizar del todo un proceso, incluso cuando la IA hace casi todo el trabajo. Mollick concluye que el progreso llegará a "tirones": cuando se resuelve un bloqueo, el sistema da un salto repentino (como ha ocurrido con la generación de imágenes), pero siempre aparecen otros nuevos y el espacio para los humanos sigue siendo clave.
Reinforcement Learning with Verifiable Rewards (RLVR)
AI Lab: Tülu 3 & DeepSeek-R1
Los modelos de lenguaje (como ChatGPT o Gemini) no han sido entrenados para “decir la verdad”, sino para imitar cómo escribe la gente en internet. Esto los hace muy buenos generando textos plausibles, pero también explica las alucinaciones: el modelo aprende qué es probable, no qué es correcto. Para reducir este problema, gana fuerza el RLVR, un entrenamiento que recompensa al modelo cuando acierta de una manera verificable. En código o matemáticas, por ejemplo, se puede comprobar si el resultado es correcto y premiarlo. El efecto es que el modelo prioriza la lógica y la precisión, aunque su estilo sea menos “humano”. Esto puede hacer la IA mucho más fiable en tareas donde el error es crítico.
Test-Time Compute (Thinking models)
AI Lab: OpenAI
Hasta ahora, la mayor parte de la “inteligencia” se construía durante el entrenamiento, y la respuesta llegaba de inmediato. Pero el test-time compute cambia el paradigma: si la pregunta es difícil, el sistema puede dedicarle más tiempo y computación para mejorar la exactitud. En la práctica, esto significa generar diversas rutas de razonamiento, compararlas y verificarlas antes de responder. Es un “intercambio tiempo por precisión” que puede hacer los modelos mucho más fuertes en razonamiento complejo, y al mismo tiempo desplaza costes hacia los servidores de inferencia, aumentando la demanda de computación en tiempo real.
World Models
AI Lab: David Ha & Jürgen Schmidhuber, Yann LeCun
Los modelos de lenguaje son sobre todo texto: a menudo no “entienden” la realidad física, sino que reproducen patrones. Los world models quieren resolverlo entrenando sistemas que predigan el estado siguiente del mundo, no solo la palabra siguiente.
Aprendiendo con vídeo y datos sensoriales, estos modelos pueden construir un “motor físico interno” capaz de simular qué pasará después de una acción. La idea es combinarlos con agentes para que, antes de actuar (en un robot o en un sistema informático), la IA pueda “simular” el resultado y evitar errores. Un ejemplo visible es el trabajo de Google DeepMind con Genie 3, orientado a crear mundos interactivos para entrenar agentes en entornos simulados.
Otras noticias
-OpenAI está mejorando mucho sus modelos de audio (que son diferentes de los que usamos en ChatGPT) de cara a su dispositivo personal que está desarrollando con Jonathan Ive y que parece que estará basado en audio.
-Según un estudio de SignalFire, la demanda de entry level en las 15 empresas de tecnología más grandes ha bajado un 25%, pero datos del NACE indican que un 49% piensa que el mercado de trabajo es bueno o muy bueno. Estamos ante una reestructuración más que ante una bajada.
-Hay rumores de que Tesla adquirirá xAI. Veremos.
-Un Tesla Model 3 ha completado un viaje de costa a costa de los Estados Unidos en dos días y 20 horas con cero intervenciones humanas, totalmente autoconducido.
-Neuralink comenzará a ser producido en cantidad en 2026.
-Waymo llegaría pronto a una valoración de 100.000 millones de dólares, después de años de trabajo. También pronto estará disponible en Londres y posiblemente en otros países de Europa.
-OpenAI busca un director de preparedness para vigilar los riesgos de la IA. El sueldo es de 555.000 dólares más acciones.
-Tesla ha comenzado a producir el Cybercab.
-Más del 20% de los shorts en YouTube han sido generados por IA y dan billones. Se debe a que el nuevo algoritmo de feed recompensa el volumen de visitas por encima de la dificultad.
-xAI ha comprado un edificio en Memphis para construir un tercer centro de IA.
-OpenAI está probando la integración de anuncios en sus respuestas.
-Investigadores chinos han creado una piel artificial que permitirá a los robots sentir como los humanos.