La semana pasada Google presentó su modelo Gemini 3 y se colocó en la primera posición de todos los rankings. La victoria, sin embargo, duró poco: pocos días después Anthropic respondía con Claude y Opus 4.5, que pasaron directamente por delante de Gemini. Podríamos pensar que esta situación duraría al menos unos días... ¡pero no! Apareció DeepSeek 3.2, en dos versiones —la normal y la Speciale (thinking, al estilo de otros modelos)— y, claro, escaló inmediatamente al primer lugar. Esta vez, sin embargo, se trataba de un modelo chino y open source. Si pensáis que aquí se acaba la historia, pues tampoco. Estos nuevos modelos han abierto la puerta a técnicas y entrenamientos que se consideraban agotados y han demostrado que todavía queda mucho camino por recorrer.
De hecho, OpenAI ya está terminando el pre-training de su nuevo modelo Garlic y pronto comenzará la fase de post-training (RL), que según afirman será muy superior. Los últimos tres modelos aparecidos indican que no hemos llegado ni al techo del pre-training (pensábamos que sí) ni, sobre todo, del post-training. La carrera, como es lógico, se ha acelerado. Todo ello ha desencadenado muchas consecuencias, entre las que destaca que OpenAI ha declarado internamente código rojo. Mientras tanto, el mundo de la IA generativa se va normalizando y las empresas comienzan a preparar IPOs para salir al mercado. La primera: Anthropic.
El modelo DeepSeek 3.2
DeepSeek ha lanzado los modelos 3.2 y DeepSeek Speciale. Este último ha conseguido la medalla de oro en el test de la Olimpiada Matemática y en programación, hito que hasta ahora solo habían alcanzado OpenAI y Google. Además, este modelo es unas 30 veces más barato que el Gemini 3 Pro. Son modelos open weights, mucho más frugales que los occidentales en entrenamiento y uso de recursos, e incorporan un conjunto de novedades muy interesantes. DeepSeek lo ha vuelto a hacer: ha superado a los gigantes a pesar del embargo de GPUs impuesto por Trump, con recursos computacionales limitados y un equipo pequeño. Una demostración de que no todo son dinero e infraestructura, y de que el futuro pasa por modelos más frugales, más pequeños y de gran rendimiento.
🚀 Lanzamiento de DeepSeek-V3.2 y DeepSeek-V3.2-Speciale — ¡Modelos centrados en el razonamiento diseñados para agentes!
— DeepSeek (@deepseek_ai) December 1, 2025
🔹 DeepSeek-V3.2: Sucesor oficial de V3.2-Exp. Ya disponible en App, Web y API.
🔹 DeepSeek-V3.2-Speciale: Empujando los límites de las capacidades de razonamiento. Solo API por ahora.
📄 Tech… pic.twitter.com/SC49UdmCZv
🏆 Razonamiento líder mundial
— DeepSeek (@deepseek_ai) 1 de diciembre de 2025
🔹 V3.2: Inferencia equilibrada frente a longitud. Tu conductor diario con un rendimiento de nivel GPT-5.
🔹 V3.2-Speciale: Capacidades de razonamiento al máximo. Rivaliza con Gemini-3.0-Pro.
🥇 Rendimiento de medalla de oro: V3.2-Speciale alcanza resultados de nivel oro en IMO, CMO, ICPC World… pic.twitter.com/ZFGzDMshBy
OpenAI Código Rojo
En poco tiempo, OpenAI ha pasado de una posición de dominio casi total a situarse como tercero en los rankings, lo que la ha llevado a adoptar una posición defensiva y declarar code red. Lo mismo que hizo Google hace unos meses, decisión que la ha acabado situando a la cabeza de los rankings actuales. ¿Qué significa code red? Principalmente, priorizar todas las áreas relacionadas con el core, los modelos y los rankings. Esto implica retirar recursos de proyectos como la venta de anuncios, agentes de compra, Health o Pulse —una herramienta pensada para generar informes personalizados cada mañana— y destinar tanto el personal como la computación al desarrollo de nuevos modelos.
Las cifras muestran la urgencia: Gemini ha pasado de 450 millones de usuarios activos en julio a 650 millones en octubre, acercándose a los 800–900 millones de OpenAI. A pesar de ello, OpenAI continúa gestionando cerca del 70% de la actividad relacionada con assistant y un 10% de la búsqueda mundial. Más allá de dominar los rankings (LMArena), OpenAI quiere mejorar la parte de imagen para competir con Nano Banana Pro y reforzar la usabilidad. El objetivo final: convertirse en el asistente personal universal. Como medidas inmediatas, aceleran su nuevo modelo Garlic, que ya finaliza el pre-training, y preparan un nuevo release, posiblemente la semana que viene, que se situaría por delante de Gemini 3.
OPI de Anthropic
Anthropic se plantea salir a bolsa con una IPO valorada en 300.000 millones de dólares en 2026. Ha contratado a Wilson Sonsini para gestionar el proceso. Esta valoración implica una facturación esperada de unos 26.000 millones. La compañía cuenta con el apoyo de Amazon y Google y, recientemente, ha llegado a acuerdos con Microsoft (que invertirá 30.000 millones) y Nvidia (15.000 millones). Si la IPO se confirma, será una de las más grandes de la historia y podría acelerar la de OpenAI, estimada en 1 billón de dólares
AWS y los agentes
Estos días AWS ha celebrado el re:Invent, su gran evento anual, donde ha presentado muchas novedades centradas en agentes de IA dentro de la plataforma AgentCore. Cuatro son los productos estrella:
-Policy: limita las acciones autónomas de los agentes sin aprobación humana (por ejemplo, compras superiores a 100 euros).
-Gateway: permite conectar los agentes con plataformas externas como Slack o Salesforce.
-Evaluations: gestiona la evaluación de los agentes en seguridad, exactitud y fiabilidad.
-Memory: gestiona preferencias y contexto de usuario.
AWS continúa lejos de los grandes actores en agentes y estos entornos no son los preferidos por los desarrolladores. Habrá que ver si estas novedades reducen distancia o, por el contrario, la amplían. AWS también ha presentado su nuevo modelo multimodal Nova 2 Omni y servidores basados en el nuevo chip Trainum3.
Google incluye agentes en Workspace Studio
Google ha incorporado agentes de IA a su Workspace Studio (Gmail, Drive, Docs y Chat). No es necesario programar y permiten tareas como redactar borradores, rotar información o coordinar proyectos entre equipos. Los agentes se pueden compartir como archivos del Drive. Google sigue así el camino iniciado por Microsoft y contribuye a redefinir los flujos de trabajo incorporando agentes que automatizan tareas sin conocimientos técnicos.
Mistral 3
Mistral ha lanzado su nuevo modelo Mistral 3 y Mistral 3 Large, todos ellos open source con licencia Apache 2.0 y diversas configuraciones. El modelo se sitúa a la altura de DeepSeek 3.1 y supera a menudo Qwen. Pero, con la aparición de DeepSeek 3.2 y toda la nueva ola de modelos, estos resultados han quedado anticuados. En este sector, hay que correr mucho para quedarse en el mismo sitio —como decía Lewis Carroll en The Red Queen. Mistral 3 se ha entrenado con 3.000 GPUs H200, una cantidad modesta, y ofrece variantes que funcionan en ordenadores personales o dispositivos. El objetivo: un modelo con baja latencia, fiable, que funcione en entornos pequeños on-prem y que cumpla los requisitos europeos.
Las universidades usan IA
Grandes universidades como Virginia Tech y Caltech utilizan IA en el proceso de admisiones. Caltech, además, realiza entrevistas con un chatbot para verificar que el estudiante entiende bien lo que ha escrito. El proceso se acelera enormemente. Otras universidades como North Carolina Chapel Hill, Stony Brook y muchas más también han adoptado estos sistemas. Un modelo de este tipo puede evaluar 250.000 essays en menos de una hora, incluyendo la convalidación de créditos.
NVIDIA y los coches autónomos
NVIDIA ha presentado Alpanayo-R1, el primer modelo para coches autónomos capaz de alcanzar el nivel 4 de autoconducción. Además, ofrece herramientas para preparar datos, hacer training y gestionar el sistema completo. Es una novedad clave porque abre la puerta a que muchos fabricantes —europeos y chinos— incorporen la autoconducción avanzada. Tesla tendrá más competencia.
La investigación en IA
DeepSeek-V3.2: Empujando la frontera de los modelos de lenguaje grandes abiertos
Laboratorio de IA: DeepSeek
En este artículo se presenta DeepSeek-V3.2, un nuevo modelo de IA diseñado para combinar una gran eficiencia computacional con una capacidad de razonamiento y de acción muy elevada. Los autores destacan tres innovaciones principales:
-DeepSeek Sparse Attention (DSA): una nueva forma de calcular la atención que reduce mucho el coste computacional, pero mantiene un rendimiento alto incluso en textos muy largos.
-Un marco de aprendizaje por refuerzo escalable: ampliando significativamente la potencia de cálculo usada en el postentrenamiento, el modelo alcanza niveles de rendimiento comparables a GPT-5. La versión más potente, DeepSeek-V3.2-Speciale, incluso lo supera y muestra un razonamiento matemático y lógico al nivel de modelos como Gemini-3.0-Pro, logrando resultados de oro en las olimpiadas internacionales de matemáticas (IMO) e informática (IOI).
-Una gran infraestructura para generar tareas de agentes: han creado un sistema automático para generar, a gran escala, datos que simulan situaciones en las que la IA debe razonar, tomar decisiones y utilizar herramientas. Esto permite entrenar el modelo en entornos más realistas y complejos, mejorando su capacidad de generalización y la robustez cuando sigue instrucciones.
Las palancas de la persuasión política con inteligencia artificial conversacional
AI Lab: LSE, Cornell, Oxford Univ. - Science
Este ha sido, seguramente, el artículo más comentado de la semana. No es nada realmente nuevo, sabemos muy bien que la capacidad de persuasión de los modelos de lenguaje es más alta que la de los humanos, pero el artículo lo pone en un contexto político. Lo que han hecho los autores es analizar hasta qué punto diferentes modelos de IA pueden influir en las opiniones de las personas sobre más de 700 temas políticos en el Reino Unido. Para ello, han comparado modelos en diferentes fases de entrenamiento y con diferentes instrucciones de redacción. El resultado más importante es que los modelos postentrenados —los que los desarrolladores ya han afinado para que razonen y conversen mejor— son con diferencia los más persuasivos. También descubren que los modelos lo son especialmente cuando utilizan datos, hechos y argumentos estructurados. Pero aquí es donde aparece el riesgo: cuanta más información elaboran para convencer, más errores factuales cometen. Es decir, la “IA más convincente” es también la que tiene más probabilidades de generar desinformación sin querer.
Otras noticias
-Netflix comprará Warner Bros por 30 $ por acción, incluyendo estudios y streaming —una operación que puede reconfigurar el sector audiovisual.
-Meta recortará hasta un 30% la inversión en el grupo Metaverse y la destinará a Reality Labs.
-Kling incorpora audio a su Vídeo 2.6, capaz de generar efectos de sonido, diálogos, etc.
-Google ha lanzado Workspace Studio, una solución no-code para construir agentes.
-NVIDIA consigue un récord en la gestión de entornos MoE, con servidores NVL72 que rinden 10× más.
-OpenAI compra la empresa emergente Neptune por 400 millones de dólares, especializada en monitorización y análisis de modelos.
-Meta intenta fichar diseñadores top de Apple y ya ha conseguido algunos.