La setmana passada Google va presentar el seu model Gemini 3 i es va col·locar a la primera posició de tots els rànquings. La victòria, però, va durar poc: pocs dies després Anthropic hi responia amb Claude i Opus 4.5, que van passar directament per davant de Gemini. Podríem pensar que aquesta situació duraria almenys uns dies... però no! Va aparèixer DeepSeek 3.2, en dues versions —la normal i la Speciale (thinking, a l’estil d’altres models)— i, és clar, va escalar immediatament al primer lloc. Aquesta vegada, però, es tractava d’un model xinès i open source. Si penseu que aquí s’acaba la història, doncs tampoc. Aquests nous models han obert la porta a tècniques i entrenaments que es consideraven esgotats i han demostrat que encara queda molt camí per recórrer.
De fet, OpenAI ja està acabant el pre-training del seu nou model Garlic i aviat començarà la fase de post-training (RL), que segons afirmen serà molt superior. Els últims tres models apareguts indiquen que no hem arribat ni al sostre del pre-training (pensàvem que sí) ni, sobretot, del post-training. La cursa, com és lògic, s'ha accelerat. Tot plegat ha desencadenat moltes conseqüències, entre les quals destaca que OpenAI ha declarat internament codi vermell. Mentrestant, el món de la IA generativa es va normalitzant i les empreses comencen a preparar IPOs per sortir al mercat. La primera: Anthropic.
El model DeepSeek 3.2
DeepSeek ha llançat els models 3.2 i DeepSeek Speciale. Aquest últim ha aconseguit la medalla d’or al test de l’Olimpíada Matemàtica i en programació, fita que fins ara només havien assolit OpenAI i Google. A més, aquest model és unes 30 vegades més barat que el Gemini 3 Pro. Són models open weights, molt més frugals que els occidentals en entrenament i ús de recursos, i incorporen un conjunt de novetats molt interessants. DeepSeek ho ha tornat a fer: ha superat els gegants malgrat l’embargament de GPUs imposat per Trump, amb recursos computacionals limitats i un equip petit. Una demostració que no tot són diners i infraestructura, i que el futur passa per models més frugals, més petits i de gran rendiment.
🚀 Launching DeepSeek-V3.2 & DeepSeek-V3.2-Speciale — Reasoning-first models built for agents!
— DeepSeek (@deepseek_ai) December 1, 2025
🔹 DeepSeek-V3.2: Official successor to V3.2-Exp. Now live on App, Web & API.
🔹 DeepSeek-V3.2-Speciale: Pushing the boundaries of reasoning capabilities. API-only for now.
📄 Tech… pic.twitter.com/SC49UdmCZv
🏆 World-Leading Reasoning
— DeepSeek (@deepseek_ai) December 1, 2025
🔹 V3.2: Balanced inference vs. length. Your daily driver at GPT-5 level performance.
🔹 V3.2-Speciale: Maxed-out reasoning capabilities. Rivals Gemini-3.0-Pro.
🥇 Gold-Medal Performance: V3.2-Speciale attains gold-level results in IMO, CMO, ICPC World… pic.twitter.com/ZFGzDMshBy
OpenAI Code Red
En poc temps, OpenAI ha passat d’una posició de domini gairebé total a situar-se com a tercer en els rànquings, cosa que l’ha portat a adoptar una posició defensiva i declarar code red. El mateix que va fer Google fa uns mesos, decisió que l’ha acabat situant al capdavant dels rànquings actuals. Què vol dir code red? Principalment, prioritzar totes les àrees relacionades amb el core, els models i els rànquings. Això implica retirar recursos de projectes com la venda d’anuncis, agents de compra, Health o Pulse —una eina pensada per generar informes personalitzats cada matí— i destinar tant el personal com la computació al desenvolupament de nous models.
Les xifres mostren la urgència: Gemini ha passat de 450 milions d’usuaris actius al juliol a 650 milions a l’octubre, acostant-se als 800–900 milions d’OpenAI. Tot i això, OpenAI continua gestionant prop del 70% de l’activitat relacionada amb assistant i un 10% de la cerca mundial. Més enllà de dominar els rànquings (LMArena), OpenAI vol millorar la part d’imatge per competir amb Nano Banana Pro i reforçar la usabilitat. L’objectiu final: convertir-se en l’assistent personal universal. Com a mesures immediates, acceleren el seu nou model Garlic, que ja finalitza el pre-training, i preparen un nou release, possiblement la setmana vinent, que se situaria per davant de Gemini 3.
Anthropic IPO
Anthropic es planteja sortir a borsa amb una IPO valorada en 300.000 milions de dòlars el 2026. Ha contractat Wilson Sonsini per gestionar-ne el procés. Aquesta valoració implica una facturació esperada d’uns 26.000 milions. La companyia compta amb el suport d’Amazon i Google i, recentment, ha arribat a acords amb Microsoft (que hi invertirà 30.000 milions) i Nvidia (15.000 milions). Si l’IPO es confirma, serà una de les més grans de la història i podria accelerar la d’OpenAI, estimada en 1 trilió de dòlars.
AWS i els agents
Aquests dies AWS ha celebrat el re:Invent, el seu gran esdeveniment anual, on ha presentat moltes novetats centrades en agents d’IA dins la plataforma AgentCore. Quatre són els productes estrella:
-Policy: limita les accions autònomes dels agents sense aprovació humana (per exemple, compres superiors a 100 euros).
-Gateway: permet connectar els agents amb plataformes externes com Slack o Salesforce.
-Evaluations: gestiona l’avaluació dels agents en seguretat, exactitud i fiabilitat.
-Memory: gestiona preferències i context d’usuari.
AWS continua lluny dels grans actors en agents i aquests entorns no són els preferits pels desenvolupadors. Caldrà veure si aquestes novetats redueixen distància o, al contrari, l’amplien. AWS també ha presentat el seu nou model multimodal Nova 2 Omni i servidors basats en el nou xip Trainum3.
Google inclou agents al Workspace Studio
Google ha incorporat agents d’IA al seu Workspace Studio (Gmail, Drive, Docs i Chat). No cal programar i permeten tasques com redactar esborranys, rotar informació o coordinar projectes entre equips. Els agents es poden compartir com fitxers del Drive. Google segueix així el camí iniciat per Microsoft i contribueix a redefinir els fluxos de treball incorporant-hi agents que automatitzen tasques sense coneixements tècnics.
Mistral 3
Mistral ha llançat el seu nou model Mistral 3 i Mistral 3 Large, tots ells open source amb llicència Apache 2.0 i diverses configuracions. El model se situa a l’altura de DeepSeek 3.1 i supera sovint Qwen. Però, amb l’aparició de DeepSeek 3.2 i tota la nova onada de models, aquests resultats han quedat antiquats. En aquest sector, cal córrer molt per quedar-se al mateix lloc —com deia Lewis Carroll a The Red Queen. Mistral 3 s’ha entrenat amb 3.000 GPUs H200, una quantitat modesta, i ofereix variants que funcionen en ordinadors personals o dispositius. L'objectiu: un model amb baixa latència, fiable, que funcioni en entorns petits on-prem i que compleixi els requisits europeus.
Les universitats fan servir IA
Grans universitats com Virginia Tech i Caltech utilitzen IA en el procés d’admissions. Caltech, a més, fa entrevistes amb un xatbot per verificar que l’estudiant entén bé el que ha escrit. El procés s’accelera enormement. Altres universitats com North Carolina Chapel Hill, Stony Brook i moltes més també han adoptat aquests sistemes. Un model d’aquest tipus pot avaluar 250.000 essays en menys d’una hora, incloent-hi la convalidació de crèdits.
NVIDIA i els cotxes autònoms
NVIDIA ha presentat Alpanayo-R1, el primer model per a cotxes autònoms capaç d’assolir el nivell 4 d'autoconducció. A més, ofereix eines per preparar dades, fer training i gestionar el sistema complet. És una novetat clau perquè obre la porta al fet que molts fabricants —europeus i xinesos— incorporin l’autoconducció avançada. Tesla tindrà més competència.
La recerca en IA
DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models
AI Lab: DeepSeek
En aquest article es presenta DeepSeek-V3.2, un nou model d’IA dissenyat per combinar una gran eficiència computacional amb una capacitat de raonament i d’acció molt elevada. Els autors destaquen tres innovacions principals:
-DeepSeek Sparse Attention (DSA): una nova manera de calcular l’atenció que redueix molt el cost computacional, però manté un rendiment alt fins i tot en textos molt llargs.
-Un marc d’aprenentatge per reforç escalable: ampliant significativament la potència de càlcul usada en el postentrenament, el model arriba a nivells de rendiment comparables a GPT-5. La versió més potent, DeepSeek-V3.2-Speciale, fins i tot el supera i mostra un raonament matemàtic i lògic al nivell de models com Gemini-3.0-Pro, aconseguint resultats d’or en les olimpíades internacionals de matemàtiques (IMO) i informàtica (IOI).
-Una gran infraestructura per generar tasques d’agents: han creat un sistema automàtic per generar, a gran escala, dades que simulen situacions en què la IA ha de raonar, prendre decisions i utilitzar eines. Això permet entrenar el model en entorns més realistes i complexos, millorant la seva capacitat de generalització i la robustesa quan segueix instruccions.
The levers of political persuasion with conversational artificial intelligence
AI Lab: LSE, Cornell, Oxford Univ. - Science
Aquest ha estat, segurament, l’article més comentat de la setmana. No és res realment nou, sabem molt bé que la capacitat de persuasió dels models de llenguatge és més alta que la dels humans, però l’article ho posa en un context polític. El que han fet els autors és analitzar fins a quin punt diferents models d’IA poden influir en les opinions de les persones sobre més de 700 temes polítics al Regne Unit. Per fer-ho, han comparat models en diferents fases d’entrenament i amb diferents instruccions de redacció. El resultat més important és que els models postentrenats —els que els desenvolupadors ja han afinat perquè raonin i conversin millor— són amb diferència les més persuasives.També descobreixen que els models ho són especialment quan utilitzen dades, fets i arguments estructurats. Però aquí és on apareix el risc: com més informació elaboren per convèncer, més errors factuals cometen. És a dir, la “IA més convincent” és també la que té més probabilitats de generar desinformació sense voler.
Altres notícies
-Netflix comprarà Warner Bros per 30 $ per acció, incloent-hi estudis i streaming —una operació que pot reconfigurar el sector audiovisual.
-Meta retallarà fins a un 30% la inversió al grup Metaverse i la destinarà a Reality Labs.
-Kling incorpora àudio al seu Vídeo 2.6, capaç de generar efectes de so, diàlegs, etc.
-Google ha llançat Workspace Studio, una solució no-code per construir agents.
-NVIDIA aconsegueix un rècord en la gestió d’entorns MoE, amb servidors NVL72 que rendeixen 10× més.
-OpenAI compra l’empresa emergent Neptune per 400 milions de dòlars, especialitzada en monitoratge i anàlisi de models.
-Meta intenta fitxar dissenyadors top d’Apple i ja n’ha aconseguit alguns.