DeepSeek ha presentat una nova generació de models d'intel·ligència artificial dissenyats per competir de tu a tu amb els sistemes més avançats dels Estats Units. La companyia xinesa afirma que els seus nous models de raonament V3.2 i V3.2 assolixen un rendiment comparable als estàndards actuals de la indústria, simbolitzats per GPT-5 d'OpenAI i Gemini 3 Pro de Google, tot això en un context de restriccions comercials que limiten l'accés de Xina als semiconductors més avançats.

DeepSeek descriu el model V3.2 com un punt d'inflexió. L'empresa sosté que aquest sistema "assoleix el nivell de GPT-5" en proves públiques de raonament estàndard, un repte que requereix capacitats d'abstracció, lògica i resolució de problemes molt sofisticades. La variant anomenada Speciale, per la seva banda, es situaria "només lleugerament per sota del Gemini-3.0-Pro" en aquestes mateixes tasques, tancant significativament la bretxa de rendiment que solia separar els models xinesos dels seus homòlegs nord-americans.

La innovació no es limita a les comparatives generals. DeepSeek detalla que el model Speciale incorpora capacitats de demostració matemática d'alt nivell, heretades del seu model especialitzat DeepSeek-Math-V2. Aquesta integració li ha permès, segons la companyia, assolir "medalles d'or" en competicions acadèmiques d'elit com la Olimpíada Internacional de Matemàtiques (IMO) i la Olimpíada Internacional d'Informàtica (IOI), escenaris tradicionals per provar el límit del raonament simbòlic i algorísmic de la IA.

Un dels avenços tècnics més destacats és la integració nativa del raonament en l'ús d'eines. El model V3.2 és presentat com el primer de la companyia que integra aquesta capacitat tant en mode estàndard com en "mode de pensament". Aquesta arquitectura permetria a la IA descompondre problemes complexos, analitzar pas a pas, i executar crides a funcions o API externes dins d'un cicle de raonament coherent. El resultat, asseguren, són "respostes més detallades i precises" en tasques que requereixen interacció amb el món digital, com anàlisi de dades, automatització o cerca d'informació en temps real.

Dades sintètiques i una estratègia de codi obert

DeepSeek atribueix aquests progressos a un monumental esforç en l'enginyeria de dades. La companyia ha creat un corpus sintètic d'entrenament per a agents IA que comprèn més de 1.800 entorns simulats i 85.000 instruccions complexes. Aquest conjunt de datives, generat per a simular interaccions del món real, permet als models practicar i aprendre habilitats de raonament i ús d'eines en un espai controlat però ric en variabilitat. Consistent amb la seva filosofia de transparència i col·laboració, DeepSeek ha posat el model V3.2 a disposició de la comunitat global de desenvolupadors en plataformes obertes com Hugging Face i ModelScope. La variant Speciale, degut al seu major cost computacional i consum de tokens, estarà disponible inicialment només a través d'una API comercial. Aquesta decisió reflecteix un equilibri entre l'accessibilitat i la sostenibilitat econòmica.

En un exercici d'honestedat tècnica poc freqüent, DeepSeek reconeix que, malgrat els avenços, el V3.2 "encara es queda enrere" dels seus competidors nord-americans en dos fronts crítics: l'eficiència en l'ús de tokens (el que afecta al cost operatiu) i la profunditat del coneixement general del món (el common sense i fets culturals). La companyia identifica clarament la causa: les limitacions en potència computacional per al procés de pretraining, probablement vinculades a les restriccions d'accés a xips d'ultima generació. El seu objectiu declarat és superar aquest escull ampliant aquesta capacitat computacional en el futur.

Un ecosistema en expansió i reconeixement internacional

Aquest llançament no és un fet aïllat. En setmanes recents, DeepSeek ha ampliat la seva gamma amb DeepSeek-OCR, un sistema multimodal de codi obert capaç de comprimir i processar text mitjançant percepció visual, optimitzant l'ús de recursos. A més, la companyia ha guanyat notorietat després que el seu model V3.1 liderés un experiment d'inversió automatitzada, superant a rivals com GPT-5 i Gemini 2.5 Pro en la gestió d'una cartera simulada, un camp que requereix raonament financer sofisticat i capacitat predictiva. Fundada a Hangzhou, DeepSeek s'ha consolidat com a part de la nova ona de desenvolupadors xinesos d'IA que aposten pel codi obert, juntament amb gegants com Baidu, Tencent i Alibaba. Aquesta estratègia li ha permès guanyar adeptes ràpidament a nivell global i influir en el desenvolupament de la comunitat.

No obstant, l'ascens de DeepSeek i les seves homòlogues xineses es produeix sota l'ombra de les tensions geopolítiques i les regulacions digitals. Els experts alerten que les estrictes lleis de censura i control de contingut que regeixen a Xina podrien constituir una barrera significativa per a l'acceptació i expansió internacional d'aquests models. La necessitat de filtrar continguts sensibles o ajustar-se a una visió del món específica podria limitar la seva aplicabilitat i competitivitat en mercats occidentals, on l'ús de plataformes com WeChat ja està restringit. La carrera per la supremacia en IA, doncs, no es juga només en els laboratoris, sinó també en les àrees de la governança digital, l'accés a tecnologies clau i la batalla per definir els estàndards globals.