Sí, aquesta setmana també hi ha models nous. OpenAI ha llançat un model d'imatge, el GPT 1.5 Image, que competeix bé amb el Nano Banana de Google. En molts casos fa imatges més realistes i en els temes de correcció d'imatges, ho fa igual de bé. Tots dos estan molt igualats i dependrà probablement més dels gustos personals i del tipus de tasca. Però en tots dos casos es dona una empenta important a les infografies, presentacions i diagrames que tots fem servir habitualment.

Finalment, ja hi ha converses entre Amazon i OpenAI. Un necessita models que funcionin bé i l'altre, recursos econòmics i capacitat de còmput. Si els incentius hi són, al final les coses passen. I males notícies per a Europa. La Xina ja té un prototipus de maquinari de litografia ultraviolada equivalent al que fa ASML. El que era l'única àrea on Europa tenia un avantatge global comença a desaparèixer. És el resultat de les limitacions a l'exportació, era totalment previsible.

GPT Image 1.5

OpenAI ha presentat el seu model GPT Image 1.5 – disponible a ChatGPT. És un model molt millor i molt més ràpid que l'anterior que competeix cara a cara amb Nano Banana de Google, també és més barat. Igual que Nano Banana, no només crea imatges sinó que ens permet editar-les com si fos Photoshop, però a partir de prompts, funciona bé i és còmode. Preserva molt millor els detalls i sobretot la consistència de les imatges i els textos, la qual cosa era un problema amb molts models.

També la llum i la seva aparença és probablement més professional. Va quatre vegades més ràpid que el model anterior. També hi ha un apartat dedicat a imatges dins de ChatGPT que permet reutilitzar-les o fer-ne servir l'estil. Igualment, pots fer servir un estil dels que proporciona el sistema. Aquestes imatges permeten fer molt millors presentacions de PowerPoint i infografies, quelcom sempre útil.

OpenAI i Amazon: un acord de $10B

Amazon està en converses amb OpenAI per invertir-hi $10B. En l'acord s'inclou que OpenAI faria servir els xips Trainium d'AWS. Un cop finalitzat l'acord, el valor d'OpenAI arribarà als $500B, la valoració més gran que mai ha aconseguit una empresa d'IA. L'acord segueix el mateix esquema que els anteriors amb CoreWeave, AMD i Broadcom, on alhora hem vist un acord d'inversió juntament amb l'ús de xips. La nova estructura d'OpenAI fa possible tots aquests acords, malgrat que Microsoft tingui un 27% de l'empresa.

Cal recordar que aquests increments de valor també suposen un increment de valor per a Microsoft. La visió estratègica d'aquest acord és doble. D'una banda, ens trobarem amb una disrupció del mercat de GPU avui dominat gairebé exclusivament per Nvidia. De l'altra, posiciona OpenAI com el model genèric que està a tot arreu i tothom té, el model que tots fem servir per defecte, un posicionament altament desitjable perquè crea efectes-xarxa i esdevé el model estàndard.

Nvidia creix en models OpenSource

Nvidia ha llançat una nova família de models Neotron 3 i ha adquirit SchedMD, el creador de Slurm, una aplicació líder en la gestió de treballs en supercomputació i IA. Neotron està disponible en tres versions: nano, super per a tasques agèntiques, i ultra per a raonaments complexos. Recordem que fa poc també Nvidia va llançar Alpamayo-R1 per a vehicles autònoms i Cosmos per a IA física. Alguns us preguntareu per què Nvidia produeix models OpenSource.

La raó és simple: fer créixer els seus processadors implica models que els facin servir, i per això un camí excel·lent és l'OpenSource, que és el que es fa servir a universitats i centres de recerca. Actualment, l'OpenSource està dominat per models xinesos, ja alguns d'ells entrenats amb processadors xinesos. Aquest és el futur que Nvidia vol combatre. En altres àmbits, tenir un model per a vehicles autoconduïts o robots que funcionés al nivell dels de Tesla implicaria que tots els cotxes que volguessin disposar d'autoconducció haurien de fer servir processadors Nvidia, el mateix amb els robots. Els dos camps tenen el potencial per superar amb escreix la demanda de GPU de la IA.

Gemini 3 Flash

Google ha llançat el seu model Gemini 3 Flash, una versió molt més petita i molt més ràpida del model Gemini 3 a un preu sensiblement inferior. El Gemini 3 Flash ho fa tan bé com el Gemini 3 Pro, en alguns casos millor, i està a la par amb GPT 5.2. El model Flash és el que estarà darrere de les apps de Gemini, la cerca, API i eines. És especialment valuós en agents on la velocitat en el temps de resposta és primordial.

TPU i Meta & PyTorch

Google i Meta han unit forces per crear TorchTPU, una versió de PyTorch per a TPU. PyTorch és la llibreria OpenSource sobre la qual estan construïts la major part dels models i, en general, la gran majoria de les eines de Deep Learning. Aquesta versió especialment destinada a obtenir un rendiment excel·lent amb les TPU de Google representa una amenaça important per a Nvidia, que fins ara estava protegida pel seu programari CUDA desenvolupat al llarg de 18 anys. Fins ara les millors llibreries per fer anar les TPU de Google eren desenvolupaments interns i no estaven disponibles. Aquest és, doncs, un pas més per erosionar el domini de NVIDIA en els processadors d'IA. Es pensa obrir parts del projecte en OpenSource.

L'ASML xinès

Finalment, la Xina ha tingut èxit en la construcció d'un prototipus d'EUV (extreme ultraviolet lithography) que es fa servir per fabricar els xips més avançats. Fins ara només ASML era capaç de fer-ho. Es tracta d'un programa patrocinant pel govern xinès on han estat clau antics enginyers xinesos d'ASML i ha estat coordinat per Huawei. Sembla que l'objectiu és entrar en producció al voltant del 2028. Aquest esforç era un tema conegut arreu. Singularment, fa pocs dies sortia a The Guardian una notícia que es feia ressò d'un comentari de la Comissió Europea en la direcció que Europa havia de fer servir indústries com ASML com a arma contra els Estats Units i la Xina. És sorprenent com mitjans i polítics poden anar tan despistats.

La Recerca en IA

On the Interplay of Pre-Training, Mid-Training, and RL on Reasoning Language Models 
AI Lab: Carnegie Mellon University

L'entrenament per Reinforcement és molt costós i és important saber en quines condicions realment aporta. Aquest estudi analitza fins a quin punt l'entrenament avançat millora realment la capacitat de raonament dels models d'intel·ligència artificial. Mitjançant experiments totalment controlats, els investigadors mostren que les tècniques d'aprenentatge per reforç només aporten guanys reals quan el model encara té marge de millora i se'l posa davant de reptes just al límit del que pot fer. L'estudi també revela que una fase intermèdia d'entrenament, sovint ignorada, és clau per millorar el rendiment, i que premiar els passos del raonament —i no només el resultat final— fa els sistemes més fiables. Els resultats ajuden a entendre millor com s'ha d'entrenar la IA perquè raoni de manera més robusta i coherent.

Towards a Science of Scaling Agent Systems 
AI Lab: Google Research, DeepMind, MIT

Escalar ha estat en LLM la solució universal i hi ha una gran temptació a traslladar-la als agents d'IA. Aquests "agents" —capaços de raonar, planificar i actuar— s'estan convertint en el model dominant per a aplicacions reals, però encara se sap poc sobre què en determina el rendiment. Un nou estudi estableix regles clares que expliquen quan convé usar un sol agent i quan coordinar-ne diversos. Els resultats mostren que afegir més agents no sempre millora el rendiment: en moltes tasques complexes, la coordinació introdueix costos i errors que poden empitjorar els resultats. En canvi, una coordinació centralitzada funciona molt bé en tasques paral·leles, mentre que altres estructures només són útils en casos molt concrets. El treball ofereix un marc predictiu que permet triar l'estratègia òptima d'agents segons el tipus de tasca, i ajuda a entendre millor com dissenyar sistemes d'IA més eficients i fiables.

DeepSeek v3.2: Pushing the Frontier of Open Large Language Models 
AI Lab: DeepSeek AI

DeepSeek, sempre cal aprendre de DeepSeek, presenta una nova generació de models d'IA capaços de gestionar textos molt llargs de manera molt més eficient. Gràcies a una nova tècnica d'atenció que redueix dràsticament el cost computacional sense perdre qualitat, el sistema pot raonar sobre contextos enormes amb menys recursos. A això s'hi afegeix un entrenament avançat basat en reforç i agents especialitzats que milloren el raonament i l'ús d'eines. El resultat és un rendiment comparable —i en alguns casos superior— al dels millors models comercials actuals, amb una versió d'alt rendiment que assoleix resultats d'elit en competicions matemàtiques i de programació.

Altres notícies

-Yann LeCun aixeca $500M per a la seva nova empresa emergent AMI Labs amb una valoració de $3B. Alex Lebrun, cofundador de Nabla, esdevindrà el CEO de la nova empresa. 
-L'App Store de ChatGPT ja està disponible. 
-TikTok USDS ja està signat. Una aliança d'empreses entre Oracle, Silver Lake i MGX que vigilarà i auditarà les operacions de TikTok. 
-Donald Trump ja ha signat l'ordre executiva que fixa les prioritats de la NASA, entre elles la de tornar a la lluna el 2028 i establir-ne una base dos anys després. 
-OpenAI està on track per aconseguir batre el seu objectiu de $13B en ingressos pel 2025. El mes passat ja va aconseguir arribar als $19B, triplicant els ingressos del gener. 
-Thinking Machines (Mira Murati) traurà models el 2026, així com un producte destinat a consumidors finals. 
-Meta traurà un model de vídeo "Mango" el 2026.
-Coursera comprarà Udemy per $950M. 
-Meta ha introduït SAM Audio, un model capaç d'aïllar sons d'una pista d'àudio complexa a partir de prompts
-Manus ha aconseguit un ARR de $125M. 
-Tesla ja fa proves dels seus robotaxis sense conductor a Austin.