La IA no descansa. Aquest Nadal i Cap d’Any hem assistit a una colla de moviments que han sorprès a tothom i que, a primer cop d’ull, costen d’entendre. Nvidia, el líder indiscutible del maquinari per a IA, ha anunciat una operació sobre una empresa emergent de nínxol que ho estava fent molt bé, però que en principi no semblava una amenaça directa per al seu lideratge. Parlem de Groq, una empresa amb només nou anys de vida i una valoració que els més optimistes situaven per sota dels 7.000 milions de dòlars, però on Nvidia —segons les xifres que circulen— estaria pagant al voltant de 20.000 milions. Per què?
I això no és tot. Meta també ha fet una jugada forta comprant Manus, un agent d’IA que fa servir models d’altres empreses (principalment Anthropic, però també d’altres). En aquest cas, es parla d’un preu d’entre 2.000 i 3.000 milions de dòlars. De nou: una empresa d’origen xinès, d’un centenar de persones, amb una valoració prèvia d’uns 500 milions, però Meta en pagaria diverses vegades més. Per què? En tots dos casos, a més, no estem parlant tècnicament d’una compra clàssica.
És una llicència d’ús del producte combinada amb la incorporació dels fundadors i del nucli dur a Nvidia i Meta, respectivament. És a dir: una manera de tenir el millor de l’adquisició —tecnologia i talent— minimitzant els riscos d’una revisió reguladora agressiva, sigui per competència o per consideracions de seguretat nacional. Però aquestes no són les úniques coses que han passat aquestes festes. De fet, per a la IA el 2026 ha començat abans que acabés el 2025. Per cert: en la seva al·locució de fi d’any, el president Xi Jinping va parlar d’IA, de models i de processadors. Una mostra més que la IA ja és, sense cap dubte, un element central del progrés i la competitivitat de les nacions.
Per què una prima tan elevada?
Parlar de Groq és parlar de Jonathan Ross, el seu fundador i un dels creadors de les TPU de Google. Groq es va fundar el 2016 amb l’objectiu de portar al mercat una versió del tipus de processadors que Google havia desenvolupat internament i que, en aquell moment, no eren accessibles com a producte comercial. Les TPU són força diferents de les GPU de Nvidia. Són dispositius optimitzats per fer unes poques operacions de la manera més eficient possible. És un intercanvi: es renuncia a part de la versatilitat de les GPU per guanyar eficiència extrema, essencial per a companyies com Google, que volen reduir al mínim el cost per consulta i, així, mantenir un model de negoci publicitari amb costos controlats.
Tant les TPU com Groq tenen un element clau: un compilador capaç d’optimitzar les operacions al màxim. Amb el temps, Groq ha incorporat memòria SRAM (molt més ràpida però més cara que la memòria habitual) i ha aconseguit rendiments molt alts en inferència. La seva aposta és tenir tantes dades com sigui possible dins aquesta memòria, evitant haver de recórrer constantment a memòria externa, com passa en moltes arquitectures GPU, on el moviment de dades és costós en temps i energia.
La pregunta és: per què Groq és ara interessant per Nvidia? Perquè els models d’IA es dirigeixen cada cop més a sistemes de “raonament”, on la inferència pesa cada vegada més. És a dir: quan el model no només respon, sinó que “pensa”, genera rutes alternatives, verifica, i decideix. Aquesta nova fase fa que la inferència ja no sigui un complement, sinó un camp de batalla. I això és precisament el que Groq —i les TPU de Google— fan bé. Els plans de Nvidia exigeixen tenir versions especialitzades del seu nou processador Rubin, dedicades a fer inferència a baix cost. Podria Nvidia desenvolupar-ho internament? Probablement sí. Però el món de la IA va molt de pressa i Nvidia té, literalment, desenes de milers de milions en caixa.
El més racional pot ser comprar Groq i guanyar temps. Això és el que ha fet (o, com a mínim, això és el que ha aconseguit mitjançant la fórmula de llicència + incorporació de personal clau). Veurem, doncs, versions dels processadors de Nvidia —com el Rubin CPX, presentat al setembre— cada vegada més especialitzades en tasques que ja avui són una part central del mercat.
De fet, això no és nou: AWS fa anys que aposta per processadors especialitzats, separant arquitectures per entrenament i inferència (Inferentia i Trainium). Hi ha un altre element molt important: la necessitat de traspassar dades de la memòria als processadors fa que les GPU de Nvidia siguin molt dependents de memòries d’alta velocitat, com la HBM, un component car i amb pocs fabricants —que s’han fet d’or. Si Nvidia pot explorar altres arquitectures o camins, redueix dependències en una cadena de subministrament estratègica i limitada.
Meta compra Manus per 3.000 milions de dòlars
Manus és l’agent de l'empresa emergent xinesa Butterfly Effect, fundada a Pequín per Xiao Hong, que va estudiar enginyeria de programari a HUST (Wuhan). El 2023, el fons ZhenFund va invertir-hi amb una valoració de 14 milions de dòlars. Després hi han entrat altres fons com HongShan i el gegant Tencent. Manus és un agent molt bo. Jo el faig servir des de fa més d’un any i l’explico a classe. Darrerament, fa presentacions molt convincents (a l’estil BCG) i és especialment bo produint informes i recerca estructurada. És un agent que, en lloc de basar-se en un model propi, fa servir models externs —sobretot Anthropic— i els orquestra de manera molt eficient.
Potser no tothom sap que Mark Zuckerberg parla un bon mandarí, ha estat sovint a la Xina i la seva dona és xinesa. I Xiao Hong és, probablement, un dels CEO xinesos amb un estil més occidental, similar en certa manera al de Xiaomi o al de Jack Ma: tots ells, d’alguna forma, hereus del model de “producte + narrativa” que va perfeccionar Steve Jobs.
Manus són un centenar de persones i van moure la seva seu a Singapur ja fa un temps. En aquell moment ja semblava que buscaven posicionar-se per una adquisició. Els fons que hi participen són early-stage i busquen una sortida relativament ràpida. D’altra banda, Meta necessita producte per competir amb Google i OpenAI i integrar-lo a les seves plataformes. Manus podria ser el millor agent generalista avui al mercat. Com veieu, tot encaixa.
La fórmula de llicència amb incorporació de figures clau és la clàssica per evitar intervencions reguladores: l’estàs comprant, sense comprar-la del tot. I aquest cas és també un exemple que els ecosistemes de la Xina i els Estats Units no estan tan separats com sovint alguns volen fer creure. Les grans multinacionals operen als dos costats i això podria ser l’inici de moltes més operacions d’aquest tipus, que ajudaran a consolidar un ecosistema d’empreses emergents ric i potent a la Xina.
2026, l’any de les IPO: el capital privat vol fer caixa
Després d’uns anys marcats per la pujada de tipus d’interès i la sequera de sortides a borsa, el 2026 s’està perfilant com l’any del gran retorn de les IPO tecnològiques. El motiu és tan simple com potent: el capital privat —fons de capital de risc i capital d'inversió— necessita materialitzar guanys després d’una dècada acumulant participacions en “unicorns” que han crescut molt en valor, però que encara no han trobat una finestra clara per convertir-ho en liquiditat.
La peça clau d’aquest nou cicle és la IA i, sobretot, el grapat de companyies que han dominat la narrativa tecnològica dels últims dos anys. Segons informació del Financial Times, SpaceX, OpenAI i Anthropic —tres de les privades més valuoses dels Estats Units— estan preparant-se per sortir a borsa tan aviat com el 2026, amb l’objectiu de captar desenes de milers de milions de dòlars en cada operació.
Les xifres que es mouen són d’una magnitud inèdita en el sector tecnològic. El mateix FT apunta que SpaceX podria arribar a una valoració de l’ordre de centenars de milers de milions (en vendes secundàries recents s’ha parlat d’uns 800.000 milions de dòlars) i que una IPO podria batre rècords mundials de captació.
En paral·lel, Reuters informava fa només uns dies que OpenAI ha tancat una de les rondes privades més grans de la història amb SoftBank, i que el mercat ja especula amb una eventual sortida a borsa que podria situar la companyia en valoracions de centenars de milers de milions.
Hong Kong també vol el seu gran moment
A l’altra banda del món, Hong Kong es prepara per capitalitzar l’onada amb la sortida a borsa d’empreses xineses d’IA. Un cas emblemàtic és MiniMax, una de les empreses emergents més destacades del sector, que segons Reuters busca captar fins a uns 539 milions de dòlars en la seva IPO i ho fa amb una valoració aproximada d’uns 6.500 milions de dòlars.Aquesta operació s’emmarca en un revifament important del mercat hongkonguès, que el 2025 va recaptar molt més capital que el 2024 gràcies a un retorn de l’apetit inversor, especialment en IA i semiconductors.
La Xina regula la interacció de la IA amb persones
La Xina ha proposat noves normes per regular els serveis d’IA que imiten personalitats humanes i poden crear vincles emocionals amb els usuaris. L’esborrany obligaria les empreses a avisar sobre l’ús excessiu, monitorar indicis de dependència o malestar i intervenir si detecten addicció o risc psicològic. També reforça el control sobre algoritmes, dades i privacitat, i fixa límits estrictes de contingut relacionats amb seguretat nacional, desinformació, violència o pornografia. El missatge és clar: els companions d’IA ja es tracten com una qüestió de salut i seguretat, amb possibles efectes més enllà de la Xina.
La IA a la recerca – les millors idees del 2025
The Shape of AI: Jaggedness, Bottlenecks and Salients
AI Lab: Ethan Mollick
Ethan Mollick defensa que, malgrat els grans avenços, la IA continua tenint una capacitat “irregular”: pot ser excel·lent en tasques molt complexes i, alhora, fallar en d’altres aparentment simples. A això li diu la “frontera dentada” (jagged frontier), i és una bona explicació de per què la IA encara costa d’aplicar de manera robusta al treball real. Aquesta irregularitat crea colls d’ampolla: un únic punt feble —memòria limitada, al·lucinacions, manca d’accés a dades o barreres reguladores— pot impedir automatitzar del tot un procés, fins i tot quan la IA fa gairebé tota la feina. Mollick conclou que el progrés arribarà a “sotracs”: quan es resol un bloqueig, el sistema fa un salt sobtat (com ha passat amb la generació d’imatges), però sempre n’apareixen de nous i l’espai per als humans continua sent clau.
Reinforcement Learning with Verifiable Rewards (RLVR)
AI Lab: Tülu 3 & DeepSeek-R1
Els models de llenguatge (com ChatGPT o Gemini) no han estat entrenats per “dir la veritat”, sinó per imitar com escriu la gent a internet. Això els fa molt bons generant textos plausibles, però també explica les al·lucinacions: el model aprèn què és probable, no què és correcte. Per reduir aquest problema, guanya força el RLVR, un entrenament que recompensa el model quan encerta d’una manera verificable. En codi o matemàtiques, per exemple, es pot comprovar si el resultat és correcte i premiar-lo. L’efecte és que el model prioritza la lògica i la precisió, encara que el seu estil sigui menys “humà”. Això pot fer la IA molt més fiable en tasques on l’error és crític.
Test-Time Compute (Thinking models)
AI Lab: OpenAI
Fins ara, la major part de la “intel·ligència” es construïa durant l’entrenament, i la resposta arribava de seguida. Però el test-time compute canvia el paradigma: si la pregunta és difícil, el sistema pot dedicar-hi més temps i computació per millorar l’exactitud. A la pràctica, això vol dir generar diverses rutes de raonament, comparar-les i verificar-les abans de respondre. És un “intercanvi temps per precisió” que pot fer els models molt més forts en raonament complex, i alhora desplaça costos cap als servidors d’inferència, augmentant la demanda de computació en temps real.
World Models
AI Lab: David Ha & Jürgen Schmidhuber, Yann LeCun
Els models de llenguatge són sobretot text: sovint no “entenen” la realitat física, sinó que reprodueixen patrons. Els world models volen resoldre-ho entrenant sistemes que prediguin l’estat següent del món, no només la paraula següent.
Aprenent amb vídeo i dades sensorials, aquests models poden construir un “motor físic intern” capaç de simular què passarà després d’una acció. La idea és combinar-los amb agents perquè, abans d’actuar (en un robot o en un sistema informàtic), la IA pugui “simular” el resultat i evitar errors. Un exemple visible és el treball de Google DeepMind amb Genie 3, orientat a crear mons interactius per entrenar agents en entorns simulats.
Altres notícies
-OpenAI està millorant molt els seus models d’àudio (que són diferents dels que fem servir a ChatGPT) de cara al seu dispositiu personal que està desenvolupant amb Jonathan Ive i que sembla que estarà basat en àudio.
-Segons un estudi de SignalFire, la demanda d’entry level a les 15 empreses de tecnologia més grans ha baixat un 25%, però dades del NACE indiquen que un 49% pensa que el mercat de treball és bo o molt bo. Estem davant d’una reestructuració més que d’una davallada.
-Hi ha rumors que Tesla adquirirà xAI. Veurem.
-Un Tesla Model 3 ha completat un viatge de costa a costa dels Estats Units en dos dies i 20 hores amb zero intervencions humanes, totalment autoconduït.
-Neuralink començarà a ser produït en quantitat el 2026.
-Waymo arribaria aviat a una valoració de 100.000 milions de dòlars, després d’anys de feina. També aviat estarà disponible a Londres i possiblement a altres països d’Europa.
-OpenAI busca un director de preparedness per vigilar els riscos de la IA. El sou és de 555.000 dòlars més accions.
-Tesla ha començat a produir el Cybercab.
-Més del 20% dels shorts a YouTube han estat generats per IA i fan bilions. Es deu al fet que el nou algoritme de feed recompensa el volum de visites per sobre de la dificultat.
-xAI ha comprat un edifici a Memphis per construir un tercer centre d’IA.
-OpenAI està provant la integració d’anuncis a les seves respostes.
-Investigadors xinesos han creat una pell artificial que permetrà als robots sentir com els humans.