Dos fets aparentment menors han provocat moviments importants a les borses. Dimarts, el Nasdaq va caure un 1,4%, NVIDIA va perdre un 3,5% i Palantir gairebé un 10%. En un mercat dominat per poques empreses amb un pes desproporcionat en l’economia americana, qualsevol senyal genera oscil·lacions fortes.

Les dues causes principals:

  1. Unes declaracions de Sam Altman a The Verge: “Are investors over excited? My opinion is yes”, va afirmar Altman, afegint que molts inversors probablement perdran molts diners. L'empresari va reconèixer l’“exuberància irracional” del moment, tot i que va insistir que el valor social final serà enorme. És el clàssic patró dels mercats winner-takes-all: uns pocs guanyadors s’emporten gairebé tot el valor i la resta en surten escaldats. Els períodes hype generen sobrevaloracions a curt termini, però alhora impulsen innovació i, a llarg termini, creen valor real.
     
  2. Un informe del projecte NANDA del MIT: Basat en 150 entrevistes, una enquesta a 350 empleats i l’anàlisi de 300 projectes, el document conclou que el 95% dels projectes d’IA generativa fracassen. Les causes: manca d’aprenentatge real sobre la tecnologia i escassa integració amb els sistemes empresarials existents. La majoria dels diners es destinen a eines de vendes i màrqueting. Els projectes externs tenen una taxa d’èxit del 67%, mentre que els interns només arriben al 30%. Una constatació poc sorprenent, però que, amb els preus inflats dels mercats, alimenta la volatilitat.

El GPT-5 Pro és més llest que tu

Ja fa temps que s’inclou l’IQ en els benchmarks dels models de llenguatge. Doncs bé, el GPT-5 Pro ha assolit una puntuació de 148, en territori de superdotació avançada. No trigarà a aparèixer un model que superi qualsevol humà que hagi existit mai en aquest test, amb molta més memòria i coneixements acumulats. Ara bé, més enllà de l’anècdota, això només indica que els LLMs ja poden superar-nos en determinats indicadors cognitius, de la mateixa manera que les màquines fa temps que ens superen en força o velocitat. El repte és saber aprofitar-ho.

L'actualització del model V3 de DeepSeek

DeepSeek ha actualitzat el seu model V3 amb la versió 3.1, llançada discretament a Hugging Face. El V3 és la base que serveix per entrenar el model de raonament (R1). L’empresa està treballant amb processadors Huawei 901, que han generat més problemes dels previstos i han retardat noves versions. Tot i això, aquest nou model mostra millores consistents i ja és comparable amb els d’Anthropic. Senyal que la pròxima iteració podria disputar la primacia als models propietaris.

Intel i la política industrial

Els Estats Units podrien adquirir un 10% d’Intel, mentre que Softbank invertirà 2.000 milions de dòlars (un 2% de les accions). Intel aconsegueix així una línia de finançament que necessita urgentment. Un recordatori que la política industrial nord-americana mai no ha desaparegut i que l’administració Trump és pragmàtica: les seves polítiques s’assemblen cada cop més a les xineses.

La setmana en la recerca

GPT5 i les matemàtiques

Una prova més de com GPT5-pro supera les matemàtiques a nivell de recerca de frontera.

Can We Fix Social Media? Testing Prosocial - Interventions using Generative Social Simulation

AI Lab: Universitat d’Amsterdam - Maik Larooij, and Petter Törnberg

Una recerca molt interessant que mostra que la polarització a les xarxes socials no es deguda als algorismes, ni té solucions fàcils modificant-los, sinó que és inherent als incentius humans i per tant demana solucions més estructurals.

Hierarchical Reasoning Model

AI Lab: Sapitent Intelligence, Singapur

Fa un parell de setmanes parlàvem d’aquesta recerca que va impressionar a mig món. El document va tenir prop de dos milions de descàrregues. Es tractava d’un model jeràrquic que aconseguia al ARC-AGI uns resultats del 40,3%, és a dir molt per sobre de tot el conegut fins ara. Doncs bé tot això ha forçat al grup d'ARC-AGI a reproduir els resultats i es veu que no són correctes, els resultats reals són semblants als d’o3 i el tractament suggereix que s’han fet servir tècniques de memorització, data augmentation i fine tuning per aquest cas específic. És a dir no es tracta del fet que el model sigui capaç de resoldre ARC-AGI en absolut. Massa maco per ser veritat. 

Altres notícies

-Meta enceta la quarta reestructuració del seu grup de superintel·ligència.
-Snowflake revela que bona part dels seus ingressos provenen dels models d’OpenAI, Anthropic i Google.
-Apple anunciarà al setembre no només l’iPhone 17 i el Vision Air, sinó també traducció automàtica en temps real amb els AirPods, integrada a iOS 26.
-Meta prepara unes ulleres de realitat augmentada per menys de 1.000 dòlars (uns 800).
-Huawei integra els seus xips Kirin 5G, eludint sancions nord-americanes.
-Sam Altman avança que GPT-6 arribarà en menys de dos anys i es focalitzarà en personalització i memòria.
-Qwen-Image Edit, un “Photoshop amb text”, ja és aquí.
-Google presenta Nano Banana, un nou model de generació d’imatges que ja es pot provar a LM Arena. Les primeres impressions: espectacular.