Davos siempre da mucho que hablar y este año Davos ha estado dominado por la IA. Raramente oímos nada nuevo en Davos y los discursos están dirigidos a los políticos: siempre se trata de discursos muy genéricos donde cada participante vende su libro. Ahora bien, la concentración de mensajes nos indica la magnitud de la tragedia, es decir, la importancia que para el desarrollo y la política tiene hoy en día la IA.

De todos los mensajes, el cambio de herramienta a plataforma básica que nos explica Jensen Huang es muy importante. También la visión futurista de Elon Musk, que bien nunca acierta en los tiempos pero siempre acierta en el qué. Dario Amodei y Demis Hassabis tocan más de pies en tierra y nos hablan de la realidad de la automatización: pronto capaz de hacer software end-to-end y del hecho de que todavía faltan muchas piezas (p. ej. continuous learning). Dos visiones del vaso medio vacío y medio lleno. Satya Nadella nos habla de una visión del futuro que comparto plenamente.

Todas estas son visiones que deberían interpelarnos: ¿qué haremos nosotros? ¿Y cómo lo haremos lo suficientemente rápido para que sea relevante? Estamos, nos guste o no, en una carrera que redefinirá el mundo, el poder, la economía y, por lo tanto, la capacidad de los países de ofrecer bienestar. También esta semana cabe destacar que en casi todas partes hemos visto protestas por los asesinatos del ICE en Minneapolis. Protestas con sordina si queréis: nadie se atreve a enfrentarse de cara al poder, y el poder es Trump, no las tech. Pero esta vez hemos visto incluso a los empleados de Palantir alzar la voz ante lo que es insoportable e intolerable.

Davos 2026

En Davos 2026, el mensaje compartido (con matices importantes) es que la IA ya no es “una tecnología más”, sino el tema central: por un lado, promesa de productividad y abundancia; por otro, choque laboral, desigualdad y nuevos riesgos. En este marco, las voces más citadas han dibujado ocho ideas bastante claras:

Jensen Huang: la IA como obra de infraestructura

En Davos, Jensen Huang llevó la conversación a tierra: para él, la IA no es una app ni un “truco” de software, sino una nueva era de infraestructura. Describió el momento actual como una gran ola de inversión física —centros de datos, redes, fábricas y, sobre todo, electricidad— porque el cuello de botella no será la imaginación, sino la capacidad de desplegar computación a escala.
También insistió en que esto reordenará la economía: quien domine la infraestructura y la cadena de suministro tendrá ventaja, y la competición será tanto industrial como tecnológica. En su relato, el gran cambio es que la IA pasa de ser “herramienta” a ser plataforma básica, como lo fueron Internet o la electricidad: invisible, omnipresente y determinante.

Elon Musk: aceleración extrema y cuello de botella energético

Musk insiste en predicciones muy agresivas sobre el ritmo: IA más inteligente que humanos en un horizonte muy corto y una economía cada vez más automatizada, con robots por todas partes. Pero añade un punto: el límite no será solo el chip, sino la electricidad y la infraestructura para alimentar centros de datos y robótica.

Dario Amodei (Anthropic): la disrupción del trabajo es inminente

Amodei es probablemente el más contundente a corto plazo: sostiene que los modelos están a punto de poder hacer gran parte del trabajo de ingeniería de software end-to-end, lo que afectaría sobre todo a perfiles júnior y tareas rutinarias. La conclusión es clara: si esto se materializa y se generaliza, el problema no es técnico, es social y político (transición, formación, renta, desigualdad).

Demis Hassabis (Google DeepMind): La IA general es posible, pero no "mañana", y faltan piezas

Hassabis mantiene una postura más prudente: ve plausible llegar a sistemas muy generales dentro de la década, pero remarca que los sistemas actuales todavía están lejos de algunas capacidades clave (aprendizaje continuo, razonamiento a largo plazo, etc.). En resumen: sí a la ambición, pero alerta con el calendario y con confundir “muy bueno en algunas cosas” con “general”.

Satya Nadella (Microsoft): “gestores de mentes infinitas” y tokens como nueva mercancía

Nadella pone el foco en el cambio de oficio: pasaremos de "hacer el trabajo" a coordinar agentes ("gestionar mentes infinitas"). Y, sobre todo, refuerza la idea de que el ganador económico será quien tenga tokens (computación) más baratos, lo que vuelve a traer al centro el debate sobre energía e infraestructuras.

Jamie Dimon (JPMorgan): si va demasiado rápido, habrá tensión social

Dimon lanza una alerta institucional: la IA puede impulsar la productividad, pero si el desplazamiento laboral es demasiado rápido, puede desbordar la capacidad de adaptación de la sociedad. Defiende la coordinación entre gobiernos y empresas (reciclaje, redes de seguridad) e incluso abre el debate sobre límites a despidos masivos vinculados a la automatización.

Larry Fink (BlackRock): riesgo de una nueva desigualdad “al estilo globalización”

Fink hace una analogía que ha corrido mucho: si la IA hace a los trabajos de cuello blanco lo que la globalización hizo a muchos de cuello azul, hay que afrontarlo ahora. Advierte que los primeros beneficios ya se están concentrando en quien controla modelos, datos e infraestructura, y pregunta “qué pasa con el resto”.

Kristalina Georgieva (FMI): “tsunami” laboral, sobre todo para jóvenes y economías avanzadas

La directora del FMI pone números al relato: una parte grande de los puestos de trabajo se verán afectados (mejorados, transformados o eliminados), con un impacto especialmente fuerte en economías avanzadas y en trabajos de entrada (donde hay muchos jóvenes). Su mensaje es que no estamos lo suficientemente preparados y que la transición puede ampliar desigualdades si no se gobierna bien.

Moonshot Kimi 2.5

Esta semana, la compañía china Moonshot AI ha presentado Kimi K2.5, un nuevo modelo fundacional que quiere destacar especialmente en dos áreas clave: la programación y la interpretación de datos visuales. Según la empresa, el modelo es multimodal, es decir, puede trabajar no solo con texto sino también con imágenes y vídeo, e incluso generar código a partir de este tipo de inputs. Otra característica notable es su capacidad para coordinar una especie de “enjambre” de agentes: hasta un centenar de subagentes especializados que pueden trabajar en paralelo para resolver tareas complejas.

Moonshot ya había lanzado Kimi K2 el año pasado, un modelo que recibió buenas valoraciones por sus habilidades en programación y por su potencial para impulsar aplicaciones basadas en agentes. De hecho, comenzó a ganar presencia entre desarrolladores de Estados Unidos que buscaban alternativas más asequibles a los grandes nombres del sector, como OpenAI o Anthropic.

Este movimiento se enmarca en un contexto más amplio: las empresas chinas continúan acelerando el ritmo de lanzamientos y alimentan una competencia global cada vez más intensa. Y mientras Moonshot avanza, otros actores como DeepSeek también preparan nuevos modelos, reforzando la sensación de que la carrera por liderar la IA generativa es ya plenamente internacional.

https://x.com/Kimi_Moonshot/status/2016021783833673897
https://x.com/ArtificialAnlys/status/2016250137115557953

OpenAI Prism

OpenAI ha presentado Prism, una nueva herramienta pensada para que hacer un artículo científico sea menos “ir saltando de ventana en ventana” y más un flujo único. Es un espacio de trabajo web (gratuito con una cuenta personal de ChatGPT) donde escribes directamente en LaTeX, colaboras en tiempo real y tienes GPT-5.2 integrado dentro del mismo documento: puede revisar redacción y estructura, comprobar coherencia del razonamiento, ayudar con ecuaciones, figuras y citas, e incluso buscar literatura para incorporarla al manuscrito. La idea clave es que la IA no queda como un “chat al lado”, sino que entiende el proyecto (texto, revisiones, referencias, partes del paper) y puede hacer cambios “in place”. También hay funciones muy de laboratorio: convertir ecuaciones o diagramas de pizarra a LaTeX y opciones como image-to-code o edición por voz.

¿Por qué importa? Porque es una apuesta clara por llevar la IA al workflow (como pasó con los editores de código asistidos por IA): no promete investigación autónoma, sino acelerar trabajo humano —escribir, revisar, coordinar, dar forma a un paper— con contexto completo. Y llega en un momento en que OpenAI dice que el volumen de uso científico es lo suficientemente grande como para justificar una interfaz específica: un informe compartido con Axios habla de unos 8,4 millones de mensajes semanales sobre temas avanzados de ciencia y matemáticas.

https://x.com/OpenAI/status/2016209462621831448

El nuevo dispositivo de Apple

Esta semana ha reaparecido una idea que hace unos meses parecía “quemada”: un pin con IA. Según diversas filtraciones, Apple estaría probando un dispositivo portátil de tamaño similar a un AirTag (un poco más grueso), con cámaras, micrófonos, altavoz, botón físico y carga magnética, y con un horizonte tentativo hacia 2027 —aunque el proyecto todavía sería embrionario y perfectamente cancelable. El movimiento se entiende dentro de la carrera por la IA “en tiempo real”, menos basada en teclear y más en “mirar y preguntar”: traducir un letrero al momento, identificar un producto, capturar una nota de una reunión o registrar trabajo de campo con un toque, con los auriculares haciendo de voz y el móvil quedando en segundo plano. La misma lógica explicaría por qué Apple querría sincronizar este pin con AirPods o, a medio plazo, con unas posibles gafas inteligentes.

Ahora bien, el contexto es importante: la última ola de "IA que llevas puesta" chocó con la realidad. **El caso más sonado, Humane AI Pin, acabó mal (baja adopción, devoluciones elevadas) y finalmente se cerró y se vendieron activos a HP.** Esto deja claro que el cuello de botella no es solo el modelo: son la batería, el calor, la ergonomía social (que no sea raro llevarlo) y, sobre todo, la privacidad de un dispositivo que graba y escucha. ¿Por qué importa? Porque si Apple entra en este terreno, está diciendo que cree que puede resolver los "problemas aburridos" que hacen fracasar estas categorías... y, de rebote, normalizar una nueva interfaz: la IA como capa ambiental que interpreta el mundo mientras caminas.

Protestas contra ICE en Minneapolis

Se suceden las protestas internas en las empresas tech por los asesinatos en Minneapolis a manos del ICE y, en general, por toda la actuación de este cuerpo.

Los líderes de las empresas tecnológicas están expresando públicamente su rechazo a todo lo que está sucediendo con el ICE y los asesinatos de Minneapolis. Sam Altman ha dicho al New York Times: “ICE is going too far”. Y ha añadido: “There is a big difference between deporting violent criminals and what’s happening now, and we need to get the distinction right”. Otras figuras como Jeff Dean (director científico de DeepMind/Google), Yann LeCun o Vinod Khosla han denunciado los hechos. También el CEO de Anthropic se ha manifestado sobre el tema diciendo en X: “given the horror we’re seeing in Minnesota, its emphasis on the importance of preserving democratic values and rights at home is particularly relevant". Incluso los empleados de Palantir, que es quien ha desarrollado buena parte del software que utiliza el ICE, han expresado su total rechazo y han pedido que Palantir deje de trabajar con el ICE, afirmando que esta colaboración sería nefasta para la empresa cuando la administración vuelva a ser demócrata.

Anthropic: una nueva Constitución para Claude

Anthropic ha actualizado la “Constitución” de Claude, el documento que hace de brújula para que su modelo decida cómo responder, qué evitar y cómo interactuar con las personas. La nueva versión es más explícita y detallada que la anterior (publicada en 2023) y pretende hacer más “audibles” los criterios que orientan el comportamiento del sistema. Un punto relevante es que Anthropic refuerza la idea de un entrenamiento basado en principios éticos más que en correcciones humanas directas caso por caso. El texto ordena estos principios en torno a cuatro ejes: seguridad, ética, cumplimiento normativo y utilidad. Esto se traduce en pautas concretas: evitar salidas nocivas, detectar situaciones delicadas (por ejemplo, riesgos de salud mental) y reconducir al usuario hacia recursos adecuados cuando es necesario.

La actualización también incorpora una mirada más "a largo plazo": habla del bienestar sostenido del usuario e incluso abre debates poco habituales en documentos corporativos, como la posibilidad de que en el futuro se deba discutir el estatus moral de algunos sistemas de IA. ¿Por qué importa? Porque en un momento en que los modelos son más potentes y más omnipresentes, el diferencial ya no es solo rendimiento: la confianza y la gobernanza pasan a ser parte del producto. Anthropic parece querer ocupar el papel de referente "safety-first", haciendo visibles (y revisables) sus criterios. Esto puede pesar mucho en cómo reguladores, empresas y usuarios valoran qué significa "IA responsable" en los próximos años.

Clowdbot

Esta semana ha ganado mucha notoriedad Clowdbot, un nuevo agente de inteligencia artificial que se ha hecho viral por su capacidad de actuar como un asistente digital mucho más autónomo de lo que estamos acostumbrados. Su idea es sencilla pero potente: no se limita a responder preguntas, sino que puede utilizar un ordenador real, navegar por internet y ejecutar tareas concretas en nombre del usuario. Se puede gestionar desde aplicaciones de mensajería como WhatsApp o Telegram, donde le puedes escribir o hablar para que haga acciones como organizar correos, consultar calendarios o incluso reservar viajes y restaurantes.

Uno de los elementos que lo distinguen es su memoria persistente, ya que mantiene el contexto dentro de una única conversación y recuerda todo lo que se ha hecho en ella. Además, incorpora un componente de proactividad: puede tomar la iniciativa y contactar con el usuario para sugerir pasos o avisar de algo relevante.

El proyecto también ha sido noticia porque inicialmente llevaba otro nombre, pero tuvo que modificarse para evitar similitudes con marcas ya existentes dentro del sector. Más allá de la curiosidad tecnológica, Clowdbot sirve como ejemplo claro de hacia dónde avanza la IA agéntica: sistemas que no solo informan, sino que actúan.

La investigación en IA

Razonamiento Agente para Modelos de Lenguaje Grandes

Laboratorio de IA: Urbana-Champaign, Meta, Amazon, DeepMind, San Diego, Yale
https://arxiv.org/pdf/2601.12538

Este artículo de revisión propone que estamos entrando en una nueva etapa: pasar de ver los grandes modelos de lenguaje como "máquinas de texto" a entenderlos como agentes capaces de planificar, actuar y aprender de la interacción con el entorno. En lugar de limitarse a responder preguntas, estos sistemas pueden descomponer objetivos en pasos, ejecutar acciones (por ejemplo, llamar a herramientas, consultar fuentes, probar hipótesis) y ajustar su comportamiento en función de lo que sucede.

Los autores organizan este campo en tres capas complementarias. La primera es el razonamiento fundacional, que incluye los mecanismos básicos para que el modelo planifique y tome decisiones. La segunda es el razonamiento autoevolutivo, donde el agente mejora con la experiencia: aprende estrategias, corrige errores y se hace más robusto con métodos de entrenamiento posterior (como refuerzo). La tercera es el razonamiento colectivo, cuando varios agentes colaboran —como un equipo— repartiéndose roles y coordinándose para resolver tareas más complejas.

Índice Económico Antrópico – Comprendiendo los efectos de la IA en la economía

Laboratorio de IA: Anthropic
https://www.anthropic.com/economic-index

El Anthropic Economic Index es una iniciativa de Anthropic para medir cómo se está integrando la inteligencia artificial (especialmente Claude) en la economía real a partir de datos reales de uso. En lugar de hacer predicciones teóricas, el índice se basa en millones de conversaciones anónimas con Claude.ai y datos de la API para ver qué hacen realmente las personas con IA en su trabajo y en tareas cotidianas.

Los puntos clave son:

  • Muestra cómo se difunde el uso de la IA a nivel geográfico y por sectores — hay países y regiones donde el uso es mucho más intensivo que en otros.
  • Analiza cómo se está usando la IA en tareas laborales: muchos usos se concentran en tareas técnicas o de programación, pero también hay adopción en educación, ciencia y negocios.
  • Distingue entre aumentación y automatización: gran parte de las interacciones (más del 50%) corresponden a IA que complementa y ayuda al usuario, en lugar de hacer todo el trabajo de manera automática.
  • El índice también revela disparidades económicas claras, con países y ocupaciones de alto nivel de renta y educación utilizando más estas tecnologías, lo que puede amplificar desigualdades si no se gestiona bien.

El objetivo del índice no es solo describir la actualidad, sino dar una base de datos y herramientas para investigadores, responsables políticos y empresas para entender el impacto de la IA en el mercado laboral y en la productividad global.

Puestos de trabajo desplegados en el frente

Laboratorio de IA: Tom Hollands – a16z
https://www.a16z.news/p/forward-deployed-job-titles

El artículo explica cómo los nombres de puestos de trabajo (“job titles”) pueden generar realidades nuevas dentro de las empresas, no solo reflejarlas. Como ejemplo paradigmático, Palantir creó el título de “forward-deployed engineer” para un grupo de ingenieros que trabajaban directamente con clientes y proyectos complejos, y esto no solo reconoció el valor real de aquel trabajo, sino que hizo que más talento quisiera aquel rol y que el mercado lo considerara estratégico. Esta idea —llamada “title arbitrage”— dice que dar nombres nuevos y ambiciosos a ciertas funciones puede cambiar la percepción y el valor de estas funciones, ayudando a las empresas a destacar competencias que son cada vez más críticas en un entorno empresarial y tecnológico que evoluciona rápidamente.

Otras noticias

  • Softbank invertirá $30B en OpenAI, que está en proceso de captar $100B.
  • TikTok ha llegado a un acuerdo con una chica de 20 años de Chico por adicción y depresión debidas a la red social; es el primero de muchos.
  • Amazon cierra sus tiendas Amazon Fresh y las Go (sin dependientes) y se focaliza en dar un servicio de 30 minutos a las entregas de Whole Foods.
  • China aprueba el primer contingente de importación de chips H200 de Nvidia.
  • Anthropic sube las previsiones de ingresos un 20% hasta los $18B.
  • Los precios de Waymo ya están muy cerca de los de Uber o Lyft. El precio medio de un viaje con Waymo es de $19,69. Waymo hace más de 90.000 viajes al mes, solo en San Francisco.
  • Microsoft ya está usando su nuevo chip, el Maia 200: la carrera de la eficiencia no para.
  • OpenAI ha fichado a Ann O’Leary —una antigua asesora de Clinton— como responsable de políticas globales, es decir, su lobby con gobiernos. Es un hecho remarcable por el color político de Ann en tiempos de Trump.
  • Anthropic ha integrado apps MCP en Claude, cosa que ya pasaba en OpenAI. Apps como Slack, Figma, Asana o Box ya están disponibles para Anthropic cowork.
  • Apple está negociando con Starlink integrar conectividad directa vía Starlink en los iPhone 18 Pro.
  • ElevenLabs, la empresa de Londres dedicada a la clonación de voces, ha lanzado un álbum de música hecho completamente con IA.
  • Elon Musk ya venderá robots a finales de 2027. Parece que todo esto de los robots llegará más deprisa de lo que esperábamos.
  • Los robotaxis de Tesla ya funcionan sin conductor humano de seguridad en Austin.