Las empresas de inteligencia artificial se adentran cada vez más en aplicaciones específicas, más allá del chatbot genérico. Esta semana hemos visto cómo dos de los líderes del sector, OpenAI y Anthropic, han presentado versiones de sus modelos orientadas a la salud. Son dos aproximaciones diferentes, pero con un objetivo común: contribuir a resolver un problema central para todos —la sanidad— mediante tecnología avanzada. El interés es evidente: más de 230 millones de consultas sobre salud cada semana en ChatGPT.

También hablamos de lo que vendrá en pocas semanas: el nuevo modelo de DeepSeek, que promete mucho y que probablemente formará parte de la respuesta que se está cocinando en los grandes laboratorios occidentales. Nadie cree que OpenAI, Anthropic o Google dejen ni una sola rendija en el mundo de la programación —uno de los segmentos más rentables hoy en día— para que entre DeepSeek, ni tampoco sus competidores chinos.

Y, finalmente, abordamos los nuevos dispositivos post-smartphone, de los cuales ya empezamos a tener información relevante.

En el ámbito de la investigación, esta semana también hemos visto una confluencia interesante con los trabajos de DeepSeek y del MIT CSAIL. Ambos afrontan el mismo gran reto: cómo gestionar enormes volúmenes de información de contexto sin que el rendimiento del modelo se degrade. Proponen soluciones diferentes: la de DeepSeek la veremos implementada en su nuevo modelo dentro de un mes; la del MIT es muy probable que alguien la acabe adoptando también. Todo apunta a que acabaremos viendo combinaciones de ambas aproximaciones.

OpenAI Health y Anthropic Health

Tras las vacaciones, OpenAI y Anthropic han anunciado, con pocos días de diferencia, iniciativas centradas en la sanidad. Más que una carrera entre rivales, este movimiento se puede leer como una señal clara: el sector ha llegado a un punto en el que quedarse al margen ya no es la opción prudente. Durante años, la salud se había tratado como un territorio a posponer: excesiva regulación, una fragmentación operativa enorme y un coste altísimo de los errores. Pero ahora la conclusión implícita es que los modelos no solo son más potentes, sino sobre todo más gobernables: más fáciles de delimitar, auditar e integrar con garantías.

También hay un factor económico evidente: la necesidad de encontrar nichos de mercado monetizables con fuertes barreras de entrada. Tras los éxitos en programación, la sanidad parece el siguiente gran vertical, junto con los agentes generalistas.

La propuesta inicial no es que la IA “decida”, sino que coordine. En un entorno donde la información está dispersa entre historiales médicos, medicación, analíticas, imágenes, wearables y antecedentes, nadie tiene el tiempo ni la posición para reconstruir todo el contexto bajo presión.

En qué difieren OpenAI y Anthropic es en la manera de entrar. OpenAI apuesta por extender su asistente general al mundo de la salud: el mismo punto de entrada, pero con capas adicionales de privacidad y control de acceso para gestionar datos sensibles. Anthropic, en cambio, plantea una entrada más estrecha e institucional, incrustando Claude dentro de los flujos de trabajo existentes en hospitales, servicios de salud y aseguradoras.

Probablemente, con el tiempo, habrá una cierta convergencia. Pero, de entrada, los clientes son muy diferentes: en un caso, usuarios finales; en el otro, organizaciones sanitarias —y también usuarios, claro.

En este contexto, OpenAI ha comprado Torch, una aplicación de salud, por unos 100 millones de dólares, y Anthropic ha hecho un movimiento similar.

Anthropic Claude Cowork

Los agentes generalistas están de moda tras el éxito de Manus, y Anthropic también ha debutado con su propuesta: Claude Cowork.

Claude Cowork es una herramienta que no solo responde preguntas, sino que puede actuar directamente sobre los archivos del usuario. La idea es que la IA funcione como un “compañero de trabajo”: le das una carpeta y una tarea —ordenar documentos, convertir recibos en hojas de cálculo, redactar textos a partir de apuntes— y el agente ejecuta los pasos de manera bastante autónoma, con mucho menos “ir y venir” que el chat tradicional.

Por el momento, Cowork se lanza como research preview y está disponible a través de la app de macOS para los suscriptores Claude Max (planes de 100 o 200 dólares mensuales), un segmento de precio alto claramente orientado al uso profesional.

Si demuestra fiabilidad, Cowork podría acelerar un cambio de paradigma: pasar de "asistentes" que aconsejan a "operadores" que hacen trabajo real.

https://x.com/claudeai/status/2010805682434666759

El nuevo modelo de DeepSeek

Como hemos ido explicando en esta columna, DeepSeek está a punto de presentar la nueva generación de su modelo: DeepSeek V4. Este será el sucesor del DeepSeek V3.2, lanzado el pasado diciembre, que en algunos benchmarks ya superaba a GPT-5 y Gemini 3 (aunque en aquel momento OpenAI ya había publicado la versión 5.2, la comparación se hizo con la 5).

Todo apunta a que esta nueva versión mejorará de manera significativa en programación, superando tanto al modelo de OpenAI como al de Anthropic, especialmente en grandes bases de código, tareas de refactoring o detección de errores.

El lanzamiento se espera para el nuevo año lunar (mediados de febrero) e incorpora una nueva técnica clave —Engram, que detallamos en el apartado de investigación— publicada también en código abierto en GitHub. La idea es disponer de una memoria estática donde consultar datos y resultados, en lugar de recalcularlo todo cada vez.

Un modelo que, sin duda, promete mucho.

Apple usará Gemini

Apple ha confirmado que la próxima gran actualización de Siri se basará en los modelos Gemini de Google, con un acuerdo estimado en 1.000 millones de dólares anuales, tras un largo retraso en la evolución de su asistente de voz con IA. La compañía asegura que esta nueva versión llegará a lo largo de este año y combinará ejecución en el dispositivo con su propio sistema de nube privada, manteniendo —según Apple— los estándares habituales de privacidad.

El acuerdo con Google es de largo recorrido y sitúa a Gemini como el pilar de los llamados Apple Foundation Models. Aun así, Apple no renuncia a otras alianzas: la integración con ChatGPT continuará activa para consultas más complejas. El movimiento llega en un momento en que Apple recibe una presión creciente de competidores que han apostado fuerte por la IA, mientras Google recupera peso estratégico con Gemini y se consolida como proveedor clave incluso para socios históricos.

https://x.com/claudeai/status/2010805682434666759

El hardware de OpenAI y Jony Ive

Según una filtración atribuida al leaker de la cadena de suministro Smart Pikachu, Sam Altman (OpenAI) y Jony Ive (exjefe de diseño de Apple) estarían preparando su primer dispositivo de consumo: una especie de auricular de IA que, en lugar de ir dentro de la oreja como los AirPods, se situaría detrás de la oreja y se guardaría en un estuche en forma de “huevo”.

El proyecto, con el nombre interno “Sweetpea”, se describe como un producto de audio “especial” y podría incorporar un chip de 2 nm (tipo smartphone) para ejecutar funciones avanzadas e, incluso, actuar como un pequeño “mando” del teléfono: hablar con un asistente de voz, hacer llamadas, controlar música o ejecutar acciones habituales del móvil. De momento, sin embargo, no hay confirmación oficial sobre qué hará exactamente ni sobre cómo se diferenciará de los auriculares actuales más allá del relato AI-first.

La filtración apunta a un posible lanzamiento hacia septiembre y sugiere que este podría ser solo el primero de una familia de dispositivos (se ha especulado con formatos domésticos o incluso con un “bolígrafo” inteligente). Tras los fracasos mediáticos de la primera oleada de gadgets de IA, como el Humane AI Pin, el tándem Altman–Ive buscaría una entrada más familiar —el audio y la voz— para probar si la IA puede ganarse un lugar estable más allá del teléfono móvil.

https://x.com/zhihuipikachu/status/2010745618734759946

¿Quién se lleva los ingresos de la IA?

La IA genera muchos ingresos, pero —como suele pasar— no están repartidos de manera equitativa. El mercado manda.

Entre OpenAI y Anthropic concentran aproximadamente el 85% de los ingresos totales del sector. Si ampliamos a las diez empresas principales, la cifra sube hasta el 94%. Estas son: OpenAI, Anthropic, Cursor, Cognition, ElevenLabs, Midjourney, Lovable, Suno, xAI y Perplexity.

Es cierto que hay cierta doble contabilización: Cursor o Perplexity, por ejemplo, utilizan modelos de Anthropic u OpenAI y, por tanto, también los pagan. Y hay que tener en cuenta un CAPEX enorme, superior a los 20.000 millones de dólares anuales, que a menudo no se refleja en estas cifras.

Aun así, muchas de estas empresas ya han superado los 100 millones de dólares de ingresos anuales. Suno —una aplicación de creación musical— genera más de 200 millones; Cognition, unos 400 millones; y líderes como Cursor, el asistente de programación más popular, superan ya los 1.000 millones anuales.

https://x.com/ealmirall/status/2011454663087002025

La investigación en IA

Memoria Condicional mediante Búsqueda Escalable

Laboratorio de IA: DeepSeek y Universidad de Pekín

DeepSeek defiende que los grandes modelos de IA son como estudiantes brillantes que, con demasiada frecuencia, pierden tiempo "reconstruyendo" de memoria datos simples en lugar de ir a buscarlos. En un nuevo trabajo científico, la empresa propone añadir una especie de "biblioteca interna" —un módulo de memoria llamado Engram— para que los modelos puedan consultar hechos básicos de manera inmediata y barata, sin gastar tanta potencia de cálculo.

La sorpresa es que esta memoria no solo mejora el conocimiento factual, sino también el razonamiento, la programación y las matemáticas. Al descargar las primeras capas del modelo del trabajo mecánico de recordar, la IA queda más “libre” para afrontar problemas complejos y gestionar textos largos con más fiabilidad.

IA y la próxima economía

Tim O’Reilly

El relato dominante sobre la IA promete una explosión de productividad y crecimiento económico. Pero, alerta O’Reilly, una economía no funciona solo produciendo más, sino haciendo circular el valor. Sin poder adquisitivo ampliamente distribuido, la abundancia tecnológica puede acabar concentrando la riqueza y debilitando el sistema.

La IA puede acelerar descubrimientos, pero entre la innovación y la prosperidad compartida hay un largo camino. Si la sustitución de empleo reduce salarios sin crear nueva demanda, la pregunta es inevitable: ¿quiénes serán los clientes del futuro? La conclusión es clara: la IA puede enriquecer la sociedad, pero solo si también se construye su sistema circulatorio.

Modelos de Lenguaje Recursivos

Laboratorio de IA: MIT CSAIL

Esta investigación propone una nueva forma de hacer que los modelos de lenguaje trabajen con prompts mucho más largos que su límite de contexto. En lugar de encajarlo todo dentro de la ventana del modelo, los Recursive Language Models (RLMs) tratan el texto largo como un entorno externo que el modelo puede explorar y fragmentar, llamándose a sí mismo de manera recursiva.

El resultado es que pueden gestionar entradas hasta cien veces más largas que el contexto habitual e, incluso con textos más cortos, ofrecen mejores resultados con un coste igual o inferior.

Otras noticias

  • Slack ha lanzado una nueva versión de su asistente de IA. Entre otras funciones, puedes preguntarle sobre conversaciones y te hace un resumen.
  • GLM-Image, un modelo de texto a imagen de la empresa Zhipu, se ha entrenado íntegramente con chips de Huawei. Acaba de salir.
  • Meta quiere doblar su producción de gafas Ray-Ban: todo indica que están teniendo éxito.
  • MedGemma, una especie de “ChatGPT para médicos”, publica la versión 1.5, que incluye soporte para imágenes médicas como TAC (CT scans) y resonancias magnéticas (MRI), entre otras.
  • Google ha presentado una nueva versión de Veo, la 3.1, con vídeo en formato 9:16, escalado a 4K y una mejor consistencia de los personajes (uno de los grandes puntos débiles hasta ahora).
  • TSMC no da abasto: ni siquiera con la expansión a Arizona es capaz de fabricar todos los nuevos chips pendientes. Invertirá 100.000 millones de dólares más para crear tres nuevas plantas en EE. UU., además de las tres que ya está construyendo. Según algunas informaciones, esto se habría facilitado por un acuerdo que recortaría los aranceles a Taiwán en un 15% a cambio de las plantas.
  • Anthropic Labs se está expandiendo. Es el grupo responsable del protocolo MCP y de Claude Code, dos piezas que han generado muchos ingresos para la empresa.
  • Microsoft se ha convertido en el principal cliente de Anthropic, con unos 500 millones de dólares al año.
  • China ha prohibido —otra vez— la entrada de los chips Nvidia H200.
  • Cerebras, un fabricante de chips, estaría levantando 1.000 millones de dólares para alcanzar una valoración de 22.000 millones.
  • Meta ha llegado a un acuerdo con tres centrales nucleares para garantizar la energía necesaria para sus centros de IA.
  • a16z ha levantado 15.000 millones de dólares para sus cinco nuevos fondos (Growth, Apps, Infrastructure, American Dynamism, Bio & Healthcare) y unos 3.000 millones adicionales para otras estrategias de inversión.