Esta semana todavía hemos estado pendientes de buena parte del ruido de la anterior: los productos Health de OpenAI y Anthropic y el nuevo agente de Anthropic, que promete dar mucho que hablar (ya vemos que Gemini también está preparando uno…). Pero la IA no se detiene, y han vuelto a pasar muchas cosas. Lo más importante —y también lo más esperado— ha sido el anuncio y los primeros pilotos de **anuncios en ChatGPT**, tanto en la versión gratuita como en la versión de bajo coste GO. La monetización de la IA se acelera: OpenAI podría alcanzar los **20.000 millones de dólares de ingresos este año**, y esto probablemente solo es el comienzo. Todo apunta a que veremos anuncios en más entornos, especialmente en versiones gratuitas o de precio reducido, combinadas con planes muy caros sin restricciones.
Paralelamente, se ha dado a conocer que los ingresos de OpenAI crecen al mismo ritmo que el gasto en infraestructura. Es previsible que, más adelante, los ingresos crezcan mucho más rápido que los costes, pero ya es una buena señal que, ahora mismo, estén alineados. Es tiempo de monetizar. Pero también hemos vivido dramas personales, historias propias de una serie de Netflix. En esta ocasión, en Thinking Machines, la empresa de Mira Murati. Cuando hay mucho dinero, mucho poder y mucha fama, es difícil que estas tensiones no aparezcan.
Apple copia a OpenAI y también está desarrollando un pin del tamaño de un AirTag equipado con varias cámaras, micrófonos, altavoces... que funciona con IA. En investigación también ha habido movimientos interesantes, especialmente en el uso de chatbots para el triaje y la derivación a especialistas, en un estudio que nos llega de China y que podría ayudar a hacer más eficientes nuestros sistemas de salud, un ámbito donde todavía tenemos mucho que aprender del modelo chino.
Google, por su parte, ha lanzado un modelo pequeño y de código abierto capaz de traducir 55 lenguas (también el catalán), con una calidad comparable a los grandes modelos de OpenAI, Google o Anthropic. La licencia permite integrarlo en cualquier producto, e incluso ejecutar la versión más pequeña en un smartphone (4B para móvil, 12B para portátil, 27B en la nube). Pero han pasado muchas más cosas. Veamoslas con detalle.
Anuncios en ChatGPT
OpenAI comenzará a mostrar anuncios en ChatGPT a partir de febrero, tras haber iniciado contactos con una primera hornada de anunciantes. En esta fase inicial, la compañía cobrará por impresiones (visualizaciones) y no por clic, un modelo más cercano al de las redes sociales que al de los buscadores como Google o Amazon.
Los primeros anunciantes han sido invitados a participar en una prueba piloto de pocas semanas, con compromisos de gasto inferiores al millón de dólares por marca. Por el momento, OpenAI aún no dispone de un sistema de autogestión para que las empresas compren anuncios directamente, pero ya está trabajando para desplegarlo.
Los anuncios se mostrarán a usuarios de Estados Unidos, tanto en la versión gratuita de ChatGPT como en un nuevo plan de pago de 8 dólares mensuales. La compañía ha puesto ejemplos de anuncios contextuales, como recomendar una marca concreta cuando el usuario busca una receta. Este despliegue prudente responde a un equilibrio delicado: generar nuevos ingresos sin erosionar la experiencia de usuario, en un entorno donde la publicidad puede resultar intrusiva. Al mismo tiempo, reforzar el negocio publicitario puede ser clave para OpenAI, que busca captar hasta 100.000 millones de dólares en financiación, una cifra sin precedentes para una empresa privada.
Los anunciantes observan con interés el potencial del formato: ChatGPT cuenta con cerca de 900 millones de usuarios activos semanales, y el carácter personalizado de las conversaciones podría hacer los anuncios más efectivos. Aun así, el sector mantiene cautela y, como es habitual, comenzará con pruebas limitadas antes de reasignar grandes presupuestos a este nuevo canal. La estrategia publicitaria de OpenAI está liderada por Fidji Simo, directora de Aplicaciones, con experiencia previa en Facebook e Instacart, una señal clara de que ChatGPT quiere convertirse no solo en un producto tecnológico, sino en una plataforma comercial de gran escala.
Drama en Thinking Machines
Esta semana hemos visto un episodio digno de una telenovela en una de las startups de IA más prometedoras: Thinking Machines Lab, fundada por Mira Murati, exdirectiva de OpenAI.
Según diversas fuentes, uno de los cofundadores, Barret Zoph (CTO), mantenía una relación con una empleada. Paralelamente, su rendimiento habría caído de manera notable, y Murati llevaba meses expresando preocupación tanto por su productividad como por el clima interno. La tensión estalló cuando Murati pidió una reunión con Zoph esperando un encuentro individual, pero se encontró con una reunión improvisada con él, otro cofundador y un tercer trabajador. En aquel encuentro, los tres manifestaron su desacuerdo con la dirección de la empresa y plantearon incluso la posibilidad de marcharse. También habrían pedido que Zoph asumiera el control de todas las decisiones técnicas.
Murati, sin embargo, respondió que él ya era CTO y cuestionó por qué no había estado ejerciendo plenamente sus funciones durante los últimos meses. Dos días después, Zoph fue despedido. Pocas horas más tarde, él y dos colaboradores firmaron el regreso a OpenAI, la empresa que habían dejado un año antes. Murati explicó internamente que había habido problemas de rendimiento, confianza y conducta. Zoph, en cambio, niega cualquier mala praxis y sostiene que solo lo echaron cuando la empresa supo que estaba negociando una salida.
El caso ilustra hasta qué punto la carrera global por la IA no es solo tecnológica, sino también una feroz batalla por el talento. Thinking Machines, que ha levantado una ronda millonaria y nació con un núcleo de antiguos empleados de OpenAI, ya ha visto marchar a tres de sus seis fundadores originales. Murati, que en OpenAI se había ganado fama de líder dialogante y con poco ego, incluso fue CEO interina durante la crisis en torno a Sam Altman. Pero este episodio evidencia las tensiones extremas que viven las nuevas startups de IA, donde el poder interno, el control tecnológico y los movimientos de fichajes pesan tanto como la innovación.
Elon Musk reclama hasta 134.000 millones a OpenAI
Los abogados de Elon Musk han presentado un escrito judicial en el que sostienen que, si Musk gana la demanda contra OpenAI por un supuesto incumplimiento del charitable trust y de los deberes fiduciarios, la organización debería cederle entre 65.500 y 109.430 millones de dólares. También piden que Microsoft —a quien acusan de haber facilitado este incumplimiento— asuma una responsabilidad adicional de entre 13.300 y 25.060 millones. Aunque Musk solo habría aportado unos 38 millones de dólares a los inicios de OpenAI, su defensa argumenta que la compañía debería devolver todos los beneficios generados gracias a aquella contribución inicial.
Para justificar estas cifras, los abogados de Musk se basan en el informe de un perito económico (C. Paul Wazzan, de Berkeley Research Group), que calcula el valor correspondiente a la parte del nonprofit dentro de la estructura de OpenAI y presupone que Musk habría aportado entre el 50% y el 75%. OpenAI ha impugnado esta metodología y ha pedido al juez que descarte gran parte del testimonio por falta de fundamentación clara.
El primer producto de hardware de OpenAI
La semana pasada ya hablábamos del primer dispositivo de hardware de OpenAI, inicialmente descrito como una especie de earpods. Ahora conocemos más detalles. OpenAI ha confirmado que quiere lanzar su primer producto de hardware en la segunda mitad de 2026, un paso que situaría a la compañía en el mercado de consumo más allá del software (Axios). El proyecto se desarrolla con Jony Ive y el equipo de diseño asociado a LoveFrom / io, con talento procedente de Apple.
Según indicios y filtraciones, el objetivo sería un dispositivo sin pantalla, orientado a una experiencia de “IA ambiental”: interacción natural, discreta, sin necesidad de sacar el móvil. Diversas informaciones apuntan a que el audio y la voz tendrán un papel central, con asistencia conversacional en movimiento y manos libres. Ahora bien, algunos documentos judiciales citados por la prensa matizan el formato: no sería un wearable ni un dispositivo in-ear, como unos auriculares. Es relevante porque refuerza una tendencia clara: pasar de pantallas y apps a interacciones basadas en voz y contexto, en un momento en que el sector todavía busca el formato ganador después de varios intentos fallidos de “AI gadgets” de primera generación.
Apple copia OpenAI
Apple está desarrollando un pin wearable con IA del tamaño aproximado de un AirTag, que incorporaría varias cámaras, altavoz, micrófonos y carga inalámbrica, según fuentes cercanas al proyecto. El dispositivo podría llegar tan pronto como en 2027. Si se confirma, situaría a Apple en mejor posición para competir con los dispositivos de IA que prepara OpenAI y con Meta, que ya vende gafas inteligentes con asistente de IA. También se enmarca en la carrera en la que Google, con Samsung, prevé lanzar gafas inteligentes con capacidades de IA.
Anthropic – Herramientas para profesores
Anthropic se ha aliado con Teach For All para lanzar una iniciativa global de formación en IA dirigida a educadores de 63 países. A través de la AI Literacy & Creator Collective (LCC), más de 100.000 docentes y alumnos tendrán acceso a formación y herramientas como el modelo Claude, con el objetivo de crear soluciones adaptadas a las necesidades reales del aula.
El enfoque es claro: los maestros no son simples usuarios, sino co-creadores. Anthropic aporta la tecnología; los docentes, el conocimiento de contexto y el retorno pedagógico. Los primeros resultados ya son tangibles: currículums interactivos en Liberia, apps de matemáticas gamificadas en Bangladesh o espacios digitales alineados con el currículum en Argentina. La iniciativa se organiza en tres ejes: formación en alfabetización en IA, una comunidad global de aprendizaje entre docentes y un laboratorio de innovación con acceso avanzado a Claude. El mensaje de fondo es claro: si la IA ha de contribuir a una educación más equitativa, los docentes deben tener un papel central, también en entornos con menos recursos.
X abre en código abierto su algoritmo
La plataforma X (antigua Twitter) ha vuelto a abrir el código de su algoritmo de recomendación, cumpliendo una promesa reciente de Elon Musk. Sin embargo, como ya ocurrió en 2023, la iniciativa ha sido recibida con escepticismo y algunos críticos la consideran más bien “teatro de la transparencia”. La documentación publicada en GitHub explica que el algoritmo analiza el historial de interacciones del usuario, los contenidos de su red y también publicaciones de usuarios que no sigue, seleccionadas con modelos de aprendizaje automático. Después filtra contenidos bloqueados, silenciados, violentos o considerados spam, y los ordena según la probabilidad de generar interacción, teniendo en cuenta relevancia y diversidad.
Según X, todo el sistema se basa en IA, concretamente en un modelo transformador vinculado a Grok, sin ajustes manuales humanos. Musk defiende que quiere convertir X en un ejemplo de transparencia corporativa, pero el movimiento llega en un contexto de presión regulatoria, multas de la UE y polémicas por el mal uso del chatbot Grok. Por eso, muchos ven la apertura como un gesto simbólico más que como un cambio profundo.
La investigación en IA
Reasoning Models Generate Societies of Thought
Laboratorio de IA: Google, Univ. de Chicago, Instituto Santa Fe
El artículo propone una idea intuitiva: los modelos de razonamiento más avanzados no mejoran solo porque “calculen más”, sino porque se organizan internamente como una pequeña sociedad. Activan diversas perspectivas que se contradicen, se corrigen y convergen, como en una conversación real.
Esta diversidad interna explica por qué aciertan más en tareas complejas. Cuando el razonamiento se guía como un debate, la mejora es más rápida y robusta que cuando el modelo piensa en monólogo. En el fondo, estos modelos funcionan más como un equipo que discute que como una sola voz.
Un chatbot de LLM para facilitar las transiciones de atención primaria a especializada: un ensayo controlado aleatorizado
Laboratorio de IA: Academia China de Ciencias Médicas, Univ. Pekín
Un chatbot de IA para pacientes puede hacer mucho más eficiente el paso de la atención primaria al especialista. En este estudio, los autores presentan PreA, un chatbot codiseñado con actores locales para recopilar información clínica, proponer diagnósticos preliminares, sugerir pruebas y generar informes de derivación.
En un ensayo con 2.069 pacientes y 111 especialistas, el uso de PreA redujo la duración de la consulta un 28,7%, mejoró la coordinación percibida por los médicos y facilitó la comunicación según los pacientes. El hecho de que el sistema funcione igual con o sin soporte humano confirma que puede operar de manera autónoma.
La conclusión es clara: co-diseñar la IA con profesionales locales es más efectivo que limitarse a afinar modelos con datos, especialmente en entornos con recursos limitados.
Informe Técnico de Gemma
Laboratorio de IA: Google
Google presenta TranslateGemma, una familia de modelos abiertos de traducción basada en Gemma 3. La promesa es hacer posible una traducción de alta calidad en todas partes, incluso en móviles, y en 55 idiomas.
En lugar de modelos gigantes, Google ha concentrado el conocimiento de sus modelos Gemini en versiones más pequeñas. El resultado: el modelo 12B (para laptops) supera al Gemma 3 de 27B (pensado para ir a la nube), y el 4B (para smartphones en local) se acerca al rendimiento del 12B. Más con menos: menos parámetros, menos coste y menos latencia.
Además, las ganancias en traducción también mejoran la capacidad de traducir texto dentro de imágenes, gracias al carácter multimodal del modelo. La estrategia es clara: 4B para el móvil, 12B para el portátil, 27B para la nube. Traducción abierta, local y accesible.
Otras noticias
- Runway ha lanzado el modelo Gen 4.5. En una prueba con 1.000 usuarios para distinguir vídeos reales de generados por IA, el acierto fue del 57,1%; en rostros y manos humanas, del 58–65%.
- Demis Hassabis (DeepMind) afirma que las empresas chinas van unos seis meses por detrás, pero son muy rápidas acortando distancias, aunque les cuesta liderar la frontera tecnológica.
- Gemini dentro de Chrome se está convirtiendo progresivamente, y sin mucho ruido, en un agente capaz de hacer tareas repetitivas en el navegador, al estilo de los de Anthropic, OpenAI o Manus.
- TikTok ha lanzado una nueva app, PineDrama, con microdramas en episodios de un minuto. Este formato podría generar hasta 26.000 millones de dólares en 2030.
