Esta ha sido una semana marcada por la infraestructura. Tanto OpenAI como Tesla, Apple y muchas otras empresas continúan invirtiendo sumas millonarias para construir la nueva infraestructura de inteligencia artificial que debe permitir el paso de las webs a los agentes. Las infraestructuras de IA ya no son solo centros de datos —que pronto también tendremos en el espacio—, sino también robotaxis y robots humanoides. Las grandes empresas tecnológicas se están expandiendo en estos tres ámbitos que definirán el futuro. También vemos cómo la carrera por la rentabilidad empieza a tomar forma. Anthropic prevé ser rentable en 2028, y OpenAI poco después
Mientras tanto, Siri parece que finalmente usará Gemini, consiguiendo por fin entender algo, y la IA generativa llega a Tinder. Además, esta semana hemos conocido dos investigaciones potencialmente importantes, orientadas a desarrollar modelos capaces de aprender de manera continuada —un objetivo histórico de la IA que podría cambiarlo todo. Finalmente, se ha publicado un artículo sobre un investigador automático y el anuncio de OpenAI de sus planes para desarrollar un asistente de investigación en 2026 y un investigador autónomo en 2028. ¿Os imagináis disponer de un número ilimitado de investigadores e ingenieros a un coste muy bajo —solo el de la computación? Bien, este es el futuro.
La nube de Google va al espacio
Google ha anunciado el proyecto Suncatcher, que consiste en instalar un centro de IA en el espacio. Puede parecer extraño, pero tiene dos ventajas clave:
- Energía solar prácticamente ilimitada.
- Refrigeración natural en condiciones de espacio.
Durante 2027 ya veremos un piloto con cuatro TPU —sus GPU— en órbita.
¡Nuestros TPU se dirigen al espacio!
— Sundar Pichai (@sundarpichai) November 4, 2025
Inspirado en nuestra historia de "moonshots", desde la computación cuántica hasta la conducción autónoma, el Proyecto Suncatcher está explorando cómo podríamos algún día construir sistemas de cómputo de ML escalables en el espacio, aprovechando más la energía del sol (que emite más energía que 100… pic.twitter.com/aQhukBAMDp
OpenAI llega a un acuerdo con Amazon por 38.000 millones de dólares
Las necesidades de computación de OpenAI parecen inacabables. La empresa ha firmado un acuerdo con Amazon por valor de 38.000 millones de dólares para utilizar su infraestructura basada en NVIDIA. El acuerdo forma parte del plan de expansión de infraestructura de 1,4 billones de dólares. Es relevante no solo por su magnitud, sino porque permitirá a OpenAI acceder inmediatamente a esta capacidad de cálculo. Aun así, AWS no podrá acceder ni comercializar los modelos de OpenAI, ya que esta tiene un acuerdo de exclusividad con Microsoft.
Tesla y los robotaxis
Tesla ha presentado sus planes de expansión de los robotaxis, que incluyen 1.000 unidades en San Francisco y 500 en Austin antes de finales de año, así como la ampliación a diez ciudades más de EE. UU., entre ellas Florida, Nevada y Arizona. A diferencia de los competidores, Tesla no necesita micromapping: sus robotaxis utilizan el mismo software de los coches Tesla convencionales y “entienden” el entorno solo con visión, lo que hace posible un despliegue inmediato una vez obtienen la licencia.
Aquí están mis suposiciones sobre cuántos Robotaxis tendrá Tesla en funcionamiento a finales de 2026.
— Farzad (@farzyness) 3 de noviembre de 2025
Las regiones metropolitanas se basan en ofertas de empleo disponibles públicamente de Tesla para puestos relacionados con pruebas y/o operaciones de Robotaxi.
El tamaño de la flota se basa en suposiciones de… pic.twitter.com/FQt0VxP4Dx
Además, Tesla dispondrá de un nuevo chip AI5, fabricado por Samsung con litografía de TSMC en Texas y Arizona. Será 40 veces más rápido y 10 veces más económico que el de NVIDIA, y 3 veces más eficiente por vatio. La producción comenzará en 2026
El nuevo chip AI5 de Tesla
— Brian Roemmele (@BrianRoemmele) November 4, 2025
Diseño propio
40 veces más rápido
8 veces más cómputo
9 veces más memoria
5 veces más ancho de banda
Rutas de código reducidas a ~5
10 veces más barato por inferencia que Nvidia
3 veces más eficiente por vatio
Fabricado por Samsung con litografía de TSMC, todo realizado en Texas y Arizona.
Producción en 2026.
Es un… pic.twitter.com/KTf6jvPnr5
Apple pagará 1.000 millones de dólares a Google por utilizar sus modelos en Siri
Parece que Apple ha llegado a un acuerdo con Google por el cual pagará 1.000 millones de dólares anuales para utilizar sus modelos de lenguaje. El modelo elegido, Gemini de 1,2T de parámetros, es mucho más grande que el de Apple (150B) y se ha escogido tras evaluar también los de OpenAI y Anthropic. La nueva versión de Siri utilizará este modelo alojado en el cloud propio de Apple para garantizar la máxima privacidad. Está previsto su lanzamiento en la primavera de 2026, aunque Apple tiene un historial de retrasos en este ámbito. Este acuerdo indica que Apple, que hasta ahora había oscilado entre el desarrollo interno y la externalización, apostará por Gemini como pieza central de su IA generativa
Xpeng: coches voladores y robots
El fabricante chino Xpeng, con sede en Guangzhou, ha iniciado las pruebas de sus robotaxis y ha anunciado un coche volador con capacidad para seis personas y un alcance de 500 km. Los taxis voladores comienzan a ser una realidad en China, especialmente para trayectos de aeropuerto a centro urbano. Este modelo de negocio podría ser especialmente rentable en las gigantescas ciudades chinas, donde los desplazamientos pueden durar más de una hora. Xpeng también ha presentado una línea de robots humanoides. Todo el mundo quiere ser Tesla. Y sí, Tesla también parece preparar taxis voladores.
Los rastreadores automáticos de OpenAI
OpenAI ha revelado sus planes para desarrollar investigadores e ingenieros automáticos capaces de trabajar de manera independiente y autónoma. Los objetivos son claros: un asistente de investigación para 2026 y un investigador completamente autónomo para 2028. Este sistema podría diseñar experimentos, probar hipótesis y llegar a conclusiones originales sin intervención humana.
La investigación en IA
Modelos de Lenguaje Autorregresivos Continuos (CALM)
Laboratorio de IA: WeChat, Tencent, Qiuzhen, Tsinghua
Los modelos de lenguaje actuales (LLM) están limitados por su proceso secuencial token a token. CALM propone predecir vectores continuos en lugar de criptovalores discretos, comprimiendo bloques de K tokens en un vector capaz de reconstruir el texto original con más del 99,9% de precisión. Esto reduce los pasos de generación y permite modelos mucho más eficientes, manteniendo el rendimiento con un coste computacional muy inferior.
Destilación On-Policy
Laboratorio de IA: Kevin Lu, Thinking Machines
Los LLM se entrenan en tres fases: preentrenamiento, midentrenamiento y postentrenamiento. En esta última, los enfoques principales son el on-policy (aprendizaje por refuerzo con las mismas respuestas) y el off-policy (imitación de un modelo maestro). El primero es coherente pero lento; el segundo, eficiente pero propenso a errores acumulativos. La nueva vía, la destilación on-policy, combina lo mejor de ambos: un modelo que aprende de sus propias acciones con feedback detallado, como si un maestro corrigiera cada paso
Kosmos: una IA científica para el descubrimiento autónomo
AI Lab: Edison Scientific, University of Oxford y UCL
Kosmos es un agente científico de IA que automatiza todo el proceso de descubrimiento basado en datos: búsqueda bibliográfica, generación de hipótesis y análisis. Utiliza un modelo del mundo estructurado que mantiene la coherencia durante sesiones de hasta 12 horas, leyendo miles de artículos y ejecutando decenas de miles de líneas de código. Sus informes, totalmente rastreables, han sido validados como correctos en un 79% de los casos, y una sesión puede equivaler a seis meses de investigación humana.
Otras noticias
- OpenAI ha lanzado IndQA, para evaluar la comprensión de 12 lenguas y 10 modelos de conocimiento de la India, que se consolida como actor clave en IA.
- Tinder prueba Chemistry, una nueva funcionalidad basada en IA generativa para mejorar los matches.
- Amazon ha iniciado una batalla legal con Perplexity, que simulaba usuarios humanos para acceder a su tienda.
- Jensen Huang (Nvidia) ha afirmado que China está “a nanosegundos de EE. UU.” en chips e IA, y que acabará dominando gracias a su ventaja energética.
- Google ya prepara Nano Banana 2.
- Sora ya está disponible para Android.
- Anthropic prevé ventas de 70.000 millones de dólares en 2028, y podría ser rentable antes que OpenAI.
- China ha prohibido el uso de chips extranjeros en todas las empresas con capital estatal.
- AMD prevé un crecimiento del 25% hasta los 9.600 millones de dólares, todavía lejos de los márgenes de Nvidia.
- Apple prepara un portátil por debajo de los 1.000 dólares.
- Y para terminar, los anuncios de Navidad de Coca-Cola están hechos con IA.