A la espera de los nuevos modelos —que parecen estar al caer— esta semana ha estado marcada por tres grandes tensiones: la batalla entre Anthropic 4.6 y GPT-5.3 Codex (dos filosofías diferentes para capturar el mercado del desarrollo de software), el empuje de varios modelos chinos que quieren adelantarse al “nuevo DeepSeek” (con GLM-5 y MiniMax 2.5 como nombres destacados), y la aceleración constante de una investigación que no se detiene.
Ahora bien, quien realmente ha arrebatado el protagonismo de la semana ha sido Seedance 2.0 —un modelo de text-to-video de ByteDance. Seedance nos acerca un paso más a la disrupción del mundo de la publicidad, el cine y el vídeo: un sector que, cada vez más, parece condenado (o destinado) a redefinirse en torno a la IA generativa. Y aún más: se ha anunciado la reorganización de xAI, un laboratorio pequeño pero con una capacidad de cálculo enorme, que en poco más de dos años se ha situado a la altura de los gigantes.
El nuevo modelo Seedance 2
ByteDance, la empresa china propietaria de TikTok, ha presentado Seedance 2.0, un nuevo modelo de inteligencia artificial capaz de generar vídeos cinematográficos de hasta dos minutos en 1080p a partir de una sola instrucción escrita. La principal novedad es que no solo crea las imágenes, sino también el sonido —diálogos, efectos y música— de manera sincronizada. El sistema permite construir historias con diversas escenas manteniendo la coherencia de personajes, movimientos y audio a lo largo del vídeo. También incorpora sincronización labial en diferentes idiomas, lo que acerca aún más el resultado a una producción profesional.
Según primeros usuarios y analistas del sector, la calidad en realismo y fluidez ya compite con los mejores sistemas de IA de vídeo del mundo. Si esto se consolida, el impacto en el audiovisual puede ser significativo: simplifica y abarata procesos que hasta ahora requerían equipos humanos y recursos técnicos complejos.
Esto fue un prompt de 2 líneas en seedance 2. Si Hollywood está acabado, los chicos tienen razón, tal vez Hollywood está acabado, los chicos también están acabados, no lo sé. pic.twitter.com/dNTyLUIwAV
— Ruairi Robinson (@Ruairi Robinson) 11 de febrero de 2026
El modelo Seedance 2.0 una vez más…
— Alejo (@ecommartinez) February 11, 2026
Una IA 100 % china que alcanza este nivel de realismo.
[ @SoveyX ] https://t.co/GUAYDgsuGy pic.twitter.com/OP8FdYxDgD
GLM 5 lidera los rankings de modelos 'open weights'
La empresa emergente china z.ai (Zhupai) ha presentado GLM-5, un modelo de inteligencia artificial de código abierto con licencia MIT, orientado a usos empresariales. Ha llamado la atención porque, según pruebas independientes, consigue uno de los niveles más bajos de alucinación (respuestas inventadas) vistos hasta ahora, incluso por delante de competidores norteamericanos. La clave es que GLM-5 prefiere abstenerse cuando no está seguro en lugar de improvisar. Esto lo hace especialmente atractivo en entornos profesionales donde la fiabilidad es crítica.
Además, se presenta como una IA “de oficina”: puede generar directamente documentos útiles como Word, PDF o Excel, y ejecutar tareas largas con funciones de agente integradas, pensadas para automatizar trabajo real. A pesar del potencial, el modelo es enorme —más de 700.000 millones de parámetros— y necesita una infraestructura muy potente para desplegarlo internamente. Por eso, la mayoría de los usuarios accederán a él vía nube, donde también destaca por un precio inferior al de rivales como Claude.
En conjunto, GLM-5 refuerza una tendencia clara: los grandes modelos abiertos chinos empiezan a competir de tú a tú con los sistemas propietarios occidentales, no solo en potencia, sino también en costes y aplicaciones prácticas. GLM-5, junto con MiniMax 2.5, se está haciendo especialmente popular en sistemas agénticos.
¡GLM-5 es el nuevo modelo líder de pesos abiertos! GLM-5 lidera el Índice de Análisis Artificial entre los modelos de pesos abiertos y obtiene grandes mejoras sobre GLM-4.7 en GDPval-AA, nuestro benchmark agéntico centrado en tareas de trabajo económicamente valiosas
— Artificial Analysis (@ArtificialAnlys) 11 de febrero de 2026
GLM-5 es el primer nuevo… de @Zai_org pic.twitter.com/IiK2GRptFL
Llegan los anuncios a ChatGPT
OpenAI ha comenzado a incluir anuncios dentro de las respuestas de ChatGPT para los usuarios en Estados Unidos que utilizan los planes gratuitos y Go (8$). Los anuncios, claramente etiquetados y separados de la respuesta, aparecen después del contenido y se ajustan al tema de la consulta (por ejemplo, viajes o comida). Según la empresa, los anunciantes no tienen acceso al contenido de los chats, solo a datos agregados. Los usuarios pueden ocultar anuncios, gestionar la personalización o eliminarlos pasando a planes superiores como Plus, Pro, Business, Enterprise o Education, que continuarían sin publicidad.
Esto marca un cambio de paradigma: ChatGPT se parece un poco más a un motor de búsqueda en el que las preguntas se convierten en oportunidades comerciales. El debate es inevitable: ¿hasta qué punto los anuncios afectarán la confianza en las respuestas, o incluso la forma en que la gente formula preguntas?
Esto fue un prompt de 2 líneas en seedance 2. Si Hollywood está acabado, los chicos tienen razón, tal vez Hollywood está acabado, los chicos también están acabados, no lo sé. pic.twitter.com/dNTyLUIwAV
— Ruairi Robinson (@Ruairi Robinson) 11 de febrero de 2026
Adam Mosseri niega que las redes sociales sean “clínicamente adictivas” en un juicio histórico
Adam Mosseri, director de Instagram, ha declarado ante un tribunal que las redes sociales no son “clínicamente adictivas”, a pesar de admitir que pueden generar una dependencia comparable a la de una serie de televisión. Según Mosseri, esto es diferente —y menos grave— que una adicción en sentido médico. La declaración se enmarca en un juicio pionero en Estados Unidos, en el que los abogados de una joven de 20 años de California intentan demostrar que el diseño de Instagram y YouTube está pensado para fomentar la adicción y que esto ha contribuido a problemas de salud mental. El caso es el primero de miles de demandas similares contra grandes plataformas.
Durante el proceso, la parte demandante ha comparado estas aplicaciones con “casinos digitales”, mientras que Meta defiende que los problemas de la joven provienen de un entorno familiar difícil. YouTube, por su parte, asegura que no es una red social. El juicio también ha puesto el foco en decisiones internas de Meta: se han presentado documentos que indican que Mosseri y Zuckerberg habrían levantado en 2019 una prohibición sobre filtros de belleza, a pesar de advertencias internas sobre el riesgo de dismorfia corporal en adolescentes. Zuckerberg y el CEO de YouTube, Neal Mohan, podrían declarar en los próximos días.
Musk reestructura xAI
Elon Musk ha anunciado una reorganización profunda de xAI tras la salida de dos cofundadores, Jimmy Ba y Tony Wu. La nueva estructura divide la compañía en cuatro áreas: el chatbot y producto de voz Grok; Coding; el sistema de generación de vídeo Imagine; y Macrohard, una división de software de IA gestionado por agentes digitales. En una reunión interna que Musk hizo pública en X, insistió en que “la velocidad y la aceleración” son clave para liderar el sector. También remarcó que la empresa continúa contratando talento y acelerando el desarrollo de sus modelos, espoleada por el éxito del modelo de voz de OpenAI.
La reestructuración llega en un momento de rotación interna: seis de los doce cofundadores originales se han marchado desde 2023. Todo ello coincide con la fusión entre xAI y SpaceX, una operación que, según Bloomberg, habría valorado el grupo combinado en 1,25 billones de dólares y podría aliviar necesidades de financiación de una empresa que quema capital para construir centros de datos, comprar chips y pagar talento.
xAI amplía su gran complejo de supercomputación en Memphis (Tennessee), con una inversión prevista superior a los 20.000 millones de dólares. Musk afirma que la generación de vídeo en tiempo real será una apuesta central y que quiere liderar este segmento. En paralelo, X asegura haber alcanzado cerca de 1.000 millones de usuarios. La empresa prepara X Chat (una app de mensajería) y el despliegue progresivo de X Money (pagos dentro de la plataforma). Musk también ha reiterado que no añadirá anuncios a Grok.
xAI fue reorganizada hace unos días para mejorar la velocidad de ejecución. A medida que una empresa crece, especialmente tan rápido como xAI, la estructura debe evolucionar como cualquier organismo vivo.
— Elon Musk (@elonmusk) 11 de febrero de 2026
Esto, desafortunadamente, requirió despedir a algunas personas. Les deseamos lo mejor en sus futuros proyectos.
Estamos… https://t.co/kfmSmBlieb
Anthropic acelera su plan para construir infraestructura propia de IA
Anthropic prepara una expansión para asegurar hasta 10 gigavatios de capacidad en centros de datos durante los próximos años, con inversiones potenciales de cientos de miles de millones de dólares. Para avanzar, está fichando a antiguos ejecutivos de Google especializados en centros de datos, con el objetivo de ganar control del hardware y reducir la dependencia de los grandes proveedores de nube.
El plan combina el alquiler de capacidad a terceros con el alquiler directo de instalaciones, donde Anthropic instalaría sus propios servidores. Pero esto exigiría apoyos financieros de actores con gran solvencia. La carrera por la energía y la capacidad de cálculo se consolida como el gran campo de batalla de la nueva economía de la IA.
Alibaba entra en la carrera de la IA física con RynnBrain para robots
Alibaba ha presentado RynnBrain, un modelo para dotar a los robots de capacidad para entender e interactuar con el mundo físico. Combina visión artificial y coordinación del movimiento para identificar objetos y actuar en tiempo real. En una demo de DAMO Academy, un robot clasificó fruta con percepción espacial. El lanzamiento amplía la familia Qwen hacia la robótica y se alinea con la estrategia china para liderar la “IA física”. La competencia es intensa: Nvidia, Google DeepMind y Tesla desarrollan sistemas similares. Alibaba, además, opta por publicar el modelo en código abierto, una decisión que puede reforzar su presencia entre desarrolladores y acelerar su adopción.
OpenAI acelera en la carrera de la programación con GPT-5.3 Codex y la nueva app de Codex
OpenAI ha presentado GPT-5.3 Codex, un modelo especializado en desarrollo de software y automatización avanzada, poco después del lanzamiento de Claude Opus 4.6 de Anthropic. En varios benchmarks de programación, Codex 5.3 destaca por autonomía: puede ejecutar tareas complejas durante más de ocho horas y utiliza menos tokens que la versión anterior, reduciendo costes y tiempos de ejecución. En este sentido, es un enfoque diferente al de Anthropic, que apuesta por un desarrollo más guiado.
Una parte del modelo, además, se ha utilizado para entrenar su propia versión final: una señal de la aceleración creciente del ritmo de mejora. Como complemento, OpenAI ha lanzado la primera aplicación oficial de Codex, concebida como un centro de control para gestionar proyectos con agentes de IA. En lugar de escribir cada línea de código, el desarrollador asigna tareas, define habilidades (skills) y coordina múltiples agentes en paralelo: un primer paso hacia el vibe coding, una programación más orquestada y menos manual.
La app de Codex ha superado 1M de descargas la primera semana. Codex también tiene una versión superrápida (más de 1000 tokens/s) llamada Codex Spark. El doble lanzamiento refuerza una tendencia: la programación con IA se desplaza hacia modelos más autónomos y eficientes, y hacia un rol del desarrollador más centrado en supervisar y coordinar agentes. Anthropic ya despliega múltiples agentes (algo que Codex aún no hace), lo que implica un mayor consumo de tokens y un desarrollo potencialmente más sofisticado pero también más lento. Probablemente, Codex incorporará el despliegue de múltiples agentes pronto.
GPT-5.3-Codex-Spark ya está en vista previa de investigación.
— OpenAI (@OpenAI) 12 de febrero de 2026
Simplemente puedes construir cosas, más rápido. pic.twitter.com/85LzDOgcQj
La Investigación en IA
Tracing the thoughts of a large language model / AI Lab: Anthropic
Los modelos como Claude no están programados línea por línea: aprenden de datos y desarrollan estrategias propias, codificadas en cálculos internos difíciles de interpretar. Anthropic propone un “microscopio” de interpretabilidad para observar patrones de actividad y “circuitos” computacionales que transforman entrada en salida.
Las conclusiones son sugerentes: Claude parece operar con un espacio conceptual compartido entre lenguas (una especie de “lenguaje universal del pensamiento”), planifica con antelación en algunos casos (por ejemplo, anticipando rimas) y, a veces, puede construir argumentos plausibles para satisfacer al usuario aunque no reflejen un razonamiento real, un punto importante para seguridad y fiabilidad.
Teaching models to Teach Themselves: Reasoning at the Edge of Learnability | AI Lab: MIT, Meta FAIR, NY Univ.
Los autores exploran si un modelo puede escapar de un estancamiento cuando el porcentaje de éxito inicial es casi nulo (y, por lo tanto, hay poca señal de entrenamiento). Proponen SOAR, un esquema de meta-RL con dos copias: un "profesor" que genera problemas sintéticos y un "alumno" que los resuelve. El "profesor" es recompensado por el progreso real del alumno en un conjunto pequeño de problemas difíciles, no por recompensas proxy.
Los resultados muestran que se puede desbloquear aprendizaje con recompensas binarias escasas; que las recompensas basadas en progreso evitan inestabilidades; y que la calidad y buena formulación de los problemas es más importante que la corrección exacta de las soluciones. En resumen: un modelo puede generar "escalones" útiles aunque no sepa resolver el problema final de entrada.
AI-Driven Autonomous Lab / AI Lab: OpenAI
OpenAI ha colaborado con Ginkgo para conectar GPT-5 a un laboratorio autónomo en “bucle cerrado”: el modelo propone experimentos, el laboratorio los ejecuta y los resultados alimentan la siguiente ronda. En seis iteraciones exploraron más de 36.000 composiciones en 580 placas, y redujeron un 40% el coste de producción de proteínas.
Otras noticias
-Gemini 3 Deep Think ha conseguido un 84,6% en ARC-AGI-2 (hasta ahora el top era Claude Opus 4.6 con 68,8%), un Elo de 3455 en codeforces (el máximo está en 3792, sería el n.º 8 del mundo) y medallas de oro en las olimpiadas de Física y Química.
-ChatGPT está trabajando para introducir skills (como Anthropic).
-Las suscripciones a X han llegado a $1B de ingresos anuales.
-Parece que las nuevas capacidades de Siri se pospondrán hasta el iOS 26.5 o iOS 27.
-El dispositivo de Jony Ive y OpenAI se ha retrasado hasta después de febrero de 2027. Parece que no será ni unos EarPods ni un pin.
-Zuckerberg se ha comprado una casa en Florida coincidiendo con la propuesta de California de poner un nuevo impuesto a los multimillonarios.
-Los trabajadores de Salesforce han pedido a Marc Benioff (CEO) denunciar al ICE.
-Alex Karp, CEO de Palantir, ha difundido un vídeo explicando que quien quiera explicaciones sobre los acuerdos con el ICE debe firmar un NDA y las tendrá.
-Los AirPods 4 tendrán cámaras que les permitirán entender gestos y su entorno. El coste previsto es $249.
-Elon Musk irá a la Luna antes que a Marte. La decisión tiene que ver con el menor tiempo para conseguir el hito (10 años en vez de 20) y el hecho de que Jeff Bezos y los chinos están preparando bases en la luna.
-MiniMax 2.5 (20x más barato que Opus 4.6) consigue la paridad con OpenAI y Anthropic 4.6. Modelo especialmente utilizado en sistemas agénticos.
-Los camiones autoconducidos de Aurora ya conducen distancias más grandes que los humanos.