La noticia de la semana es que Jack Dorsey ha despedido a cerca de la mitad de su empresa (Block, Square, etc.), concretamente 4.000 de las 10.000 personas que trabajaban allí.

Pero han pasado más cosas. Entre ellas, que Anthropic lo ha vuelto a hacer. Ha anunciado una herramienta para convertir código COBOL a un lenguaje moderno y esto ha provocado que las acciones de IBM —que todavía vende mainframes basados en COBOL— cayeran más de un 10%.

Seguimos esperando el DeepSeek 4, que parece que habría sido entrenado con chips de Nvidia de contrabando. También esta semana Anthropic ha denunciado ataques masivos de modelos chinos que querían utilizar Claude como entrenador de sus propios sistemas.

Nano Banana ha lanzado una nueva versión de su modelo de imagen y Perplexity se ha apuntado a los agentes, esta vez con un enfoque multimodelo.

Y Nvidia ha presentado resultados: las ventas han crecido un 73% hasta alcanzar los 68.100 millones de dólares en los tres meses que terminaron el 11 de enero, con un crecimiento proyectado para el siguiente trimestre fiscal aún mayor, del 77%. Al mercado le ha parecido poco… en fin…

Jack Dorsey despide al 50%

Jack Dorsey ha anunciado el despido de más de 4.000 trabajadores de Block (cerca de la mitad de la plantilla), reduciéndola de más de 10.000 empleados a menos de 6.000. Los inversores han reaccionado positivamente y la acción ha subido más de un 24% fuera de horas.

Dorsey presenta la decisión como un movimiento estratégico y proactivo, no como una respuesta a una crisis financiera. Argumenta que múltiples rondas de despidos erosionan la moral y la confianza, y defiende que es mejor anticiparse. Según él, en un año muchas empresas se encontrarán en una situación similar.

La justificación oficial de los despidos es el uso de la inteligencia artificial, que permitiría operar con equipos más pequeños y altamente cualificados, automatizando más tareas. El director financiero de Block ha afirmado que esto ayudará a la empresa a moverse más rápido.

Dorsey sigue así una línea similar a la de Elon Musk cuando redujo drásticamente la plantilla de Twitter en 2022. Ambos mantienen una relación ambivalente y comparten una apuesta pública por el bitcoin.

En cuanto a las indemnizaciones, los empleados en EE. UU. recibirán 20 semanas de salario más una semana adicional por año de antigüedad, acciones consolidadas hasta finales de mayo, seis meses de seguro médico, los dispositivos corporativos y 5.000 dólares para facilitar la transición. Fuera de EE. UU., el apoyo será similar según la legislación local.

Otras empresas como Salesforce y Amazon también han realizado grandes recortes vinculados al uso de la IA, aunque algunos informes cuestionan hasta qué punto estos despidos responden realmente a ganancias de eficiencia y no a motivos financieros.

 

¡Anthropic lo ha vuelto a hacer!

Las acciones de IBM cayeron un 10% el lunes después de que Anthropic anunciara el lanzamiento de una nueva herramienta de inteligencia artificial pensada para modernizar código COBOL, un segmento clave del negocio de consultoría tecnológica tradicional. Accenture y Cognizant, que también tienen una fuerte presencia en la modernización de sistemas heredados, registraron descensos similares.

Esta solución promete automatizar fases críticas del proceso de modernización de sistemas COBOL —como la exploración, el análisis de dependencias y la identificación de riesgos—, tareas que hasta ahora requerían grandes equipos de consultores y meses de trabajo.

El COBOL sigue siendo una pieza fundamental de la infraestructura tecnológica global: se calcula que gestiona el 95% de las transacciones de cajeros automáticos en Estados Unidos y que cientos de miles de millones de líneas de código continúan funcionando a diario en sistemas financieros, aerolíneas y administraciones públicas. Aun así, el número de programadores especializados en este lenguaje disminuye progresivamente, ya que muchos de sus creadores y mantenedores originales se han jubilado.

Según Anthropic, esta herramienta basada en Claude Code puede reducir drásticamente los plazos de modernización, pasando de años a trimestres, gracias a su capacidad para identificar puntos de entrada de los programas, rastrear flujos de ejecución, mapear flujos de datos y documentar dependencias entre cientos de archivos.

La compañía defiende que, hasta ahora, muchos proyectos de modernización quedaban bloqueados porque entender el código antiguo resultaba más caro que reescribirlo desde cero. Con la IA, argumenta, esta ecuación cambia. Coincidiendo con el anuncio, Anthropic también ha publicado una guía específica, el Code Modernization Playbook, para orientar a las empresas en este proceso.

Nano Banana 2

Google sigue acelerando en la carrera de la inteligencia artificial y acaba de presentar Nano Banana 2, la nueva generación de su modelo de creación de imágenes con IA, que ya está disponible en Gemini y que sustituye de forma inmediata a las versiones anteriores.

Lo que popularmente se conoce como Nano Banana 2 es, en realidad, Gemini 3.1 Flash Image. Hasta ahora, los modelos Nano Banana se basaban en la rama 3.0, pero con esta actualización Google da un salto técnico relevante. La empresa asegura que el nuevo modelo es capaz de ofrecer una calidad comparable a la versión Pro, manteniendo la velocidad propia de la versión Flash, lo que lo hace más eficiente y versátil para un uso masivo.

La mejora no es solo una cuestión de rapidez. Google destaca que el modelo incorpora un conocimiento del mundo más amplio y actualizado, gracias a la integración con el modelo lingüístico Gemini 3.1. Esto se traduce en imágenes más coherentes, con objetos representados con mayor fidelidad y con una mejor comprensión del contexto. También mejora notablemente la generación de infografías, uno de los puntos débiles habituales de los modelos visuales.

Uno de los avances más visibles es la calidad del texto dentro de las imágenes. Si hasta hace poco los sistemas de IA generaban letras deformadas o palabras ilegibles, Google asegura que Nano Banana 2 alcanza una precisión casi al nivel de la versión Pro, reduciendo drásticamente estos errores.

Con este movimiento, Google consolida el intenso ritmo de innovación que ha mantenido durante el último año y refuerza su posición en la competición con OpenAI y Anthropic. La batalla por liderar la IA generativa no solo continúa, sino que cada vez es más ajustada y tecnológicamente sofisticada.

Nvidia crece un 73% y al mercado le parece poco...

Nvidia ha vuelto a acelerar su crecimiento: los ingresos aumentaron un 73% hasta los 68.100 millones de dólares en el trimestre cerrado en enero, 11 puntos más que el trimestre anterior. Además, prevé crecer aún más en el trimestre actual, con un incremento cercano al 77%.

La empresa, actualmente la más valiosa del mundo, consolida su liderazgo en el hardware clave para la inteligencia artificial. A pesar del fuerte rendimiento, su acción cotiza ahora a 27 veces los beneficios futuros, por debajo de las 32 veces de hace tres meses, lo que la hace relativamente más barata en términos de valoración.

Uno de los riesgos estructurales es la fuerte dependencia de unos pocos grandes clientes, que concentran la mayor parte de los ingresos. El CEO, Jensen Huang, defiende que el gasto en chips de IA está generando ingresos rentables para estos clientes.

En el ejercicio fiscal completo, Nvidia facturó 216.000 millones de dólares, de los cuales 194.000 millones provienen del negocio de centros de datos. Destaca especialmente el crecimiento del negocio de redes (NVLink), con 11.000 millones en el trimestre (+263% interanual). El margen bruto mejoró 2 puntos porcentuales y el flujo de caja libre se duplicó con creces hasta casi 35.000 millones.

Aun así, los mercados no están demasiado impresionados…

Anthropic ha rechazado la última oferta del Pentágono

Anthropic ha plantado cara al Pentágono en un enfrentamiento que puede marcar un precedente en la regulación de la inteligencia artificial aplicada al ámbito militar. La empresa ha rechazado nuevas cláusulas contractuales del Departamento de Defensa de EE. UU. que permitirían un uso “legal sin restricciones” de su modelo Claude, porque considera que no prohíben de forma clara la vigilancia masiva de ciudadanos ni el uso de armas completamente autónomas.

El consejero delegado de Anthropic, Dario Amodei, ha afirmado que la compañía está dispuesta a renunciar a contratos millonarios con el gobierno estadounidense antes que debilitar sus principios de seguridad. Según la empresa, el lenguaje propuesto por el Pentágono abre la puerta a prácticas que podrían vulnerar valores democráticos, especialmente si permite el uso de la IA en sistemas de armas sin control humano significativo o en programas de vigilancia masiva dentro del país.

La respuesta de Washington no se ha hecho esperar. Funcionarios de EE. UU. han advertido que Anthropic podría ser excluida de la cadena de suministro del sector defensa o incluso obligada a cooperar mediante la Defense Production Act, una ley que permite al gobierno movilizar recursos del sector privado por motivos de seguridad nacional.

Anthropic, sin embargo, no rechaza toda colaboración con Defensa. Asegura que apoya el uso de la IA en análisis de inteligencia exterior y en tareas defensivas, pero traza una línea roja clara en la vigilancia masiva de ciudadanos y en sistemas de armas que operen sin supervisión humana real. La empresa argumenta que la tecnología actual no es lo suficientemente fiable como para asumir estos roles de manera autónoma.

En el fondo, el conflicto va más allá de un contrato concreto. Lo que está en juego es si los principios éticos proclamados por las empresas de IA son límites reales o simplemente marketing que desaparece ante la presión geopolítica y los intereses estratégicos. Si Anthropic cede, podría reforzar la idea de que las políticas de seguridad son negociables cuando hay intereses nacionales en juego. Si mantiene su posición, establecería un precedente inédito: que incluso los gobiernos deben aceptar las líneas rojas fijadas por los creadores de los grandes modelos de IA.

El nuevo agente de Perplexity

Perplexity AI ha dado un paso importante más allá de su conocido motor de búsqueda con el lanzamiento de Perplexity Computer, un sistema que aspira a convertirse en una capa operativa de IA capaz de ejecutar flujos de trabajo complejos de manera autónoma.

A diferencia de los asistentes tradicionales basados en un único modelo, Perplexity Computer coordina 19 modelos especializados que trabajan conjuntamente. El sistema es capaz de descomponer objetivos grandes en subtareas más pequeñas, ejecutarlas en paralelo e integrar los resultados en un proceso coherente. Esto le permite investigar, escribir, programar, analizar datos y gestionar procesos de varios pasos con un grado de autonomía superior al de los chatbots convencionales.

Más que un simple asistente, Perplexity Computer se presenta como una especie de “capa operativa” de IA, conectando herramientas en la nube, archivos y memoria persistente para coordinar tareas complejas. La idea es que el usuario no solo formule preguntas, sino que delegue proyectos enteros.

El servicio se despliega inicialmente para los suscriptores de nivel más alto, con un modelo de precios basado en el uso.

El lanzamiento refleja un cambio estructural en la evolución de la IA: el paso de asistentes monolíticos a sistemas de orquestación multimodelo, donde distintos motores colaboran en un mismo flujo de trabajo. Si esta tendencia se consolida, plataformas como Perplexity Computer podrían transformar la forma en que las personas trabajan con la IA, pasando de la consulta puntual a la ejecución autónoma de proyectos completos.

Ciberataques a Anthropic

Anthropic ha denunciado que varios laboratorios de inteligencia artificial han llevado a cabo intentos a gran escala para extraer información de su modelo Claude con el objetivo de utilizar sus respuestas para entrenar sistemas competidores. En la práctica, sería un intento de “aspirar” la inteligencia del modelo para replicar sus capacidades.

Según la compañía, tres laboratorios —DeepSeek, Moonshot y MiniMax— habrían organizado ataques a escala industrial mediante la creación de unos 24.000 cuentas falsas, que generaron aproximadamente 16 millones de interacciones con Claude. El objetivo era recopilar grandes volúmenes de respuestas para utilizarlas como datos de entrenamiento para modelos propios.

La técnica empleada se conoce como destilación, un método por el cual las salidas de un modelo se utilizan para entrenar otro. Aunque puede ser legítimo en algunos contextos —por ejemplo, dentro de una misma organización—, en este caso Anthropic afirma que se realizó vulnerando las condiciones de uso del servicio y eludiendo restricciones regionales de acceso al modelo.

Ante estos hechos, la empresa asegura que está reforzando sus sistemas de detección de abusos y defiende la necesidad de endurecer los controles de exportación sobre IA avanzada para evitar prácticas similares.

El caso evidencia una nueva fase en la competencia entre laboratorios de IA. Ya no se trata solo de desarrollar modelos más potentes, sino también de protegerlos frente a intentos de extracción masiva de conocimiento. La seguridad, la protección de los modelos y la propiedad intelectual se están convirtiendo en uno de los principales campos de batalla de la industria.

La investigación en IA
 

Experiental Reinforcement Learning
AI Lab: Univ. of Southern California, Microsoft, Univ. of Pennsylvania

Este artículo presenta un nuevo paradigma de entrenamiento llamado Experiential Reinforcement Learning (ERL), que incorpora de forma explícita un ciclo de experiencia, reflexión y consolidación dentro del proceso de aprendizaje por refuerzo.

A diferencia de los enfoques tradicionales, donde el modelo simplemente prueba acciones y recibe recompensas o penalizaciones, el ERL hace que el sistema genere autorreflexiones después de cada intento. Estas reflexiones le permiten analizar qué ha funcionado y qué no, ajustar la estrategia y realizar un nuevo intento más refinado. Las correcciones exitosas no solo mejoran el resultado inmediato, sino que se internalizan para que el modelo pueda reutilizarlas en situaciones futuras.

Según los autores, este mecanismo mejora notablemente tanto la eficiencia del aprendizaje como el rendimiento final, especialmente en entornos con recompensas escasas (donde la señal de aprendizaje es limitada) y en tareas de razonamiento agentivo, que requieren planificación y toma de decisiones en varios pasos.

En esencia, el ERL aproxima el funcionamiento del modelo a una dinámica más cercana al aprendizaje humano: no solo actuar y recibir feedback, sino reflexionar sobre la experiencia y consolidar el conocimiento adquirido.

GLM-5: From Vibe coding to Agentic Engineering
AI Lab: Zhipu & Tsinghua Univ.

Este artículo presenta GLM-5, un modelo fundacional de nueva generación que apuesta por una arquitectura más eficiente sin sacrificar capacidad ni calidad.

La clave técnica del sistema es la adopción de DeepSeek Sparse Attention (DSA), un mecanismo de atención dispersa que reduce de manera significativa los costes tanto de entrenamiento como de inferencia. En lugar de procesar todas las conexiones posibles dentro del contexto —como hacen los transformers tradicionales—, el modelo selecciona de forma más inteligente qué información es relevante, manteniendo al mismo tiempo una buena fidelidad en contextos largos.

Además, GLM-5 incorpora una nueva infraestructura de aprendizaje por refuerzo asíncrono, que separa el proceso de generación del proceso de entrenamiento. Este desacoplamiento permite optimizar mejor los recursos y escalar el sistema con mayor eficiencia, mejorando el ritmo de aprendizaje y la calidad final del modelo.

Según los autores, el resultado es un rendimiento de última generación en retos complejos de ingeniería de software de extremo a extremo, es decir, tareas que requieren entender requisitos, escribir código, depurarlo e integrarlo en flujos completos.

En conjunto, GLM-5 refleja una tendencia clara en la evolución de la IA: no solo hacer modelos más grandes, sino hacerlos más eficientes, escalables y capaces de afrontar problemas reales de gran complejidad.

Business Models in the AI Era
AI Lab: MIT CISR

El MIT CISR prevé que los avances acelerados en inteligencia artificial transformarán profundamente los modelos de negocio durante la próxima década. Según el informe, las empresas evolucionarán hacia modelos cada vez más orientados a resultados (outcome-oriented) y sustentados por sistemas de IA autónoma capaces de operar y decidir en tiempo real.

El documento se basa en una investigación extensa realizada entre 2013 y 2025, que ha analizado 2.378 empresas para entender cómo han evolucionado los modelos de negocio digitales en los últimos doce años. Esta trayectoria muestra un paso progresivo desde modelos centrados en productos y servicios digitales hacia estructuras más integradas, basadas en datos, plataformas y ecosistemas.

A partir de este análisis, el MIT CISR propone un nuevo marco conceptual para entender los modelos de negocio en tiempo real impulsados por IA, en los que la tecnología no solo optimiza procesos, sino que participa activamente en la creación, entrega y ajuste dinámico de valor. En este escenario, la propuesta de valor se vincula menos a la venta de un producto y más al logro de un resultado medible para el cliente.

En conjunto, el estudio sugiere que la IA no será simplemente una herramienta de eficiencia, sino el motor de una nueva generación de modelos de negocio, más adaptativos, predictivos y centrados en resultados tangibles.

Otras noticias

  • Salesforce ha caído más de un 5% aunque los ingresos han crecido un 12%, pero el mercado espera nuevos productos que puedan aportar más crecimiento.
  • OpenAI ha contratado a Ruoming Pang, destacado investigador de inteligencia artificial que trabajaba recientemente en Meta después de haber liderado el equipo de modelos de IA de Apple. La guerra no se detiene.
  • Netflix ha renunciado a competir por Warner Bros después de que la oferta de Paramount sea muy superior.
  • AMD se convierte en el mayor proveedor de chips de Meta.
  • Anthropic CoWork permite ahora programar tareas.
  • DeepSeek ha decidido no facilitar su último modelo de inteligencia artificial a fabricantes estadounidenses de chips, incluida Nvidia, en un movimiento que refleja la creciente tensión tecnológica entre China y Estados Unidos.
  • OpenAI ha finalizado la ronda de inversión de 110.000 millones de dólares con una valoración de 730.000 millones.