Los contenidos 'deepfake' sexuales generados sin consentimiento con inteligencia artificial tienen los días contados en Europa. La Unión Europea ha llegado este jueves a un acuerdo para prohibir las IA que permitan generar contenido "sexual o íntimamente explícito" o material pornográfico que incluya menores. El veto entrará en vigor en el territorio comunitario a partir del próximo dos de diciembre, de modo que Bruselas da a las empresas margen hasta finales de año para adaptar sus sistemas. La medida surge de un acuerdo político en el Consejo de la UE —donde están representados los Estados miembros y el Parlament Europeo— para reformar la ley europea de IA aprobada en 2023.

El veto se aplicará a la comercialización en la UE de las IA que tengan por objetivo crear este tipo de contenido —ya sea con imágenes, vídeo o audio—, de las que no tengan medidas de seguridad para evitar su creación, así como sobre el uso de las IA habituales con la finalidad de generar este contenido. Una vez cerrado este debate interno, ahora las instituciones europeas deberán someter a votación el texto para que pueda adoptarse formalmente en los próximos meses. Esto supone una modificación de la ley sobre inteligencia artificial de la UE, que se aprobó en 2023 y que desde 2025 se ha ido desplegando progresivamente.

El cambio en la normativa se promovió a raíz de la polémica que se produjo a finales de diciembre y en enero en la red social X, donde se viralizaron miles de imágenes sexualizadas de mujeres reales manipuladas con IA, lo que se conoce como 'deepfake'. Según datos del Centro para Contrarrestar el Odio Digital, numerosos usuarios de la plataforma propiedad de Elon Musk generaron hasta tres millones de imágenes sexualizadas en poco más de una semana. Una de las víctimas de estas prácticas fue la primera ministra italiana, Giorgia Meloni, que lo denunció. Antes de este incidente de alcance internacional, en España la problemática estuvo en primera plana por el caso de un pueblo extremeño llamado Almendralejo, donde varios adolescentes crearon con IA y compartieron imágenes sexualizadas de sus compañeras de clase, y el caso llegó al juzgado de menores.

Esta reforma de la ley de IA aprobada hoy también retrasará la obligación de introducir una marca de agua en los contenidos generados por IA hasta el 2 de diciembre de 2026, así como las sanciones por incumplimiento, que debían empezar a aplicarse igualmente en agosto del próximo año. Asimismo, eximirá a las pequeñas y medianas empresas del sector de algunas disposiciones y controles que recoge la regulación. Además, propone simplificar la documentación y los procesos burocráticos a los que están sometidas con la normativa de la UE sobre IA. Según la Comisión Europea, esta simplificación permitiría ahorrar a estas compañías 225 millones de euros al año. "Nuestras empresas y los ciudadanos quieren dos cosas de las normas sobre la inteligencia artificial: que sean innovadoras, pero también sentirse seguros. El acuerdo de hoy cumple ambas cosas", ha afirmado la vicepresidenta de la Comisión a cargo de Soberanía Tecnológica, Henna Virkkunen.

El despliegue de la ley europea de IA se retrasa

La ley sobre inteligencia artificial de la UE se aprobó en 2023, de manera pionera en el mundo, pero su despliegue es complejo y está siendo progresivo. Desde febrero de 2025 están prohibidas prácticas como la extracción masiva de imágenes faciales o el reconocimiento de emociones en el entorno laboral y, desde agosto pasado, plataformas de IA generativa como ChatGPT deben respetar los derechos de autor. No obstante, el grueso de las disposiciones de la ley debía empezar a aplicarse a partir del 2 de agosto de 2026, un plazo que Bruselas buscaba alargar, motivo por el cual presentó una propuesta de reforma del reglamento.

Finalmente, será el 2 de diciembre de 2027 la fecha límite para hacer efectivas algunas disposiciones que regulan lo que se consideran prácticas "de alto riesgo"; y hasta el 2 de agosto de 2028 la entrada en vigor de las normas que deben vigilar los sistemas de IA integrados que se utilizan "como componentes de seguridad", por ejemplo, en productos como ascensores o juguetes. En cuanto a las normas sobre los sistemas considerados de alto riesgo, según el acuerdo al que se ha llegado ahora, se aplazará la obligación de informar a los usuarios o consumidores que se encuentran ante una imagen o producto generado por IA, así como las restricciones relativas a los sistemas de cribado para la selección de personal o la concesión de préstamos que tengan en cuenta aspectos como el color de piel o la orientación sexual. Entre las prácticas consideradas de alto riesgo que cubrirá la normativa también está el uso de los sistemas de IA en la gestión de fronteras o el ámbito de la justicia.