El lanzamiento de DeepSeek, un modelo de inteligencia artificial desarrollado en China, ha generado un intenso debate a nivel global. Su irrupción se ha interpretado como un desafío a la hegemonía de los gigantes tecnológicos estadounidenses y europeos en el ámbito de la IA generativa.  Sin embargo, más allá de la dimensión tecnológica, la aparición de DeepSeek plantea interrogantes jurídicos y políticos de primer orden: ¿qué ocurre con la privacidad de los usuarios europeos cuyos datos puedan transferirse a servidores bajo jurisdicción china? ¿Cómo afecta la censura política incorporada en el diseño del modelo a los derechos fundamentales? ¿Qué respuesta cabe esperar desde España y la Unión Europea?

La tecnología de DeepSeek

DeepSeek es un modelo de lenguaje de IA generativa, como los sistemas de ChatGPT, Claude o Gemini. 

Características que le hicieron todo un fenómeno hace 6 meses: 

  • Eficiencia computacional: está diseñado para operar con menos recursos, lo que facilita su implementación a gran escala.
  • Capacidad de razonamiento y generación de texto: es competitivo frente a alternativas occidentales.
  • Sistema abierto: parte de su infraestructura ha sido liberada públicamente, lo que permite la auditoría y revisión y la reutilización por parte de otros modelos.

No obstante estas evidentes ventajas, se han identificado limitaciones significativas como las respuestas inexactas o erróneas (las famosas “alucinaciones”), sesgos ideológicos y, lo más relevante, la existencia de un sistema de censura integrado que bloquea o suaviza preguntas sensibles para el régimen chino. Ello no es un defecto técnico, sino una decisión de diseño alineada con la normativa interna de Pekín, que exige a las plataformas digitales ajustarse a los “valores socialistas fundamentales”.

Aspectos legales en España y la UE: protección de datos y RGPD

El Reglamento General de Protección de Datos (RGPD) constituye la piedra angular en el análisis jurídico. La utilización de DeepSeek en España plantea problemas en varios planos en relación con las obligaciones del mismo:

  1. Transferencias internacionales de datos: la eventual transmisión de información personal hacia servidores en China colisiona con las exigencias del Capítulo V del RGPD, que solo permite dichas transferencias si existen garantías adecuadas (cláusulas contractuales tipo, decisiones de adecuación, etc.). China no cuenta con decisión de adecuación de la Comisión Europea, lo que hace la situación aún más compleja.
  2. Transparencia y consentimiento: los términos de uso de DeepSeek han sido cuestionados en Italia y Alemania por su falta de claridad sobre qué datos se recogen, con qué fines y por cuánto tiempo se conservan. En España, la Agencia Española de Protección de Datos (AEPD) podría iniciar actuaciones similares en virtud de la LOPDGDD.
  3. Riesgo de tratamiento de datos sensibles: si el modelo trata información relativa a ideología, salud o convicciones religiosas, se aplican las restricciones del art. 9 del RGPD, que son especialmente estrictas y que implican, como regla general, el consentimiento del afectado.

Libertad de expresión y derecho a la información

Relacionado a su vez con el aspecto político, el componente de censura política integrado en DeepSeek abre otro frente legal. La Carta de Derechos Fundamentales de la UE y la Constitución Española (art. 20 CE) garantizan la libertad de expresión y el acceso a información veraz. El hecho de que una IA “adapte” deliberadamente la realidad para ajustarse a directrices ideológicas plantea un posible conflicto con estos derechos cuando el sistema se utilice en contextos de relevancia pública (universidades, medios de comunicación y administraciones).

Responsabilidad civil y administrativa en relación con el Reglamento IA

El AI Act de la Unión Europea, que está entrando progresivamente en vigor, clasifica ciertos usos de la IA como de alto riesgo y exige requisitos estrictos de transparencia, auditoría y trazabilidad, entre otros.  Si DeepSeek se empleara en España para llevar a cabo tareas relacionadas con finalidades de servicios públicos o se utilizara en sectores regulados, que implicarían aplicaciones o despliegues de alto riesgo, estos operadores podrían, en caso de infracción de la normativa, enfrentarse a las sanciones administrativas o la responsabilidad civil por daños derivados de errores, sesgos o desinformación.

Seguridad nacional y ciberseguridad

España, al igual que otros Estados europeos, debe analizar el uso de DeepSeek en entornos gubernamentales y estratégicos. Países como Australia y Taiwán ya han prohibido su instalación en dispositivos oficiales por riesgo de espionaje o fuga de datos. En un escenario de tensión geopolítica con China, el despliegue de esta herramienta en ministerios, universidades o empresas de defensa españolas podría considerarse, sin perjuicio de lo que indicamos anteriormente, además, un riesgo para la soberanía digital.

En España, la aplicación del AI Act, junto con las competencias de la AEPD en materia de protección de datos, sitúa a España en una necesaria supervisión y posición de vigilancia activa. Además, como país miembro de la UE, puede apoyar medidas coordinadas de restricción o condicionamiento del uso de DeepSeek en la UE, siguiendo la línea marcada por la autoridad italiana de protección de datos, que ya bloqueó la aplicación por incumplimiento del RGPD. DeepSeek simboliza los dilemas de la globalización tecnológica. Se trata sin duda de un avance disruptivo que, por otro lado, desafía los marcos jurídicos de privacidad, transparencia y derechos fundamentales en España y Europa.

Desde el punto de vista legal, la aplicación estricta del RGPD, la LOPDGDD y, ya casi de manera inmediata, el AI Act, ofrecen herramientas para limitar los riesgos. Los poderes públicos podrían tener que entrar a valorar si el uso de DeepSeek constituye una amenaza para la seguridad nacional o un simple problema de cumplimiento regulatorio.

La irrupción de DeepSeek evidencia que la próxima década no solo estará marcada por la competencia tecnológica, sino también por la capacidad de cada Estado y de la propia Unión Europea para proteger derechos fundamentales en la era de la inteligencia artificial. Recordemos, en este sentido, la existencia de la Carta española de Derechos Digitales, de la que ya hemos hablado en anteriores ediciones.