El llançament de DeepSeek, un model d'intel·ligència artificial desenvolupat a la Xina, ha generat un intens debat a nivell global. La seva irrupció s'ha interpretat com un desafiament a l'hegemonia dels gegants tecnològics nord-americans i europeus en l'àmbit de la IA generativa. Tanmateix, més enllà de la dimensió tecnològica, l'aparició de DeepSeek planteja interrogants jurídics i polítics de primer ordre: què passa amb la privacitat dels usuaris europeus les dades dels quals puguin transferir-se a servidors sota jurisdicció xinesa? Com afecta la censura política incorporada en el disseny del model als drets fonamentals? Quina resposta es pot esperar des d'Espanya i la Unió Europea?

La tecnologia de DeepSeek

DeepSeek és un model de llenguatge d'IA generativa, com els sistemes de ChatGPT, Claude o Gemini.

Característiques que li van fer tot un fenomen fa 6 mesos:

  • Eficiència computacional: està dissenyat per operar amb menys recursos, la qual cosa facilita la seva implementació a gran escala.
  • Capacitat de raonament i generació de text: és competitiu davant alternatives occidentals.
  • Sistema obert: part de la seva infraestructura ha estat alliberada públicament, la qual cosa permet l'auditoria i revisió i la reutilització per part d'altres models.

No obstant això, aquests evidents avantatges, s'han identificat limitacions significatives com les respostes inexactes o errònies (les famoses "al·lucinacions"), biaixos ideològics i, el més rellevant, l'existència d'un sistema de censura integrat que bloqueja o suavitza preguntes sensibles per al règim xinès. Això no és un defecte tècnic, sinó una decisió de disseny alineada amb la normativa interna de Pequín, que exigeix a les plataformes digitals ajustar-se als "valors socialistes fonamentals".

Aspectes legals a Espanya i la UE: protecció de dades i RGPD

El Reglament General de Protecció de Dades (RGPD) constitueix la pedra angular en l'anàlisi jurídica. La utilització de DeepSeek a Espanya planteja problemes en diversos plans en relació amb les obligacions del mateix:

  1. Transferències internacionals de dades: l'eventual transmissió d'informació personal cap a servidors a la Xina col·lideix amb les exigències del Capítol V del RGPD, que només permet les esmentades transferències si existeixen garanties adequades (clàusules contractuals tipus, decisions d'adequació, etc.). La Xina no compta amb decisió d'adequació de la Comissió Europea, el que fa la situació encara més complexa.
  2. Transparència i consentiment: els termes d'ús de DeepSeek han estat qüestionats a Itàlia i Alemanya per la seva falta de claredat sobre quines dades es recullen, amb quines finalitats i per quant temps es conserven. A Espanya, l'Agència Espanyola de Protecció de Dades (AEPD) podria iniciar actuacions similars en virtut de la LOPDGDD.
  3. Risc de tractament de dades delicades: si el model tracta informació relativa a ideologia, salut o conviccions religioses, s'apliquen les restriccions de l'art. 9 del RGPD, que són especialment estrictes i que impliquen, com a regla general, el consentiment de l'afectat.

Llibertat d'expressió i dret a la informació

Relacionat al seu torn amb l'aspecte polític, el component de censura política integrat a DeepSeek obre un altre front legal. La Carta de Drets Fonamentals de la UE i la Constitució espanyola (art. 20 CE) garanteixen la llibertat d'expressió i l'accés a informació veraç. El fet que una IA "adapti" deliberadament la realitat per ajustar-se a directrius ideològiques planteja un possible conflicte amb aquests drets quan el sistema s'utilitzi en contextos de rellevància pública (universitats, mitjans de comunicació i administracions).

Responsabilitat civil i administrativa en relació amb el Reglament IA

L'AI Act de la Unió Europea, que està entrant progressivament en vigor, classifica certs usos de la IA com d'alt risc i exigeix requisits estrictes de transparència, auditoria i traçabilitat, entre d'altres. Si DeepSeek es fes servir a Espanya per dur a terme tasques relacionades amb finalitats de serveis públics o s'utilitzés en sectors regulats, que implicarien aplicacions o desplegaments d'alt risc, aquests operadors podrien, en cas d'infracció de la normativa, enfrontar-se a les sancions administratives o a responsabilitat civil per danys derivats d'errors, biaixos o desinformació.

Seguretat nacional i ciberseguretat

Espanya, igual com altres Estats europeus, ha d'analitzar l'ús de DeepSeek en entorns governamentals i estratègics. Països com Austràlia i Taiwan ja han prohibit la seva instal·lació en dispositius oficials per risc d'espionatge o fuga de dades. En un escenari de tensió geopolítica amb la Xina, el desplegament d'aquesta eina en ministeris, universitats o empreses de defensa espanyoles podria considerar-se, sense perjudici del que indiquem anteriorment, a més, un risc per a la sobirania digital.

A Espanya, l'aplicació de l'AI Act, juntament amb les competències de l'AEPD en matèria de protecció de dades, situa Espanya en una necessària supervisió i posició de vigilància activa. A més, com a país membre de la UE, pot donar suport a mesures coordinades de restricció o condicionament de l'ús de DeepSeek a la UE, seguint la línia marcada per l'autoritat italiana de protecció de dades, que ja va bloquejar l'aplicació per incompliment del RGPD. DeepSeek simbolitza els dilemes de la globalització tecnològica. Es tracta sens dubte d'un avenç disruptiu que, d'altra banda, desafia els marcs jurídics de privacitat, transparència i drets fonamentals a Espanya i Europa.

Des del punt de vista legal, l'aplicació estricta del RGPD, la LOPDGDD i, ja gairebé de manera immediata, l'AI Act, ofereixen eines per limitar els riscos. Els poders públics podrien haver d'entrar a valorar si l'ús de DeepSeek constitueix una amenaça per a la seguretat nacional o un simple problema de compliment regulador.

La irrupció de DeepSeek evidencia que la pròxima dècada no només estarà marcada per la competència tecnològica, sinó també per la capacitat de cada Estat i de la mateixa Unió Europea per protegir drets fonamentals en l'era de la intel·ligència artificial. Recordem, en aquest sentit, l'existència de la Carta espanyola de Drets Digitals, de la que ja hem parlat en anteriors edicions.