Una tecnologia sense filtre
- Fernando Trias de Bes
- Barcelona. Diumenge, 30 de novembre de 2025. 05:30
- Temps de lectura: 2 minuts
La setmana passada, a la meva columna dominical, ja vaig abordar la qüestió referida a la posició de la Unió Europea en matèria d’IA. Vaig explicar i argumentar el paper regulador i de protecció que, a falta de ser líders en desenvolupament tecnològic, ens quedava plantejar.
Desenvolupo avui aquí aquella columna. A quins aspectes em referia?
La intel·ligència artificial no només porta avenços. També porta riscos. I si no es gestionen bé, poden tornar-se en contra del progrés que prometen.
Primer, el risc de desinformació personalitzada. El problema no és que una IA generi una notícia falsa. No parlem (només) de les famoses fakenews de les quals tant s'ha parlat a partir de l'explosió de les RSS.
La manipulació digital ja no és massiva, és personalitzada. Hi ha res més eficaç?
El problema és que aquesta mateixa IA pot saber com penses, quina ideologia tens, què t'indigna i què desitges. I amb aquesta informació generar un contingut (fals o tendenciós) que encaixi exactament amb els teus biaixos i el rebis sense qüestionar-lo. La manipulació digital ja no és massiva, és personalitzada. Hi ha res més eficaç?
Però hi ha un altre vessant més. La d'algú (ho fem tots) demanant consell legal o mèdic a ChatGPT. És a dir, el risc de prendre decisions personals sense filtre professional. Avui, milions de persones consulten una IA temes que abans consultarien amb un metge, un advocat o un assessor financer. El problema és que la IA encerta sovint, però quan s'equivoca, ho fa amb la mateixa fermesa. No hi ha dubte, no hi ha advertència. I darrere d'una recomanació equivocada hi pot haver un diagnòstic fals, un tractament erroni o una mala decisió legal. No és una notícia falsa sobre un actor. És una recomanació falsa sobre la teva salut o la teva empresa. No hi ha signatura. No hi ha segell. No hi ha ningú al darrere. I, tanmateix, es prenen decisions. Decisions personals basades en errors en uns llimbs legals ni assegurances de responsabilitat civil
Tercer, el risc en la feina. No és del tot cert que la IA vagi a destruir milions de llocs de feina. Però sí que és cert que canviarà com es fan. La IA no elimina tasques humanes: les transforma. I això obliga a reaprendre, a adaptar-se, a reubicar funcions. Estem preparats per a aquesta reconversió silenciosa? Si no es regula, la reconversió pot ser inassumible i convertirem una revolució tecnològica en una revolució marxista. Perquè aleshores sí que es destruirà feina. Ho estem veient ja en totes les tecnològiques. Els anuncis de regulació d'ocupació de Telefónica d'aquesta mateixa setmana en són una perfecta mostra.
Quart, el risc sobre la seguretat i la privacitat. Avui mateix, quan m'he llevat, m'he trobat a la safata d'entrada amb un correu d'OpenAI informant que un dels seus proveïdors ha patit un robatori massiu de dades: noms, correus, ubicació aproximada. I això que parlem d'una de les companyies més avançades del sector. Si això passa allà, imaginem-ho en centenars de petites empreses que desenvolupen models d'IA sense els mateixos estàndards de ciberseguretat. La vulnerabilitat creix a mesura que es massifica l'ús d'aquesta tecnologia.
La IA no em preocupa. M'interessa i la vull per a la nostra societat i organitzacions. Em preocupa com gestionem la reconversió
I cinquè, un risc del qual gairebé ningú parla: la sobreproducció de contingut. Fins ara, el contingut el generaven els humans. Ara també el fan les màquines. I a un ritme inèdit. Cada dia es pugen més de 100.000 cançons a Spotify. Els textos, vídeos, imatges, idees, arguments, articles i presentacions generats per IA es multipliquen exponencialment. Però mentre es multiplica la creació, no creixen igual els filtres, la curadoria, el criteri. És més fàcil crear que ordenar. I això pot saturar els usuaris, diluir el valor dels continguts humans i fer cada cop més difícil captar l'atenció. És un risc que no és tècnic: és cultural. No sabrem si alguna cosa és rellevant o simplement recent.
I després hi ha la quantitat d'emissions de CO₂ que aquesta genera. Però no vull aprofundir en una cosa que requereix un debat diferent. Seria molt discutible si assignar quotes d'emissió als cotxes abans que a la IA. Però no podem deixar de considerar aquesta qüestió.
En resum, a mi la IA no em preocupa. M'interessa i la vull per a la nostra societat i organitzacions. Però el que em preocupa és com gestionem la reconversió. Perquè no som màquines. Som una societat i les màquines han d'estar al servei d'aquesta, no per amenaçar-ne l'estabilitat i l'ordre.