La intel·ligència artificial (IA) ha avançat a passos de gegant, oferint-nos eines capaces de crear contingut que abans era impensable. Des d'imatges fotorealistes, com les que es poden crear des d'Apple Intelligence, fins a vídeos convincents com els que permet Sora a chatGPT, la IA generativa està redefinint els límits del que és possible. Però com tota nova tecnologia no és aliena a biaixos, que cada vegada ens fan qüestionar quins són els límits permesos del seu ús.

Tal com ens expliquen els nostres companys d'Adro4all, un incident recent a Malàisia ha posat de manifest els riscos tangibles del contingut generat per IA. Per increïble que sembli, diverses han estat les víctimes d'aquesta il·lusió digital i han "viatjat" fins a la suposada destinació turística.

Viatges falsos generen emocions reals

Tot va començar amb la publicació d'un vídeo produït per un canal de YouTube anomenat "TV Rakyat" que es va fer viral, mostrant un suposat telefèric a través de muntanyes exuberants, sopars amb vistes panoràmiques i fins i tot un zoològic de cérvols a la localitat de Kuak Hulu. La producció era tan elaborada i realista, incloent-hi una presentadora generada per IA que simulava un reportatge real, que moltes persones la van creure.

Una parella de gent gran va conduir més de 370 quilòmetres des de Kuala Lumpur fins a la suposada destinació turística. No obstant això, en arribar i preguntar per l'atracció, es van topar amb la crua veritat: tot era una invenció digital, probablement creada amb eines com Google Veo 3. L'empleada de l'hotel local va relatar la incredulitat de la parella en assabentar-se que no només el telefèric, sinó fins i tot la reportera del vídeo, eren creacions d'intel·ligència artificial.

Un altre usuari va reportar a les xarxes socials que els seus propis pares van gastar més de 2000 euros a llogar una furgoneta per realitzar el mateix viatge, també enganyats pel vídeo viral, que finalment va ser retirat després de l'escàndol públic. Aquests incidents, on "viatges falsos generen emocions reals" i resulten en estafes econòmiques, obren un debat urgent sobre el costat fosc de la IA generativa.

Tan real que preocupa

La naturalesa convincent d'aquests continguts, que poden manipular la percepció de la realitat, és el que els fa tan perillosos. I sens dubte, crea un escenari perfecte perquè els estafadors busquin noves víctimes a través de propostes que semblen reals, gràcies a l'ús de veus clonades per a trucades fraudulentes o vídeos de llocs inexistents.

La solució a aquest creixent problema no és senzilla. Experts assenyalen la necessitat d'una regulació clara que estableixi límits i responsabilitats. A més, un etiquetatge obligatori per al contingut generat per IA podria ajudar els usuaris a identificar el que és real. Però, potser el més important sigui l'educació digital, especialment per a les persones d'edat avançada o aquells menys familiaritzats amb les noves tecnologies, perquè puguin desenvolupar un ull crític i eines per verificar l'autenticitat del contingut que consumeixen en línia.