A mesura que les xarxes socials s'inunden de contingut generat per Intel·ligència Artificial, ha sorgit un fenomen psicològic preocupant: l'autoconfiança desmesurada. Creiem que els nostres ulls són capaços de detectar el rastre de l'algorisme en els humans, però la realitat és que la línia que separa el contingut autèntic de l'artificial s'ha tornat pràcticament invisible per a l'ull no entrenat.
Un estudi recent dut a terme per la Universitat Nacional Australiana ha posat a prova aquesta suposada perspicàcia humana. Els investigadors van reclutar 125 participants, incloent-hi 36 experts en reconeixement facial, per enfrontar-los a un test digital on havien de classificar rostres reals i generats per intel·ligència artificial. Els resultats van demostrar que fins i tot aquells amb habilitats especials amb prou feines van aconseguir superar la resta per un marge estret.
Cada vegada és més difícil detectar imatges sintètiques
Els resultats de l'estudi van evidenciar l'existència el nivell de confiança dels participants. La majoria estava convençuda d'haver encertat, fins i tot quan els seus resultats eren mediocres. Aquesta dissonància entre la capacitat real i la percepció pròpia és el que els experts denominen una "vulnerabilitat crítica". Segons explica la Dra. Amy Dawel, psicòloga de la institució:
Molta gent creu que encara pot notar la diferència perquè ha jugat amb eines populars d'intel·ligència artificial com ChatGPT o DALL·E. Però aquests exemples no reflecteixen com de realistes s'han tornat els sistemes més avançats de generació de rostres, i basar-se en ells pot donar a les persones una falsa sensació de confiança".
La trampa de la perfecció i l'engany
Actualment, existeixen certs patrons que delaten la IA i fins i tot plataformes com YouTube compten amb eines per a detectar-les. Mentre que l'app centrada en la generació d'imatges, Sora, també proposa límits al respecte.
La tendència a crear rostres excessivament simètrics, proporcions idealitzades i trets "amables" que resulten inusualment atractius. Tanmateix, aquesta "hiperrealitat" és només una fase de transició.
A mesura que els models aprenen a replicar les imperfeccions humanes, asimetries lleus, textures de pell irregulars o mirades menys estandarditzades, la barrera que permet discernir serà cada vegada més difusa.
Aquesta confiança cega en la nostra capacitat de detecció ens deixa exposats a riscos tangibles. Els deepfakes ja no són experiments de laboratori, sinó eines utilitzades per a cometre fraus i estafes personalitzades, suplantació d'identitat amb una credibilitat total i desinformació política.
Una nova era d'escepticisme necessari
Si la ciència demostra que fins i tot els experts fallen, la societat està obligada a tenir un pensament més crític i menys dependent de la intuïció visual. En el futur, la diferència entre un rostre real i un de digital no es podrà dirimir amb la vista, sinó a través de protocols de verificació i una educació digital profunda. El primer pas per protegir-nos és, paradoxalment, acceptar que ja no podem confiar en el que veiem.