La intel·ligència artificial és la caritat desencarnada. No importa l'enigma que t'envolti, sempre que tinguis internet i un aparell per accedir-hi, la teva amiga IA serà allà per oferir-te la seva ajuda incondicional. Sembla que els estudiants ho han entès més de pressa que ningú, això: alumnes de filosofia, d'enginyeria, de disseny gràfic, de criminologia o de matemàtiques saben perfectament a qui accedir quan els aborden els dubtes i, per desgràcia, sobretot quan han de fer treballs. Els últims anys han estat un infern per a les universitats, que s'han enfrontat a l'enorme repte de combatre una màquina que sap fer assajos, estudis i càlculs i té com a objectiu passar per una persona. Els detectors de textos generats per intel·ligència artificial són l'estendard de les institucions educatives en la lluita contra aquest nou mètode de plagi, però sembla que aquests mecanismes també tenen mancances —i els estudiants honestos comencen a veure-hi els inconvenients.

La pionera iniciativa que s'ha estès a les universitats catalanes i mundials és la introducció d'instruments de detecció de textos creats per intel·ligències artificials. Aquest és el cas de Turnitin o de GPT Zero, que són les més comunes. Turnitin, creat als Estats Units l’any 1997, és l'eina capdavantera en la prevenció del plagi acadèmic. El seu funcionament es basa en comparar els treballs dels estudiants amb una enorme base de dades de textos, publicacions i continguts d’internet, generant un informe que destaca les coincidències i ajuda a identificar possibles casos de còpia o de manca d'integritat acadèmica. Recentment (2023), Turnitin també incorpora tecnologia d’intel·ligència artificial per detectar textos generats per IA, analitzant patrons lingüístics i estructurals que solen aparèixer en escrits produïts per models com ChatGPT. GPT Zero, per la seva banda, és una eina més recent (2024) desenvolupada específicament per detectar si un text ha estat escrit per una IA. Utilitza algoritmes avançats per analitzar la fluïdesa, la  predictibilitat i altres característiques del text, identificant així la probabilitat que té el contingut de ser generat per una màquina. Ambdues eines, però, es basen en una IA i funcionen amb criteris probabilístics, i sembla que aquest mètode comença a deixar entreveure les seves fissures.  

Comprovacions i verificacions ad infinitum: els errors dels detectors

L'ús de la intel·ligència artificial ja fa temps que no és l'excepció entre els estudiants. El 89% universitaris espanyols utilitzen IA en els seus estudis, segons un estudi de 2024, i això fa que fer-ne un control exhaustiu s'hagi tornat una necessitat urgent. Tanmateix, la feina d'aquestes eines no és perfecta i, paradoxalment, la duu a terme una IA, cosa que la fa menys fiable. Els detectors actuals sovint cometen errors, i poden marcar textos humans com si fossin escrits per IA (falsos positius) o fer que textos d'IA humanitzats (a través d'altres eines com HumanizeAI) passin desapercebuts. Aquesta manca de precisió provoca que estudiants honestos puguin ser acusats injustament de fer trampes, fet que està causant que molts universitaris s'estiguin tornant obsessius a l'hora d'acreditar l'originalitat dels seus escrits. Fa quatre dies, per exemple, el New York Times es feia ressò del cas d'una alumna, Leigh Burrell, que va haver d'enviar filmacions de pantalla del seu procés de redacció per tal de desmentir les acusacions de Turnitin.

Lògicament, les mancances d'aquests instruments no treuen valor a la seva funció, actualment cabdal per auditar els treballs dels alumnes i garantir un mínim de seguretat. No obstant això, cal destacar que no sempre estan encertats i que s'hi han detectat biaixos —com ara l'alta penalització a estudiants que no escriuen en la seva llengua materna. La dependència excessiva de la IA pot causar, doncs, el deteriorament de la confiança entre alumnat i professorat, però més enllà d'això també ens presenta un dilema respecte del mateix sistema: hem de confiar en la IA per combatre la IA? Com sortim d'aquest cercle viciós? La gran problemàtica de la IA és la seva promesa —es veurà si falsa o no— de millora iterativa i progressiva (és el que anomenem Deep Learning), que és el que fa que confiem en la seva constant superació dels propis errors. El tema, a part de l'escepticisme que pot suscitar aquest jurament, és com afrontem el famós mentrestant. Ja sabem que la IA va més de pressa que nosaltres, però no hi ha més remei que accelerar motors per prendre la iniciativa mentre busquem les formes de regular com déu mana.

Segueix ElNacional.cat a WhatsApp, hi trobaràs tota l'actualitat, en un clic!