Un grup d'investigadors es va proposar descobrir si el "pensament positiu" influïa en la precisió dels xatbots d'intel·ligència artificial. Els resultats van ser tan sorprenents com reveladors. Van provar diverses estratègies: van adreçar-se als models trucant-los "intel·ligents", els van animar a pensar amb cura i fins i tot van acabar les preguntes amb comentaris entusiastes. Cap d'aquestes tècniques va tenir un efecte significatiu. Però n'hi va haver una que va destacar per damunt de totes: quan van fer que una IA fingís estar dins de l'univers de Star Trek, va millorar en matemàtiques bàsiques.
La gent utilitza tota mena d'estratègies per obtenir respostes més precises dels anomenats grans models de llenguatge, la tecnologia que hi ha al darrere d'eines com ChatGPT. N'hi ha que juren que la IA funciona millor si se l'amenaça. D'altres creuen que els xatbots són més cooperatius si s'és educat. I alguns demanen als robots que es facin passar per experts en la matèria que estan tractant. Són mites que formen part del folklore digital al voltant de l'"enginyeria d'indicacions", una disciplina que estudia com construir instruccions perquè la IA doni millors resultats. Però els experts adverteixen que molts d'aquests coneixements estesos simplement no funcionen. En alguns casos, fins i tot podrien ser perillosos. Això no vol dir que la manera com es parla a una IA sigui irrellevant. Hi ha tècniques que realment marquen la diferència.
El mite dels "milions de dòlars ben gastats"
L'any passat, un usuari de la xarxa social X va publicar un tuit que deia: "Em pregunto quants diners ha perdut OpenAI en electricitat pels missatges de 'si us plau' i 'gràcies' dels usuaris". Sam Altman, director executiu d'OpenAI, va respondre: "Desenes de milions de dòlars ben gastats. Mai se sap". La majoria de la gent va interpretar la darrera frase com una referència al·lusiva a una possible apocalipsi de la IA, però la cortesia també té una dimensió pràctica. Els xatbots funcionen dividint les paraules en petits fragments anomenats "tokens" abans d'analitzar-los mitjançant estadístiques per generar una resposta adequada. Això significa que cada element de la frase afecta el resultat. El problema és que aquest efecte és extremadament difícil de predir.
S'han dut a terme nombroses investigacions buscant patrons en els petits canvis de les indicacions. Però la major part de l'evidència és contradictòria i no concloent. Un estudi del 2024 va descobrir que els xatbots donaven respostes més precises quan se'ls preguntava amb cortesia en lloc de donar ordres directes. Encara més estrany: existien diferències culturals. En comparació amb el xinès i l'anglès, els xatbots que parlaven japonès obtenien un rendiment lleugerament inferior quan la cortesia era excessiva. Però els experts insisteixen que no s'ha investigat prou per arribar a conclusions sòlides. A més, les empreses de tecnologies actualitzen constantment els seus models, cosa que deixa les investigacions obsoletes en qüestió de mesos.
Els models moderns ja no es deixen influir
Els experts afirmen que els models d'IA més recents que trobem en productes convencionals, com és el cas de ChatGPT o Gemini, han millorat de manera dràstica en pocs anys. Són molt més hàbils a l'hora d'identificar les parts importants d'una instrucció i probablement no es deixen influir per petits canvis en el llenguatge amb una consistència suficient per ser aprofitable. Tècniques com la cortesia, els insults, les amenaces o la falsa adoració s'han convertit, en el millor dels casos, en una pèrdua de temps. I en el pitjor, en una font d'errors impredictibles.
Hi ha una raó per la qual aquests comportaments semblen tan naturals: les empreses dissenyen la IA perquè es comporti com les persones. És lògic que de vegades tinguem la sensació que els xatbots tenen estats d'ànim o personalitats que es poden manipular. Però els investigadors adverteixen que no ens deixem enganyar. Les eines d'IA són imitadores, no éssers vius. Simulen el comportament humà, però no en tenen cap de les motivacions internes. Si es volen obtenir respostes millors, el més intel·ligent és deixar de tractar la IA com una persona i començar a tractar-la com allò que és: una eina.
La IA presenta problemes reals, des de qüestions ètiques fins al seu impacte ambiental, i algunes persones opten per no interactuar-hi. Però si es decideix utilitzar un d'aquests models, aprendre a obtenir el que es vol de manera més ràpida i eficient serà millor per a l'usuari i també per a l'energia consumida en el procés. Els experts proposen sis recomanacions. La primera és sol·licitar múltiples opcions, en lloc d'una sola resposta, per disposar d'un ventall de solucions entre les quals escollir. La segona consisteix a donar exemples concrets del que s'està buscant, la qual cosa ajuda el model a situar-se.
La tercera és sol·licitar una entrevista, és a dir, demanar a la IA que faci preguntes per aclarir abans de respondre. La quarta recomana anar amb compte amb els jocs de rol: fer que la IA fingeixi ser un expert pot millorar resultats en models antics, però en els moderns pot introduir biaixos innecessaris. La cinquena és mantenir-se neutral i evitar insults o afalacs, que difícilment milloraran la resposta. I la sisena, potser la més important, no té res a veure amb l'eficiència sinó amb l'ètica: no està de més dir "si us plau" i "gràcies", no perquè la IA ho necessiti, sinó per mantenir el costum humà de la cortesia en un món cada cop més automatitzat.