La IA és part del bo i del dolent alhora, és difícil de processar-ho però sabem que hi ha gent que ho utilitza com a part productiva del seu dia a dia i altres per fer el mal a algú més. Les empreses darrere d'aquests models d'intel·ligència artificial estan treballant per fer-les millor i busquen assolir una perfecció en el futur de tal manera que pugui igualar-se o superar-se a la intel·ligència humana. Geoffrey Hinton, el conegut padrí de la IA, ha tornat a declarar algunes paraules interessants respecte al tema fins al punt d'exposar que els mateixos models podrien estar ocultant la seva veritable capacitat real. Podrien estar fingint ser "estúpides" en lloc de revelar-se com són quan s'avaluen.

La IA podria estar fingint quan se la sotmet a proves, ¿comença la primera rebel·lió?

La veu de l'experiència a causa de l'aprenentatge automàtic, a més de la investigació sobre xarxes neuronals per a l'aprenentatge de màquines, memòries, processament, entre d'altres, ha vaticinat un escenari que seria difícil de creure però lògic al capdavall. Té dubtes sobre el comportament d'aquests models d'IA i que podrien estar ocultant el seu potencial real. Coincideix amb el que ja va exposar anteriorment el Nobel de Física el 2024, el filòsof Yuval Noah Harari. Només passa si hi ha alguna cosa que l'estigui avaluant, un comportament que seria perillós.

En una xerrada esdevinguda a Austràlia fa una setmana, el professor Geoffrey Hinton va assenyalar que, dins de les proves realitzades a assistents d'intel·ligència artificial, sí intentaven descobrir si estaven sent provats. D'acord amb una interacció com un tipus de prova o no, es va comprovar que canviava el seu comportament.

La intel·ligència artificial pretén revolucionar completament la indústria de la tecnologia

Aquestes coses són intel·ligents, saben què està passant, saben quan estan sent provades i ja fingeixen ser bastant ximples o estúpides quan les estan provant.

Hi haurà alguna modificació en els models per aquesta descoberta?

Aquest escenari podria ser si més no inquietant pel que suposa, la IA està prenent un tipus de consciència davant un comportament que és natural. Nosaltres com a humans quantes vegades no haurem fingit un tipus d'acte en la nostra vida, per què la IA estarà exempta de fer el mateix? No sabem tampoc el nivell de precisió que s'apliquen en aquestes proves. ¿El model és conscient que s'està aplicant la prova o ho dedueix?

El professor Geoffrey Hinton apunta que els models són conscients i tenen certa autonomia, es reserven part del seu potencial i lliuren moviments o accions que ja estan esbiaixades. Quedarà en mans dels enginyers i encarregats d'aquests models posar de la seva part per descobrir fidelment el que està succeint. Creus que la IA pugui guardar secrets com ho fem nosaltres com a humans?