Sam Altman és un dels directius més conscients sobre l'impacte que la IA pot representar a la vida de cadascun de nosaltres. Les seves recents declaracions per a un podcast en són una mostra. Tot i que està a càrrec d'OpenAI, una de les empreses més poderoses d'intel·ligència artificial, sap els límits a què s'enfronta i ha deixat una cosa clara, no estem lliures de la maldat. Els deepfakes en formen part.

La tecnologia ha arribat a un punt en el qual podrien passar coses dolentes, segons Sam Altman

La firma de capital de risc Andreessen Horowitz té un podcast de títol "a16z" on Sam Altman, CEO d'OpenAI, va poder expressar aquestes declaracions interessants. Tot ve arran del que pot fer la nova actualització de Sora, l'app que s'ha tornat viral pels continguts vistos en diferents xarxes socials. Es va col·locar de seguida en el primer lloc de l'App Store. El que va ser inquietant va ser la manera en què els usuaris la van fer viral, els deepfakes tant de gent morta com de famosos, igualment el mateix Altman es va veure involucrat en aquests vídeos.

És de qüestionar-se el perquè llancen aquest tipus de creacions però no és res més que l'evolució de la tecnologia. Si Sora no ho fa, algú més ho farà i s'endurà el crèdit per això mateix. Altman es justifica dient que han de seguir endavant, més que res "perquè la societat necessita una prova".

Sam Altman al podcast a16z

Molt aviat el món haurà de bregar amb increïbles models de vídeo que poden falsificar qualsevol imatge o mostrar pràcticament qualsevol cosa que es vulgui.

El que ha de succeir, en veu del mateix Altman, és una "coevolució" entre la societat i la IA en una cosa que simplement "ja no es pot abandonar". La tecnologia ja és de domini públic i l'única manera és "establir límits i normes" abans que les eines mutin a una cosa més poderosa.

Quins són els següents passos en aquest cas?

Continuo pensant que hi haurà moments realment estranys o aterridors. No vol dir que mai ho farà (respecte al fet que la IA no ha causat un esdeveniment horrible). Milers de milions de persones parlant amb el mateix cervell podrien crear coses estranyes a escala social.

L'app Sora d'OpenAI ja està disponible

Està d'acord a donar suport a qualsevol tipus de prova de seguretat rigorosa per als models futurs que puguin exposar-se per aplicar-se en la IA, sigui en vídeos o qualsevol material. No ha de ser necessàriament un deepfake, sinó que la IA serà utilitzada per a gairebé qualsevol cosa i que molts podrien no comprendre els algoritmes de decisions pròpies, cosa que podria caure com una actitud inconscient.

Sobre el tema de futures regulacions va indicar que la majoria d'aquestes podrien tenir desavantatges. En aquest cas s'haurien d'aplicar per igual i a cadascuna de les intel·ligències artificials, almenys amb els adolescents està passant a tal grau que són monitoritzats de les activitats que realitzen. Hi ha un límit entre la privadesa i el lliure albir, utilitzar la IA per a la productivitat o l'oci és l'exemple perfecte. Quant deliberes a la IA en la teva vida diària? Penses que podries deliberar-la a tal grau de només ordenar-li coses mentre només et dediques a veure el que fa?