Els riscos de les eines basades en intel·ligència artificial generativa com ChatGPT han començat a pesar més que els seus avantatges. En les companyies tecnològiques més importants del món, inclosa Apple, mentre siguin de tercers, aquest tipus de solucions no són benvingudes internament, i a la Unió Europea també les observen.

Segons una publicació compartida des de Apple Insider,OpenAI podria abandonar Europa a causa de les estrictes regulacions que es planegen en el projecte de Llei d'IA, que entre diversos objectius, busca garantir que es pugui confiar en la intel·ligència artificial.

El futur d'OpenAI a Europa no és clar

Després de reunir-se amb autoritats d'Espanya, França i el Regne Unit per abordar el tema de la regulació de la intel·ligència artificial (IA), el CEO d'Open AI, Sam Altman, ha expressat la seva preocupació per certs aspectes de la iniciativa de llei sobre IA que està sent preparada per la Unió Europea (UE).

Segons les seves declaracions, algunes disposicions plantejades en la proposta podrien tenir un impacte negatiu en les operacions d'OpenAI a la regió, representant possibles obstacles per al compliment de la nova normativa que s'espera que entri en vigor en algun moment del 2025.

L'esborrany actual de la Llei d'IA de la UE estaria sobreregulant, però hem sentit que serà retirat... Hi ha tantes coses que podrien fer com canviar la definició dels sistemes d'IA de propòsit general.

Així mateix, Altman va compartir la postura d'OpenAI davant el projecte de llei per regular la IA en territori europeu i va assegurar que "si podem complir, ho farem, i si no podem, deixarem d'operar. Ho intentarem, però hi ha límits tècnics al que és possible".

Per a l'executiu, una de les seves principals preocupacions es relaciona amb el sistema de categorització proposat per la Comissió Europea en què les plataformes IA es classificarien en funció del "risc potencial" que suposen per al benestar social.

El sistema de qualificació proposat estableix quatre nivells: risc mínim, risc limitat, alt risc i risc inacceptable. Depenent de la categoria de risc assignada a cada projecte d'IA, les empreses responsables d'aquests desenvolupaments hauran de complir requisits rigorosos per poder operar a la Unió Europea. Aquests requisits estaran en consonància amb el nivell de risc identificat i tenen com a objectiu garantir la seguretat, l'ètica i la transparència en l'ús de la intel·ligència artificial a la regió.

Segons les característiques de cada categoria descrites en el projecte de llei, ChatGPT i models com GPT-4 tindria una qualificació de «risc alt». Amb la qual cosa OpenAI haurà de complir amb els requisits més estrictes per poder operar a la regió i que al seu torn representen costos més alts per a la companyia.

Aquests requisits inclouen establir sistemes de seguretat elevats per als usuaris, comptar amb supervisió humana comprovable, alimentar la base de dades amb informació d'alta qualitat per evitar biaixos i registrar l'activitat dels usuaris per rastrejar-los en cas que sigui necessari.

La Llei d'Intel·ligència Artificial va ser proposada per primera vegada per la Comissió l'abril de 2021, quan no imaginàvem que faltava poc perquè els models basats en IA d'OpenAI i Google fossin protagonistes, i s'espera que s'aprovi aquest 2023.