Des de l'esclat de la IA generativa a finals de l'any passat, el famós ChatGPT, hem vist en les últimes setmanes l'inici d'investigacions de diferents agències de protecció de dades de la UE i el Canadà sobre la gestió que es fa de les dades per part de les empreses que comercialitzen aquestes eines. Fins i tot alguns experts creuen que l'Agència de Protecció de la Privacitat de Califòrnia (California Privacy Protection Agency) podria reforçar les seves normes per regular i controlar l'ús de les dades que fa aquesta tecnologia.

En realitat, això no és més que una evolució de les qüestions sobre l'ús que es fa de les nostres dades en moltes aplicacions tecnològiques, que ja fem servir en el dia a dia, i amb les quals actuem de manera inconscient. És que potser hi ha transparència respecte a la utilització de les dades i la informació que deixem en xarxes socials? O en aplicacions que fem servir? És on ens hem involucrat per formar part de l'era digital. O on les empreses que exploten aquest negoci ens han involucrat.

I la situació actual és fruit d'una gran operació de màrqueting per aconseguir involucrar el nombre més gran de nous usuaris en un període tan curt de temps, per acabar d'entrenar un algoritme encara en fase de validació.

Però per què ens ha d'importar la nostra privacitat amb la IA? Per les mateixes raons que amb altres tecnologies. I per alguna de nova.

En aquest cas, tenim els temes clàssics, com ara què es fa amb les dades que introduïm a les eines generatives per llançar les preguntes. En aquestes clàusules de consentiment que ningú no llegeix, els usuaris de la IA cedeixen les seves interaccions a les empreses perquè les facin servir amb la finalitat d'entrenar l'algoritme o altres finalitats que no estan especificades. Com se sap si la informació que s'introdueix en les preguntes que es fa al xatbot s'utilitzaran per generar respostes a altres usuaris? O si se cedirà a altres empreses? No ho sabem.

I aquí sorgeix un assumpte nou pel qual algunes empreses han limitat l'ús d'eines generatives als seus empleats: si es produeixen filtracions d'informació confidencial que s'ha introduït en una interacció amb les eines com ChatGPT o Bard, quina responsabilitat es té? Sobretot, si es filtra informació de tercers com clients, empleats o socis.

Els repositoris de dades que s'han utilitzat per entrenar els algoritmes no són oberts, per tant, no se sap quines dades s'han utilitzat, si estaven protegides o no. OpenAI afirma que utilitza un "ampli corpus" de dades, inclosos continguts amb llicència, "continguts generats per revisors humans" i continguts disponibles públicament a internet. Bastant ambigu. A més, reconeix que les dades també es comparteixen amb tercers. Probablement venent-les, com ho fan les altres de tecnològiques.

Aquí entra un altre factor, si hi ha dades crítiques que no voldríem que fossin publicades sense el nostre consentiment, com qüestions sanitàries, matèries financeres o dades personals, com es pot demanar que s'eliminin? O, fins i tot, les informacions falses que generen aquests programes. Com vaig explicar al meu anterior article "Unes petites vacances per a la IA", la clau de la intel·ligència artificial és al big data. És a dir, com més dades s'utilitzin, millors són els resultats. Per tant, eliminar determinada informació dels reposadors no és fàcil en aquests casos, i alterarà el resultat.

Ja hi va haver casos, com Clearview AI al Canadà, on va ser sancionat per violar les lleis nacionals en utilitzar fotos de ciutadans canadencs sense el seu consentiment.

Com podríem exercir un dret a l'oblit similar al que va tardar tant a aconseguir-se amb Google, per exemple?

A més, hi ha la qüestió de la propietat intel·lectual i com es pot evitar que continguts protegits no siguin utilitzats sense remuneració als seus autors. Això ja està passant. El model Spotify ja es va implantar en la consciència popular, generant negocis lucratius per a les plataformes tecnològiques que negocien amb continguts, però pidolant els seus emoluments per als creadors d'aquests continguts culturals.

De la mateixa manera que considerem èticament reprovable que s'utilitzin humans per provar teràpies en el seu estat primitiu i s'utilitzen altres tècniques de laboratori, per exemple, hauria de tenir consideracions morals l'ús de dades que no s'ha cedit ni l'ús del qual no s'ha autoritzat perquè una empresa els utilitzi impunement amb finalitats lucratives. Almenys en societats democràtiques, on els drets ciutadans es respecten. Això no és una qüestió de rebutjar la innovació, sinó de considerar els impactes col·laterals i de respectar la legalitat vigent. Al cap i a la fi, assumptes que es poden resoldre amb creativitat per part dels desenvolupadors.

Com passa amb molts altres problemes normatius, és probable que Europa s'avanci als EUA a l'hora de prendre mesures enèrgiques contra ChatGPT i altres LLM per motius de privacitat. Però algunes normes com la California Consumer Privacy Act han recalcat la preocupació sobre la protecció dels consumidors.

I encara ha de venir la computació quàntica. Quan sigui una tecnologia consolidada, canviarà totalment la intel·ligència artificial, ja que la seva capacitat de processament permetrà avançar en direccions no possibles avui dia.

Serà necessària més agilitat per protegir els consumidors. I més conscienciació. Ja coneixen la màxima: si alguna cosa és gratis, el producte ets tu. En aquest cas, les teves dades.