Esther Checa s'ha convertit en un referent dels pòdcasts sobre intel·ligència artificial gràcies a l'IA HORIZONS que publica cada setmana a través del nostre ON-IA. Fa més de vint anys que treballa en la indústria publicitària i de consultoria tecnològica en projectes sobre Innovació i Transformació Digital i Estratègia de Màrqueting Digital. Actualment, lidera la Innovació a t2ó One. Però també dedica una part important del seu temps a la docència en programes d'alta direcció sobre IA i Estratègia Digital. El 2023 vaig ser nomenada una de "Las Top 100 Mujeres Líderes en España", i des del 2021 forma part de la guia de "Mujeres Referentes del Emprendimiento Innovador Español" i "Guía de Mujeres Líderes del Ecosistema Empresarial". A més a més, formo part del consell editorial d'ON-IA. Amb ella, analitzem i prenem el pols a la salut de la intel·ligència artificial, dins i fora de casa nostra.
Gemini, un referent
El més essencial, segons Checa, és saber utilitzar i conèixer molt bé l'ús de les eines que ens dona la IA: "Totes les grans plataformes sempre tenen un disclaimer que els eximeix i sempre recomanen que un cop s'obtinguin els resultats, sempre verificar. De fet, Google és l'únic, és l'única plataforma en el seu xatbot de Gemini que indica, a través de la doble verificació, aquells resultats que sí que està segur que són correctes i aquells que no té clar si són correctes o no, però que formen part de la resposta. I com visualitza aquesta doble verificació? Els que són correctes els marca en verd i els que no, els deixa en color taronja. Jo recomano a totes aquelles persones que per exemple, utilitzen un xatbot com Gemini, ja que donin al logo de Google al final de la resposta perquè entenguin i tinguin un mapa visual de color i vegin que la resposta està verificada i connectada amb les fonts o aquelles que ha donat resposta en aquest cas".
Malgrat tot, Checa també considera que el previ pas que hem fet tota una generació en la cerca tradicional ens ha donat unes eines essencials: "La forma en què com a societat hem anat aprenent a utilitzar eines que ens han facilitat informació i com aquesta informació s'ha subministrat, ha tingut un procés d'evolució. Hem passat d'un procés de buscar la informació en un entorn de cercadors, on la forma de fer una recerca és incorporant una sèrie de termes i després com a usuaris hem establert un procés de selecció i de discriminació. Hem après a discriminar la informació. I un cop hem identificat una cosa que és útil, perquè hem fet clic a l'enllaç i aquí hem entrat a consumir, a llegir, a decidir, ¿no? És un procés una mica estressant a escala cerebral, però és així com hem après a discriminar el valor de la informació quan hem accedit a entorns digitals".
Parlem amb veus clonades
I, a partir d'aquí, l'entrevista també parla de futuribles immediats. Per tant, quines amenaces més immediates tenim, damunt d'ella? "Aquesta tecnologia, inevitablement estem molt exposats a la desinformació. Això és una realitat. La desinformació és un dels grans reptes que té aquesta tecnologia. Hi ha una part molt important i és que aquesta tecnologia cada vegada l'estem antropomorfitzant més. Això significa que aquesta tecnologia, en concret la IA generativa, l'utilitzem cada vegada més per gestionar o donar aquesta connexió com si fos molt humana. Doncs per exemple, les veus clonades, les veus sintètiques, els avatars. Tot això està fent que quan, bo, ja que interactuem moltes vegades ja no parles amb persones, sinó que comences a parlar amb veus, clonades, parles amb un avatar. Les formes estem veient, ja que les últimes actualitzacions de les grans plataformes a l'estil d'OpenAI amb el seu Voice Mode, en el qual la veu mostra sentiments o mostra la tonalitat que fa que les connexions i el nostre cervell connecti amb el somriure, crear aquesta, aquesta conversa més amena".