Esther Checa se ha convertido en un referente de los pódcasts sobre inteligencia artificial gracias a la IA HORIZONS que publica cada semana a través de nuestro ON-IA. Hace más de veinte años que trabaja en la industria publicitaria y consultoría tecnológica proyectas sobre Innovación y Transformación Digital y Estrategia de Marketing Digital. Actualmente, lidera la Innovación en t2ó One. Pero también dedica una parte importante de su tiempo a la docencia en programas de alta dirección sobre IA y Estrategia Digital. En el 2023 fui nombrada una de "Laso Top 100 Mujeres Líderes España", y desde el 2021 forma parte de la guía de "Mujeres Referentes del Emprendimiento Innovador Español" y "Guía de Mujeres Líderes del Ecosistema Empresarial". Además, formo parte del consejo editorial de ON-IA. Con ella, analizamos y tomamos el pulso a la salud de la inteligencia artificial, dentro y fuera de nuestra casa.

Gemini, un referente

Lo más esencial, según Checa, es saber utilizar y conocer muy bien el uso de las herramientas que nos da la IA: "Todas las grandes plataformas siempre tienen un disclaimer que los exime y siempre recomiendan que una vez se obtengan los resultados, siempre verificar. De hecho, Google es lo único, es la única plataforma en su chatbot de Gemini que indica, a través de la doble verificación, aquellos resultados que sí que está seguro que son correctos y aquellos que no tiene claro si son correctos o no, pero que forman parte de la respuesta. ¿Y cómo visualiza esta doble verificación? Los que son correctos los marca en verde y los que no, les deja en color naranja. Yo recomiendo a todas aquellas personas que por ejemplo, utilizan un chatbot como Gemini, ya que den al logo de Google al final de la respuesta para que entiendan y tengan un mapa visual de color y vean que la respuesta está verificada y conectada con las fuentes o aquellas que ha dado respuesta en este caso".

A pesar de todo, Checa también considera que el previo paso que hemos dado toda una generación en la búsqueda tradicional nos ha dado unas herramientas esenciales: "La forma en que como sociedad hemos ido aprendiendo a utilizar herramientas que nos han facilitado información y como esta información se ha suministrado, ha tenido un proceso de evolución. Hemos pasado de un proceso de buscar la información en un entorno de buscadores, donde la forma de hacer una búsqueda es incorporando una serie de términos y después como usuarios hemos establecido un proceso de selección y de discriminación. Hemos aprendido a discriminar la información. Y una vez hemos identificado una cosa que es útil, porque hemos clicado al enlace y aquí hemos entrado a consumir, a leer, a decidir, ¿no? Es un proceso un poco estresante a escala cerebral, pero es así como hemos aprendido a discriminar el valor de la información cuando hemos accedido a entornos digitales".

Hablamos con voces clonadas

Y, a partir de aquí, la entrevista también habla de futuribles inmediatos. ¿Por lo tanto, qué amenazas más inmediatas tenemos, encima de ella? "Esta tecnología, inevitablemente estamos muy expuestos a la desinformación. Eso es una realidad. La desinformación es uno de los grandes retos que tiene esta tecnología. Hay una parte muy importante y es que esta tecnología cada vez lo estamos antropomorfizando más. Eso significa que esta tecnología, en concreto la IA generativa, lo utilizamos cada vez más para gestionar o dar esta conexión como si fuera muy humana. Pues, por ejemplo, las voces clonadas, las voces sintéticas, los avatares. Todo eso está haciendo que cuando ya que interactuamos muchas veces ya no hablas con personas, sino que empiezas a hablar con voces, clonadas, hablas con un avatar. Las formas estamos viendo, ya que las últimas actualizaciones de las grandes plataformas al estilo de OpenAI con su Voice Mode, en las cuales la voz muestra sentimientos o muestra la tonalidad que hace que las conexiones y nuestro cerebro conecte con la sonrisa, crear esta, esta conversación más amena".