Bienvenidos a la era tecnológica, abróchense los cinturones. Los rápidos avances tecnológicos de los últimos meses están dejando pasmados incluso a los más freaks de la tecnología. Cada semana cientos de aplicaciones aparecen, a cada cual más útil y sofisticada. Nos encontramos en medio de una batalla tecnológica entre las grandes corporaciones (Microsoft, Google, Facebook/Meta, Apple…) por hacerse con la primera posición. O más bien, por no quedarse atrás, porque saben que de ello depende su supervivencia, siendo Google de las más afectadas. Tanto avance resulta abrumador y recuerda más y más a las películas de ciencia ficción, como las nuevas gafas de realidad virtual anunciadas por Apple Vision Pro hace tan solo unos días.

Con el aumento del uso de la inteligencia artificial (IA) generativa para crear contenido, surgen muchas preguntas sin respuesta. La IA puede crear contenido realista y convincente, como imágenes, videos y textos. Sin embargo, esto también significa que puede ser difícil distinguir entre contenido real y generado por IA. ¿Lo que estoy leyendo está generado por IA o por un humano? Si lo ha generado la IA, ¿lo que estoy leyendo o viendo es realmente cierto? Hace poco se publicó en Twitter una imagen de una explosión en el edificio del Pentágono que causó mucho revuelo y fue compartida por muchos usuarios, incluso por cuentas verificadas. El creador de la imagen creada con IA se disculpó más tarde públicamente haciendo hincapié en lo fácil que resulta manipular la información con estas herramientas.

La necesidad de verificar la información generada por IA es uno de los principales puntos que debemos tener en cuenta. Se dice que los modelos que usan estos lenguajes “alucinan”, es decir, cuando no tienen información se la inventan con base en una serie de probabilidades. Por ejemplo, hace poco un abogado utilizó ChatGPT para defender un caso legal en Estados Unidos. El juez se dio cuenta y no le hizo mucha gracia. Pero es que, aunque la IA tenga información, como funciona a base de probabilidades, a veces, se equivoca en sus resultados. Por ejemplo, uno puede preguntar a ChatGPT sobre si plátano y banana es lo mismo. Según como sea la pregunta, te dirá que sí o que no, y te explicará las diferencias. ¿Cuál es la respuesta correcta?

Además, el uso de IA generativa también plantea preocupaciones éticas. Si una IA genera contenido falso o engañoso, ¿quién es responsable? ¿Cómo se puede asegurar que el contenido generado por IA no cause daño a individuos o grupos? Por ejemplo, sabemos que ChatGPT en su versión gratuita tiene sesgos importantes por género y facción política. ¿Por qué sucede esto? Por la base de datos con la que el chatbot ha sido entrenado: información que OpenAI no quiere revelar.

Por otra parte, ¿qué pasa con los derechos de autor? Por ejemplo, si una IA genera una imagen que se parece a una fotografía tomada por un fotógrafo profesional, ¿quién tiene los derechos de autor sobre esa imagen? Actualmente, existen demandas en curso con Stability AI, Midjourney y DevianArt por temas de copyright, acusadas de utilizar contenido protegido por derechos de autor sin permiso. ¿Cómo se puede verificar si una imagen o un texto ha sido generado por IA o es auténtico? Actualmente, no tenemos soluciones fiables con respecto a esto.

Un tema que preocupa mucho a las empresas también es la privacidad de la información. Estos modelos aprenden de las interacciones, por lo que hay que revisar muy bien lo que se comparte. Empresas como Apple y Samsung han prohibido a sus trabajadores el uso de ChatGPT por miedo a posibles fugas de conocimiento. Y es que es muy tentador, porque ChatGPT te permite mejorar tus escritos, generar ideas, detectar errores en un código o mejorarlo… Tareas que pueden llevar horas de trabajo, resueltas en pocos minutos.

Con todo esto sobre la mesa, no es de extrañar que mucha gente esté pensando: ¿qué efectos va a tener toda esta maquinaria tecnológica en nuestra vida? Desde luego, en Estados Unidos, este es el tema estrella. Por eso, recientemente el Congreso pidió la comparecencia del CEO de OpenAI, Sam Altman. Altam admitió el potencial de la IA para manipular opiniones, especialmente con un año electoral acercándose y apeló a la necesaria regulación de la IA. En Europa, el Consejo de la UE está trabajando actualmente en una versión de la Ley de IA que no acabará de ver la luz hasta 2024. Quizás, para entonces, la IA haya penetrado tanto en nuestras vidas y costumbres que será como “cerrar el establo después de que los caballos se han escapado” y será, como la revista Time vaticina en su último número con un tono muy optimista “El fin de la humanidad”.