En plena carrera global por dominar la inteligencia artificial, las empresas se enfrentan a un riesgo importante: la presión por subirse al tren tecnológico las está llevando a adoptar la IA sin una estrategia sólida, lo que conlleva descontrol de costes, riesgos en privacidad de datos y dependencia excesiva de un solo proveedor. Esta es una de las principales advertencias que hace Albert Garcia, director de Negocio de KrakenD, en una entrevista a ON-IA.

Desde una perspectiva privilegiada, ya que su herramienta actúa como puente de gobernanza entre las empresas y los modelos como ChatGPT, el experto analiza el presente y el futuro de esta tecnología. Mientras las grandes potencias compiten por el liderazgo, Garcia se muestra optimista sobre nuestra capacidad como especie para alinear las IA con los valores humanos.

¿Qué es para usted la inteligencia artificial?
Desde mi perfil técnico entiendo la inteligencia artificial como el resultado de una serie de tecnologías y disciplinas como el machine learning, el deep learning, toda una serie de disciplinas que lo que han perseguido desde hace ya unos años es conseguir mejorar las capacidades de aprendizaje e inferencia de los sistemas. Desde hace unos años hasta la actualidad han aparecido los transformers, que no deja de ser la tecnología que ha dado pie a sistemas como ChatGPT y que nos han abierto las puertas de estas capacidades que nos han cogido por sorpresa.

Si se encontrara a un desconocido por la calle, ¿qué le diría sobre KrakenD?
Kraken es una herramienta de conectividad. Nosotros lo que buscamos es simplificar aquellas empresas que consumen o exponen servicios para ser consumidos, lo que se llaman las APIs. Nosotros somos una API Gateway. Y este software lo que permite es básicamente eso, simplificar el consumo y la exposición de datos y añadir toda una serie de capas de gobernanza. Al final, lo que hemos visto es que cuando nosotros consumimos modelos de lenguaje, los LLM, lo que estamos haciendo es consumir APIs de estos modelos. Y lo que hemos visto es que podemos replicar parte de los retos que ayudamos a las empresas a mitigar a través de lo que ahora ofrecemos, que ya no es solo una API Gateway, sino que es una AI Gateway, una pieza para simplificar de nuevo el consumo de estos modelos de lenguaje y añadir todas estas capas necesarias de seguridad, control y gestión de costes.

Entrevista Albert García, ONIA / Foto: Carlos Baglietto
Imagen de Albert Garcia, director de Negocio de Kraken

¿Cuáles son los principales sectores o ámbitos de negocio que ustedes tienen y los mercados donde desarrollan su actividad?
La mayoría de nuestros clientes, aproximadamente un 60%, son americanos. Trabajamos, por ejemplo, con el ejército norteamericano, American Express u Honda AMC Networks, pero también tenemos clientes en Europa, Asia, Australia y América Latina. Principalmente, recibimos en cargos de sectores altamente regulados. Kraken es un software que no requiere conectividad de terceros, es decir, funciona desde la infraestructura de los clientes y esto para muchos de ellos, gobiernos o firmas financieras, es muy importante. Una herramienta de nuestras características asegura la privacidad de las operaciones

¿Cómo aplican ustedes la inteligencia artificial en su día a día?
La inteligencia artificial tiene dos vertientes. Nosotros ofrecemos servicios para hacer un buen consumo, aplicando capas de gobernanza y control de costes. En el ámbito interno también usamos la IA. Desde el principio podríamos decir que el tema de la automatización y la aplicación de la tecnología en la mejora y optimización de nuestro rendimiento ha sido clave. Para poner en contexto, somos una empresa de siete personas, de las cuales tres nos dedicamos al área de ventas, negocio y marketing.

Tenemos unos 130 clientes en activo, unos dos millones de servidores funcionando en todo el mundo y gestionamos 150 oportunidades de negocio. Estos volúmenes serían imposibles de gestionar por un equipo pequeño sin el apoyo de estas herramientas. Desde asistentes personalizados que nos ayudan cada mañana a saber en qué debemos enfocarnos, seleccionar las oportunidades que tienen más posibilidad de conversión, ayudarnos a contextualizar conversaciones con clientes o cualquier tarea del día a día como hacer búsquedas de mercado para preparar oportunidades de venta. A modo de ejemplo, utilizo mucho ciertos modelos personalizados de GPT Custom para plantearme hipótesis sobre actuaciones que quiero llevar a cabo. 

Muchas empresas tienen la sensación de estar perdiendo una oportunidad si no se suben al tren de la IA

Usted ahora habla de esta parte de trabajo interno y, a la vez, del ámbito externo de negocio hacia el cliente. ¿Qué obstáculos o qué dificultades han visto en este proceso de adopción de la inteligencia artificial?
Hay algo que vemos repetidamente, y es que vivimos una burbuja. Una burbuja desde la perspectiva, no en el sentido de que sea algo que necesariamente deba estallar a corto plazo, pero nos encontramos con que muchas empresas tienen la sensación de estar perdiendo una oportunidad si no se suben al tren de la IA. Esto hace que muchas veces la voluntad de adopción de la IA vaya por delante de la estrategia de adopción de la IA y comporta ciertos riesgos.

Nos encontramos con empresas que disponen de un presupuesto determinado para invertir en la adopción de la IA, pero todavía no tienen clara una estrategia sólida que implica tener unos objetivos claros. Sin este paso aparecen incógnitas y riesgos como el descontrol de costes o bajo qué parámetros se actúa en materia de privacidad y control de datos. Muchas empresas tienen el riesgo de quedarse atadas a un único proveedor. Imaginemos que una empresa decide adoptar OpenAI y al cabo de un tiempo se da cuenta de que para su caso de uso probablemente sería mucho más conveniente utilizar otro modelo de lenguaje.

Últimamente, algunas voces del ecosistema han puesto sobre la mesa el hecho de que desde la sociedad esta explosión de la inteligencia artificial se ve como un elemento demasiado técnico. No sé si comparte esta opinión y cómo cree que se podría acercar la inteligencia artificial a un uso más cotidiano, más del día a día para la gente.
Creo que hay varias capas aquí. Y creo que modelos de uso generalista como chats GPT o clouds han hecho mucho trabajo en este sentido. Hay mucha gente no técnica que hoy en día saca cierto partido a estas herramientas. Yo lo veo muy similar, haciendo una analogía, con el proceso de digitalización que vivieron muchas empresas durante los años 90. La cuestión no era implantar sistemas de ofimática en las empresas. La cuestión era intentar ver cómo estos sistemas podrían ayudar a cada trabajador.

Uno de los retos que hoy tenemos es que la gente debe poder formarse con estas herramientas. No se trata simplemente de usar ChatGPT en la empresa, se trata de entender cómo sacar el mejor partido de estas herramientas. Entender qué es un prompt y que decirle cosas de tres formas diferentes a un modelo de lenguaje puede provocar resultados mediocres o cercanos a lo que podría hacer un especialista en el tema. Es una revolución que ha venido para quedarse, y yo creo que estamos por ver revoluciones espectaculares en los próximos cinco años.

En un mundo donde Estados Unidos, China y Europa luchan por el liderazgo tecnológico, ¿cómo se puede convivir con estos tres ecosistemas?
Lo vivimos en el mundo de la regulación, los avances y la innovación de la inteligencia artificial, pero lo he vivido en muchos otros sectores con riesgos paralelos. Creo que es un trabajo de entendernos y hay que mirar más allá de lo que está pasando ahora mismo. De alguna manera hay que empezar a hacer una reflexión más como especie de lo que es necesario y yo en esto soy una persona optimista para conseguir el objetivo de que las IA estén alineadas con nuestros valores como personas.

¿Hacia dónde cree que caminará la inteligencia artificial en la próxima década?
No hace falta ir muy lejos. En un plazo de tres y cinco años veremos una comoditización de los modelos de lenguaje. Hace dos o tres años teníamos OpenAI como modelo más avanzado y hoy tenemos Cloud Mistral, LlaMA y muchísimos modelos. Después, una tendencia que ya empezamos a ver es el tema del concepto de los agentes autónomos, es decir, inteligencias artificiales a las que dotamos de cierta autonomía para llevar a cabo tareas complejas.