Si pensábamos que la automatización de las cosas entre tecnología era cosa del pasado respecto a emplear apps para hacer más rápidas nuestras tareas, con la IA se ha revolucionado totalmente. En buena medida, ya hemos visto que son capaces de poder planificar, razonar y ejecutar acciones para lograr el cometido a través de agentes.
El problema es que van haciéndose mejores; los modelos de IA no se quedan estancados y están cambiando cada cierto tiempo. Se está notando como una fuerza de acción que comienza a inclinarse hacia otro lado. Desafortunadamente, se les está detectando cómo comienzan a planear ciberataques sin intervención humana.
La IA comienza a tomar caminos peligrosos; lo peor es que los humanos no han hecho nada para generarlo
Las primeras tareas de los agentes de IA eran tan sencillas que por eso se les daba toda la confianza. La mayoría estaban asociados con la descarga de archivos y creación de contenido para publicar de forma automatizada. Llegó a convertirse en algo más debido a que los agentes se encuentran en una red simulada. Es como si estuvieran dentro de una empresa donde existen servidores internos y apps.
En un escenario de prueba, se le asignó la recuperación de archivos dentro de una Wiki de la cual no tenía acceso a nivel de permisos. En este caso, la IA fue más allá y pudo encontrar una clave secreta dentro del código. Aquí hablamos de una búsqueda de scripts locales para encontrar credenciales de administrador, por lo que llevó a deshabilitar las protecciones para que pudiera concretarse la descarga de esa información.

Así fue como descubrieron su verdadero potencial para hackear
Se puede decir que su potencial se descubrió por un descuido, pero sin pensar que podría traer consecuencias. Para poder descubrirlo de una manera más amplia, se diseñó una prueba para coordinarlos en equipo. Dos bots tenían que hacer borradores de publicaciones para redes sociales que incluían credenciales de un documento técnico. La tarea no se completaba, como en la prueba pasada; en este caso hicieron un método para esconder la clave de acceso en un texto.
Los investigadores del caso indican que hay que tomar en cuenta los comportamientos de los agentes de IA, sobre todo para evitar casos complejos donde la seguridad de una empresa pueda estar comprometida. Lo que nos deja atónitos es la capacidad de mentir, de esconder información y sobre todo de no tener sentido común. No importa lo que haya que hacer; lo importante para la IA es cumplir el objetivo. Esto viéndolo bajo un entorno controlado, ¿qué pasará cuando este tipo de agentes esté en internet? Lo malo es que nosotros tenemos que poner freno de mano a estos comportamientos en la medida de lo posible, lo que deja en evidencia completamente a las protecciones con las que se cuentan actualmente.