La acelerada implantación de la inteligencia artificial en el tejido empresarial choca con unas deficiencias estructurales en materia de visibilidad, gobernanza y controles de seguridad. Así lo refleja un estudio global elaborado por TrendAI, que señala una brecha creciente entre la integración de estas tecnologías y la capacidad de las organizaciones para gestionar los riesgos asociados. El informe destaca que, mientras se escala la adopción de la IA, persisten dificultades para mantener el control sobre los marcos de gobernanza y seguridad, especialmente evidenciadas por la diferencia de percepciones entre los responsables tecnológicos y los directivos de negocios. De acuerdo con los datos recogidos, el 49% de los profesionales tecnológicos confía en los marcos legales vigentes en materia de inteligencia artificial.

Una de las conclusiones más relevantes del estudio hace referencia a la capacidad restringida para identificar el uso malicioso de la inteligencia artificial en el ámbito interno de las empresas. Tanto los responsables tecnológicos como los de negocios calculan que solo se detecta entre el 21% y el 40% del comportamiento malicioso vinculado a esta tecnología, lo cual implica que una parte sustancial de estas actividades permanece en una zona de invisibilidad. Este déficit de detección adquiere una relevancia crítica en un contexto en el que los ciberdelincuentes están integrando la IA para automatizar ataques, perfeccionar técnicas de ingeniería social y escalar campañas de fraude con un grado de sofisticación creciente. El informe advierte, en este sentido, que la falta de visibilidad sobre estas prácticas constituye un riesgo estructural en el actual panorama de seguridad digital.

La presión interna para innovar

El estudio también evidencia una tensión interna creciente entre la necesidad de innovar y la garantía de la seguridad. Los responsables consultados reconocen haber experimentado presiones para aprobar despliegues de inteligencia artificial que planteaba dudas razonables sobre su impacto en la ciberseguridad. Esta circunstancia refleja la dificultad para equilibrar la agilidad en la adopción tecnológica con los procesos de evaluación de riesgos previos al despliegue de nuevas herramientas. Según se desprende del informe, la falta de un marco de evaluación consolidado contribuye a incrementar la incertidumbre en los procesos de toma de decisiones ejecutivas.

A pesar de las carencias en gobernanza y visibilidad, el estudio detecta un amplio consenso sobre el papel estratégico de la inteligencia artificial en la protección de las organizaciones. Un 71% de los dirigentes tecnológicos coincide en señalar que la IA es necesaria para hacer frente a amenazas que, precisamente, son impulsadas por esta misma tecnología. Las empresas asumen, de esta manera, que la respuesta a ataques cada vez más automatizados y dinámicos requiere la incorporación de capacidades avanzadas de detección y respuesta basadas en el aprendizaje automático y el análisis predictivo.

Esta percepción compartida sitúa la IA como un componente estratégico de la defensa digital, a pesar de que su implementación efectiva aún presenta debilidades significativas. El informe pone de manifiesto diferencias notables en el grado de visibilidad sobre los sistemas de IA desplegados. Mientras que el 83% de los responsables tecnológicos afirma disponer de una visibilidad completa o elevada, este porcentaje se reduce al 57% en el caso de los directivos de negocios. Esta divergencia evidencia la persistencia de márgenes de mejora en la alineación estratégica y la transparencia interna sobre el uso real de estas tecnologías.