L’accelerada implantació de la intel·ligència artificial en el teixit empresarial xoca amb unes deficiències estructurals en matèria de visibilitat, governança i controls de seguretat. Així ho reflecteix un estudi global elaborat per TrendAI, que assenyala una bretxa creixent entre la integració d’aquestes tecnologies i la capacitat de les organitzacions per gestionar-ne els riscos associats. L’informe destaca que, mentre s’escala l’adopció de la IA, persisteixen dificultats per mantenir el control sobre els marcs de governança i seguretat, especialment evidenciades per la diferència de percepcions entre els responsables tecnològics i els directius de negocis. D’acord amb les dades recollides, el 49% dels professionals tecnològics confia en els marcs legals vigents en matèria d’intel·ligència artificial.
Una de les conclusions més rellevants de l’estudi fa referència a la capacitat restringida per identificar l’ús maliciós de la intel·ligència artificial en l’àmbit intern de les empreses. Tant els responsables tecnològics com els de negocis calculen que només es detecta entre el 21% i el 40% del comportament maliciós vinculat a aquesta tecnologia, la qual cosa implica que una part substancial d’aquestes activitats roman en una zona d’invisibilitat. Aquest dèficit de detecció adquireix una rellevància crítica en un context en què els ciberdelinqüents estan integrant la IA per automatitzar atacs, perfeccionar tècniques d’enginyeria social i escalar campanyes de frau amb un grau de sofisticació creixent. L’informe adverteix, en aquest sentit, que la manca de visibilitat sobre aquestes pràctiques constitueix un risc estructural en l’actual panorama de seguretat digital.
La pressió interna per innovar
L’estudi també evidencia una tensió interna creixent entre la necessitat d’innovar i la garantia de la seguretat. Els responsables consultats reconeixen haver experimentat pressions per aprovar desplegaments d’intel·ligència artificial que plantejava dubtes raonables sobre el seu impacte en la ciberseguretat. Aquesta circumstància reflecteix la dificultat per equilibrar l’agilitat en l’adopció tecnològica amb els processos d’avaluació de riscos previs al desplegament de noves eines. Segons es desprèn de l’informe, la manca d’un marc d’avaluació consolidat contribueix a incrementar la incertesa en els processos de presa de decisions executives.
Malgrat les mancances en governança i visibilitat, l’estudi detecta un ampli consens sobre el paper estratègic de la intel·ligència artificial en la protecció de les organitzacions. Un 71% dels dirigents tecnològics coincideix a assenyalar que la IA és necessària per fer front a amenaces que, precisament, són impulsades per aquesta mateixa tecnologia. Les empreses assumeixen, d’aquesta manera, que la resposta a atacs cada cop més automatitzats i dinàmics requereix la incorporació de capacitats avançades de detecció i resposta basades en l’aprenentatge automàtic i l’anàlisi predictiva.
Aquesta percepció compartida situa la IA com un component estratègic de la defensa digital, tot i que la seva implementació efectiva encara presenti febleses significatives. L’informe posa de manifest diferències notables en el grau de visibilitat sobre els sistemes d’IA desplegats. Mentre que el 83% dels responsables tecnològics afirma disposar d’una visibilitat completa o elevada, aquest percentatge es redueix al 57% en el cas dels directius de negocis. Aquesta divergència evidencia la persistència de marges de millora en l’alineació estratègica i la transparència interna sobre l’ús real d’aquestes tecnologies.
