La inteligencia artificial (IA) será un punto clave de inflexión después del desarrollo de armas químicas y nucleares en las guerras. Los avances tecnológicos en este ámbito son preocupantes y ya estarían utilizando en algunos conflictos bélicos, asegura el diario económico alemán Handelsblatt. En un artículo publicado este sábado, el rotativo alerta de la existencia de armas autónomas letales fabricadas en Turquía y el fracaso de la ONU de garantizar un control sobre esta tecnología. Aparte, repasan los casos en los cuales ya se han empleado.

Ya es una realidad

Los robots asesinos ya son una realidad, asegura el Handelsblatt. El informe oficial de las Naciones Unidas sobre el conflicto en la costa de Libia en el 2020 indica que se usaron drones fabricados en Turquía "programados para atacar objetivos" sin que ningún operador los controlara. Más tarde, durante el último conflicto en la Franja de Gaza, también denominada 'la primera guerra de IA de la historia', Israel habría matado "a 150 altos cargos de Hamás con la ayuda de IA", explica el rotativo citado. Así, gracias al reconocimiento facial o de movimiento, estas nuevas armas pueden detectar y atacar con gran rapidez y precisión los objetivos sin la necesidad de supervisión humana, hecho que supone que una formación de más de 1000 drones se pueda considerar un "arma de destrucción masiva".

Vacío legal

El problema, tal como señalan varios expertos, es la regulación de esta nueva tecnología. Hasta ahora, las peticiones de humanizar estas armas, prohibirlas o regularlas no han avanzado mucho. Una propuesta de resolución en la ONU no consiguió ser aprobada. Después de la decisión tomada por la Comisión Europea (CE) de vetar el uso indiscriminado de los sistemas de inteligencia artificial (IA) denominados de "alto riesgo", como el reconocimiento facial, los expertos en la materia corroboran que estas tecnologías pueden atentar contra los derechos de los ciudadanos.

El 21 de abril pasado, la CE aprobó un reglamento que regula cuando está permitido el uso de tecnologías inteligentes como el reconocimiento facial. Según la CE, la vigilancia masiva de personas solo está permitida en determinadas circunstancias, como la búsqueda de un niño desaparecido o de un criminal sospechoso de un delito muy grave. Además, la vigilancia masiva siempre tendrá que estar aprobada por un juez y utilizada únicamente en situaciones donde sea estrictamente necesaria para responder a un riesgo específico e inminente, y nunca como rutina. Por lo tanto, la CE estudia maneras de utilizar esta nueva tecnología de manera respetuosa con las libertades personales de los ciudadanos, como el derecho a la vida privada.