La inteligencia artificial se ha convertido en una herramienta indispensable para los departamentos de recursos humanos, facilitando tareas como la selección de currículums, la programación de entrevistas o la detección de competencias. A pesar de sus ventajas, su uso en procesos de contratación presenta riesgos importantes, especialmente con respecto a los derechos fundamentales de los candidatos.
Con la entrada en vigor del Reglamento (UE) 2024/1689, conocido como AI Act, la Unión Europea pone en marcha un marco legal pionero para controlar el impacto de la IA en ámbitos sensibles.
Este reglamento, de aplicación directa en España desde julio de 2024, clasifica los sistemas de IA utilizados en la selección de personal como de alto riesgo, vista su capacidad de influir en el acceso al empleo.
Esta clasificación comporta la obligación de cumplir con una serie de requisitos estrictos:
-Transparencia en los algoritmos utilizados
-Supervisión humana en la toma de decisiones
-Evaluaciones de impacto específicas
-Trazabilidad en todo el proceso de contratación
Las empresas que incumplan estas condiciones pueden enfrentarse a sanciones severas, que pueden llegar hasta los 40 millones de euros o el 7% de la facturación global anual, tanto para grandes corporaciones como para pymes.
Un marco legal para garantizar una IA ética y centrada en las personas
El objetivo del reglamento europeo es doble: fomentar un desarrollo seguro y ético de la IA, y prevenir cualquier forma de discriminación o sesgo automatizado en los procesos de selección. La normativa se alinea también con el Reglamento General de Protección de Datos (RGPD) y el Convenio Marco sobre IA y Derechos Humanos del Consejo de Europa, firmado este mismo año.
Según Marcelo Dos Reis, CEO del Grupo SPEC, "la implementación responsable de la IA en recursos humanos implica revisar a fondo los procesos internos, desde la formación de los equipos hasta la elección de herramientas que cumplan con la normativa". Para el experto, la transparencia, la supervisión y la trazabilidad "ya no son opciones, sino obligaciones legales para garantizar una IA centrada en las personas".
España, entre el liderazgo digital y los retos de las pymes
Aunque la norma se aplica automáticamente a todos los Estados miembros, su implantación efectiva puede variar según el nivel de digitalización de cada país. En el caso de España, la existencia de una Estrategia Nacional de Inteligencia Artificial y el dinamismo del sector tecnológico favorecen la adopción entre grandes empresas.
No obstante, muchas pequeñas y medianas empresas todavía no cuentan con los recursos o el conocimiento normativo para implementar sistemas de IA de acuerdo con la ley.
En este contexto, el apoyo de socios tecnológicos especializados puede ser clave para garantizar un uso seguro, legal y efectivo de la inteligencia artificial en la gestión de personas.
"La IA ofrece una gran oportunidad para modernizar la contratación, pero también puede comportar riesgos si no se gestiona de forma adecuada. Cumplir con el marco normativo europeo no es solo una obligación, es una apuesta por una tecnología más justa y segura", concluye Dos Reis.