La implantación de sistemas de inteligencia artificial (IA) en Recursos Humanos plantea nuevos desafíos legales y éticos que exigen máxima atención por parte de las empresas.
Herramientas que hasta ahora se usaban para seleccionar currículums, cualificar entrevistas o evaluar el rendimiento de los equipos están bajo el foco del Reglamento de Inteligencia Artificial aprobado recientemente por la Unión Europea (AI Act), que introduce un nuevo marco de cumplimiento obligatorio.
Según esta nueva normativa, el uso de IA en procesos de selección o gestión de personas se clasifica como “de alto riesgo”, al tratarse de sistemas que pueden afectar directamente a los derechos fundamentales de los trabajadores. Esto implica que las empresas deberán cumplir con obligaciones específicas como la realización de evaluaciones de impacto, garantizar la supervisión humana, asegurar la transparencia en los algoritmos utilizados y establecer medidas para prevenir sesgos discriminatorios.
Las herramientas de IA en RRHH, aunque útiles, operan sobre datos personales muy sensibles. El nuevo reglamento exige un equilibrio entre innovación y garantías para los derechos de los candidatos y empleados. No se trata solo de cumplir con la norma, sino de revisar el modelo de toma de decisiones dentro de las organizaciones.
Además de los requisitos técnicos, las empresas deberán evaluar a sus proveedores de software, documentar el funcionamiento de los algoritmos y ofrecer mecanismos de reclamación a las personas afectadas por decisiones automatizadas. Todo ello antes de la plena entrada en vigor del reglamento, prevista para mediados de 2026.
El uso ético y conforme a derecho de la IA en entornos laborales se configura así como uno de los principales retos para los departamentos de Recursos Humanos, legales y de cumplimiento durante los próximos meses. La adaptación no será inmediata, ya que implica cambios internos, formación específica y una revisión integral de procesos.