La inteligencia artificial ha llegado con fuerza a los procesos de selección: filtrado de CVs, análisis de candidatos, entrevistas automatizadas… La promesa es clara: más eficiencia, menos sesgos y decisiones más rápidas.
Pero hay una pregunta que muchas organizaciones aún no se hacen: ¿estamos usando la IA en selección de forma legal y controlada?
Recordemos que el Reglamento Europeo de Inteligencia Artificial (AI Act/RIA, Reglamento (UE) 2024/1689) introduce reglas muy claras, especialmente, cuando la IA afecta a decisiones laborales.
Y aquí el nivel de exigencia sube. Ya introdujimos este tema en el blog (puedes releerlo aquí), pero hoy hablaremos del uso específico de la IA en procesos de selección.
La IA en selección es «alto riesgo» (y no es una etiqueta menor)
El RIA clasifica como sistemas de alto riesgo aquellos que se utilizan para:
- selección de candidatos,
- evaluación de CVs,
- toma de decisiones en contratación o promoción.
Esto significa que no estamos ante una herramienta más, sino ante un sistema sujeto a obligaciones estrictas.
¿Por qué? Porque estas decisiones tienen un impacto directo en la vida de las personas.
No basta con que la herramienta funcione: hay que controlarla
Uno de los mensajes clave del Reglamento es claro: usar IA no implica delegar la decisión.
Las empresas deben garantizar:
- supervisión humana real,
- comprensión del funcionamiento del sistema,
- y capacidad de intervenir o corregir decisiones.
Es decir, la IA puede ayudar… pero no sustituir completamente el criterio humano.
El riesgo invisible: sesgos y decisiones automatizadas
Muchos sistemas de IA aprenden de datos históricos. Y ahí está el problema:
si los datos están sesgados, la IA puede reproducir—o incluso amplificar—esos sesgos.
En selección, esto puede traducirse en:
- discriminación indirecta,
- exclusión sistemática de ciertos perfiles,
- decisiones difíciles de explicar.
El RIA obliga a las organizaciones a evaluar y mitigar estos riesgos, no a ignorarlos.
Transparencia: el candidato debe saberlo
Otro punto clave: si utilizas IA en procesos de selección, debes informarlo.
Los candidatos tienen derecho a saber:
- que están siendo evaluados mediante sistemas automatizados,
- cómo influye eso en la decisión,
- y qué papel tiene la intervención humana.
No es solo una cuestión legal, también lo es de confianza.
Revisar el proceso, no solo la herramienta
Un error habitual es centrarse únicamente en la tecnología: «¿la herramienta cumple?»
Pero la pregunta correcta es otra: ¿cumple todo el proceso de selección?
El riesgo no está solo en el software, sino en cómo se integra en la toma de decisiones.
Esto implica revisar:
- cómo se usa la herramienta,
- quién toma la decisión final,
- y qué evidencias puedes aportar si alguien cuestiona el proceso.
Conclusión: la IA no elimina la responsabilidad, la aumenta
La inteligencia artificial puede mejorar los procesos de selección, pero también introduce nuevos riesgos.
El RIA no prohíbe su uso, pero sí deja claro algo fundamental: quien decide sigue siendo responsable, aunque use IA.
Por eso, más allá de la eficiencia, la clave está en el control. Porque en selección de personal, no solo importa elegir bien, sino que también importa poder demostrar que se ha hecho correctamente.
Como siempre, cuidad los datos y ¡cuidaos!


