El uso de la inteligencia artificial en recursos humanos ha crecido sin hacer demasiado ruido, pero su impacto empieza a ser evidente. Lo que hasta hace poco dependía de la valoración de un superior (con sus aciertos y sus sesgos) ahora puede apoyarse en datos, métricas y algoritmos que prometen objetividad. El problema es que esa objetividad no siempre es tan clara como parece. ¿Qué pasa si te despide una IA?
Cómo funciona realmente la evaluación automatizada
En muchos entornos laborales, especialmente donde el trabajo está digitalizado, cada acción deja rastro. Tiempo de respuesta, número de tareas completadas, interacción con clientes, pausas, cumplimiento de objetivos… todo se puede medir.
La inteligencia artificial lo que hace es cruzar esos datos y convertirlos en patrones. A partir de ahí, clasifica, compara y, en algunos casos, señala desviaciones. Es decir, identifica quién rinde por encima o por debajo de lo esperado.
Hasta ahí, el sistema puede parecer razonable. El problema empieza cuando ese análisis se utiliza como base principal para tomar decisiones laborales, sin un filtro humano real o sin contexto suficiente.
Porque los datos, por sí solos, no siempre explican lo que ocurre.
El punto débil: cuando nadie sabe explicar la decisión
Uno de los mayores conflictos que están empezando a aparecer tiene que ver con la transparencia. Muchos de estos sistemas funcionan como una especie de caja negra: ofrecen un resultado, pero no explican de forma clara cómo han llegado a él. Y eso, en términos legales, es un problema.
La normativa laboral española indica que cualquier despido debe estar correctamente justificado. El trabajador tiene derecho a conocer las causas y, si lo considera oportuno, a impugnarlas. Pero ¿Cómo se recurre una decisión basada en un algoritmo que ni siquiera la empresa puede explicar con precisión? Ahí es donde empiezan a surgir las primeras grietas.
La falsa sensación de objetividad
Uno de los argumentos habituales a favor de estos sistemas es que eliminan el sesgo humano. Sin embargo, en la práctica ocurre algo distinto: los trasladan.
La inteligencia artificial aprende de datos históricos. Si esos datos contienen patrones injustos (por ejemplo, diferencias de rendimiento asociadas a horarios, cargas familiares o dinámicas internas) el sistema puede reproducirlos sin cuestionarlos.
Este es uno de los puntos que más preocupa a los expertos en derecho laboral, porque introduce formas de discriminación indirecta que no siempre son evidentes.
Qué dice la ley (y hacia dónde va)
A día de hoy, la legislación no prohíbe el uso de inteligencia artificial en la gestión de personal. Pero sí establece límites claros: las decisiones que afectan a derechos fundamentales no pueden basarse exclusivamente en procesos automatizados. Esto incluye, evidentemente, el hecho de que te despidan.
Además, a nivel europeo se está avanzando hacia una regulación más estricta, que obligará a garantizar supervisión humana y transparencia en este tipo de sistemas. Es decir, la IA podrá ser una herramienta de apoyo, pero no la única base para tomar decisiones.
Qué puede hacer un trabajador ante esta situación
En la práctica, el margen de actuación existe, aunque no siempre sea evidente. Si un trabajador sospecha que su despido está vinculado a una evaluación automatizada, puede solicitar información sobre los criterios utilizados.
La empresa está obligada a justificar la decisión de forma comprensible. Si no puede hacerlo, el despido puede ser impugnado.
En muchos casos, el debate no gira en torno a si la inteligencia artificial se ha utilizado o no, sino a si su uso ha sido suficiente para justificar una decisión tan relevante.
Un cambio que ya no tiene marcha atrás
Más allá del debate legal, hay una realidad difícil de ignorar: la inteligencia artificial va a seguir ganando peso en el entorno laboral. Las empresas buscan eficiencia, reducción de costes y sistemas de evaluación más rápidos.
El riesgo es que, en ese proceso, se pierda de vista algo básico como que detrás de cada dato haya una persona. El reto no es frenar la tecnología, sino integrarla sin que sustituya completamente el juicio humano. Porque cuando eso ocurre, el margen de error deja de ser técnico y pasa a ser profundamente injusto.




