El trabajo está cambiando debido a la automatización y a la Inteligencia Artificial (IA), y derivado de esto se propone que RR.HH. asuma un papel de liderazgo navegando hacia el futuro del trabajo e identificando nuevos roles laborales. En este sentido el Cognizant Center for Future of Work y la revista Harvard Business Review (HBR) publicaron en 2021 un estudio donde identificaron los 21 nuevos roles de Recursos Humanos.
Yuval Noah Harari, historiador, escritor y conferenciante, afirma que "el poder está en manos de quien controla los algoritmos y que "las nuevas tecnologías pueden crear el cielo o el infierno. Pero no estamos seguros de cuál es cuál". Por esto, menciona el también profesor de la Universidad Hebrea de Jerusalén, "la línea que separa una tecnología buena de una tecnología mala, desde el punto de vista ético, es extremadamente delgada y depende esencialmente de la concepción que ingenieros y desarrolladores tengan de los individuos como receptores de la invención".
Hace poco, en una reunión de trabajo, apunté que derivado del uso cada vez más intenso y generalizado que hacemos de los datos y algoritmos para tomar decisiones relacionadas con las personas (empleados, consumidores, etc.) es crítico en las organizaciones tener un Director de Ética (Chief Bias Officer) para combatir el sesgo algorítmico y por esto, pregunté los asistentes a cuantas empresas conocían en el país que tuvieran este rol en el país. Todos nos miramos esperando que alguien más contestará... nadie lo hicimos.
A raíz de una nota de periódico El País (octubre, 2022) me quiero referir a tres de estos nuevos roles mencionados por la revista HBR: HR Data Detective (Detective de datos de recursos humanos), Algorithm Bias Auditor (Auditor de sesgos algorítmicos) y al que yo me referí, el Human Bias Officer (Director de Ética/Sesgos Humanos).
El artículo de El País, que se titula "150 despidos en un segundo: así funcionan los algoritmos que deciden a quién echar del trabajo", reseña el despido de empleados que una empresa de software llevó siguiendo únicamente el dictamen de una inteligencia artificial. La nota se basa en dos premisas para cuestionar el frío dictamen de un programa de IA alimentado con big data, una emocional "A usted le despedirá un algoritmo" y una ética, ¿esto es válido?
Más allá del aspecto emocional que esta nota puede causarnos, dejar este tipo de decisiones (despedir a un empleado) a la IA... ¿Es ético?, ¿o debiera estar previamente analizada por el Director de Sesgos Humanos y Algorítmicos?
Comentarios
Publicar un comentario