La historia de la informática es fascinante. Los primeros ordenadores (en el sentido moderno del término) se empezaron a construir en los años 30 y 40. El primer ordenador personal, o PC, vendido a gran escala, no llegó hasta el año 1981, de la mano de IBM. Hoy en día, todos llevamos en el bolsillo un ordenador mucho más potente (que, además, permite hacer fotos y llamadas de teléfono).
Trasladado al mundo de la empresa, ya no existe prácticamente ningún sector como tampoco ningún proceso que funcione sin un soporte informático, aunque sea Excel. La expansión del uso de la inteligencia artificial (IA) no es sino una etapa más en este recorrido. La palabra robot fue inventada en 1920; el test de Turing para intentar diferenciar una máquina de un humano en 1950; el término “Inteligencia Artificial” en 1956; y la primera red neuronal, en 1957. En 1996, Deep Blue vencía a Gary Kasparov.
Esta disrupción de la inteligencia artificial va a abrir un nuevo escenario en el modelo y desarrollo de negocio de las organizaciones. La tecnología ya es una realidad en el ecosistema empresarial, aunque su potencial sea aún desconocido. Los grandes directivos son conscientes de que la IA afectará parcial o totalmente a sus corporaciones en los próximos años.
Ello va a afectar en particular, y a doble título, al departamento de Recursos Humanos:
- La utilización de la IA en los propios procesos (selección de personal, formación, gestión de carrera) y grandes problemas de RRHH (reskilling, matching, discriminación)
- La transformación de la organización para incorporar la IA en todos los procesos.
Y aquí es donde entrará en juego la ética a nivel empresarial, que no es un concepto abstracto o filosófico, sino un análisis de riesgos para decidir lo que es aceptable o no. Un ejemplo muy sencillo, los limites de velocidad en carretera.
Si hiciera falta alguna prueba de la importancia y el impacto de la IA, la UE acaba de proponer una ley de regulación de la IA.
Entonces, ¿qué es la IA, ¿qué es la ética en IA, cómo afecta a los RRHH y cómo podríamos aplicar estos conceptos en la práctica?
La IA
Silvia Leal decía que la IA es “la tecnología que imita nuestra manera de pensar”. Con permiso de Silvia, yo añadiría que es la tecnología que “trata” de imitar nuestra manera de pensar. Y en esto, la IA es como niño: hay que enseñarle, y para enseñarle, hay dos grandes estrategias: una es decirle lo que tiene que hacer y la otra es mostrarle ejemplos, el llamado aprendizaje automático a partir de datos, que es la estrategia más utilizada hoy en día.
Es por ello que, sin suficientes datos, nuestras IAs no son nada, y sin datos de calidad, tampoco.
La IA y la ética
Esto nos lleva a la noción de ética, ¿qué hay más básico que enseñar a un niño lo que está bien o lo que está mal?
Convertir estos conceptos éticos en aplicaciones prácticas de la IA supone el siguiente gran reto al que se enfrentan las empresas. La experiencia nos demuestra que, sin un diseño cuidadoso, la IA puede comportarse de manera no adecuada (discriminación, por ejemplo). Es en general en ese momento, al desarrollar un algoritmo, cuando surgen los problemas: los datos históricos estaban sesgados, el algoritmo discrimina; un coche automático está a punto de sufrir un accidente y debe decidir si proteger a los ocupantes del vehículo o a los peatones; un sistema de análisis de riesgo de crédito va a decidir si una persona puede comprarse una casa o no.
Y aquí es donde entra la ética, a la vez en el diseño y en el uso de los algoritmos, para asegurar un funcionamiento adecuado – ¡y una buena imagen de marca!
IA y RRHH
En el caso particular de los RRHH la IA va a tener un doble impacto, en la utilización de la IA para los procesos de RRHH (selección de personal, formación, evolución de carrera) y, en el trabajo del día a día de todas las profesiones.
La IA va a cambiar la manera de trabajar, y donde hay cambio, hay resistencia. Un estudio de Gartner descubrió que muchas organizaciones siguen siendo reticentes a la hora de aplicar la IA, sólo el 17% de las organizaciones utilizan soluciones basadas en la IA en su función de RRHH.
Los RRHH tienen la oportunidad estratégica de evolucionar y convertirse en usuarios avanzados de la IA, y de pilotar la readaptación profesional de la organización:
- Adaptando las estructuras y las personas
- Creación de centros transversales de excelencia. En Cornerstone lanzamos hace poco nuestro AI Innovation Lab, que reúne expertos en IA, RRHH, protección de datos y ética.
- Programas de formación en IA
- Utilizando la IA para los procesos RRHH, como, por ejemplo:
- Eliminación de la discriminación en la selección o promoción
- Recomendaciones personalizadas de formación
- Pilotaje de capacidades a nivel individual o de la organización (lo llamamos Skills Graph)
Y, naturalmente, aplicando principios éticos para asegurar la no discriminación, la igualdad de oportunidades o el acceso a la formación.
Aplicación practica de la ética y marco regulador en la UE
¿Cómo utilizar entonces la ética de un modo práctico y eficaz, útil a las organizaciones empresariales, y sin perderse en consideraciones filosóficas?
Gracias a dos herramientas creadas por la UE: la nueva norma sobre IA, y las directrices éticas para una IA fiable.
La nueva normativa clasifica las IA en cuatro niveles de riesgo, y define obligaciones para cada nivel:
- Riesgo inadmisible: Uso prohibido, como por ejemplo el “social scoring” chino
- Alto riesgo: obligaciones de seguridad, transparencia, calidad de datos, precisión, solidez, y supervisión humana
- Riesgo limitado: se debe informar a los usuarios (transparencia)
- Riesgo mínimo: sin obligaciones adicionales
Así podríamos, muy fácilmente, realizar una primera cartografía de riesgos de las IAs de una organización.
La lista de sistemas de alto riesgo incluye las aplicaciones más comunes en RRHH: sistemas que vayan a utilizarse para la selección de candidatos o la evaluación de empleados.
Las directrices contienen 4 principios éticos, 7 requisitos, y un cuestionario de evaluación. Los principios éticos son: respeto de la autonomía humana, prevención del daño, equidad y aplicabilidad; y los requisitos: Acción y supervisión humanas, solidez técnica y seguridad, gestión de la privacidad y de los datos, transparencia, diversidad, no discriminación y equidad, bienestar social y ambiental, rendición de cuentas.
En resumen, podemos empezar realizando una clasificación según los cuatro niveles de riesgo, y a continuación para las IAs de riesgo alto, evaluarlas según el cuestionario de fiabilidad.
Para terminar, quisiera insistir sobre la importancia de realizar este análisis lo más pronto posible en el proceso de diseño: cuanto más pronto nos demos cuenta de un problema, más barato será corregirlo (y, además, nos permite cumplir con la obligación RGPD de la protección de datos desde el diseño).
Por José Rodríguez, DPO de Cornerstone OnDemand
Acceder al número completo de diciembre 2020/enero 2021 de la Revista Dir&Ge