etica-desafio-pendiente-inteligencia-artificial

Ante el uso cada vez más extendido de la Inteligencia Artificial (IA), sus algoritmos han dejado ver que muchas veces están marcados por los prejuicios humanos.

La Inteligencia Artificial (IA) ha irrumpido en diversidad de industrias en todo el mundo: desde el marketing, la justicia o las finanzas hasta la medicina o los sistemas de seguridad y defensa. A medida que su uso se expande a nuevos sectores crecen las preocupaciones éticas sobre su transparencia, el sesgo de los algoritmos, la privacidad o las técnicas de manipulación, entre otros. 

“A diario interactuamos con sistemas de recomendación de IA que nos dicen qué ver, qué escuchar o qué comprar. A pesar de los beneficios que nos aportan, estos sistemas pueden estar sesgados en función de quién lo ha desarrollado y su finalidad”, explica Enric Quintero, CEO y fundador de Datarmony, consultora especializada en datos e Inteligencia Artificial. 

Este sesgo algorítmico, que refleja los valores de los humanos implicados en la codificación y recolección de datos, puede dar lugar a discriminaciones que socavan la igualdad de oportunidades y amplifican la opresión. Ante este contexto, instituciones gubernamentales y sector privado avanzan cada vez más hacia un diseño ético de la IA. 

“Aunque los países tienen diferentes valores o perspectivas sobre el uso de la Inteligencia Artificial, todos deben medir sus dimensiones éticas y llegar a un acuerdo en puntos comunes relacionados con la supervisión humana, la protección de la privacidad, la transparencia, el control y el uso de algoritmos no sesgados”, defiende Quintero.  

Así han avanzado ya los 193 Estados miembros de la Conferencia General de la UNESCO, que justo hace un año, en noviembre de 2021, adoptaron la Recomendación sobre la Ética de la Inteligencia Artificial, el primer marco normativo mundial sobre el tema, que protegerá y promoverá los derechos humanos en el mundo digital.  

“El desarrollo de normativas jurídicas son una buena base para ayudar a las empresas u organizaciones a reducir la injusticia algorítmica y establecer un enfoque único sobre cómo deben ser sus sistemas de Inteligencia Artificial”, remarca el fundador de Datarmony. 

En este sentido, Quintero insta a las empresas a optar por auditorías de algoritmos para identificar posibles discriminaciones o sesgos de los datos. “En la actualidad ya disponemos de las fórmulas para identificar, supervisar y gestionar las incidencias derivadas de los algoritmos, sólo necesitamos la voluntad por parte de empresas y organizaciones para hacer este cambio”, añade. 

Asimismo, remarca la necesidad de “redoblar esfuerzos para garantizar que las nuevas tecnologías se utilicen de forma responsable y en beneficio de toda la humanidad; cuanto antes apliquemos prácticas éticas, mayor prosperidad conseguiremos para todo el mundo”.