Por qué la inteligencia artificial es un nuevo enemigo para las mujeres

Sebastián Aguirre
·5 min de lectura
Los nuevos procesos de selección de personal mediante inteligencia artificial tienen sesgos de género que perjudican a las mujeres. Foto: Getty Image.
Los nuevos procesos de selección de personal mediante inteligencia artificial tienen sesgos de género que perjudican a las mujeres. Foto: Getty Image.

Una empresa que recurre a la inteligencia artificial en sus procesos de selección de personal pide a sus candidatos que accedan a una herramienta de reconocimiento facial para identificar si son o no idóneos para ocupar la vacante. Si se niegan, podrían estar renunciando a la plaza, pero si aceptan accederían a un sistema que, como lo advirtió en un estudio la investigadora Joy Boulamwini, del Instituto Tecnológico de Massachusetts –MIT–, puede presentar una tasa de error inferior al 1 % en hombres de piel más clara, pero del 35 % en mujeres, en especial si estas tienen un rostro más oscuro.

Cristina Pombo, líder de soluciones digitales del Banco Interamericano de Desarrollo –BID–, recuerda la historia como reflejo de una situación que, si bien no es nueva en cuanto al sesgo que el uso de herramientas de inteligencia artificial pueda tener respecto a la selección de personal femenino, sí ha ido agregando elementos, como el reconocimiento facial, con serias implicaciones en cuanto a la transparencia de estos sistemas de cara a las mujeres que buscan oportunidades laborales, y a la ética con que estos son programados y manipulados.

La multinacional Hays, experta en reclutamiento, reportó en su informe Global Skills Index 2019/2020 que solo el 22 % de los cargos orientados al diseño y la programación de ocupaciones de inteligencia artificial eran ocupados por mujeres. “La falta de diversidad en un trabajo que es fundamental para la creación de tecnologías nuevas y potencialmente ubicuas es una causa de preocupación”, advirtió la firma.

El informe expone como ejemplo que un algoritmo puede interpretar la falta de mujeres directivas en el mundo corporativo como un reflejo de niveles más bajos de habilidad en este género, lo cual, sin duda, tendría un impacto en su selección o al menos su llamado a entrevistas para altos cargos.

La explicación de la discriminación

Cristina Gómez, líder del Centro de la Cuarta Revolución con sede en Medellín, Colombia, explica que los sistemas de inteligencia artificial que en la actualidad se usan como plataformas de contratación están basados en machine learning, que a su vez se nutre de los datos almacenados que se le suministren para crear algoritmos y automatizar sus operaciones.

“Esos datos históricos que se les suministren traen una carga asociada que depende mucho de la cultura, del contexto, de la ubicación de la empresa. Ha habido casos sonados de empresas tecnológicas grandes en las que el resultado de la implementación de estas herramientas es que los hombres son mayoría en el reclutamiento, y ocurre porque históricamente estos son quienes más estudian carreras asociadas al sector”, comenta Gómez.

Artículos relacionados:

El reconocimiento facial y la inteligencia artificial se están comenzando a utilizar en los procesos de selección. Foto: Getty Image.
El reconocimiento facial y la inteligencia artificial se están comenzando a utilizar en los procesos de selección. Foto: Getty Image.

Por esto, en muchas ocasiones no es algo que controle directamente la empresa, sino que está relacionado con contextos culturales de los cuales “no se pueden desligar”, pero sí hay maneras de ejercer un control sobre los datos que llegan al sistema.

Hay dos formas, señala Gómez: una trabajando en la etapa de preprocesamiento de datos en su ingreso a los algoritmos, y la otra en su salida.

“Hay que hacer ajustes ya sea estadísticos o de balanceo de datos, que son técnicas que permitan brindar garantías en cuanto a que el algoritmo no entregue respuestas sesgadas. Se puede llegar al punto de corregir estadísticamente algunos de esos problemas, o que se establezca un protocolo de recolección de datos o complementar la variable que se generó”, precisa la líder digital.

Que haya justicia algorítmica

Cristina Pombo, del BID, expone el caso del estado de Illinois, en EE.UU., donde está en estudio una ley sobre transparencia o explicabilidad, que busca que a los candidatos a una vacante en un proceso de selección se les informe si en este se está utilizando inteligencia artificial, y qué parámetros se tienen para la evaluación. “La gente no sabe bien qué hay detrás, y esto obligaría a las empresas a tener el consentimiento del entrevistado”, comenta.

Tener un cálculo sobre la discriminación por género cuando se usan estas herramientas en procesos de selección no es fácil, advierte Pombo, en cuanto a que no ha habido estudios detallados al respecto. Por eso la líder digital recuerda la investigación hecha por Boulamwini, del MIT, para preguntarse cómo se construyen estos sistemas y a quién le sirven.

“En el BID nos hemos preguntado por los temas éticos en el uso de la tecnología y la inteligencia artificial, y cómo es posible reducir esos riesgos de discriminación, a la vez que se aumente la justicia algorítmica”, comenta Pombo. Para ello, en la entidad han creado la iniciativa fAIr LAC, en la que están desarrollando guías y herramientas para gobiernos que les permitan hacer una adopción responsable de la inteligencia artificial, que resuelva los dilemas éticos y morales que siempre se plantean en estos temas.

“La detección de género es una mala tecnología”

Janelle Shane, escritora y bloguera en temas de inteligencia artificial para medios como The New York Times, Wired, Popular Science, entre otros, señaló a Yahoo Finanzas que la causa principal no es otra sino la discriminación.

“Para hacer que la fuerza de trabajo tecnológica sea más balanceada, tenemos que abordar la discriminación desde la inequidad laboral en la promoción y los salarios, hasta a quienes reconocemos que tienen potencial. Teniendo esa equidad, especialmente en los puestos de mando, significará que habrá más personas familiarizadas con las formas que puede tener la inequidad tecnológica, en especial cuando se trata de algoritmos sesgados”, plantea Shane.

La escritora y bloguera es más radical aún cuando se refiere a aplicaciones como la detección de género o el reconocimiento facial: “Simplemente no deberían ser fabricadas. No puedes distinguir el género de alguien solo con mirarlo. Cuando es incorrecto, es perjudicial para las personas que no coinciden con las normas de género y especialmente para las personas trans. No hay forma de ser precisos al respecto, y ¿cuál podría ser un buen propósito para tratar de adivinar el género de alguien? Si lo necesitas por alguna razón (como usar los pronombres correctos), solo pregúntales”.