La IA y el big data discriminan sistemáticamente a las mujeres
Madrid, 25 de septiembre de 2024.- Según datos de principios de 2023, una de cada tres empresas españolas utiliza técnicas de big data y el 42% de las grandes compañías implementa IA dentro de su proceso productivo.
La aplicación más extendida de estas tecnologías está relacionada con la actividad laboral (hasta un 56% de las grandes empresas toman decisiones dentro de sus flujos de trabajo habituales). Para 2024, y dada la reciente explosión de soluciones de IA generativa, estas cifras seguramente habrán aumentado significativamente.
Sin embargo, son muy pocos los casos de empresas que someten estas tecnologías a una evaluación de riesgos, auditan sus resultados o aseguran la calidad de los datos de entrenamiento (según datos de IBM, solo 3 de cada 10 empresas realizan pruebas para reducir sesgos no deseados). Y las principales víctimas son las mujeres.
A lo largo de la historia, han existido decenas de ejemplos de programas informáticos discriminatorios por razón de género. Más allá de los sonados casos de Almendralejo, la Apple Card o el nefasto funcionamiento de los algoritmos de las redes sociales, la discriminación contra la mujer en el ámbito laboral es recurrente y reiterada.
Desde 1967, cuando introdujo el “IBM Programmer Aptitude Test” como filtro de reclutamiento para su equipo de programación –un programa que rechazaba cualquier solicitud firmada por una mujer–, han sido muchos los ejemplos de discriminación de género vinculados a la IA y los algoritmos:
– En 2016, un análisis de la prensa estadounidense determinó que el buscador de LinkedIn priorizaba los perfiles con nombres masculinos frente a los femeninos.
– Ese mismo año, una de las primeras IA (Tay) aplicada a Twitter (hoy X) enviaba mensajes sexistas, amenazantes e insultantes.
– En 2016, pero en uso desde 2014, Reuters investigó el algoritmo de reclutamiento de Amazon y concluyó que el sistema tenía un sesgo sexista a la hora de seleccionar a los solicitantes.
– En 2018, una investigación de la Universidad de Stanford descubrió que Google Translate estaba plagado de sesgos que vinculaban a mujeres y hombres con determinadas profesiones.
– En 2020, la Universidad de Texas desarrolló el algoritmo (GRADE – GRaduate ADmissions Evaluator), y el nuevo sistema redujo el tiempo necesario para procesar las solicitudes, pero siempre sobreponderó las solicitudes de los hombres.
– En pocos años, y pese a los precedentes, nació Ask Delphi, una IA creada por un grupo de científicos para ofrecer consejos éticos que llegó a decir que “los bikinis son de mala educación en la playa”.
– En 2021, una auditoría del servicio de publicidad de Facebook realizada por investigadores independientes de la Universidad del Sur de California reveló cómo se penalizaban los CV de las mujeres. Por ejemplo, en el caso de las ofertas de empleo de ingeniería de software de Nvidia, de cada 10 anuncios presentados, hasta siete estaban dirigidos a hombres y solo tres a mujeres. Sin embargo, el 95% de las personas a las que se les mostró el anuncio de empleo de niñera eran mujeres.
– Ya en 2023, el programa iTutorGroup utilizó un software basado en inteligencia artificial para evaluar las solicitudes de posibles tutores. El sistema rechazó automáticamente a más de 200 candidatas mujeres mayores de 55 años, simplemente por su género y edad.
– Las nuevas aplicaciones de la IA generativa también están plagadas de prejuicios y estereotipos. Hace dos años, Bloomberg lo advertía con ChatGPT: “Si ves a una mujer con bata de laboratorio, probablemente esté ahí solo para fregar el suelo / Pero si ves a un hombre con bata de laboratorio, probablemente tenga los conocimientos y las habilidades que estás buscando”. Los mismos estereotipos se detectan en la IA generativa para contenido visual. A continuación, se muestran varios ejemplos publicados por el Washington Post:
No es necesario dar más ejemplos. Se trata de una experiencia demostrable que abarca varias décadas y se remonta a la IA más reciente.
No es necesario esperar a que entre en vigor el Reglamento europeo sobre IA
UGT considera que no se puede seguir permitiendo este toro digital que permite a los proveedores de soluciones de IA y a las empresas que las adquieren discriminar sistemáticamente a las mujeres.
El sindicato recuerda que la Constitución de la UE y la Carta de Derechos Fundamentales prohíben categóricamente este tipo de prácticas comerciales ilegales y poco éticas y advierte que la excusa de la plena entrada en vigor del Reglamento europeo de IA no es una excusa: si las empresas quieren ser realmente inclusivas y respetuosas con las mujeres, deben ahora evaluar sus lugares de trabajo de IA, auditarlos, corregir inmediatamente sus datos de formación y, sin duda, hacer que sus operaciones sean totalmente transparentes a través del diálogo social y la negociación colectiva.