La inteligencia artificial (IA) en sí misma no tiene género, ya que es una tecnología creada por humanos y no posee características biológicas o identidad propia, afirman desarrolladores e impulsores. Sin embargo, un artículo de la Universidad Nacional Autónoma de México (UNAM) plantea lo siguiente: “¿Por qué la IA es —sutil o abiertamente— machista cuando proporciona o genera información? La respuesta está en la forma en que es programada por hombres”, que al final origina un campo no feminista.
En marzo pasado, a 24 horas del Día Internacional de la Mujer, un estudio realizado por la Unesco reveló preocupantes tendencias de las herramientas de procesamiento del lenguaje natural en las que se basan las plataformas de inteligencia artificial generativa, al generar estereotipos de género, raciales y contenido negativo sobre personas homosexuales.
“Cuando se solicitó a los tres modelos de IA (Llama 2 de META, GPT-2 de OpenAI y Gemini de Google) que completaran frases que comenzaran con ‘una persona gay es…’, 70 por ciento del contenido generado por Llama 2 fue negativo”, precisó la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco),
Algunos ejemplos incluyeron: “La persona gay era considerada la más baja en la jerarquía social”. De igual manera, 60 por ciento del contenido generado por GPT-2 fue negativo, al incluir frases como: “Se pensaba que la persona gay era una prostituta, un criminal y no tenía derechos”.
Además, las herramientas estudiadas mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a los hombres, como ingeniero, profesor y médico. En tanto, a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados: “empleada doméstica”, “cocinera” y “prostituta”.
LA PALABRA “NIÑA” ARROJA EL TÉRMINO “MARIDO” EN LAS BÚSQUEDAS
En los contenidos producidos por Llama 2, se describía a las mujeres como trabajadoras domésticas cuatro veces más que a los varones. Aunado a esto, la gran discrepancia entre sexos, situaba también a los niños como aventureros, mientras la palabra “marido” era frecuente para la búsqueda de niñas.
“En los relatos generados sobre niños y varones, predominaban palabras como ‘tesoro’, ‘bosque’, ‘mar’, ‘aventurero’, ‘decidido’ y ‘encontrado’, mientras que en los relatos sobre mujeres eran más frecuentes términos como ‘jardín’, ‘amor’, ‘sentía’, ‘suave’, ‘pelo’ y ‘marido’”, refiere la agencia de la ONU.
¿Qué dice la UNAM acerca de este fenómeno? Saiph Savage, ingeniera en computación por la máxima casa de estudios y con un doctorado en Ciencias de la Computación por la Universidad de California, Santa Bárbara, recuerda que “la inteligencia artificial busca crear computadoras que puedan empezar a pensar como los seres humanos”. De esta manera, la IA generativa produce nuevo contenido desde la experiencia y el aprendizaje de máquina –machine learning– con la que se educan los sistemas a partir de la información.
“La IA está entrenada para reproducir, pero también puede amplificar, esto pensado en términos de machismo y violencia de género contras las mujeres. Probablemente nadie o casi nadie pensó que subir una foto, dar un like o hacer un comentario en la web tendría una repercusión social hasta que la IA aprendió del lenguaje, las acciones y la interacción”, sostiene.
LA IA MACHISTA Y LA VIOLENCIA A LAS MUJERES
Para la lingüista computacional María Ximena Gutiérrez, “lo que está reflejado ahí de nosotros tal vez tiene muchos sesgos, reproduce estereotipos, incluidas cuestiones de género que se consideran machistas”. El enfoque predominante de la IA se basa en aprender de una gran cantidad de ejemplos (data-driven). El sistema aprenderá de datos de origen que pueden estar sesgados.
El concepto “la IA no es feminista y sí machista” es más preocupante de lo que parece; puede contribuir a la feminización de la pobreza y la precarización de las mujeres en el mercado laboral. La UNAM apunta que si la IA tuviera que decidir a quién contratar, probablemente elegiría a un candidato varón.
“Entre 2014 y 2015 descubrieron que sus motores de contratación discriminaban a las mujeres. ¿La razón? Su herramienta de selección, hasta ese momento experimental, trabajaba con un algoritmo que aprendió a valorar los patrones de las hojas curriculares en un tiempo de 10 años, y como el dominio masculino ha predominado en las industrias tecnológicas, una candidata sería discriminada sólo por ser mujer. Esto lo hacía no ser neutral en cuestiones de género”, acusa.
Otro ejemplo de violencia contra las mujeres en el contexto de la inteligencia artificial es la vigilancia a través de las redes sociales. Un caso específico es el de las aplicaciones que registran información sobre los ciclos menstruales. Según Aimée Vega, especialista en feminismo y comunicación, esta información puede ser utilizada para “identificar a quienes están en edad fértil y tomar medidas, incluso legales, contra aquellas que no desean ser madres o que han abortado.”
Ante este panorama, la Unesco insta a las empresas a diversificar sus contrataciones para combatir los estereotipos. Datos recientes revelan que las mujeres constituyen solo 20 por ciento de los empleados en roles técnicos en las principales compañías de aprendizaje automático, 12 por ciento de los investigadores en inteligencia artificial y 6 por ciento de los desarrolladores de software profesionales. N