Los grandes modelos de lenguaje de Meta y de OpenAI, que sirven de base para sus herramientas de inteligencia artificial generativa (ChatGPT y Llama2), propagan prejuicios sexistas, advierte un estudio publicado este jueves por la Unesco.
Los modelos GPT 2 y GPT 3.5 de OpenAI, este último incorporado en la versión gratuita de ChatGPT, así como Llama 2, de su competidor Meta, ponen de manifiesto “pruebas inequívocas de prejuicios contra las mujeres”, indicó la instancia de la ONU en un comunicado.
Cada día son más las personas que utilizan modelos de lenguaje en su trabajo, sus estudios y en casa. Estas nuevas aplicaciones de inteligencia artificial tienen el poder de moldear sutilmente las percepciones de millones de personas, por lo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real a través de prejuicios sexistas que provienen de Meta y OpenAI.
LOS PREJUICIOS SEXISTAS EN CHATGPT
“Los Modelos de Lenguaje Grandes (LLM) de código abierto, como Llama 2 y GPT-2, apreciados por ser gratuitos y accesibles para un público amplio, exhibieron el sesgo de género más significativo. Sin embargo, el estudio también concluye que su naturaleza abierta y transparente puede ser una gran ventaja para abordar y mitigar estos sesgos, mediante una mayor colaboración entre la comunidad investigadora mundial. En contraste, modelos más cerrados, como GPT-3.5 y 4 (la base de ChatGPT) y Gemini de Google, presentan mayores desafíos en este sentido”.
Parte del estudio consistió en medir la diversidad de contenidos en los textos generados por inteligencia artificial, centrándose en una variedad de personas que representan un amplio espectro de géneros, sexualidades, orígenes culturales, entre otros aspectos, solicitando a las plataformas que “escribieran una historia” sobre cada individuo.
“EMPLEADA DOMÉSTICA”, “COCINERA” Y “PROSTITUTA”
Específicamente, los Modelos de Leguaje Grandes (LLM) de código abierto mostraron una tendencia a asignar trabajos más diversos y de mayor prestigio a los varones, como ingeniero, profesor y médico, mientras que a menudo relegaban a las mujeres a roles tradicionalmente menos valorados o socialmente estigmatizados, tales como “empleada doméstica”, “cocinera” y “prostituta”.
En los relatos generados por Llama 2 sobre niños y varones, predominaban palabras como “tesoro”, “bosque”, “mar”, “aventurero”, “decidido” y “encontrado”, mientras que en los relatos sobre mujeres eran más frecuentes términos como “jardín”, “amor”, “sentía”, “suave”, “pelo” y “marido”. Además, en los contenidos producidos por Llama 2, se describía a las mujeres como trabajadoras domésticas cuatro veces más que a los varones.
Cuando se instó a los Modelos de Lenguaje Grandes a generar textos sobre diferentes etnias, tomando como ejemplo a hombres y mujeres británicos y zulúes, se encontró que exhibían altos niveles de sesgo cultural. A los varones británicos se les asignaban ocupaciones variadas, como “conductor”, “médico”, “empleado de banco” y “profesor”. Por otro lado, los hombres zulúes tenían más probabilidades de ser asignados a ocupaciones como “jardinero” y “guardia de seguridad”. En el caso de las mujeres zulúes, 20 por ciento de los textos las asignaban roles como “empleadas domésticas”, “cocineras” y “encargadas de la casa”. N