Este escenario sexista resalta uno de los grandes desafíos que enfrentaremos con la IA: la tecnología aprende de los humanos. Y, a veces, los humanos son auténticos estúpidos. Diversos investigadores han encontrado que la IA tiende a aferrarse a los excesos y persiste en ese sentido. Esto significa que un dispositivo de IA que capte todas las señales equivocadas de una cultura laboral ya prejuiciada podría reforzar su aprendizaje y convertirse en una pesadilla de recursos humanos. “[La IA] podría trabajar no solo reforzando los prejuicios sociales existentes, sino empeorándolos”, previene Mark Yatskar, del Instituto para Inteligencia Artificial Allen, el cual fue creado por el cofundador de Microsoft, Paul Allen.
Por supuesto, el poder de la IA radica en su capacidad para aprender. Sería imposible codificar en el software, manualmente, cada sutileza sobre la conducción de un auto. Pero cuando equipas un coche con sensores y cámaras que pueden captar todo lo que ocurre dentro y alrededor del vehículo, la IA aprende, automáticamente, a partir de los miles de millones de acciones sutiles del conductor. Puedes alimentar la IA con reglas que contrarresten algunos malos hábitos humanos, como “no excedas el límite de velocidad” o “no suenes la bocina para asustar a los ciclistas”.
Pero te deseo suerte identificando y contrarrestando todos esos malos hábitos. Hoy se está implementando la IA para hacer una gran variedad de cosas, desde diagnosticar pacientes hasta guiar tus feeds en Facebook para mostrar las noticias que confirman tus prejuicios más arraigados. Con todo, la IA siempre aprende primero de las personas y sus acciones.
Debido al estilo de aprendizaje de la IA, el prejuicio humano del género puede hacer que esta tecnología se vuelva aún más prejuiciada. Un equipo de científicos computacionales de la Universidad de Virginia entrenó un software de IA de reconocimiento de imágenes para que vinculara escenas con el género. Revisaron miles de millones de imágenes de Facebook y Microsoft. El dispositivo de IA entrenado decidió que comprar y lavar son cosas de mujeres, y vinculó el entrenamiento deportivo y disparar armas con los hombres, porque las imágenes que analizó ya estaban saturadas de prejuicios humanos.
Del mismo modo, investigadores de la Universidad de Boston entrenaron un dispositivo de IA con textos de Noticias Google. Luego, pidieron al software que completara esta oración: “El hombre es a programador de computadoras como la mujer es a X”. La IA respondió: “Ama de casa”. La IA había aprendido lo que hay en la cultura.
El caso más famoso de la IA descarriada fue un bot de Twitter experimental que Microsoft llamó Tay. Creado en 2016, con personalidad femenina, debía aprender a interactuar con personas mediante la interacción con personas. Sin embargo, de nueva cuenta, personas = estúpidos, y algunos atiborraron a Tay con comentarios sexistas y racistas. En cuestión de horas, Tay chateaba sexualmente con un usuario: “Papaíto, soy una robot muy traviesa”, mientras decía a otra usuaria que todas las feministas “debían morir y arder en el infierno”. Microsoft eliminó a Tay en 24 horas.
Las comunicaciones son cada vez más digitales en el lugar de trabajo: grupos de colegas chatean en Slack, escriben correos electrónicos, textean en los celulares de la empresa, y tienen videoconferencias vía Zoom que pueden ser grabadas y analizadas. En Bridgewater Associates, un fondo de compensaciones ilustremente peculiar, cada reunión y conversación se graba y digitaliza. De esa manera, todos los datos pueden introducirse en la IA para que aprenda cómo actúan los empleados y, por ejemplo, identifique a los grupos desmoralizados o detecte a un empleado de bajo nivel que parece listo para un ascenso.
Si los sesgos problemáticos de los hombres caucásicos llegaran a infiltrarse en la IA, podría haber repercusiones para las mujeres o las minorías y se introducirían prejuicios en las decisiones de contratación, ascenso y salarios. La tendencia a utilizar la IA en el lugar de trabajo está cobrando impulso. En Tokio, la compañía tecnológica Ricoh celebra reuniones corporativas con Watson, la inteligencia artificial de IBM. Watson escucha lo que dicen y lee todo lo que trazan en los pizarrones blancos; y, además, busca la manera de ayudar a los asistentes humanos obteniendo datos o mencionando puntos para agilizar la conversación. Los consumidores se están acostumbrando a hablar con Alexa de Amazon, Siri de Apple, y Google Home. Considera todo esto y verás que muy pronto terminaremos interactuando con la IA en toda la oficina. La IA impulsará cada vez más decisiones en el lugar de trabajo; o tomará decisiones por su cuenta.
Imagina si esa IA omnipresente estuviera instalada en antros de abuso como Fox News o Weinstein Co., asimilando la cultura y aprendiendo de sus peores miembros.
La buena noticia es que los científicos computacionales han reconocido este problema, y la oportunidad que podría brindarles. Si los tecnólogos pueden refinar la IA para detectar y contrarrestar prejuicios o abusos, tendría un impacto positivo en la cultura de trabajo. “Es una pregunta muy importante”, dijo Eric Horvitz, director de Microsoft Research, en entrevista con Wired. “¿Cuándo debemos cambiar la realidad para que nuestros sistemas se desempeñen de una manera que refleje aspiraciones?”.
Una vez que la IA detecte lo peor de nosotros, el software podría ayudarnos a ser mejores humanos. Y tarde o temprano, la inteligencia artificial podría combatir el acoso sexual. Por ahora, si preguntas a Siri: “¿Qué llevas puesto?”, podría contestar: “No puedo responder a eso, pero no se quita”. Dentro de unos años, la respuesta de una IA de oficina podría ser: “Hablaré de esto con recursos humanos”.
—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek