Los chatbots comparten información limitada, refuerzan las ideologías y, como resultado, pueden conducir a un pensamiento más polarizado cuando se trata de temas controvertidos, ello cuando le dicen a los humanos lo que quieren escuchar, según una nueva investigación dirigida por la Universidad Johns Hopkins.
El estudio desafía la percepción de que los chatbots son imparciales y proporciona información sobre cómo el uso de sistemas de búsqueda conversacional podría ampliar la brecha pública en los problemas candentes y dejar a las personas vulnerables a la manipulación.
“Debido a que la gente está leyendo un párrafo de resumen generado por la inteligencia artificial, piensan que están obteniendo respuestas imparciales y basadas en hechos”, dijo el autor principal Ziang Xiao, profesor asistente de ciencias de la computación en la Escuela de Ingeniería Whiting de Johns Hopkins que estudia las interacciones entre el ser humano y la inteligencia artificial.
“Incluso si un chatbot no está diseñado para ser sesgado, sus respuestas reflejan los sesgos o inclinaciones de la persona que hace las preguntas. Así que, en realidad, la gente está recibiendo las respuestas que quiere escuchar”.
LA GENTE BUSCA INFORMACIÓN QUE SE ALINEE CON SUS PUNTOS DE VISTA
Xiao y su equipo compartieron sus hallazgos en la conferencia CHI de la Asociación de Maquinaria de Computación sobre Factores Humanos en Sistemas de Computación el lunes 13 de mayo. Para ver cómo los chatbots influyen en las búsquedas en línea, el equipo comparó la forma en que las personas interactuaban con diferentes sistemas de búsqueda y cómo se sentían sobre temas controvertidos antes y después de usarlos.
Los investigadores pidieron a 272 participantes que escribieran sus pensamientos sobre temas como la atención médica, los préstamos estudiantiles o las ciudades santuario, y luego buscaran más información en línea sobre ese tema utilizando un chatbot o un motor de búsqueda tradicional creado para el estudio.
Después de considerar los resultados de la búsqueda, los participantes escribieron un segundo ensayo y respondieron a preguntas sobre el tema. Los investigadores también hicieron que los participantes leyeran dos artículos opuestos y les preguntaran sobre cuánto confiaban en la información y si encontraban los puntos de vista extremos.
Debido a que los chatbots ofrecían una gama más estrecha de información que las búsquedas tradicionales en la web y proporcionaban respuestas que reflejaban las actitudes preexistentes de los participantes, los participantes que los usaron se involucraron más en sus ideas originales y tuvieron reacciones más fuertes a la información que desafiaba sus puntos de vista, encontraron los investigadores.
“La gente tiende a buscar información que se alinee con sus puntos de vista, un comportamiento que a menudo los atrapa en una cámara de eco de opiniones de ideas afines”, dijo Xiao. “Descubrimos que este efecto de cámara de eco es más fuerte con los chatbots que las búsquedas web tradicionales”.
CON LOS CHATBOTS LAS PERSONAS TIENDEN A SER MÁS EXPRESIVAS
La cámara de eco se deriva, en parte, de la forma en que los participantes interactuaron con los chatbots, dijo Xiao. En lugar de escribir palabras clave, como hacen las personas para los motores de búsqueda tradicionales, los usuarios de chatbot tendían a escribir preguntas completas, como: ¿Cuáles son los beneficios de la atención médica universal? o ¿Cuáles son los costos de la atención médica universal? Un chatbot respondería con un resumen que incluyera solo beneficios o costos.
“Con los chatbots, las personas tienden a ser más expresivas y a formular preguntas de una manera más conversacional. Es una función de cómo hablamos”, dijo Xiao. “Pero nuestro lenguaje puede ser utilizado en nuestra contra”.
Los desarrolladores de inteligencia artificial pueden entrenar a los chatbots para extraer pistas de las preguntas e identificar los prejuicios de las personas, dijo Xiao. Una vez que un chatbot sabe lo que le gusta o no le gusta a una persona, puede adaptar sus respuestas para que coincidan. “De hecho, cuando los investigadores crearon un chatbot con una agenda oculta, diseñado para estar de acuerdo con la gente, el efecto de la cámara de eco fue aún más fuerte”.
Para tratar de contrarrestar el efecto de la cámara de eco, los investigadores entrenaron a un chatbot para proporcionar respuestas que no estaban de acuerdo con los participantes. Las opiniones de la gente no cambiaron, dijo Xiao. Los investigadores también programaron un chatbot para vincular a la información de la fuente para animar a la gente a verificar los hechos, pero solo unos pocos participantes lo hicieron. N