Cada vez son más las páginas web que incorporan bots –programas informáticos que se
comportan como humanos– para realizar tareas sencillas, como responder
preguntas de los usuarios, hacer publicidad o abrir cuentas de correo
electrónico. “Pero aún están lejos de actuar de la manera en que lo haría una
persona”, recapitula un grupo de ingenieros informáticos del Instituto Alan
Turing, de Reino Unido, que ha dedicado parte de su tiempo a estudiar el
comportamiento de los robots en Wikipedia.
Parte de la conclusión de los expertos se puede
resumir en un dato: “Hasta 4.7 millones de las ediciones de los artículos son
correcciones que los bots se hacen entre sí, constantemente”; una trabajo sin
fin y sin sentido.
Los bots de la enciclopedia digital se encargan de
tareas tediosas, como identificar y deshacer casos de vandalismo, añadir enlaces,
corregir la ortografía y guardar la concordancia sintáctica de las oraciones.
El problema detectado se explica en pocas palabras: las ediciones están
condicionadas por el país y el lenguaje en el que han sido programados, e
influidas por algunos aspectos culturales. Algunas de las reversiones en las
que caen los bots son, por ejemplo, cambiar “Palestina” por “territorio
palestino” o “Golfo Pérsico” por “Golfo Arábico”, y de ese tipo, millones de
casos, millones de veces.
Los bots, además, están programados para revisar cada
cierto tiempo los cambios que hacen, detonante de la guerra: se corrigen y se
corrigen, una y otra vez, en cuanto encuentran que su última edición ha vuelto
a ser modificada. A diferencia de los cambios que hacen las personas, porque
los usuarios de Wikipedia rara vez vuelven a comprobar si los datos que
corrigieron están actualizados.
El estudio demuestra que los bots pueden trabajar de formas totalmente impredecibles. “El
mundo online se ha convertido en un ecosistema de robots y, sin embargo,
nuestro conocimiento sobre cómo interactúan estos agentes automatizados es muy
pobre”, reconoce Taha Yasseri, una de las responsables de la investigación.
Para apreciar la dimensión del asunto, “el ecosistema”
del que habla Taha, un estudio de 2009 estimó que ese año los bots generaron 24 por ciento de
todos los tuits que se publicaron; una compañía de análisis de audiencias
encontró que 54 por ciento de los anuncios mostrados entre 2012 y 2013
fueron vistos por robots en lugar de por humanos; y, de acuerdo con una compañía
de seguridad de la Red, realizaron 48.5 por ciento de las visitas a las
páginas web de 2015.
Según los expertos, en el caso de Wikipedia, una de
las posibles soluciones es que la enciclopedia permita el uso de bots cooperativos que puedan
gestionar los desacuerdos y permitan que las tareas se puedan cumplir de manera
eficiente. A ver si no se pelean.