Una conspiración de algoritmos: YouTube finalmente se pone bravo con sus videos engañosos


Una conspiración de algoritmos: YouTube finalmente se pone bravo con sus videos engañosos

algoritmos-youtube-videos-enganosos


Louie Veleski tiene algunas opiniones interesantes. Piensa que los fantasmas existen y los humanos nunca han ido a la Luna. Residente de Melbourne, Australia, Veleski expone sus puntos de vista en su canal de YouTube, Better Mankind, lo que le da hasta 5,400 dólares al mes.

Resulta que las teorías de conspiración son muy redituables para el emprendedor que se incline por YouTube. En su canal, Peladophobian, Ryan Silvey, de 18 años y también de Australia, publica videos como “La escuela es Illuminati” y “Donald Trump es Vladimir Putin”. Aunque satíricos, los videos pueden ser agrupados con otras publicaciones opuestas o esotéricas en los resultados de búsqueda. Silvey gana más de 7,500 dólares al mes en promedio por anuncios que ven algunos de sus 628,000 suscriptores.

YouTube también gana un dineral. Los creadores de contenido se quedan con alrededor de 55 por ciento del dinero que pagan las compañías por poner anuncios de 30 segundos al comienzo de videos populares. El resto se lo queda Alphabet, la compañía matriz del sitio. Reportó más de 110,000 millones de dólares en ingresos en 2017 (superando los 90,000 millones de dólares de 2016). Casi 90 por ciento de esa cifra provino de anuncios, y una cantidad creciente estuvo en YouTube.

Creado en 2005, YouTube es la plataforma de contenido en video que domina internet. Personas de todo el mundo ven alrededor de 1,000 millones de videos educativos en el sitio cada día, y más personas lo usan como una fuente de noticias. Pero reportes mediáticos han implicado a YouTube en la divulgación de noticias falsas y extremismo, a menudo a través de videos de conspiración que dan información falsa. Con Facebook ahora bajo escrutinio del gobierno y posiblemente enfrente regulaciones, YouTube está tomando medidas para asegurar su propia integridad. Y ello podría significar el final del negocio de los videos de conspiración.

La preocupación por estos videos podrá parecer exagerada. Ve una publicación que afirme que una tormenta geomagnética el 18 de marzo “[trastornaría] satélites, la navegación GPS y las redes eléctricas en todo el planeta”. Algunos canales de noticias tomaron la afirmación como un hecho hasta que agencias científicas de Estados Unidos la refutaron. Ese video era engañoso, pero posiblemente inocuo.

Pero otros tal vez hayan tenido algo que ver en tragedias recientes. La persona que atropelló con su auto a peatones en el puente de Londres en junio de 2017 y acuchilló a comensales de bares cercanos tal vez vio videos de un predicador salafista en YouTube. Después del mitin en agosto pasado en Charlottesville, Virginia, de la llamada derecha alternativa, The New Republic llamó a la plataforma “el Líder Mundial de la Supremacía Blanca”. Después del tiroteo en Las Vegas en octubre de 2017, The Wall Street Journal captó el algoritmo que sugería videos que afirmaban que el evento fue una falsa bandera. Hasta que el algoritmo cambió, los principales cinco resultados de una búsqueda sobre “tiroteo en Las Vegas” incluían un video donde se afirmaba que agentes del gobierno fueron los responsables del ataque.

“Según mi experiencia, en el espacio de la desinformación —escribió Jonathan Albright, director de investigación del Centro Tow de Periodismo Digital, en un ensayo en Medium—, todos los caminos parecen llevar con el tiempo a YouTube”.

Abordar el problema es difícil porque lo que constituye una conspiración no siempre es claro, dice YouTube. ¿Cuentan las predicciones para 2018, incluido que el monte Vesubio de Italia hará erupción y matará a cientos de miles de personas? ¿Qué hay de Shane Dawson, quien rutinariamente publica videos en su canal, pero no necesariamente apoya lo que discute? Un video que plantea, entre otras cosas, que alienígenas podrían estar relacionados con la desaparición del Vuelo 370 de Malaysia Airlines, empezó con el descargo de responsabilidad de que “todo esto son solo teorías” y “no están pensadas para dañar o afectar a alguna compañía”.

La dificultad de precisar si una publicación califica o no como una opinión extremista y sin fundamento es parte del problema. Sin una definición, el algoritmo de YouTube no puede filtrar tales videos de sus resultados de búsqueda. Ello es un problema para Alphabet, la cual está preocupada de que la divulgación de videos de conspiración en todo YouTube pueda resultarle contraproducente. La información falsa que se filtra a las listas de los principales videos recomendados, con el tiempo podría alejar a los consumidores, cualquiera que vea videos en YouTube. “Nuestras marcas también podrían verse afectadas negativamente por el uso de nuestros productos o servicios”, declaró el reporte anual de 2017 de Alphabet, “para diseminar información que sea tachada de engañosa”.

Pero el sitio incentiva a los creadores de contenido a moverse cerca del borde de las opiniones extremistas porque estas atraen a los usuarios a hacer clic. Ese video de Dawson sobre el avión desaparecido obtuvo 8 millones de vistas, y posiblemente le dio —y a Alphabet— miles de dólares. AlgoTransparency, un sitio web que rastrea qué videos le recomienda YouTube a los visitantes, señala que la búsqueda de frases como “¿la Tierra es plana o redonda?” o “hechos sobre vacunas”, en febrero llevó a videos que afirmaban mostrar pruebas de que la Tierra es plana o evidencia de que las vacunas provocan autismo, respectivamente, alrededor de ocho veces más a menudo que videos sin una inclinación de conspiración sobre estos temas. Cuando Veleski empezó a producir videos de tipo conspiratorio, recibió más vistas —y más dinero— por ellos que por aquellos enfocados en medicina alternativa y temas de salud.

YouTube tiene sus propias opiniones radicales. En enero, el sitio anunció que los videos sobre temas controvertidas como las estelas químicas (condensación dejada por los aviones que algunas personas piensan que son químicos peligrosos) ya no serían elegibles para tener anuncios. Y más tarde este año, paneles acompañarán cualquier video sobre un tema rodeado de teorías de conspiración, como el alunizaje o el asesinato de John F. Kennedy. Estas ventanas emergentes tendrán información suplementaria de terceros como Wikipedia (la compañía se negó a nombrar otras fuentes potenciales).

Veleski no espera ansioso el cambio. A su parecer, los paneles basados en enciclopedias denigrarán lo que muchas personas consideran como perspectivas legítimas, aunque controvertidos, sobre temas importantes. “Hacer que un tema parezca tonto porque no sigue la corriente principal —dice— no pienso que sea del todo justo”.

No obstante, cuando se trata de auténticos creyentes, la estrategia de publicar hechos junto con estos videos tal vez no funcione de todos modos. Jovan Byford, un investigador de la Universidad Open en el Reino Unido, señala la falla en usar argumentos racionales para desacreditar las teorías de conspiración. “Eso no funciona”, concluye. “Su argumento a ello será: bueno, eso es lo que ellos quieren que creas”.

Publicado en cooperación con Newsweek / Published in cooperation with Newsweek

Ingresa las palabras claves y pulsa enter.