La mayor esperanza para salvar las instituciones democráticas estadounidenses de una explosión de desinformación provocada por la tecnología podría provenir del estudio de las enfermedades.
Los tres primeros “nodos” de la red de teorías de conspiración conocida como QAnon surgieron en 2018 con los fundadores Tracy Diaz, Paul Furber y Coleman Rogers.
En su momento, ellos entendieron cómo obtener ganancias al promover las publicaciones de “Q”, una figura misteriosa que afirmaba tener información privilegiada sobre un arresto masivo, llevado a cabo con la bendición del presidente Trump, en el cual habían atrapado a Hillary Clinton y otros por dirigir una banda de pedófilos. Los tres interpretaron, analizaron y ampliaron las divagaciones crípticas de Q sobre un enorme culto satánico de demócratas eminentes que traficaban con sexo infantil y bebían su sangre, entre otras historias dudosas, en YouTube, Reddit, Facebook, Instagram, 8chan y otros canales de redes sociales.
Durante varios años acumularon cientos de millones de “seguir”, “me gusta” y “compartir” con cada conexión y extendieron su alcance hacia afuera, como los rayos de una rueda, a nuevos seguidores, cada uno de los cuales se convirtió en otro nodo en la red.
QAnon ahora es una fuerza de perturbación firmemente arraigada y de rápido crecimiento en el panorama estadounidense de la información. El presidente Trump, tal vez el promotor más influyente de QAnon, hasta agosto había retuiteado o mencionado 129 cuentas diferentes de Twitter asociadas con QAnon, según el grupo de investigación sin fines de lucro Media Matters for America. QAnon distribuye teorías de conspiración y otras formas de desinformación y fomenta la violencia. En el episodio del “Pizzagate” en 2016, un hombre irrumpió en Cosmic Pizza, en Washington, y disparó un rifle de asalto AR-15 para rescatar niños esclavos sexuales (solo para encontrar gente comiendo pizza). Los creyentes en QAnon han cometido por lo menos dos asesinatos y el secuestro de un niño, iniciaron un incendio en California, bloquearon un puente cerca de la presa Hoover, ocuparon una planta de cemento en Tucson, Arizona, y planearon asesinar a Joe Biden. Un hombre, que ahora enfrenta cargos por conspirar para secuestrar a la gobernadora de Michigan, Gretchen Whitmer, publicaba teorías de conspiración de QAnon en su propia página de Facebook.
Lee: Youtube elimina y prohíbe contenidos de grupo conspiracionista QAnon
Las acciones de la industria tecnológica para contener a QAnon han fracasado en reducir la velocidad de su propagación. El FBI declaró a QAnon como una organización terrorista en mayo de 2019, incluso cuando Facebook seguía siendo uno de los principales facilitadores de la red. La investigación interna de la compañía, cuyos resultados fueron filtrados en agosto, identificó más de tres millones de miembros y seguidores en su plataforma, aunque el número real podría ser sustancialmente más alto. Pero fue apenas el 6 de octubre pasado cuando Facebook prohibió todos los grupos y páginas de QAnon, así como cuentas asociadas con QAnon en Instagram, propiedad de Facebook. Sin embargo, la prohibición no afecta los perfiles individuales de Facebook que trafican con publicaciones relacionadas con QAnon, una laguna enorme que ciertamente deja a la plataforma del todo abierta a la desinformación de esta fuerza.
Twitter afirma que ha suspendido 7,000 o más cuentas asociadas con QAnon mediante apelar a la violación de sus reglas básicas como distribuir spam. Estas medidas, dice un portavoz, “han reducido las impresiones sobre tuits relacionados con QAnon en más de 50 por ciento”.
Las acciones tal vez sean demasiado pocas y demasiado tardías. “La tecnología en general ha ayudado más a quienes proveen esta desinformación que a quienes tratan de defenderse contra ella”, dice Travis Trammell, teniente coronel en servicio del ejército y que este año recibió un doctorado en ciencia e ingeniería por Stanford. “No puedo pensar en algo que haya tenido un impacto tan perversamente perturbador en Estados Unidos”.
Neil Johnson, físico de la Universidad George Washington, está de acurdo. “Este es un problema que es más grande que los individuos en estas comunidades y más grande que cualquier acción de una plataforma para controlarlo”, comenta. “Es un reto enorme y requiere absolutamente de una ciencia nueva para lidiar con ello”.
Johnson y Trammell son parte de un cuadro de científicos que está en la primera línea de acciones para esquematizar a QAnon y entender cómo funciona. La explosión de desinformación que ha vuelto patas arriba la vida estadounidense y ahora amenaza sus instituciones democráticas ha dado paso a una nueva rama de la ciencia llamada “infodemiología”. Inspirada en la epidemiología, el estudio de cómo se propagan las enfermedades a través de una población, la infodemiología busca entender cómo la desinformación y las teorías de conspiración se propagan como una enfermedad a través de una democracia despreocupada como la estadounidense, con la meta final de entender cómo contener su propagación.
Si las grandes compañías tecnológicas no pueden detener a QAnon, tal vez los científicos sí puedan.
UN MAPA DEL CAMPO DE BATALLA
Nadie sabe cuán grande es realmente QAnon o, en la jerga de los analistas de redes, cuántos nodos y “aristas”, o conexiones entre nodos, engloba la red. Solo Diaz tiene 353,000 seguidores y suscriptores en Twitter y YouTube y genera decenas de millones de aristas al mes a través del “multiverso” de plataformas de redes sociales que usa QAnon. David Hayes, exparamédico y ahora promotor de QAnon de tiempo completo, tiene en conjunto 800,000 seguidores y suscriptores. Setenta candidatos al Congreso son nodos de QAnon. Más de 93,000 usuarios de Twitter mencionan a QAnon en sus perfiles, y muchas veces esa cantidad propaga sus mensajes en la plataforma. El nodo más influyente de la red, por supuesto, es el presidente Trump.
Como un punto de inicio, los científicos recopilan información sobre QAnon y maneras efectivas de analizarlo. Entre las herramientas promisorias están las visualizaciones de información compiladas por investigadores como Erin Gallagher, experta en redes sociales. Casi desde los primeros días de QAnon, Gallagher ha adiestrado una serie de herramientas de software sobre la actividad de sus miembros en Facebook y Twitter, ayudando a clarificar la anatomía en línea del grupo y descubrir una variedad de perspectivas. “Es difícil entablar un combate si no puedes ver un mapa del campo de batalla”, dice.
Gallagher lo sentencia casi literalmente. Su especialidad es producir “mapas de red” de QAnon, representaciones visuales de cuáles cuentas de redes sociales propagan la desinformación y hacia dónde fluye. Allí es donde entran los nodos y aristas, lo que da un medio de representar visualmente la propagación de mala información entre las cuentas en línea. Alimentados por un software que puede “raspar” Facebook y Twitter en busca de información sobre publicaciones públicas y tuits (no puede acceder a publicaciones y mensajes privados), los mapas les parecen a los no iniciados como obras vertiginosas de colorido arte abstracto. Pero para el ojo entrenado, son una guía a simple vista de las fuentes clave de desinformación y sus seguidores.
Entérate: Facebook bloquea cuentas relacionadas con la teoría conspirativa QAnon
Los resultados han ayudado a Gallagher y sus colaboradores a descubrir cierta cantidad de características de QAnon. Una perspectiva sorprendente: QAnon está inusualmente descentralizado, y las nuevas ideas y conversaciones brotan constantemente a través de sus miembros, sin mucho apoyo de “bots”, o software disfrazado como cuentas de redes sociales que bombean desinformación. Otra perspectiva: aun cuando las afirmaciones de pedofilia y tráfico de humanos siguen siendo el núcleo de la fantasía de QAnon, la corriente ha tomado muchos de sus miembros del movimiento contra las vacunas y, más recientemente, de los seguidores de la “plandemia”, quienes creen que las “élites” conspiraron para provocar la pandemia actual. “Un gran tema entre la gente que se mete en estos berenjenales es su inclinación a desconfiar en las autoridades”, comenta Gallagher. QAnon parece tener cabida para todos ellos, añade.
Están surgiendo muchas otras herramientas para ayudar en la batalla. Una especie de motor de búsqueda llamado “Hoaxy” detecta nuevas aseveraciones de fuentes con poca credibilidad que parecen estar pegando, y rastrea su propagación. También permite que cualquiera extirpe las afirmaciones dudosas en sus cuentas de Twitter. “Podemos ver la tendencia de narrativas nuevas en tiempo real”, dice Filippo Menczer, profesor de ciencias informáticas en la Universidad de Indiana, donde dirige el Observatorio de Redes Sociales (OSoMe) de la escuela. Menczer y sus colegas de OSoMe también rastrean a QAnon y otras comunidades orientadas a la desinformación; ellos desarrollan una serie de herramientas de software y aplicaciones disponibles para ayudar a cualquiera a recabar información de estos grupos.
Menczer ha usado la información de estas herramientas para compilar una anatomía de una típica publicación o tuit popular de QAnon. Usualmente está conectado a un tópico actual noticioso controvertido, como la violencia de manifestantes o el uso de cubrebocas, añade un elemento de verdad, está enmarcado alrededor de una información que hará enojar a la gente y encaje en las creencias e ilusiones existentes en la comunidad.
Por ejemplo, los mapas de la red de QAnon se encendieron en agosto con el rumor de que se había encontrado a 39 niños perdidos en un remolque en Georgia y sus secuestradores fueron arrestados. ¿Esto fue un pizzagate de la vida real? ¿Esto fue el comienzo de “la tormenta”, la acción, muy anticipada en el mundillo de QAnon, de Trump y los leales a él de acabar con las bandas de tráfico sexual de niños en el estado profundo? Cientos de miles de publicaciones y tuits hicieron esta afirmación. “Para las personas que son creyentes, estas historias les parece que deberían ser verdad y los hace sentir que necesitan movilizarse”, dice Menczer. Sin embargo, la verdad fue un poco diferente. En una acción a nivel estatal y por dos semanas, las autoridades de Georgia recuperaron a los 39 niños perdidos. Los casos resultaron no tener relación entre sí en su mayoría.
La solución obvia a la propagación de QAnon es cerrar las cuentas que propagan sus sinsentidos y otra desinformación potencialmente peligrosa; en otras palabras, eliminar los nodos de la red. Pero eso no está sucediendo, comenta Menczer, como lo demuestra la falta de voluntad de Facebook de eliminar perfiles relacionados con QAnon, además de prohibir los grupos y páginas, lo cual los expertos esperan que tenga un efecto limitado. Facebook y la mayoría de las otras plataformas siguen siendo lentas en eliminar a alguien por compartir información falsa, ilusoria o incluso peligrosa. Etiquetar las publicaciones como tales no ayuda, porque los creyentes ven dicha censura como parte de la conspiración (Facebook no respondió a una solicitud de comentarios).
Un enfoque más viable podría ser cortar las aristas, o conexiones, de la red, expresa Menczer. Para hacer eso, Facebook, Twitter y otras plataformas de redes sociales podrían añadir “fricción” a la hora de compartir publicaciones, para que el pensamiento conspiratorio no se propague con tanta rapidez o amplitud, dándole espacio a la gente para oír opiniones más fundamentadas y pensar las cosas con más claridad en vez de reaccionar por instinto.
La prohibición de Facebook a los grupos y páginas da un paso en esa dirección, al quitarle a los miembros algunos de sus canales establecidos para compartir en la plataforma. Pero les da libertad de hallar otros, que es exactamente lo que sucedió cuando Facebook promulgó una prohibición más estrecha en agosto contra 3,000 grupos y páginas específicas de QAnon. Una manera potencialmente más efectiva de añadir fricción será hacer que las plataformas oculten las “mediciones de interacciones”, que exhibían prominentemente el cálculo de “me gusta”, retuits y republicaciones e indican a simple vista qué publicaciones son más populares. “Ver esas mediciones altas hace que la gente tenga más posibilidades de creer una narrativa falsa y más posibilidades de volver a compartirla”, dice Menczer.
Otra acción para cortar las aristas de la red sería hacer que las plataformas disminuyan sus mecanismos para llamar la atención de los usuarios a cuentas y publicaciones acordes con sus intereses. Estas pistas son útiles para quienes les gustan intercambiar publicaciones o tuits de gatos, cocina francesa o crianza, pero deja a quienes hacen clic en propaganda de QAnon más tremendamente empapados en la comunidad y menos expuestos a un pensamiento tradicional más razonable que podría ser protector. “Los grupos como QAnon convierten las plataformas en armas y herramientas para ayudar a la gente vulnerable a las teorías de conspiración a encontrarse unos a otros”, comenta Menczer. “Cuanto más comparten, estas ideas les parecen más creíbles”.
GUSTO POR EL PLACER
Contrarrestar el atractivo de QAnon requiere entender la naturaleza de ese atractivo, sostiene Jennifer Kavanagh, profesora de ciencias políticas en la Escuela de Postgrado Pardee RAND en Santa Mónica, California, y directora del Programa RAND de Estrategia, Doctrina y Recursos. En otras palabras, ¿qué obtienen los miembros de QAnon al unirse?
Una cosa que obtienen es dopamina, el químico del placer en el cerebro. Los estudios cerebrales han mostrado que cuando la gente ve información que confirma su creencia en que algo no es cierto, reciben una dosis mayor de dopamina. QAnon también da una manera sencilla de ver un mundo por lo demás incomprensible y confiere una aceptación rápida en una comunidad. “Las teorías de conspiración le dan sentido al mundo”, dice Kavanagh. “Y dan la sensación de pertenecer a un grupo con solo creer lo que el grupo cree”.
Para ampliar estos beneficios, QAnon trafica con afirmaciones que tienden a evocar fuertes reacciones emocionales en cualquiera que esté listo a creerlas. Esclavizar niños, pedofilia, rituales extraños anticristianos y un enorme imperio oculto de personas ricas y poderosas manipulando las cuerdas: estos son crímenes y amenazas que afectan profundamente las mentes que están abiertas a aceptarlas como hechos.
El entender cuán gratificantes y resonantes pueden ser las aseveraciones alocadas de QAnon para sus adeptos deja en claro que es una causa perdida combatir con hechos la propagación del movimiento. Los hechos no remplazan las sensaciones poderosas y el sentido de comunidad que dan las teorías de conspiración. Más bien, una mejor estrategia es ofrecer narrativas alternas que puedan dar de la misma forma beneficios emocionales, pero que están enlazadas con la verdad en vez de la ilusión y motiva a la gente a comportarse de maneras productivas y benignas en vez de atacar verbalmente con odio, perturbación y violencia.
Te puede interesar: Twitter eliminará publicaciones que “nieguen” o “minimicen” el Holocausto
Los científicos tratan de elaborar narrativas basadas en la verdad y emocionalmente resonantes para combatir la ilusión y desinformación, pero tienen mucho camino por recorrer, expresa Kavanagh. Incluso una narrativa ganadora sería difícil de vender si proviene de los científicos y otros tipos tradicionales en quienes los adeptos de QAnon han llegado a desconfiar. Más bien, la narrativa debe provenir de “mensajeros confiables que piensan como ellos —tal vez un policía local o un miembro del clero— a quienes ellos ven como una fuente con autoridad”, sentencia.
Sherry Pagoto, psicóloga y experta en redes sociales en la Universidad de Connecticut, ha desarrollado soluciones construidas a partir de estas precisas estrategias de mensajes resonantes transmitidos por mensajeros confiables. Pagoto no ha abordado a QAnon de frente, sino que más bien ha enfocado su laboratorio en ganarse a quienes han sido sorprendidos por la desinformación en salud, un grupo que se ha traslapado un poco con los miembros de QAnon, dados los nexos de estos últimos con las comunidades contra las vacunas y del COVID-19, es un fraude.
En un estudio, Pagoto y sus colegas se enfocaron en las madres que les permiten a sus hijas adolescentes ir a los salones de bronceado en estados donde se requiere del permiso de los padres. Se han ignorado en gran medida las peticiones de salud pública para mantener a los niños alejados de estos salones debido a los riesgos de cáncer. Pero el equipo de Pagoto adoptó una ruta indirecta para dar a conocer su mensaje. Ellos abrieron un grupo de Facebook para madres con hijas adolescentes, convirtiéndolo en un foro para intercambiar todo tipo de consejos, quejas y apoyos. “En vez de tratar de darles información de salud que probablemente no estaban listas para oír —explica Pagoto—, creamos una comunidad que era relevante en sus vidas”.
Su equipo también investigó cómo tipos diferentes de mensajes en línea suscitaban sensaciones diferentes, buscando pistas de cuáles mensajes hacían a la gente sentirse mejor en vez de más enojada o más molesta. Armado con estas perspectivas, el grupo de Pagoto empezó a trabajar en conversaciones sobre los salones de bronceado, finalmente salpicando la conversación con referencias a los riesgos de salud, mientras mantenían un tono alegre. Como cabía esperar, algunas de las madres terminaron cambiando de parecer con respecto a permitirles a sus hijas ir a los salones.
Abrirles los ojos a los miembros de QAnon y otras víctimas de la desinformación y las teorías de conspiración es un reto mucho mayor, acepta Pagoto. Pero ella insiste en que el mismo enfoque básico debería funcionar. “Si podemos entender mejor lo que da forma a sus creencias, podemos hacer un mejor trabajo al transmitir los mensajes correctos a sus comunidades”, comenta ella. Esto podría significar, por ejemplo, el reclutar gente para que contacte y se relacione con miembros de QAnon de una manera más amistosa, alentándolos gentilmente a cuestionar las afirmaciones del movimiento.
SUPERPROPAGADORES Y CUARENTENAS
Las similitudes vagas entre la propagación de una creencia de QAnon y la propagación de una enfermedad infecciosa son la inspiración del enfoque de Trammell para contener al movimiento. En su investigación en Stanford, tomó prestados modelos matemáticos de los epidemiólogos para calcular cómo condiciones diferentes aceleran o frenan el ritmo de propagación de la infección en una población.
Por ejemplo, el trabajo de Trammell ha mostrado que QAnon tiene “superpropagadores”: personas con una amplia conexión en línea que atraen grandes cantidades de conversos. Pero los superpropagadores en línea tienen mucho más alcance que sus pares infecciosos del mundo real porque no tienen que limitar su capacidad de infección a quienes están físicamente cerca. Al igual que con el COVID-19 y otras enfermedades infecciosas, las cuarentenas pueden ayudar, según su investigación. Como resultado, Trammell propone que las plataformas de redes sociales consideren “poner en cuarentena”, o aislar, algunas de las partes más activas de QAnon y otras comunidades de teorías de conspiración, de modo que los miembros en cuarentena puedan seguir comunicándose entre ellos, pero no puedan salir afuera a “infectar” a quienes no están en cuarentena.
Las medidas preventivas tal vez sean más efectivas que tratar de “curar” a quienes ya han sucumbido a las teorías de conspiración. “En cuanto las ideas arraigan en alguien, extraerlas es en extremo difícil”, dice Trammell. Más bien, propone enfocar las acciones más fuertes en quienes no son miembros de QAnon, de modo que quienes son más vulnerables al pensamiento conspiratorio puedan evitar la infección si se ven expuestos. Por ejemplo, las plataformas de redes sociales podrían emitir ampliamente advertencias sobre ciertas narrativas falsas que están atrayendo a la gente, una técnica que él llama “preexponer” las teorías de conspiración y que es más o menos parecida a la vacunación.
Al igual que con las vacunas reales, los mensajes para preexponer se deben diseñar y probar cuidadosamente para evitar efectos colaterales. Uno de estos efectos secundarios potenciales es que cuando la gente sigue oyendo advertencias sobre mala información, puede hacerse igual de escéptica a las aseveraciones legítimas y fácticas de fuentes confiables a como lo es a las teorías de conspiración.
Cualesquiera estrategias se adopten para combatir a QAnon, están destinadas a fracasar si se limitan a solo unas cuantas de las principales plataformas de redes sociales. Eso es lo que le preocupa a Johnson, el físico de la Universidad George Washington. La especialidad de Johnson es desenmarañar los mecanismos detrás de sistemas complejos y caóticos, una técnica que ha aplicado a fenómenos tan abrumadores como la superconductividad y los patrones eléctricos en el cerebro. Pero en años recientes se ha enfocado más en desentrañar los patrones ocultos de la propagación en línea de QAnon y otros movimientos extremistas, analizándolos en términos de conceptos físicos como multiversos, transiciones de fase y ondas de choque. “La complejidad de estas comunidades las hace difíciles de controlar”, comenta. “Es su ventaja clave”.
Esa complejidad deriva en parte de las muchas plataformas en línea que usan QAnon y otros grupos de teorías de conspiración o terroristas. La actividad de QAnon ha florecido en momentos diferentes en Reddit, 4chan, 8chan, 8kun, Twitter, Instagram, Facebook y muchos otros canales. Esto crea lo que él llama un multiverso de seguidores de QAnon, pues la comunidad de cada plataforma desarrolla sus propios seguidores y patrones de comportamiento. Aun peor, cada comunidad cambia al paso del tiempo y los miembros saltan de una a otra, a veces de manera individual y en ocasiones en masa, desafiando las acciones de cualquier plataforma de refrenarlos. “Como los autos que tratan de evitar el tráfico, los miembros cambian de plataformas para sortear las nuevas restricciones y los moderadores, llevándose a los seguidores consigo”, explica Johnson. Esta es precisamente la razón por la cual la prohibición de Facebook a los grupos y páginas posiblemente sea poco más que un tope en el camino de flujos cada vez mayores de desinformación de QAnon.
Dado que QAnon está tan descentralizado, ir por miembros individuales es “como tratar de hallar la molécula en una olla de agua que hizo hervir el agua”, dice Johnson. Lo que importa es el comportamiento del colectivo, que es la fuerza de QAnon y otros movimientos de teorías de conspiración. Pero es una fuerza que podría convertirse en una línea de ataque. Cuando el agua está a punto de hervir, se forman burbujas pequeñas a lo largo de los lados y en el fondo de una olla. Al reventar estas burbujas —tal vez un centenar en una olla—, es posible evitar que el agua hierva. De la misma forma, una estrategia efectiva para contener a QAnon podría ser enfocarse en grupos pequeños y específicos de miembros de QAnon cuyos comportamientos se influencian estrechamente unos a otros y cuyas actividades amenazan con disparar un comportamiento potencialmente más peligroso en la comunidad más grande.
Exactamente cómo romper las “burbujas” de QAnon es un tema de la investigación actual de Johnson. Los miembros de QAnon en un grupo tienden a enfocarse en sus actitudes compartidas hacia ciertas cosas que piensan que están sucediendo en el mundo, ya sean elementos particulares de una teoría de conspiración o ciertos eventos noticiosos recientes. Al mismo tiempo, tienden a ignorar los tópicos en los que podrían no estar de acuerdo, ya sea religión, política, salud u otros. Ello podría crear una oportunidad para meter una calza entre estos miembros. “Si podemos llamar la atención sobre los puntos de posible desacuerdo, tal vez seamos capaces de separarlos para que su comportamiento se correlacione menos”, argumenta Johnson. “Es básicamente lo opuesto de la resolución de conflictos”.
Otra investigación sugiere que si cambias las opiniones de una tercera parte de una comunidad, el resto de la comunidad posiblemente la siga. Al sembrar discordia en los grupos idóneos de miembros, podría ser posible derribar a QAnon.
UN RETO EN CURSO
Ningún científico afirma tener todavía una solución más que lista para el problema de QAnon y otras comunidades problemáticas en línea. Parte de la razón por la cual el progreso es más lento de lo que debería ser, es que los científicos no pueden obtener toda la información que necesitan para analizar completamente el comportamiento en línea de estas comunidades, porque las plataformas se niegan a compartirlo todo. “Estamos muy insatisfechos hasta ahora con algunas plataformas que retienen información”, dice Menczer. “Es un rompecabezas muy grande, y no nos dan acceso a todas las piezas”. La mayoría de los científicos señalan directamente a Facebook como el ofensor más grande en lo tocante a restringir el acceso a la información. Pero algunos aseguran que la compañía se ha movido en la dirección de proveer más información, aunque con lentitud, y algunas plataformas como Twitter han sido relativamente comunicativas. Twitter dice que ha establecido herramientas nuevas diseñadas específicamente para ayudar a los investigadores académicos a recabar y analizar información sobre el tráfico de la plataforma.
Incluso con mejor información, el reto seguirá siendo considerable, porque los científicos apuntan a un blanco móvil. “El comportamiento en línea cambia más rápido que la velocidad usual en que los científicos entienden las cosas y luego los legisladores pueden aprobar una ley”, comenta Menczer. “Las cosas que hemos descifrado hasta ahora posiblemente tengan solo efectos pequeños”.
La experiencia del COVID-19, y la desinformación alrededor de él, ha sido una decepción para los infodemiólogos. “Esperábamos que el COVID-19 ayudara a que la gente apreciara mejor cuánto importan los hechos”, dice Kavanagh. “Pero solo hemos visto que sigue empeorando el pensamiento conspiratorio. Y no pienso que hayamos tocado fondo aún”.
Los infodemiólogos tal vez tengan que seguir el ejemplo de sus pares epidemiólogos e imponerse metas modestas y alcanzables. “Los epidemiólogos por lo general saben que no pueden eliminar una enfermedad”, comenta Trammell. Pero buscan maneras de frenar la propagación a niveles sostenibles. Deberíamos ser capaces de tener un nivel manejable de desinformación”.
Al momento, un nivel manejable de desinformación suena muy bien.
—∞—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek