Un estudio indica que en Facebook proliferan los falsos remedios y las teorías de la conspiración y que estos contenidos permanecen en la plataforma el tiempo suficiente como para suponer un riesgo para millones de personas
15 de abril de 2020
Descargar Versión PDF Volver al Centro Anti-DesinformaciónCuando la crisis del coronavirus empezó a extenderse por el planeta, la Organización Mundial de la Salud (OMS) alertó de que «no estamos luchando únicamente contra una epidemia; estamos luchando contra una infodemia». Avisó de la que «las noticias falsas se propagan con más rapidez y facilidad que el propio virus, y son igual de peligrosas».1 [OMS, Conferencia de Seguridad de Múnich, 15 de febrero de 2020, https://www.who.int/es/dg/speeches/detail/munich-security-conference]
En respuesta a esta crisis, el presidente de Facebook, Mark Zuckerberg así como otros directivos de la empresa lanzaron una campaña mediática para publicitar los esfuerzos adicionales de su compañía por frenar la propagación de bulos relacionados con la COVID-19. Facebook anunció que dichos esfuerzos habían sido «rápidos», «contundentes» y se habían ejecutado «bastante bien».2 [Entrevista de CBS a Sheryl Sandberg: Facebook is removing fake coronavirus news "quickly", COO Sheryl Sandberg says, Comunicado de Facebook: Combating COVID-19 Misinformation Across Our Apps, Nota de Prensa de Mark Zuckerberg – 18 de marzo, https://about.fb.com/wp-content/uploads/2020/03/March-18-2020-Press-Call-Transcript.pdf]
El pasado mes de febrero, nuestro equipo empezó a detectar y a rastrear la desinformación rampante que rodea a la COVID-19 en la red. En marzo, nuestro equipo de investigación pasó a analizar y evaluar la eficacia de los esfuerzos que Facebook ha puesto en marcha para combatir esta infodemia en su plataforma principal.
Para este estudio, de los miles de bulos relacionados con el coronavirus que han circulado por Facebook, decidimos examinar, en seis idiomas distintos, más de un centenar de bulos sobre el virus clasificados como falsos y engañosos y causantes potenciales de daños al público por parte de verificadores independientes.3 [Para más detalle, véase el apartado de Metodología y conjunto de datos.]
Así, descubrimos que hay millones de usuarios de la plataforma que continúan expuestos a los peligros del consumo de información falsa y perniciosa sobre el coronavirus a gran escala. Calculamos que la muestra de contenido que seleccionamos y analizamos se compartió más de 1,7 millones de veces en Facebook y recibió unos 117 millones de visualizaciones estimadas; y esto no es más que la punta del iceberg desinformativo.
Aunque apreciamos la labor encomiable del equipo anti-desinformación de Facebook para combatir esta infodemia, las políticas actuales de la red social han sido insuficientes a la hora de proteger a sus usuarios.
Del 41% de los bulos que siguen en Facebook sin etiquetas que alerten de su contenido falso, el 65% ha sido desmentido por los socios del propio programa de verificación de la plataforma4 [Para nuestro estudio, solo analizamos contenido desinformativo que contaba o bien con una verificación primaria o con una directa – es decir, con verificaciones que enlazaban o se referían a publicaciones o artículos específicos. Para aquel contenido que carecía de verificación primaria o directa, aplicamos resultados de verificación primaria a afirmaciones relacionadas con la salud idénticas a las que figuraban en esas publicaciones.]. Durante el tiempo que duró nuestra investigación5 [Nuestro período de investigación abarca las acciones y declaraciones de Facebook entre el 16 de enero de 2020 y el 14 de abril de 2020. Sin embargo, a raíz de las conversaciones con los representantes de la plataforma, nos sentimos alentados por los esfuerzos que la red social está realizando para mejorar sus políticas y procesos según algunas de las recomendaciones que se mencionan en este informe.], el contenido permaneció en la red social pese a que la compañía había prometido publicar «advertencias serias» que alertaran contra la desinformación señalada por verificadores de datos y otros organismos externos, y retirar todos los bulos susceptibles de causar un daño físico inminente.6 [Facebook, Combating COVID-19 Misinformation Across Our Apps, 25 de marzo de 2020, https://about.fb.com/news/2020/03/combating-covid-19-misinformation/]
En segundo lugar, Avaaz ha constatado que Facebook tarda un tiempo significativo en aplicar sus medidas contra la desinformación. Estos retrasos son especialmente preocupantes puesto que permiten a millones de usuarios acceder a contenido desinformativo sobre el coronavirus antes de que la plataforma verifique su veracidad y lo etiquete a través de una advertencia o lo retire. En esta misma línea, descubrimos que la plataforma puede llegar a tardar hasta 22 días en degradar dicho contenido y en publicar etiquetas que notifiquen que se trata de un bulo, lo que deja un margen de tiempo muy amplio para que se viralice.
Nuestro análisis indica, asimismo, que los usuarios italohablantes e hispanohablantes podrían ser más vulnerables a la exposición a los bulos. Facebook aún no ha emitido etiquetas de advertencia en un 68% y un 70% del contenido examinado en italiano y en español respectivamente, frente al 29% en el caso del inglés.
La magnitud de esta infodemia combinada con la reticencia de Facebook a notificar de forma retroactiva y enviar rectificaciones a todos y cada uno de los usuarios que hayan estado expuestos a bulos perniciosos sobre el coronavirus socava los esfuerzos por «frenar la curva» en todo el mundo y podría, potencialmente, suponer un peligro para muchas vidas.
Tras una conversación con los miembros del equipo anti-desinformaicón de Facebook que tuvo lugar el 13 de abril de 2020, celebramos el compromiso sin precedentes de la red social de instaurar alertas con carácter retroactivo para luchar contra la desinformación sobre el coronavirus, lo que supone un primer paso tan importante como necesario que podría llegar a salvar vidas7 [Con este gesto para con las personas expuestas a la desinformación, Facebook se desmarca del resto de las principales plataformas sociales en cuanto a informar a sus usuarios sobre el contenido falso con el que han podido toparse y supone un primer paso para solventar las fallas en sus políticas que se han destacado más arriba.].
Con el fin de asegurar una retirada rápida de la plataforma del contenido susceptible de causar un daño físico inminente a los usuarios de Facebook, el 8 de abril de 2020 remitimos a la empresa una lista de publicaciones falsas que, a nuestro parecer, incumplían sus políticas, con la recomendación de que las retiraran. Por su parte, a 14 de abril de 2020, Facebook ha retirado 17 de las publicaciones de ese listado, que sumaban unos 2,4 millones de visualizaciones estimadas.
Facebook está en el epicentro de los bulos sobre el coronavirus y la plataforma no debe escatimar en esfuerzos para proteger a sus usuarios de esta infodemia.
Los 104 bulos relacionados con el coronavirus analizados en este informe han alcanzado más de 117 millones de visualizaciones estimadas 8[Véase el apartado Metodología y conjunto de datos.], y eso que esta muestra no es más que la punta del iceberg.
Del 41% de este contenido desinformativo que sigue colgado en la plataforma sin notificaciones que alerten de ello, el 65% había sido desmentido por los colaboradores del propio programa de verificación de datos con los que trabaja Facebook.
Los actuales esfuerzos de Facebook por combatir la desinformación siguen siendo lentos e insuficientes a la hora de limitar la propagación de bulos sobre el coronavirus, incluso cuando el contenido está contrastado por los propios verificadores de datos que colaboran con la plataforma.
La plataforma puede llegar a tardar 22 días en degradar el contenido falso y emitir los avisos pertinentes, incluso cuando tanto los verificadores que colaboran con Facebook como la Organización Mundial de la Salud o las autoridades sanitarias locales obran a una velocidad considerable a la hora de publicar rectificaciones.
Estos retrasos implican que millones de usuarios ven, interactúan y comparten el contenido desinformativo antes de que la plataforma notifique que se trata de un bulo y/o lo retire.
Parece que los usuarios italohablantes, hispanohablantes y lusófonos reciben una cantidad significativamente menor de estos avisos de Facebook y, por ende, corren mayor riesgo de exposición a los bulos.
Más de la mitad (51%) de los bulos que circulan en lengua no inglesa aparecen sin la etiqueta de alerta.
A 7 de abril de 2020, Facebook no había publicado las etiquetas de advertencia en el 29% del contenido en inglés desmontado por los verificadores de datos analizado en este estudio.
Nuestra muestra sugiere que la eficiencia de Facebook a la hora de moderar la desinformación sobre COVID-19 es significativamente menor en el caso del contenido desinformativo en italiano, español y portugués.
Los bulos sobre el coronavirus mutan y se propagan a un ritmo mayor del que el actual sistema de Facebook es capaz de seguir.
Un bulo eficaz puede mutar, infectar e incubar en cientos de grupos y páginas de Facebook y permanecer indetectable.
Por ejemplo, una publicación de contenido desinformativo dañino 9[La publicación original se retiró después de que Avaaz se lo notificara a Facebook: https://www.facebook.com/permalink.php?story_fbid=2733027656745577&id=1555031211211900&__tn__=-R] según la cual una forma de eliminar el virus es beber mucha agua y hacer gárgaras con agua, sal o vinagre se compartió más de 31000 veces antes de que Facebook la retirara finalmente (previo aviso de Avaaz). En cambio, los 2611 clones de aquel bulo siguen en la plataforma y acumulan más de 92246 interacciones. La mayoría de estas publicaciones clonadas carecen de la advertencia correspondiente de Facebook.
Bulo
“Los negros son resistentes al coronavirus”10[La publicación original se retiró después de que Avaaz se lo notificara a Facebook: https://www.facebook.com/photo.php?fbid=2937680962950647&set=a.152802728105165&type=3&theater]
El bulo de que las personas de piel negra son más resistentes al coronavirus.
3604 interacciones (mejor estimación disponible)
112830 visualizaciones estimadas
Bulo
“Buenas noticias: el dióxido de cloro destruye el coronavirus”11[La publicación original se retiró después de que Avaaz se lo notificara a Facebook: https://www.facebook.com/groups/499554396786126/permalink/3476737632401106]
El bulo de que el dióxido de cloro cura el virus. (6368 interacciones y 199362 visualizaciones estimadas)
6368 interacciones (mejor estimación disponible)
199362 visualizaciones estimadas
Bulo
“El vicepresidente de Estados Unidos, Mike Pence, insta a las personas infectadas con coronavirus a acudir a la policía”12[http://archive.ph/wip/d78wi]
(El tuit de la imagen es falso, el vicepresidente Mike Pence no publicó ese tuit)13[Lead Stories, Fact Check: VP Pence Did NOT Urge People With Coronavirus To Go To The Police, 2 de marzo de 2020, https://leadstories.com/hoax-alert/2020/03/Fact-Check-VP-Pence-Did-NOT-Urge-People-With-Coronavirus-To-Go-To-The-Police.html]
El bulo de que el vicepresidente de Estados Unidos, Mike Pence, recomendó a los positivos por coronavirus acudir a la comisaría más cercana.
694 interacciones (mejor estimación disponible)
21727 visualizaciones estimadas
Bulo
“Los secadores de pelo podrían ser útiles para prevenir el coronavirus“14[https://www.facebook.com/Hayfaalhusseini/videos/255658768781237/?__tn__=-R]
El bulo de que el aire caliente de un secador de pelo puede aniquilar el virus.
119057 interacciones (mejor estimación disponible)
2600000 visualizaciones en Facebook
Bulo
“El virus puede curarse con un cuenco de agua recién hervida con ajo“15[La publicación original se retiró después de que Avaaz se lo notificara a Facebook: https://www.facebook.com/holisticn8healing/photos/a.362593477866554/605012106958022/?type=3&__tn__=-R]
El bulo de que el virus se puede curar con agua hervida con ajo.
115 interacciones (mejor estimación disponible)
3600 visualizaciones estimadas
Si bien es cierto que Facebook ha dado varios pasos encomiables para combatir la infodemia de la COVID-19, como por ejemplo permitir a la OMS publicar anuncios gratuitos y divulgar contenidos con autoridad entre millones de usuarios mediante el Centro de información COVID-19, nuestros resultados ponen en duda que la empresa esté haciendo todo lo posible para cumplir con su deber y proteger a sus usuarios. Nuestros resultados sugieren que la plataforma debe adoptar medidas más contundentes para estar a la altura de las declaraciones oficiales que ha hecho públicamente en relación con sus esfuerzos por luchar contra la desinformación vinculada al coronavirus.
Facebook todavía tiene la oportunidad de «frenar la curva» de esta infodemia. Tras consultar a varios expertos de la industria, académicos, médicos y legisladores de todo el mundo, Avaaz insta a Facebook a dar los siguientes pasos con carácter urgente:
«Rectificar la Información»: Esto implica que todos y cada uno de los usuarios que hayan estado expuestos a un bulo16[Para el estudio académico «Rectificar la Información», al que se hace referencia en este informe, empleamos indistintamente los términos desinformación y noticias falsas para referirnos a toda la información verificable falsa o engañosa capaz de causar daño a la sociedad, ya sea atentando contra la democracia o la salud pública. Para los propósitos de la investigación presentada en este informe, nos guiamos por una definición de desinformación descrita más adelante en el apartado de Metodología y conjunto de datos.] deberían recibir tanto un aviso como las correcciones correspondientes corroboradas por verificadores independientes.
Empezar a «Rectificar la información» en los bulos sobre el coronavirus: Facebook puede comenzar inmediatamente a enviar notificaciones y rectificaciones retroactivas que provengan de la OMS, del Centro para la prevención y control de enfermedades (CDC, por sus siglas en inglés) y de verificadores de datos independientes y fiables a todos y cada uno de los usuarios que hayan interactuado con publicaciones desinformativas dañinas relacionadas con la COVID-19 antes de que los moderadores de Facebook detectaran y notificaran la falsedad de los contenidos o los retiraran.
Incrementar su capacidad de moderación y verificación de datos y seguir extendiendo sus esfuerzos con investigadores de la sociedad civil: Facebook debe reforzar su capacidad de moderación en todo el mundo para detectar rápidamente el contenido falso y verificarlo, degradarlo y publicar etiquetas que alerten de su calidad de bulos de manera contundente de la mano de sus colaboradores antes de que estos contenidos desinformativos se hagan virales. Facebook debe, asimismo, facilitar información más detallada sobre el alcance del contenido falso o engañoso en su plataforma, la velocidad a la que la empresa detecta y retira dicha desinformación y otros datos fundamentales para garantizar que los investigadores puedan trabajar con la plataforma para aportar mejores soluciones a estos desafíos.
Según un estudio académico reciente, «Rectificar la Información» puede reducir la confianza en la desinformación en un 50 por ciento de media, aunque puede llegar hasta un 61 por ciento. Avaaz considera que Facebook puede ser pionero en la lucha contra la desinformación e incluso llegar a salvar vidas si aplicara esta solución completamente.
No poner en práctica las recomendaciones detalladas para frenar de manera rápida y eficaz la desinformación que rodea al coronavirus implica que seguirá habiendo una multitud de personas expuestas a este contenido pernicioso en la plataforma que le den credibilidad, nunca lleguen a recibir una rectificación y, así, hagan caso a esta desinformación, lo que entraña un peligro para sí mismos y para su entorno. También implica que la OMS, las autoridades sanitarias locales y los profesionales de la medicina y la enfermería que están en primera línea de esta crisis lo tendrán más difícil para salvar vidas mientras un número indeterminado de usuarios de las redes sociales desatienda sus recomendaciones y siga falsos consejos médicos. Existe la posibilidad de que se pierdan vidas.
En el caso de que Facebook y otras plataformas de redes sociales se nieguen a actuar de inmediato para «Rectificar la Información», Avaaz recomienda que la OMS, el CDC, las autoridades sanitarias locales y los legisladores del mundo entero insten a dichas plataformas a proporcionar rectificaciones con carácter inmediato.
En un comunicado oficial, Facebook anunció: «retiraremos toda la desinformación relacionada con la COVID-19 susceptible de provocar daños físicos inminentes» y que «en cuanto una publicación haya sido catalogada como falsa por un verificador de datos, reduciremos su difusión para que menos gente la vea, y mostramos unas notificaciones y unas etiquetas de advertencia bien visibles a aquellos que se topen con dicho contenido, intenten compartirlo o ya lo hayan hecho».17[Comunicado de Facebook del 25 de marzo de 2020: Combating COVID-19 Misinformation Across Our Apps]
Nuestros resultados dejan entrever una brecha entre esas promesas y la realidad de la plataforma. De los bulos que Avaaz analizó en Facebook, a 7 de abril de 2020, 43 publicaciones (el 41% de nuestra muestra completa) seguían sin estar marcadas con una etiqueta que alertara a los usuarios de las mentiras que contenían y del daño potencial que podían causar, a pesar de que las 104 publicaciones habían sido desmentidas públicamente por los verificadores.
28 de los 43 bulos que no presentaban la etiqueta de advertencia pertinente de Facebook (el 65%) habían sido desmentidos por alguno de los verificadores de datos externos con los que trabaja la red social. Esto indica que incluso cuando los socios verificadores de Facebook detectan y emiten una rectificación para la desinformación sobre el coronavirus, la plataforma sigue teniendo problemas para etiquetarla y degradarla.
Por ejemplo, esta publicación18[http://archive.ph/S9n1z] de Natural Nana19[http://archive.ph/hqKF5] (una página cuya imagen de portada reza «La medicina moderna te curará hasta la muerte») del 26 de enero de 2020 afirma que el aceite de orégano «es capaz de destruir el coronavirus humano» y «detener completamente su replicación con 20 minutos de exposición». El enlace20[http://archive.ph/OF0Ur] incluido en la publicación acumula 6158 reacciones y se ha compartido 2718 veces, con un 100% de «Referencias Principales» a este enlace21[Según CrowdTangle] de Facebook después del 25 de enero de 2020. Nuestros resultados indican que en marzo la historia seguía compartiéndose ampliamente, con la afirmación asociada de que el aceite de orégano es capaz de aniquilar al virus. Tuvo mucha difusión por parte de perfiles interesados en el mercado del aceite de orégano, que compartían el enlace en publicaciones donde se aseguraba que se trataba de una cura contra el virus. Sin embargo, la afirmación original a la que se refiere esta publicación es de hace diez años y proviene del sitio web holisticprimarycare.net. Los científicos han desmentido que se trate de una cura para la COVID-19.
La cantidad de tráfico en la red que generó esta historia rescatada como resultado de la pandemia llevó al responsable del sitio a aclarar y desmentir esta afirmación en la propia página web. No obstante, el bulo de que «el orégano es una cura contra el coronavirus» sigue circulando por Facebook sin ningún tipo de etiqueta que informe a los usuarios de que se trata de información falsa que podría acarrear daños para la población.
El 24% de los 104 bulos que analizamos podrían causar daños físicos inminentes (según las políticas de moderación de contenidos de Facebook)22[Comunicado de Facebook del 25 de marzo de 2020: Combating COVID-19 Misinformation Across Our Apps], pero, a 7 de abril de 2020, la plataforma tan solo ha retirado el 8% del contenido desinformativo.23[El 8 de abril de 2020, Avaaz remitió a Facebook una lista de publicaciones con contenido desinformativo que podían causar un daño físico inminente para ayudarles a garantizar la retirada ágil de dicho contenido. En respuesta, a 14 de abril de 2020, Facebook ha retirado 17 de las publicaciones identificadas por nuestra organización.]
En palabras de Sheryl Sandberg, la directora de Operaciones de Facebook, «queremos que la gente acceda a información fidedigna» y «estamos retirando las publicaciones rápidamente si son dañinas».24[Entrevista de CBS News a la Directora de Operaciones de Facebook, Sheryl Sandberg, 18 de marzo de 2020: https://www.cbsnews.com/news/facebook-coronavirus-fake-news-coo-sheryl-sandberg/]
En el 29% de los bulos desmentidos en inglés de nuestra muestra, Facebook no ha publicado etiquetas para advertir a los usuarios de que dichas publicaciones contenían mentiras. En cambio, el panorama es muy distinto en otros idiomas y sitúa a los usuarios de otros países más afectados por la pandemia en una posición de mayor riesgo de exposición a los bulos. El estudio de Avaaz ha hallado que, a 7 de abril de 2020, más del 51% del contenido total analizado publicado en lenguas distintas al inglés está aún pendiente de recibir las etiquetas de advertencia de Facebook. En particular, estas etiquetas no se han aplicado al:
70% (7 de 10) del contenido en español (compartido unas 510000 veces en total hasta la fecha);
68% (13 de 19) del contenido en italiano (compartido unas 307000 veces en total hasta la fecha);
50% (7 de 14) del contenido en portugués (compartido unas 78000 veces en total hasta la fecha);
22% (2 de 9) del contenido en árabe (compartido unas 453000 veces en total hasta la fecha);
14% (1 de 7) del contenido en francés (compartido unas 44000 veces en total hasta la fecha), mejor situado en comparación con el contenido en inglés que fue etiquetado apropiadamente.
A continuación se ofrece una perspectiva más detallada de cada conjunto de contenidos analizados por idioma:
El 29% de los bulos analizados en inglés (compartidos 290000 veces) aparecen sin el aviso correspondiente de Facebook.
El 16% de todos los bulos analizados en inglés entra en la categoría de contenido pernicioso que Facebook se ha comprometido públicamente a retirar.25["Retiramos desinformación relacionada con el coronavirus que podría fomentar que se produzcan daños físicos inminentes. Hemos retirado desinformación perniciosa desde 2018, incluyendo la información falsa sobre el sarampión en Samoa, donde podría haber contribuido a la creación de un brote, y los rumores sobre la vacuna de la polio en Pakistán, donde suponían un peligro para los cooperantes sanitarios. Desde enero, hemos aplicado esta política a la desinformación sobre el coronavirus a la hora de retirar publicaciones que realicen afirmaciones falsas sobre remedios, tratamientos, la disponibilidad de servicios esenciales o la ubicación y severidad de los brotes. Actualizamos regularmente las afirmaciones que retiramos basándonos en las recomendaciones de la OMS y de otras autoridades sanitarias. Por ejemplo, recientemente hemos empezado a retirar contenido que afirma que el distanciamiento físico no ayuda a prevenir la propagación del coronavirus. También hemos prohibido los anuncios y las listas comerciales que sugieran que un producto garantiza la curación o previene la infección por COVID-19." (Traducción de Avaaz) Facebook, Combating COVID-19 Misinformation Across Our Apps, 25 de marzo de 2020, https://about.fb.com/news/2020/03/combating-covid-19-misinformation/]
Por ejemplo, en la publicación26[La publicación original se retiró después de que Avaaz se lo notificara a Facebook: https://www.facebook.com/themegavitaminman/photos/a.154722701400928/1234263616780159/?type=3&__tn__=-R] que figura más abajo y el artículo27[http://archive.ph/7ZsU5] que la acompaña, Andrew W Saul afirma que «La pandemia del coronavirus puede frenarse con el uso inmediato y generalizado de dosis altas de vitamina C». A 7 de abril de 2020, se estima que las publicaciones con enlaces a este artículo han recibido 301110 visualizaciones.
Tal y como concluye el sitio web de verificación de datos Lead Stores, «la vitamina C ni ralentiza ni frena el coronavirus» y «la OMS está alertando contra los bulos relacionados con la prevención y el tratamiento del virus, como por ejemplo las afirmaciones de que tomar dosis altas de vitamina C […] podrían o bien prevenir o bien ralentizar su propagación».29[Lead Stories, Fake News: Vitamin C Does NOT Slow Or Stop Coronavirus, 6 de febrero de 2020, https://leadstories.com/hoax-alert/2020/02/Fake-News-Vitamin-C-Does-NOT-Slow-Or-Stop-Coronavirus.html]
Aunque Facebook retiró la publicación original después de que Avaaz se lo notificara,30[Facebook retiró la publicación original después de que Avaaz remitiera el enlace al equipo de la empresa que se dedica a aplicar las políticas anti-desinformación el 8 de abril de 2020.] una serie de publicaciones de otros usuarios en las que se aludía al mismo bulo continúan accesibles en la plataforma sin la etiqueta de alerta correspondiente.
“La pandemia del coronavirus puede detenerse mediante el uso inmediato y generalizado de dosis altas de vitamina C”28[La publicación original se retiró después de que Avaaz se lo notificara a Facebook: https://www.facebook.com/themegavitaminman/photos/a.154722701400928/1234263616780159/?type=3&__tn__=-R]
El 50% de los bulos en portugués analizados (compartidos 78000 veces) aparece sin el aviso correspondiente de Facebook.
El 43% de los bulos en portugués entran en la categoría de desinformación susceptible de causar un daño inminente.31[Facebook, Combating COVID-19 Misinformation Across Our Apps, 25 de marzo de 2020, https://about.fb.com/news/2020/03/combating-covid-19-misinformation/]
Por ejemplo, en este vídeo32[http://archive.vn/C7ZaU] publicado por Jair Bolsonaro, el presidente de Brasil, afirma que la hidroxicloroquina, un tratamiento antimalárico, curó de forma efectiva a 78 pacientes de un total de 80 infectados de COVID-19 en un estudio y que «ya es una realidad» y que, por consiguiente, se trata de un medicamento viable para curar el virus. Sin embargo, tal y como muchos expertos han puesto de manifiesto, el uso de la hidroxicloroquina en pacientes de COVID-19 es controvertido y aún no se han realizado estudios suficientes que aporten pruebas concluyentes de su seguridad o efectividad33[New York Times, 7 Answers to Questions About the Malaria Drug Trump Keeps Pushing, 9 de abril 2020, https://www.nytimes.com/article/coronavirus-hydroxychloroquine-malaria.html]. Los bulos sobre la hidroxicloroquina como tratamiento viable ya se han relacionado con varias muertes en EE.UU.34[Vox, Trump’s reckless promotion of hydroxychloroquine to fight coronavirus, explained, 26 de marzo 2020, https://www.vox.com/2020/3/26/21193912/trump-hydroxychloroquine-coronavirus-treatment] A 10 de abril de 2020, este vídeo se ha reproducido más de 1,5 millones de veces en Facebook.35[Este vídeo también se colgó en YouTube y parece que la plataforma lo ha retirado. Enlace original de YouTube: https://www.youtube.com/watch?v=t1oXq5GJySM]
El 68% de los bulos analizados en italiano (compartidos 307000 veces) aparece sin el aviso correspondiente de Facebook.
El 21% de los bulos analizados en italiano entran en la categoría de contenido pernicioso que Facebook se ha comprometido públicamente a retirar, y seguían accesibles en la plataforma a 7 de abril de 2020.36[Facebook, Combating COVID-19 Misinformation Across Our Apps, 25 de marzo de 2020, https://about.fb.com/news/2020/03/combating-covid-19-misinformation/]
Por ejemplo, en un vídeo,37[http://archive.is/njLDZ] el orador, que afirma ser médico, declara que quedarse en casa es inútil contra el coronavirus y que el efecto de quemar incienso combinado con el de nuestras bacterias naturales es suficiente para defenderse de la infección. Este vídeo se ha visto más de 1,1 millones de veces a 7 de abril de 2020.
El 70% de los bulos analizados en español (compartidos 510000 veces) aparecen sin el aviso correspondiente de Facebook.
El 20% de los bulos analizados en español entran en la categoría de contenido pernicioso que Facebook se ha comprometido públicamente a retirar.38[Facebook, Combating COVID-19 Misinformation Across Our Apps, 25 de marzo de 2020, https://about.fb.com/news/2020/03/combating-covid-19-misinformation/]
Por ejemplo, hay un meme que reclama: «Evitemos más muertes», y afirma que la manera de proteger al cuerpo del virus consiste en beber mucha agua y hacer gárgaras con agua, sal o vinagre. La publicación39[La publicación original se retiró después de que Avaaz se lo notificara a Facebook: https://www.facebook.com/permalink.php?story_fbid=2733027656745577&id=1555031211211900&__tn__=-R] original, que se compartió más de 31000 veces en Facebook, ya no está disponible en la plataforma a raíz de que Avaaz se lo notificara40[El 8 de abril de 2020, Avaaz remitió a Facebook una lista de publicaciones con contenido desinformativo que podían causar un daño físico inminente para ayudarles a garantizar la retirada ágil de dicho contenido. En respuesta, a 14 de abril de 2020, Facebook ha retirado 17 de las publicaciones identificadas por nuestra organización.]. Sin embargo, los otros 2611 clones de este meme continúan en la plataforma y acumulan más de 92246 interacciones. La mayoría de estas publicaciones clonadas aparecen sin la etiqueta de advertencia de Facebook. Este ejemplo pone de manifiesto otra brecha en la aplicación de las políticas anti-desinformación de Facebook: puede que la plataforma añada una etiqueta para alertar del bulo en un contenido compartido como imagen, pero esa etiqueta no se replica cuando otras personas publican o comparten de nuevo la imagen.
El 22% de los bulos analizados en árabe (compartidos 453000 veces) aparecen sin el aviso correspondiente de Facebook.
El 56% de los bulos analizados en árabe entran en la categoría de contenido pernicioso que Facebook se ha comprometido públicamente a retirar, y el 80% de las publicaciones susceptibles de causar un daño físico seguían accesibles en la plataforma a 7 de abril de 202041[Facebook, Combating COVID-19 Misinformation Across Our Apps, 25 de marzo de 2020, https://about.fb.com/news/2020/03/combating-covid-19-misinformation/].
Por ejemplo, un vídeo en árabe42[https://www.facebook.com/Hayfaalhusseini/videos/255658768781237/?__tn__=-R], publicado el 20 de marzo de 2020 aseguraba que los secadores de pelo podían usarse para prevenir el coronavirus. Tras verificarse, el vídeo se retiró 11 días después de haber sido publicado. En ese lapso de tiempo, llegó al menos a los 2,6 millones de visualizaciones.
El 14% de los bulos analizados en francés (compartidos 44000 veces) aparecen sin el aviso correspondiente de Facebook.
El 14% de los bulos analizados en francés entran en la categoría de contenido pernicioso que Facebook se ha comprometido públicamente a retirar.43[Facebook, Combating COVID-19 Misinformation Across Our Apps, 25 de marzo de 2020, https://about.fb.com/news/2020/03/combating-covid-19-misinformation/]
Por ejemplo, el artículo44[https://archive.md/QI0sV] al que enlaza esta publicación45[La publicación original se retiró después de que Avaaz se lo notificara a Facebook: https://www.facebook.com/groups/110439175991313/permalink/1060218944346660] asegura que el coronavirus muere a temperaturas superiores a los 26/27°C y que es posible prevenir la infección haciendo gárgaras con desinfectante.
Los 104 bulos sobre el coronavirus analizados por Avaaz en Facebook se han compartido casi 1,7 millones de veces y se estima que han recibido más de 117 millones de visualizaciones. Es importante recalcar que estas cifras representan la punta del iceberg, dado que este estudio ha analizado una muestra pequeña de contenido desinformativo en solo 6 idiomas y estaba diseñado para comprobar si la respuesta de Facebook era tan eficaz como la compañía aseguraba, y no para medir la dimensión global de la desinformación presente en la red social.
El alcance nada desdeñable de estos 104 bulos indica que los esfuerzos de Facebook por impedir que se propague la desinformación que rodea al coronavirus no son tan eficaces como los directivos de esta empresa sugieren.46[Entrevista de CBS con with Sheryl Sandberg: Facebook is removing fake coronavirus news "quickly", COO Sheryl Sandberg says, Comunicado de Facebook: Combating COVID-19 Misinformation Across Our Apps, Nota de Prensa de Mark Zuckerberg – 18 de marzo, https://about.fb.com/wp-content/uploads/2020/03/March-18-2020-Press-Call-Transcript.pdf]
El 25 de marzo de 2020, Facebook anunció que 100 millones de usuarios habían hecho clic en su recién creado «Centro de información COVID-19».47[Facebook, Combating COVID-19 Misinformation Across Our Apps, 25 de marzo de 2020, https://about.fb.com/news/2020/03/combating-covid-19-misinformation/] Si se estima que la pequeña selección de bulos escogida para este análisis (104 publicaciones) tuvo unos 117 millones de visualizaciones estimadas, cabe suponer que es probable que cientos de millones de usuarios de Facebook de todo el mundo hayan interactuado con contenido desinformativo dada la gran cantidad que circula por la plataforma.
Para entender mejor la verdadera magnitud de esta infodemia es necesaria una mayor transparencia por parte de Facebook. En particular, la red social debería informar continuamente a los investigadores ofreciendo respuestas a las siguientes preguntas:
¿Cuántos usuarios de la plataforma han visto y hecho clic en bulos nocivos sobre la COVID-19?
¿Cuántos usuarios han visto una etiqueta de advertencia emitida por alguno de los verificadores de datos con los que colabora?
¿Va a empezar Facebook a enviar alertas y correcciones corroboradas por la OMS y sus socios verificadores de forma retroactiva a todos y cada uno de los usuarios que hayan estado expuestos a bulos en su plataforma?
Un bulo puede mutar e infectar cientos de cuentas, grupos y páginas de Facebook y circular durante semanas sin que nadie lo detecte.
Por ejemplo, nuestro equipo detectó 28 variaciones de una publicación desinformativa que contenía recomendaciones médicas falsas y engañosas. Cada mutación de este bulo mantenía el contenido y el formato general, pero cambiaba el idioma y la fuente a la que atribuía la información. Las publicaciones de esta engañosa cadena aseveran que la información que divulgan proviene de la OMS, de UNICEF, de autoridades sanitarias locales (como por ejemplo el Departamento de Salud de Canadá) o de hospitales de renombre (como el Stanford Hospital Board), así como de médicos de 14 países distintos (EE.UU., Nigeria, Egipto, Francia, Japón, Australia, Italia, Filipinas, Ghana, Etiopía, India, las Islas Marshall, Birmania o Brasil). Asimismo, pueden encontrarse en 8 idiomas distintos (inglés, portugués, árabe, francés, chino, birmano, punjabí e italiano).
Las 28 publicaciones recomendaban una lista prácticamente idéntica de consejos médicos engañosos, como por ejemplo el rumor ampliamente desmentido de que «respirar hondo y contener el aliento durante más de 10 segundos» es una manera viable de saber si se está infectado de COVID-19.
Muchas de estas publicaciones siguen circulando por Facebook sin etiquetas que alerten de la falsedad de su contenido. Por ejemplo, hasta el 6 de abril de 2020, aún podía encontrarse la publicación falsa que citaba al «Stanford Hospital Board» activa en decenas de perfiles y grupos de Facebook sin ninguna verificación ni etiqueta a pesar de que la Associated Press, uno de los verificadores de datos con los que trabaja Facebook, hubiera corroborado que era falsa48[Associated Press, Ability to hold your breath 10 seconds is not a test for coronavirus, 12 de marzo de 2020, https://apnews.com/afs:Content:8635070312] el 12 de marzo de 2020. El Stanford Health Center también desmintió la afirmación.49[Stanford Health Center, Novel Coronavirus (COVID-19) Resource Center, https://stanfordhealthcare.org/stanford-health-care-now/2020/novel-coronavirus.html]
Hoy por hoy, los esfuerzos de Facebook por combatir la desinformación han demostrado ser lentos e insuficientes a la hora de limitar la difusión de los bulos sobre el coronavirus, incluso cuando el contenido falso ha sido señalado por los verificadores de datos asociados con la propia plataforma
Para el subconjunto de bulos de nuestro estudio relacionados con el coronavirus que Facebook señaló con una etiqueta de aviso, transcurrió una media de 5 días entre la publicación del contenido desinformativo pernicioso y la comprobación por parte de alguno los colaboradores del programa de verificación de datos externo de la red social.
Para evaluar la rapidez con la que Facebook publica notificaciones en respuesta a las verificaciones de sus colaboradores, Avaaz siguió la pista de 4 historias falsas desmentidas por los socios del programa de Facebook y midió el número de días transcurridos entre que dicho contenido se publicó en la plataforma y el momento en que fueron etiquetados apropiadamente como bulo. Para cada uno de estos bulos, la plataforma publicó etiquetas de aviso 1, 4, 10 y 13 días después de que sus colaboradores hubieran emitido una corrección. Esto implica que, de media, pueden pasar hasta 7 días desde que los socios verificadores de Facebook comprueban que un contenido es falso y la plataforma lo etiqueta como tal.
Si estos resultados anecdóticos reflejan lo que está sucediendo en Facebook, esto implicaría que la red social podría tardar de media un total de 12 días en emitir las etiquetas de advertencia correspondientes para los bulos sobre el coronavirus, o en retirar el contenido susceptible de causar un daño inminente.
Esto implica que los millones de usuarios expuestos al contenido antes de que se le aplique la etiqueta correspondiente probablemente nunca sabrán que el contenido que vieron era falso o engañoso.
Por ejemplo, Facebook tardó 22 días en etiquetar un vídeo en español50[http://archive.vn/vP4fB] según el cual el virus se había creado deliberadamente en un laboratorio del Instituto de Virología de Wuhan. Para entonces, el vídeo superaba los 33 millones de visualizaciones. Uno de los socios verificadores de Facebook tardó 9 días en contrastar el material y después pasaron otros 13 días hasta que Facebook etiquetó el vídeo como falso.
Aquí puede verse la secuencia y los tiempos de las acciones de Facebook:
Los verificadores independientes actúan con presteza para dar respuesta a la avalancha desinformativa que rodea a la COVID-19 y tardan, de media, 5 días en publicar las verificaciones desde que los bulos se publican en la red. La OMS, el CDC y los organismos verificadores están realizando un trabajo hercúleo al servicio de la sociedad al emitir correcciones a todos estos bulos. Facebook no está a la altura de estos esfuerzos pues no consigue garantizar que las rectificaciones lleguen a las personas expuestas a los contenidos falsos que puedan sufrir los perjuicios de la desinformación.
A menudo, Facebook ha intentado achacar estos retrasos en la detección y el etiquetado de los bulos a los verificadores independientes. Al hacerlo, la compañía está eludiendo su responsabilidad, puesto que la plataforma tiene la capacidad de emitir notificaciones retroactivas a todos los usuarios que hayan visto desinformación dañina.
Desde los falsos remedios hasta las recomendaciones nocivas que minan los esfuerzos por mantener el distanciamiento social, la desinformación que rodea al coronavirus en Facebook podría cobrarse vidas y entorpecer los intentos de combatir esta pandemia.
Los resultados expuestos con anterioridad demuestran que los esfuerzos actuales de Facebook por combatir la desinformación distan de ser los adecuados. Los promotores de la desinformación saben que pueden difundir mentiras sofisticadas y maliciosas como esa falsa publicación del «Consejo Médico de Stanford» según la cual «aguantar la respiración durante diez segundos es una manera de saber si se está infectado de coronavirus» o promover una falsa cura como el dióxido de cloro. Saben que antes de que este contenido dañino llegue a los verificadores de Facebook y la plataforma alerte de que es falso o lo retire, millones de personas ya lo habrán visto y, posiblemente, se lo habrán creído.
Pero hoy Facebook puede informar a las víctimas de la desinformación de forma retroactiva, por lo que, aunque se tarde una semana en detectar un bulo malicioso sobre la COVID-19, todas las personas que lo hayan visto recibirían una notificación y una rectificación de la OMS, el CDC o un verificador independiente relevante. Esta solución, llamada «Rectificar la Información», podría salvar vidas y desalentar significativamente a los promotores de la desinformación al vacunar a los usuarios de Facebook contra su contenido de forma retroactiva.
Un nuevo estudio académico demuestra que cuando los usuarios de redes sociales que han visto contenido falso o engañoso reciben correcciones publicadas por verificadores de datos, la credibilidad que le otorgan al bulo disminuye51[Para el estudio académico «Rectificar la Información», al que se hace referencia en este informe, empleamos indistintamente los términos desinformación y noticias falsas para referirnos a toda la información verificable falsa o engañosa capaz de causar daño a la sociedad, ya sea atentando contra la democracia o la salud pública. Para los propósitos de la investigación presentada en este informe, nos guiamos por una definición de desinformación descrita más adelante en el apartado de Metodología y conjunto de datos.] de media un 50% y puede llegar a hasta el 61%.
Este estudio académico sobre las rectificaciones52[Nota: Este Documento Técnico explica los resultados de la investigación realizada por el Dr. Wood y el Dr. Porter. Los autores publicarán el estudio académico de manera independiente. ] fue encargado por Avaaz y dirigido por el Dr. Ethan Porter de la Universidad George Washington y el Dr. Tom Wood de la Universidad del Estado de Ohio, expertos y referentes en el estudio de las rectificaciones de la información falsa.
Con el fin de comprobar la efectividad de las rectificaciones, se diseñó un modelo visual hiperrealista de Facebook53[Consúltese Factbook, https://factbook.org/ - para ver el modelo hiperrealista empleado para imitar a Facebook en el estudio.] que emulara la experiencia de usuario en la plataforma. A continuación, se escogió una muestra representativa de la población estadounidense formada por 2000 participantes anónimos, seleccionados y encuestados independientemente por la rama de Investigación Académica, Política y de Relaciones Públicas de YouGov. A los participantes se les mostraron hasta cinco noticias falsas basadas en ejemplos reales de contenido falso o engañoso que circulaban por Facebook y que habían sido desmentidos por verificadores independientes.
Mediante un modelo aleatorio, algunos de los usuarios vieron correcciones después de las noticias falsas. Algunos solo vieron el contenido falso o engañoso, y otros no vieron ninguna de las dos cosas. Después, los participantes respondieron a unas preguntas diseñadas para evaluar cuánto creían en las noticias falsas.
Además de concluir que las rectificaciones pueden contribuir de forma efectiva a contrarrestar la credibilidad que los usuarios estadounidenses de redes sociales otorgan a las noticias falsas, reduciéndola a la mitad, el estudio también halló que:
De media, la confianza en contenidos falsos o engañosos después de ver una rectificación disminuía un 50% entre los republicanos y un 47% entre los demócratas.
Un 61,5% menos de los participantes daba credibilidad al bulo de que el presidente Donald Trump afirmaba que los republicanos son el grupo de votantes más estúpidos.
Un 50,7% menos de los participantes daba credibilidad al bulo que aseguraba que los brotes de sarampión estaban causados por los inmigrantes ilegales después de haber leído la rectificación, frente a aquellos que solo había tenido acceso al bulo.
Un 50% menos de los participantes daba credibilidad al bulo según el cual Greta es la activista mejor pagada del mundo y había hecho millones con su activismo.
Un 42,4% menos de los participantes daba credibilidad al bulo según el cual la foto de una soldado somalí que circulaba por las redes sociales correspondía a la diputada estadounidense Ilhan Omar en un campo de entrenamiento terrorista en Somalia.
Un 42% menos de los participantes daba credibilidad al bulo que aseguraba que para instalar torres de 5G hacía falta llevar trajes de protección contra amenazas nucleares, bacteriológicas y químicas.
Los usuarios que se topen con un bulo como este:
verán una notificación como esta en su panel de noticias y a través de su centro de notificaciones después de que un verificador independiente compruebe la publicación:
Además, recibirán una notificación como esta que les recomiende leer la rectificación:
Facebook tiene capacidad de diseñar y poner en marcha un modelo de rectificación similar al que describimos aquí, posiblemente incluso más sofisticado. La plataforma tiene la responsabilidad social de inmunizar a los usuarios contra los bulos y las noticias falsas rectificando la información. Sin embargo, si la plataforma se niega a poner en práctica esta solución, la OMS, el CDC y las autoridades sanitarias locales de todo el mundo cuentan con un apoyo público significativo para obligar a Facebook a proteger a sus usuarios:
De los 1000 estadounidenses encuestados que participaron en el estudio, el 68,4% se mostró de acuerdo o muy de acuerdo con exigir a Facebook que informe a sus usuarios cada vez que hayan estado en contacto con contenido desinformativo y proporcione rectificaciones de verificadores independientes.
El 60,8% se mostró de acuerdo o muy de acuerdo con que las empresas de redes sociales deberían estar obligadas por ley a proteger a sus usuarios de la desinformación, y tan solo un 18,1% se pronunció en contra.
Una media del 87% de los ciudadanos de Alemania, Francia, España e Italia quiere que las plataformas de redes sociales trabajen con verificadores de datos para facilitar rectificaciones a cualquiera que haya estado expuesto a contenido falso o engañoso.54[Véase https://secure.avaaz.org/act/media.php?press_id=932]
Avaaz recomienda que la OMS, el CDC, las autoridades sanitarias locales y los legisladores de todo el mundo utilicen su influencia, así como el apoyo público que los respalda, para entablar comunicación con Facebook y presionar a la plataforma a «Rectificar la Información».
Para entender mejor la magnitud de la desinformación relacionada con el coronavirus que circula por Facebook y cómo gestiona la plataforma esta infodemia, Avaaz seleccionó y rastreó contenido desinformativo relevante en seis idiomas: inglés, italiano, español, francés, portugués y árabe.
Con el fin de calibrar los esfuerzos de verificación que Facebook aseguraba estar realizando, el equipo de investigación analizó 104 publicaciones verificadas como falsas o engañosas sobre el coronavirus que cumplían dos requisitos:
Su contenido fue verificado por miembros del programa de verificación externo de Facebook, así como otras entidades de verificación de renombre55. En aras de asegurar la precisión de todas las verificaciones, Avaaz encargó a Health Feedback que revisara todo el material seleccionado para este estudio. Health Feedback verifica las afirmaciones científicas y es miembro de Vaccine Safety Net (VSN), un proyecto liderado por la OMS. Forma parte de la organización sin ánimo de lucro Science-Feedback, un verificador de datos externo que colabora con Facebook.56[https://sciencefeedback.co] 57[WHO, Global Vaccine Safety - Health Feedback, https://www.who.int/vaccine_safety/initiative/communication/network/healthfeedback/en/]
Eran susceptibles de causar daños al público al atentar contra la salud pública. Avaaz ha incluido contenido falso y engañoso con impacto en la salud pública en los siguientes ámbitos:
Prevención de enfermedades: por ejemplo, información falsa sobre enfermedades, epidemias, pandemias y desinformación antivacunas.
Alargar la vida y promoción de la salud: como promover remedios falsos y/o alentar a hacer caso omiso de tratamientos médicos reconocidos.
Generar desconfianza hacia instituciones y organizaciones sanitarias, profesionales médicos y sus recomendaciones: como por ejemplo la información falsa que sugiere que el personal clínico o los gobiernos están creando u ocultando riesgos para la salud.
Alarmismo: desinformación relacionada con la salud que pueda inducir miedo y pánico, como por ejemplo los bulos que afirman que el coronavirus es un arma biológica creada por el hombre y dirigida contra ciertas comunidades o que los productos chinos pueden contener el virus.
Bulos relacionados con la salud que puedan fomentar la discriminación contra las minorías: como, por ejemplo, que los inmigrantes están contribuyendo a la propagación del virus.
Para cada una de las publicaciones falsas o engañosas basadas en los criterios anteriores, los investigadores de Avaaz registraron y analizaron (tanto mediante observación directa como a través del software CrowdTangle):
El número de veces que cada una de esas historias se compartía y el número total de interacciones que recibía;
Una estimación del número de visualizaciones que cada publicación podía recibir en la plataforma;58[En el caso de los vídeos, incluimos las visualizaciones facilitadas por Facebook. Nuestra selección de contenidos desinformativos contenía 14 ejemplos de vídeos con contenido falso que acumulaban un total de 47327476 visualizaciones. Nos basamos en la definición de “visualización” de Facebook: un visionado de 3 segundos o más de duración. En el caso de las publicaciones que solo contenían texto e imagen, la plataforma solo facilita el número de veces que se ha compartido o el número de interacciones (como los “me gusta” o los comentarios). Así, con el fin de estimar las visualizaciones del contenido en formato texto e imagen diseñamos una fórmula basada en las estadísticas disponibles al público de los vídeos de Facebook que analizamos en nuestro estudio, para lo que tomamos en consideración el número total de visualizaciones de vídeo y lo dividimos por el total de veces que se había compartido. Facebook solo contabiliza una “visualización” a partir de los 3 segundos, mientras que se puede considerar que una imagen o un texto se han “visto” y han generado un impacto real en menos de 3 segundos (por ejemplo, con solo pasar por la imagen de una mujer ensangrentada, de brutalidad policial o de denuncias de censura). Así pues, la estimación de visualizaciones totales de este estudio es muy posiblemente inferior a la cantidad total real de veces que se vio el contenido y debería, pues, tomarse como una estimación por lo bajo.]
Si Facebook alertaba o no de que se trataba de contenido falso y engañoso;59[1. Artículos de verificación que aparezcan como “Artículos Relacionados” debajo de la publicación. 2. Una notificación emergente que alerte de “Información falsa en esta publicación” y facilite un enlace al artículo de verificación. 3. Un sombreado gris que alerte de “Información falsa verificada por verificadores independientes” que enlace al artículo de verificación. ]
En qué momento se publicaba la etiqueta de advertencia o se retiraba la publicación desinformativa (los investigadores observaron bulos sin señalizar a diario);
El lapso entre la publicación del bulo y la de la rectificación en el sitio web del verificador socio de Facebook;
En los casos pertinentes, los investigadores midieron el tiempo transcurrido entre la publicación del bulo original y la fecha en la que Facebook aplicó sus políticas de moderación a dicha publicación o bien señalizando el contenido como desinformativo o bien retirándolo de la plataforma.
En el anexo puede encontrarse una lista de todos los bulos analizados para este informe.
Es importante recalcar que aunque las correcciones de organismos verificadores de renombre constituyan un modo fiable de identificar el contenido desinformativo, los verificadores tienen un acceso limitado a los bulos que circulan por los grupos y los perfiles privados de Facebook y a través de Facebook Messenger.
En la misma línea, los datos de interacción con las publicaciones de Facebook analizadas en este estudio son meros indicadores de una exposición e interacciones con la desinformación más amplias. En muchos casos, los bulos seleccionados para este estudio se clonaron y se difundieron en muchas cuentas de Facebook, pero en este informe solo podemos medir las interacciones con el contenido de la muestra. Con todo, los datos de interacción que estimamos para nuestra muestra aportan pistas sobre el alcance relativo de distintos contenidos.
Es importante destacar que, aunque hemos recolectado datos y computado números lo mejor que hemos podido, este análisis no es exhaustivo (solo nos hemos fijado en una muestra de bulos contrastados en seis idiomas). Además, nos hemos enfrentado a un reto significativamente mayor puesto que Facebook no facilita a los investigadores el acceso a los datos necesarios para medir la tasa total de respuesta, la velocidad de moderación, el número de verificaciones, ni la cantidad de usuarios que han visto la desinformación o a quiénes ha ido dirigida. Con todo, Facebook está mostrando una mayor disposición a cooperar con las organizaciones de la sociedad civil y esperamos que la compañía siga avanzando en esa misma línea.
Cabe mencionar que este estudio ha conseguido su propósito pues ha dado un paso adelante para comprender mejor la magnitud y el alcance de la infodemia de desinformación relativa a la COVID-19 en Facebook.
La cooperación entre distintos ámbitos, sectores y disciplinas es más necesaria que nunca para combatir la desinformación. Todas las plataformas de redes sociales deben ser más transparentes con sus usuarios y con los investigadores tanto para garantizar una evaluación certera de la dimensión de este problema como para ayudar a las autoridades de salud pública a responder de forma más eficaz y proporcionada tanto a la pandemia como a la infodemia.
CÁLCULO VISUALIZACIÓN DE VÍDEOS EN FACEBOOK
Nuestra selección de bulos contenía 13 ejemplos de vídeos con contenido falso que acumularon en Facebook un total de 47317476 visualizaciones y 1511408 interacciones entre el 21 de enero de 2020 y el 7 de abril de 2020.
VISUALIZACIÓN ESTIMADA DE IMÁGENES Y TEXTO
Facebook proporciona el número de visualizaciones de los vídeos, pero en el caso de las publicaciones que solo contienen texto e imágenes, la plataforma no facilita más que el número de interacciones (las veces que se comparte, se reacciona y se comenta). Así, para estimar las visualizaciones de imágenes y texto, nuestro estudio diseñó una métrica basada en el número de visualizaciones totales reales dividido por el número total de interacciones de los 13 vídeos desinformativos presentes en este estudio. El coeficiente, aplicado a todas las publicaciones que consistían en texto o imágenes, es el siguiente:
47317476 / 1511408 = 31,31.
Cálculo de visualizaciones estimadas: Para cada publicación de imagen o texto, multiplicamos nuestro coeficiente de visualizaciones/interacciones de 31,31 por la mayor cifra de interacciones disponible para estas publicaciones o enlaces web proporcionados por CrowdTangle. Al sumar todas esas visualizaciones estimadas a las visualizaciones reales de los vídeos de Facebook obtenemos una estimación total de 117714168 visualizaciones para las publicaciones de la muestra entre el 21 de enero y el 7 de abril de 2020.
Para más información y entrevistas:
Andrew Legon (Zona horaria CET) - andrew.legon@avaaz.org / +34 600 820 285
Ahmed Alsalman (Zona horaria EST) - ahmed@avaaz.org / +1 313 247 3679
Avaaz es un movimiento democrático global con más de 56 millones de miembros en todo el mundo. Los fondos con los que funciona la organización provienen de pequeñas donaciones de miembros a título individual.
Este informe se enmarca dentro de una campaña en curso de Avaaz para proteger a la gente y a las democracias contra los peligros de la desinformación en las redes sociales. Como parte de este esfuerzo, las investigaciones de Avaaz han destapado una red de desinformación que rondaba los 500 millones de visualizaciones antes de las elecciones europeas de 2019; han logrado que Facebook eliminara una red que llegaba a 1,7 millones de personas en España días antes de las elecciones generales de 2019; han sacado a la luz un informe sobre las noticias falsas (que superaban los 105 millones de visualizaciones) que alimentaron la crisis de los Chalecos Amarillos en Francia; han desmantelado una red masiva de desinformación (28 páginas con 12,6 millones de interacciones) durante las elecciones presidenciales de Brasil en 2018; han puesto de manifiesto el papel que los bulos anti-vacunas están teniendo en la disminución de la tasa de vacunación en Brasil; y han demostrado mediante un informe cómo YouTube está dirigiendo a millones de personas a ver vídeos desinformativos sobre el cambio climático.
El trabajo de Avaaz en el ámbito de la desinformación está basado en la creencia firme de que la proliferación de las noticias falsas en las redes sociales plantea una amenaza seria para la democracia, la salud y el bienestar de las comunidades y para la seguridad de las personas vulnerables. Avaaz pone sus informes sobre desinformación a disposición del público para alertar de la situación y educar a las plataformas de redes sociales, a los reguladores y al público y contribuir a que la sociedad encuentre soluciones inteligentes para defender la integridad de nuestras elecciones y de nuestras democracias. Para saber más sobre nuestro trabajo y consultar nuestros informes: https://secure.avaaz.org/campaign/es/disinfo_hub/.
Tabla con los 20 ejemplos más significativos de contenido desinformativo a los que se alude en este informe.
Para ver todos los datos de la tabla, mueve el cursor a la derecha
Notas finales
Cuéntaselo a tus amigos