Facebook va désormais avertir directement ses usagers qui consultent des fausses informations en lien avec le nouveau coronavirus, a annoncé jeudi son PDG Mark Zuckerberg.
Au cours du mois de mars, Facebook a supprimé «des centaines de milliers» de contenus liés au COVID-19 qui «pourraient représenter un danger imminent pour la santé», comme par exemple des affirmations selon lesquelles l’eau de Javel permettrait de guérir du virus.
Les utilisateurs qui cliquent sur ce type d’infox, les commentent ou les partagent, recevront désormais un message dans leur fil d’actualité, les incitant à consulter des sources sûres comme le site de l’Organisation mondiale de la Santé, a indiqué Mark Zuckerberg sur un blog de Facebook.
Le PDG de Facebook y met en avant les efforts du réseau social pour «limiter la diffusion de la désinformation sur le Covid-19».
Alors que les rumeurs pullulent, le réseau social indique avoir déjà redirigé «près de 2 milliards d’utilisateurs», soit la quasi-totalité de ses «membres», vers des informations émanant des autorités de santé publique, à travers son «centre d’information COVID-19», disponible sur chaque fil d’actualité. Résultat: «plus de 350 millions d’utilisateurs ont cliqué sur nos messages pédagogiques» pour en savoir plus, sur Facebook et Instagram, souligne Mark Zuckerberg.
Les contributions des 60 organisations de fact-checking partenaires de Facebook à travers le monde, comme l’AFP, vont aussi être mises en avant sur le «centre d’information».
Si une information se révèle fausse ou imprécise, mais qu’elle ne représente pas un «danger imminent», le réseau social lui accole une «étiquette de mise en garde». 40 millions de publications Facebook ont reçu cette étiquette au cours du mois de mars, poussant les utilisateurs à ne pas consulter ces contenus dans 95% des cas, selon Facebook.
De nombreux observateurs dont l’ONG Avaaz ont dénoncé l’incapacité de Facebook à freiner la diffusion d’infox, avec de graves conséquences.
«Facebook est à l’épicentre de cette crise de la désinformation», a commenté Fadi Quran, un responsable d’Avaaz, dans un communiqué de presse. «Mais l’entreprise passe un cap aujourd’hui pour nettoyer cet écosystème toxique, en devenant le premier réseau social qui alerte ses utilisateurs exposés à des infox sur le coronavirus et les redirige vers des informations qui peuvent sauver des vies».
Une des messageries de Facebook, Whatsapp, avait déjà mis en place début avril de nouvelles mesures pour lutter contre la désinformation. Les utilisateurs de WhatsApp ne peuvent plus transférer des messages viraux qu’à un seul contact à la fois, pour limiter la circulation des infox.
L’Agence France-Presse participe dans plus de 30 pays et 12 langues au «Third party fact-checking», un programme de vérification par des médias développé par Facebook. Avec ce programme, qui a démarré en décembre 2016, Facebook rémunère une soixantaine de médias pour l’utilisation de leurs «fact-checks» sur sa plateforme et sur Instagram.
Si une information est diagnostiquée comme fausse ou trompeuse par un média, les utilisateurs sont moins susceptibles de la voir apparaître dans leur fil d’actualité. Et si ceux-ci la voient ou tentent de la partager, la plateforme leur suggère la lecture de l’article de vérification.
Les médias participants sont totalement libres dans le choix et le traitement de leurs sujets.