Une équipe d'étudiants universitaires ont développé un module adapté aux moteurs de recherche qui avertit les utilisateurs devant de fausses histoires et les guide vers des reportages plus nuancés.
Le module — appelé « Open Mind » — a été créé au début du mois lors d'une compétition de résolution de problème, aussi appelée « hackathon », à l'Université Yale, aux États-Unis.
L'équipe championne est formée de quatre étudiants: Michael Lopez-Brau, Stefan Uddenberg, tous deux doctorants en psychologie à l'Université Yale; Alex Cui qui étudie l'apprentissage automatique à l'Institut de technologie de Californie; et Jeff An, qui étudie l'informatique à l'Université de Waterloo et les affaires à l'Université Wilfrid-Laurier en Ontario.
Le groupe était en compétition avec d'autres étudiants pour remporter le défi lancé par la bourse de journalisme Poynter de l'Université Yale, qui demandait de trouver une solution pour contrer le phénomène des fausses nouvelles.
Le logiciel développé par les gagnants est conçu pour s'adapter au moteur de recherche Google Chrome. Il affiche une alerte à l'écran lorsque l'utilisateur accède à une page reconnue pour diffuser des fausses informations. Il informe aussi l'utilisateur si une histoire partagée sur les réseaux sociaux est fausse ou biaisée.
Et il va bien plus loin que le simple avertissement.
Habitudes
L'outil utilise la technologie d'analyse des sentiments pour analyser toute histoire qui apparaît dans le fil d'actualité de l'utilisateur. Il analyse ensuite les acteurs clés et les orientations politiques. Le logiciel propose alors une liste d'autres articles sur le même thème, mais avec des points de vue différents.
« Disons, par exemple, qu'il y a un article très favorable à Donald Trump sur un sujet donné. Nous allons alors tenter de vous proposer autre chose un peu plus à gauche du centre. Nous allons trouver cet article-là pour vous », explique Jeff An.
L'outil rassemble aussi des données sur l'historique de recherche de l'utilisateur pour lui démontrer, à l'aide de graphiques, s'il consulte de l'information d'un seul côté du spectre politique. Il agit comme conservateur des archives d'information et propose des points de vue opposés aux histoires que l'utilisateur a déjà consultées.
L'idée est d'aider les gens à sortir de leur habitude de s'associer uniquement avec d'autres personnes qui partagent les mêmes opinions sur les réseaux sociaux et de lire les mêmes couvertures médiatiques biaisées en faveur de leurs croyances, résume Michael Lopez-Brau.
« Les réseaux sociaux créent des bulles. Ils font en sorte que ce soit extrêmement facile de suivre uniquement les gens qui partagent les mêmes intérêts, alors on a souvent très peu d'occasions d'être confrontés à des opinions contraires », souligne M. Lopez-Brau.
Le prix remporté par les gagnants du défi est une rencontre avec des membres du Congrès américain, le printemps prochain.
Facebook, qui commandite l'événement, dit être intéressé de discuter avec les développeurs dans le cadre de sa recherche de solution à ce problème, a indiqué la porte-parole de l'entreprise Ruchika Budhraja.
> Lire la suite sur Le Devoir.