En 2018, les experts de l’Organisation des Nations Unies au Myanmar ont accusé Facebook d’avoir propagé des appels à la haine contre la minorité musulmane des Rohingyas en évoquant un nettoyage ethnique, aujourd’hui qualifié de génocide. Menacés par des exactions provenant de bouddhistes radicaux depuis l’été 2017, 6500 Rohingyas auraient été tués. 650 000 autres auraient fui le pays.
Représentant seulement 2% de la population, la minorité musulmane vit principalement dans l'État de Rakhine, anciennement État d'Arakan. Persécutés depuis le XVIIIe siècle, les Rohingyas ont tenté d'échapper à la misère en fuyant. Plusieurs vagues d’exodes se sont succédé. Ceux et celles qui sont resté.e.s vivent aujourd’hui dans un dénuement total.
Depuis 2014, le réseau social américain Facebook est utilisé au Myanmar. Préinstallé sur les cellulaires, il atteindra bientôt les 30 millions d’utilisateurs, soit les deux tiers de la population. Alors qu’une transition s’amorce vers la démocratie après un peu plus de 50 ans de dictature, le réseau social est devenu de facto l’Internet et donc la principale source d’information.
L’information contrôlée par une élite
Ayant vite compris l’influence que pouvait avoir Facebook sur la population, des moines bouddhistes en ont profité pour lancer des appels à la haine et à la violence envers les Rohingyas. Marek Blottière, spécialiste du numérique à l’Institut national de la recherche scientifique (INRS), explique que « si un groupe exerce une domination et concentre l’information, elle a le monopole de ce qui est justifié et justifiable. [...] Si c’est l’élite qui la distribue à tout le monde, on a la possibilité de créer un imaginaire dans lequel celui qui est en dessous devient dangereux. »
Depuis plusieurs années, les messages haineux sont relayés sans que Facebook ne réussisse à les maîtriser. Interrogé sur le sujet en 2018 par les enquêteurs des Nations Unies au Myanmar, Mark Zuckerberg s’en est remis au « solutionnisme » et à l’innovation technique. Ainsi, l’entreprise légitime son autorégulation sans contraintes des États pour surveiller le réseau social en faisant lui-même appel à des ingénieurs et des ingénieures pour modérer sa plateforme. Cependant, l’intelligence artificielle se révélerait souvent inefficace dans cet exercice selon Jean-Hugues Roy, chercheur sur le numérique à l’Université du Québec à Montréal.
Néocolonialisme numérique
La plateforme devient alors un problème pour la démocratie : « demander à Facebook de faire le ménage, c'est bien, affirme Jean-Hugues Roy. L'entreprise doit prendre ses responsabilités, mais ne se fier qu'à Facebook pour le faire, c'est abdiquer une responsabilité qui incombe d'abord et avant tout au public. » Marek Blottière précise qu’« une technologie américanisée qui reprend les codes d’une culture individualiste et capitaliste prend pied dans un pays qui est sorti il y a quelques années seulement d’une des dictatures les plus longues de l’histoire contemporaine, Facebook a forcément une responsabilité. »
Pourtant, des solutions existent selon Marek Blottière. La formation sur place de modérateurs et de modératrices comprenant la langue et la culture locale pourrait s’avérer efficace. De plus, selon lui, l'initiation de la population à l'utilisation d’Internet paraît indispensable pour permettre une prise de distance par rapport aux informations consommées. Ces options ne doivent néanmoins pas faire perdre de vue les futures dérives que pourrait impliquer une conquête néocolonialiste numérique américaine au Myanmar, ajoute le spécialiste du numérique.
Illustration par Laetitia Arnaud-Sicari