logo

Un rapport d'Amnesty sur Meta révèle que l'algorithme de Facebook a "amplifié et encouragé de manière proactive" les discours de haine contre les Rohingyas au Myanmar.

Amnesty a critiqué les "algorithmes dangereux de Meta et [...] la recherche acharnée du profit".

Un rapport d'Amnesty sur Meta révèle que l'algorithme de Facebook a "amplifié et encouragé de manière proactive" les discours de haine contre les Rohingyas au Myanmar.

Avec des coqs qui chantent en arrière-plan alors qu'il parle depuis le camp de réfugiés bondé du Bangladesh qui est son domicile depuis 2017, Maung Sawyeddollah, 21 ans, décrit ce qui s'est passé lorsque de violents discours de haine et de désinformation ciblant la minorité rohingya du Myanmar ont commencé à se répandre sur Facebook.

"Nous étions bien avec la plupart des gens là-bas. Mais certains types très étroits d'esprit et très nationalistes ont fait monter la haine contre les Rohingyas sur Facebook", dit-il. "Et les gens qui étaient bons, en communication étroite avec les Rohingyas, ont changé d'avis contre les Rohingyas et cela a tourné à la haine."

Pendant des années, Facebook, maintenant appelé Meta Platforms Inc, a poussé le récit qu'il était une plate-forme neutre au Myanmar qui a été mal utilisée par des personnes malveillantes, et que malgré ses efforts pour supprimer le matériel violent et haineux, il a malheureusement échoué. Ce récit fait écho à sa réponse au rôle qu'elle a joué dans d'autres conflits dans le monde, qu'il s'agisse de l'élection de 2020 aux États-Unis ou des discours de haine en Inde.

Mais un nouveau rapport complet d'Amnesty International affirme que le récit privilégié par Facebook est faux. La plateforme, dit Amnesty, n'était pas simplement un site passif avec une modération de contenu insuffisante. Au contraire, les algorithmes de Meta ont "amplifié et promu de manière proactive des contenus" sur Facebook, qui incitaient à la haine violente contre les Rohingyas dès 2012.

Malgré des années d'avertissements, Amnesty a constaté que non seulement l'entreprise n'a pas supprimé les discours de haine violente et la désinformation contre les Rohingyas, mais qu'elle les a activement diffusés et amplifiés jusqu'à ce qu'ils culminent dans le massacre de 2017. Le moment choisi a coïncidé avec la popularité croissante de Facebook au Myanmar, où, pour de nombreuses personnes, il constituait leur seul lien avec le monde en ligne. Facebook est ainsi devenu l'internet d'une grande partie de la population du Myanmar.

Cette année-là, plus de 700 000 Rohingyas ont fui vers le Bangladesh voisin. Les forces de sécurité du Myanmar ont été accusées de viols massifs, de meurtres et d'incendies de milliers de maisons appartenant à des Rohingyas.

"Meta - par le biais de ses algorithmes dangereux et de sa recherche acharnée du profit - a largement contribué aux graves violations des droits de l'homme perpétrées contre les Rohingyas", indique le rapport.

Un porte-parole de Meta a refusé de répondre aux questions concernant le rapport d'Amnesty. Dans un communiqué, l'entreprise a déclaré qu'elle "est solidaire de la communauté internationale et soutient les efforts visant à obliger la Tatmadaw à rendre des comptes pour ses crimes contre le peuple rohingya."

"Notre travail en matière de sécurité et d'intégrité au Myanmar reste guidé par les commentaires des organisations de la société civile locale et des institutions internationales, notamment la mission d'établissement des faits de l'ONU au Myanmar, l'évaluation de l'impact sur les droits de l'homme que nous avons commandée en 2018, ainsi que notre gestion continue des risques liés aux droits de l'homme", a déclaré Rafael Frankel, directeur des politiques publiques pour les marchés émergents, Meta Asie-Pacifique, dans un communiqué.

Comme Sawyeddollah, qui est cité dans le rapport d'Amnesty et s'est entretenu avec l'AP mardi, la plupart des personnes qui ont fui le Myanmar - environ 80 % des Rohingyas vivant à l'époque dans l'État de Rakhine, dans l'ouest du Myanmar - restent encore dans des camps de réfugiés. Et ils demandent à Meta de payer des réparations pour son rôle dans la violente répression des musulmans rohingyas au Myanmar, que les États-Unis ont déclaré génocide au début de cette année.

Le rapport d'Amnesty, publié mercredi, se fonde sur des entretiens avec des réfugiés rohingyas, d'anciens employés de Meta, des universitaires, des militants et d'autres personnes. Il s'appuie également sur des documents divulgués au Congrès l'année dernière par la lanceuse d'alerte Frances Haugen, une ancienne spécialiste des données de Facebook. Il note que les militants des droits numériques disent que Meta a amélioré son engagement envers la société civile et certains aspects de ses pratiques de modération de contenu au Myanmar ces dernières années. En janvier 2021, après qu'un coup d'État violent a renversé le gouvernement, elle a banni les militaires du pays de sa plateforme.

Mais les critiques, y compris certains employés de Facebook, soutiennent depuis longtemps qu'une telle approche ne fonctionnera jamais vraiment. Cela signifie que Meta joue au jeu du chat et de la souris en essayant de supprimer les contenus nuisibles, alors que ses algorithmes, conçus pour pousser les contenus "engageants", plus susceptibles d'agacer les gens, travaillent essentiellement contre eux.

"Ces algorithmes sont vraiment dangereux pour nos droits humains. Et ce qui est arrivé aux Rohingyas et le rôle de Facebook dans ce conflit spécifique risque de se reproduire, dans de nombreux contextes différents à travers le monde", a déclaré Pat de Brún, chercheur et conseiller en intelligence artificielle et droits humains à Amnesty.

"L'entreprise s'est montrée totalement réticente ou incapable de résoudre les causes profondes de son impact sur les droits humains."

Après que la Mission internationale indépendante d'établissement des faits de l'ONU sur le Myanmar a souligné le rôle "significatif" joué par Facebook dans les atrocités perpétrées contre les Rohingyas, Meta a admis en 2018 que "nous ne faisions pas assez pour contribuer à empêcher que notre plateforme soit utilisée pour fomenter la division et inciter à la violence hors ligne."

Au cours des années suivantes, l'entreprise "a vanté certaines améliorations dans ses pratiques d'engagement communautaire et de modération des contenus au Myanmar", a déclaré Amnesty, ajoutant que son rapport "constate que ces mesures se sont révélées tout à fait insuffisantes."

En 2020, par exemple, trois ans après que les violences au Myanmar ont tué des milliers de musulmans rohingyas et en ont déplacé 700 000 autres, Facebook a enquêté sur la façon dont une vidéo d'une figure emblématique de la haine anti-Rohingya, U Wirathu, circulait sur son site.

L'enquête a révélé que plus de 70 % des vues de la vidéo provenaient du "chaînage", c'est-à-dire qu'elle était suggérée aux personnes qui avaient visionné une autre vidéo, montrant ce qui était "suivant". Les utilisateurs de Facebook ne recherchaient pas la vidéo, mais elle leur était proposée par les algorithmes de la plateforme.

Wirathu était banni de Facebook depuis 2018.

"Même une approche de la modération de contenu dotée de bonnes ressources, prise isolément, n'aurait probablement pas suffi à prévenir et à atténuer ces préjudices algorithmiques. Cela s'explique par le fait que la modération des contenus ne permet pas de s'attaquer à la cause profonde de l'amplification algorithmique des contenus préjudiciables par Meta", indique le rapport d'Amnesty.

Les réfugiés rohingyas demandent des réparations non précisées au géant des médias sociaux basé à Menlo Park, en Californie, pour son rôle dans la perpétuation du génocide. Meta, qui fait l'objet de poursuites jumelles aux États-Unis et au Royaume-Uni pour réclamer 150 milliards de dollars pour les réfugiés rohingyas, a jusqu'à présent refusé.

"Nous pensons que le génocide contre les Rohingyas n'a été possible que grâce à Facebook", a déclaré Sawyeddollah. "Ils ont communiqué entre eux pour répandre la haine, ils ont organisé des campagnes par le biais de Facebook. Mais Facebook est resté silencieux."