LONDRES – Au Sri Lanka et au Myanmar, Facebook a maintenu des messages selon lesquels il avait été averti qu’il contribuait à la violence. En Inde, des militants ont exhorté l’entreprise à combattre les postes de personnalités politiques ciblant les musulmans. Et en Éthiopie, des groupes ont plaidé pour que le réseau social bloque les discours de haine après que des centaines de personnes aient été tuées dans des violences ethniques enflammées par les médias sociaux.
«Les troubles hors ligne qui ont secoué le pays sont pleinement visibles sur l’espace en ligne», ont écrit des militants, des groupes de la société civile et des journalistes en Éthiopie. une lettre ouverte l’année dernière.
Pendant des années, Facebook et Twitter ont largement rejeté les appels à supprimer les discours de haine ou d’autres commentaires de personnalités publiques et de représentants du gouvernement qui, selon les groupes de la société civile et les militants, risquaient d’inciter à la violence. Les entreprises s’en sont tenues à des politiques, guidées par les idéaux américains de liberté d’expression, qui donnent à ces chiffres plus de latitude pour utiliser leurs plateformes pour communiquer.
Mais la semaine dernière, Facebook et Twitter ont coupé le président Trump de leurs plates-formes pour avoir incité une foule à attaquer le Capitole américain. Ces décisions ont provoqué la colère des groupes de défense des droits humains et des militants, qui exhortent désormais les entreprises à appliquer leurs politiques de manière égale, en particulier dans les petits pays où les plates-formes dominent les communications.
«Quand j’ai vu ce que les plates-formes faisaient avec Trump, je me suis dit: ‘Vous auriez dû le faire avant, et vous devriez le faire de manière cohérente dans d’autres pays du monde’ ‘, a déclaré Javier Pallero, directeur des politiques d’Access Now, un organisme des droits de l’homme. groupe impliqué dans la lettre éthiopienne. «Partout dans le monde, nous sommes à la merci du moment où ils décident d’agir.»
«Parfois, ils agissent très tard», a-t-il ajouté, «et parfois ils n’agissent pas du tout.»
David Kaye, professeur de droit et ancien observateur des Nations Unies pour la liberté d’expression, a déclaré que des personnalités politiques en Inde, aux Philippines, au Brésil et ailleurs méritaient un examen minutieux pour leur comportement en ligne. Mais il a déclaré que les actions contre M. Trump soulevaient des questions difficiles sur la manière dont le pouvoir des sociétés Internet américaines était appliqué et si leurs actions créaient un nouveau précédent pour un discours policier plus agressif dans le monde.
«La question à l’avenir est de savoir s’il s’agit d’un nouveau type de norme qu’ils ont l’intention d’appliquer pour les dirigeants du monde entier, et ont-ils les ressources pour le faire?» Dit M. Kaye. «Il va y avoir une réelle augmentation de la demande pour faire cela ailleurs dans le monde.»
Facebook, qui possède également Instagram et WhatsApp, est le plus grand réseau social au monde, avec plus de 2,7 milliards d’utilisateurs mensuels; plus de 90 pour cent d’entre eux vivent en dehors des États-Unis. La société a refusé de commenter, mais a déclaré que les actions contre M. Trump découlaient de sa violation des règles existantes et ne représentaient pas une nouvelle politique mondiale.
«Nos politiques s’appliquent à tout le monde», a déclaré Sheryl Sandberg, directrice des opérations de Facebook, dans une récente interview avec Reuters. «La politique est que vous ne pouvez pas inciter à la violence, vous ne pouvez pas participer à l’incitation à la violence.»
Twitter, qui compte environ 190 millions d’utilisateurs quotidiens dans le monde, a déclaré que ses règles pour les dirigeants mondiaux n’étaient pas nouvelles. Lorsqu’il examine les publications susceptibles d’inciter à la violence, a déclaré Twitter, le contexte des événements est crucial.
«Les dommages hors ligne résultant de discours en ligne sont manifestement réels, et ce qui motive notre politique et notre application avant tout», a déclaré Jack Dorsey, directeur général de Twitter, dans un Publier mercredi. Pourtant, a-t-il dit, la décision «crée un précédent qui me semble dangereux: le pouvoir qu’un individu ou une entreprise a sur une partie de la conversation publique mondiale».
Certains signes montrent que Facebook et Twitter ont commencé à agir de manière plus affirmée. Après l’attaque du Capitole, Twitter a mis à jour ses politiques dire qu’il suspendrait définitivement les comptes des récidivistes de ses règles sur le contenu politique. Facebook a pris des mesures contre un certain nombre de comptes en dehors des États-Unis, notamment en supprimant le compte d’un média d’État en Iran et en fermant les comptes gérés par le gouvernement en Ouganda, où il y a eu des violences avant les élections. Facebook a déclaré que les retraits n’étaient pas liés à la décision Trump.
De nombreux militants ont choisi Facebook pour son influence mondiale et pour ne pas appliquer les règles de manière uniforme. Ils ont dit que dans de nombreux pays, il manquait de compréhension culturelle pour identifier quand les messages pourraient inciter à la violence. Trop souvent, ont-ils déclaré, Facebook et d’autres sociétés de médias sociaux n’agissent pas même lorsqu’ils reçoivent des avertissements.
En 2019 en Slovaquie, Facebook n’a pas supprimé les messages d’un membre du Parlement condamné par un tribunal et déchu de son siège au gouvernement pour incitation et commentaires racistes. Au Cambodge, Human Rights Watch a déclaré que l’entreprise avait mis du temps à agir face à l’implication des responsables gouvernementaux dans une campagne sur les réseaux sociaux visant à salir un moine bouddhiste de premier plan défendant les droits de l’homme. Aux Philippines, le président Rodrigo Duterte a utilisé Facebook pour cibler les journalistes et autres critiques.
Après une vague de violence, les militants éthiopiens m’a dit Facebook était utilisé pour inciter à la violence et encourager la discrimination.
Discussion about this post