Facebook débat sur ce qu’il faut faire avec ses boutons J’aime et Partager

SAN FRANCISCO — En 2019, les chercheurs de Facebook ont ​​entamé une nouvelle étude sur l’une des fonctionnalités fondamentales du réseau social : le bouton J’aime.

Ils ont examiné ce que les gens feraient si Facebook supprimait l’icône distincte de pouce levé et d’autres réactions emoji des publications sur son application de partage de photos Instagram, selon les documents de l’entreprise. Les boutons avaient parfois causé « du stress et de l’anxiété » aux plus jeunes utilisateurs d’Instagram, ont constaté les chercheurs, surtout si les publications n’obtenaient pas suffisamment de likes de la part d’amis.

Mais les chercheurs ont découvert que lorsque le bouton J’aime était masqué, les utilisateurs interagissaient moins avec les publications et les publicités. Dans le même temps, cela n’a pas atténué l’anxiété sociale des adolescents et les jeunes utilisateurs n’ont pas partagé plus de photos, comme l’entreprise le pensait, ce qui a donné lieu à des résultats mitigés.

Mark Zuckerberg, directeur général de Facebook, et d’autres managers ont discuté de la dissimulation du bouton J’aime pour davantage d’utilisateurs d’Instagram, selon les documents. En fin de compte, un test plus large a été déployé dans une capacité limitée pour « construire un récit de presse positif » autour d’Instagram.

La recherche sur le bouton J’aime était un exemple de la façon dont Facebook a remis en question les caractéristiques fondamentales des réseaux sociaux. Alors que l’entreprise a affronté crise après crise en matière de désinformation, de confidentialité et de discours haineux, une question centrale a été de savoir si le fonctionnement de base de la plate-forme était en cause – essentiellement, les fonctionnalités qui ont fait de Facebook Facebook.

Outre le bouton J’aime, Facebook a scruté son bouton de partage, qui permet aux utilisateurs de diffuser instantanément du contenu publié par d’autres personnes ; sa fonctionnalité de groupes, qui est utilisée pour former des communautés numériques ; et d’autres outils qui définissent comment plus de 3,5 milliards de personnes se comportent et interagissent en ligne. La recherche, présentée dans des milliers de pages de documents internes, souligne comment l’entreprise a été aux prises à plusieurs reprises avec ce qu’elle a créé.

Ce que les chercheurs ont trouvé était souvent loin d’être positif. À maintes reprises, ils ont déterminé que les gens utilisaient à mauvais escient des fonctionnalités clés ou que ces fonctionnalités amplifiaient le contenu toxique, entre autres effets. Dans une note interne d’août 2019, plusieurs chercheurs ont déclaré que c’était les « mécanismes de base du produit » de Facebook – c’est-à-dire les bases du fonctionnement du produit – qui avaient permis à la désinformation et aux discours de haine de prospérer sur le site.

« La mécanique de notre plateforme n’est pas neutre », ont-ils conclu.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *