Google affirme qu’une défaite devant la Cour suprême transformerait Internet – pour le pire



CNN

Une décision défavorable contre Google dans une affaire étroitement surveillée de la Cour suprême ce trimestre concernant le moteur de recommandation de YouTube pourrait avoir des conséquences inattendues pour une grande partie de l’Internet au sens large, a fait valoir le géant de la recherche dans un dossier juridique jeudi.

Google, propriétaire de YouTube, mène une bataille judiciaire à enjeux élevés pour savoir si les recommandations YouTube générées par algorithme sont exemptées du bouclier de responsabilité de Big Tech, article 230 de la Communications Decency Act.

L’article 230 protège largement les plates-formes technologiques des poursuites judiciaires concernant les décisions de modération de contenu des entreprises. Mais une décision de la Cour suprême qui déclare que les recommandations basées sur l’IA ne sont pas éligibles à ces protections pourrait « menacer les fonctions essentielles d’Internet », a écrit Google dans son mémoire.

« Des sites Web comme Google et Etsy dépendent d’algorithmes pour passer au crible des montagnes de contenu créé par les utilisateurs et afficher du contenu susceptible d’être pertinent pour chaque utilisateur », a écrit la société. « Si les plaignants pouvaient se soustraire [Section 230] en ciblant la façon dont les sites Web trient le contenu ou en essayant de tenir les utilisateurs responsables pour avoir aimé ou partagé des articles, Internet se transformerait en un gâchis désorganisé et un champ de mines contentieux.

Face à une telle décision, les sites Web pourraient avoir à choisir entre sur-modérer intentionnellement leurs sites Web, les éliminer de pratiquement tout ce qui pourrait être perçu comme répréhensible, ou ne faire aucune modération du tout pour éviter le risque de responsabilité, a fait valoir Google.

À l’origine de l’affaire, Google a enfreint une loi antiterroriste américaine avec ses algorithmes de contenu en recommandant des vidéos YouTube pro-ISIS aux utilisateurs. Les plaignants dans l’affaire sont la famille de Nohemi Gonzalez, qui a été tuée lors d’une attaque de l’Etat islamique en 2015 à Paris.

Dans le dossier, Google a déclaré que « YouTube abhorre le terrorisme » et a cité ses « actions de plus en plus efficaces » pour limiter la propagation de contenu terroriste sur sa plate-forme, avant d’insister sur le fait que la société ne peut pas être poursuivie pour avoir recommandé les vidéos en raison de son bouclier de responsabilité en vertu de l’article 230.

L’affaire, Gonzalez c. Google, est considérée comme un indicateur de la modération de contenu et l’une des premières affaires de la Cour suprême à examiner l’article 230 depuis son adoption en 1996. Plusieurs juges de la Cour suprême ont exprimé leur intérêt à peser sur la loi, ce qui a été interprété au sens large par les tribunaux, défendu par l’industrie technologique et vivement critiqué par les politiciens des deux partis.

L’administration Biden, dans un mémoire juridique le mois dernier, a fait valoir que les protections de l’article 230 ne devraient pas s’étendre aux algorithmes de recommandation. Le président Joe Biden a longtemps appelé à des modifications de l’article 230, affirmant que les plates-formes technologiques devraient assumer davantage la responsabilité du contenu qui apparaît sur leurs sites Web. Pas plus tard que mardi, Biden a publié un éditorial du Wall Street Journal qui exhortait le Congrès à modifier la section 230.

Mais dans un article de blog jeudi, l’avocate générale de Google, Halimah DeLaine Prado, a fait valoir que le rétrécissement de l’article 230 augmenterait la menace de litiges contre les entreprises en ligne et les petites entreprises, les discours effrayants et l’activité économique sur Internet.

« Les services pourraient devenir moins utiles et moins dignes de confiance – à mesure que les efforts pour éradiquer les escroqueries, les fraudes, les complots, les logiciels malveillants, la violence, le harcèlement, etc. sont étouffés », a écrit DeLaine Prado.