Google n’aime pas qu’on lui montre des problèmes gênants, a déclaré à RT un ancien co-responsable de l’IA éthique « licencié » par le géant de la technologie pour ses recherches

Le Dr Gebru a été la première chercheuse scientifique noire chez Google, et sa séparation controversée avec le géant de la technologie a fait la une des journaux l’année dernière. Cela faisait suite à son refus de répondre à la demande de l’entreprise de retirer un article sur les problèmes éthiques découlant des grands modèles linguistiques (LLM) utilisés par Google Translate et d’autres applications. Gebru insiste sur le fait qu’elle a été licenciée pour sa position, tandis que Google prétend qu’elle a déposé sa démission.

Dans l’épisode de lundi de l’émission « Going Underground » de RT, elle a expliqué à l’animateur de l’émission, Afshin Rattansi, pourquoi elle s’était séparée de Google.

L’IA éthique est « un domaine qui essaie de garantir que, lorsque nous travaillons sur la technologie de l’IA, nous y travaillons avec prévoyance et essayons de comprendre quels sont les effets sociétaux potentiels négatifs et de les minimiser. » dit Gebru.

Et c’était exactement ce qu’elle poursuivait chez Google avant – à son avis – d’être licenciée par l’entreprise. « Je ne dirai jamais que j’ai démissionné. Ça ne va pas arriver, » dit Gebru.

Le document de 2020 préparé par l’experte et ses collègues a mis en évidence les « coûts environnementaux et financiers » des grands modèles linguistiques, et a mis en garde contre les rendre trop grands. Les LLM « consomment beaucoup de puissance de calcul », a-t-elle expliqué. « Donc, si vous travaillez sur des modèles de langage de plus en plus grands, seules les personnes dotées de ce type de puissance de calcul énorme pourront les utiliser … Ceux qui bénéficient des LLM ne sont pas ceux qui en paient les coûts. » Et cet état de choses s’élevait à « racisme environnemental » elle a dit.

Les grands modèles linguistiques utilisent les données d’Internet pour apprendre, mais cela ne signifie pas nécessairement qu’ils intègrent toutes les opinions disponibles en ligne, a déclaré Gebru, un Éthiopien américain. Le document a souligné le « dangers » d’une telle approche, qui aurait pu voir l’IA être formée pour incorporer des préjugés et du contenu haineux.

Avec les LLM, vous pouvez obtenir quelque chose qui semble vraiment fluide et cohérent, mais qui est complètement faux.

L’exemple le plus frappant de cela, a-t-elle dit, est l’expérience d’un Palestinien qui aurait été arrêté par la police israélienne après que les algorithmes de Facebook aient traduit par erreur son message qui disait : « Bonjour, » comme « Attaquez-les. »

Gebru a dit qu’elle avait découvert que ses patrons de Google n’aimaient vraiment pas ça « chaque fois que vous leur avez montré un problème et que c’était gênant » ou trop gros pour qu’ils l’admettent. En effet, l’entreprise voulait qu’elle retire son article académique évalué par des pairs, qui était sur le point d’être publié lors d’une conférence scientifique. Elle insiste sur le fait que cette demande n’était étayée par aucun raisonnement ou recherche, ses superviseurs le disant simplement « a montré trop de problèmes » avec les LLM.

La stratégie d’acteurs majeurs tels que Google, Facebook et Amazon est de prétendre que le parti pris de l’IA est « un problème purement technique, un problème purement algorithmique … [that] cela n’a rien à voir avec les lois antitrust, les monopoles, les problèmes de travail ou la dynamique du pouvoir. C’est simplement cette chose technique que nous devons travailler », dit Gebru.

« Nous avons besoin de réglementations. Et je pense que c’est… pourquoi toutes ces organisations et entreprises voulaient m’en vouloir, ainsi qu’à quelques autres personnes : parce qu’elles pensent que ce que nous préconisons n’est pas un simple ajustement algorithmique, mais des changements structurels plus importants. elle a dit.

Avec d’autres dénonciateurs suivant ses traces, la société a enfin commencé à comprendre la nécessité de réglementer les développements de l’IA, a déclaré Gebru, ajoutant que le public doit également être prêt à protéger ceux qui révèlent les méfaits des entreprises de leur pression.

Depuis qu’il a quitté Google, Gebru a lancé le groupe Black in AI pour unir les scientifiques de la couleur travaillant dans le domaine de l’IA. Elle constitue également une équipe de recherche interdisciplinaire pour poursuivre ses travaux sur le terrain. Elle a dit qu’elle ne chercherait pas à gagner beaucoup d’argent avec le projet – qui est à but non lucratif – parce que « si votre objectif numéro un est de maximiser les profits, alors vous allez rogner sur les raccourcis » et finissent par créer précisément le contraire de l’IA éthique.

Vous aimez cette histoire ? Partagez le avec un ami!

Toutes les actualités du site n'expriment pas le point de vue du site, mais nous transmettons cette actualité automatiquement et la traduisons grâce à une technologie programmatique sur le site et non à partir d'un éditeur humain.