Tech

L’IA de pointe suscite des craintes quant aux risques pour l’humanité. Les dirigeants technologiques et politiques en font-ils assez ?

LONDRES (AP) — Les chatbots comme ChatGPT ont séduit le monde par leur capacité à écrire des discoursplanifier des vacances ou tenir une conversation aussi bon, voire même meilleur, que les humains, grâce à des systèmes d’intelligence artificielle de pointe. Aujourd’hui, l’IA de pointe est devenue le dernier mot à la mode alors que les inquiétudes grandissent quant aux capacités de la technologie émergente qui pourraient mettre l’humanité en danger.

Du gouvernement britannique aux chercheurs de haut niveau, en passant par les grandes sociétés d’IA elles-mêmes, tous tirent la sonnette d’alarme sur les dangers encore inconnus de l’IA de pointe et appellent à des garanties pour protéger les gens de ses menaces existentielles.

Le débat atteint son paroxysme mercredi, lorsque le Premier ministre britannique Rishi Sunak organise un sommet de deux jours axé sur l’IA de pointe. Il devrait rassembler un groupe d’environ 100 responsables de 28 pays, dont la vice-présidente américaine Kamala Harris, la présidente de la Commission européenne Ursula von der Leyen et des dirigeants de grandes sociétés américaines d’intelligence artificielle, notamment OpenAI, Deepmind de Google et Anthropic.

Le lieu est Bletchley Park, une ancienne base top secrète pour les décrypteurs de la Seconde Guerre mondiale dirigée par Alan Turing. Le domaine historique est considéré comme le berceau de l’informatique moderne, car c’est là que l’équipe de Turing a déchiffré le code Enigma de l’Allemagne nazie à l’aide du premier ordinateur numérique programmable au monde.

Dans un discours la semaine dernière, Sunak a dit seuls les gouvernements – et non les sociétés d’IA – peuvent protéger les gens des risques liés à la technologie. Cependant, il a également noté que l’approche du Royaume-Uni « n’est pas de se précipiter pour réglementer », même s’il a souligné une série de menaces effrayantes, telles que l’utilisation de l’IA pour fabriquer plus facilement des armes chimiques ou biologiques.

« Nous devons prendre cela au sérieux et commencer à essayer de devancer le problème », a déclaré Jeff Clune, professeur agrégé d’informatique à l’Université de la Colombie-Britannique, spécialisé dans l’IA et l’apprentissage automatique.

Clune faisait partie d’un groupe de chercheurs influents qui ont rédigé la semaine dernière un article appelant les gouvernements à faire davantage pour gérer les risques liés à l’IA. C’est le dernier d’une série de de terribles avertissements des magnats de la technologie comme Elon Musk et le PDG d’OpenAI, Sam Altman, sur l’évolution rapide de la technologie et le des manières disparates l’industrie, les dirigeants politiques et les chercheurs voient la voie à suivre lorsqu’il s’agit de maîtriser les risques et de réglementer.

Il est loin d’être certain que l’IA anéantira l’humanité, a déclaré Clune, « mais il y a suffisamment de risques et de chances de se produire. Et nous devons mobiliser l’attention de la société pour tenter de résoudre ce problème dès maintenant, plutôt que d’attendre que le pire des cas se produise.»

L’un des grands objectifs de Sunak est de parvenir à un accord sur un communiqué sur la nature des risques liés à l’IA. Il dévoile également des plans pour un institut de sécurité de l’IA qui évaluera et testera de nouveaux types de technologie et propose la création d’un groupe d’experts mondial, inspiré par le groupe d’experts de l’ONU sur le changement climatique, pour comprendre l’IA et rédiger un rapport sur « l’état de la science de l’IA ». .

Le sommet reflète la volonté du gouvernement britannique d’organiser des rassemblements internationaux pour montrer qu’il n’est pas isolé et qu’il peut encore jouer un rôle de premier plan sur la scène mondiale après son départ de l’Union européenne il y a trois ans.

Le Royaume-Uni souhaite également faire valoir ses droits sur une question politique brûlante sur laquelle les États-Unis et l’UE, composée de 27 pays, prennent des mesures.

Bruxelles met la touche finale à ce qui est sur le point de devenir la première réglementation globale sur l’IA au monde, tandis que le président américain Joe Biden signé un décret radical Lundi pour guider le développement de l’IA, en s’appuyant sur les engagements volontaires pris par les entreprises technologiques.

La Chine, qui est avec les États-Unis l’une des deux puissances mondiales en matière d’IA, a été invitée au sommet, bien que Sunak ne puisse pas dire avec « 100 % de certitude » que des représentants de Pékin y assisteront.

Le document signé par Clune et plus de 20 autres experts, dont deux surnommés les « parrains » de l’IA – Geoffrey Hinton et Yoshua Bengio – appelle les gouvernements et les entreprises d’IA à prendre des mesures concrètes, par exemple en consacrant un tiers de leur recherche et développement. ressources pour garantir une utilisation sûre et éthique de l’IA autonome avancée.

Frontier AI est un raccourci pour les systèmes les plus récents et les plus puissants qui vont jusqu’à la limite des capacités de l’IA. Ils sont basés sur des modèles de base, qui sont des algorithmes formés sur un large éventail d’informations extraites d’Internet pour fournir une base de connaissances générale, mais pas infaillible.

Cela rend les systèmes d’IA frontaliers « dangereux car ils ne sont pas parfaitement informés », a déclaré Clune. “Les gens supposent et pensent qu’ils sont extrêmement compétents, et cela peut vous causer des ennuis.”

La réunion a cependant été critiquée, car elle est trop préoccupée par les dangers lointains.

“L’objectif du sommet est en fait un peu trop restreint”, a déclaré Francine Bennett, directrice par intérim de l’Institut Ada Lovelace, un groupe de recherche politique basé à Londres et axé sur l’IA.

“Nous risquons d’oublier l’ensemble plus large des risques et de la sécurité” et les algorithmes qui font déjà partie de la vie quotidienne, a-t-elle déclaré lors d’un panel à Chatham House la semaine dernière.

Deb Raji, une chercheuse de l’Université de Californie à Berkeley qui a étudié les biais algorithmiques, a souligné les problèmes des systèmes déjà déployés au Royaume-Uni, tels que les systèmes de reconnaissance faciale de la police qui présentaient un taux de fausse détection beaucoup plus élevé pour les Noirs et un algorithme qui a raté un examen du lycée.

Le sommet est une « opportunité manquée » et marginalise les communautés et les travailleurs les plus touchés par l’IA, ont déclaré plus de 100 groupes de la société civile et experts dans une lettre ouverte à Sunak.

Les sceptiques affirment que le gouvernement britannique a fixé ses objectifs au sommet trop bas, étant donné que la réglementation de l’IA ne sera pas à l’ordre du jour, se concentrant plutôt sur l’établissement de « garde-fous ».

L’appel de Sunak à ne pas se précipiter dans la réglementation rappelle « le message que nous entendons de la part de nombreux représentants d’entreprises aux États-Unis », a déclaré Raji. “Et je ne suis donc pas surpris que cela se retrouve également dans ce qu’ils pourraient dire aux responsables britanniques.”

Les entreprises technologiques ne devraient pas être impliquées dans l’élaboration des réglementations, car elles ont tendance à « sous-estimer ou minimiser » l’urgence et l’ensemble des dommages, a déclaré Raji. Ils ne sont pas non plus très disposés à soutenir des projets de loi « qui pourraient être nécessaires mais qui pourraient effectivement mettre en danger leurs résultats financiers », a-t-elle déclaré.

DeepMind et OpenAI n’ont pas répondu aux demandes de commentaires. Anthropic a déclaré que les co-fondateurs Dario Amodei et Jack Clark seraient présents.

Microsoft a déclaré dans un article de blog qu’il attendait avec impatience « les prochaines étapes du Royaume-Uni pour organiser le sommet, faire progresser ses efforts en matière de tests de sécurité de l’IA et soutenir une plus grande collaboration internationale sur la gouvernance de l’IA ».

Le gouvernement insiste sur le fait qu’il y aura un bon mélange de participants issus du gouvernement, du monde universitaire, de la société civile et du monde des affaires.

L’Institute for Public Policy Research, un groupe de réflexion britannique de centre-gauche, a déclaré que ce serait une « erreur historique » si l’industrie technologique devait se réguler elle-même sans la supervision du gouvernement.

“Les régulateurs et le public ignorent en grande partie comment l’IA est déployée dans l’économie”, a déclaré Carsten Jung, économiste principal du groupe. “Mais l’autorégulation n’a pas fonctionné pour les sociétés de médias sociaux, elle n’a pas fonctionné pour le secteur financier et elle ne fonctionnera pas pour l’IA.”

___

La rédactrice d’Associated Press, Jill Lawless, a contribué à ce rapport.