Actualité Business | News 24

Comment l’accent mis par le Royaume-Uni sur le risque apocalyptique de l’IA aide les entreprises | Technologie

jeAu printemps 2023, le gouvernement britannique a présenté ses plans pour répondre à l’évolution rapide du paysage de l’IA. Dans un livre blanc intitulé « Une approche pro-innovation de la réglementation de l’IA », la secrétaire d’État à la science, à l’innovation et à la technologie a décrit les nombreux avantages et opportunités qu’elle estime que la technologie présente et a expliqué la décision du gouvernement d’adopter une « approche fondée sur des principes » pour la réglementer. En bref : le Royaume-Uni n’a pas prévu de créer une nouvelle législation, mais a plutôt choisi de clarifier les lois existantes qui pourraient s’appliquer à l’IA.

« De nouvelles exigences législatives rigides et onéreuses imposées aux entreprises pourraient freiner l’innovation en matière d’IA et réduire notre capacité à réagir rapidement et de manière proportionnée aux avancées technologiques futures », peut-on lire dans le livre blanc.

Entre les lignes du tract du gouvernement, disent les experts, se trouve un message codé : nous voulons les affaires des sociétés d’IA ; nous n’allons pas réglementer l’IA pour le moment.

À l’approche du sommet mondial sur l’IA que le Royaume-Uni organisera début novembre, Rishi Sunak a fait écho au désir de renforcer la position du Royaume-Uni en tant que leader de l’IA, à la fois en termes d’innovation et de surveillance de la sécurité. Jeudi, il a déclaré qu’il était toutefois trop tôt pour que le gouvernement légifère sur l’IA. Faisant valoir qu’un examen plus approfondi des modèles avancés est nécessaire d’abord, il a déclaré : « Il est difficile de réglementer quelque chose si vous ne le comprenez pas pleinement. »

Les experts affirment qu’une grande partie de ce que Sunak prévoit de discuter lors du sommet est théorique, en raison de l’accent mis sur ce que l’on appelle « l’IA de frontière » – le terme désignant les modèles d’IA les plus avancés.

Les documents publiés avant le sommet ont détaillé un ensemble de risques, dont certains sont plus tangibles, tels que la désinformation générée par l’IA et la perturbation du marché du travail. L’ordre du jour du premier jour fait également référence à des discussions sur « la perturbation des élections, l’érosion de la confiance sociale et l’exacerbation des inégalités mondiales ».

D’autres menaces détaillées dans ces documents incluent la question de savoir si l’IA pourrait permettre à des individus de créer des armes biologiques ou de devenir si puissante qu’ils contourneraient les garde-fous de sécurité. L’ordre du jour final du sommet, dont une première ébauche a été obtenue par le Guardian, reflète la même orientation, affirmant que la frontière est « là où les risques sont les plus urgents » et « là où réside la vaste promesse de l’économie future » – un couteau. -bord entre le potentiel et le désastre.

“Nous nous concentrons sur l’IA de pointe lors du AI Safety Summit, car c’est le domaine dans lequel nous sommes confrontés aux risques les plus urgents liés aux capacités les plus dangereuses de l’IA avancée”, a déclaré un porte-parole du ministère de la Science, de l’Innovation et de la Technologie. “Cela ne veut pas dire que les autres risques ne sont pas importants et nous utilisons d’autres forums internationaux et travaillons au niveau national pour y faire face.”

Peu d’observateurs s’attendent à ce que la réunion aboutisse à des propositions législatives fermes, même si Sunak a déclaré jeudi qu’il ferait pression pour un équivalent en IA du Groupe d’experts intergouvernemental sur l’évolution du climat – une coalition d’experts qui pourrait aider à forger un consensus international sur la sécurité.

Les inquiétudes concernant le risque existentiel pourraient détourner l’attention de réglementations significatives qui pourraient atténuer les maux existants que les outils d’IA peuvent exacerber, notamment la surveillance des groupes marginalisés, les inégalités en matière d’embauche et de logement et la prolifération de la désinformation, préviennent certains experts.

“L’attention des décideurs politiques et les efforts de réglementation se concentrent sur un ensemble de capacités qui n’existent pas encore, un ensemble de modèles qui ne montrent pas encore ces capacités”, a déclaré Michael Birtwistle, directeur associé du droit et de la politique à l’Institut Ada Lovelace. , un organisme de recherche en IA. « Et les préjudices d’aujourd’hui ne figurent pas vraiment dans ce calcul. »

Londres n’est pas seule à adopter cette approche. Les experts affirment que les États-Unis se sont également trop concentrés sur les dommages futurs ou hypothétiques, tout en tardant à installer des garde-fous exécutoires sur les applications actuelles.

« Et d’un point de vue pratique, ce n’est pas un objectif utile pour la réglementation ou pour la gouvernance, car c’est un objectif mouvant », a déclaré Birtwistle.


jeDans sa forme actuelle, l’IA alimente les outils de police et de surveillance qui ont été utilisés pour cibler de manière disproportionnée et, parfois, identifier à tort les personnes noires et brunes. Les outils de recrutement d’IA se sont avérés efficaces décisions discriminatoires qui ont des implications sur qui est considéré pour un emploi. Les algorithmes sur lesquels reposent les plateformes sociales ont alimenté la propagation de la désinformation électorale. Et il y a peu de transparence sur le fonctionnement de ces programmes ou sur les données sur lesquelles ils sont formés.

Frontier AI est encore en « phase d’idée », a déclaré Janet Haven, membre des États-Unis. Comité consultatif national sur l’intelligence artificielle (NAIAC) et directeur exécutif de l’organisation de recherche technologique à but non lucratif Data & Society, « mais il existe de nombreux systèmes d’IA utilisés dont les preuves empiriques nous ont montré qu’ils causent déjà des dommages qui ne sont pas traités par la réglementation, les pratiques industrielles ou la loi ». L’accent mis par le sommet sur la collaboration internationale est « une occasion manquée », a soutenu Haven, une occasion qui aurait pu être consacrée à discuter d’une nouvelle législation ou de la manière dont le Royaume-Uni pourrait utiliser la loi existante pour lutter contre l’IA.

«Je pense qu’une collaboration internationale, quelle qu’elle soit, sans un cadre national de lois et de réglementations, est extrêmement difficile», a-t-elle déclaré. “Vous n’avez pas de base de référence sur laquelle travailler.”

Dans son approche, disent les experts, le Royaume-Uni s’est inspiré de celle des États-Unis, où les législateurs ont répété à plusieurs reprises interrogé Les dirigeants de l’IA au Congrès, la Maison Blanche ont défini des engagements volontaires en matière de sécurité de l’IA et Joe Biden a publié lundi un décret établissant des garde-fous pour l’utilisation de systèmes d’IA avancés par les agences fédérales, mais jusqu’à présent, une réglementation significative est restée insaisissable.

Le projet d’ordre du jour du sommet britannique indiquait que les entreprises fourniraient une mise à jour sur la manière dont elles adhèrent aux directives de la Maison Blanche. engagements volontaires en matière de sécurité de l’IA. Le dernier décret de Biden était aurait programmé pour précéder le sommet britannique et pourrait s’avérer instructif sur la façon dont le Royaume-Uni réfléchit à sa propre approche législative. La vice-présidente Kamala Harris participe au sommet au Royaume-Uni.

Harris a déclaré lundi que le gouvernement américain a « le devoir moral, éthique et sociétal de veiller à ce que l’IA soit adoptée et développée de manière à protéger le public contre les dommages potentiels et à garantir que chacun puisse profiter de ses avantages ».

Aux États-Unis et au Royaume-Uni, les principales entreprises à l’origine de la technologie de l’IA ont fait partie intégrante des discussions sur la manière dont cette technologie devrait être réglementée. Parmi les personnes attendues au sommet mondial du Royaume-Uni figurent une longue liste de dirigeants du secteur technologique, en plus des dirigeants mondiaux. Aux États-Unis, le sénateur Chuck Schumer a organisé deux réunions à huis clos avec principalement des représentants de l’industrie technologique. La première, organisée en septembre, portait sur la sécurité nationale, les questions de confidentialité et les systèmes d’IA à haut risque et comprenait Sam Altman, PDG d’OpenAI ; Elon Musk; et Sundar Pichai, le PDG de Google, en tant qu’invités. La seconde, tenue le 24 octobre et axé sur l’innovation, a réuni un mélange d’investisseurs en capital-risque technologique, d’investisseurs et de quelques universitaires.

Le sommet et ces discussions ne parviennent pas à aborder le « danger clair et actuel » de l’IA et à donner aux grandes technologies un forum pour promouvoir l’autorégulation et les engagements volontaires, affirme un groupe d’experts qui a organisé un contre-sommet lundi. Des éthiciens et critiques de l’IA, dont Amba Kak, directeur exécutif de l’AI Now Institute ; Safiya Noble, fondatrice du Center on Race & Digital Justice ; Maria Ressa, journaliste et membre du Real Facebook Oversight Board, a pris la parole lors du People’s Summit for AI Safety, une conférence de presse qui servirait d’« antidote » au sommet britannique. “Le gouvernement britannique a écouté les entreprises qui optent pour l’autorégulation”, a déclaré Marietje Schaake, ancienne députée européenne et conseillère spéciale auprès de la Commission européenne pour la mise en œuvre de la loi sur les services numériques. « Le Sommet n’a pas réussi à inviter une représentation plus large d’experts et de personnes touchées par les perturbations provoquées par l’IA. »

L’accent disproportionné mis sur les points de vue des leaders technologiques a également permis de prendre racine dans un cadre inutile sur la façon dont la réglementation pourrait avoir un impact sur l’innovation, a déclaré Callie Schroeder, avocate principale et conseillère mondiale en matière de protection de la vie privée au sein de l’Electronic Privacy Information Center, une organisation à but non lucratif.

“Ils ont encore un peu en tête qu’il s’agit d’un jeu de protection de la vie privée et des consommateurs contre l’innovation alors qu’il n’est pas nécessaire que ce soit une confrontation de cette façon”, a déclaré Schroeder. « Il existe absolument des moyens de développer de nouvelles technologies innovantes tout en prêtant attention aux risques. »

Le porte-parole du ministère de la Science, de l’Innovation et de la Technologie a déclaré que le sommet « rassemblera un large éventail de participants, notamment des gouvernements internationaux, des universités, l’industrie et la société civile » dans le but de « conduire une action internationale ciblée et rapide » en faveur du développement responsable. de l’IA.

Les deux pays sont également motivés en partie par le désir de rivaliser à l’échelle mondiale. Pour les États-Unis, cette concurrence est en partie motivée par la crainte que des pays comme la Chine puissent développer plus rapidement des systèmes d’IA qui pourraient être utilisés d’une manière qui constituerait une menace pour la sécurité nationale. Dans une lettre du 6 juin, Schumer et d’autres législateurs ont invité les membres du Congrès à discuter du « potentiel et des risques extraordinaires que présente l’IA ». Les sujets abordés comprenaient la manière de maintenir le leadership américain en matière d’IA et la manière dont les « adversaires » du pays utilisent l’IA. La commission spéciale du Sénat sur le renseignement a depuis a tenu une audience sur les implications pour la sécurité nationale de l’IA qui comprenait le témoignage de Yann LeCun, vice-président et scientifique en chef de l’IA chez Meta. (La Chine, pour sa part, a proposé des lignes directrices qui interdiraient aux grands modèles linguistiques de produire du contenu qui pourrait être considéré comme critique à l’égard du gouvernement.)

Sunak, qui fera face à des élections générales l’année prochaine, a souligné la position du Royaume-Uni en tant que leader intellectuel dans le domaine de l’IA. « Vous auriez du mal…