Dernières Nouvelles | News 24

L’Europe était en passe de devenir le leader mondial en matière de réglementation de l’IA. Mais les dirigeants peuvent-ils parvenir à un accord ?

LONDRES (AP) — Le boom de l’IA générative a poussé les gouvernements du monde entier à se démener pour réglementer la technologie émergente, mais il a également accru le risque de contrarier les efforts de l’Union européenne pour approuver la technologie émergente. les premières règles complètes d’intelligence artificielle au monde.

La loi sur l’intelligence artificielle du bloc de 27 pays a été saluée comme un règlement pionnier. Mais le temps presse et il n’est pas certain que les trois branches du gouvernement de l’UE parviendront à parvenir à un accord mercredi dans ce que les responsables espèrent être un dernier cycle de négociations à huis clos.

Les années de l’Europe efforts pour élaborer des garde-fous en matière d’IA ont été embourbés par l’émergence récente de systèmes d’IA génératifs comme ChatGPT d’OpenAI, qui ont ébloui le monde par leur capacité à produire un travail de type humain, mais ont suscité des craintes quant aux risques qu’ils posent.

Ces préoccupations ont conduit les Etats Unis, ROYAUME-UNILa Chine, la Chine et les coalitions mondiales comme le Groupe des 7 grandes démocraties se lancent dans la course à la régulation de cette technologie en développement rapide, même si elles sont encore en train de rattraper l’Europe.

En plus réguler l’IA générativeles négociateurs européens doivent résoudre une longue liste d’autres questions épineuses, comme l’interdiction totale de l’utilisation par la police des systèmes de reconnaissance faciale, qui ont suscité des inquiétudes en matière de vie privée.

Chances de conclure un accord politique entre les législateurs européens, les représentants des États membres et les commissaires exécutifs « sont assez élevés, en partie parce que tous les négociateurs veulent une victoire politique » sur un effort législatif phare, a déclaré Kris Shrishak, chercheur principal spécialisé dans la gouvernance de l’IA au Conseil irlandais pour les libertés civiles.

“Mais les questions sur la table sont importantes et critiques, nous ne pouvons donc pas exclure la possibilité de ne pas parvenir à un accord”, a-t-il déclaré.

Environ 85 % de la formulation technique du projet de loi a déjà été convenue, a déclaré Carme Artigas, ministre espagnole de l’IA et de la numérisation, qui exerce la présidence tournante de l’UE, lors d’un point de presse mardi à Bruxelles.

Si aucun accord n’est trouvé lors du dernier cycle de négociations, qui débutera mercredi après-midi et qui devrait se poursuivre jusque tard dans la nuit, les négociateurs seront obligés d’y revenir l’année prochaine. Cela augmente les chances que la législation soit retardée jusqu’après les élections européennes de juin – ou aille dans une direction différente avec l’entrée en fonction de nouveaux dirigeants.

L’un des principaux points de friction concerne les modèles de base, les systèmes avancés qui sous-tendent les services d’IA à usage général comme ChatGPT et OpenAI. Le chatbot Bard de Google.

Également connus sous le nom de grands modèles de langage, ces systèmes sont formés sur de vastes quantités d’œuvres écrites et d’images récupérées sur Internet. Ils donnent aux systèmes d’IA générative le capacité à créer quelque chose de nouveaucontrairement à l’IA traditionnelle, qui traite les données et effectue des tâches en utilisant des règles prédéterminées.

La loi sur l’IA était conçue comme une législation sur la sécurité des produits, à l’instar des réglementations européennes similaires pour les cosmétiques, les voitures et les jouets. Il classerait les utilisations de l’IA selon quatre niveaux de risque : du risque minimal ou nul posé par les jeux vidéo et les filtres anti-spam à risque inacceptable à partir de systèmes de notation sociale qui jugent les gens en fonction de leur comportement.

La nouvelle vague de systèmes d’IA à usage général publiée depuis le premier projet de loi en 2021 a incité les législateurs européens à renforcer la proposition pour couvrir les modèles de fondation.

Les chercheurs ont prévenu que de puissants modèles de base, construits par une poignée de grandes entreprises technologiques, pourraient être utilisés pour dynamiser désinformation et manipulation en ligne, cyberattaques ou création d’armes biologiques. Ils agissent comme des structures de base pour les développeurs de logiciels qui créent des services basés sur l’IA, de sorte que « si ces modèles sont pourris, tout ce qui est construit dessus le sera également – ​​et les déployeurs ne seront pas en mesure de le réparer », a déclaré Avaaz, une organisation à but non lucratif. groupe.

La France, l’Allemagne et l’Italie ont résisté à la mise à jour de la législation et appellent plutôt à l’autorégulation – un changement d’avis considéré comme une tentative d’aider les acteurs locaux de l’IA générative, tels que la start-up française Mistral AI et l’allemand Aleph Alpha, à rivaliser avec les grands. NOUS des entreprises technologiques comme OpenAI.

Brando Benifei, un député italien au Parlement européen qui codirige les efforts de négociation de l’organisme, s’est montré optimiste quant à la résolution des différends avec les États membres.

Il y a eu « quelques progrès » sur les modèles de base, même s’il y a « davantage de problèmes pour trouver un accord » sur les systèmes de reconnaissance faciale, a-t-il déclaré.

___

Le rédacteur d’AP Technology, Matt O’Brien, a contribué depuis Providence, Rhode Island.