L’administration Biden organisera une réunion internationale sur la sécurité de l’IA à San Francisco après les élections
Des scientifiques gouvernementaux et des experts en intelligence artificielle d’au moins neuf pays et de l’Union européenne se réuniront à San Francisco après les élections américaines pour coordonner le développement en toute sécurité de la technologie de l’IA et éviter ses dangers.
L’administration du président Joe Biden a annoncé mercredi un rassemblement international de deux jours sur la sécurité de l’IA, prévu les 20 et 21 novembre. Il aura lieu un peu plus d’un an après que les délégués d’un Sommet sur la sécurité de l’IA Au Royaume-Uni, les pays se sont engagés à travailler ensemble pour contenir les risques potentiellement catastrophiques posés par les avancées de l’IA.
La secrétaire américaine au Commerce, Gina Raimondo, a déclaré à l’Associated Press qu’il s’agirait de la « première réunion de travail » après le sommet du Royaume-Uni et celui de mai. suivi en Corée du Sud Cela a donné naissance à un réseau d’instituts de sécurité soutenus par l’État pour faire progresser la recherche et les tests de la technologie.
Parmi les sujets urgents auxquels les experts sont susceptibles d’être confrontés figure l’augmentation constante des contrefaçons générées par l’IA, mais aussi le problème délicat de savoir comment savoir quand un système d’IA est si largement capable ou dangereux qu’il a besoin de garde-fous.
« Nous allons réfléchir à la manière dont nous pouvons collaborer avec les pays pour établir des normes en ce qui concerne les risques liés au contenu synthétique, les risques d’utilisation malveillante de l’IA par des acteurs malveillants », a déclaré Raimondo dans une interview. « Parce que si nous gardons le contrôle des risques, il est incroyable de penser à ce que nous pourrions accomplir. »
Situé dans une ville qui est devenue le centre de la vague actuelle de technologie d’IA générativeLes réunions de San Francisco sont conçues comme une collaboration technique sur les mesures de sécurité en prévision d’un sommet plus large sur l’IA prévu en février à Paris. Il aura lieu environ deux semaines après une élection présidentielle entre la vice-présidente Kamala Harris — qui a aidé à créer le La position des États-Unis sur les risques liés à l’IA – et l’ancien président Donald Trump, qui a juré de défaire La politique emblématique de Biden en matière d’IA.
Raimondo et le secrétaire d’État Antony Blinken ont annoncé que leurs agences co-organiseront la réunion, qui s’appuie sur un réseau de sécurité nationale de l’IA nouvellement formé. instituts aux États-Unis et le Royaume-Uni, ainsi que l’Australie, le Canada, la France, le Japon, le Kenya, la Corée du Sud, Singapour et les 27 pays de l’Union européenne.
La plus grande puissance de l’IA qui manque à la liste des participants est la Chine, qui ne fait pas partie du réseau, bien que Raimondo ait déclaré : « nous essayons toujours de déterminer exactement qui d’autre pourrait venir en termes de scientifiques. »
« Je pense qu’il y a certains risques que nous souhaitons tous éviter, comme l’IA appliquée aux armes nucléaires ou au bioterrorisme », a-t-elle déclaré. « Tous les pays du monde devraient être en mesure de convenir que ce sont des choses mauvaises et que nous devrions être en mesure de travailler ensemble pour les prévenir. »
De nombreux gouvernements se sont engagés à protéger la technologie de l’IA, mais ils ont adopté des approches différentes, l’UE étant la première à le faire. promulguer une loi radicale sur l’IA qui impose les restrictions les plus strictes sur les applications les plus risquées.
Biden a signé en octobre dernier un décret sur l’IA qui oblige les développeurs de l’IA à les systèmes d’IA les plus puissants de partager les résultats des tests de sécurité et d’autres informations avec le gouvernement. Elle a également délégué au ministère du Commerce le soin de créer des normes pour garantir que les outils d’IA sont sûrs et sécurisés avant leur publication publique.
OpenAI, basé à San Francisco et créateur de ChatGPT, a déclaré la semaine dernière qu’avant de lancer son dernier modèle, appelé o1, il avait accordé un accès anticipé aux instituts nationaux de sécurité de l’IA des États-Unis et du Royaume-Uni. Le nouveau produit va au-delà du célèbre chatbot de l’entreprise en étant capable de « réaliser un raisonnement complexe » et de produire une « longue chaîne de pensée interne » lors de la réponse à une requête, et présente un « risque moyen » dans la catégorie des armes de destruction massive, a déclaré l’entreprise.
Depuis que les outils d’IA générative ont commencé à captiver le monde fin 2022, l’administration Biden pousse les entreprises d’IA à s’engager à tester leurs modèles les plus sophistiqués avant de les commercialiser.
« C’est le bon modèle », a déclaré Raimondo. « Cela étant dit, pour l’instant, tout est facultatif. Je pense que nous devons probablement aller au-delà d’un système volontaire. Et nous avons besoin que le Congrès prenne des mesures. »
Les entreprises technologiques sont pour la plupart d’accord, en principe, sur la nécessité d’une réglementation de l’IA, mais certaines se sont irritées des propositions qui, selon elles, pourraient étouffer l’innovation. En Californie, le gouverneur Gavin Newsom a déclaré mardi signé trois projets de loi historiques pour sévir contre les deepfakes politiques avant les élections de 2024, mais n’a pas encore signé, ni opposé son veto, à une mesure plus controversée qui réglementerait des modèles d’IA extrêmement puissants qui n’existent pas encore mais qui pourraient présenter de graves risques s’ils étaient construits.