Biden signera un décret pour répondre aux problèmes de sauvegarde de l’IA
WASHINGTON (AP) — Le président Joe Biden signera lundi un décret ambitieux pour guider le développement de intelligence artificielle – obliger l’industrie à élaborer des normes de sûreté et de sécurité, introduire de nouvelles protections des consommateurs et donner aux agences fédérales une longue liste de choses à faire pour superviser l’évolution rapide de la technologie.
Cette ordonnance reflète les efforts du gouvernement pour façonner la manière dont l’IA évolue de manière à maximiser ses possibilités et à contenir ses périls. L’IA est une source de profond intérêt personnel pour Biden, avec son potentiel d’impact sur l’économie et la sécurité nationale.
Le chef de cabinet de la Maison Blanche, Jeff Zients, a rappelé que Biden avait donné à son personnel une directive pour agir de toute urgence sur la question, après avoir considéré la technologie comme une priorité absolue.
“Nous ne pouvons pas avancer au rythme normal du gouvernement”, a déclaré Zients au président démocrate. « Nous devons agir aussi vite, voire plus vite, que la technologie elle-même. »
Selon Biden, le gouvernement a tardé à s’attaquer aux risques liés aux médias sociaux et la jeunesse américaine est désormais aux prises avec des problèmes de santé mentale connexes. L’IA a la capacité positive d’accélérer la recherche sur le cancer, de modéliser les impacts du changement climatique, de stimuler la production économique et d’améliorer les services gouvernementaux, entre autres avantages. Mais cela pourrait aussi fausser les notions fondamentales de vérité. avec de fausses imagesaggravent les inégalités raciales et sociales et fournissent un outil aux escrocs et aux criminels.
L’ordre s’appuie sur engagements volontaires déjà réalisés par des entreprises technologiques. Cela fait partie d’une stratégie plus large qui, selon les responsables de l’administration, inclut également la législation du Congrès et la diplomatie internationale, signe des perturbations déjà causées par l’introduction de nouveaux outils d’IA tels que ChatGPT, capables de générer de nouveaux textes, images et sons.
En utilisant la loi sur la production de défense, l’ordonnance obligera les principaux développeurs d’IA à partager les résultats des tests de sécurité et d’autres informations avec le gouvernement. L’Institut national des normes et de la technologie doit créer des normes pour garantir que les outils d’IA sont sûrs et sécurisés avant leur diffusion publique.
Le ministère du Commerce doit publier des directives pour étiqueter et filigraner le contenu généré par l’IA afin de permettre de différencier les interactions authentiques de celles générées par un logiciel. L’ordonnance touche également des questions de vie privée, de droits civils, de protection des consommateurs, de recherche scientifique et de droits des travailleurs.
Un responsable de l’administration qui a présenté l’ordre lors d’un appel dimanche avec des journalistes a déclaré que les listes de tâches contenues dans l’ordre seraient mises en œuvre et exécutées sur une période de 90 à 365 jours, les éléments de sûreté et de sécurité étant confrontés aux délais les plus rapprochés. Le responsable a informé les journalistes sous couvert d’anonymat, comme l’exige la Maison Blanche.
Jeudi dernier, Biden a réuni ses collaborateurs dans le Bureau Ovale pour examiner et finaliser le décret, une réunion de 30 minutes qui s’est étendue à 70 minutes, malgré d’autres questions urgentes, notamment la fusillade de masse dans le Maine, la guerre entre Israël et le Hamas et la sélection de un nouveau président de la Chambre.
Biden était profondément curieux de connaître la technologie au cours des mois de réunions qui ont conduit à la rédaction de l’ordonnance. Son conseil consultatif scientifique s’est concentré sur l’IA lors de deux réunions et son cabinet en a discuté lors de deux réunions. Le président a également insisté auprès des dirigeants du secteur technologique et des défenseurs de la société civile sur les capacités de la technologie lors de plusieurs rassemblements.
“Il était aussi impressionné et alarmé que n’importe qui”, a déclaré le chef de cabinet adjoint de la Maison Blanche, Bruce Reed, dans une interview. « Il a vu de fausses images d’IA de lui-même, de son chien. Il a vu à quel point cela peut faire de la mauvaise poésie. Et il a vu et entendu la technologie incroyable et terrifiante du clonage de la voix, qui peut prendre trois secondes de votre voix et la transformer en une fausse conversation.
La possibilité de fausses images et de faux sons a conduit le président à donner la priorité à l’étiquetage et au filigrane de tout ce qui est produit par l’IA. Biden voulait également contrecarrer le risque que les Américains plus âgés reçoivent un appel téléphonique de quelqu’un qui ressemble à un être cher, pour ensuite se faire arnaquer par un outil d’IA.
Les réunions pourraient aller au-delà du calendrier prévu, Biden déclarant aux défenseurs de la société civile dans une salle de bal de l’hôtel Fairmont de San Francisco en juin : « C’est important. Prenez le temps dont vous avez besoin.
Le président s’est également entretenu avec des scientifiques et a constaté les avantages que l’IA créait si elle était exploitée à bon escient. Il a écouté un physicien lauréat du prix Nobel expliquer comment l’IA pourrait expliquer les origines de l’univers. Un autre scientifique a montré comment l’IA pouvait modéliser des conditions météorologiques extrêmes comme des inondations centennales, car les données passées utilisées pour évaluer ces événements ont perdu de leur précision en raison du changement climatique.
La question de l’IA était apparemment incontournable pour Biden. Un week-end à Camp David, il s’est détendu en regardant le film de Tom Cruise « Mission : Impossible – Dead Reckoning Part One ». Le méchant du film est une IA sensible et voyou connue sous le nom de « l’Entité » qui coule un sous-marin et tue son équipage dans les premières minutes du film.
“S’il ne s’était pas déjà préoccupé de ce qui pourrait mal se passer avec l’IA avant ce film, il voyait bien d’autres raisons de s’inquiéter”, a déclaré Reed, qui a regardé le film avec le président.
Avec le Congrès encore au début de débat sur les garanties de l’IA, l’ordre de Biden met en avant la perspective américaine alors que les pays du monde entier se précipitent pour établir leurs propres lignes directrices.
Après plus de deux ans de délibérations, l’Union européenne met la touche finale à un ensemble complet de réglementations qui cible les applications les plus risquées de la technologie. La Chine, un rival majeur des États-Unis en matière d’IA, a également fixé certaines règles.
Le Premier ministre britannique Rishi Sunak espère également donner à la Grande-Bretagne un rôle de premier plan en tant que centre de sécurité de l’IA lors d’un sommet cette semaine organisé par la vice-présidente Kamala Harris. envisage d’assister. Et lundi, les responsables du Groupe des Sept grands pays industrialisés ont convenu d’un ensemble de principes de sécurité en matière d’IA et d’un code de conduite volontaire pour les développeurs d’IA.
Les États-Unis, en particulier sur leur côte ouest, abritent de nombreux développeurs de technologies d’IA de pointe, notamment les géants de la technologie Google, Meta et Microsoft, ainsi que des startups axées sur l’IA telles qu’OpenAI, fabricant de ChatGPT. La Maison Blanche a profité du poids de l’industrie plus tôt cette année lorsqu’elle a obtenu l’engagement de ces entreprises à mettre en œuvre des mécanismes de sécurité lors de la construction de nouveaux modèles d’IA.
Mais la Maison Blanche a également fait face à d’importantes pressions de la part de ses alliés démocrates, notamment des groupes syndicaux et de défense des droits civiques, pour s’assurer que ses politiques reflètent leurs préoccupations concernant les méfaits réels de l’IA.
L’Union américaine des libertés civiles fait partie des groupes qui ont rencontré la Maison Blanche pour tenter de garantir que « nous tenons l’industrie technologique et les milliardaires technologiques pour responsables » afin que les outils algorithmiques « fonctionnent pour nous tous et pas seulement pour quelques-uns », a déclaré ReNika Moore, directrice du programme de justice raciale de l’ACLU.
Suresh Venkatasubramanian, un ancien responsable de l’administration Biden qui a contribué à l’élaboration des principes d’approche de l’IA, a déclaré que l’un des plus grands défis au sein du gouvernement fédéral était de savoir quoi faire concernant l’utilisation des outils d’IA par les forces de l’ordre, y compris aux frontières américaines.
“Ce sont tous des endroits où nous savons que l’utilisation de l’automatisation est très problématique, avec la reconnaissance faciale et la technologie des drones”, a déclaré Venkatasubramanian. Il a été démontré que la technologie de reconnaissance faciale fonctionne de manière inégale selon les groupes raciaux et a été lié à des arrestations erronées.
La défenseure des droits numériques Alexandra Reese Givens, présidente du Center for Democracy & Technology, s’est déclarée heureuse que l’administration Biden se soit concentrée à la fois sur les risques émergents des nouveaux systèmes d’IA et sur « les nombreuses façons dont les systèmes d’IA ont déjà un impact sur les droits des personnes » en les lieux de travail, le logement, l’éducation et l’administration des prestations gouvernementales.