Actualité politique | News 24

Les législateurs américains veulent agir rapidement pour réglementer les modèles d’IA « à haut risque »

NOUS sénateur Richard Blumenthal souhaite créer un nouveau régime de licence indépendant pour déterminer qui peut développer des modèles d’intelligence artificielle « à haut risque ». Et il veut aller vite, en espérant faire adopter une nouvelle législation d’ici fin 2023.

Blumenthalun démocrate, et son républicain co-sponsor Josh Hawley ne sont pas les seuls à réclamer un nouveau régime de licences. C’est également l’espoir de certains grands leaders de l’industrie de l’IA.

Le président de Microsoft, Brad Smith, a manifesté son soutien lors d’une audience du Comité judiciaire du Sénat aujourd’hui (12 septembre). Smith a qualifié les licences d’« indispensables » dans les scénarios à haut risque, mais il a reconnu qu’elles ne résoudraient pas tous les problèmes. « Vous ne pouvez pas conduire une voiture avant d’avoir obtenu un permis », a déclaré Smith. « Vous ne pouvez pas rendre le modèle ou l’application disponible tant que vous n’avez pas franchi cette porte. »

Microsoft et Nvidia ont été les dernières entreprises à témoigner à propos de l’IA dans une série d’audiences au Sénat, alors que les législateurs se demandent comment réglementer la technologie en évolution rapide qui alimente ChatGPT d’OpenAI et Bard de Google.

Un cadre bipartisan pour l’IA

L’appel de Smith pour une licence intervient quelques mois après que le PDG d’OpenAI, Sam Altman, a proposé d’accorder une licence à certains développeurs d’IA dans son discours de mai. Témoignage au Congrès. Altman a noté que pas tous les modèles d’IA présentent le même niveau de risque.

« [It’s] Il est important de permettre aux entreprises et aux projets open source de développer des modèles en dessous d’un seuil de capacité significatif » sans être soumis à une réglementation via des licences ou des audits, ont écrit les cofondateurs d’OpenAI dans un communiqué. article de blog. On ne sait pas exactement quels types de modèles d’IA relèvent de cette catégorie.

Blumenthal et Hawley ont proposé le cadre d’IA bipartisan la semaine dernière, qui définit la responsabilité des modèles qui portent atteinte à la vie privée des utilisateurs ou violent les droits civils, exige la divulgation des filigranes sur les deepfakes générés par l’IA et exige des « mesures de sécurité,» y compris en avertissant lorsque l’IA est utilisée pour prendre des décisions.

Où en sont les États-Unis en matière de réglementation de l’IA

Les Etats Unis retards d’autres puissances mondiales lorsqu’il s’agit de réglementer l’IA. L’Union européenne, qui a l’habitude de mettre en œuvre des règles plus strictes pour pratique de confidentialité des données et technologie antitrust que les États-Unis, ont publié leur dernière version du Loi sur l’IA dans Juillet. Cette législation cible une catégorie plus large de systèmes d’IA. L’UE propose de classer les modèles d’IA par risque, les systèmes à plus haut risque étant plus soumis à une plus grande conformité que ceux à faible risque.

Les séances d’écoute du Congrès se poursuivent demain, lorsqu’une douzaine de dirigeants du secteur technologique, dont Elon Musk, Mark Zuckerberg de Meta, OpenAI Altmanet Sundar Pichai de Google, rencontreront les législateurs lors d’un forum sur l’IA à huis clos dirigé par le chef de la majorité au Sénat, Chuck Schumer.

En tant que dirigeants technologiques visite Washington veut convaincre les législateurs de ses idées pour réglementer l’IA, certains les critiques se sont plaints que on leur donne trop d’influence sur les décisions réglementaires importantes.