Un projet de loi sur la sécurité de l’IA est adopté par l’Assemblée législative de Californie
Un projet de loi controversé qui obligerait les développeurs de modèles d’IA avancés à adopter des mesures de sécurité est sur le point de devenir loi.
Le projet de loi, SB 1047, obligerait les développeurs de futurs modèles d’IA avancés à créer des garde-fous pour empêcher que la technologie ne soit utilisée à mauvais escient pour mener des cyberattaques sur des infrastructures critiques telles que des centrales électriques.
Les développeurs devraient soumettre leurs plans de sécurité au procureur général, qui pourrait les tenir responsables si les modèles d’IA qu’ils contrôlent directement causaient un préjudice ou une menace imminente à la sécurité publique.
Le projet de loi, présenté par le sénateur Scott Wiener (D-San Francisco), a été adopté mercredi par l’Assemblée de l’État, avec 41 voix pour et 9 contre. Jeudi, la mesure a été approuvée par le Sénat de l’État lors d’un vote d’approbation. Elle se dirige maintenant vers le bureau du gouverneur Gavin Newsom, bien qu’il ne soit pas clair si Newsom signera ou opposera son veto au projet de loi.
« L’innovation et la sécurité peuvent aller de pair – et la Californie montre la voie », a déclaré Wiener dans un communiqué.
Un porte-parole de Newsom a déclaré que le gouverneur évaluerait le projet de loi lorsqu’il arriverait sur son bureau.
Le projet de loi de Wiener a fait l’objet de débats houleux au sein de la communauté technologique de la Baie de San Francisco. Il a reçu le soutien du Center for AI Safety, du directeur général de Tesla, Elon Musk, du comité de rédaction du LA Times et de la start-up d’intelligence artificielle Anthropic, basée à San Francisco.
Mais cette loi s’est heurtée à l’opposition des dirigeants démocrates du Congrès ainsi que d’éminents acteurs de l’IA, dont Meta et OpenAI, qui se sont inquiétés de savoir si elle pourrait étouffer l’innovation en Californie.
Les dirigeants démocrates du Congrès, dont l’ancienne présidente de la Chambre Nancy Pelosi, le représentant Ro Khanna (D-Fremont) et la représentante Zoe Lofgren (D-San José), se sont également opposés au projet de loi et ont exhorté Newsom à y opposer son veto. Ils affirment que la législation pourrait nuire à l’industrie croissante de l’IA en Californie, qui abrite le créateur de ChatGPT, OpenAI, et citent les efforts déployés par le Congrès en matière d’IA.
« Il existe un risque réel que les entreprises décident de s’implanter dans d’autres juridictions ou simplement de ne pas commercialiser de modèles en Californie », ont écrit Khanna, Lofgren et six autres représentants démocrates du Congrès dans une lettre adressée à Newsom.
« Bien que nous souhaitions que la Californie soit un leader en matière d’IA d’une manière qui protège les consommateurs, les données, la propriété intellectuelle et plus encore, le projet de loi SB 1047 est plus nuisible qu’utile dans cette quête », a déclaré Pelosi dans un communiqué.
Wiener et d’autres législateurs qui soutiennent le projet de loi ne sont pas d’accord, affirmant qu’il favoriserait l’innovation tout en protégeant le public.
« Il faut mettre en place des garde-fous », a déclaré le député Devon Mathis (R-Visalia) avant le vote de l’Assemblée mercredi après-midi. « Nous devons nous assurer qu’ils seront des acteurs responsables. »
Les partisans du projet de loi SB 1047 affirment qu’il oblige les développeurs à être responsables de la sécurité des modèles d’IA avancés sous leur contrôle, ce qui pourrait contribuer à prévenir des événements catastrophiques en matière d’IA à l’avenir.
« Je crains que les entreprises technologiques ne parviennent pas à résoudre par elles-mêmes les risques importants liés à l’IA, car elles sont enfermées dans leur course aux parts de marché et à la maximisation des profits », a déclaré Yoshua Bengio, professeur à l’Université de Montréal et fondateur et directeur scientifique de Mila – Institut québécois d’intelligence artificielle, lors d’un point de presse cette semaine. « Nous ne pouvons tout simplement pas les laisser corriger leurs propres devoirs et espérer que tout se passera bien. »
Les partisans du projet estiment également que l’IA devrait être réglementée de la même manière que d’autres industries qui présentent des risques potentiels pour la sécurité.
« C’est une décision difficile et cela va contrarier certaines personnes, mais, tout bien considéré, je pense que la Californie devrait probablement adopter le projet de loi SB 1047 sur la sécurité de l’IA », a écrit Elon Musk sur X lundi. « Depuis plus de 20 ans, je suis un défenseur de la réglementation de l’IA, tout comme nous réglementons tout produit/technologie qui présente un risque potentiel pour le public. »
Plus tôt ce mois-ci, le projet de loi a été adopté par un comité clé du Sénat de l’État après que Wiener a apporté des modifications importantes, notamment la suppression d’une pénalité pour parjure et la modification de la norme juridique pour les développeurs concernant la sécurité de leurs modèles d’IA avancés.
Le PDG d’Anthropic, une start-up d’intelligence artificielle basée à San Francisco, Dario Amodei, a déclaré dans une lettre adressée à Newsom le 21 août qu’il pensait que les « avantages du projet de loi l’emporteraient probablement sur ses coûts ». La lettre n’approuvait pas le projet de loi mais partageait le point de vue de l’entreprise sur les avantages et les inconvénients.
« Nous voulons être clairs… que le projet de loi SB 1047 répond à des préoccupations réelles et sérieuses concernant les risques catastrophiques des systèmes d’IA », a écrit Amodei. « Les systèmes d’IA progressent extrêmement rapidement en termes de capacités, ce qui offre à la fois de grandes promesses pour l’économie californienne et des risques substantiels. »
Mais certaines entreprises technologiques, dont OpenAI, ont déclaré qu’elles s’opposaient au projet de loi même après les changements.
« Les implications vastes et significatives de l’IA pour la compétitivité et la sécurité nationale des États-Unis nécessitent que la réglementation des modèles frontaliers soit élaborée et mise en œuvre au niveau fédéral », a écrit Jason Kwon, directeur de la stratégie d’OpenAI, dans une lettre adressée à Wiener le 21 août. « Un ensemble de politiques d’IA pilotées par le gouvernement fédéral, plutôt qu’un patchwork de lois étatiques, favorisera l’innovation et positionnera les États-Unis comme chef de file du développement de normes mondiales. »
Wiener a déclaré qu’il accueillerait favorablement une loi fédérale forte sur la sécurité de l’IA qui devance son projet de loi.
« Si l’expérience passée est une indication, la mise en œuvre d’une telle [federal] « La lutte pour la loi sera ardue », a déclaré Wiener dans un communiqué. « En attendant, la Californie devrait continuer à montrer la voie en matière de politiques telles que la SB 1047 qui favorisent l’innovation tout en protégeant le public. »
Le projet de loi SB 1047 fait partie des quelque 50 projets de loi liés à l’IA présentés au Parlement qui abordent divers aspects de l’impact de la technologie sur le public, notamment l’emploi, les deepfakes et la sécurité.