SACRAMENTO, Californie — Le gouverneur de Californie, Gavin Newsom, a opposé son veto à un projet de loi historique visant à créer le premier pays du pays. mesures de sécurité pour les grands modèles d’intelligence artificielle dimanche.
Cette décision constitue un coup dur porté aux efforts visant à freiner une industrie locale qui évolue rapidement sans aucune surveillance. Le projet de loi aurait établi certaines des premières réglementations sur les modèles d’IA à grande échelle dans le pays et aurait ouvert la voie à des réglementations sur la sécurité de l’IA dans tout le pays, ont déclaré ses partisans.
Plus tôt ce mois-ci, le gouverneur démocrate a déclaré lors d’un auditoire à Dreamforce, une conférence annuelle organisée par le géant du logiciel Salesforce, que la Californie devait prendre la tête de la réglementation de l’IA face à l’inaction fédérale, mais que la proposition « peut avoir un effet dissuasif sur l’industrie. »
La proposition, qui a suscité une opposition farouche de la part des startups, des géants de la technologie et de plusieurs membres démocrates de la Chambre, aurait pu nuire à l’industrie locale en établissant des exigences rigides, a déclaré Newsom.
« Bien que bien intentionné, le SB 1047 ne tient pas compte du fait qu’un système d’IA soit déployé dans des environnements à haut risque, implique une prise de décision critique ou l’utilisation de données sensibles », a déclaré Newsom dans un communiqué. « Au lieu de cela, le projet de loi s’applique. des normes strictes, même pour les fonctions les plus élémentaires, à condition qu’un grand système les déploie. Je ne pense pas que ce soit la meilleure approche pour protéger le public des menaces réelles posées par la technologie.
Newsom a plutôt annoncé dimanche que l’État s’associerait à plusieurs experts du secteur, dont un pionnier de l’IA. Fei Fei Lipour développer des garde-fous autour de modèles d’IA puissants. Li s’est opposé à la proposition de sécurité de l’IA.
La mesure, visant à réduire les risques potentiels créés par l’IA, aurait obligé les entreprises à tester leurs modèles et à divulguer publiquement leurs protocoles de sécurité pour empêcher que les modèles ne soient manipulés pour, par exemple, anéantir le réseau électrique de l’État ou aider à fabriquer des armes chimiques. Les experts affirment que ces scénarios pourraient être possibles à l’avenir, à mesure que l’industrie continue de progresser rapidement. Cela aurait également fourni aux travailleurs une protection contre les dénonciateurs.
L’auteur du projet de loi, le sénateur démocrate Scott Weiner, a qualifié le veto de « revers pour tous ceux qui croient en la surveillance des grandes entreprises qui prennent des décisions critiques qui affectent la sécurité et le bien-être du public et l’avenir de la planète ».
« Les entreprises qui développent des systèmes d’IA avancés reconnaissent que les risques que ces modèles présentent au public sont réels et augmentent rapidement. Même si les grands laboratoires d’IA ont pris des engagements admirables pour surveiller et atténuer ces risques, la vérité est que les engagements volontaires de l’industrie ne sont pas exécutoires et fonctionnent rarement bien pour le public », a déclaré Wiener dans un communiqué dimanche après-midi.
Wiener a déclaré que le débat autour du projet de loi avait considérablement fait progresser la question de la sécurité de l’IA et qu’il continuerait à insister sur ce point.
La législation fait partie une foule de factures adopté par la législature cette année pour réglementer l’IA, combattre les deepfakes et protéger les travailleurs. Les législateurs de l’État ont déclaré que la Californie devait prendre des mesures cette année, citant les dures leçons qu’ils ont tirées de leur incapacité à maîtriser les sociétés de médias sociaux alors qu’elles en avaient peut-être l’occasion.
Les partisans de la mesure, dont Elon Musk et Anthropic, ont déclaré que la proposition aurait pu injecter un certain niveau de transparence et de responsabilité autour des modèles d’IA à grande échelle, car les développeurs et les experts affirment qu’ils n’ont toujours pas une compréhension complète du comportement des modèles d’IA et pourquoi.
Le projet de loi ciblait les systèmes qui nécessitent un niveau élevé de puissance de calcul et plus de 100 millions de dollars construire. Aucun modèle d’IA actuel n’a atteint ce seuil, mais certains experts estiment que cela pourrait changer au cours de la prochaine année.
« Cela est dû à l’augmentation massive des investissements au sein de l’industrie », a déclaré Daniel Kokotajlo, un ancien chercheur d’OpenAI qui a démissionné en avril en raison de ce qu’il considère comme le mépris de l’entreprise pour les risques liés à l’IA. « Cela représente un pouvoir fou que de confier le contrôle d’une entreprise privée de manière inexplicable, et c’est aussi incroyablement risqué. »
Les États-Unis sont déjà en retard L’Europe dans la régulation de l’IA pour limiter les risques. La proposition californienne n’était pas aussi complète que la réglementation européenne, mais elle aurait été une bonne première étape pour mettre en place des garde-fous autour de la technologie en croissance rapide qui suscite des inquiétudes en matière de perte d’emploi, de désinformation, d’invasions de la vie privée et biais d’automatisationont déclaré les partisans.
Un certain nombre de grandes entreprises d’IA l’année dernière volontairement accepté suivre les garanties fixées par la Maison Blanche, telles que tester et partager des informations sur leurs modèles. Le projet de loi californien aurait obligé les développeurs d’IA à suivre des exigences similaires à ces engagements, ont déclaré les partisans de la mesure.
Mais les critiques, dont l’ancienne présidente de la Chambre des représentants Nancy Pelosi, ont fait valoir que le projet de loi « tuerait la technologie californienne » et étoufferait l’innovation. Cela aurait découragé les développeurs d’IA d’investir dans de grands modèles ou de partager des logiciels open source, ont-ils déclaré.
La décision de Newsom d’opposer son veto au projet de loi marque une autre victoire en Californie pour les grandes entreprises technologiques et les développeurs d’IA, dont beaucoup ont passé l’année dernière à faire pression aux côtés de la Chambre de commerce de Californie pour dissuader le gouverneur et les législateurs de faire progresser la réglementation de l’IA.
Deux autres propositions radicales en matière d’IA, qui se sont également heurtées à une opposition croissante de la part de l’industrie technologique et d’autres, ont été abandonnées avant l’échéance législative du mois dernier. Les projets de loi auraient obligé les développeurs d’IA à étiqueter le contenu généré par l’IA et interdire la discrimination dans les outils d’IA utilisé pour prendre des décisions en matière d’emploi.
Le gouverneur a déclaré plus tôt cet été qu’il souhaitait protéger le statut de la Californie en tant que leader mondial de l’IA, soulignant que 32 des 50 plus grandes entreprises mondiales d’IA sont situées dans cet État.
Il a fait de la Californie l’un des premiers États à adopter pourrait bientôt déployer des outils d’IA générative pour lutter contre la congestion routière, fournir des conseils fiscaux et rationaliser les programmes de lutte contre les sans-abri. L’État a également annoncé le mois dernier un partenariat volontaire avec le géant de l’IA Nvidia pour aider à former des étudiants, des professeurs d’université, des développeurs et des data scientists. La Californie envisage également de nouvelles règles contre la discrimination liée à l’IA dans les pratiques d’embauche.
Plus tôt ce mois-ci, Newsom a signé certaines des lois les plus strictes du pays pour réprimer deepfakes électoraux et des mesures pour protéger les travailleurs d’Hollywood d’une utilisation non autorisée de l’IA.
Mais même avec le veto de Newsom, la proposition californienne en matière de sécurité incite les législateurs d’autres États à prendre des mesures similaires, a déclaré Tatiana Rice, directrice adjointe du Future of Privacy Forum, une organisation à but non lucratif qui travaille avec les législateurs sur des propositions en matière de technologie et de confidentialité.
« Ils vont potentiellement le copier ou faire quelque chose de similaire lors de la prochaine session législative », a déclaré Rice. « Donc ça ne va pas disparaître. »
—-
L’Associated Press et OpenAI ont un accord de licence et de technologie qui permet à OpenAI d’accéder à une partie des archives de texte d’AP.