Le premier projet de loi américain sur la sécurité de l’IA a fait l’objet d’un veto — RT World News
La législation aurait obligé les entreprises technologiques à tester les modèles d’intelligence artificielle avant leur publication.
Le gouverneur de Californie, Gavin Newsom, a opposé son veto à un projet de loi historique sur l’intelligence artificielle qui aurait établi les premières mesures de sécurité pour l’industrie aux États-Unis. Le projet de loi, connu sous le nom de California Senate Bill 104, ou SB 1047, visait à réduire les risques potentiels créés par l’IA.
Le règlement proposé aurait obligé les entreprises technologiques disposant de modèles d’IA puissants à les soumettre à des tests de sécurité avant de les rendre publics, ainsi qu’à divulguer publiquement les protocoles de sécurité des modèles. Cela aurait été fait afin d’empêcher que les modèles soient manipulés pour causer des dommages, comme le piratage d’infrastructures stratégiquement importantes.
Dans un message accompagnant le veto dimanche, le gouverneur a déclaré que même si la proposition était « bien intentionné » il s’est mal concentré sur le « le plus cher et le plus à grande échelle » Les modèles d’IA, tandis que « modèles plus petits et spécialisés » pourrait potentiellement causer encore plus de dégâts. Newsom a également fait valoir que le projet de loi ne prend pas en compte dans quel environnement un système Al est déployé ni s’il implique une prise de décision critique ou l’utilisation de données sensibles.
« Au lieu de cela, le projet de loi applique des normes strictes, même aux fonctions les plus élémentaires… Je ne pense pas que ce soit la meilleure approche pour protéger le public contre les menaces réelles posées par la technologie », » a déclaré le gouverneur. Newsom a souligné qu’il convenait que l’industrie devait être réglementée, mais a appelé à davantage de réglementation. « informé » initiatives basées sur « Analyse empirique de la trajectoire des systèmes et des capacités d’Al. »
« En fin de compte, tout cadre visant à réglementer efficacement l’Al doit suivre le rythme de la technologie elle-même… Compte tenu des enjeux – se protéger contre les menaces réelles sans contrecarrer inutilement la promesse de cette technologie de faire progresser le bien public – nous devons bien faire les choses. » a-t-il conclu.
En tant que gouverneur de Californie, Newsom est considéré comme jouant un rôle important dans le processus naissant de réglementation de l’IA. Selon les chiffres de son bureau, l’État abrite 32 des pays les plus peuplés du monde. « 50 principales entreprises d’IA. »
L’auteur du projet de loi, le sénateur d’État Scott Weiner, a qualifié le veto « un revers » pour ceux qui « croire à la surveillance des grandes entreprises qui prennent des décisions critiques » affectant la sécurité publique. Il s’est engagé à continuer à travailler sur la législation.
Le projet de loi a suscité des réactions mitigées de la part des entreprises technologiques, des chercheurs et des législateurs. Alors que certains y voient un moyen d’ouvrir la voie à une réglementation nationale du secteur, d’autres soutiennent qu’elle pourrait étouffer le développement de l’IA. L’ancienne présidente de la Chambre des représentants des États-Unis, Nancy Pelosi, a salué la proposition « bien intentionné mais mal informé ».
EN SAVOIR PLUS:
McDonald’s abandonne un essai sur l’IA après l’ajout de bacon à la crème glacée – médias
Parallèlement, de nombreux employés de plusieurs grandes sociétés d’IA, telles qu’OpenAI, Anthropic et DeepMind de Google, ont soutenu le projet de loi, car il ajoute des protections aux lanceurs d’alerte pour ceux qui dénoncent les risques liés aux modèles d’IA développés par leurs entreprises.
Vous pouvez partager cette histoire sur les réseaux sociaux :