SACRAMENTO, Californie — Le gouverneur de Californie, Gavin Newsom, a signé mardi trois projets de loi visant à réprimer l’utilisation de l’intelligence artificielle pour créer fausses images ou vidéos dans les publicités politiques avant les élections de 2024.
Une nouvelle loi, qui doit entrer en vigueur immédiatement, rend illégale la création et la publication de deepfakes liés aux élections 120 jours avant le jour du scrutin et 60 jours après. Elle permet également aux tribunaux d’arrêter la diffusion de ces documents et d’imposer des sanctions civiles.
« La protection de l’intégrité des élections est essentielle à la démocratie, et il est essentiel de veiller à ce que l’IA ne soit pas déployée pour saper la confiance du public par la désinformation – en particulier dans le climat politique tendu actuel », a déclaré Newsom dans un communiqué. « Ces mesures aideront à lutter contre l’utilisation néfaste des deepfakes dans les publicités politiques et d’autres contenus, l’un des nombreux domaines dans lesquels l’État se montre proactif pour favoriser une IA transparente et digne de confiance. »
Les grandes plateformes de réseaux sociaux sont également tenues de supprimer les contenus trompeurs en vertu d’une loi inédite aux États-Unis qui devrait être promulguée l’année prochaine. Newsom a également signé un projet de loi obligeant les campagnes politiques à divulguer publiquement si elles diffusent des publicités avec des contenus modifiés par l’IA.
Le gouverneur a signé les projets de loi lors d’un événement organisé par Salesforce, une importante société de logiciels, à San Francisco.
Les nouvelles lois réaffirment la position de la Californie en tant que leader dans la réglementation de l’IA aux États-Unis, en particulier dans la lutte contre les deepfakes électoraux. L’État a été le premier aux États-Unis interdire les vidéos et les images manipulées liés aux élections de 2019. Les mesures en matière de technologie et d’IA proposées par les législateurs californiens ont été utilisées comme modèles par les législateurs de tout le pays, ont déclaré des experts du secteur.
L’IA accentue la menace des élections désinformation Partout dans le monde, les législateurs de tout le pays se sont empressés de s’attaquer au problème, craignant que les documents manipulés puissent éroder la confiance du public dans ce qu’ils voient et entendent.
« À moins de 50 jours des élections générales, il est urgent de se protéger contre les contenus trompeurs et modifiés numériquement qui peuvent interférer avec le scrutin », a déclaré dans un communiqué Gail Pellerin, députée et auteure de la loi interdisant les deepfakes électoraux. « La Californie prend position contre l’utilisation manipulatrice de la technologie deepfake pour tromper les électeurs. »
La décision de Newsom a suivi son vœu en juillet pour sévir contre les deepfakes électoraux en réponse à une vidéo publiée par le propriétaire de X, Elon Musk, montrant des images modifiées de la vice-présidente et candidate démocrate à la présidence Kamala Harris.
Les nouvelles lois californiennes arrivent le même jour que celles des membres du Congrès une législation fédérale dévoilée visant à mettre fin aux deepfakes électoraux. Le projet de loi donnerait à Commission électorale fédérale le pouvoir de réglementer l’utilisation de l’IA dans les élections de la même manière qu’elle a réglementé d’autres fausses représentations politiques pendant des décennies. La FEC a commencé à envisager de telles réglementations après avoir mis hors la loi Appels automatisés générés par l’IA visait à décourager les électeurs en février.
Newsom a présenté la Californie comme un des premiers à adopter cette mesure et comme un régulateur, affirmant que l’État pourrait bientôt déployer des outils d’IA générative pour lutter contre la congestion routière et fournir des orientations fiscales, même si son administration envisage nouvelles règles contre la discrimination de l’IA dans les pratiques d’embauche.
Il a également signé mardi deux autres projets de loi pour protéger les artistes d’Hollywood d’une utilisation non autorisée de l’IA contre leur consentement.