SACRAMENTO, Californie — Le gouverneur de Californie, Gavin Newsom, a signé dimanche deux propositions visant à protéger les mineurs contre l’utilisation abusive de plus en plus répandue des outils d’intelligence artificielle pour générer des images sexuelles préjudiciables d’enfants.
Ces mesures font partie des efforts concertés de la Californie pour renforcer la réglementation du secteur des marques de luxe, qui affecte de plus en plus la vie quotidienne des Américains, mais qui fait l’objet de peu ou pas de surveillance aux États-Unis.
Plus tôt ce mois-ci, Newsom a également signé certaines des lois les plus strictes pour lutter contre les deepfakes électorauxmême si les lois sont être mis au défi au tribunal. La Californie est largement considérée comme un leader potentiel dans la réglementation de l’industrie de l’IA aux États-Unis.
Les nouvelles lois, qui ont reçu un soutien bipartisan massif, comblent une lacune juridique autour des images d’abus sexuels sur enfants générées par l’IA et indiquent clairement que la pédopornographie est illégale même si elle est générée par l’IA.
La loi actuelle n’autorise pas les procureurs de district à poursuivre les personnes qui possèdent ou distribuent des images d’abus sexuels sur enfants générées par l’IA s’ils ne peuvent pas prouver que ces documents représentent une personne réelle, ont déclaré les partisans de l’association. Selon les nouvelles lois, une telle infraction serait considérée comme un crime.
« La création, la possession et la distribution de matériel d’abus sexuel sur des enfants doivent être illégales en Californie, que les images soient générées par l’IA ou par de vrais enfants », a déclaré dans un communiqué Marc Berman, membre de l’Assemblée démocrate et auteur de l’un des projets de loi. est utilisé pour créer ces images horribles. Il est formé à partir de milliers d’images d’enfants réels maltraités, revictimisant à nouveau ces enfants.
Newsom a également signé plus tôt ce mois-ci deux autres projets de loi visant à renforcer les lois sur la vengeance pornographique dans le but de protéger davantage de femmes, d’adolescentes et d’autres personnes contre l’exploitation et le harcèlement sexuels rendus possibles par les outils d’IA. Il sera désormais illégal pour un adulte de créer ou de partager des deepfakes sexuellement explicites d’une personne générés par l’IA sans son consentement, en vertu des lois de l’État. Les plateformes de médias sociaux sont également tenues de permettre aux utilisateurs de signaler la suppression de ces contenus.
Mais certaines lois ne vont pas assez loin, a déclaré le procureur du comté de Los Angeles, George Gascón, dont le bureau a parrainé certaines des propositions. Gascón a déclaré que les nouvelles sanctions pour partage de porno vengeance généré par l’IA auraient dû également inclure les personnes de moins de 18 ans. La mesure a été restreinte par les législateurs des États le mois dernier pour s’appliquer uniquement aux adultes.
« Il doit y avoir des conséquences, vous n’obtenez pas de laissez-passer parce que vous avez moins de 18 ans », a déclaré Gascón dans une récente interview.
Les lois interviennent après que San Francisco ait intenté une première action en justice au pays contre plus d’une douzaine de sites Web ces outils d’IA avec la promesse de « déshabiller n’importe quelle photo » téléchargée sur le site Web en quelques secondes.
Le problème des deepfakes n’est pas nouveau, mais les experts affirment qu’il s’aggrave à mesure que la technologie permettant de les produire devient plus accessible et plus facile à utiliser. Les chercheurs ont tiré la sonnette d’alarme ces deux dernières années face à l’explosion de matériels d’abus sexuels sur enfants générés par l’IA et utilisant des représentations de victimes réelles ou de personnages virtuels.
En mars, un district scolaire de Beverly Hills a expulsé cinq collégiens pour créer et partager de faux nus de leurs camarades de classe.
Ce problème a suscité des actions bipartites rapides dans près de 30 États pour contribuer à lutter contre la prolifération de matériels sexuellement abusifs générés par l’IA. Certaines d’entre elles prévoient une protection pour tous, tandis que d’autres interdisent uniquement les documents représentant des mineurs.
Newsom a présenté la Californie comme l’un des premiers à adopter et régulateur de la technologie de l’IA, affirmant que l’État pourrait bientôt déployer des outils d’IA générative pour lutter contre la congestion routière et fournir des conseils fiscaux, même si son administration considère nouvelles règles contre la discrimination liée à l’IA dans les pratiques d’embauche.