Le ministre de l’Intérieur s’associe aux grandes technologies pour lutter contre les images d’abus sexuels sur enfants par l’IA
Les géants de la technologie, dont Tiktok, Snapchat et Stability AI, ont tous signé un engagement s’engageant à lutter contre la hausse méprisable des images d’abus sexuels sur enfants générées par l’IA lors d’un événement organisé aujourd’hui (30 octobre) par la ministre de l’Intérieur, Suella Braverman.
Des organisations caritatives, des entreprises technologiques, des universitaires et des représentants de gouvernements internationaux se sont tous réunis pour réfléchir à la manière de lutter contre la menace de matériel d’abus sexuel sur des enfants généré par l’intelligence artificielle (IA) après que les données de l’Internet Watch Foundation (IWF) ont montré que des milliers d’images illustrant les pires Ce type d’abus peut être trouvé sur le dark web et est suffisamment réaliste pour être traité comme de véritables images en vertu de la loi britannique.
Lors de l’événement, organisé en partenariat avec l’IWF et qui se déroule en amont du Sommet gouvernemental sur la sécurité de l’IA, le ministre de l’Intérieur s’est adressé aux participants, dont beaucoup se sont réunis pour signer une déclaration s’engageant à coopérer pour atténuer la propagation de l’IA. généré des images représentant des enfants victimes de maltraitance.
Le gouvernement étudie également la possibilité d’investir davantage dans l’utilisation de l’IA pour lutter contre les abus sexuels sur enfants, et continuera d’examiner les options potentielles d’innovation pour lutter contre la menace que représentent les contenus d’abus sexuels sur enfants générés par l’IA.
La ministre de l’Intérieur, Suella Braverman, a déclaré :
« Les images d’abus sexuels sur enfants générées par l’IA sont un fléau en ligne. C’est pourquoi les géants de la technologie doivent travailler aux côtés des forces de l’ordre pour freiner leur propagation. Les images sont générées par ordinateur mais elles montrent souvent de vraies personnes – c’est dépravé et cela détruit des vies.
« La vitesse à laquelle ces images se sont propagées en ligne est choquante et c’est pourquoi nous avons réuni un groupe aussi large d’organisations pour s’attaquer de front à ce problème. Nous ne pouvons pas laisser cela continuer sans contrôle.
L’IWF a averti que la disponibilité accrue de ces images non seulement pose un risque réel pour le public en normalisant la violence sexuelle contre les enfants, mais que certaines images sont également basées sur des enfants qui sont apparus dans de « vrais » matériels d’abus sexuels sur des enfants dans le passé. Cela signifie que des survivants innocents d’abus traumatisants sont à nouveau victimisés.
L’augmentation du nombre d’images générées par l’IA pourrait également ralentir la tâche des forces de l’ordre dans la recherche et l’identification des victimes d’abus sexuels sur enfants, ainsi que dans la détection des délinquants et leur traduction en justice.
Les signataires de la déclaration commune, parmi lesquels des géants de la technologie comme TikTok, Snapchat et Stability AI, se sont engagés à soutenir « l’innovation technique autour de la lutte contre les abus sexuels sur enfants à l’ère de l’IA ». La déclaration affirme que l’IA doit être développée « d’une manière qui soit pour le bien commun de la protection des enfants contre les abus sexuels dans toutes les nations ».
Les statistiques publiées par l’IWF la semaine dernière ont montré qu’en un seul mois, ils ont enquêté sur plus de 11 000 images d’IA qui avaient été partagées sur un forum sur la maltraitance des enfants sur le Dark Web. Il a été confirmé que près de 3 000 de ces images enfreignaient la loi britannique, ce qui signifie qu’elles montraient des abus sexuels sur des enfants.
Certaines images sont basées sur des célébrités, que l’IA a « vieillies » et qui sont ensuite représentées en train d’être maltraitées. Il existe même des images basées sur des images d’enfants tout à fait inoffensives publiées en ligne, que l’IA a pu « nudifier ».
Susie Hargreaves OBE, directrice générale de l’IWF, a déclaré :
« Nous avons tiré la sonnette d’alarme pour la première fois en juillet. En quelques mois, nous avons vu se réaliser toutes nos pires craintes concernant l’IA.
« Le réalisme de ces images est stupéfiant et ne cesse de s’améliorer. La majorité de ce que nous voyons est maintenant si réel et si grave qu’il faudrait le traiter exactement comme s’il s’agissait d’images réelles en vertu de la loi britannique.
« Il est essentiel, dès maintenant, de donner l’exemple et d’éradiquer les abus liés à cette technologie émergente avant qu’elle n’ait la chance de s’implanter pleinement. Cela pose déjà des défis importants. Il est formidable de voir le premier ministre reconnaître la menace posée par la création d’images d’abus sexuels sur des enfants dans son discours de la semaine dernière après la publication de notre rapport.
« Nous sommes ravis que le gouvernement ait écouté nos appels pour en faire une priorité internationale majeure avant le sommet sur l’IA, et sommes reconnaissants au ministre de l’Intérieur d’avoir convoqué un débat aussi approfondi. »
Chris Farrimond, directeur du leadership en matière de menaces à la National Crime Agency (NCA), a déclaré :
« Nous commençons à voir des images et des vidéos réalistes d’abus sexuels sur des enfants créées à l’aide de l’intelligence artificielle, et une croissance exponentielle du nombre de délinquants discutant de la manière de l’utiliser pour générer des images de vrais enfants.
« Nous savons qu’à mesure que les technologies de l’IA évoluent et sont plus largement appliquées, elles créeront des opportunités pour les délinquants. Mais il y aura également de nouvelles opportunités pour les forces de l’ordre et les plateformes technologiques de prendre des mesures pour protéger les enfants et faciliter l’identification de leurs agresseurs.
« C’est pourquoi la NCA réunira des partenaires internationaux des forces de l’ordre et de l’industrie au sein du Virtual Global TaskForce à Washington le mois prochain. Il est essentiel que toute notre créativité, nos compétences et nos ressources combinées soient utilisées pour protéger les plus vulnérables.
« Nous estimons qu’il y a entre 680 000 et 830 000 adultes au Royaume-Uni (1,3 % à 1,6 % de la population adulte) qui présentent un certain degré de risque sexuel pour les enfants. C’est pourquoi la lutte contre les abus sexuels sur enfants est une priorité pour la NCA et nos services de police. les partenaires. Nous enquêterons et poursuivrons les individus qui créent, partagent, possèdent, accèdent ou visualisent du matériel d’abus sexuel sur enfants généré par l’IA de la même manière que si l’image était celle d’un véritable enfant.
Sir Peter Wanless, directeur général de la NSPCC, a déclaré :
« L’IA se développe à une telle vitesse qu’il est vital que la sécurité des enfants soit prise en compte explicitement et non comme une réflexion secondaire à la suite d’une tragédie évitable.
« Nous constatons déjà que les images d’abus sur enfants générées par l’IA ont un impact horrible sur les enfants, traumatisant et traumatisant à nouveau les victimes qui voient des images à leur image créées et partagées. Cette technologie offre aux délinquants de nouvelles façons de s’organiser et risque d’améliorer leur capacité à préparer facilement un grand nombre de victimes.
« Il était important de mettre la sécurité des enfants à l’ordre du jour aujourd’hui. Une collaboration internationale et intersectorielle plus poussée sera cruciale pour parvenir à la sécurité dès la conception.
Le gouvernement reconnaît également que l’IA peut être un outil puissant pour le bien et le ministre de l’Intérieur a souligné lors de l’événement que l’IA offre également des opportunités pour améliorer la manière dont nous luttons contre les abus sexuels sur enfants. En collaboration avec la police et d’autres partenaires, le ministère de l’Intérieur a développé la base de données d’images d’abus sexuels sur enfants (CAID), de renommée mondiale, qui utilise déjà l’IA pour évaluer la gravité des images d’abus sexuels sur des enfants.
L’outil d’IA aide les policiers à trier de gros volumes de données à un rythme plus rapide, faisant remonter certaines images à la surface sur lesquelles l’agent peut se concentrer pour faciliter les enquêtes. Cela permet aux agents d’identifier et de protéger plus rapidement les enfants, ainsi que d’identifier les délinquants. Ces outils contribuent également au bien-être des agents, car ils réduisent l’exposition prolongée à ces images. D’autres outils sont également en cours de développement qui utiliseront l’IA pour protéger les enfants et identifier plus rapidement les auteurs de violences.
Même si les opportunités offertes dans ce domaine sont prometteuses, l’IA progresse beaucoup plus rapidement que quiconque aurait pu l’imaginer.
Sans mesures de sécurité appropriées qui suivent son développement, cette technologie présente toujours des risques importants, et c’est pourquoi le ministre de l’Intérieur met l’accent sur une collaboration constructive avec un large éventail de partenaires pour atténuer ces risques et, en fin de compte, protéger le public.
Cette semaine, le Royaume-Uni accueille début novembre le tout premier grand sommet mondial sur la sécurité de l’IA à Bletchley Park.
Le sommet dynamisera l’action mondiale en faveur du développement sûr et responsable de l’IA de pointe dans le monde – en réunissant des pays clés, des entreprises technologiques, des chercheurs et des groupes de la société civile.