Les iPhones d’Apple incluront de nouveaux outils pour signaler les abus sexuels sur les enfants

Apple a dévoilé jeudi des modifications apportées aux iPhones conçues pour détecter les cas d’abus sexuels sur des enfants, une décision qui devrait plaire aux parents et à la police, mais qui inquiétait déjà les chiens de garde de la vie privée.

Plus tard cette année, les iPhones commenceront à utiliser une technologie complexe pour repérer les images d’abus sexuels sur des enfants, communément appelées pédopornographie, que les utilisateurs téléchargent sur le service de stockage iCloud d’Apple, a indiqué la société. Apple a également déclaré qu’il permettrait bientôt aux parents d’activer une fonctionnalité qui peut signaler lorsque leurs enfants envoient ou reçoivent des photos nues dans un message texte.

Apple a déclaré avoir conçu les nouvelles fonctionnalités de manière à protéger la vie privée des utilisateurs, notamment en veillant à ce qu’Apple ne voie ou ne découvre jamais les images nues échangées dans les messages texte d’un enfant. L’analyse est effectuée sur l’appareil de l’enfant et les notifications sont envoyées uniquement aux appareils des parents. Apple a fourni des citations de certains experts en cybersécurité et groupes de sécurité des enfants qui ont loué l’approche de l’entreprise.

D’autres experts en cybersécurité étaient toujours concernés. Matthew D. Green, professeur de cryptographie à l’Université Johns Hopkins, a déclaré que les nouvelles fonctionnalités d’Apple créaient un dangereux précédent en créant une technologie de surveillance que les forces de l’ordre ou les gouvernements pourraient exploiter.

« Ils vendent la confidentialité au monde et incitent les gens à faire confiance à leurs appareils », a déclaré M. Green. « Mais maintenant, ils capitulent essentiellement devant les pires exigences possibles de chaque gouvernement. Je ne vois pas comment ils vont dire non à partir de maintenant.

Les mesures d’Apple font suite à une enquête menée en 2019 par le New York Times qui a révélé un monde criminel mondial qui exploitait les efforts défectueux et insuffisants pour freiner l’explosion d’images d’abus sexuels sur des enfants. L’enquête a révélé que de nombreuses entreprises technologiques n’avaient pas correctement surveillé leurs plates-formes et que la quantité de ce contenu augmentait considérablement.

Bien que le matériel soit antérieur à Internet, des technologies telles que les caméras de smartphone et le stockage en nuage ont permis de partager plus largement les images. Certaines images circulent depuis des années, continuant à traumatiser et à hanter les personnes représentées.

Mais les critiques mitigées des nouvelles fonctionnalités d’Apple montrent la mince ligne que les entreprises technologiques doivent franchir entre aider à la sécurité publique et garantir la confidentialité des clients. Pendant des années, les responsables de l’application des lois se sont plaints que des technologies telles que le cryptage des smartphones avaient entravé les enquêtes criminelles, tandis que les dirigeants techniques et les experts en cybersécurité ont fait valoir qu’un tel cryptage est crucial pour protéger les données et la vie privée des personnes.

Dans l’annonce de jeudi, Apple a tenté d’enfiler cette aiguille. Il a déclaré qu’il avait développé un moyen d’aider à éliminer les prédateurs d’enfants qui ne compromettait pas la sécurité de l’iPhone.

Pour repérer le matériel d’abus sexuel d’enfants, ou CSAM, téléchargé sur iCloud, les iPhones utiliseront une technologie appelée hachage d’image, a déclaré Apple. Le logiciel réduit une photo à un ensemble unique de nombres – une sorte d’empreinte digitale d’image.

Le système d’exploitation de l’iPhone stockera bientôt une base de données de hachages de matériel d’abus sexuel d’enfants connus fourni par des organisations comme le National Center for Missing & Exploited Children, et il exécutera ces hachages contre les hachages de chaque photo dans l’iCloud d’un utilisateur pour voir s’il y a est une correspondance.

Une fois qu’il y aura un certain nombre de correspondances, les photos seront montrées à un employé d’Apple pour s’assurer qu’il s’agit bien d’images d’abus sexuels sur des enfants. Si tel est le cas, ils seront transmis au National Center for Missing & Exploited Children, et le compte iCloud de l’utilisateur sera verrouillé.

Apple a déclaré que cette approche signifiait que les personnes sans matériel d’abus sexuel d’enfants sur leurs téléphones ne verraient pas leurs photos vues par Apple ou les autorités.

« Si vous stockez une collection de matériel CSAM, oui, c’est mauvais pour vous », a déclaré Erik Neuenschwander, responsable de la confidentialité d’Apple. « Mais pour le reste d’entre vous, ce n’est pas différent. »

Le système d’Apple ne scanne pas les vidéos téléchargées sur iCloud même si les contrevenants utilisent ce format depuis des années. En 2019, pour la première fois, le nombre de vidéos signalées au centre national a dépassé celui de photos. Le centre reçoit souvent plusieurs rapports pour le même contenu.

La loi américaine oblige les entreprises technologiques à signaler les cas d’abus sexuels sur des enfants aux autorités. Apple a historiquement signalé moins de cas que les autres entreprises. L’année dernière, par exemple, Apple a signalé 265 cas au Centre national pour les enfants disparus et exploités, tandis que Facebook en a signalé 20,3 millions, selon les statistiques du centre. Cet énorme écart est dû en partie à la décision d’Apple de ne pas rechercher ce type de matériel, invoquant la confidentialité de ses utilisateurs.

L’autre fonctionnalité d’Apple, qui numérise les photos dans les messages texte, ne sera disponible que pour les familles possédant des comptes Apple iCloud communs. Si les parents l’activent, l’iPhone de leur enfant analysera chaque photo reçue ou envoyée dans un message texte pour déterminer si elle inclut de la nudité. Les photos de nu envoyées à un enfant seront floutées et l’enfant devra choisir de les voir ou non. Si les enfants de moins de 13 ans choisissent de voir ou d’envoyer une photo nue, leurs parents en seront informés.

M. Green a déclaré qu’il craignait qu’un tel système ne fasse l’objet d’abus car il montrait aux forces de l’ordre et aux gouvernements qu’Apple disposait désormais d’un moyen de signaler certains contenus sur un téléphone tout en maintenant son cryptage. Apple a déjà fait valoir aux autorités que le cryptage l’empêchait de récupérer certaines données.

« Que se passe-t-il lorsque d’autres gouvernements demandent à Apple de l’utiliser à d’autres fins ? » M. Green a demandé. « Que va dire Apple ? »

M. Neuenschwander a rejeté ces préoccupations, affirmant que des garanties étaient en place pour empêcher les abus du système et qu’Apple rejetterait toute demande de ce type d’un gouvernement.

« Nous les informerons que nous n’avons pas construit la chose à laquelle ils pensent », a-t-il déclaré.

Le Times a rapporté cette année qu’Apple avait compromis les données privées de ses utilisateurs chinois en Chine et a censuré de manière proactive les applications dans le pays en réponse aux pressions du gouvernement chinois.

Hany Farid, professeur d’informatique à l’Université de Californie à Berkeley, qui a contribué au développement des premières technologies de hachage d’images, a déclaré que tous les risques possibles dans l’approche d’Apple valaient la sécurité des enfants.

« Si des garanties raisonnables sont mises en place, je pense que les avantages l’emporteront sur les inconvénients », a-t-il déclaré.

Michael H. Keller et Gabriel JX Danse rapports contribués.

Toutes les actualités du site n'expriment pas le point de vue du site, mais nous transmettons cette actualité automatiquement et la traduisons grâce à une technologie programmatique sur le site et non à partir d'un éditeur humain.

Comments