Apple rejettera les demandes d’utilisation du système CSAM pour la surveillance

Steve Proehl | Corbis Inédit | Getty Images

Apple a défendu lundi son nouveau système pour analyser iCloud à la recherche de contenus illégaux d’abus sexuels sur des enfants (CSAM) lors d’une controverse en cours sur la question de savoir si le système réduit la confidentialité des utilisateurs d’Apple et pourrait être utilisé par les gouvernements pour surveiller les citoyens.

La semaine dernière, Apple a annoncé avoir commencé à tester un système qui utilise une cryptographie sophistiquée pour identifier quand les utilisateurs téléchargent des collections de pornographie enfantine connue sur son service de stockage en nuage. Il dit qu’il peut le faire sans connaître le contenu des photos d’un utilisateur stockées sur ses serveurs.

Apple a réitéré lundi que son système est plus privé que ceux utilisés par des entreprises comme Google et Microsoft car son système utilise à la fois ses serveurs et ses logiciels fonctionnant sur iPhone.

Les défenseurs de la vie privée et les commentateurs technologiques craignent que le nouveau système d’Apple, qui comprend un logiciel qui sera installé sur les iPhones des gens via une mise à jour iOS, ne soit étendu dans certains pays grâce à de nouvelles lois pour vérifier d’autres types d’images, comme des photos à contenu politique, à la place de la pornographie enfantine uniquement.

Apple a déclaré dans un document publié sur son site Web dimanche que les gouvernements ne peuvent pas l’obliger à ajouter des images non CSAM à une liste de hachage, ou le fichier de numéros qui correspond aux images connues d’abus d’enfants qu’Apple distribuera aux iPhones pour activer le système.

« Apple refusera de telles demandes. La capacité de détection CSAM d’Apple est conçue uniquement pour détecter les images CSAM connues stockées dans iCloud Photos qui ont été identifiées par des experts du NCMEC et d’autres groupes de sécurité des enfants », Apple dit dans le document. « Nous avons déjà été confrontés à des demandes de création et de déploiement de changements mandatés par le gouvernement qui dégradent la vie privée des utilisateurs, et nous avons fermement refusé ces demandes. Nous continuerons de les refuser à l’avenir.

Il a poursuivi: « Soyons clairs, cette technologie se limite à détecter le CSAM stocké dans iCloud et nous n’accéderons à la demande d’aucun gouvernement de l’étendre. »

Certains cryptographes s’inquiètent sur ce qui pourrait arriver si un pays comme la Chine adoptait une loi stipulant que le système doit également inclure des images politiquement sensibles. Le PDG d’Apple, Tim Cook, a précédemment déclaré que l’entreprise respectait les lois de tous les pays où elle exerce ses activités.

Les entreprises aux États-Unis sont tenues de signaler la CSAM au National Center for Missing & Exploited Children et s’exposent à des amendes pouvant aller jusqu’à 300 000 $ lorsqu’elles découvrent des images illégales et ne les signalent pas.

Une réputation de confidentialité

La réputation d’Apple en matière de défense de la vie privée est cultivée depuis des années à travers ses actions et son marketing. En 2016, Apple a affronté le FBI en cour pour protéger l’intégrité de ses systèmes de cryptage sur l’appareil lors d’une enquête sur un tireur de masse.

Mais Apple a également fait face à d’importantes pressions de la part des forces de l’ordre concernant la possibilité de criminels « devenir sombre« , ou en utilisant des outils de confidentialité et de cryptage pour empêcher que des messages ou d’autres informations ne soient à la portée des forces de l’ordre.

La controverse sur le nouveau système d’Apple, et s’il surveille les utilisateurs, menace la réputation publique d’Apple pour la construction d’appareils sécurisés et privés, que l’entreprise a utilisés pour pénétrer de nouveaux marchés dans les finances personnelles et les soins de santé.

Les critiques craignent que le système ne fonctionne partiellement sur un iPhone, au lieu de numériser uniquement les photos qui ont été téléchargées sur les serveurs de l’entreprise. Les concurrents d’Apple ne scannent généralement que les photos stockées sur leurs serveurs.

« C’est vraiment décevant qu’Apple se soit tellement accroché à sa vision particulière de la vie privée qu’il a fini par trahir le pivot du contrôle de l’utilisateur : pouvoir avoir confiance que votre appareil est vraiment le vôtre », a écrit le commentateur technologique Ben Thompson dans une newsletter lundi.

Apple continue de défendre ses systèmes comme une véritable amélioration qui protège les enfants et réduira la quantité de CSAM créée tout en protégeant la confidentialité des utilisateurs d’iPhone.

Apple a déclaré que son système était nettement plus fort et plus privé que les systèmes précédents pour chaque mesure de confidentialité suivie par l’entreprise et qu’elle avait fait tout son possible pour créer un meilleur système pour détecter ces images illégales.

Contrairement aux systèmes actuels, qui fonctionnent dans le cloud et ne peuvent pas être inspectés par des chercheurs en sécurité, le système d’Apple peut être inspecté via sa distribution dans iOS, a déclaré un représentant d’Apple. En déplaçant certains traitements sur l’appareil de l’utilisateur, l’entreprise peut obtenir des propriétés de confidentialité plus solides, telles que la possibilité de trouver des correspondances CSAM sans exécuter de logiciel sur les serveurs Apple qui vérifient chaque photo.

Apple a déclaré lundi que son système n’analyse pas les bibliothèques de photos privées qui n’ont pas été téléchargées sur iCloud.

Apple a également confirmé qu’il traiterait les photos déjà téléchargées sur iCloud. Les changements seront déployés via une mise à jour de l’iPhone plus tard cette année, après quoi les utilisateurs seront avertis qu’Apple commence à vérifier les magasins de photos sur iCloud par rapport à une liste d’empreintes digitales qui correspondent aux CSAM connus, a déclaré Apple.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *