Apple change de cap sur son projet d’analyser les iPhones des utilisateurs à la recherche de photos d’abus d’enfants alors que l’exécutif admet l’annonce « confuse » de l’entreprise

APPLE a annoncé vendredi qu’il ne rechercherait sur les appareils que des images d’abus sexuels sur des enfants qui ont été signalées dans plusieurs pays, après que le géant de la technologie a reçu des réactions négatives sur son nouveau système de numérisation prévu.

Début août, la société a annoncé qu’elle prévoyait de numériser des photos sur des ordinateurs iPhone, iPad et Mac à la recherche d’images illustrant des abus sexuels sur des enfants.

Apple a donné plus de détails sur son programme d’analyse d’appareils prévu vendrediCrédit : Getty Images – Getty
La société a mis en colère les défenseurs de la vie privée lorsqu'elle a annoncé qu'elle prévoyait de numériser des photos sur des iPhones, des iPads et des ordinateurs Mac à la recherche d'images illustrant des abus sexuels sur des enfants.

La société a mis en colère les défenseurs de la vie privée lorsqu’elle a annoncé qu’elle prévoyait de numériser des photos sur des iPhones, des iPads et des ordinateurs Mac à la recherche d’images illustrant des abus sexuels sur des enfants.Crédit : Getty Images

Cette décision a provoqué la colère des défenseurs de la vie privée et des chercheurs en sécurité, qui ont affirmé que l’outil pourrait être utilisé à des fins de surveillance ou de censure gouvernementale.

Vendredi, cependant, la société – qui a admis avoir mal géré les communications « confuses » autour du programme – a semblé s’ouvrir sur ses plans.

Ayant précédemment refusé de dire combien d’images devraient être détectées sur un téléphone ou un ordinateur avant que le système d’exploitation ne notifie Apple pour un examen humain, les dirigeants ont déclaré vendredi que cela commencerait par 30, selon Reuters.

À mesure que le système s’améliore, ont ajouté les dirigeants, ce nombre pourrait diminuer.

DES PLANS PLUS CLAIRS

Le vice-président principal d’Apple, Craig Federighi, a déclaré au Wall Street Journal dans une interview vendredi : « Si et seulement si vous atteignez un seuil de quelque chose de l’ordre de 30 images pédopornographiques connues correspondant, ce n’est qu’alors qu’Apple sait quoi que ce soit sur votre compte et ne sait rien de ceux-ci. images, et à ce stade, ne connaît que ces images, aucune de vos autres images. »

Pour répondre aux préoccupations selon lesquelles le nouveau système pourrait être utilisé pour cibler des individus, Apple a déclaré que la liste des identifiants d’image recherchés sur un iPhone serait la même sur tous les téléphones.

Apple a annoncé début août que son système comparerait les photos avec celles fournies par le National Center for Missing and Exploited Children pour détecter la pornographie enfantine.

Le centre est le seul centre d’échange à avoir signé un accord avec Apple jusqu’à présent – ​​bien que la société ait déclaré qu’elle ne chasserait que les images signalées par des centres d’échange dans plusieurs pays.

La société a publié un guide de 14 pages, proposant un raisonnement pour le système et des défenses contre les attaques potentielles.

La décision de vendredi intervient après que certains employés d’Apple ont même exprimé leur inquiétude quant au fait que le nouvel outil pourrait compromettre la réputation de l’entreprise en matière de protection de la vie privée des utilisateurs.

Apple a nié avoir dit si les critiques avaient modifié l’une de ses politiques ou le logiciel lui-même.

LES AVOCATS EN COLÈRE

En fournissant plus d’informations, Apple espère convaincre les critiques hostiles à ces plans.

« Notre poussée a un effet », a déclaré à Reuters Riana Pfefferkorn, chercheuse en chiffrement et surveillance à l’Université de Stanford.

Apple a déclaré la semaine dernière qu’il vérifierait les photos si elles sont sur le point d’être stockées sur le service en ligne iCloud.

La société a déclaré plus tard qu’elle commencerait par n’utiliser le nouvel outil qu’aux États-Unis.

Apple SVP Craig Federighi a déclaré que 30 images seraient signalées avant que le système d'exploitation ne notifie Apple pour un examen humain

Apple SVP Craig Federighi a déclaré que 30 images seraient signalées avant que le système d’exploitation ne notifie Apple pour un examen humainCrédit : Reuters
Un expert explique comment Apple analysera les téléphones à la recherche d’images d’abus sexuels sur des enfants après l’annonce d’une nouvelle fonctionnalité

Toutes les actualités du site n'expriment pas le point de vue du site, mais nous transmettons cette actualité automatiquement et la traduisons grâce à une technologie programmatique sur le site et non à partir d'un éditeur humain.

Comments