Effectivement, lorsque j’ai vérifié mon iPhone 15 Pro ce matin, la bascule était activée. Vous pouvez le trouver par vous-même en accédant à Paramètres > Photos (ou Paramètres système > Photos sur un Mac). La recherche visuelle améliorée vous permet de rechercher des points de repère dont vous avez pris des photos ou de rechercher ces images en utilisant les noms de ces points de repère.
Pour voir ce qu’il permet dans l’application Photos, faites glisser votre doigt vers le haut sur une photo que vous avez prise d’un bâtiment et sélectionnez « Rechercher un point de repère », et une carte apparaîtra qui l’identifie idéalement. Voici quelques exemples de mon téléphone :
À première vue, il s’agit d’une extension pratique de la fonctionnalité de recherche visuelle de Photos qu’Apple a introduite dans iOS 15 et qui vous permet d’identifier les plantes ou, par exemple, de découvrir ce qu’elles sont. les symboles sur une étiquette de blanchisserie signifient. Mais Visual Look Up n’a pas besoin d’autorisation spéciale pour partager des données avec Apple, et c’est le cas.
Une description sous la bascule indique que vous autorisez Apple à « faire correspondre en privé les lieux de vos photos avec un index global géré par Apple ». Quant à savoir comment, il y a des détails dans un Blog de recherche Apple sur l’apprentissage automatique à propos de la recherche visuelle améliorée vers laquelle Johnson renvoie :
Le processus commence par un modèle ML sur l’appareil qui analyse une photo donnée pour déterminer s’il existe une « région d’intérêt » (ROI) pouvant contenir un point de repère. Si le modèle détecte un retour sur investissement dans le domaine « repère », une intégration vectorielle est calculée pour cette région de l’image.
Selon le blog, cette intégration vectorielle est ensuite cryptée et envoyée à Apple pour comparaison avec sa base de données. La société propose une explication très technique des intégrations vectorielles dans un document de recherchemais IBM l’a dit plus simplementécrivant que les intégrations transforment « un point de données, tel qu’un mot, une phrase ou une image, en un ntableau dimensionnel de nombres représentant les caractéristiques de ce point de données.»
Comme Johnson, je ne comprends pas entièrement les blogs de recherche d’Apple et Apple n’a pas immédiatement répondu à notre demande de commentaires sur les préoccupations de Johnson. Il semble que l’entreprise ait fait de grands efforts pour préserver la confidentialité des données, en partie en condensant les données d’image dans un format lisible par un modèle ML.
Néanmoins, rendre l’option d’activation à bascule, comme celle pour le partage de données analytiques ou d’enregistrements ou d’interactions Siri, plutôt que quelque chose que les utilisateurs doivent découvrir, semble avoir été une meilleure option.