Apple vient tout juste de commencer à déployer une suite très médiatisée de fonctionnalités d’IA pour ses appareils, et nous constatons déjà des problèmes majeurs. Par exemple, le BBC s’est plaint à Apple après qu’un résumé de notification alimenté par l’IA ait réécrit un BBC titre disant que l’assassin du PDG de l’UHC, Luigi Mangione, s’était suicidé. Mangione ne s’est pas suicidé et reste en garde à vue.
Apple Intelligence inclut une fonctionnalité sur iOS qui tente de soulager les utilisateurs de la fatigue en regroupant et en résumant les notifications provenant d’applications individuelles. Par exemple, si un utilisateur reçoit plusieurs messages texte d’une même personne, au lieu de les afficher tous dans une longue liste, iOS essaiera désormais de résumer les alertes push en une seule notification concise.
Il s’avère – et cela ne devrait surprendre personne familier avec l’IA générative – que « l’intelligence » d’Apple Intelligence dément le fait que les résumés sont parfois malheureux ou tout simplement faux. Les résumés de notifications ont été introduits pour la première fois sur iOS dans la version 18.1, publiée en octobre ; plus tôt cette semaine, Apple a ajouté l’intégration native avec ChatGPT dans Siri.
Dans un articlele BBC a partagé une capture d’écran d’une notification résumant trois histoires différentes qui avaient été envoyées sous forme d’alertes push. La notification dit : « Luigi Mangione se tire une balle ; Une mère syrienne espère qu’Assad en paiera le prix ; La police sud-coréenne fait une descente dans le bureau de Yoon Suk Yeol. Les autres résumés étaient corrects, le BBC dit.
Le BBC s’est plaint auprès d’Apple de cette situation, qui est embarrassante pour l’entreprise technologique mais qui risque également de nuire à la réputation des médias d’information si les lecteurs pensent qu’ils diffusent des informations erronées. Ils n’ont aucun contrôle sur la façon dont iOS décide de résumer leurs alertes push.
« BBC News est le média d’information le plus fiable au monde », a déclaré BBC a déclaré le porte-parole pour l’histoire. « Il est essentiel pour nous que notre public puisse faire confiance à toute information ou journalisme publié en notre nom, y compris les notifications. » Apple a refusé de répondre au la BBC questions sur le snafu.
L’intelligence artificielle a beaucoup de potentiel dans de nombreux domaines, mais les modèles de langage sont peut-être l’une des pires implémentations. Mais les entreprises espèrent beaucoup que la technologie deviendra suffisamment performante pour qu’elles puissent s’y fier pour des utilisations telles que le chat du support client ou la recherche dans de vastes collections de données internes. Mais nous n’en sommes pas encore là : en fait, les entreprises qui utilisent l’IA ont déclaré qu’elles devaient encore le faire. beaucoup de modifications du travail qu’il produit.
Il semble quelque peu inhabituel de la part d’Apple d’intégrer profondément une technologie aussi peu fiable et imprévisible dans ses produits. Apple n’a aucun contrôle sur les résultats de ChatGPT : le créateur du chatbot, OpenAI, peut à peine contrôler les modèles de langage et leur comportement est constamment modifié. Les résumés de notifications courtes devraient être la chose la plus simple à faire pour l’IA, et Apple échoue même cela.
À tout le moins, certaines fonctionnalités d’Apple Intelligence démontrent comment l’IA pourrait potentiellement avoir des utilisations pratiques. Une meilleure retouche photo et un mode de mise au point qui comprend par quelles notifications doivent être envoyées sont appréciables. Mais pour une entreprise associée à des expériences raffinées, des résumés de notifications erronés et un ChatGPT hallucinant pourraient donner l’impression qu’iOS n’est pas poli. On a l’impression qu’ils se précipitent dans le train à la mode pour augmenter les ventes de nouveaux iPhone : un iPhone 15 Pro ou plus récent est nécessaire pour utiliser les fonctionnalités.