Apple développe une nouvelle version de son assistant vocal, Siri, alimenté par des modèles de langage étendus (LLM) avancés, selon des sources citées par Bloomberg. Ce Siri plus conversationnel fait partie de la tentative d’Apple de rattraper son retard en matière d’IA, où ses concurrents ont publié des fonctionnalités impressionnantes, comme Gemini Live de Google, avec lesquelles il est beaucoup plus naturel de parler que Siri.
Le nouvel assistant remplacerait entièrement l’interface Siri sur laquelle les utilisateurs comptent aujourd’hui, et Apple prévoit de lancer la fonctionnalité au printemps 2026. La fonctionnalité semble être similaire au mode vocal avancé d’OpenAI, mais avec le même accès à les informations personnelles et les applications dont Siri dispose aujourd’hui.
En attendant, Apple s’appuie sur des tiers pour alimenter les fonctionnalités avancées d’IA de l’iPhone. ChatGPT d’OpenAI sera disponible dans Apple Intelligence en décembre, et Apple aurait discuté d’accords similaires avec d’autres fournisseurs d’IA, tels que Google et Anthropic.