Méta juste annoncé trois nouvelles fonctionnalités sont déployées sur ses lunettes intelligentes Ray-Ban : l’IA en direct, les traductions en direct et Shazam. L’IA en direct et la traduction en direct sont limitées aux membres du programme d’accès anticipé de Meta, tandis que le support Shazam est disponible pour tous les utilisateurs aux États-Unis et au Canada.
L’IA en direct et la traduction en direct ont été présentées pour la première fois lors de Meta Connect 2024 plus tôt cette année. Live AI vous permet de converser naturellement avec l’assistant IA de Meta tout en observant en permanence votre environnement. Par exemple, si vous parcourez la section des produits dans une épicerie, vous pourrez théoriquement demander à l’IA de Meta de vous suggérer des recettes basées sur les ingrédients que vous consultez. Meta indique que les utilisateurs pourront utiliser la fonction IA en direct pendant environ 30 minutes à la fois avec une charge complète.
Pendant ce temps, la traduction en direct permet aux lunettes de traduire la parole en temps réel entre l’anglais et l’espagnol, le français ou l’italien. Vous pouvez choisir d’entendre les traductions à travers les lunettes elles-mêmes ou d’afficher les transcriptions sur votre téléphone. Vous devez télécharger les paires de langues au préalable et spécifier la langue que vous parlez par rapport à celle que parle votre interlocuteur.
La prise en charge de Shazam est un peu plus simple. Tout ce que vous avez à faire est d’inviter la Meta AI lorsque vous entendez une chanson, et elle devrait être capable de vous dire ce que vous écoutez. Vous pouvez regarder la démonstration du PDG de Meta, Mark Zuckerberg, dans ce Bobine Instagram.
Si vous ne voyez pas encore les fonctionnalités, vérifiez que vos lunettes exécutent le logiciel v11 et que vous exécutez également la v196 de l’application Meta View. Si vous n’êtes pas déjà inscrit au programme d’accès anticipé, vous pouvez postuler via ce site Web.
Les mises à jour surviennent au moment même où Big Tech fait des assistants IA la raison d’être des lunettes intelligentes. La semaine dernière, Google a annoncé Android XR, un nouveau système d’exploitation pour lunettes intelligentes, et a spécifiquement positionné son assistant Gemini AI comme l’application qui tue. Pendant ce temps, Andrew Bosworth, CTO de Meta je viens de publier un blog estimant que « 2024 a été l’année où les lunettes IA ont atteint leur rythme de croisière ». Bosworth y affirme également que les lunettes intelligentes pourraient être le meilleur facteur de forme possible pour un « appareil véritablement natif de l’IA » et la première catégorie de matériel à être « entièrement définie par l’IA dès le début ».