X

Meta met à jour ses lunettes intelligentes avec une vidéo IA en temps réel

Les lunettes intelligentes Ray-Ban Meta de Meta deviennent plusieurs nouvelles mises à niveau basées sur l’IAy compris la possibilité d’avoir une conversation continue et de traduire entre les langues.

Les propriétaires de Ray-Ban Meta participant au programme d’accès anticipé de Meta pour les États-Unis et le Canada peuvent désormais télécharger le firmware v11, qui ajoute « l’IA en direct ». Dévoilée pour la première fois cet automne, l’IA en direct permet aux utilisateurs de converser en continu avec l’assistant IA de Meta, Meta AI, pour faire référence aux éléments dont ils ont discuté plus tôt dans la conversation. Sans avoir à prononcer le mot d’éveil « Hey, Meta », les utilisateurs peuvent interrompre Meta AI pour poser des questions de suivi ou changer de sujet.

Live AI fonctionne également avec la vidéo en temps réel. Les utilisateurs peuvent poser des questions sur ce qu’ils voient en temps réel, par exemple sur ce qui se passe dans leur quartier.

La vidéo d’IA en temps réel pour Ray-Ban Meta était un objectif important de la conférence de développement Meta’s Connect au début de l’automne. Positionnée comme une réponse au mode vocal avancé d’OpenAI avec Vision et au projet Astra de Google, la technologie permet à l’IA de Meta de répondre aux questions sur ce qui est vu par la caméra frontale des lunettes.

Avec la mise à jour de lundi, Meta devient l’un des premiers géants de la technologie à commercialiser la vidéo IA en temps réel sur des lunettes intelligentes. Google a récemment annoncé son intention de vendre des lunettes AR dotées de capacités similaires, mais la société ne s’est pas engagée sur un calendrier concret.

Related Post

Meta affirme qu’à l’avenir, l’IA en direct donnera même des « suggestions utiles » avant que l’utilisateur ne le demande. Quel genre de suggestions ? L’entreprise ne le dirait pas.

Le micrologiciel v11 introduit également la traduction en direct, qui permet aux porteurs de Ray-Ban Meta de traduire des paroles en temps réel entre l’anglais et l’espagnol, le français ou l’italien. Lorsqu’un porteur parle à quelqu’un qui parle l’une de ces langues, il entend ce que dit l’orateur en anglais via les haut-parleurs à oreille ouverte des lunettes et obtient une transcription sur son téléphone couplé.

Ray-Ban Meta prend également en charge Shazam à partir du firmware v11. Les porteurs peuvent dire « Hey, Meta, Shazam this song » pour que les lunettes essaient de trouver la mélodie jouée.

Meta prévient que les nouvelles fonctionnalités, en particulier l’IA en direct et la traduction en direct, pourraient ne pas toujours faire les choses correctement. « Nous continuons à apprendre ce qui fonctionne le mieux et à améliorer l’expérience de chacun », a écrit la société dans un communiqué. article de blog.

Ray-Ban Meta a reçu une mise à jour majeure pour la dernière fois en novembre, lorsque Meta a commencé à déployer certaines capacités d’IA auprès des utilisateurs de lunettes en France, en Italie et en Espagne. Les lunettes continuent de se vendre plutôt bien ; en octobre, EssilorLuxottica, propriétaire de Ray-Ban dit Téléchargez VR indiquant que Ray-Ban Meta était la marque de lunettes la plus vendue dans 60 % de tous les magasins Ray-Ban en Europe, au Moyen-Orient et en Afrique.

Categories: Tech