OpenAI déploie le mode vocal avancé avec plus de voix et un nouveau look
[ad_1]
OpenAI annoncé Le mode vocal avancé (AVM) sera déployé mardi auprès d’un plus grand nombre de clients payants de ChatGPT. La fonctionnalité audio, qui rend la communication avec ChatGPT plus naturelle, sera initialement déployée auprès des clients des niveaux Plus et Teams de ChatGPT. Les clients Enterprise et Edu commenceront à y avoir accès la semaine prochaine.
Dans le cadre de ce déploiement, AVM bénéficie d’un nouveau design. La fonctionnalité est désormais représentée par une sphère animée bleue, au lieu des points noirs animés qu’OpenAI a présentés lors de sa présentation de la technologie en mai.
Les utilisateurs recevront une fenêtre contextuelle dans l’application ChatGPT, à côté de l’icône vocale, lorsque AVM sera mis à leur disposition.
Advanced Voice sera déployé auprès de tous les utilisateurs Plus et Team dans l’application ChatGPT au cours de la semaine.
Pendant que vous attendiez patiemment, nous avons ajouté des instructions personnalisées, de la mémoire, cinq nouvelles voix et des accents améliorés.
Il peut également dire « Désolé, je suis en retard » dans plus de 50 langues. pic.twitter.com/APOqqhXtDg
— OpenAI (@OpenAI) 24 septembre 2024
ChatGPT propose également cinq nouvelles voix que les utilisateurs peuvent essayer : Arbor, Maple, Sol, Spruce et Vale. Cela porte le nombre total de voix de ChatGPT à neuf (presque autant que Gemini Live de Google), aux côtés de Breeze, Juniper, Cove et Ember. Vous remarquerez peut-être que tous ces noms sont inspirés de la nature, ce qui pourrait être dû au fait que l’objectif d’AVM est de rendre l’utilisation de ChatGPT plus naturelle.
Il manque une voix à cette liste : Sky, la voix qu’OpenAI a présentée lors de sa mise à jour de printemps, ce qui a conduit à une menace juridique de la part de Scarlett Johansson. L’actrice, qui a joué un système d’IA dans le long métrage « Her », a affirmé que la voix de Sky ressemblait un peu trop à la sienne. OpenAI a rapidement retiré la voix de Sky, affirmant qu’elle n’avait jamais eu l’intention de ressembler à la voix de Johansson, malgré plusieurs membres du personnel font référence au film dans des tweets à l’époque.
Autre fonctionnalité manquante dans ce déploiement : le partage de vidéo et d’écran de ChatGPT, lancé par OpenAI lors de sa mise à jour de printemps il y a quatre mois. Cette fonctionnalité est censée permettre à GPT-4o de traiter simultanément des informations visuelles et sonores. Au cours de la démonstration, un membre du personnel d’OpenAI a montré comment vous pouvez poser des questions en temps réel à ChatGPT sur des mathématiques sur une feuille de papier devant vous ou coder sur l’écran de votre ordinateur. À l’heure actuelle, OpenAI ne propose pas de calendrier pour le lancement de ces fonctionnalités multimodales.
Cela dit, OpenAI affirme avoir apporté quelques améliorations depuis la sortie de son test alpha limité d’AVM. La fonction vocale de ChatGPT serait désormais plus efficace pour comprendre les accents, et la société affirme que ses conversations sont également plus fluides et plus rapides. Lors de nos tests avec AVM, nous avons constaté que les problèmes n’étaient pas rares, mais la société affirme que cela s’est désormais amélioré.
OpenAI étend également certaines des fonctionnalités de personnalisation de ChatGPT à AVM : les instructions personnalisées, qui permettent aux utilisateurs de personnaliser la manière dont ChatGPT leur répond, et la mémoire, qui permet à ChatGPT de mémoriser les conversations pour s’y référer ultérieurement.
Un porte-parole d’OpenAI déclare qu’AVM n’est pas encore disponible dans plusieurs régions, notamment l’UE, le Royaume-Uni, la Suisse, l’Islande, la Norvège et le Liechtenstein.