OpenAI apporte o1, son modèle d’IA de « raisonnement », à son API – mais uniquement pour certains développeurs, pour commencer.
À partir de mardi, o1 commencera à être déployé auprès des développeurs de la catégorie d’utilisation « niveau 5 » d’OpenAI, a indiqué la société. dit. Pour être admissibles au niveau 5, les développeurs doivent dépenser au moins 1 000 $ avec OpenAI et disposer d’un compte datant de plus de 30 jours depuis leur premier paiement réussi.
O1 remplace le modèle o1-preview qui était déjà disponible dans l’API.
Contrairement à la plupart des IA, les modèles de raisonnement comme o1 vérifient eux-mêmes efficacement les faits, ce qui les aide à éviter certains des pièges qui font normalement échouer les modèles. L’inconvénient est qu’ils mettent souvent plus de temps à trouver des solutions.
Ils sont également assez chers, en partie parce qu’ils nécessitent beaucoup de ressources informatiques pour fonctionner. OpenAI facture 15 $ pour chaque ~ 750 000 mots d’analyse et 60 $ pour chaque ~ 750 000 mots générés par le modèle. C’est 6x le coût du dernier modèle « sans raisonnement » d’OpenAI, GPT-4o.
O1 dans l’API OpenAI est bien plus personnalisable que o1-preview, grâce à de nouvelles fonctionnalités telles que l’appel de fonction (qui permet au modèle d’être connecté à des données externes), les messages des développeurs (qui permettent aux développeurs d’instruire le modèle sur le ton et le style) et analyse d’images. En plus de résultats structuréso1 dispose également d’un paramètre API, «reasoning_effort», qui permet de contrôler la durée pendant laquelle le modèle « réfléchit » avant de répondre à une requête.
OpenAI a déclaré que la version de o1 dans l’API – et, bientôt, la plate-forme de chatbot IA de l’entreprise, ChatGPT – est une « nouvelle version post-formée » de o1. Comparé au modèle o1 publié dans ChatGPT il y a deux semaines, celui-ci, « o1-2024-12-17 », améliore « les domaines de comportement du modèle basés sur les commentaires », a vaguement déclaré OpenAI.
« Nous déployons l’accès progressivement tout en travaillant à étendre l’accès à des niveaux d’utilisation supplémentaires et à augmenter les limites de débit », a écrit la société dans un communiqué. article de blog.
Dans un note sur son site Web, OpenAI a déclaré que le dernier o1 devrait fournir « des réponses plus complètes et plus précises », en particulier pour les questions relatives à la programmation et aux affaires, et est moins susceptible de refuser des demandes à tort.
Mardi, dans d’autres actualités liées au développement, OpenAI a annoncé de nouvelles versions de ses mini-modèles GPT-4o et GPT-4o dans le cadre de l’API Realtime, l’API d’OpenAI permettant de créer des applications avec des réponses vocales générées par l’IA à faible latence. Les nouveaux modèles (« gpt-4o-realtime-preview-2024-12-17 » et « gpt-4o-mini-realtime-preview-2024-12-17 »), qui offrent une efficacité et une fiabilité améliorées des données, sont également moins chers. à utiliser, a déclaré OpenAI.
En parlant de l’API Realtime (sans jeu de mots), elle reste en version bêta, mais elle a acquis plusieurs nouvelles fonctionnalités, comme les réponses simultanées hors bande, qui permettent aux tâches en arrière-plan telles que la modération du contenu de s’exécuter sans interrompre les interactions. L’API prend également désormais en charge WebRTC, le standard ouvert permettant de créer des applications vocales en temps réel pour les clients basés sur un navigateur, les smartphones et les appareils Internet des objets.
Ce n’est certainement pas une coïncidence, OpenAI a embauché le créateur de WebRTC, Justin Uberti, début décembre.
« Notre intégration WebRTC est conçue pour permettre des interactions fluides et réactives dans des conditions réelles, même avec une qualité de réseau variable », a écrit OpenAI sur le blog. « Il gère l’encodage audio, le streaming, la suppression du bruit et le contrôle de la congestion. »
Dans la dernière de ses mises à jour mardi, OpenAI a apporté un réglage fin aux préférences à son API de réglage fin ; le réglage fin des préférences compare des paires de réponses d’un modèle pour « apprendre » à un modèle à faire la distinction entre les réponses préférées et « non préférées » aux questions. Et la société a lancé une version bêta « à accès anticipé » pour les kits de développement de logiciels officiels en Go et Java.