À l’approche des fêtes de fin d’année, de nombreuses entreprises trouvent des moyens d’en profiter grâce à des offres, des promotions ou d’autres campagnes. OpenAI a trouvé un moyen de participer avec sa série d’événements « 12 jours d’OpenAI ».
Mercredi, OpenAI a annoncé via un Message X qu’à partir du 5 décembre, la société organiserait 12 jours de diffusions en direct et publierait « un tas de nouvelles choses, grandes et petites », selon le message.
Aussi : Le générateur vidéo Sora AI d’OpenAI est ici – comment l’essayer
Voici tout ce que vous devez savoir sur la campagne, ainsi qu’un récapitulatif des nouveautés de chaque jour.
Que sont les « 12 jours d’OpenAI » ?
Le PDG d’OpenAI, Sam Altman, a partagé un peu plus de détails sur l’événement, qui a débuté à 10 heures du matin (heure du Pacifique) le 5 décembre et se déroulera quotidiennement pendant 12 jours de semaine avec une diffusion en direct présentant un lancement ou une démo. Les lancements seront à la fois des « grands » ou des « cadeaux de Noël », selon Altman.
Qu’est-ce qui a été abandonné jusqu’à présent ?
mercredi 11 décembre
Apple a publié iOS 18.2 aujourd’hui. La version inclut des intégrations avec ChatGPT dans Siri, Writing Tools et Visual Intelligence. En conséquence, la diffusion en direct d’aujourd’hui s’est concentrée sur l’intégration.
- Siri peut désormais reconnaître lorsque vous posez des questions en dehors de son champ d’application qui pourraient bénéficier d’une réponse de ChatGPT. Dans ces cas, il vous demandera si vous souhaitez traiter la requête à l’aide de ChatGPT. Avant qu’une demande ne soit envoyée à ChatGPT, un message informant l’utilisateur et demandant l’autorisation apparaîtra toujours, plaçant autant que possible le contrôle entre les mains de l’utilisateur.
- L’intelligence visuelle fait référence à une nouvelle fonctionnalité de la gamme iPhone 16 à laquelle les utilisateurs peuvent accéder en appuyant sur le bouton de contrôle de la caméra. Une fois la caméra ouverte, les utilisateurs peuvent la pointer vers quelque chose et effectuer une recherche sur le Web avec Google, ou utiliser ChatGPT pour en savoir plus sur ce qu’ils visualisent ou effectuer d’autres tâches telles que traduire ou résumer du texte.
- Writing Tools propose désormais un nouvel outil « Compose », qui permet aux utilisateurs de créer du texte à partir de zéro en tirant parti de ChatGPT. Grâce à cette fonctionnalité, les utilisateurs peuvent même générer des images à l’aide de DALL-E.
Toutes les fonctionnalités ci-dessus sont soumises aux limites d’utilisation quotidienne de ChatGPT, de la même manière que les utilisateurs atteindraient les limites en utilisant la version gratuite du modèle sur ChatGPT. Les utilisateurs peuvent choisir d’activer ou non l’intégration de ChatGPT dans les paramètres.
En savoir plus ici : iOS 18.2 est déployé sur les iPhones : essayez ces 6 nouvelles fonctionnalités d’IA dès aujourd’hui
mardi 10 décembre
- Canvas arrive à tous les utilisateurs Web, quel que soit leur forfait, dans GPT-4o, ce qui signifie qu’il n’est plus uniquement disponible en version bêta pour les utilisateurs de ChatGPT Plus.
- Canvas a été intégré nativement à GPT-4o, ce qui signifie que vous pouvez simplement appeler Canvas au lieu d’avoir à basculer sur le sélecteur de modèle.
- L’interface Canvas est la même que celle que les utilisateurs ont vue en version bêta dans ChatGPT Plus, avec un tableau sur le côté gauche qui montre l’échange Q+A et un onglet à droite qui montre votre projet, affichant toutes les modifications au fur et à mesure. , ainsi que des raccourcis.
- Canvas peut également être utilisé avec des GPT personnalisés. Il est activé par défaut lors de la création d’un nouveau, et il existe une option pour ajouter Canvas aux GPT existants.
- Canvas a également la possibilité d’exécuter du code Python directement dans Canvas, permettant à ChatGPT d’exécuter des tâches de codage telles que la correction de bugs.
En savoir plus ici : Je suis un utilisateur expérimenté de ChatGPT – et Canvas est toujours ma fonctionnalité de productivité préférée un mois plus tard.
Lundi 9 décembre
OpenAI a qualifié l’annonce du troisième jour de « quelque chose que vous attendiez », suivie de la sortie très attendue de son modèle vidéo – Sora. Voici ce que vous devez savoir :
- Connu sous le nom de Sora Turbo, le modèle vidéo est plus intelligent que le modèle de février présenté en avant-première.
- L’accès arrivera aux États-Unis plus tard dans la journée ; les utilisateurs n’ont besoin que de ChatGPT Plus et Pro.
- Sora peut générer de la vidéo à la vidéo, du texte à la vidéo, etc.
- Les utilisateurs de ChatGPT Plus peuvent générer jusqu’à 50 vidéos par mois à une résolution de 480p ou moins de vidéos à 720p. Le plan Pro offre 10 fois plus d’utilisation.
- Le nouveau modèle est plus intelligent et moins cher que le modèle présenté en février.
- Sora propose une page d’exploration où les utilisateurs peuvent visualiser les créations de chacun. Les utilisateurs peuvent cliquer sur n’importe quelle vidéo pour voir comment elle a été créée.
- Une démo en direct a montré le modèle utilisé. Les démos ont saisi un rapport hauteur/largeur, une durée et même des préréglages prédéfinis. J’ai trouvé les résultats de la vidéo de démonstration en direct réalistes et époustouflants.
- OpenAI a également dévoilé Storyboard, un outil qui permet aux utilisateurs de générer des entrées pour chaque image d’une séquence.
Vendredi 6 décembre :
Le deuxième jour de «shipmas», OpenAI a élargi l’accès à son programme de recherche sur le réglage fin des renforcements :
- Le programme Reinforcement Fine-Tuning permet aux développeurs et aux ingénieurs en apprentissage automatique d’affiner les modèles OpenAI pour « exceller dans des ensembles spécifiques de tâches complexes et spécifiques à un domaine », selon OpenAI.
- Le réglage fin du renforcement fait référence à une technique de personnalisation dans laquelle les développeurs peuvent définir le comportement d’un modèle en saisissant des tâches et en notant la sortie. Le modèle utilise ensuite ces commentaires comme guide pour s’améliorer, devenir meilleur dans son raisonnement sur des problèmes similaires et améliorer la précision globale.
- OpenAI encourage les instituts de recherche, les universités et les entreprises à postuler au programme, en particulier ceux qui effectuent des ensembles restreints de tâches complexes, pourraient bénéficier de l’aide de l’IA et effectuer des tâches qui ont une réponse objectivement correcte.
- Les places sont limitées ; les candidats intéressés peuvent postuler en remplissant ce formulaire.
- OpenAI vise à rendre le réglage fin du renforcement accessible au public début 2025.
Jeudi 5 décembre :
OpenAI a démarré en trombe en dévoilant deux mises à niveau majeures de son chatbot : un nouveau niveau d’abonnement ChatGPT, ChatGPT Pro, et la version complète du modèle o1 de l’entreprise.
La version complète de o1 :
- Sera meilleur pour toutes sortes d’invites, au-delà des mathématiques et des sciences
- Fera des erreurs majeures environ 34 % moins souvent que o1-preview, tout en réfléchissant environ 50 % plus rapidement
- Déployé aujourd’hui, remplaçant o1-preview pour tous les utilisateurs de ChatGPT Plus et désormais Pro
- Permet aux utilisateurs de saisir des images, comme vu dans la démo, pour fournir un raisonnement multimodal (raisonnement sur du texte et des images)
ChatGPT Pro :
- Est destiné aux superutilisateurs de ChatGPT Plus, leur offrant un accès illimité au meilleur d’OpenAI, y compris un accès illimité à OpenAI o1-mini, GPT-4o et au mode avancé.
- Comprend le mode o1 pro, qui utilise davantage l’informatique pour raisonner les problèmes scientifiques et mathématiques les plus difficiles
- Coûte 200 $ par mois
Où pouvez-vous accéder au flux en direct ?
Les diffusions en direct sont diffusées sur le site Web d’OpenAI et publiées immédiatement après sur sa chaîne YouTube. Pour faciliter l’accès, OpenAI publiera également un lien vers le flux en direct sur son compte X 10 minutes avant son début, qui aura lieu quotidiennement vers 10 h HP/13 h HE.
À quoi pouvez-vous vous attendre ?
Les versions restent une surprise, mais beaucoup s’attendent à ce que Sora, le modèle vidéo d’OpenAI initialement annoncé en février dernier, soit lancé dans le cadre de l’une des plus grosses sorties. Depuis cette première annonce, le modèle a été disponible pour un groupe sélectionné d’équipes rouges et de testeurs et a été divulgué la semaine dernière par certains testeurs suite à des griefs concernant le « travail non rémunéré ». selon les rapports.
Aussi : l’o1 d’OpenAI ment plus que n’importe quel modèle d’IA majeur. Pourquoi c’est important
D’autres versions rumeurs incluent une nouvelle version plus complète du o1 LLM de la société avec des capacités de raisonnement plus avancées, et une voix du Père Noël pour le mode vocal avancé d’OpenAI, par code repéré par les utilisateurs il y a seulement quelques semaines sous le nom de code « Straw ».