La fondation technologique la plus en vogue de l’IA a bénéficié d’une importante mise à jour mardi avec la version GPT-4 d’OpenAI désormais disponible dans la version premium du Chatbot ChatGPT.
GPT-4 peut générer des chaînes de texte beaucoup plus longues et répondre lorsque les gens l’alimentent en images, et il est conçu pour faire un meilleur travail en évitant les pièges de l’intelligence artificielle visibles dans l’ancien GPT-3.5, OpenAI a déclaré mardi. Par exemple, lors des examens du barreau que les avocats doivent réussir pour pratiquer le droit, GPT-4 se classe dans le top 10 % des scores par rapport aux 10% inférieurs pour GPT-3.5, a déclaré la société de recherche en IA.
GPT signifie Generative Pretrained Transformer, une référence au fait qu’il peut générer du texte par lui-même – maintenant jusqu’à 25 000 mots avec GPT-4 – et qu’il utilise une technologie d’intelligence artificielle appelée transformateurs dont Google a été le pionnier. Il s’agit d’un type d’IA appelé grand modèle de langage, ou LLM, qui est formé sur de vastes étendues de données récoltées sur Internet, apprenant mathématiquement à repérer des modèles et à reproduire des styles. Les surveillants humains évaluent les résultats pour orienter GPT dans la bonne direction, et GPT-4 a plus de ces commentaires.
OpenAI a mis GPT à la disposition des développeurs pendant des années, mais ChatGPT, qui a fait ses débuts en novembre, offrait une interface simple que les gens ordinaires peuvent utiliser. Cela a suscité une explosion d’intérêt, d’expérimentation et d’inquiétude quant aux inconvénients de la technologie. Il peut tout faire, de la génération de code de programmation et de la réponse aux questions d’examen à l’écriture de poésie et à la fourniture de faits de base. C’est remarquable sinon toujours fiable.
ChatGPT est gratuit, mais il peut faiblir lorsque la demande est élevée. En janvier, OpenAI a commencé à proposer ChatGPT Plus pour 20 $ par mois avec une disponibilité garantie et, maintenant, la fondation GPT-4. Les développeurs peuvent s’inscrire sur un liste d’attente pour obtenir leur propre accès à GPT-4.
Progrès GPT-4
« Dans une conversation informelle, la distinction entre GPT-3.5 et GPT-4 peut être subtile. La différence apparaît lorsque la complexité de la tâche atteint un seuil suffisant », a déclaré OpenAI. « GPT-4 est plus fiable, créatif et capable de gérer des instructions beaucoup plus nuancées que GPT-3.5. »
Une autre avancée majeure de GPT-4 est la capacité d’accepter des données d’entrée qui incluent du texte et des photos. L’exemple d’OpenAI demande au chatbot d’expliquer une blague montrant un câble d’ordinateur encombrant vieux de plusieurs décennies branché sur le petit port Lightning d’un iPhone moderne. Cette fonctionnalité aide également GPT à passer des tests qui ne sont pas seulement textuels, mais elle n’est pas encore disponible dans ChatGPT Plus.
Un autre est une meilleure performance en évitant les problèmes d’IA comme les hallucinations – des réponses mal fabriquées, souvent proposées avec autant d’autorité apparente que les réponses que l’IA obtient correctement. Le GPT-4 est également plus efficace pour contrecarrer les tentatives visant à lui faire dire la mauvaise chose : « Le GPT-4 obtient un score de 40 % supérieur à notre dernier GPT-3.5 lors de nos évaluations internes contradictoires des faits », a déclaré OpenAI.
GPT-4 ajoute également de nouvelles options de « dirigabilité ». Aujourd’hui, les utilisateurs de grands modèles de langage doivent souvent s’engager dans une « ingénierie des invites » élaborée, apprenant à intégrer des signaux spécifiques dans leurs invites pour obtenir le bon type de réponses. GPT-4 ajoute une option de commande système qui permet aux utilisateurs de définir un ton ou un style spécifique, par exemple un code de programmation ou un tuteur socratique : « Vous êtes un tuteur qui répond toujours dans le style socratique. Vous ne donnez jamais la réponse à l’étudiant, mais toujours essayez de poser la bonne question pour les aider à apprendre à penser par eux-mêmes. »
« Perroquets stochastiques » et autres problèmes
OpenAI reconnaît les lacunes importantes qui persistent avec GPT-4, bien qu’il vante également les progrès en les évitant.
« Il peut parfois faire de simples erreurs de raisonnement… ou être trop crédule en acceptant de fausses déclarations évidentes d’un utilisateur. Et parfois, il peut échouer à des problèmes difficiles de la même manière que les humains, comme l’introduction de failles de sécurité dans le code qu’il produit », OpenAI a dit. De plus, « GPT-4 peut également se tromper en toute confiance dans ses prédictions, ne prenant pas soin de revérifier le travail lorsqu’il est susceptible de faire une erreur. »
Les grands modèles de langage peuvent fournir des résultats impressionnants, semblant comprendre d’énormes quantités de sujets et converser dans un langage à consonance humaine quoique quelque peu guindé. Fondamentalement, cependant, les IA LLM ne savent vraiment rien. Ils sont simplement capables d’enchaîner des mots de manière statistiquement très raffinée.
Cette approche statistique mais fondamentalement quelque peu creuse de la connaissance a conduit des chercheurs, dont les anciens chercheurs de Google AI Emily Bender et Timnit Gebru, à mettre en garde contre le « dangers des perroquets stochastiques » qui viennent avec de grands modèles de langage. Les IA des modèles de langage ont tendance à coder les préjugés, les stéréotypes et les sentiments négatifs présents dans les données de formation, et les chercheurs et autres personnes utilisant ces modèles ont tendance à » confondre … les gains de performance avec la compréhension réelle du langage naturel « .
Le directeur général d’OpenAI, Sam Altman, reconnaît les problèmes, mais il est globalement satisfait des progrès réalisés avec GPT-4. « Il est plus créatif que les modèles précédents, il hallucine beaucoup moins et il est moins biaisé. Il peut réussir un examen du barreau et obtenir un 5 à plusieurs examens AP », Altman a tweeté Mardi.
L’une des inquiétudes concernant l’IA est que les étudiants l’utiliseront pour tricher, par exemple lorsqu’ils répondront à des questions à développement. C’est un risque réel, bien que certains éducateurs adoptent activement les LLM comme un outil, comme les moteurs de recherche et Wikipedia. Les entreprises de détection de plagiat s’adaptent à l’IA en formant leurs propres modèles de détection. Une telle entreprise, Crossplaga déclaré mercredi qu’après avoir testé environ 50 documents générés par GPT-4, « notre taux de précision était supérieur à 98,5 % ».
Partenariat OpenAI, Microsoft et Nvidia
OpenAI a reçu un grand coup de pouce lorsque Microsoft a déclaré en février qu’il utilisait la technologie GPT dans son moteur de recherche Bing, y compris des fonctionnalités de chat similaires à ChatGPT. Mardi, Microsoft a déclaré qu’il était en utilisant GPT-4 pour le Bing travail. Ensemble, OpenAI et Microsoft posent un menace de recherche majeure pour Googlemais Google dispose également de sa propre technologie de modèle de langage étendu, y compris un chatbot appelé Barde que Google teste en privé.
Mardi également, Google a annoncé qu’il commencerait ses propres tests limités Technologie d’intelligence artificielle pour stimuler la rédaction d’e-mails Gmail et les documents de traitement de texte Google Docs. « Avec votre partenaire IA collaboratif, vous pouvez continuer à affiner et à modifier, en obtenant plus de suggestions si nécessaire », a déclaré Google.
Cette formulation reflète le positionnement « co-pilote » de Microsoft de la technologie AI. L’appeler une aide au travail dirigé par l’homme est une position courante, étant donné les problèmes de la technologie et la nécessité d’une surveillance humaine attentive.
Microsoft utilise la technologie GPT à la fois pour évaluer les recherches que les gens tapent dans Bing et, dans certains cas, pour offrir des réponses conversationnelles plus élaborées. Le les résultats peuvent être beaucoup plus informatifs que ceux des moteurs de recherche précédents, mais l’interface plus conversationnelle qui peut être invoquée en option a eu des problèmes qui la font paraître déséquilibrée.
Former GPT, OpenAI a utilisé le service de cloud computing Azure de Microsoft, y compris des milliers d’unités de traitement graphique A100 de Nvidia, ou GPU, couplées ensemble. Azure peut désormais utiliser les nouveaux processeurs H100 de Nvidia, qui incluent des circuits spécifiques pour accélérer les calculs du transformateur AI.
Des chatbots IA partout
Un autre grand développeur de modèles de langage, Anthropic, a également a dévoilé un chatbot IA appelé Claude mardi. La société, qui compte Google parmi ses investisseurs, a ouvert un liste d’attente pour Claude.
« Claude est capable d’une grande variété de tâches de conversation et de traitement de texte tout en maintenant un haut degré de fiabilité et de prévisibilité », a déclaré Anthropic dans un article de blog. « Claude peut vous aider avec des cas d’utilisation, y compris la synthèse, la recherche, l’écriture créative et collaborative, les questions-réponses, le codage et plus encore. »
C’est l’un d’une foule croissante. Le géant chinois de la recherche et de la technologie Baidu travaille sur un chatbot appelé Ernie Bot. Meta, société mère de Facebook et Instagram, a consolidé ses opérations d’IA dans une équipe plus grande et prévoit d’intégrer une IA plus générative dans ses produits. Même Snapchat se lance dans le jeu avec un chatbot basé sur GPT appelé My AI.
Attendez-vous à plus de raffinements à l’avenir.
« Nous avons suivi la formation initiale de GPT-4 pendant un certain temps, mais il nous a fallu beaucoup de temps et beaucoup de travail pour nous sentir prêts à le publier », Altman a tweeté. « Nous espérons que vous l’apprécierez et nous apprécions vraiment les commentaires sur ses lacunes. »
Note des éditeurs : CNET utilise un moteur d’IA pour créer des explications sur les finances personnelles qui sont éditées et vérifiées par nos éditeurs. Pour en savoir plus, voir ce post.