Glossaire ChatGPT : 47 termes d’IA que tout le monde devrait connaître
Le lancement de ChatGPT fin 2022 a complètement changé la relation des gens avec la recherche d’informations en ligne. Soudainement, les gens ont pu avoir des conversations significatives avec les machines, ce qui signifie que vous pouviez poser des questions à un chatbot IA en langage naturel et qu’il répondrait avec de nouvelles réponses, un peu comme le ferait un humain. Cela a été si transformateur que Google, Meta, Microsoft et Apple ont rapidement commencé à intégrer l’IA dans leurs produits.
Mais cet aspect des chatbots IA ne représente qu’une partie du paysage de l’IA. Bien sûr, ayant ChatGPT vous aide à faire vos devoirs ou demander à Midjourney de créer images fascinantes de mechs basées sur le pays d’origine C’est cool, mais le potentiel de l’IA générative pourrait complètement remodeler les économies. Cela pourrait valoir la peine 4 400 milliards de dollars par an pour l’économie mondialeselon le McKinsey Global Institute, c’est pourquoi vous devriez vous attendre à entendre de plus en plus parler d’intelligence artificielle.
Il apparaît dans une gamme vertigineuse de produits – une liste très courte comprend Gemini de Google, Copilot de Microsoft, Claude d’Anthropic, l’outil de recherche Perplexity AI et les gadgets de Humane et Rabbit. Vous pouvez lire nos critiques et évaluations pratiques de ces produits et d’autres, ainsi que des actualités, des explications et des articles pratiques, sur notre hub AI Atlas.
À mesure que les gens s’habituent à un monde étroitement lié à l’IA, de nouveaux termes apparaissent partout. Alors, que vous essayiez de paraître intelligent autour d’un verre ou d’impressionner lors d’un entretien d’embauche, voici quelques termes importants en matière d’IA que vous devriez connaître.
Ce glossaire est régulièrement mis à jour.
intelligence générale artificielle, ou AGI: Un concept qui suggère une version de l’IA plus avancée que celle que nous connaissons aujourd’hui, capable d’effectuer des tâches bien mieux que les humains tout en enseignant et en faisant progresser ses propres capacités.
agent : Systèmes ou modèles qui font preuve d’agence avec la capacité de poursuivre des actions de manière autonome pour atteindre un objectif. Dans le contexte de l’IA, un modèle agent peut agir sans supervision constante, comme une voiture autonome de haut niveau. Contrairement à un framework « agentique », qui est en arrière-plan, les frameworks agents sont en avant-plan, se concentrant sur l’expérience utilisateur.
Éthique de l’IA: Principes visant à empêcher l’IA de nuire aux humains, obtenus grâce à des moyens tels que la détermination de la manière dont les systèmes d’IA doivent collecter des données ou gérer les biais.
Sécurité de l’IA: Un domaine interdisciplinaire qui s’intéresse aux impacts à long terme de l’IA et à la manière dont elle pourrait soudainement évoluer vers une super intelligence qui pourrait être hostile aux humains.
algorithme: Série d’instructions qui permettent à un programme informatique d’apprendre et d’analyser des données d’une manière particulière, par exemple en reconnaissant des modèles, pour ensuite en tirer des leçons et accomplir des tâches par lui-même.
alignement: peaufiner une IA pour mieux produire le résultat souhaité. Cela peut faire référence à tout, de la modération du contenu au maintien d’interactions positives avec les humains.
anthropomorphisme: Quand les humains ont tendance à donner aux objets non humains des caractéristiques humaines. En IA, cela peut inclure de croire qu’un chatbot est plus humain et plus conscient qu’il ne l’est en réalité, comme croire qu’il est heureux, triste ou même complètement sensible.
intelligence artificielle, ou IA: L’utilisation de la technologie pour simuler l’intelligence humaine, que ce soit dans des programmes informatiques ou en robotique. Un domaine de l’informatique qui vise à construire des systèmes capables d’effectuer des tâches humaines.
agents autonomes : Un modèle d’IA doté des capacités, de la programmation et d’autres outils nécessaires pour accomplir une tâche spécifique. Une voiture autonome est par exemple un agent autonome, car elle dispose d’entrées sensorielles, d’un GPS et d’algorithmes de conduite pour naviguer seule sur la route. Chercheurs de Stanford ont montré que les agents autonomes peuvent développer leurs propres cultures, traditions et langage commun.
biais: En ce qui concerne les grands modèles de langage, erreurs résultant des données d’entraînement. Cela peut conduire à attribuer faussement certaines caractéristiques à certaines races ou groupes sur la base de stéréotypes.
chatbot: Un programme qui communique avec les humains à travers un texte qui simule le langage humain.
ChatGPT: Un chatbot IA développé par OpenAI qui utilise la technologie de grands modèles de langage.
informatique cognitive: Un autre terme pour l’intelligence artificielle.
augmentation des données: Remixer des données existantes ou ajouter un ensemble de données plus diversifié pour entraîner une IA.
apprentissage profond: Une méthode d’IA et un sous-domaine de l’apprentissage automatique, qui utilise plusieurs paramètres pour reconnaître des modèles complexes dans les images, le son et le texte. Le processus s’inspire du cerveau humain et utilise des réseaux de neurones artificiels pour créer des modèles.
diffusion: méthode d’apprentissage automatique qui prend une donnée existante, comme une photo, et y ajoute du bruit aléatoire. Les modèles de diffusion entraînent leurs réseaux à réorganiser ou à récupérer cette photo.
comportement émergent: Lorsqu’un modèle d’IA présente des capacités involontaires.
apprentissage de bout en bout, ou E2E: Processus d’apprentissage en profondeur dans lequel un modèle est invité à effectuer une tâche du début à la fin. Il n’est pas formé pour accomplir une tâche de manière séquentielle, mais apprend plutôt des entrées et la résout d’un seul coup.
considérations éthiques: Une prise de conscience des implications éthiques de l’IA et des problèmes liés à la confidentialité, à l’utilisation des données, à l’équité, à l’utilisation abusive et à d’autres problèmes de sécurité.
mousse: Également connu sous le nom de décollage rapide ou de décollage dur. Le concept selon lequel si quelqu’un construit une AGI, il sera peut-être déjà trop tard pour sauver l’humanité.
réseaux contradictoires génératifs, ou GAN: Un modèle d’IA génératif composé de deux réseaux de neurones pour générer de nouvelles données : un générateur et un discriminateur. Le générateur crée un nouveau contenu et le discriminateur vérifie s’il est authentique.
IA générative: Une technologie de génération de contenu qui utilise l’IA pour créer du texte, des vidéos, du code informatique ou des images. L’IA reçoit de grandes quantités de données d’entraînement, trouve des modèles pour générer ses propres réponses nouvelles, qui peuvent parfois être similaires au matériel source.
Google Gémeaux: Un chatbot IA de Google qui fonctionne de manière similaire à ChatGPT mais extrait des informations du Web actuel, tandis que ChatGPT est limité aux données jusqu’en 2021 et n’est pas connecté à Internet.
garde-corps: Politiques et restrictions imposées aux modèles d’IA pour garantir que les données sont traitées de manière responsable et que le modèle ne crée pas de contenu dérangeant.
hallucination: Une réponse incorrecte de l’IA. Peut inclure une IA générative produisant des réponses incorrectes mais énoncées avec confiance comme si elles étaient correctes. Les raisons de cela ne sont pas entièrement connues. Par exemple, lorsque vous demandez à un chatbot IA : « Quand Léonard de Vinci a-t-il peint la Joconde ? il peut répondre avec une déclaration incorrecte disant : « Léonard de Vinci a peint la Joconde en 1815 », soit 300 ans après qu’elle ait été réellement peinte.
grand modèle de langage, ou LLM: Un modèle d’IA entraîné sur des quantités massives de données textuelles pour comprendre le langage et générer un nouveau contenu dans un langage de type humain.
apprentissage automatique, ou ML: Un composant de l’IA qui permet aux ordinateurs d’apprendre et d’obtenir de meilleurs résultats prédictifs sans programmation explicite. Peut être couplé à des ensembles de formation pour générer du nouveau contenu.
MicrosoftBing: Un moteur de recherche de Microsoft qui peut désormais utiliser la technologie qui alimente ChatGPT pour fournir des résultats de recherche alimentés par l’IA. C’est similaire à Google Gemini en ce qui concerne la connexion à Internet.
IA multimodale: Un type d’IA capable de traiter plusieurs types d’entrées, notamment du texte, des images, des vidéos et de la parole.
traitement du langage naturel: branche de l’IA qui utilise l’apprentissage automatique et l’apprentissage profond pour donner aux ordinateurs la capacité de comprendre le langage humain, souvent à l’aide d’algorithmes d’apprentissage, de modèles statistiques et de règles linguistiques.
réseau neuronal: Un modèle informatique qui ressemble à la structure du cerveau humain et est destiné à reconnaître des modèles dans les données. Se compose de nœuds interconnectés, ou neurones, capables de reconnaître des modèles et d’apprendre au fil du temps.
surapprentissage: Erreur dans l’apprentissage automatique où il fonctionne trop étroitement avec les données d’entraînement et peut n’être capable d’identifier que des exemples spécifiques dans lesdites données, mais pas de nouvelles données.
trombones : La théorie du Paperclip Maximiser, inventée par le philosophe Nick Bostrom de l’Université d’Oxford, est un scénario hypothétique dans lequel un système d’IA créerait autant de trombones littéraux que possible. Dans son objectif de produire le maximum de trombones, un système d’IA consommerait ou convertirait hypothétiquement tous les matériaux pour atteindre son objectif. Cela pourrait inclure le démantèlement d’autres machines pour produire davantage de trombones, des machines qui pourraient être bénéfiques aux humains. La conséquence involontaire de ce système d’IA est qu’il pourrait détruire l’humanité dans son objectif de fabriquer des trombones.
paramètres: Valeurs numériques qui donnent la structure et le comportement du LLM, lui permettant de faire des prédictions.
Perplexité: Le nom d’un chatbot et d’un moteur de recherche alimentés par l’IA appartenant à Perplexity AI. Il utilise un grand modèle de langage, comme ceux trouvés dans d’autres chatbots IA, pour répondre aux questions avec de nouvelles réponses. Sa connexion à l’Internet ouvert lui permet également de fournir des informations à jour et d’extraire des résultats provenant de partout sur le Web. Perplexity Pro, un niveau payant du service, est également disponible et utilise d’autres modèles, notamment GPT-4o, Claude 3 Opus, Mistral Large, l’open source LlaMa 3 et son propre Sonar 32k. Les utilisateurs professionnels peuvent également télécharger des documents à des fins d’analyse, générer des images et interpréter du code.
rapide: La suggestion ou la question que vous saisissez dans un chatbot IA pour obtenir une réponse.
chaînage rapide: La capacité de l’IA à utiliser les informations des interactions précédentes pour colorer les réponses futures.
perroquet stochastique: Une analogie avec les LLM qui illustre que le logiciel n’a pas une plus grande compréhension de la signification du langage ou du monde qui l’entoure, aussi convaincant soit-il. L’expression fait référence à la façon dont un perroquet peut imiter des mots humains sans en comprendre le sens.
transfert de style: La capacité d’adapter le style d’une image au contenu d’une autre, permettant à une IA d’interpréter les attributs visuels d’une image et de les utiliser sur une autre. Par exemple, prendre l’autoportrait de Rembrandt et le recréer à la manière de Picasso.
température: Paramètres définis pour contrôler le degré d’aléatoire de la sortie d’un modèle de langage. Une température plus élevée signifie que le modèle prend plus de risques.
génération de texte en image: Création d’images basées sur des descriptions textuelles.
jetons : Petits morceaux de texte écrit que les modèles de langage d’IA traitent pour formuler leurs réponses à vos invites. Un jeton équivaut à quatre caractères en anglais, soit environ les trois quarts d’un mot.
données d’entraînement: Les ensembles de données utilisés pour aider les modèles d’IA à apprendre, notamment du texte, des images, du code ou des données.
modèle de transformateur: Une architecture de réseau neuronal et un modèle d’apprentissage en profondeur qui apprend le contexte en suivant les relations dans les données, comme dans les phrases ou les parties d’images. Ainsi, au lieu d’analyser une phrase mot par mot, il peut examiner la phrase entière et comprendre le contexte.
Test de Turing: Nommé d’après le célèbre mathématicien et informaticien Alan Turing, il teste la capacité d’une machine à se comporter comme un humain. La machine réussit si un humain ne peut pas distinguer la réponse de la machine de celle d’un autre humain.
IA faible, c’est-à-dire IA étroite: Une IA qui se concentre sur une tâche particulière et ne peut pas apprendre au-delà de ses compétences. La plupart des IA actuelles sont des IA faibles.
apprentissage sans tir: Un test dans lequel un modèle doit effectuer une tâche sans recevoir les données de formation requises. Un exemple serait de reconnaître un lion tout en étant dressé uniquement sur des tigres.