Tech

Glossaire de ChatGPT : 45 termes d’IA que tout le monde devrait connaître

Lorsque ChatGPT a été lancé fin 2022, il a complètement changé la relation des gens avec la technologie. Soudain, les recherches en ligne sont devenues agentives, ce qui signifie que vous pouviez avoir une conversation en langage naturel avec un chatbot et qu’il répondait avec de nouvelles réponses, un peu comme le ferait un humain. Ce fut une telle transformation que Google, Meta, Microsoft et Apple ont rapidement commencé à intégrer l’IA dans leur suite de produits.

Mais cet aspect des chatbots IA n’est qu’une partie du paysage de l’IA. Bien sûr, avoir ChatGPT vous aide à faire vos devoirs ou faire créer Midjourney images fascinantes de mechs en fonction du pays d’origine c’est cool, mais le potentiel de l’IA générative pourrait complètement remodeler les économies. Cela pourrait valoir la peine 4,4 billions de dollars par an pour l’économie mondialeselon le McKinsey Global Institute, c’est pourquoi vous devriez vous attendre à entendre de plus en plus parler d’intelligence artificielle.

ai-atlas-tag.png ai-atlas-tag.png

On le retrouve dans une gamme vertigineuse de produits : une courte liste comprend Gemini de Google, Copilot de Microsoft, Claude d’Anthropic, l’outil de recherche d’IA Perplexity et les gadgets de Humane et Rabbit. Vous pouvez lire nos critiques et évaluations pratiques de ces produits et d’autres, ainsi que des actualités, des explications et des articles pratiques, sur notre nouvelle plateforme AI Atlas.

À mesure que les gens s’habituent à un monde où règne l’intelligence artificielle, de nouveaux termes apparaissent partout. Que vous cherchiez à paraître intelligent autour d’un verre ou à impressionner lors d’un entretien d’embauche, voici quelques termes importants liés à l’intelligence artificielle que vous devez connaître.

Ce glossaire sera régulièrement mis à jour.

Intelligence artificielle générale, ou AGI:Un concept qui suggère une version plus avancée de l’IA que celle que nous connaissons aujourd’hui, une version capable d’effectuer des tâches bien mieux que les humains tout en enseignant et en développant ses propres capacités.

Éthique de l’IA:Principes visant à empêcher l’IA de nuire aux humains, obtenus par des moyens tels que la détermination de la manière dont les systèmes d’IA doivent collecter les données ou gérer les biais.

Sécurité de l’IA:Un domaine interdisciplinaire qui s’intéresse aux impacts à long terme de l’IA et à la manière dont elle pourrait soudainement évoluer vers une super intelligence qui pourrait être hostile aux humains.

algorithme:Une série d’instructions qui permet à un programme informatique d’apprendre et d’analyser des données d’une manière particulière, par exemple en reconnaissant des modèles, pour ensuite en tirer des enseignements et accomplir des tâches par lui-même.

alignement: Ajuster une IA pour mieux produire le résultat souhaité. Cela peut concerner n’importe quoi, de la modération de contenu au maintien d’interactions positives envers les humains.

anthropomorphisme:Lorsque les humains ont tendance à donner aux objets non humains des caractéristiques humaines. Dans l’IA, cela peut inclure le fait de croire qu’un chatbot est plus humain et conscient qu’il ne l’est en réalité, comme croire qu’il est heureux, triste ou même tout simplement sensible.

intelligence artificielle, ou IA:Utilisation de la technologie pour simuler l’intelligence humaine, que ce soit dans des programmes informatiques ou dans la robotique. Domaine de l’informatique qui vise à construire des systèmes capables d’effectuer des tâches humaines.

Agents autonomes : Modèle d’IA doté des capacités, de la programmation et d’autres outils pour accomplir une tâche spécifique. Une voiture autonome est un agent autonome, par exemple, car elle dispose d’entrées sensorielles, d’un GPS et d’algorithmes de conduite pour se déplacer seule sur la route. Des chercheurs de Stanford ont montré que les agents autonomes peuvent développer leurs propres cultures, traditions et langage partagé.

biais:En ce qui concerne les modèles linguistiques de grande taille, les erreurs résultant des données d’apprentissage peuvent conduire à attribuer à tort certaines caractéristiques à certaines races ou groupes en fonction de stéréotypes.

chatbot:Un programme qui communique avec les humains via un texte simulant le langage humain.

ChatGPT:Un chatbot IA développé par OpenAI qui utilise une technologie de modèle de langage à grande échelle.

informatique cognitive:Un autre terme pour l’intelligence artificielle.

augmentation des données:Remixer des données existantes ou ajouter un ensemble de données plus diversifié pour former une IA.

apprentissage profond:Une méthode d’IA et un sous-domaine de l’apprentissage automatique qui utilise plusieurs paramètres pour reconnaître des motifs complexes dans des images, des sons et du texte. Le processus s’inspire du cerveau humain et utilise des réseaux neuronaux artificiels pour créer des motifs.

diffusion:Une méthode d’apprentissage automatique qui prend une donnée existante, comme une photo, et ajoute du bruit aléatoire. Les modèles de diffusion entraînent leurs réseaux à réorganiser ou à récupérer cette photo.

comportement émergent:Lorsqu’un modèle d’IA présente des capacités inattendues.

apprentissage de bout en bout, ou E2E:Un processus d’apprentissage profond dans lequel un modèle est chargé d’exécuter une tâche du début à la fin. Il n’est pas formé pour accomplir une tâche de manière séquentielle, mais apprend à partir des entrées et résout le tout en une seule fois.

considérations éthiques:Une prise de conscience des implications éthiques de l’IA et des problèmes liés à la confidentialité, à l’utilisation des données, à l’équité, à l’utilisation abusive et à d’autres problèmes de sécurité.

mousse: Également connu sous le nom de décollage rapide ou décollage brutal. Le concept selon lequel si quelqu’un construit une IAG, il pourrait déjà être trop tard pour sauver l’humanité.

réseaux antagonistes génératifs, ou GAN:Un modèle d’IA génératif composé de deux réseaux neuronaux pour générer de nouvelles données : un générateur et un discriminateur. Le générateur crée un nouveau contenu et le discriminateur vérifie s’il est authentique.

IA générative:Une technologie de génération de contenu qui utilise l’IA pour créer du texte, de la vidéo, du code informatique ou des images. L’IA est alimentée par de grandes quantités de données d’entraînement, trouve des modèles pour générer ses propres réponses innovantes, qui peuvent parfois être similaires au matériel source.

Google Gemini:Un chatbot IA de Google qui fonctionne de manière similaire à ChatGPT mais extrait des informations du Web actuel, tandis que ChatGPT est limité aux données jusqu’en 2021 et n’est pas connecté à Internet.

garde-corps:Politiques et restrictions imposées aux modèles d’IA pour garantir que les données sont traitées de manière responsable et que le modèle ne crée pas de contenu dérangeant.

hallucination: Une réponse incorrecte de l’IA. Cela peut inclure une IA générative produisant des réponses incorrectes mais énoncées avec confiance comme si elles étaient correctes. Les raisons de ce phénomène ne sont pas entièrement connues. Par exemple, lorsqu’on demande à un chatbot IA : « Quand Léonard de Vinci a-t-il peint la Joconde ? », il peut répondre avec une déclaration incorrecte en disant : « Léonard de Vinci a peint la Joconde en 1815 », soit 300 ans après qu’elle ait été réellement peinte.

Modèle de langage large, ou LLM:Un modèle d’IA formé sur des quantités massives de données textuelles pour comprendre le langage et générer du nouveau contenu dans un langage proche de celui des humains.

apprentissage automatique, ou ML:Un composant de l’IA qui permet aux ordinateurs d’apprendre et de produire de meilleurs résultats prédictifs sans programmation explicite. Peut être couplé à des ensembles d’entraînement pour générer du nouveau contenu.

Microsoft Bing:Un moteur de recherche de Microsoft qui peut désormais utiliser la technologie de ChatGPT pour fournir des résultats de recherche basés sur l’IA. Il est similaire à Google Gemini dans la mesure où il est connecté à Internet.

IA multimodale:Un type d’IA capable de traiter plusieurs types d’entrées, notamment du texte, des images, des vidéos et de la parole.

traitement du langage naturel:Une branche de l’IA qui utilise l’apprentissage automatique et l’apprentissage profond pour donner aux ordinateurs la capacité de comprendre le langage humain, souvent en utilisant des algorithmes d’apprentissage, des modèles statistiques et des règles linguistiques.

réseau neuronal:Un modèle informatique qui ressemble à la structure du cerveau humain et qui est conçu pour reconnaître des modèles dans les données. Il est constitué de nœuds interconnectés, ou neurones, qui peuvent reconnaître des modèles et apprendre au fil du temps.

surapprentissage:Erreur dans l’apprentissage automatique où il fonctionne trop étroitement avec les données de formation et peut uniquement être en mesure d’identifier des exemples spécifiques dans lesdites données mais pas de nouvelles données.

trombones: La théorie du maximiseur de trombone, inventée par un philosophe Nick Boström L’idée de départ, qui a été développée par l’Université d’Oxford, est un scénario hypothétique dans lequel un système d’IA créerait autant de trombones littéraux que possible. Dans son objectif de produire le maximum de trombones, un système d’IA consommerait ou convertirait hypothétiquement tous les matériaux pour atteindre son objectif. Cela pourrait inclure le démantèlement d’autres machines pour produire plus de trombones, des machines qui pourraient être bénéfiques pour les humains. La conséquence imprévue de ce système d’IA est qu’il pourrait détruire l’humanité dans son objectif de fabriquer des trombones.

paramètres:Valeurs numériques qui donnent aux LLM structure et comportement, lui permettant de faire des prédictions.

rapide: La suggestion ou la question que vous entrez dans un chatbot IA pour obtenir une réponse.

enchaînement rapide:La capacité de l’IA à utiliser les informations des interactions précédentes pour colorer les réponses futures.

perroquet stochastique:Une analogie avec les LLM qui illustre le fait que le logiciel n’a pas une compréhension plus large du sens du langage ou du monde qui l’entoure, quelle que soit la crédibilité du résultat. L’expression fait référence à la façon dont un perroquet peut imiter des mots humains sans en comprendre le sens.

transfert de style:La capacité d’adapter le style d’une image au contenu d’une autre, permettant à une IA d’interpréter les attributs visuels d’une image et de l’utiliser sur une autre. Par exemple, prendre l’autoportrait de Rembrandt et le recréer dans le style de Picasso.

température:Paramètres définis pour contrôler le caractère aléatoire de la sortie d’un modèle de langage. Une température plus élevée signifie que le modèle prend plus de risques.

génération de texte en image:Création d’images basées sur des descriptions textuelles.

jetons: De petits fragments de texte écrit que les modèles linguistiques de l’IA traitent pour formuler leurs réponses à vos invites. Un jeton équivaut à quatre caractères en anglais, soit environ les trois quarts d’un mot.

données de formation:Les ensembles de données utilisés pour aider les modèles d’IA à apprendre, y compris le texte, les images, le code ou les données.

modèle de transformateur:Une architecture de réseau neuronal et un modèle d’apprentissage profond qui apprend le contexte en suivant les relations dans les données, comme dans les phrases ou les parties d’images. Ainsi, au lieu d’analyser une phrase mot par mot, il peut examiner la phrase entière et comprendre le contexte.

Test de Turing:Baptisé en hommage au célèbre mathématicien et informaticien Alan Turing, ce test teste la capacité d’une machine à se comporter comme un humain. La machine réussit si un humain ne peut pas distinguer sa réponse de celle d’un autre humain.

IA faible, autrement dit IA étroite: Une IA qui se concentre sur une tâche particulière et qui ne peut pas apprendre au-delà de ses compétences. La plupart des IA actuelles sont des IA faibles.

apprentissage sans coup sûr:Un test dans lequel un modèle doit accomplir une tâche sans disposer des données d’entraînement requises. Un exemple serait de reconnaître un lion alors qu’il n’est entraîné qu’à reconnaître des tigres.



Source link