Glossaire & Lexique de l’Intelligence Artificielle (IA)

glossary & lexicon & ai definition

L’intelligence artificielle est un domaine qui regorge de termes techniques tels que Prompt, IA générative ou encore Deep Learning. À première vue, ces termes peuvent sembler complexes. Ces mots, souvent en anglais et qui font régulièrement la une des journaux, cachent pourtant des concepts et des technologies avant-gardistes.

Un glossaire pour simplifier et mieux comprendre

Si des termes tels que Spatial Computing ou Perceptron vous semblent encore obscurs, ne vous inquiétez pas. Dans ce glossaire, nous vous proposons de démystifier et de clarifier, de manière concise et accessible, les termes les plus fréquemment rencontrés au sein de l’univers de l’intelligence artificielle.

Nous passerons donc en revue tous les termes liés à l’IA et vous en donnerons les définitions les plus précises possibles.

Voici le lexique :

  • AI Ethics : Questions que les parties prenantes de l’IA, comme les ingénieurs et les responsables gouvernementaux, doivent considérer pour garantir que la technologie est développée et utilisée de manière responsable.
  • Agent Autonome : Un agent qui décide de ses propres actions et conditions sans intervention extérieure.
  • Algorithm : Séquence de règles données à une machine d’IA pour effectuer une tâche ou résoudre un problème.
  • Application Programming Interface (API) : Ensemble de règles et protocoles permettant à différents logiciels de communiquer et d’échanger des informations. Agit comme un intermédiaire pour faciliter l’interaction entre programmes utilisant différentes technologies.
  • Artificial Intelligence (AI) : Intelligence manifestée par les machines pour réaliser des tâches nécessitant normalement l’intelligence humaine, telles que l’apprentissage, la résolution de problèmes et la compréhension du langage.
  • Assistant virtuel : programme destiné à répondre en langage naturel aux questions qui lui sont adressées ou à réaliser des tâches.
  • Assistant vocal personnel : assistant virtuel équipé d’un module de reconnaissance vocale et d’un système de synthétisation de la parole afin de reconnaître les instructions vocales et d’y donner suite à l’aide de sa propre voix synthétisée.
  • Big Data : Référence aux grands ensembles de données qui peuvent être étudiés pour révéler des modèles et des tendances aidant aux décisions commerciales.
  • Compute Unified Device Architecture (CUDA) : Méthode permettant aux ordinateurs de résoudre des problèmes complexes en les fragmentant pour un traitement simultané, souvent à l’aide de GPU.
  • Computer Vision : Domaine interdisciplinaire de la science et de la technologie axé sur la compréhension par les ordinateurs des images et des vidéos.
  • Chatbot : Application logicielle conçue pour imiter la conversation humaine via des commandes textuelles ou vocales.
  • Cognitive Computing : Modèle informatisé axé sur l’imitation des processus de pensée humains tels que la reconnaissance de motifs et l’apprentissage.
  • Data Mining : Processus de tri de grands ensembles de données pour identifier des motifs qui peuvent améliorer les modèles ou résoudre des problèmes.
  • Data Processing : Processus de préparation de données brutes pour utilisation dans un modèle d’apprentissage machine, incluant le nettoyage et la transformation des données.
  • Data Science : Domaine interdisciplinaire de la technologie utilisant des algorithmes et des processus pour recueillir et analyser de grandes quantités de données afin de découvrir des motifs et des informations.
  • Deep Learning (DL) : Sous-domaine de l’apprentissage machine utilisant des réseaux neuronaux profonds pour apprendre des motifs complexes à partir de grandes quantités de données.
  • Embedding : Technique de représentation des mots en nombres pour que les ordinateurs puissent traiter le langage, en utilisant des algorithmes analysant les mots dans leur contexte.
  • Emergent Behavior : Comportement imprévisible ou non intentionnel montré par un système d’IA.
  • Feature Engineering : Processus de sélection et de création de nouvelles caractéristiques à partir de données brutes pour améliorer la performance des modèles d’apprentissage machine.
  • Generative Adversarial Network (GAN) : Programme informatique créant de nouvelles données, comme des images ou de la musique, par la formation de deux réseaux neuronaux en opposition.
  • Generative AI : Type de technologie utilisant l’IA pour créer du contenu, y compris du texte, des vidéos, du code et des images.
  • Generative Art : Art créé à l’aide de programmes informatiques ou algorithmes générant des sorties visuelles ou auditives, souvent basées sur des règles aléatoires ou mathématiques.
  • Generative Pre-trained Transformer (GPT) : Modèle de langage développé par OpenAI, utilisé pour générer du texte semblable à celui produit par un humain.
  • Giant Language model Test Room (GLTR) : Outil permettant de déterminer si un texte a été rédigé par une IA, en analysant l’utilisation des mots.
  • Graphics Processing Unit (GPU) : Composant informatique spécialisé dans les calculs complexes pour l’affichage d’images et de vidéos.
  • Guardrails : Restrictions et règles imposées aux systèmes d’IA pour garantir qu’ils gèrent les données de manière appropriée et ne génèrent pas de contenu contraire à l’éthique.
  • Hallucination : Réponse incorrecte d’un système d’IA ou fausse information présentée comme factuelle dans une sortie.
  • Hyperparameter : Paramètre affectant la manière dont un modèle d’IA apprend, généralement défini manuellement en dehors du modèle.
  • LangChain : Bibliothèque facilitant la connexion des modèles d’IA à des sources d’information externes pour la création d’agents ou de chatbots.
  • Langage Naturel : Langage qui ressemble au language des humains : fluide et naturel.
  • Large Language Model (LLM) : Modèle d’apprentissage machine entraîné sur de grandes quantités de données textuelles, capable de générer du texte naturel.
  • Modélisation : Processus de fabrication d’un modèle d’un objet virtuel, généralement tridimensionnel, au moyen d’une représentation en langage informatique.
  • Natural Language Processing (NLP) : Sous-domaine de l’IA qui se concentre sur l’enseignement des machines à comprendre, traiter et générer le langage humain.
  • Neural Radiance Fields (NeRF) : Modèle d’apprentissage profond utilisé pour des tâches comme la génération d’images, la détection d’objets et la segmentation.
  • Neurone artificiel : Mécanisme à multiples entrées et une seule sortie simulant certaines caractéristiques du neurone biologique.
  • Overfitting : Problème courant en apprentissage machine, survenant lorsque le modèle est trop complexe et n’est pas capable de généraliser à partir de nouvelles données.
  • Perceptron : modèle de neurones synthétiques où les signaux reçus sont d’abord hiérarchisés, puis ajoutés les uns aux autres et enfin convertis ensemble, selon une formule mathématique, en un unique signal de sortie.
  • Prompt : Un prompt en IA est une commande textuelle spécifique qui oriente les réactions ou les productions génératives de l’intelligence artificielle.
  • Python : Langage de programmation de haut niveau fréquemment utilisé dans les outils d’IA, reconnu pour sa simplicité et sa flexibilité.
  • Raisonnement : procédé permettant à un système informatisé de réaliser une séquence logique sur la base de propositions initiales et d’une base de connaissances pour aboutir à une conclusion.
  • Reinforcement Learning : Type d’apprentissage automatique dans lequel le modèle apprend par essais et erreurs, recevant des récompenses ou des pénalités pour ses actions, et ajustant son comportement en conséquence.
  • Réseaux neuronaux : Un réseau neuronal désigne un programme constitué par des algorithmes interconnectés à la façon du cerveau humain. Les réseaux neuronaux simulent le mode de fonctionnement du cerveau humain.
  • Spatial Computing : Utilisation de la technologie pour ajouter des informations et expériences numériques au monde physique, incluant la réalité augmentée et la réalité virtuelle.
  • Stable Diffusion : Modèle d’IA open source pour la synthèse d’images complexes à partir de textes, disponible pour une installation locale ou via plusieurs interfaces utilisateur en ligne.
  • Supervised Learning : Type d’apprentissage automatique où les données d’entraînement sont étiquetées et le modèle est formé pour faire des prédictions basées sur les relations entre les données d’entrée et les étiquettes correspondantes.
  • Temporal Coherence : Consistance et continuité des informations ou des motifs dans le temps, important dans des domaines comme la vision par ordinateur, le traitement du langage naturel et l’analyse de séries temporelles.
  • Test de Turing : Un test au cours duquel un être humain et un ordinateur sont mis en communication aveugle pour déterminer s’ils sont en mesure de parvenir aux mêmes degrés de performance.
  • Unsupervised Learning : Type d’apprentissage automatique où les données d’entraînement ne sont pas étiquetées et le modèle trouve des motifs et des relations dans les données de manière autonome.
  • Voix de synthèse : voix ou parole produite à partir d’un programme informatique qui reproduit fidèlement la voix humaine.
  • Webhook : Méthode permettant à un programme informatique d’envoyer des messages ou des données à un autre programme via Internet en temps réel.
➔ Accédez à plus de 5 000 Outils IA