Lexique pour comprendre le vocabulaire de l’intelligence artificielle

Bienvenue dans mon guide exhaustif du vocabulaire de l’intelligence artificielle, l’IA. Ce domaine technologique, en pleine expansion, est porteur de transformations majeures dans de nombreux secteurs. Cependant, il s’accompagne d’un jargon spécifique qui peut parfois sembler complexe. L’objectif de ce lexique est de clarifier les termes et concepts clés de l’IA, afin de vous offrir une meilleure compréhension de ses mécanismes, de ses applications et de ses enjeux.

Que vous soyez novice curieux, étudiant, professionnel cherchant à approfondir vos connaissances, ou simplement désireux de mieux appréhender les discussions actuelles sur l’IA, ce glossaire alphabétique est conçu pour vous. Nous aborderons chaque terme de manière factuelle et informative, en fournissant les équivalents anglais lorsque cela est pertinent, pour faciliter votre navigation dans cet univers fascinant.

Agent intelligent (Intelligent agent)

Un agent intelligent est une entité logicielle ou matérielle capable de percevoir son environnement à travers des capteurs, de traiter ces informations, et d’agir sur cet environnement via des effecteurs de manière autonome pour atteindre des objectifs spécifiques. Il peut apprendre de ses expériences pour améliorer ses performances.

Algorithme (Algorithm)

Un algorithme représente une séquence d’instructions ou de règles logiques, finies et non ambiguës, conçue pour résoudre un problème spécifique ou accomplir une tâche à partir d’un état initial et de données d’entrée. Dans le contexte de l’intelligence artificielle, les algorithmes sont fondamentaux car ils dictent la manière dont les systèmes analysent les données, apprennent et prennent des décisions.

Annotation (Annotation / Labeling)

L’annotation de données en intelligence artificielle est le processus qui consiste à étiqueter ou à catégoriser manuellement des données brutes (images, textes, sons, etc.) pour les rendre compréhensibles et utilisables par les algorithmes d’apprentissage automatique, en particulier pour l’apprentissage supervisé. On parle aussi de Labellisation.

Anthropomorphisation (de l’IA) (Anthropomorphism)

L’anthropomorphisation de l’IA fait référence à la tendance à attribuer des caractéristiques, des émotions, des intentions ou une conscience humaines à des systèmes d’intelligence artificielle. Bien que cela puisse faciliter la compréhension de certains concepts, il est important de distinguer les capacités réelles des machines de ces projections humaines.

Apprentissage actif (Active learning)

L’apprentissage actif est une technique d’apprentissage automatique où l’algorithme est capable de choisir de manière interactive les données à partir desquelles il apprend. Généralement, il sélectionne les exemples les plus informatifs à faire annoter par un expert humain, optimisant ainsi le processus d’apprentissage avec un minimum de données étiquetées.

Apprentissage automatique (Machine learning)

L’apprentissage automatique, ou Machine Learning (ML), est un sous-domaine de l’intelligence artificielle qui donne aux systèmes informatiques la capacité d’apprendre à partir de données, sans être explicitement programmés pour chaque tâche. Les algorithmes de ML identifient des motifs (patterns) dans les données pour faire des prédictions ou prendre des décisions.

Apprentissage auto-supervisé (Self-supervised learning)

L’apprentissage auto-supervisé est une méthode d’apprentissage automatique où le modèle génère lui-même les étiquettes à partir des données d’entrée non étiquetées. Il apprend en résolvant des tâches prétextes, par exemple en prédisant une partie masquée d’une donnée à partir du reste de cette donnée.

Apprentissage continu (Continual learning / Lifelong learning)

L’apprentissage continu désigne la capacité d’un système d’IA à apprendre de manière incrémentale à partir d’un flux continu de nouvelles données, après son déploiement initial. L’objectif est d’adapter et d’améliorer le modèle au fil du temps sans oublier les connaissances précédemment acquises.

Apprentissage fédéré (Federated learning)

L’apprentissage fédéré est une technique d’apprentissage automatique qui permet d’entraîner des modèles d’IA sur des ensembles de données distribués (par exemple, sur les appareils des utilisateurs) sans que ces données ne quittent leur emplacement d’origine. Seuls les modèles ou les mises à jour des modèles sont partagés, préservant ainsi la confidentialité des données.

Apprentissage non supervisé (Unsupervised learning)

L’apprentissage non supervisé est un type d’apprentissage automatique où l’algorithme est entraîné sur des données non étiquetées. Le système tente de découvrir par lui-même des structures cachées, des regroupements (clustering) ou des associations dans les données sans indication explicite sur les résultats attendus.

Apprentissage par renforcement (Reinforcement learning)

L’apprentissage par renforcement est une méthode d’apprentissage automatique où un agent apprend à prendre des décisions en interagissant avec un environnement. L’agent reçoit des récompenses ou des punitions en fonction de ses actions, ce qui l’aide à développer une stratégie (politique) pour maximiser la récompense cumulée sur le long terme.

Apprentissage par renforcement et rétroaction humaine (RLHF – Reinforcement learning from human feedback)

L’apprentissage par renforcement avec rétroaction humaine (RLHF) est une technique qui intègre des évaluations humaines dans le processus d’apprentissage par renforcement. Les humains fournissent des retours (par exemple, en classant les réponses d’un modèle) qui sont utilisés pour affiner la fonction de récompense de l’agent, améliorant ainsi son comportement, notamment pour les grands modèles de langage.

Apprentissage par transfert (Transfer learning)

L’apprentissage par transfert est une technique d’apprentissage automatique où un modèle développé et entraîné pour une tâche est réutilisé comme point de départ pour un modèle sur une tâche différente mais connexe. Cela est particulièrement utile lorsque les données disponibles pour la nouvelle tâche sont limitées.

Apprentissage profond (Deep learning)

L’apprentissage profond, ou Deep Learning, est un sous-domaine de l’apprentissage automatique qui utilise des réseaux de neurones artificiels comportant de multiples couches (d’où le terme « profond »). Ces couches permettent d’analyser les données à différents niveaux d’abstraction, rendant ces modèles performants pour des tâches complexes comme la reconnaissance d’images ou le traitement du langage naturel.

Apprentissage supervisé (Supervised learning)

L’apprentissage supervisé est un type d’apprentissage automatique où l’algorithme est entraîné sur un ensemble de données étiquetées. Chaque exemple de donnée d’entraînement est accompagné d’une « réponse » ou « sortie » correcte attendue. Le modèle apprend à prédire la sortie pour de nouvelles données en se basant sur les exemples vus.

Attaque adverse / Attaque par exemples contradictoires (Adversarial examples attack)

Une attaque adverse, ou attaque par exemples contradictoires (Adversarial Examples Attack), consiste à introduire des perturbations subtiles et souvent imperceptibles par l’homme dans les données d’entrée d’un modèle d’IA (par exemple, une image). Ces perturbations sont conçues pour tromper le modèle et le conduire à produire une sortie incorrecte ou non désirée, tout en restant plausible.

Attaque par empoisonnement (Data poisoning attack)

Une attaque par empoisonnement de données (Data Poisoning Attack) vise à corrompre la phase d’entraînement d’un modèle d’IA en introduisant des données malveillantes ou manipulées dans l’ensemble de données d’apprentissage. L’objectif est de dégrader les performances du modèle, d’introduire des biais spécifiques ou de créer des « portes dérobées » (backdoors).

Attaque par exfiltration de modèle (Model evasion/extraction attack)

L’attaque par exfiltration de modèle (également appelée vol de modèle ou Model Extraction Attack) cherche à obtenir une copie fonctionnelle du modèle d’IA ou à en déduire ses paramètres et son architecture. L’attaquant interroge le modèle avec un grand nombre de requêtes et observe les sorties pour reconstituer son fonctionnement interne.

Attaque par inférence d’appartenance (Membership inference attack)

Une attaque par inférence d’appartenance (Membership Inference Attack) a pour but de déterminer si une donnée spécifique (par exemple, les informations d’un individu) a été utilisée lors de l’entraînement d’un modèle d’IA. Ce type d’attaque soulève des préoccupations importantes en matière de confidentialité des données.

Attaque par inversion de modèle (Model inversion attack)

L’attaque par inversion de modèle (Model Inversion Attack) vise à reconstruire tout ou partie des données d’entraînement sensibles à partir d’un accès au modèle d’IA entraîné. Par exemple, à partir d’un modèle de reconnaissance faciale, on pourrait tenter de reconstituer des images de visages présents dans les données d’entraînement.

Attaque par reconstruction (Reconstruction attack)

Une attaque par reconstruction cherche à reconstituer, souvent de manière approximative, des données d’entraînement originales ou des informations sensibles à partir d’un modèle d’IA entraîné ou de ses sorties. Elle est étroitement liée à l’attaque par inversion de modèle.

Augmentation de données (IA) (Data augmentation)

L’augmentation de données (Data Augmentation) est une technique utilisée pour accroître artificiellement la taille et la diversité de l’ensemble de données d’entraînement. Elle consiste à créer de nouvelles données d’entraînement en appliquant des transformations mineures aux données existantes (par exemple, rotation ou recadrage d’images, synonymes dans un texte).

Automatisation (par l’IA) (AI automation)

L’automatisation par l’IA désigne l’utilisation de systèmes d’intelligence artificielle pour exécuter des tâches qui nécessitaient auparavant une intervention humaine. Cela peut aller de tâches répétitives à des processus de décision plus complexes, dans divers secteurs d’activité.

Biais (IA) (AI bias)

Un biais en IA (AI Bias) se réfère à des résultats ou des prédictions systématiquement erronés ou inéquitables produits par un système d’intelligence artificielle. Ces biais peuvent provenir des données d’entraînement (si elles reflètent des préjugés existants dans la société), de la conception de l’algorithme, ou de la manière dont le modèle est déployé et utilisé.

Big data (Mégadonnées) (Big data)

Le Big Data, ou Mégadonnées, désigne des ensembles de données extrêmement volumineux, variés et générés à grande vitesse, qui dépassent les capacités de traitement des outils de gestion de bases de données traditionnels. L’analyse du Big Data est souvent un prérequis pour entraîner des modèles d’IA performants.

Boucle de rétroaction (Feedback loop)

Une boucle de rétroaction, dans le contexte de l’IA, est un processus où la sortie d’un système est réutilisée comme entrée pour influencer son comportement futur. C’est un concept clé en apprentissage par renforcement et pour les systèmes d’IA agentiques, leur permettant d’apprendre et de s’adapter continuellement.

Bulle de filtre (Filter bubble)

Une bulle de filtre est un état d’isolement intellectuel qui peut résulter de recommandations personnalisées par des algorithmes. Lorsque ces algorithmes ne montrent à un utilisateur que des contenus qui correspondent à ses opinions passées ou à ses préférences, cela peut limiter son exposition à des points de vue divergents et renforcer ses propres croyances.

Calcul multipartite sécurisé (Secure multi-party computation – SMPC)

Le calcul multipartite sécurisé (SMPC) est une technique cryptographique qui permet à plusieurs parties de calculer conjointement une fonction sur leurs données privées sans révéler ces données les unes aux autres, ni à une tierce partie. C’est pertinent pour l’entraînement d’IA collaboratif et respectueux de la vie privée.

Caractéristique (IA) (Feature)

Une caractéristique, ou feature en anglais, est une variable ou un attribut individuel et mesurable d’une donnée d’entrée, utilisée par un modèle d’IA pour faire des prédictions ou prendre des décisions. Le choix et l’ingénierie des caractéristiques (feature engineering) sont des étapes importantes dans la construction d’un modèle performant.

Catastrophisme de l’IA (AI doomerism)

Le catastrophisme de l’IA (AI Doomerism) désigne un courant de pensée qui met l’accent sur les risques existentiels potentiels et les scénarios les plus négatifs associés au développement de l’intelligence artificielle, notamment l’émergence d’une superintelligence incontrôlable.

Chatbot (Agent conversationnel) (Chatbot / Conversational agent)

Un chatbot, ou agent conversationnel, est un programme informatique conçu pour simuler une conversation humaine (écrite ou orale) avec les utilisateurs. Les chatbots modernes utilisent souvent des techniques de traitement du langage naturel et d’IA pour comprendre les requêtes et fournir des réponses pertinentes.

Chiffrement homomorphe (Homomorphic encryption)

Le chiffrement homomorphe est une forme de cryptage qui permet d’effectuer des calculs directement sur des données chiffrées sans avoir besoin de les déchiffrer au préalable. Le résultat de ces calculs reste chiffré et ne peut être lu qu’après déchiffrement. C’est une technologie prometteuse pour la confidentialité dans l’IA.

Classification (IA) (Classification)

La classification en IA est une tâche d’apprentissage supervisé qui consiste à attribuer une catégorie (ou classe) prédéfinie à une nouvelle observation, en se basant sur les caractéristiques de cette observation et sur ce que le modèle a appris à partir de données d’entraînement étiquetées. Par exemple, classer un email comme « spam » ou « non-spam ».

Cloud computing (pour l’IA) (Cloud computing)

Le Cloud Computing (informatique en nuage) joue un rôle essentiel pour l’IA en fournissant des ressources de calcul puissantes (comme les GPU et TPU), des capacités de stockage de données massives, et des plateformes spécialisées pour entraîner et déployer des modèles d’intelligence artificielle à grande échelle, souvent de manière flexible et à la demande.

Codage agentique (Agentic coding)

Le codage agentique fait référence à l’utilisation de systèmes d’IA, en particulier des agents intelligents, pour assister ou automatiser des tâches de développement logiciel, comme l’écriture de code, la correction de bugs, ou la conception d’architecture logicielle.

Confabulation (IA) (Confabulation)

La confabulation en IA est un terme souvent utilisé de manière interchangeable avec « hallucination ». Il décrit la tendance des modèles d’IA générative à produire des informations incorrectes, inventées ou incohérentes, tout en les présentant comme factuelles et plausibles, sans avoir de base dans les données d’entraînement pour ces affirmations spécifiques.

Confidentialité différentielle (Differential privacy)

La confidentialité différentielle est un cadre mathématique qui permet d’analyser des ensembles de données et de publier des informations agrégées tout en limitant la divulgation d’informations sur les individus présents dans ces données. Elle ajoute un « bruit » contrôlé aux données ou aux résultats pour protéger la vie privée.

Contrôle itératif de l’apprentissage (Défense RONI – Reject on negative impact)

Le contrôle itératif de l’apprentissage est une approche visant à améliorer la robustesse et la fiabilité des modèles d’IA. La défense RONI (Reject On Negative Impact), par exemple, consiste à évaluer l’impact de chaque donnée d’entraînement sur les performances du modèle et à rejeter celles qui ont un impact négatif ou qui pourraient introduire des vulnérabilités.

Couche de neurones (Layer)

Dans un réseau de neurones artificiels, une couche (layer) est un ensemble de neurones qui effectuent collectivement une transformation sur les données qu’ils reçoivent de la couche précédente. Les réseaux de neurones profonds sont caractérisés par la présence de multiples couches cachées entre la couche d’entrée et la couche de sortie.

Critère d’arrêt (IA) (Stopping criterion)

Un critère d’arrêt (stopping criterion) est une condition prédéfinie qui, lorsqu’elle est remplie, met fin au processus d’entraînement d’un modèle d’IA. Cela peut être un nombre maximal d’itérations, l’atteinte d’un certain niveau de performance sur un ensemble de validation, ou une stagnation de l’amélioration de la fonction de perte.

Dérive des données (Data drift)

La dérive des données (Data Drift) se produit lorsque les caractéristiques statistiques des données d’entrée sur lesquelles un modèle d’IA est utilisé en production diffèrent significativement de celles des données sur lesquelles il a été entraîné. Cela peut entraîner une dégradation des performances du modèle au fil du temps.

Dérive du modèle (Model drift)

La dérive du modèle (Model Drift) désigne la perte de performance ou d’adéquation d’un modèle d’IA au fil du temps. Cela peut être dû à une dérive des données (les données réelles changent) ou à des changements dans les relations sous-jacentes que le modèle avait apprises (les concepts évoluent).

Désapprentissage machine (Machine unlearning)

Le désapprentissage machine (Machine Unlearning) est le processus qui vise à supprimer l’influence de données spécifiques d’un modèle d’IA déjà entraîné, sans avoir à réentraîner complètement le modèle à partir de zéro. C’est important pour le respect du droit à l’oubli et la correction des erreurs.

Domaine d’emploi (IA) (Domain of applicability)

Le domaine d’emploi en IA décrit le contexte spécifique, les conditions, les types de données et la population cible pour lesquels un système d’intelligence artificielle a été conçu, entraîné et validé. Utiliser un modèle en dehors de son domaine d’emploi peut entraîner des performances imprévisibles ou erronées.

Donnée brute (IA) (Raw data)

Une donnée brute (raw data) en IA est une information collectée directement à sa source, avant qu’elle n’ait subi un quelconque traitement, nettoyage, transformation ou annotation. C’est le point de départ pour la préparation des données en vue de l’entraînement d’un modèle.

Donnée d’entrée (IA) (Input data)

Une donnée d’entrée (input data) est l’information fournie à un système d’IA, que ce soit pendant la phase d’entraînement pour apprendre, ou pendant la phase de production (inférence) pour que le modèle génère une prédiction ou une action.

Donnée de sortie (IA) (Output data)

Une donnée de sortie (output data) est le résultat produit par un système d’IA après avoir traité les données d’entrée. Cela peut être une prédiction, une classification, une recommandation, du texte généré, une image, ou une action à effectuer.

Données (Data)

Les données (Data) sont l’ensemble des informations, faits, chiffres, observations ou mesures qui sont collectés, stockés et traités. En intelligence artificielle, les données sont cruciales : elles servent à entraîner les modèles, à les tester et à leur permettre de prendre des décisions ou de faire des prédictions.

Échantillon (IA) (Sample)

Un échantillon (sample) en IA est une observation individuelle ou un sous-ensemble de données sélectionné à partir d’un ensemble de données plus large (la population). Les échantillons sont utilisés pour l’entraînement, la validation et le test des modèles.

Enchainement des actions (Action sequencing)

L’enchainement des actions (Action Sequencing) est une capacité clé des systèmes d’IA agentiques. Elle leur permet de planifier et d’exécuter une série d’actions interdépendantes de manière autonome pour atteindre un objectif complexe, en adaptant potentiellement la séquence en fonction des résultats intermédiaires.

Ensemble d’entraînement (ou Ensemble d’apprentissage) (Training set)

L’ensemble d’entraînement (Training Set) est la portion des données utilisée pour « apprendre » les paramètres d’un modèle d’intelligence artificielle. Le modèle identifie des motifs et des relations dans cet ensemble pour pouvoir généraliser à de nouvelles données.

Ensemble de test (IA) (Test set)

L’ensemble de test (Test Set) est une portion des données, distincte de l’ensemble d’entraînement et de validation, utilisée pour évaluer la performance finale et la capacité de généralisation d’un modèle d’IA une fois qu’il a été complètement entraîné et optimisé.

Ensemble de validation (IA) (Validation set)

L’ensemble de validation (Validation Set) est une portion des données, distincte de l’ensemble d’entraînement, utilisée pendant le processus d’entraînement pour ajuster les hyperparamètres du modèle et pour évaluer ses performances de manière intermédiaire, afin d’éviter le surapprentissage.

Entraînement (IA) (ou Apprentissage) (Training)

L’entraînement (Training), ou apprentissage, est le processus par lequel un modèle d’intelligence artificielle ajuste ses paramètres internes en se basant sur un ensemble de données d’entraînement. L’objectif est que le modèle apprenne à effectuer une tâche spécifique (par exemple, classification, prédiction) avec une bonne performance.

Environnement d’exécution de confiance (TEE – Trusted execution environment)

Un environnement d’exécution de confiance (TEE) est une zone sécurisée et isolée au sein du processeur d’un ordinateur. Il garantit que le code et les données qui y sont chargés sont protégés en termes de confidentialité et d’intégrité, même contre des logiciels malveillants s’exécutant sur le même système. C’est utile pour sécuriser les modèles d’IA et les données sensibles.

Estimation bayésienne (ou Inférence bayésienne) (Bayesian inference)

L’estimation bayésienne (Bayesian Inference) est une méthode statistique qui met à jour la probabilité d’une hypothèse à mesure que de nouvelles données ou informations deviennent disponibles. Elle est basée sur le théorème de Bayes et est utilisée en IA pour le raisonnement incertain et l’apprentissage à partir de données.

Estimation de poses (Pose estimation)

L’estimation de poses (Pose Estimation) est une tâche de vision par ordinateur qui consiste à détecter et à localiser les points clés du corps (articulations) d’une ou plusieurs personnes (ou objets) dans une image ou une vidéo, afin de déterminer leur posture ou leur orientation.

Éthique de l’IA (AI ethics)

L’éthique de l’IA (AI Ethics) est une branche de l’éthique appliquée qui examine les implications morales et sociétales de l’intelligence artificielle. Elle aborde des questions telles que la partialité (biais), la responsabilité, la transparence, la vie privée, l’équité, et l’impact de l’IA sur l’emploi et la société.

Explicabilité (IA) (XAI – Explainable AI)

L’explicabilité en IA (Explainable AI ou XAI) désigne la capacité d’un système d’intelligence artificielle à fournir des explications compréhensibles par l’homme sur la manière dont il parvient à ses décisions ou prédictions. C’est crucial pour la confiance, la détection des biais, et la validation des modèles, en particulier pour les modèles complexes comme les réseaux de neurones profonds.

Extraction de caractéristiques (Feature extraction)

L’extraction de caractéristiques (Feature Extraction) est le processus de transformation des données brutes en un ensemble de caractéristiques (features) plus informatives et moins redondantes, qui représentent mieux le problème sous-jacent et facilitent l’apprentissage par le modèle d’IA.

Few shot learning

Le Few-Shot Learning est une approche d’apprentissage automatique où un modèle est capable d’apprendre et de généraliser à partir d’un très petit nombre d’exemples d’entraînement (parfois un seul, on parle alors de « one-shot learning », ou même zéro, « zero-shot learning »). C’est particulièrement utile lorsque les données étiquetées sont rares ou coûteuses à obtenir.

Fonction d’activation (Activation function)

Dans un neurone artificiel, la fonction d’activation (Activation Function) détermine la sortie de ce neurone en fonction de la somme pondérée de ses entrées. Elle introduit des non-linéarités dans le réseau, ce qui permet aux modèles d’apprendre des relations complexes dans les données. Des exemples courants incluent ReLU, Sigmoid, et Tanh.

Fonction de perte (ou Fonction de coût) (Loss function / Cost function)

La fonction de perte (Loss Function), ou fonction de coût, mesure l’écart entre les prédictions d’un modèle d’IA et les valeurs réelles (vérité terrain) dans l’ensemble de données d’entraînement. L’objectif du processus d’entraînement est de minimiser cette fonction de perte en ajustant les paramètres du modèle.

Forêts aléatoires (Random forests)

Les forêts aléatoires (Random Forests) sont un algorithme d’apprentissage automatique de type ensembliste. Elles construisent une multitude d’arbres de décision pendant l’entraînement et produisent une prédiction qui est la moyenne (pour la régression) ou le mode (pour la classification) des prédictions de chaque arbre individuel, améliorant ainsi la robustesse et la précision.

Frontier AI (Modèles frontières) (Frontier AI)

Le terme Frontier AI (ou modèles frontières) désigne les modèles d’intelligence artificielle les plus avancés et les plus performants à un instant T, souvent des modèles de fondation à très grande échelle. Ils repoussent les limites des capacités actuelles de l’IA et peuvent présenter des capacités émergentes et potentiellement des risques spécifiques liés à leur puissance.

Gabarit facial (Facial template)

Un gabarit facial (facial template) est une représentation numérique compacte et distinctive des caractéristiques d’un visage, extraite à partir d’une image ou d’une vidéo par un système de reconnaissance faciale. Ce gabarit, et non l’image brute, est ensuite utilisé pour comparer des visages et identifier des individus.

General-purpose AI (GPAI) / Système d’IA à but général (General-purpose AI system)

Un système d’IA à but général (General-Purpose AI System ou GPAI) est un modèle d’IA conçu pour être polyvalent et adaptable à un large éventail d’applications ou de tâches pour lesquelles il n’a pas été spécifiquement développé au départ. Ce terme est notamment utilisé dans des contextes réglementaires (par exemple, l’AI Act européen).

Gradient

En mathématiques, le gradient est un vecteur qui indique la direction et la magnitude de la plus forte pente (augmentation) d’une fonction en un point donné. En apprentissage automatique, le gradient de la fonction de perte est utilisé par des algorithmes d’optimisation (comme la descente de gradient) pour ajuster les paramètres du modèle afin de minimiser cette perte.

Grand modèle de langage (LLM – Large language model)

Un grand modèle de langage (Large Language Model ou LLM) est un type de modèle de langage basé sur des architectures de réseaux de neurones profonds (souvent des Transformers) et entraîné sur d’énormes quantités de données textuelles. Les LLM sont capables de comprendre, de générer, de traduire et de manipuler le langage humain avec une fluidité et une cohérence remarquables.

Hallucination (IA) (AI Hallucination)

Une hallucination en IA (AI Hallucination) se produit lorsqu’un modèle d’intelligence artificielle, en particulier une IA générative, produit des informations incorrectes, trompeuses, absurdes ou non fondées sur les données d’entraînement, tout en les présentant comme factuelles ou pertinentes. Ce phénomène souligne les limites de la compréhension réelle des modèles.

Hyperparamètre (IA) (Hyperparameter)

Un hyperparamètre (hyperparameter) en IA est un paramètre de configuration dont la valeur est fixée avant le début du processus d’entraînement du modèle. Contrairement aux paramètres du modèle qui sont appris pendant l’entraînement, les hyperparamètres (par exemple, le taux d’apprentissage, le nombre de couches dans un réseau de neurones) sont définis par le concepteur et influencent la manière dont le modèle apprend.

IA agentique (Agentic AI)

L’IA agentique (Agentic AI) fait référence à des systèmes d’intelligence artificielle capables de percevoir leur environnement, de raisonner, de planifier et d’agir de manière autonome pour atteindre des objectifs complexes, potentiellement en utilisant des outils externes ou en collaborant avec d’autres agents. Ils possèdent un certain degré d’initiative et d’adaptabilité.

IA autonome (Autonomous AI)

L’IA autonome (Autonomous AI) décrit des systèmes d’intelligence artificielle capables de fonctionner et de prendre des décisions sans intervention humaine directe, sur la base de leurs perceptions, de leurs connaissances et de leurs objectifs. Ce concept est souvent lié à l’IA agentique.

IA faible (ou IA étroite / Narrow AI) (Weak AI / Narrow AI)

L’IA faible, ou IA étroite (Narrow AI), désigne des systèmes d’intelligence artificielle spécialisés dans l’accomplissement d’une tâche spécifique ou d’un ensemble limité de tâches (par exemple, la reconnaissance faciale, la traduction automatique, la conduite d’un véhicule dans des conditions définies). C’est la forme d’IA la plus répandue aujourd’hui.

IA forte (ou IA générale / AGI – Artificial general intelligence) (Strong AI / Artificial general intelligence)

L’IA forte, ou intelligence artificielle générale (Artificial General Intelligence ou AGI), est un type hypothétique d’IA qui posséderait des capacités cognitives comparables, voire supérieures, à celles d’un être humain. Une AGI serait capable de comprendre, d’apprendre et d’appliquer son intelligence à n’importe quelle tâche qu’un humain peut accomplir, et de transférer ses connaissances entre des domaines variés.

IA générative (Generative AI)

L’IA générative (Generative AI) regroupe des techniques d’intelligence artificielle capables de créer du nouveau contenu original (texte, images, audio, vidéo, code) à partir de données d’entraînement. Ces modèles apprennent les motifs et la structure des données d’entrée pour ensuite générer de nouvelles instances plausibles.

IA surhumaine (Superhuman AI)

L’IA surhumaine (Superhuman AI) est un concept décrivant une intelligence artificielle qui dépasse les capacités humaines dans une ou plusieurs tâches spécifiques, voire de manière générale dans le cas d’une superintelligence (une AGI ayant largement surpassé l’intelligence humaine).

Inférence (IA) (Processus d’utilisation du modèle) (Inference)

L’inférence (Inference) en IA est le processus qui consiste à utiliser un modèle d’IA déjà entraîné pour faire des prédictions, des classifications ou générer des résultats à partir de nouvelles données d’entrée qu’il n’a jamais vues auparavant. C’est la phase de « production » ou d' »utilisation » du modèle. Pour faire de l’inférence facilement en local, je vous conseille d’aller voir cet article qui liste les meilleurs logiciels pour utiliser l’IA.

Infection (d’IA) (AI infection)

L’infection d’un système d’IA est un type d’attaque où l’attaquant cherche à contaminer les données d’entraînement ou le modèle lui-même pour en altérer le comportement, souvent de manière discrète, afin qu’il produise des résultats erronés ou malveillants dans certaines conditions spécifiques.

Intelligence artificielle (IA) (Artificial intelligence – AI)

L’intelligence artificielle (IA) est un vaste champ de l’informatique qui vise à créer des machines et des logiciels capables de simuler des aspects de l’intelligence humaine, tels que l’apprentissage, le raisonnement, la perception, la résolution de problèmes, la compréhension du langage et la prise de décision.

Internet des objets (IoT) (pour l’IA) (Internet of things)

L’Internet des Objets (Internet of Things ou IoT) désigne le réseau d’objets physiques (appareils, véhicules, capteurs) interconnectés et capables de collecter et d’échanger des données. Pour l’IA, l’IoT est une source massive de données en temps réel qui peuvent être analysées pour optimiser des processus, faire des prédictions et permettre des interactions intelligentes.

Jailbreak (IA)

Un jailbreak en IA est une technique ou une série de prompts conçus pour contourner les restrictions de sécurité, les filtres de contenu ou les directives éthiques implémentées par les concepteurs d’un modèle d’IA, en particulier les grands modèles de langage, afin de lui faire générer des réponses normalement interdites.

Jumeau numérique (Digital twin)

Un jumeau numérique (Digital Twin) est une réplique virtuelle dynamique d’un objet physique, d’un processus, d’un système ou même d’une personne. Il est alimenté par des données en temps réel et peut intégrer l’IA pour simuler des comportements, prédire des pannes, optimiser des performances ou tester des scénarios sans impacter l’entité réelle.

Labellisation (IA) (Labeling)

La labellisation (Labeling) est un synonyme d’annotation de données. Elle consiste à attribuer des étiquettes informatives (labels) aux données brutes pour indiquer leur contenu, leur catégorie ou leurs caractéristiques, afin de les rendre utilisables pour l’entraînement de modèles d’apprentissage supervisé.

Longtermisme (Longtermism)

Le longtermisme (Longtermism) est une perspective éthique qui accorde une importance morale significative au bien-être des générations futures, potentiellement sur de très longues échelles de temps. Dans le contexte de l’IA, cela conduit à se concentrer sur les impacts à long terme et les risques existentiels potentiels de technologies avancées.

Manipulation (d’IA) (AI manipulation)

La manipulation d’un système d’IA désigne une attaque où l’objectif est de tromper ou d’influencer le système pour qu’il accomplisse des tâches ou produise des résultats non prévus ou malveillants, souvent en exploitant ses vulnérabilités ou en introduisant des données d’entrée spécifiquement conçues.

Many-shot jailbreak

Le Many-Shot Jailbreak est une technique de jailbreak spécifique où l’on fournit au modèle d’IA de multiples exemples (des « shots ») de réponses à des questions sensibles ou problématiques, pour l’inciter à continuer sur cette lancée et à répondre à une nouvelle question du même type, contournant ainsi ses garde-fous.

Métavers (et IA) (Metaverse)

Le Métavers (Metaverse) est un concept d’univers virtuel persistant, partagé et tridimensionnel, où les utilisateurs peuvent interagir entre eux et avec des objets numériques via des avatars. L’IA joue un rôle clé dans la création de contenus, la personnalisation des expériences, l’animation des personnages non-joueurs (PNJ) et la modération au sein du métavers.

Modèle (IA) (AI model)

Un modèle d’IA (AI Model) est le résultat d’un processus d’entraînement d’un algorithme d’apprentissage automatique sur un ensemble de données. C’est une structure mathématique (par exemple, un réseau de neurones avec des poids spécifiques) capable de faire des prédictions, de classifier des informations ou de générer du contenu à partir de nouvelles données d’entrée.

Modèle de fondation (Foundation model)

Un modèle de fondation (Foundation Model) est un modèle d’IA à grande échelle, souvent un grand modèle de langage ou un modèle de vision, entraîné sur une très vaste quantité de données non étiquetées. Il acquiert ainsi des capacités générales et peut ensuite être adapté (fine-tuné) à une multitude de tâches spécifiques avec relativement peu de données supplémentaires.

Modèle de langage (Language model)

Un modèle de langage (Language Model) est un modèle statistique ou un réseau de neurones entraîné à comprendre et à générer du langage humain. Il apprend les probabilités des séquences de mots (ou de caractères, de tokens) dans une langue donnée, ce qui lui permet de prédire le mot suivant dans une phrase, de générer du texte, de traduire, etc.

Modèle discriminatif (Discriminative model)

Un modèle discriminatif, en apprentissage automatique, apprend la frontière de décision entre différentes classes. Il modélise la probabilité conditionnelle P(Y|X), c’est-à-dire la probabilité d’une classe Y étant donné une entrée X. Il est directement utilisé pour des tâches de classification ou de régression.

Modèle génératif (Generative model)

Un modèle génératif, par opposition à un modèle discriminatif, apprend la distribution de probabilité conjointe P(X,Y) des données d’entrée X et des étiquettes Y (ou P(X) en apprentissage non supervisé). Il est capable de générer de nouveaux exemples de données qui ressemblent aux données d’entraînement. Les IA génératives reposent sur ce type de modèles.

Modèle pré-entraîné (Pre-trained model)

Un modèle pré-entraîné (Pre-trained Model) est un modèle d’IA qui a déjà été entraîné sur un vaste ensemble de données, souvent pour une tâche générale (comme la reconnaissance d’objets sur ImageNet ou la compréhension du langage sur de grands corpus textuels). Il peut ensuite être utilisé tel quel ou comme point de départ pour l’apprentissage par transfert sur une tâche plus spécifique.

Moteurs d’inférence (Inference engine)

Un moteur d’inférence (Inference Engine) est le composant d’un système expert (ou d’autres systèmes basés sur des règles) qui applique des règles logiques à une base de connaissances pour en déduire de nouvelles informations ou prendre des décisions. Par extension, le terme peut aussi désigner le logiciel ou matériel optimisé pour exécuter des inférences sur des modèles d’IA (deep learning).

Neurone artificiel (Artificial neuron)

Un neurone artificiel (Artificial Neuron), ou perceptron, est l’unité de calcul de base d’un réseau de neurones. Inspiré du neurone biologique, il reçoit une ou plusieurs entrées pondérées, calcule une somme, et applique une fonction d’activation pour produire une sortie. C’est un bloc de construction fondamental des modèles d’apprentissage profond.

Niveaux d’intelligence artificielle (Levels of artificial intelligence)

Les niveaux d’intelligence artificielle font référence à des cadres de classification proposés pour évaluer et comparer les capacités des systèmes d’IA, allant de l’absence d’IA à des niveaux surhumains. Ces classifications peuvent distinguer les IA selon leur performance, leur autonomie, leur capacité de généralisation (étroite ou générale) ou leur domaine d’application.

Ontologie (Ontology)

En intelligence artificielle, une ontologie est une représentation formelle et explicite d’un ensemble de concepts, de leurs propriétés et des relations entre eux au sein d’un domaine de connaissance spécifique. Les ontologies aident à structurer l’information, à permettre le raisonnement logique et à faciliter le partage et la réutilisation des connaissances par les systèmes d’IA.

Optimisation (Optimization)

L’optimisation en IA (Optimization) est le processus qui consiste à ajuster les paramètres d’un modèle (ou les hyperparamètres) pour minimiser (ou maximiser) une fonction objectif, typiquement la fonction de perte lors de l’entraînement. Des algorithmes comme la descente de gradient sont couramment utilisés pour cela.

Paramètre (Parameter)

Un paramètre (parameter) en IA est une variable interne au modèle dont la valeur est apprise à partir des données pendant le processus d’entraînement. Par exemple, les poids et les biais dans un réseau de neurones sont des paramètres. Ce sont ces valeurs qui définissent le comportement du modèle.

Partitionnement de données (Clustering / Regroupement) (Data clustering)

Le partitionnement de données, ou clustering (parfois appelé regroupement), est une tâche d’apprentissage non supervisé qui consiste à diviser un ensemble de données en groupes (clusters) de manière à ce que les données au sein d’un même groupe soient plus similaires entre elles qu’avec celles des autres groupes, selon des critères de similarité définis.

Perroquets stochastiques (Stochastic parrots)

L’expression « perroquets stochastiques » (Stochastic Parrots) est une métaphore critique utilisée pour décrire les grands modèles de langage. Elle suggère que ces modèles, bien que capables de générer du texte grammaticalement correct et contextuellement plausible, ne comprennent pas réellement le sens de ce qu’ils produisent, mais se contentent de recombiner des séquences de mots de manière probabiliste, à l’image d’un perroquet qui répète des phrases.

Prédiction (Prediction)

La prédiction en IA (Prediction) est le processus par lequel un modèle d’IA entraîné estime une valeur de sortie (qui peut être une catégorie, un nombre, ou une séquence) pour une nouvelle donnée d’entrée. C’est l’une des tâches principales des systèmes d’apprentissage automatique.

Prompt (Ingénierie de prompt / Prompt engineering)

Un prompt est une instruction, une question ou un texte d’amorce fourni en entrée à un modèle d’IA générative (comme un LLM ou un générateur d’images) pour qu’il produise un résultat spécifique. L’ingénierie de prompt (Prompt Engineering) est l’art et la science de concevoir des prompts efficaces pour obtenir les sorties souhaitées du modèle.

Prompt injection

La Prompt Injection est un type d’attaque de sécurité spécifique aux grands modèles de langage où un attaquant insère des instructions malveillantes dans un prompt, souvent de manière cachée ou indirecte (par exemple, via des données externes que le LLM traite). Ces instructions peuvent amener le modèle à ignorer ses directives originales, à révéler des informations sensibles, ou à exécuter des actions non désirées.

Quantification (Optimisation de modèle) (Quantization)

La quantification (Quantization) est une technique d’optimisation de modèle d’IA qui consiste à réduire la précision numérique des poids et/ou des activations du modèle (par exemple, passer de nombres flottants 32 bits à des entiers 8 bits). Cela permet de réduire la taille du modèle, sa consommation mémoire et d’accélérer son inférence, souvent avec une perte de précision minimale.

Quantization aware training (QAT)

L’entraînement conscient de la quantification (Quantization Aware Training ou QAT) est une technique où la quantification est simulée pendant le processus d’entraînement du modèle. Cela permet au modèle de s’adapter aux effets de la quantification et de maintenir une meilleure précision par rapport à la quantification post-entraînement.

Post-training quantization (PTQ)

La quantification post-entraînement (Post-Training Quantization ou PTQ) est une technique qui consiste à convertir un modèle d’IA déjà entraîné en une version à plus faible précision numérique, sans avoir besoin de réentraîner le modèle. C’est une méthode plus simple et rapide que le QAT, mais peut parfois entraîner une perte de précision plus importante.

Reconnaissance d’entités nommées (NER – Named-entity recognition)

La reconnaissance d’entités nommées (Named-Entity Recognition ou NER) est une sous-tâche du traitement du langage naturel qui vise à identifier et à catégoriser des entités spécifiques dans un texte, telles que les noms de personnes, d’organisations, de lieux, les dates, les quantités, etc.

Reconnaissance faciale (Facial recognition)

La reconnaissance faciale (Facial Recognition) est une technologie biométrique capable d’identifier ou de vérifier l’identité d’une personne en analysant les caractéristiques de son visage à partir d’une image numérique ou d’une vidéo. Elle utilise des algorithmes d’IA, notamment de deep learning.

Reconnaissance vocale (Speech recognition / Voice recognition)

La reconnaissance vocale (Speech Recognition ou Voice Recognition), ou reconnaissance automatique de la parole (RAP), est une technologie qui permet à un ordinateur de convertir la parole humaine captée par un microphone en texte écrit. C’est un composant essentiel de nombreux assistants virtuels et applications contrôlées par la voix.

Réduction de dimension (ou Réduction de dimensionnalité) (Dimensionality reduction)

La réduction de dimension (Dimensionality Reduction) est le processus qui consiste à réduire le nombre de caractéristiques (variables) utilisées pour décrire des données, tout en préservant autant que possible l’information pertinente. Elle aide à simplifier les modèles, à réduire le temps de calcul et à éviter le « fléau de la dimensionnalité ».

Régression (Regression)

La régression en IA est une tâche d’apprentissage supervisé qui vise à prédire une valeur numérique continue (par opposition à une catégorie discrète en classification). Par exemple, prédire le prix d’une maison en fonction de ses caractéristiques, ou la température de demain.

Régurgitation (Regurgitation)

La régurgitation en IA se produit lorsqu’un modèle génératif reproduit de manière quasi identique ou très similaire des portions de ses données d’entraînement, plutôt que de créer un contenu véritablement nouveau et original. Cela peut soulever des questions de droits d’auteur et indiquer un surapprentissage.

Réseau de neurones artificiels (RNA / Neural network)

Un réseau de neurones artificiels (RNA), ou simplement réseau de neurones (Neural Network), est un modèle de calcul inspiré par la structure et le fonctionnement du cerveau humain. Il est composé de multiples neurones artificiels interconnectés et organisés en couches, capable d’apprendre des relations complexes à partir de données. C’est la base de l’apprentissage profond.

Réseaux de neurones convolutifs (CNN – Convolutional neural networks)

Les réseaux de neurones convolutifs (Convolutional Neural Networks ou CNN) sont un type de réseau de neurones profonds particulièrement efficaces pour l’analyse de données visuelles (images, vidéos). Ils utilisent des opérations de convolution pour extraire hiérarchiquement des caractéristiques des images, comme les contours, les textures, puis des objets plus complexes.

Réseaux de neurones récurrents (RNN – Recurrent neural networks)

Les réseaux de neurones récurrents (Recurrent Neural Networks ou RNN) sont un type de réseau de neurones conçu pour traiter des données séquentielles, comme le texte, la parole ou les séries temporelles. Ils possèdent des connexions récurrentes (boucles) qui leur permettent de maintenir une « mémoire » des informations précédentes dans la séquence pour influencer le traitement des éléments suivants.

Réseaux génératifs antagonistes (GANs – Generative adversarial networks)

Les réseaux génératifs antagonistes (Generative Adversarial Networks ou GANs) sont une architecture d’apprentissage profond composée de deux réseaux de neurones mis en compétition : un générateur qui essaie de créer des données réalistes (par exemple, des images), et un discriminateur qui essaie de distinguer les données réelles des données générées. Cette compétition améliore la capacité du générateur à produire des sorties de haute qualité.

Risques existentiels (X risk)

Les risques existentiels (souvent abrégés en X-risk) désignent des événements ou des scénarios potentiels qui pourraient entraîner l’extinction de l’humanité ou réduire de manière drastique et permanente son potentiel futur. Dans le contexte de l’IA, cela fait souvent référence aux dangers potentiels d’une superintelligence non alignée avec les valeurs humaines.

Robotique (AI robotics)

La robotique IA (AI Robotics) est le domaine qui intègre l’intelligence artificielle dans la conception et le fonctionnement des robots. L’IA permet aux robots de percevoir leur environnement, de prendre des décisions autonomes, d’apprendre de leurs expériences, et d’interagir de manière plus intelligente et flexible avec le monde physique et les humains.

Robustesse (Robustness)

La robustesse en IA (Robustness) désigne la capacité d’un système d’intelligence artificielle à maintenir ses performances et son comportement attendu même en présence de perturbations, de bruits, d’attaques adverses, ou de données d’entrée qui s’écartent légèrement de celles vues pendant l’entraînement.

Segmentation des données (Data segmentation)

La segmentation des données en IA (Data Segmentation) fait référence à la division d’un ensemble de données en sous-ensembles distincts, généralement pour l’entraînement, la validation et le test des modèles. Pour les données visuelles, la segmentation d’image consiste à partitionner une image en régions significatives (par exemple, identifier tous les pixels appartenant à une voiture).

Sous-apprentissage (Underfitting)

Le sous-apprentissage (Underfitting) se produit lorsqu’un modèle d’IA est trop simple pour capturer la complexité et les motifs sous-jacents des données d’entraînement. En conséquence, le modèle performe mal à la fois sur les données d’entraînement et sur de nouvelles données, car il n’a pas appris suffisamment.

Surapprentissage (Overfitting)

Le surapprentissage (Overfitting) se produit lorsqu’un modèle d’IA apprend « par cœur » les données d’entraînement, y compris le bruit et les détails spécifiques, au lieu d’apprendre les tendances générales. En conséquence, le modèle performe très bien sur les données d’entraînement mais mal sur de nouvelles données non vues, car il a du mal à généraliser.

Système d’IA (AI system)

Un système d’IA (AI System) est un ensemble de logiciels et/ou de matériels qui utilise des techniques d’intelligence artificielle pour effectuer des tâches spécifiques, souvent en imitant des capacités cognitives humaines. Il comprend généralement des algorithmes, des modèles et des données.

Système d’IA à usage général (General-purpose AI system)

Voir General-Purpose AI (GPAI). Il s’agit d’un système d’IA conçu pour être adaptable à un large éventail d’applications, sans avoir été spécifiquement développé pour chacune d’elles au départ. Ce terme est souvent utilisé dans un contexte réglementaire.

Système expert (Expert system)

Un système expert (Expert System) est un type précoce de système d’IA conçu pour émuler les capacités de prise de décision d’un expert humain dans un domaine de connaissance restreint et spécifique. Il utilise une base de connaissances (faits et règles) et un moteur d’inférence pour tirer des conclusions et fournir des recommandations.

Taux d’apprentissage (Learning rate)

Le taux d’apprentissage (Learning Rate) est un hyperparamètre crucial dans l’entraînement des modèles d’IA, en particulier pour les algorithmes basés sur la descente de gradient. Il contrôle la taille des pas effectués lors de l’ajustement des paramètres du modèle pour minimiser la fonction de perte. Un taux trop élevé peut empêcher la convergence, tandis qu’un taux trop bas peut ralentir excessivement l’entraînement.

Technosolutionnisme (Technosolutionism)

Le technosolutionnisme (Technosolutionism) est la croyance selon laquelle la plupart des problèmes sociaux, économiques ou environnementaux peuvent être résolus principalement par des solutions technologiques avancées, parfois au détriment d’approches politiques, sociales ou comportementales.

Test (AI testing)

Le test en IA (AI Testing) est le processus d’évaluation des performances, de la fiabilité, de la robustesse et de la sécurité d’un système d’intelligence artificielle. Il s’appuie sur des ensembles de données de test dédiés (non vus pendant l’entraînement) et peut inclure des tests fonctionnels, des tests de performance, des tests de robustesse face aux attaques, etc.

Traitement automatique de la parole (Speech processing)

Le traitement automatique de la parole (Speech Processing) est un domaine de l’IA qui englobe diverses technologies liées à la parole humaine, notamment la reconnaissance vocale (conversion de la parole en texte), la synthèse vocale (conversion du texte en parole), l’identification du locuteur, et l’analyse des émotions dans la voix.

Traitement automatique du langage naturel (TAL / NLP – Natural language processing)

Le traitement automatique du langage naturel (TAL ou NLP – Natural Language Processing) est un sous-domaine de l’IA qui se concentre sur l’interaction entre les ordinateurs et le langage humain. Il vise à permettre aux machines de comprendre, d’interpréter, de générer et de manipuler le langage naturel (parlé ou écrit) de manière utile.

Transformer (Architecture de modèle)

Le Transformer est une architecture de réseau de neurones profond introduite en 2017, qui a révolutionné le traitement du langage naturel et s’est étendue à d’autres domaines (comme la vision par ordinateur). Elle repose principalement sur des mécanismes d’attention (en particulier l’auto-attention) pour traiter les dépendances à longue distance dans les séquences de données de manière efficace et parallèle. De nombreux grands modèles de langage (LLM) sont basés sur l’architecture Transformer.

Validation (AI validation)

La validation en IA (AI Validation) est le processus qui consiste à évaluer si un modèle d’IA répond aux exigences spécifiées et s’il est apte à l’usage prévu. Elle implique généralement de tester le modèle sur un ensemble de données de validation distinct pour ajuster les hyperparamètres et s’assurer de sa capacité de généralisation avant le test final.

Validation croisée (Cross-validation)

La validation croisée (Cross-Validation) est une technique statistique utilisée pour évaluer la performance d’un modèle d’IA et sa capacité à généraliser à de nouvelles données, en particulier lorsque la quantité de données disponibles est limitée. Elle consiste à diviser l’ensemble de données en plusieurs sous-ensembles (plis), à entraîner le modèle sur certains plis et à le tester sur le pli restant, en répétant ce processus pour chaque pli.

Vérité terrain (Ground truth)

La vérité terrain (Ground Truth) désigne l’information considérée comme étant la « bonne réponse » ou la réalité objective pour un ensemble de données. En apprentissage supervisé, ce sont les étiquettes correctes fournies avec les données d’entraînement, contre lesquelles les prédictions du modèle sont comparées pour évaluer sa performance.

Vision par ordinateur (Computer vision)

La vision par ordinateur (Computer Vision) est un domaine de l’intelligence artificielle qui vise à permettre aux machines d' »interpréter » et de comprendre des informations visuelles à partir d’images numériques ou de vidéos, de manière similaire à la vision humaine. Les tâches incluent la reconnaissance d’objets, la détection de visages, la segmentation d’images, etc.

Comprendre le vocabulaire de l’IA est une première étape essentielle pour apprécier ses avancées, ses défis et son impact potentiel sur notre avenir. L’IA continue de progresser rapidement, et avec elle, son langage. Je vous encourage à rester curieux et à poursuivre votre exploration. Ce glossaire se veut une ressource vivante, n’hésitez pas à y revenir au gré de vos besoins. L’aventure de la connaissance en IA ne fait que commencer !

Laisser un commentaire