Retour à la documentation

Lexique de l'IA générative

Retrouvez plus de 63 termes clés de l'IA générative expliqués simplement pour mieux comprendre et utiliser cette technologie le plus efficacement possible.

A

Adversarial Examples

Inputs modifiés subtilement pour tromper les modèles d'IA

Les exemples adversaires sont des inputs légèrement modifiés, souvent imperceptiblement pour les humains, mais qui causent des erreurs significatives dans les modèles d'IA. Ces inputs révèlent la fragilité des systèmes d'IA et soulèvent des questions de sécurité importantes. En NLP, cela peut être des synonymes subtils ou des reformulations qui changent complètement l'interprétation du modèle.

Alignment

Processus d'alignement des comportements de l'IA avec les valeurs humaines

L'alignment (alignement) désigne les efforts pour s'assurer que les systèmes d'IA agissent conformément aux valeurs et intentions humaines. Cela inclut la sécurité (éviter les sorties nuisibles), l'utilité (produire des réponses utiles) et l'honnêteté (éviter la désinformation). L'alignement utilise des techniques comme l'apprentissage par renforcement à partir du feedback humain (RLHF) pour former des modèles plus sûrs et bénéfiques.

Annotation

Processus d'ajout de labels ou métadonnées aux données pour l'entraînement supervisé

L'annotation consiste à ajouter des labels, tags ou métadonnées aux données brutes pour créer des datasets d'entraînement supervisé. Pour les modèles de langage, cela peut inclure l'étiquetage de sentiment, la classification de sujets, ou l'évaluation de la qualité des réponses. L'annotation humaine est coûteuse mais cruciale pour créer des modèles précis et alignés.

API

Interface permettant d'intégrer les capacités d'IA dans d'autres applications

Une API (Application Programming Interface) d'IA générative est une interface qui permet aux développeurs d'intégrer les capacités d'un modèle dans leurs propres applications. Elle définit comment envoyer des requêtes (prompts), configurer les paramètres (température, tokens max) et recevoir les réponses. Les APIs populaires incluent OpenAI GPT, Anthropic Claude, et Google Gemini, chacune avec ses spécificités techniques.

Attention Mechanism

Système permettant au modèle de se concentrer sur les parties pertinentes de l'entrée

Le mécanisme d'attention permet aux modèles de se concentrer sélectivement sur différentes parties de l'entrée lors du traitement. Au lieu de traiter toute l'information uniformément, l'attention assigne des poids différents aux éléments selon leur pertinence pour la tâche actuelle. Cette innovation est centrale à l'architecture Transformer et explique la capacité des modèles modernes à maintenir la cohérence sur de longs textes.

Attention Score

Poids calculés indiquant l'importance relative de chaque élément d'entrée

Les scores d'attention quantifient l'importance relative de chaque élément d'entrée pour prédire un élément de sortie spécifique. Ces poids, calculés dynamiquement, permettent au modèle de se "concentrer" sur les parties les plus pertinentes de l'entrée. En visualisant ces scores, on peut comprendre quels mots ou phrases influencent le plus les prédictions du modèle, offrant une forme d'interprétabilité.

Autoregressive

Méthode de génération séquentielle où chaque token dépend des précédents

Un modèle autorégressif génère du texte séquentiellement, chaque nouveau token étant prédit en fonction de tous les tokens précédents. Cette approche garantit la cohérence locale mais peut souffrir d'erreurs cumulatives sur de longs textes. Les modèles GPT sont autorégressifs : ils prédisent le mot suivant, l'ajoutent à la séquence, puis prédisent le suivant, et ainsi de suite.

B

Benchmark

Dataset ou tâche standardisée pour évaluer et comparer les modèles d'IA

Un benchmark est un dataset ou ensemble de tâches standardisé utilisé pour évaluer et comparer objectivement les performances des modèles d'IA. Examples populaires : GLUE/SuperGLUE pour la compréhension du langage, ou MMLU pour les connaissances multidisciplinaires. Les benchmarks permettent des comparaisons équitables entre différents modèles et suivent les progrès du domaine.

Bias ou biais

Préjugés ou biais présents dans les données d'entraînement reproduits par le modèle

Le biais désigne les préjugés systématiques qu'un modèle d'IA peut reproduire ou amplifier, hérités de ses données d'entraînement. Ces biais peuvent concerner le genre, l'origine ethnique, l'âge, ou d'autres caractéristiques démographiques. Ils se manifestent par des réponses inéquitables ou stéréotypées. Identifier et mitiger ces biais est un défi majeur pour créer des systèmes d'IA équitables et inclusifs.

Bidirectional

Capacité du modèle à considérer le contexte dans les deux directions

Un modèle bidirectionnel peut analyser le contexte à la fois avant et après chaque mot dans une séquence. Cette approche améliore la compréhension textuelle car elle utilise l'information complète disponible. BERT est bidirectionnel, contrairement à GPT qui ne "voit" que le contexte précédent. La bidirectionnalité est particulièrement avantageuse pour les tâches d'analyse et de compréhension.

C

Catastrophic Forgetting

Phénomène où le modèle perd ses connaissances antérieures en apprenant de nouvelles tâches

L'oubli catastrophique survient quand un modèle, en apprenant une nouvelle tâche, perd drastiquement ses performances sur les tâches précédemment maîtrisées. Ce phénomène complique l'apprentissage continu et pose des défis pour maintenir des capacités générales tout en spécialisant un modèle. Diverses techniques comme l'apprentissage progressif ou la régularisation tentent de mitiger ce problème.

Chain-of-Thought (CoT)

Technique incitant le modèle à décomposer son raisonnement étape par étape

Le Chain-of-Thought (CoT) est une méthode de prompting qui encourage le modèle à expliciter son processus de raisonnement. En demandant au modèle de "réfléchir étape par étape" ou en lui montrant des exemples de raisonnement décomposé, on obtient des réponses plus précises sur les tâches complexes nécessitant de la logique, des calculs ou de l'analyse. Cette technique améliore significativement les performances sur les problèmes multi-étapes.

Constitutional AI

Approche d'entraînement basée sur un ensemble de principes éthiques explicites

L'AI constitutionnelle est une méthode développée par Anthropic pour entraîner des modèles à suivre un ensemble de principes éthiques explicites, appelés "constitution". Au lieu de s'appuyer uniquement sur le feedback humain, le modèle apprend à auto-évaluer et corriger ses réponses selon ces principes. Cette approche vise à créer des systèmes plus transparents, cohérents et alignés dans leur comportement éthique.

Contexte

Longueur de texte que le modèle peut traiter simultanément

Le contexte (ou context window) désigne la quantité maximale de texte qu'un modèle peut considérer simultanément lors de la génération d'une réponse. Mesuré en tokens, il détermine combien d'historique de conversation, de documents ou d'instructions le modèle peut garder en mémoire. Un contexte plus large permet des conversations plus longues et la prise en compte de documents plus volumineux.

Cross-Attention

Mécanisme permettant à une séquence de faire attention à une autre séquence

L'attention croisée permet à une séquence (typiquement la sortie en cours de génération) de faire attention à une autre séquence (l'entrée). C'est crucial dans les architectures encodeur-décodeur où le décodeur doit accéder aux informations de l'encodeur. En traduction, par exemple, chaque mot généré peut faire attention aux mots pertinents de la phrase source.

D

Dataset

Collection organisée de données utilisée pour entraîner ou évaluer les modèles

Un dataset est une collection structurée de données utilisée pour entraîner, valider ou tester les modèles d'IA. En NLP, cela inclut typiquement du texte avec des annotations (labels, catégories, réponses correctes). La qualité, diversité et taille du dataset influencent directement les performances du modèle. Les datasets peuvent être généraux (Common Crawl) ou spécialisés (données médicales, juridiques).

E

Embedding

Représentation numérique vectorielle du sens des mots ou phrases

Un embedding est une représentation vectorielle dense qui capture le sens sémantique d'un mot, d'une phrase ou d'un document dans un espace multidimensionnel. Les mots avec des significations similaires ont des embeddings proches dans cet espace. Cette technique est fondamentale pour permettre aux modèles de comprendre les relations sémantiques entre les concepts et d'effectuer des tâches comme la recherche sémantique ou la classification.

Emergent Abilities

Capacités surprenantes apparaissant seulement dans les très grands modèles

Les capacités émergentes sont des aptitudes qui apparaissent de manière inattendue lorsque les modèles atteignent une certaine taille, sans avoir été explicitement programmées. Examples : raisonnement logique complexe, résolution de problèmes mathématiques, ou compréhension de concepts abstraits. Ces capacités suggèrent que l'échelle peut produire des changements qualitatifs, pas seulement quantitatifs, dans l'intelligence artificielle.

Encoder-Decoder

Architecture séparant la compréhension de l'entrée et la génération de la sortie

L'architecture encodeur-décodeur sépare le traitement en deux phases : l'encodeur traite et comprend l'entrée, le décodeur génère la sortie. Cette séparation est particulièrement efficace pour les tâches de transformation (traduction, résumé) où l'entrée et la sortie ont des structures différentes. L'encodeur peut être bidirectionnel pour une meilleure compréhension, tandis que le décodeur génère séquentiellement.

F

Few-shot Learning

Technique permettant au modèle d'apprendre une tâche avec seulement quelques exemples

Le few-shot learning est une capacité remarquable des modèles modernes à comprendre et exécuter une nouvelle tâche en ne recevant que quelques exemples dans le prompt. Au lieu de nécessiter un réentraînement complet, le modèle infère le pattern à partir de 2-5 exemples fournis. Cette technique est particulièrement utile pour des tâches spécifiques ou des formats de sortie particuliers.

Fine-tuning

Processus d'adaptation d'un modèle pré-entraîné à une tâche spécifique

Le fine-tuning consiste à prendre un modèle déjà entraîné sur un large corpus et à l'affiner sur un dataset spécifique pour optimiser ses performances sur une tâche particulière. Cette approche est plus efficace que d'entraîner un modèle from scratch car elle tire parti des connaissances générales déjà acquises. Le fine-tuning peut améliorer drastiquement les performances sur des domaines spécialisés.

Foundation Model

Modèle de base large et polyvalent servant de fondation à diverses applications

Un modèle fondation est un modèle large, pré-entraîné sur diverse données, conçu pour être adapté à de multiples tâches en aval. Ces modèles servent de base technologique pour diverses applications plutôt que d'être optimisés pour une tâche unique. Ils représentent un changement de paradigme vers des systèmes d'IA plus généraux et réutilisables.

G

Generative Pre-trained Transformer (GPT)

Architecture spécifique de modèle développée par OpenAI, famille GPT-1 à GPT-4

GPT (Generative Pre-trained Transformer) désigne une famille de modèles développés par OpenAI, basés sur l'architecture Transformer. Pré-entraînés sur de vastes corpus textuels pour prédire le mot suivant, ces modèles ont démocratisé l'IA générative. L'évolution GPT-1 → GPT-4 illustre les gains de performance avec l'augmentation d'échelle et l'amélioration des techniques d'entraînement.

Gradient Descent

Algorithme d'optimisation utilisé pour entraîner les modèles d'IA

La descente de gradient est l'algorithme fondamental utilisé pour entraîner les modèles d'IA en ajustant itérativement les paramètres pour minimiser l'erreur. L'algorithme calcule le gradient (direction de plus forte pente) de la fonction d'erreur et ajuste les paramètres dans la direction opposée. Ce processus itératif permet au modèle d'apprendre progressivement à partir des données d'entraînement.

H

Hallucination

Phénomène où l'IA génère des informations incorrectes avec assurance

Les hallucinations désignent la tendance des modèles d'IA générative à produire des informations factuellement incorrectes, inventées ou non fondées, tout en les présentant avec confiance. Ce phénomène survient parce que les modèles génèrent du texte statistiquement plausible sans véritable compréhension de la vérité factuelle. Il est crucial de vérifier les informations importantes produites par l'IA, surtout pour les faits, dates, citations ou données techniques.

I

Inference

Phase d'utilisation du modèle pour générer des prédictions ou réponses

L'inférence désigne la phase où un modèle entraîné est utilisé pour générer des prédictions ou réponses à partir de nouvelles données. C'est le processus qui transforme votre prompt en réponse. L'inférence nécessite des ressources computationnelles significatives, surtout pour les grands modèles, ce qui influence les coûts d'utilisation et les temps de réponse des services d'IA.

Intelligence Artificielle Générative

Technologie capable de créer du contenu original à partir de données d'entraînement

L'Intelligence Artificielle Générative désigne une catégorie d'algorithmes d'apprentissage automatique capables de produire du nouveau contenu original. Ces systèmes analysent de vastes ensembles de données pour apprendre les patterns et structures, puis génèrent du texte, des images, du code, de la musique ou d'autres types de contenu. Contrairement aux IA traditionnelles qui classifient ou analysent, les IA génératives créent activement du nouveau matériel qui n'existait pas auparavant.

J

Jailbreak

Techniques pour contourner les limitations et restrictions d'un modèle d'IA

Le jailbreak désigne les tentatives de contournement des garde-fous et restrictions d'un modèle d'IA par des prompts ingénieux. Ces techniques exploitent des failles dans l'entraînement pour obtenir des réponses normalement bloquées. Bien que problématiques du point de vue de la sécurité, ils révèlent les limitations des systèmes de sécurité actuels et informent le développement de meilleures défenses.

K

Knowledge Distillation

Processus de transfert des connaissances d'un grand modèle vers un plus petit

La distillation de connaissances est une technique où un grand modèle "enseignant" transmet ses connaissances à un modèle plus petit "étudiant". L'étudiant apprend à reproduire les sorties du maître plutôt que les données originales. Cette approche permet de créer des modèles compacts avec des performances proches des grands modèles, utiles pour le déploiement sur des ressources limitées ou pour réduire les coûts d'inférence.

L

Large Language Model (LLM)

Modèle de langage de très grande taille entraîné sur des milliards de paramètres

Un Large Language Model (LLM) est un modèle de langage caractérisé par sa taille exceptionnelle, généralement composé de milliards ou dizaines de milliards de paramètres. Cette échelle permet des capacités émergentes remarquables : compréhension contextuelle fine, raisonnement complexe, et génération de contenu de haute qualité. Les LLM comme GPT, Claude ou Gemini représentent l'état de l'art actuel en IA générative.

M

Masked Language Model (MLM)

Approche d'entraînement où le modèle prédit des mots masqués dans les phrases

Un modèle de langage masqué est entraîné à prédire des mots délibérément cachés (masqués) dans des phrases. Contrairement aux modèles autorégressifs qui prédisent le mot suivant, les MLM utilisent le contexte bidirectionnel. BERT est l'exemple le plus célèbre. Cette approche excelle pour des tâches de compréhension mais nécessite des adaptations pour la génération de texte.

Model Compression

Techniques pour réduire la taille des modèles sans perdre significativement en performance

La compression de modèle englobe diverses techniques pour réduire la taille et les besoins computationnels des modèles sans compromettre significativement leurs performances. Méthodes courantes : élagage (suppression de paramètres peu importants), quantification (réduction de la précision numérique), et distillation (entraînement d'un petit modèle à imiter un grand). Ces approches permettent le déploiement sur des ressources limitées.

Modèle de Langage

Système d'IA entraîné pour comprendre et générer du texte de manière cohérente

Un modèle de langage est un algorithme d'intelligence artificielle spécialement conçu pour traiter et générer du langage naturel. Il apprend les règles grammaticales, le vocabulaire, et les patterns linguistiques à partir d'énormes corpus de texte. Ces modèles peuvent comprendre le contexte, maintenir une cohérence narrative et produire du texte qui semble naturel et pertinent selon le contexte donné.

Multi-Head Attention

Utilisation de plusieurs mécanismes d'attention en parallèle pour capturer différents aspects

L'attention multi-têtes exécute plusieurs mécanismes d'attention en parallèle, chacun se concentrant potentiellement sur différents aspects des relations entre les mots. Les résultats sont ensuite combinés pour former une représentation riche. Cette approche permet au modèle de capturer simultanément différents types de dépendances : syntaxiques, sémantiques, ou positionnelles.

Multimodal

Capacité de traiter différents types de données : texte, image, audio, vidéo

Un modèle multimodal peut comprendre et générer différents types de contenu au-delà du texte seul : images, audio, vidéo, ou code. Cette capacité permet des interactions plus riches, comme analyser une image et la décrire en texte, générer des images à partir de descriptions textuelles, ou comprendre le contenu d'une vidéo. Les modèles multimodaux représentent l'évolution vers des IA plus polyvalentes.

O

Overfitting

Phénomène où le modèle mémorise les données d'entraînement au lieu de généraliser

Le surapprentissage survient quand un modèle s'adapte trop spécifiquement aux données d'entraînement, mémorisant les détails particuliers plutôt qu'd'apprendre des patterns généralisables. Résultat : excellentes performances sur les données d'entraînement mais mauvaises sur de nouvelles données. Prévention : validation croisée, régularisation, arrêt précoce, ou augmentation des données d'entraînement.

P

Parameter

Variables internes du modèle ajustées pendant l'entraînement pour apprendre

Les paramètres sont les variables numériques internes d'un modèle d'IA qui sont ajustées pendant l'entraînement pour minimiser l'erreur de prédiction. Leur nombre (millions ou milliards) indique grossièrement la capacité du modèle : plus de paramètres permettent généralement d'apprendre des patterns plus complexes. C'est un indicateur clé de la "taille" d'un modèle, bien que l'architecture et la qualité des données soient également cruciales.

Perplexity

Métrique mesurant la capacité du modèle à prédire le texte suivant

La perplexité est une métrique qui mesure à quel point un modèle de langage est "surpris" par une séquence de mots donnée. Une perplexité faible indique que le modèle prédit bien le texte suivant, suggérant une meilleure compréhension du langage. Cette métrique est utilisée pour évaluer et comparer les performances des modèles de langage, bien qu'elle ne capture pas tous les aspects de la qualité.

Pre-training

Phase initiale d'entraînement sur de vastes corpus de données générales

Le pré-entraînement est la phase initiale où un modèle apprend des représentations générales du langage en s'entraînant sur d'énormes quantités de texte diverse (web, livres, articles). Cette phase, coûteuse en ressources, donne au modèle une compréhension large du langage et des connaissances générales. Le pré-entraînement précède généralement le fine-tuning pour des tâches spécifiques.

Prompt

Instruction ou question donnée à une IA pour obtenir une réponse spécifique

Un prompt est l'instruction, la question ou le contexte fourni à un modèle d'IA générative pour guider sa réponse. C'est l'interface principale entre l'utilisateur et le modèle. Un prompt efficace doit être clair, précis et contenir suffisamment de contexte pour obtenir le résultat désiré. La qualité du prompt influence directement la pertinence et l'utilité de la réponse générée par l'IA.

Prompt Engineering

Art de concevoir des instructions optimales pour maximiser les performances des modèles d'IA

Le Prompt Engineering est la discipline qui consiste à concevoir, optimiser et affiner les prompts pour obtenir les meilleurs résultats possibles d'un modèle d'IA générative. Cette pratique combine compréhension technique des modèles, créativité dans la formulation et analyse des résultats. Un bon prompt engineer maîtrise les techniques comme le few-shot learning, le chain-of-thought et sait structurer ses demandes pour maximiser la précision et la pertinence des réponses.

Prompt Template

Structure réutilisable de prompt avec des emplacements pour variables dynamiques

Un template de prompt est une structure standardisée avec des emplacements variables (placeholders) qui peut être réutilisée pour différents inputs. Par exemple : "Résume ce texte en {nombre} phrases : {texte}". Cette approche permet de maintenir la cohérence des prompts tout en adaptant le contenu spécifique. Les templates facilitent l'automatisation et l'optimisation des interactions avec l'IA.

R

Red Teaming

Tests adversaires pour identifier les failles et comportements indésirables des modèles

Le red teaming consiste à tester systématiquement un modèle d'IA pour découvrir ses vulnérabilités, biais ou comportements problématiques. Des équipes spécialisées tentent de faire produire au modèle des contenus nuisibles, biaisés ou incorrects en utilisant diverses stratégies de prompt. Ces tests permettent d'identifier les faiblesses avant le déploiement public et d'améliorer les mécanismes de sécurité.

Reinforcement Learning

Paradigme d'apprentissage basé sur les récompenses et punitions

L'apprentissage par renforcement est un paradigme où un agent apprend à prendre des décisions en recevant des récompenses ou punitions pour ses actions. En IA générative, il est utilisé pour affiner les modèles selon les préférences humaines (RLHF). L'agent (modèle) génère du texte (action), reçoit un score de qualité (récompense), et ajuste sa stratégie pour maximiser les récompenses futures.

Retrieval-Augmented Generation (RAG)

Architecture combinant recherche d'informations et génération pour plus de précision

Le RAG (Retrieval-Augmented Generation) est une architecture qui améliore les modèles génératifs en leur donnant accès à une base de connaissances externe. Le système recherche d'abord des informations pertinentes dans une base de données, puis utilise ces informations comme contexte pour générer une réponse plus précise et à jour. Cette approche réduit les hallucinations et permet d'intégrer des informations récentes ou spécialisées.

RLHF

Technique d'entraînement utilisant les préférences humaines pour améliorer les modèles

Le RLHF (Reinforcement Learning from Human Feedback) est une méthode d'entraînement qui utilise les préférences humaines pour améliorer les modèles. Des annotateurs humains évaluent et classent différentes réponses du modèle, créant un dataset de préférences. Un modèle de récompense apprend à prédire ces préférences, puis guide l'entraînement du modèle principal via l'apprentissage par renforcement. Cette approche produit des modèles plus alignés avec les attentes humaines.

S

Scaling Laws

Relations mathématiques décrivant comment les performances évoluent avec la taille

Les lois d'échelle décrivent les relations mathématiques entre la taille d'un modèle (paramètres, données, calcul) et ses performances. Ces lois prédisent qu'augmenter la taille améliore généralement les capacités de manière prévisible. Elles guident les décisions d'investissement en recherche et développement, mais soulèvent aussi des questions sur les limites et les coûts croissants de cette approche.

Self-Attention

Mécanisme où chaque élément d'une séquence fait attention aux autres éléments

L'auto-attention permet à chaque position dans une séquence de faire attention à toutes les autres positions de la même séquence. Ce mécanisme capture les dépendances à long terme et les relations complexes entre les mots. C'est le cœur de l'architecture Transformer : chaque mot peut "regarder" tous les autres mots pour mieux comprendre son contexte et sa signification.

Sequence-to-Sequence

Paradigme pour transformer une séquence d'entrée en séquence de sortie différente

Le paradigme sequence-to-sequence (seq2seq) transforme une séquence d'entrée en une séquence de sortie potentiellement différente en longueur et structure. Applications typiques : traduction automatique, résumé automatique, génération de code. L'architecture encodeur-décodeur est particulièrement adaptée à ces tâches, permettant une grande flexibilité dans le mapping entrée-sortie.

Shot

Exemples fournis dans un prompt pour illustrer la tâche attendue

Un shot désigne un exemple fourni dans un prompt pour illustrer la tâche ou le format de réponse attendu. "One-shot" signifie un exemple, "few-shot" plusieurs exemples, "zero-shot" aucun exemple. Cette terminologie provient de l'apprentissage automatique où "shot" réfère au nombre d'exemples d'entraînement. Plus d'exemples améliorent généralement la compréhension du modèle mais consomment plus de tokens.

Stochastic Parrot

Critique suggérant que les modèles ne font que répéter sans vraie compréhension

L'expression "Stochastic Parrot" (perroquet stochastique) est une critique académique suggérant que les grands modèles de langage ne font que recombiner statistiquement des patterns vus pendant l'entraînement sans véritable compréhension. Cette perspective questionne si les modèles "comprennent" réellement ou s'ils excellent simplement à produire du texte statistiquement cohérent. Le débat continue dans la communauté scientifique sur la nature de l'intelligence de ces systèmes.

Supervised Learning

Apprentissage à partir d'exemples avec réponses correctes fournies

L'apprentissage supervisé utilise des données étiquetées où chaque exemple d'entrée est associé à la réponse correcte attendue. Le modèle apprend à mapper les entrées aux sorties en minimisant l'erreur sur ces exemples. En NLP, cela peut être la traduction (phrase → traduction correcte) ou la classification (texte → catégorie). C'est la méthode d'entraînement la plus commune et souvent la plus efficace.

System Message

Instructions initiales définissant le comportement et le rôle du modèle

Le system message est une instruction spéciale placée au début d'une conversation pour définir le rôle, le comportement et les contraintes du modèle. Il agit comme une configuration persistante qui influence toutes les réponses suivantes. Par exemple, on peut définir que le modèle doit agir comme un expert en marketing, adopter un ton professionnel, ou suivre des règles spécifiques de formatage.

T

Temperature

Paramètre contrôlant le niveau de créativité et d'aléatoire dans les réponses

La temperature est un hyperparamètre qui contrôle le degré d'aléatoire dans la génération de texte. Une température basse (proche de 0) produit des réponses plus prévisibles et cohérentes, tandis qu'une température élevée (proche de 1) génère des réponses plus créatives et variées. Ce réglage permet d'adapter le comportement du modèle selon l'usage : précision pour les tâches factuelles, créativité pour la génération artistique.

Token

Unité de base utilisée par les modèles pour découper et traiter le texte

Un token représente la plus petite unité de texte qu'un modèle d'IA peut traiter. Il peut correspondre à un mot complet, une partie de mot, un caractère ou un symbole, selon le système de tokenisation utilisé. Les modèles ont des limites en nombre de tokens qu'ils peuvent traiter simultanément (contexte). Comprendre cette notion est crucial pour optimiser ses prompts et gérer les coûts d'utilisation des APIs.

Tokenization

Processus de découpage du texte en unités compréhensibles par le modèle

La tokenisation est le processus de division du texte d'entrée en unités plus petites appelées tokens que le modèle peut traiter. Différentes méthodes existent : tokenisation par mots, sous-mots (BPE), ou caractères. Une tokenisation efficace équilibre la taille du vocabulaire et la préservation du sens. Comprendre ce processus aide à optimiser les prompts et à estimer les coûts d'utilisation.

Top-p (Nucleus Sampling)

Méthode de sélection des mots basée sur la probabilité cumulative

Le Top-p ou nucleus sampling est une technique qui limite la sélection des mots suivants à ceux dont la probabilité cumulative atteint un seuil p. Par exemple, avec p=0.9, le modèle ne considère que les mots représentant 90% de la probabilité totale. Cette approche produit des résultats plus naturels que la sélection purely aléatoire tout en maintenant de la diversité dans la génération.

Transfer Learning

Réutilisation des connaissances acquises sur une tâche pour en résoudre une nouvelle

L'apprentissage par transfert consiste à réutiliser un modèle pré-entraîné sur une tâche pour résoudre une nouvelle tâche liée. Au lieu de partir de zéro, on adapte les connaissances déjà acquises, réduisant significativement les besoins en données et en temps d'entraînement. Cette approche est particulièrement efficace en NLP où les représentations linguistiques générales sont largement transférables.

Transformer

Architecture révolutionnaire basée sur l'attention, fondement des modèles modernes d'IA

L'architecture Transformer est une innovation majeure en intelligence artificielle qui utilise des mécanismes d'attention pour traiter les séquences de données. Contrairement aux approches séquentielles traditionnelles, les Transformers peuvent traiter tous les éléments d'une séquence simultanément, permettant un entraînement plus efficace et de meilleures performances. Cette architecture est à la base de tous les grands modèles de langage actuels.

U

Underfitting

Situation où le modèle est trop simple pour capturer les patterns des données

Le sous-apprentissage se produit quand un modèle est trop simple ou insuffisamment entraîné pour capturer les patterns importants dans les données. Le modèle performe mal tant sur les données d'entraînement que sur les nouvelles données. Solutions : augmenter la complexité du modèle, prolonger l'entraînement, améliorer les features, ou réduire la régularisation si elle est excessive.

Unsupervised Learning

Apprentissage à partir de données sans labels explicites pour découvrir des patterns

L'apprentissage non-supervisé analyse des données sans labels explicites pour découvrir des patterns, structures ou représentations cachées. En NLP, cela inclut la modélisation du langage (prédire le mot suivant), le clustering de documents, ou l'apprentissage d'embeddings. Beaucoup de modèles modernes combinent pré-entraînement non-supervisé et fine-tuning supervisé.

V

Variable

Placeholder dans un prompt destiné à être remplacé par du contenu dynamique

Une variable dans un prompt est un espace réservé (placeholder) marqué par une syntaxe spécifique, destiné à être remplacé par du contenu dynamique lors de l'exécution. Généralement notée entre accolades {nom_variable} ou avec d'autres délimiteurs, elle permet de créer des prompts réutilisables et paramétrables. Par exemple, dans le prompt "Traduis ce texte en {langue_cible} : {texte_source}", les variables {langue_cible} et {texte_source} peuvent être remplacées par différentes valeurs selon le contexte. Cette approche facilite l'automatisation, la personnalisation et la maintenance des prompts dans les applications d'IA générative.

Z

Zero-shot Learning

Capacité du modèle à effectuer une tâche sans aucun exemple préalable

Le zero-shot learning désigne la capacité d'un modèle à accomplir une tâche qu'il n'a jamais vue explicitement pendant son entraînement, basée uniquement sur la description de cette tâche dans le prompt. Cette capacité émergente des grands modèles leur permet de généraliser leurs connaissances à de nouveaux domaines sans exemples spécifiques, démontrant une forme de compréhension abstraite.