Faire mon analyse
AccueilRessources → Guide
📚 Guide ⏱️ 10 min de lecture 🎯 Débutant

Les bases de l'IA générative

LLM, prompt, token... Comprends le vocabulaire et les concepts essentiels pour utiliser l'IA efficacement.

🎯 Pourquoi ce guide ?

L'IA générative est partout : ChatGPT, Claude, Gemini, Midjourney... Mais quand on débute, le jargon technique peut être intimidant.

Ce guide t'explique simplement les concepts clés pour que tu puisses utiliser ces outils en toute confiance et comprendre ce qui se passe "sous le capot".

Qu'est-ce que l'IA générative ?

L'IA générative est un type d'intelligence artificielle capable de créer du contenu nouveau : texte, images, code, musique, vidéo...

Contrairement aux IA "classiques" qui analysent ou classifient des données, l'IA générative produit quelque chose qui n'existait pas avant.

💡 Exemple concret : Quand tu demandes à ChatGPT "Écris-moi un email professionnel", il ne copie pas un email existant. Il génère un nouvel email basé sur les patterns qu'il a appris.

Le vocabulaire essentiel

LLM (Large Language Model)
Un "Grand Modèle de Langage" est le cerveau derrière les chatbots comme ChatGPT ou Claude. C'est un programme entraîné sur des milliards de textes pour comprendre et générer du langage humain.
Analogie : Imagine quelqu'un qui a lu tous les livres du monde et peut écrire dans n'importe quel style.
Prompt
C'est l'instruction ou la question que tu donnes à l'IA. La qualité de ta réponse dépend directement de la qualité de ton prompt.
Exemple : "Écris un email" est un prompt faible. "Écris un email professionnel pour relancer un recruteur après un entretien, ton amical mais pas trop familier" est un prompt efficace.
Token
Un token est un "morceau" de texte que l'IA traite. Ce n'est pas exactement un mot : c'est souvent une syllabe ou un groupe de lettres. Les tarifs et limites des IA sont souvent calculés en tokens.
Exemple : Le mot "bonjour" = 2 tokens. La phrase "Je suis content" = environ 4 tokens.
Contexte (ou Context Window)
C'est la "mémoire de travail" de l'IA pendant une conversation. Elle ne peut considérer qu'un nombre limité de tokens à la fois.
Exemple : GPT-4 peut gérer ~128 000 tokens de contexte, soit environ 100 pages de texte. Claude peut aller jusqu'à 200 000 tokens.
Hallucination
Quand l'IA invente des informations fausses avec assurance. Elle peut citer des études qui n'existent pas ou donner des faits incorrects.
⚠️ Important : Vérifie toujours les informations factuelles, surtout pour des sujets importants (santé, juridique, données chiffrées).
Temperature
Un paramètre qui contrôle la "créativité" de l'IA. Temperature basse = réponses prévisibles et factuelles. Temperature haute = réponses plus créatives et variées.
Usage : Pour du code ou des faits, temperature basse. Pour de la fiction ou du brainstorming, temperature haute.

Comment ça marche (simplifié)

Quand tu envoies un prompt à ChatGPT ou Claude, voici ce qui se passe :

1. Tokenisation

Ton texte est découpé en tokens que l'IA peut traiter.

2. Analyse du contexte

L'IA analyse ton prompt + tout l'historique de conversation pour comprendre ce que tu veux.

3. Prédiction

L'IA prédit le token le plus probable qui devrait venir ensuite, puis le suivant, et ainsi de suite jusqu'à former une réponse complète.

4. Génération

Les tokens sont reconvertis en texte lisible et affichés.

⚠️ Point clé : L'IA ne "comprend" pas vraiment comme un humain. Elle prédit statistiquement les mots les plus probables. C'est pourquoi elle peut parfois générer des réponses qui "sonnent bien" mais sont fausses.

Les principaux modèles

Modèle Créateur Points forts
GPT-4 / ChatGPT OpenAI Polyvalent, très populaire, bon en code
Claude Anthropic Conversations longues, nuancé, éthique
Gemini Google Multimodal, intégré à Google
Mistral Mistral AI Open source, efficace, français
Llama Meta Open source, personnalisable

Ce qu'il faut retenir