Comment l'IA apprend réellement : du prompt au modèle entraîné

Comment l'IA apprend réellement : du prompt au modèle entraîné

Idées fausses courantes sur l'apprentissage IA

Avant de plonger dans les détails techniques, démystifions les mythes les plus répandus sur l'apprentissage des IA.

Mythe 1 : "L'IA apprend comme un enfant"

Ce qu'on entend : L'IA observe, comprend et mémorise comme un enfant qui découvre le monde.

La réalité :

  • Un enfant apprend avec quelques exemples (voir 3 chiens suffit pour reconnaître tous les chiens)
  • L'IA a besoin de millions d'exemples pour la même tâche
  • Un enfant comprend les concepts, l'IA trouve des corrélations statistiques
  • Un enfant transfère facilement (apprend "chien" → comprend "animal"), l'IA non

Exemple concret :

Enfant : Voit 1 girafe au zoo → Reconnaît toutes les girafes
IA : A besoin de 10,000+ photos de girafes annotées pour atteindre 95% de précision

Mythe 2 : "L'IA imite le cerveau humain"

Ce qu'on entend : Les réseaux de neurones fonctionnent comme notre cerveau.

La réalité :

AspectCerveau humainRéseau de neurones
Neurones86 milliards, connectés chimiquementQuelques millions, calculs matriciels
ApprentissageContinu, parallèle, multimodalPar lots, séquentiel, souvent unimodal
Énergie~20 wattsDes mégawatts (GPT-4)
DonnéesApprend en dormant, avec peu d'exemplesNécessite des To de données
OubliOubli sélectif utile"Catastrophic forgetting"

Les neurones artificiels sont une inspiration lointaine, pas une imitation.

Mythe 3 : "L'IA devient intelligente toute seule"

Ce qu'on entend : Une fois lancée, l'IA s'améliore spontanément.

La réalité :

  • L'IA ne s'améliore QUE quand on la ré-entraîne avec de nouvelles données
  • ChatGPT ne "sait" rien de ce qui s'est passé après sa date de cutoff
  • Sans intervention humaine, un modèle se dégrade (data drift)
GPT-4 entraîné jusqu'en 2023
Question : "Qui a gagné la Coupe du Monde 2026 ?"
→ Ne peut pas répondre, n'a pas "appris" depuis

Mythe 4 : "L'IA comprend ce qu'elle dit/fait"

Ce qu'on entend : Quand ChatGPT explique un concept, il le comprend.

La réalité :

  • L'IA prédit le token suivant le plus probable statistiquement
  • Elle n'a pas de modèle mental du monde
  • Elle peut générer des réponses parfaitement formulées mais factuellement fausses

Test révélateur :

Question : "Combien de 'r' dans strawberry ?"
GPT-4 : "Il y a 2 'r' dans strawberry" ❌ (il y en a 3)

Pourquoi ? L'IA ne "compte" pas, elle prédit ce qui ressemble
à une bonne réponse statistiquement.

Mythe 5 : "Plus de données = IA meilleure"

Ce qu'on entend : Il suffit d'ajouter des données pour améliorer l'IA.

La réalité :

  • Des données biaisées → IA biaisée (même avec 1 To de données)
  • Des données bruitées → IA confuse
  • Des données non représentatives → IA qui généralise mal
Exemple : Reconnaissance faciale
- Entraînée sur 90% visages caucasiens
- Résultat : 99% précision blancs, 65% précision noirs
- Plus de données du même type n'aurait PAS résolu le problème

Mythe 6 : "L'IA peut tout apprendre"

Ce qu'on entend : Avec assez de puissance, l'IA peut maîtriser n'importe quelle tâche.

La réalité - Ce que l'IA fait BIEN :

  • Reconnaissance de patterns (images, sons, texte)
  • Prédiction statistique
  • Optimisation de fonctions
  • Génération de contenu dans le style des données d'entraînement

Ce que l'IA fait MAL :

  • Raisonnement causal ("pourquoi ?")
  • Planification à long terme
  • Transfert vers des domaines non vus
  • Tâches nécessitant du bon sens physique
Question : "Si je mets une tasse à l'envers sur une table et pose
une balle dessus, puis je retourne la tasse, où est la balle ?"

L'IA peut se tromper car elle n'a pas de modèle physique du monde.

Maintenant que ces mythes sont démystifiés, voyons comment l'IA apprend réellement.


Vous avez probablement entendu dire que l'IA apprend comme un enfant, qu'elle imite le cerveau humain, ou qu'elle devient intelligente toute seule.

Spoiler : Tout ça, c'est faux. Ou en tout cas, très approximatif.

La réalité de l'apprentissage automatique est à la fois plus simple et plus fascinante que ces métaphores. Pas besoin d'un PhD pour comprendre comment ChatGPT a appris à écrire, comment Midjourney génère des images, ou comment votre banque détecte la fraude.

Dans cet article, je démystifie comment l'IA apprend vraiment :

  • Les 3 grands types d'apprentissage (supervisé, non-supervisé, par renforcement)
  • Ce qui se passe mathématiquement (simplifié, promis)
  • Comment on "entraîne" un modèle concrètement
  • Exemples réels : de la détection de spam à GPT-4
  • Les limites et biais de l'apprentissage
  • Les nouvelles méthodes qui émergent

Objectif : Comprendre les fondamentaux pour mieux utiliser, critiquer et anticiper l'IA.

Pas de jargon inutile. Que des concepts clairs avec des analogies qui marchent.

L'apprentissage en un mot : l'ajustement

Si je devais résumer l'apprentissage automatique en une phrase :

"Ajuster des millions de paramètres pour minimiser les erreurs sur des exemples."

Voilà. C'est tout. Le reste, ce sont des variations sur ce thème.

L'analogie du tireur

Imaginez un tireur qui apprend à viser une cible :

Tentative 1 : Il tire à 2 mètres à gauche → Trop à gauche

Ajustement : Il vise 1 mètre à droite

Tentative 2 : Il tire à 50 cm à droite → Trop à droite

Ajustement : Il vise 25 cm à gauche

Tentative 3 : Il tire à 10 cm à droite → Mieux !

Ajustement : Il vise 5 cm à gauche

...

Après 1000 tirs : Il touche le centre à chaque fois.

C'est exactement ce que fait l'IA :

  1. Elle fait une prédiction (tire)
  2. Elle mesure son erreur (distance à la cible)
  3. Elle ajuste ses paramètres (correction de visée)
  4. Répéter des milliers/millions de fois

Différence avec l'humain : L'IA peut faire 1 milliard d'ajustements en quelques heures. Un humain mettrait des années.

Les 3 ingrédients essentiels

Pour qu'une IA apprenne, il faut toujours ces 3 éléments :

1. Des données (les exemples)

  • Photos de chats pour reconnaître les chats
  • Historique d'achats pour recommander des produits
  • Parties d'échecs pour apprendre à jouer

2. Une fonction à optimiser (l'objectif)

  • "Minimise le nombre de chats mal classés"
  • "Maximise le taux de clics sur les recommandations"
  • "Maximise le taux de victoire aux échecs"

3. Un algorithme d'ajustement (la méthode)

  • Gradient descent (le plus courant)
  • Evolutionary algorithms
  • Reinforcement learning

Sans l'un de ces 3 : Pas d'apprentissage possible.

Les 3 grands types d'apprentissage

Type 1 : Apprentissage supervisé (le plus courant)

Principe : On donne à l'IA des exemples avec les bonnes réponses.

Analogie : C'est comme apprendre les multiplications avec un professeur qui corrige vos exercices.

Exemple concret : Détection de spam

Données d'entraînement :
Email 1 : "Gagnez 1 million !" → SPAM
Email 2 : "Réunion demain 14h" → PAS SPAM
Email 3 : "Offre exceptionnelle !!!" → SPAM
...

Ce que l'IA apprend :

  • Mots fréquents dans les spams : "gratuit", "gagner", "cliquez"
  • Mots fréquents dans les vrais emails : "réunion", "projet", "bonjour"
  • Patterns de ponctuation : "!!!" → souvent spam
  • Longueur des emails, heure d'envoi, etc.

Applications réelles :

  • Reconnaissance d'images (chien/chat/voiture...)
  • Traduction automatique
  • Prédiction de prix immobilier
  • Diagnostic médical assisté
  • Reconnaissance vocale

Avantage : Très performant si on a beaucoup d'exemples étiquetés

Inconvénient : Nécessite des milliers/millions d'exemples annotés (coûteux)

Type 2 : Apprentissage non-supervisé (trouver des patterns)

Principe : L'IA cherche des structures cachées dans les données sans réponses données.

Analogie : C'est comme trier des Lego par forme et couleur sans qu'on vous dise comment les regrouper.

Exemple concret : Segmentation de clients

Données : 100,000 clients avec
- Âge
- Revenu
- Fréquence d'achat
- Panier moyen
- Catégories préférées

Ce que l'IA découvre (clustering) :

Groupe 1 (23% des clients) :
- Âge moyen : 28 ans
- Revenu : faible
- Achats fréquents, petits montants
→ "Jeunes actifs budget serré"

Groupe 2 (18% des clients) :
- Âge moyen : 45 ans
- Revenu : élevé
- Achats rares, gros montants
→ "Cadres premium"

Applications réelles :

  • Segmentation marketing
  • Détection d'anomalies (fraude, pannes)
  • Compression de données
  • Recommandations (Netflix, Spotify)
  • Réduction de dimensions (visualisation)

Avantage : Pas besoin d'annotations coûteuses

Inconvénient : Résultats moins prévisibles, interprétation délicate

Type 3 : Apprentissage par renforcement (essai-erreur)

Principe : L'IA apprend en interagissant avec un environnement et en recevant des récompenses/punitions.

Analogie : C'est comme dresser un chien : bon comportement → friandise, mauvais comportement → rien.

Exemple concret : AlphaGo (jouer au Go)

Début de partie : IA joue aléatoirement
Coup 1 : Pose une pierre en A5
→ Résultat après 200 coups : Défaite
→ Récompense : -1
→ Ajustement : "A5 dans cette situation = mauvais"

Coup 2 : Pose une pierre en B3
→ Résultat : Victoire
→ Récompense : +1
→ Ajustement : "B3 dans cette situation = bon"

ChatGPT aussi ! : RLHF (Reinforcement Learning from Human Feedback)

GPT génère une réponse
→ Humain note : 👍 ou 👎
→ Modèle ajuste pour maximiser les 👍

Applications réelles :

  • Jeux vidéo (AlphaGo, Dota 2, StarCraft II)
  • Robots (marche, manipulation objets)
  • Voitures autonomes
  • Trading algorithmique
  • Optimisation d'infrastructure (data centers de Google)

Avantage : Peut découvrir des stratégies créatives inattendues

Inconvénient : Nécessite beaucoup de temps et de puissance de calcul

Ce qui se passe mathématiquement : les neurones artificiels

Attention : Partie un peu technique, mais j'ai simplifié au max.

Le neurone artificiel : une fonction mathématique

Un neurone artificiel, c'est juste une fonction qui prend des nombres en entrée et sort un nombre.

Exemple : Prédire si un email est spam

Entrées :
x1 = nombre de mots "gratuit" dans l'email
x2 = nombre de "!!!"
x3 = longueur de l'email

Neurone : y = fonction(w1×x1 + w2×x2 + w3×x3 + b)

w1, w2, w3 = poids (paramètres à apprendre)
b = biais
fonction = sigmoid (transforme en probabilité 0-1)

L'apprentissage = trouver les bonnes valeurs de w1, w2, w3, b

Les réseaux de neurones : empiler des couches

Un seul neurone = capacité limitée.

Solution : Empiler des couches de neurones.

Couche d'entrée (pixels d'image)
         ↓
Couche cachée 1 (détecte bords)
         ↓
Couche cachée 2 (détecte formes)
         ↓
Couche cachée 3 (détecte objets)
         ↓
Couche de sortie (chat/chien/voiture)

GPT-4 : 1.76 trillion de paramètres répartis sur ~120 couches

La descente de gradient : comment on ajuste

Question : Comment trouver les bonnes valeurs pour des millions de paramètres ?

Réponse : Descente de gradient.

Analogie : Vous êtes dans le brouillard en montagne et voulez descendre au point le plus bas.

Stratégie :

  1. Regardez autour de vous
  2. Identifiez la direction qui descend le plus
  3. Faites un pas dans cette direction
  4. Répétez

Après des millions d'itérations : Erreur minimale, modèle optimal.

Cas concrets : comment on entraîne vraiment un modèle

Exemple 1 : Classifier des images (chat vs chien)

Étape 1 : Collecter les données

Dataset :
- 10,000 photos de chats (étiquetées "chat")
- 10,000 photos de chiens (étiquetées "chien")

Étape 2 : Préparer les données

# Normalisation : pixels de 0-255 → 0-1
images = images / 255.0

# Redimensionner : toutes à 224×224 pixels
images = resize(images, (224, 224))

# Split train/validation/test (80/10/10)

Étape 3 : Entraîner

Epoch 1 :
- Passer les 16,000 images train
- Pour chaque batch de 32 images :
  - Prédire → Calculer erreur → Ajuster poids
- Accuracy sur validation : 65%

Epoch 10 :
- Accuracy : 92%

Epoch 50 :
- Accuracy : 97% ✅

Exemple 2 : Comment ChatGPT a appris

Phase 1 : Pré-entraînement (unsupervised)

Données : 45 To de texte (Internet, livres, code...)

Tâche : Prédire le mot suivant

Exemple :
Texte : "Le chat est sur le ___"
IA apprend : "tapis" a forte probabilité, "avion" a faible probabilité

Phase 2 : Fine-tuning supervisé

Données : 100,000 conversations humain ↔ assistant IA

Exemple :
Question : "Quelle est la capitale de la France ?"
Bonne réponse : "La capitale de la France est Paris."

Phase 3 : RLHF (Reinforcement Learning from Human Feedback)

GPT génère 4 réponses à "Explique la relativité"
Humain classe :
1. Réponse C (claire, précise)
2. Réponse A (correcte mais confuse)
3. Réponse D (trop technique)
4. Réponse B (erreur factuelle)

Modèle de récompense apprend ces préférences

Coût estimé : $100 millions en puissance de calcul

Pour approfondir les différences entre entraîner un modèle (fine-tuning) et simplement bien le guider (prompt engineering), consultez notre article détaillé : Prompt engineering vs fine-tuning : quelle approche choisir en production IA ?

Les limites de l'apprentissage automatique

Limite 1 : Garbage in, garbage out

Problème : L'IA apprend exactement ce qui est dans les données, y compris les biais.

Exemple réel : Recrutement automatisé d'Amazon (2018)

Données d'entraînement :
- 10 ans d'embauches passées
- 80% des ingénieurs embauchés = hommes

Ce que l'IA a appris :
"Femme" = signal négatif pour recrutement

Résultat :
CV avec "Women's Chess Club" → Score -10%

Leçon : L'IA amplifie les biais historiques.

Limite 2 : Overfitting (sur-apprentissage)

Problème : L'IA apprend trop les exemples d'entraînement et ne généralise pas.

Analogie : Un étudiant qui apprend les réponses par cœur sans comprendre.

Solutions :

  • Plus de données
  • Régularisation (pénaliser la complexité)
  • Dropout (désactiver aléatoirement des neurones)
  • Validation croisée

Limite 3 : Adversarial examples

Problème : Petites modifications imperceptibles trompent l'IA.

Image originale : Panda
Prédiction IA : Panda (98% confiance)

Ajout de bruit invisible à l'œil humain

Image modifiée : Panda (identique pour humain)
Prédiction IA : Gibbon (99% confiance)

Applications malveillantes :

  • Tromper reconnaissance faciale
  • Faire ignorer un panneau stop aux voitures autonomes
  • Bypasser détection de malware

Limite 4 : Manque de causalité

Problème : L'IA apprend des corrélations, pas des causes.

Exemple célèbre : Ventes de glaces et noyades

Données observées :
Mois avec + de ventes de glaces → + de noyades

IA conclut : Glaces causent noyades

Réalité : C'est l'été (variable cachée)

Limite 5 : Distribution shift

Problème : Les nouvelles données sont différentes des données d'entraînement.

Exemple : COVID-19

Modèle de détection de pneumonie :
Entraîné sur données 2015-2019

2020 : COVID arrive
Nouveau type de pneumonie, patterns différents
→ Modèle inefficace sans ré-entraînement

Solution : Ré-entraînement régulier avec nouvelles données.

Les nouvelles approches qui émergent

1. Few-shot learning (apprendre avec peu d'exemples)

Problème classique : Besoin de milliers d'exemples

Few-shot : Apprendre avec 1-10 exemples

Exemple : GPT-4

Prompt :
"Traduis en français :
Hello → Bonjour
Goodbye → Au revoir
Thank you → Merci

Good morning → ?"

GPT-4 : "Bonjour" (apprend le pattern avec 3 exemples)

2. Transfer learning (réutiliser l'apprentissage)

Idée : Un modèle entraîné sur une tâche peut être adapté à une autre.

Modèle pré-entraîné : ImageNet (1M images, 1000 catégories)
→ Apprend : formes, textures, objets génériques

Fine-tuning : 500 photos de maladies de peau
→ Réutilise connaissances générales
→ Adapte aux maladies spécifiques
→ 95% précision avec seulement 500 images

3. Self-supervised learning (apprendre sans labels)

Idée : Créer automatiquement les labels à partir des données.

Exemple : GPT (prédire mot suivant)

Texte : "Le chat dort sur le canapé"
Entrée : "Le chat dort sur le"
Label auto-généré : "canapé"

Avantage : Pas besoin d'annotations humaines (coûteuses)

4. Meta-learning (apprendre à apprendre)

Idée : Entraîner un modèle à s'adapter rapidement à de nouvelles tâches.

Analogie : Au lieu d'apprendre le piano, apprendre à apprendre n'importe quel instrument.

5. Neuro-symbolic AI (combiner deep learning et logique)

Problème : Les réseaux de neurones manquent de raisonnement logique.

Solution : Hybrider IA neuronale + raisonnement symbolique.

Question : "Si tous les chats sont des mammifères,
et Félix est un chat, Félix est-il un mammifère ?"

IA neuronale pure : 🤷 (devine parfois)
Neuro-symbolic : ✅ (applique logique formelle)

Conclusion : L'IA apprend, mais différemment

Après ce tour d'horizon, voici ce qu'il faut retenir :

Ce que l'IA fait vraiment

L'IA n'apprend pas comme un humain.

Elle :

  • Ajuste des millions de paramètres mathématiques
  • Trouve des patterns statistiques dans les données
  • Optimise une fonction objectif précise
  • Peut traiter des milliards d'exemples

Elle ne :

  • Comprend pas au sens humain
  • Raisonne pas causalement (sauf progrès récents)
  • Généralise pas hors de sa distribution d'entraînement
  • A pas de conscience ou d'intentionnalité

Les 3 piliers de l'apprentissage IA

1. Les données : Plus elles sont nombreuses, diverses et de qualité, mieux c'est

2. L'algorithme : Supervisé, non-supervisé, renforcement selon le contexte

3. La puissance de calcul : GPT-4 = des millions de dollars de GPU

Implications pratiques

Pour les utilisateurs :

  • Comprendre que l'IA a des biais (ceux des données)
  • Tester sur des cas limites
  • Ne pas faire confiance aveuglément

Pour les développeurs :

  • Choisir le bon type d'apprentissage
  • Préparer des données de qualité
  • Valider rigoureusement
  • Monitorer en production (distribution shift)

Pour les décideurs :

  • L'IA n'est pas magique, elle a des limites
  • Investir dans la data quality
  • Prévoir ré-entraînement régulier
  • Avoir des humains dans la boucle pour décisions critiques

L'avenir de l'apprentissage IA

Les tendances 2025-2030 :

1. Moins de données nécessaires : Few-shot, meta-learning

2. Plus de raisonnement : Neuro-symbolic, chain-of-thought

3. Plus d'efficacité : Modèles plus petits, distillation

4. Plus de causalité : Comprendre le "pourquoi", pas juste le "quoi"

5. Plus d'adaptabilité : Apprentissage continu, lifelong learning

La révolution n'est pas terminée. L'apprentissage automatique continuera d'évoluer, de se démocratiser, et de transformer nos outils et nos sociétés.

Mais maintenant, vous savez comment ça marche vraiment.

Vous avez des questions sur l'apprentissage automatique ? Partagez en commentaires !