Hallucinations de ChatGPT : Un Guide Complet

Sommaire

“ChatGPT invente parfois des choses.”

Oui, et cela s’appelle une hallucination. Et cela peut saper discrètement votre confiance dans les LLM.

Ce guide est votre manuel de terrain pour empêcher que cela ne se produise. Vous y trouverez une compréhension claire et pratique de ce que sont les hallucinations et comment les prévenir.

Que sont les hallucinations de ChatGPT ?

La dĂ©finition d’une hallucination selon les experts : une dĂ©claration par une IA qui contredit la source fournie (intrinsèque) ou introduit une information invĂ©rifiable non Ă©tayĂ©e par la source (extrinsèque), y compris des citations fabriquĂ©es ou des attributions erronĂ©es.

En termes simples ? Lorsque ChatGPT “hallucine”, il Ă©crit quelque chose avec confiance qui n’est pas Ă©tayĂ© par des preuves. Parfois, il invente des faits. Parfois, il interprète mal une source. Parfois, il fabrique une citation ou une URL.

Le signal clĂ© est le suivant : le texte semble correct, mais vous ne pouvez pas le vĂ©rifier. Dans la recherche, cela est appelĂ© un “Ă©chec de fiabilitĂ© dans la gĂ©nĂ©ration de langage naturel” (NLG).

Vous rencontrerez deux types principaux dans la littérature :

  • Les hallucinations intrinsèques contredisent la source ou le contexte donnĂ©. Exemple : vous collez un communiquĂ© de presse et le modèle réécrit une citation qui n’y a jamais figurĂ©.
  • Les hallucinations extrinsèques ajoutent du contenu que vous ne pouvez pas confirmer Ă  partir de la source disponible — de nouveaux chiffres, noms ou affirmations. Certaines additions extrinsèques peuvent mĂŞme ĂŞtre vraies dans le monde rĂ©el, mais elles restent risquĂ©es si votre mission exige une fidĂ©litĂ© Ă  un document spĂ©cifique.

Plus largement :

  • Hallucination factuelle : toute dĂ©claration qui ne peut ĂŞtre Ă©tayĂ©e par votre ensemble de sources (ou qui est tout simplement fausse).
  • Hallucination d’attribution : un fait rĂ©el associĂ© Ă  la mauvaise source, personne ou marque.
  • Hallucination de citation : des articles inexistants, des URL fabriquĂ©es ou des citations sans origine traçable.
  • Hallucination logique : une conclusion fluide qui ne dĂ©coule pas des prĂ©misses.

Les travaux universitaires mentionnent aussi parfois des ajouts “hallucinĂ©s mais factuels” — des dĂ©tails qui sont vrais en gĂ©nĂ©ral mais non fondĂ©s sur le texte que vous avez fourni. Cela peut sembler utile, mais cela enfreint toujours la fidĂ©litĂ© Ă  la consigne (par exemple, un rĂ©sumĂ© de rapport ne devrait pas introduire d’informations extĂ©rieures).

Pourquoi ChatGPT hallucine-t-il ?

RĂ©ponse courte : parce que c’est un prĂ©dicteur du prochain mot (token), pas un moteur de vĂ©ritĂ©. Il apprend des schĂ©mas textuels et les poursuit. Lorsque le schĂ©ma pointe dans la mauvaise direction — ou que votre prompt laisse des lacunes — il produira quand mĂŞme quelque chose de “crĂ©dible”. C’est le mode de dĂ©faillance principal que les chercheurs appellent hallucination.

Il y a quelques causes profondes que vous devriez comprendre.

1) L’objectif de l’entraĂ®nement ne rĂ©compense pas la vĂ©ritĂ©.
Les modèles de langage sont optimisĂ©s pour prĂ©dire le mot suivant, pas pour vĂ©rifier les faits. Sans lien intĂ©grĂ© Ă  une base de donnĂ©es ou Ă  des sources, ils peuvent gĂ©nĂ©rer des affirmations confiantes mais non Ă©tayĂ©es, surtout sur des sujets de niche ou d’actualitĂ©. Les Ă©tudes sur l’hallucination dans les NLG et les LLM le soulignent explicitement.

2) Connaissances manquantes ou obsolètes.
La mĂ©moire paramĂ©trique (ce que le modèle “se rappelle”) peut ĂŞtre erronĂ©e, incomplète ou dĂ©passĂ©e. Lorsque la rĂ©ponse ne se trouve pas dans cette mĂ©moire, le modèle devine. La gĂ©nĂ©ration augmentĂ©e par rĂ©cupĂ©ration (RAG) a Ă©tĂ© proposĂ©e pour corriger cela en extrayant des preuves de documents externes avant d’Ă©crire ; elle amĂ©liore constamment la factualitĂ© sur les tâches Ă  forte intensitĂ© de connaissances. Si vous n’ancrez pas le modèle, vous invitez Ă  l’invention.

3) La tâche le pousse en dehors de sa distribution.
Lorsque votre entrĂ©e est très diffĂ©rente de ce que le modèle a vu pendant son entraĂ®nement — jargon spĂ©cialisĂ©, donnĂ©es internes, entitĂ©s rares — le modèle extrapole. C’est lĂ  que les hallucinations “intrinsèques” (contredisant la source) et “extrinsèques” (ajoutant des informations invĂ©rifiables) apparaissent le plus souvent, une distinction documentĂ©e dans la recherche sur la synthèse de texte et maintenant largement utilisĂ©e.

4) Le contexte long est difficile à utiliser de manière fiable.
MĂŞme les modèles qui acceptent de longs prompts ont du mal Ă  extraire les bons faits du milieu d’une grande fenĂŞtre de contexte. L’effet “perdu au milieu” montre que la prĂ©cision diminue lorsque les preuves ne sont pas près des bords du prompt. Si le modèle ne peut pas rĂ©cupĂ©rer le dĂ©tail clĂ©, il peut combler le vide.

5) L’ajustement par retour humain peut biaiser vers la complaisance.
Le RLHF rend les assistants plus utiles et polis, mais il peut aussi enseigner la sycophanie : ĂŞtre d’accord avec votre croyance dĂ©clarĂ©e plutĂ´t que de donner une rĂ©ponse correcte. Des Ă©tudes montrent que les assistants de pointe prĂ©fèrent parfois une rĂ©ponse convaincante mais fausse si c’est ce que les humains ont approuvĂ©. En pratique, cela transforme des prompts vagues en absurditĂ©s confiantes.

6) Le décodage et la pression de répondre.
Les mĂ©thodes de gĂ©nĂ©ration (par ex., l’Ă©chantillonnage) favorisent la fluiditĂ©. Lorsque le modèle est incertain, il dit rarement “Je ne sais pas”, sauf si vous autorisez ce comportement. Des travaux classiques sur la synthèse abstractive ont Ă©galement montrĂ© que l’entraĂ®nement par vraisemblance et le dĂ©codage approximatif peuvent produire un contenu infidèle qui semble excellent mais n’est pas ancrĂ©.

7) L’imitation des faussetĂ©s humaines.
Les modèles apprennent Ă  partir de textes humains, qui incluent des mythes et des idĂ©es fausses. Sur le benchmark TruthfulQA, les modèles imitent souvent des rĂ©ponses fausses courantes, sauf s’ils sont explicitement guidĂ©s autrement. Si votre consigne fait appel Ă  des “connaissances gĂ©nĂ©rales”, attendez-vous Ă  ce mode de dĂ©faillance.

Les derniers modèles de ChatGPT hallucinent-ils encore ?

Réponse courte : oui. Les nouveaux modèles hallucinent moins dans de nombreux cas, mais encore quelques fois — et sur certains tests, encore plus. V

La fiche système d’OpenAI d’avril 2025 pour ses modèles de raisonnement est claire. Sur SimpleQA (questions factuelles), o3 a montrĂ© un taux d’hallucination de 0,51 et o4-mini de 0,79, contre 0,44 pour o1. Sur PersonQA (faits sur des personnes rĂ©elles), o3 a hallucinĂ© 33 % du temps et o4-mini 48 %, contre 16 % pour o1. OpenAI note que o3 “fait plus d’affirmations en gĂ©nĂ©ral”, ce qui entraĂ®ne Ă  la fois plus de dĂ©clarations correctes et incorrectes. La leçon Ă  retenir pour vous : plus rĂ©cent ≠ uniformĂ©ment plus sĂ»r ; le comportement dĂ©pend de la tâche et du modèle.

Qu’en est-il de GPT-5 ? Il est clairement meilleur en termes de factualitĂ©, surtout en mode “rĂ©flexion”, mais il n’est toujours pas parfait. OpenAI rapporte que, sur du trafic rĂ©el avec la recherche web activĂ©e, les rĂ©ponses de GPT-5 sont environ 45 % moins susceptibles de contenir une erreur factuelle que GPT-4o.

Avec la rĂ©flexion activĂ©e, GPT-5 est environ 80 % moins susceptible de contenir une erreur factuelle que o3, et “environ six fois” moins d’hallucinations sur des tests de factualitĂ© ouverts comme LongFact et FActScore. Bonne nouvelle, mais “moins susceptible” ne signifie pas “jamais”. Vous avez toujours besoin de vĂ©rifier les affirmations, les chiffres et les citations.

Des signaux indĂ©pendants et acadĂ©miques confirment cette prudence. TruthfulQA — un benchmark conçu pour dĂ©tecter les rĂ©ponses qui reprennent des idĂ©es fausses courantes — reste un dĂ©fi pour les modèles de pointe. Les scores s’amĂ©liorent d’une version Ă  l’autre, mais aucun modèle n’est immunisĂ© contre la production de rĂ©ponses confiantes et erronĂ©es lorsqu’un prompt fait appel Ă  des croyances populaires ou Ă  des faits ambigus.

Les textes longs sont encore plus dĂ©licats. Des Ă©tudes comme LongFact et FActScore montrent qu’Ă  mesure que les rĂ©sultats s’allongent, vous accumulez de nombreuses petites affirmations vĂ©rifiables ; quelques atomes non Ă©tayĂ©s peuvent compromettre l’ensemble. Ces articles formalisent ce que vous observez en production : un paragraphe qui sonne bien avec une statistique inventĂ©e, une citation mal attribuĂ©e et un lien mort. C’est toujours un problème d’hallucination, simplement diluĂ© sur plusieurs phrases.

Alors, comment devriez-vous définir les attentes avec votre équipe ?

  • Supposez un risque d’hallucination non nul sur chaque modèle et chaque version. Les mises Ă  jour aident, mais n’Ă©liminent pas le risque. Utilisez-les pour rĂ©duire le temps de rĂ©vision, pas pour sauter la relecture Ă©ditoriale. (Les rĂ©sultats d’o3/o4-mini sont une diapositive utile pour les parties prenantes qui pensent que “nouveau = rĂ©solu”.)
  • ConsidĂ©rez les amĂ©liorations comme celles de GPT-5 comme une opportunitĂ© de renforcer votre flux de travail, pas de le relâcher. Maintenez en place l’ancrage, la citation des sources et les chemins de refus ; vous passerez simplement moins de minutes Ă  corriger.
  • Adaptez le modèle Ă  la tâche. Si une tâche est centrĂ©e sur les personnes ou sensible pour la marque, choisissez le modèle et le flux de travail avec le profil d’hallucination observĂ© le plus bas pour cette tâche, et imposez des exigences de source.

Prompts pour prévenir les hallucinations de ChatGPT

Ci-dessous se trouvent des prompts prĂŞts Ă  l’emploi pour rĂ©duire la probabilitĂ© d’hallucinations de ChatGPT. Ce n’est pas infaillible, mais cela peut aider Ă  garder ChatGPT ancrĂ© dans la rĂ©alitĂ©.


Réponse ancrée (mini-RAG)
Vous forcez le modèle Ă  n’utiliser que les sources que vous fournissez.
Le prompt :

Utilise uniquement les sources ci-dessous pour rĂ©pondre. Cite des passages exacts et ajoute des citations en ligne comme (Doc A, lignes 12–18). Si les sources ne contiennent pas la rĂ©ponse, dis : “Je n’ai pas assez de preuves.”
Sources : [coller des extraits ou des liens]
Tâche : [votre question]


Passe de Chaîne de Vérification (CoVe)
Une auto-vérification des faits intégrée avant la version finale.
Le prompt :

Étape 1 — Rédige la réponse.
Étape 2 — Liste 3 à 5 questions de vérification qui prouveraient ou réfuteraient les affirmations clés.
Étape 3 — Réponds à ces questions en utilisant uniquement les sources fournies.
Étape 4 — Réécris la rĂ©ponse finale pour n’inclure que les affirmations soutenues par l’Étape 3. Marque tout ce qui n’est pas Ă©tayĂ© comme “incertain”.


Liste de contrĂ´le des faits atomiques
Décompose le brouillon en petites déclarations vérifiables.
Le prompt :

Liste chaque fait atomique de ta réponse sous forme de points. Après chacun, joins une citation de soutien + une référence des sources fournies, ou marque pas de support. Supprime ou révise tout fait qui manque de support.


Citation stricte et abstention
Une règle stricte : pas de source, pas de déclaration.
Le prompt :

Cite une source pour chaque statistique, citation ou entitĂ© nommĂ©e. Si une affirmation n’a pas de source, ne l’inclus pas. Si la confiance est <80% ou si les sources se contredisent, rĂ©ponds : “Je ne sais pas, j’ai besoin de preuves.”


Mise en page “preuves d’abord” (pour Ă©viter l’effet “perdu au milieu”)
Mettez les preuves clés en haut et orientez le modèle vers elles.
Le prompt :

Lis d’abord la section Preuves et n’utilise que ces passages. Cite les numĂ©ros de ligne. N’utilise pas d’informations au-delĂ  de ces preuves.
Preuves : [coller les 3 Ă  7 extraits les plus importants]


Auto-vérification post-génération
Forcez le modèle à évaluer le support de chaque phrase.
Le prompt :

Relis ta rĂ©ponse. Pour chaque phrase, Ă©value le support factuel comme Soutenu / Partiellement soutenu / Pas de support en utilisant uniquement les sources fournies. Produis un tableau et rĂ©vise tous les Ă©lĂ©ments “Pas de support”.

Jean-marc Buchert

Jean-marc Buchert

Jean-Marc Buchert est un expert confirmé dans les process de contenu IA. Grâce à ses méthodes, il a aidé ses clients à générer des contenus IA reflétant leurs attentes éditoriales et résonnant avec leur audience. Cliquez pour en savoir plus.

Visionnez sur le mĂŞme sujet

Explorez nos dernières vidéos sur notre chaîne YouTube dédiée à la rédaction IA.

Articles similaires

Explorez nos conseils & techniques de prompt pour des contenus IA de qualité