Pourquoi ce guide existe
L'IA générative a transformé la revue de littérature en quelques mois. La question n'est plus de savoir si vous allez l'utiliser pour scruter la documentation scientifique, mais comment vous allez le faire sans sacrifier la rigueur attendue d'un travail académique.
Trois pièges guettent celles et ceux qui s'y mettent sans cadre :
Les hallucinations
L'IA invente des références qui n'existent pas, ou attribue des conclusions à des auteurs qui ne les ont jamais formulées.
La paresse intellectuelle
On accepte la synthèse sans vérifier, on saute la lecture critique, et on se retrouve à citer des idées qu'on ne maîtrise pas.
L'effet bulle
L'IA produit ce qui est statistiquement attendu pour votre requête, et passe à côté des courants dissidents ou des travaux peu cités mais cruciaux.
Ce guide propose dix prompts pour éviter ces pièges. Chacun a été testé dans des projets de recherche réels, et accompagné d'une règle de vérification.
La philosophie : assistant critique, pas oracle
L'IA ne remplace pas la lecture. Elle remplace les tâches coûteuses qui empêchaient de bien lire : trier 200 abstracts, identifier les termes synonymes dans trois langues, comparer la structure de cinq articles. Quand l'IA fait bien ces tâches, vous reprenez du temps pour ce qui compte : la lecture profonde, la critique, la synthèse argumentative.
Trois règles d'or sous-tendent chacun des prompts qui suivent :
Si l'IA cite Smith (2019), vous lisez Smith (2019).
Prompts utilisés, version du modèle, date. Cette transparence vous protège devant un comité, un évaluateur ou un éditeur.
Si vous ne pouvez pas défendre une affirmation, elle ne devrait pas se retrouver dans votre revue.
Trois outils, trois forces
Les prompts de ce guide font référence à trois outils. Choisir le bon pour la bonne tâche, c'est déjà la moitié du travail.
Excellent pour reformuler, structurer, critiquer une argumentation. Sa fenêtre contextuelle longue permet de travailler sur des documents entiers.
À utiliser pour : cadrage, comparaison, rédaction, critique de votre propre texte.
Très bon pour interroger un corpus que vous déposez (PDF, articles). Chaque réponse cite la source dans votre corpus. Moins d'hallucinations.
À utiliser pour : extraction, comparaison structurée, recherche dans un corpus connu.
Spécialisé dans la recherche académique. Trouve des articles pertinents à partir d'une question, extrait automatiquement méthodologie, échantillon, résultats.
À utiliser pour : identifier des articles à lire, découvrir un champ inconnu.
Ce que dit la recherche
Les recommandations de ce guide ne reposent pas sur des intuitions. Entre 2023 et 2025, plusieurs dizaines d'études empiriques ont mesuré ce que l'IA fait bien (et moins bien) dans une revue de littérature. Voici les quatre conclusions les plus solides du champ.
L'hallucination de références est massive — et inégale
Chelli et collègues (JMIR, 2024) ont mesuré que ChatGPT et Bard fabriquent des références dans 28,6 % à 91,3 % des cas selon le modèle et la tâche. Une étude publiée dans AI & Society (2025) sur la santé mentale a trouvé que 56 % des citations générées par GPT-4o étaient fausses ou contenaient des erreurs, avec une variation forte selon le sous-domaine (94 % de citations réelles pour la dépression, mais ~30 % pour les troubles du comportement alimentaire).
Implication : vérifier chaque référence générée par une IA n'est pas une précaution excessive, c'est la condition de base d'un travail défendable. Plus votre champ est niché, plus le risque d'hallucination est élevé.
Le tri d'abstracts par IA performe bien — sous conditions
Pour le screening titre-résumé, les LLM atteignent des coefficients de Matthews (MCC) autour de 0,30 à 0,35 (Tran et al., Cambridge Research Synthesis Methods, 2025). Issaiy et collègues (PNAS, 2025) montrent que des ensembles de LLM rivalisent avec les humains en sensibilité, mais perdent en spécificité.
Implication : l'IA peut accélérer le tri, mais elle inclut plus de faux positifs que de faux négatifs. Le contrôle qualité humain — au minimum 10 % des décisions, idéalement en double codage — reste essentiel.
Performance variable selon la phase de la revue
Une revue de portée publiée dans JAMIA (Bolanos et al., 2025) a analysé 37 études qui ont utilisé des LLM dans des revues. L'IA est utilisée surtout pour la recherche documentaire (41 %), la sélection d'études (38 %) et l'extraction de données (30 %). Mais une revue de portée parallèle dans le Journal of Clinical Epidemiology (de la Torre-López et al., 2025) conclut que les LLM sont « on the rise, but not yet ready for use » comme outils autonomes.
Implication : l'IA est mature pour le travail mécanique (tri, extraction structurée). Elle est immature pour le travail interprétatif (synthèse argumentative, critique théorique). C'est exactement la frontière que ce guide vous aide à respecter.
Une norme de transparence émerge : PRISMA-trAIce
En 2025, une équipe internationale a proposé PRISMA-trAIce (JMIR AI, 2025), une extension de PRISMA 2020 qui demande aux auteurs de documenter explicitement l'usage de l'IA dans leur revue : modèle utilisé, version, prompts, nombre d'enregistrements screenés par IA versus par humain. La consultation publique est en cours, mais l'orientation est claire : la transparence sur l'usage de l'IA deviendra exigée dans les revues sérieuses.
Implication : tenir un journal des usages (date, modèle, prompt complet, décision prise) n'est plus un luxe méthodologique. C'est le standard qui se dessine pour les publications scientifiques.
L'IA accélère ce qui était fastidieux. Elle n'évacue pas la lecture critique. La rigueur méthodologique demeure le travail du chercheur — l'IA n'en est que l'outil. Voir la bibliographie complète →
Les 10 prompts, en 5 phases
Chaque prompt est conçu pour un moment précis du processus. Les variables à personnaliser sont signalées entre [CROCHETS]. Conservez la structure du prompt, c'est sa formulation précise qui produit la rigueur de la réponse.
Cadrer le terrain
Préciser et opérationnaliser ma question de recherche
Tu es un assistant en méthodologie de recherche en sciences sociales. Je travaille sur le projet suivant : [DÉCRIS EN 3 À 5 PHRASES TON PROJET, TON INTÉRÊT, TON CONTEXTE] Ma question de recherche provisoire est : [VOTRE QUESTION ACTUELLE — MÊME SI ELLE EST FLOUE] Aide-moi à la préciser. Pour cela : 1. Identifie les concepts clés, ambigus ou sous-spécifiés dans ma question. 2. Propose 3 versions plus opérationnelles de la question, chacune avec un angle différent (descriptif, comparatif, explicatif). 3. Pour chacune des 3 versions, propose un cadre adapté (PICO, SPIDER, ou CIMO selon la nature de la question), avec les composantes complétées. 4. Termine par 3 questions que tu me poserais avant de choisir l'une des trois versions. Ne propose pas de littérature, ne cite pas d'auteurs. Concentre-toi uniquement sur la formulation et l'opérationnalisation.
- En méthodologie qualitative, demandez le cadre SPIDER plutôt que PICO.
- Pour un projet partenarial, ajoutez une phrase décrivant le partenaire.
- Conservez les 3 versions dans votre journal : elles serviront à la justification méthodologique.
Demander à l'IA de citer la littérature dès cette étape : elle inventera des références. On cadre d'abord, on cherche ensuite.
Cartographier le champ conceptuel
Tu es un assistant pour la préparation d'une revue de littérature en [VOTRE DISCIPLINE — p. ex. psychologie de l'éducation]. Ma question de recherche est : [VOTRE QUESTION DE RECHERCHE PRÉCISÉE] Aide-moi à cartographier le champ conceptuel. Produis : 1. CONCEPTS CENTRAUX (3 à 5) : pour chacun, définition opérationnelle en une phrase, et 2 à 3 synonymes ou variantes utilisés dans la littérature francophone et anglophone. 2. CONCEPTS PÉRIPHÉRIQUES (5 à 8) : concepts adjacents ou imbriqués. Indique pour chacun s'il faut l'inclure ou l'exclure de la revue, avec une justification d'une ligne. 3. COURANTS THÉORIQUES MAJEURS (2 à 4) : grandes écoles de pensée. Pour chacun, hypothèse centrale et auteurs fréquemment associés (signale si tu n'es pas certain — ne pas inventer). 4. TENSIONS ATTENDUES : 2 à 3 débats que je vais probablement rencontrer. Format : tableau pour 1 et 2, liste structurée pour 3 et 4.
- Pour la francophonie, précisez-le : les LLM sont biaisés vers la littérature anglo-saxonne.
- Vérifiez chaque auteur proposé dans Google Scholar avant inclusion.
- Cette cartographie deviendra le squelette de votre section conceptuelle.
Prendre la liste d'auteurs comme point de départ bibliographique fiable. C'est une boussole, jamais une source.
Construire une stratégie de mots-clés multilingue
Tu es un assistant en recherche documentaire pour les sciences sociales. Aide-moi à construire une stratégie de recherche pour : [PsycINFO, ERIC, Scopus, autres]. Ma question : [VOTRE QUESTION] Mes concepts : [LISTE DES 3 À 5 CONCEPTS] Pour chaque concept, produis : 1. MOTS-CLÉS FRANÇAIS : 4 à 6 termes, variantes incluses. 2. MOTS-CLÉS ANGLAIS : 4 à 6 termes équivalents. 3. TERMES DE THESAURUS : si tu connais les descripteurs PsycINFO ou ERIC, indique-les (sinon, dis-le). Puis assemble une requête booléenne pour chaque base, en respectant la syntaxe (ET/OU, troncatures, guillemets, parenthèses). Termine par 3 STRATÉGIES DE RAFFINEMENT : trop de résultats ? Pas assez ? Hors sujet ?
- Vérifiez les descripteurs dans le thesaurus officiel — l'IA peut en inventer.
- Faites valider par votre bibliothécaire de discipline.
- Conservez chaque requête avec sa date, sa base et son nombre de résultats.
Accepter la requête sans la tester. Lancez-la dans la base : si moins de 50 % des 20 premiers résultats sont pertinents, recalibrez.
Trier et évaluer
Trier rapidement une liste d'abstracts
Tu es un assistant pour le tri d'abstracts dans une revue de littérature. Ma question : [VOTRE QUESTION] Critères d'inclusion : - [CRITÈRE 1 — p. ex. : publié entre 2015 et 2026] - [CRITÈRE 2 — p. ex. : porte sur des adolescents] - [CRITÈRE 3 — p. ex. : devis empirique] Critères d'exclusion : - [CRITÈRE 1 — p. ex. : revues narratives sans méthodologie explicite] - [CRITÈRE 2 — p. ex. : littérature grise non révisée par les pairs] Abstracts à trier (1 par ligne) : 1. [ABSTRACT 1] 2. [ABSTRACT 2] ... Pour chaque abstract, produis une ligne : Numéro — DÉCISION (INCLURE / EXCLURE / À VÉRIFIER) — JUSTIFICATION (1 phrase) — CRITÈRE LIÉ Termine par un tableau résumé : nombre inclus / exclus / à vérifier.
- Limitez-vous à 20 abstracts par requête pour préserver la qualité.
- Toutes les décisions « À VÉRIFIER » sont relues par vous.
- En duo : faites trier le même lot par deux IA différentes et comparez.
Accepter les exclusions sans relecture. Auditez 10 % des décisions au hasard. Désaccord > 15 % ? Recalibrez vos critères.
Évaluer la qualité méthodologique d'un article
Tu es un évaluateur méthodologique pour une revue de littérature en [DISCIPLINE]. L'article déposé dans cette source est l'objet de ton évaluation. Applique la grille suivante. Pour chaque élément, donne une cote (SOLIDE / ACCEPTABLE / FAIBLE / NON APPLICABLE) et une justification courte AVEC CITATION DU PASSAGE PERTINENT. 1. QUESTION DE RECHERCHE : claire ? Concepts définis ? 2. CADRE THÉORIQUE : explicite ? Mobilisé pour l'interprétation ? 3. DEVIS : adéquat ? Justifié ? 4. ÉCHANTILLON : stratégie décrite ? Taille justifiée ? Critères ? 5. COLLECTE : instruments décrits ? Qualité des données discutée ? 6. ANALYSE : méthode nommée ? Étapes explicites ? Réflexivité (qualitatif) ? 7. RÉSULTATS : reliés aux questions ? Visualisation appropriée ? 8. ÉTHIQUE : approbation ? Consentement ? Conflits d'intérêts ? 9. LIMITES : reconnues ? Honnêteté face aux failles ? 10. TRANSFÉRABILITÉ : conclusions proportionnées aux données ? Termine par une SYNTHÈSE EN 5 LIGNES : peut-on s'appuyer sur cet article ? Pour quoi exactement ? Avec quelles réserves ?
- Ce prompt brille dans NotebookLM : chaque cote est reliée à un extrait précis.
- Exportez plusieurs évaluations dans un Excel pour les comparer.
- Adaptez la grille : puissance statistique pour quantitatif, saturation pour qualitatif.
Prendre l'évaluation comme un verdict. L'IA peut manquer des subtilités contextuelles. Première passe, pas jugement final.
Extraire et organiser
Extraire une matrice de données à partir d'un article
Tu es un assistant pour l'extraction de données dans une revue systématique. L'article déposé dans cette source est l'objet de l'extraction. Remplis la matrice suivante. Pour chaque cellule, donne : - la réponse extraite (pas de paraphrase libre) - la citation textuelle de l'extrait source (entre guillemets) - la page (si visible) Si une information n'est pas disponible, écris NON RAPPORTÉ. CHAMP 1 — Référence complète (APA 7e) CHAMP 2 — Question / objectif de recherche CHAMP 3 — Cadre théorique principal CHAMP 4 — Devis (qualitatif / quantitatif / mixte) — sous-type CHAMP 5 — Échantillon (taille, caractéristiques, recrutement) CHAMP 6 — Contexte (lieu, période, secteur) CHAMP 7 — Instruments / méthodes de collecte CHAMP 8 — Méthode d'analyse CHAMP 9 — Résultats principaux (3 à 5 points) CHAMP 10 — Conclusion des auteurs CHAMP 11 — Limites déclarées CHAMP 12 — Concepts/thèmes qui éclairent MA question : [VOTRE QUESTION] Format final : tableau structuré, 3 colonnes (Réponse / Citation / Page).
- Une extraction par fichier, nommé selon l'article. Vous aurez un dossier prêt pour la synthèse.
- Gardez le MÊME prompt pour tous les articles — la cohérence d'extraction est essentielle.
- Le champ 12 transforme une extraction générique en extraction orientée revue.
Accepter une extraction sans citation textuelle. La citation est votre filet contre l'hallucination.
Comparer plusieurs études sur un même sujet
Tu es un assistant pour la synthèse comparative d'une revue de littérature. Les sources déposées sont les articles à comparer. Ma question de revue : [VOTRE QUESTION] Produis une SYNTHÈSE COMPARATIVE structurée comme suit : A. CONVERGENCES MÉTHODOLOGIQUES : sur quoi les études s'accordent ? B. DIVERGENCES MÉTHODOLOGIQUES : sur quoi diffèrent-elles ? C. CONVERGENCES DE RÉSULTATS : quels constats reviennent ? Cite chaque étude (auteur, année). D. DIVERGENCES DE RÉSULTATS : où les études se contredisent-elles ? Hypothèses explicatives (population, mesure, contexte). E. ANGLES MORTS : quels aspects de ma question ne sont abordés par aucune des études du corpus ? F. TABLEAU DE SYNTHÈSE : matrice études × dimensions (devis, population, résultats, limites). Pour chaque affirmation, cite la source dans le corpus (auteur, année, page idéalement).
- Maximum 20 articles dans le corpus : au-delà, NotebookLM perd en précision.
- Signalez les articles fondamentaux par leur nom — NotebookLM y accordera plus de poids.
- Exportez en Markdown pour réorganiser sans tout copier-coller.
Généraliser à partir de 3-4 études seulement. La comparaison gagne en intérêt à partir de 8-10.
Synthétiser et critiquer
Identifier les angles morts et les lacunes
Tu es un assistant pour la phase de synthèse critique d'une revue. Les sources représentent l'état des connaissances sur [VOTRE SUJET]. Ma question : [VOTRE QUESTION] Identifie les ANGLES MORTS, organisés en 5 catégories : 1. POPULATIONNELS : quelles populations sont sous-étudiées ? 2. MÉTHODOLOGIQUES : quelles approches manquent (qualitatif, longitudinal, participatif) ? 3. CONCEPTUELS : quels concepts adjacents ne sont pas articulés à mon sujet ? 4. TEMPORELS / CONTEXTUELS : la littérature est-elle datée ? 5. APPLICATIFS : connaissances actionnables pour pratique et politiques ? Pour chaque angle, cite les indices dans le corpus qui te font conclure à une lacune (absence, signalements d'auteurs, appels à recherche). Termine par 3 PROPOSITIONS DE CONTRIBUTION ORIGINALE pour mon projet.
- Les phrases « future research should... » dans les conclusions sont vos meilleures sources, demandez-les explicitement.
- Vérifiez les lacunes identifiées par une recherche Google Scholar ciblée : peut-être que des études existent ailleurs.
- Ce prompt nourrit vos arguments de justification scientifique en introduction.
Prendre une lacune apparente pour une lacune réelle. Validez par recherche ciblée avant d'en faire un argument central.
Construire une matrice de synthèse argumentative
Tu es un assistant pour la rédaction d'une revue argumentative. Ma question : [VOTRE QUESTION] Extractions de [N] articles clés (formatées au prompt 6) : [COLLEZ VOS EXTRACTIONS — 5 À 12 ARTICLES] Construis une MATRICE ARGUMENTATIVE qui dépasse le format catalogue. Propose 3 ANGLES STRUCTURANTS : A. NARRATION CHRONOLOGIQUE : évolution dans le temps, ruptures, continuités. B. NARRATION THÉMATIQUE : grands axes, articles regroupés par axe, apport collectif. C. NARRATION CONTROVERSE / DÉBAT : où la littérature se divise-t-elle ? Positions, auteurs, données. Pour chaque narration, propose : - une phrase-thèse qui structurerait la section - 4 à 6 sous-sections (titre + phrase-résumé) - les articles à citer dans chaque sous-section Termine par une recommandation : quelle narration sert le mieux ma question, et pourquoi.
- La narration controverse est puissante pour une thèse de doctorat ou un article scientifique.
- La narration thématique est plus accessible pour un public appliqué.
- La matrice devient votre squelette de rédaction.
Choisir la narration qui ressemble à ce que vous vouliez écrire. Si les trois vous semblent équivalentes, votre question n'est pas assez précise.
Rédiger et critiquer
Faire critiquer mon propre paragraphe de revue
Tu es un évaluateur exigeant pour une revue de littérature en [DISCIPLINE]. Voici un paragraphe que j'ai rédigé : [VOTRE PARAGRAPHE — 150 À 400 MOTS] Critique-le selon 7 critères. Pour chacun, une cote (FORT / ACCEPTABLE / FAIBLE) et une justification précise avec extrait du texte. 1. CLARTÉ DE LA THÈSE : argument central explicite dès la première phrase ? 2. INTÉGRATION DES SOURCES : citations articulées à un raisonnement, ou juxtaposées ? 3. PRÉCISION DES CITATIONS : références soutiennent-elles bien ce qui est affirmé ? Affirmations sans citation ? 4. ÉQUILIBRE : position nuancée ? Contradictions reconnues ? 5. STYLE ACADÉMIQUE : hedges excessifs ? Généralisations abusives ? Affirmations non sourcées ? 6. TRANSITIONS : intégration logique avec ce qui précède / suit ? 7. CONTRIBUTION AU RAISONNEMENT GLOBAL : fait-il avancer la revue ? Termine par 3 RÉVISIONS CONCRÈTES (citations à remplacer, phrases à reformuler, ajouts à faire). Ne réécris pas le paragraphe. Critique-le.
- « Ne réécris pas » est important : sinon l'IA reformule et vous perdez votre voix.
- Utilisez ce prompt sur vos paragraphes-clés : intro, argument central, conclusion.
- Variante : « Ce paragraphe défendrait-il une thèse contraire ? Si oui, où est la faille ? »
Accepter les révisions sans esprit critique. L'IA peut suggérer une citation qu'elle inventera. Vérifiez chaque source.
5 anti-patrons à éviter
Les erreurs les plus fréquentes observées chez les personnes qui intègrent l'IA dans leur travail de revue.
1. La citation fantôme
L'IA produit une référence qui n'existe pas. Auteur plausible, année crédible, revue connue, mais l'article n'existe pas, ou est attribué à un autre auteur.
Remède : vérifier chaque référence. Google Scholar, DOI.org, Crossref. Si vous ne pouvez pas la trouver, ne la citez pas.
2. La paraphrase erronée
L'IA résume un article en attribuant aux auteurs une conclusion qu'ils n'ont pas tirée, ou en gommant leurs nuances.
Remède : pour chaque résumé qui sert votre argumentation, relire le passage source. La perte de temps est moindre que la perte de crédibilité.
3. Le biais de confirmation augmenté
Vous demandez à l'IA des arguments pour une thèse que vous avez déjà en tête. Elle s'exécute, sans aller chercher les contre-arguments.
Remède : demandez systématiquement « quels sont les contre-arguments dans la littérature, et quels auteurs les portent ? ». Si l'IA n'en trouve pas, votre revue n'est pas finie.
4. La synthèse sans corpus
Vous demandez à Claude (non à NotebookLM) une synthèse sur un sujet. L'IA puise dans ses données d'entraînement, sans citer, sans vérifier, biaisée vers la littérature anglo-saxonne.
Remède : pour toute synthèse sourcée, déposez votre corpus dans NotebookLM ou Elicit. La synthèse sans corpus sert au cadrage, pas à la conclusion.
5. La trace effacée
Vous utilisez l'IA pour produire un paragraphe, vous le retravaillez, vous oubliez de le noter. Votre comité ou votre revue scientifique vous le reprochera.
Remède : tenez un journal des usages (date, modèle, prompt, décision). Documentez dans votre méthodologie. La transparence est la meilleure protection.
Bibliographie scientifique
Sur les hallucinations et la fiabilité
- Chelli, M., Descamps, J., Lavoué, V., Trojani, C., Azar, M., Deckert, M., Raynier, J.-L., Clowez, G., Boileau, P., & Ruetsch-Chelli, C. (2024). Hallucination rates and reference accuracy of ChatGPT and Bard for systematic reviews: Comparative analysis. Journal of Medical Internet Research, 26, e53164. jmir.org ↗
- Walters, W. H., & Wilder, E. I. (2025). Can generative AI reliably synthesise literature? Exploring hallucination issues in ChatGPT. AI & Society. springer.com ↗