Bibliothèque · Recherche à l'ère de l'IA

10 prompts pour une revue de littérature assistée par IA

Un guide pratique pour utiliser NotebookLM, Elicit et Claude comme assistants critiques de revue de littérature. Sans hallucinations. Sans paresse intellectuelle.

Par Benoit Plante · Édition 2026 · Lecture : ~25 minutes

Pourquoi ce guide existe

L'IA générative a transformé la revue de littérature en quelques mois. La question n'est plus de savoir si vous allez l'utiliser pour scruter la documentation scientifique, mais comment vous allez le faire sans sacrifier la rigueur attendue d'un travail académique.

Trois pièges guettent celles et ceux qui s'y mettent sans cadre :

01

Les hallucinations

L'IA invente des références qui n'existent pas, ou attribue des conclusions à des auteurs qui ne les ont jamais formulées.

02

La paresse intellectuelle

On accepte la synthèse sans vérifier, on saute la lecture critique, et on se retrouve à citer des idées qu'on ne maîtrise pas.

03

L'effet bulle

L'IA produit ce qui est statistiquement attendu pour votre requête, et passe à côté des courants dissidents ou des travaux peu cités mais cruciaux.

Ce guide propose dix prompts pour éviter ces pièges. Chacun a été testé dans des projets de recherche réels, et accompagné d'une règle de vérification.

La philosophie : assistant critique, pas oracle

L'IA ne remplace pas la lecture. Elle remplace les tâches coûteuses qui empêchaient de bien lire : trier 200 abstracts, identifier les termes synonymes dans trois langues, comparer la structure de cinq articles. Quand l'IA fait bien ces tâches, vous reprenez du temps pour ce qui compte : la lecture profonde, la critique, la synthèse argumentative.

Trois règles d'or sous-tendent chacun des prompts qui suivent :

1
Toute référence doit être vérifiée à la source.

Si l'IA cite Smith (2019), vous lisez Smith (2019).

2
Toute trace de l'usage de l'IA est conservée.

Prompts utilisés, version du modèle, date. Cette transparence vous protège devant un comité, un évaluateur ou un éditeur.

3
L'IA propose, vous décidez.

Si vous ne pouvez pas défendre une affirmation, elle ne devrait pas se retrouver dans votre revue.

Trois outils, trois forces

Les prompts de ce guide font référence à trois outils. Choisir le bon pour la bonne tâche, c'est déjà la moitié du travail.

Claude
Anthropic · Raisonnement

Excellent pour reformuler, structurer, critiquer une argumentation. Sa fenêtre contextuelle longue permet de travailler sur des documents entiers.

À utiliser pour : cadrage, comparaison, rédaction, critique de votre propre texte.

NotebookLM
Google · Corpus fermé et sourcé

Très bon pour interroger un corpus que vous déposez (PDF, articles). Chaque réponse cite la source dans votre corpus. Moins d'hallucinations.

À utiliser pour : extraction, comparaison structurée, recherche dans un corpus connu.

Elicit
Elicit · Recherche structurée

Spécialisé dans la recherche académique. Trouve des articles pertinents à partir d'une question, extrait automatiquement méthodologie, échantillon, résultats.

À utiliser pour : identifier des articles à lire, découvrir un champ inconnu.

Ce que dit la recherche

Les recommandations de ce guide ne reposent pas sur des intuitions. Entre 2023 et 2025, plusieurs dizaines d'études empiriques ont mesuré ce que l'IA fait bien (et moins bien) dans une revue de littérature. Voici les quatre conclusions les plus solides du champ.

01

L'hallucination de références est massive — et inégale

Chelli et collègues (JMIR, 2024) ont mesuré que ChatGPT et Bard fabriquent des références dans 28,6 % à 91,3 % des cas selon le modèle et la tâche. Une étude publiée dans AI & Society (2025) sur la santé mentale a trouvé que 56 % des citations générées par GPT-4o étaient fausses ou contenaient des erreurs, avec une variation forte selon le sous-domaine (94 % de citations réelles pour la dépression, mais ~30 % pour les troubles du comportement alimentaire).

Implication : vérifier chaque référence générée par une IA n'est pas une précaution excessive, c'est la condition de base d'un travail défendable. Plus votre champ est niché, plus le risque d'hallucination est élevé.

02

Le tri d'abstracts par IA performe bien — sous conditions

Pour le screening titre-résumé, les LLM atteignent des coefficients de Matthews (MCC) autour de 0,30 à 0,35 (Tran et al., Cambridge Research Synthesis Methods, 2025). Issaiy et collègues (PNAS, 2025) montrent que des ensembles de LLM rivalisent avec les humains en sensibilité, mais perdent en spécificité.

Implication : l'IA peut accélérer le tri, mais elle inclut plus de faux positifs que de faux négatifs. Le contrôle qualité humain — au minimum 10 % des décisions, idéalement en double codage — reste essentiel.

03

Performance variable selon la phase de la revue

Une revue de portée publiée dans JAMIA (Bolanos et al., 2025) a analysé 37 études qui ont utilisé des LLM dans des revues. L'IA est utilisée surtout pour la recherche documentaire (41 %), la sélection d'études (38 %) et l'extraction de données (30 %). Mais une revue de portée parallèle dans le Journal of Clinical Epidemiology (de la Torre-López et al., 2025) conclut que les LLM sont « on the rise, but not yet ready for use » comme outils autonomes.

Implication : l'IA est mature pour le travail mécanique (tri, extraction structurée). Elle est immature pour le travail interprétatif (synthèse argumentative, critique théorique). C'est exactement la frontière que ce guide vous aide à respecter.

04

Une norme de transparence émerge : PRISMA-trAIce

En 2025, une équipe internationale a proposé PRISMA-trAIce (JMIR AI, 2025), une extension de PRISMA 2020 qui demande aux auteurs de documenter explicitement l'usage de l'IA dans leur revue : modèle utilisé, version, prompts, nombre d'enregistrements screenés par IA versus par humain. La consultation publique est en cours, mais l'orientation est claire : la transparence sur l'usage de l'IA deviendra exigée dans les revues sérieuses.

Implication : tenir un journal des usages (date, modèle, prompt complet, décision prise) n'est plus un luxe méthodologique. C'est le standard qui se dessine pour les publications scientifiques.

L'IA accélère ce qui était fastidieux. Elle n'évacue pas la lecture critique. La rigueur méthodologique demeure le travail du chercheur — l'IA n'en est que l'outil. Voir la bibliographie complète →

Les 10 prompts, en 5 phases

Chaque prompt est conçu pour un moment précis du processus. Les variables à personnaliser sont signalées entre [CROCHETS]. Conservez la structure du prompt, c'est sa formulation précise qui produit la rigueur de la réponse.

Phase 1

Cadrer le terrain

01

Préciser et opérationnaliser ma question de recherche

Claude Au tout début, quand la question est floue.
Tu es un assistant en méthodologie de recherche en sciences sociales.
Je travaille sur le projet suivant :

[DÉCRIS EN 3 À 5 PHRASES TON PROJET, TON INTÉRÊT, TON CONTEXTE]

Ma question de recherche provisoire est :

[VOTRE QUESTION ACTUELLE — MÊME SI ELLE EST FLOUE]

Aide-moi à la préciser. Pour cela :
1. Identifie les concepts clés, ambigus ou sous-spécifiés dans ma question.
2. Propose 3 versions plus opérationnelles de la question, chacune avec
   un angle différent (descriptif, comparatif, explicatif).
3. Pour chacune des 3 versions, propose un cadre adapté (PICO, SPIDER,
   ou CIMO selon la nature de la question), avec les composantes
   complétées.
4. Termine par 3 questions que tu me poserais avant de choisir l'une
   des trois versions.

Ne propose pas de littérature, ne cite pas d'auteurs. Concentre-toi
uniquement sur la formulation et l'opérationnalisation.
Conseils
  • En méthodologie qualitative, demandez le cadre SPIDER plutôt que PICO.
  • Pour un projet partenarial, ajoutez une phrase décrivant le partenaire.
  • Conservez les 3 versions dans votre journal : elles serviront à la justification méthodologique.
Piège à éviter

Demander à l'IA de citer la littérature dès cette étape : elle inventera des références. On cadre d'abord, on cherche ensuite.

02

Cartographier le champ conceptuel

Claude Une fois la question précisée, pour repérer concepts voisins et débats.
Tu es un assistant pour la préparation d'une revue de littérature en
[VOTRE DISCIPLINE — p. ex. psychologie de l'éducation].

Ma question de recherche est :
[VOTRE QUESTION DE RECHERCHE PRÉCISÉE]

Aide-moi à cartographier le champ conceptuel. Produis :

1. CONCEPTS CENTRAUX (3 à 5) : pour chacun, définition opérationnelle en
   une phrase, et 2 à 3 synonymes ou variantes utilisés dans la
   littérature francophone et anglophone.

2. CONCEPTS PÉRIPHÉRIQUES (5 à 8) : concepts adjacents ou imbriqués.
   Indique pour chacun s'il faut l'inclure ou l'exclure de la revue,
   avec une justification d'une ligne.

3. COURANTS THÉORIQUES MAJEURS (2 à 4) : grandes écoles de pensée. Pour
   chacun, hypothèse centrale et auteurs fréquemment associés
   (signale si tu n'es pas certain — ne pas inventer).

4. TENSIONS ATTENDUES : 2 à 3 débats que je vais probablement
   rencontrer.

Format : tableau pour 1 et 2, liste structurée pour 3 et 4.
Conseils
  • Pour la francophonie, précisez-le : les LLM sont biaisés vers la littérature anglo-saxonne.
  • Vérifiez chaque auteur proposé dans Google Scholar avant inclusion.
  • Cette cartographie deviendra le squelette de votre section conceptuelle.
Piège à éviter

Prendre la liste d'auteurs comme point de départ bibliographique fiable. C'est une boussole, jamais une source.

03

Construire une stratégie de mots-clés multilingue

Claude + bases de données Avant la première requête dans PsycINFO, ERIC, Scopus.
Tu es un assistant en recherche documentaire pour les sciences sociales.
Aide-moi à construire une stratégie de recherche pour : [PsycINFO, ERIC,
Scopus, autres].

Ma question : [VOTRE QUESTION]
Mes concepts : [LISTE DES 3 À 5 CONCEPTS]

Pour chaque concept, produis :
1. MOTS-CLÉS FRANÇAIS : 4 à 6 termes, variantes incluses.
2. MOTS-CLÉS ANGLAIS : 4 à 6 termes équivalents.
3. TERMES DE THESAURUS : si tu connais les descripteurs PsycINFO ou ERIC,
   indique-les (sinon, dis-le).

Puis assemble une requête booléenne pour chaque base, en respectant la
syntaxe (ET/OU, troncatures, guillemets, parenthèses).

Termine par 3 STRATÉGIES DE RAFFINEMENT : trop de résultats ? Pas assez ?
Hors sujet ?
Conseils
  • Vérifiez les descripteurs dans le thesaurus officiel — l'IA peut en inventer.
  • Faites valider par votre bibliothécaire de discipline.
  • Conservez chaque requête avec sa date, sa base et son nombre de résultats.
Piège à éviter

Accepter la requête sans la tester. Lancez-la dans la base : si moins de 50 % des 20 premiers résultats sont pertinents, recalibrez.

Phase 2

Trier et évaluer

04

Trier rapidement une liste d'abstracts

Claude / Elicit Après une recherche qui retourne 50, 100 ou 200 références.
Tu es un assistant pour le tri d'abstracts dans une revue de
littérature.

Ma question : [VOTRE QUESTION]

Critères d'inclusion :
- [CRITÈRE 1 — p. ex. : publié entre 2015 et 2026]
- [CRITÈRE 2 — p. ex. : porte sur des adolescents]
- [CRITÈRE 3 — p. ex. : devis empirique]

Critères d'exclusion :
- [CRITÈRE 1 — p. ex. : revues narratives sans méthodologie explicite]
- [CRITÈRE 2 — p. ex. : littérature grise non révisée par les pairs]

Abstracts à trier (1 par ligne) :
1. [ABSTRACT 1]
2. [ABSTRACT 2]
...

Pour chaque abstract, produis une ligne :
Numéro — DÉCISION (INCLURE / EXCLURE / À VÉRIFIER) — JUSTIFICATION
(1 phrase) — CRITÈRE LIÉ

Termine par un tableau résumé : nombre inclus / exclus / à vérifier.
Conseils
  • Limitez-vous à 20 abstracts par requête pour préserver la qualité.
  • Toutes les décisions « À VÉRIFIER » sont relues par vous.
  • En duo : faites trier le même lot par deux IA différentes et comparez.
Piège à éviter

Accepter les exclusions sans relecture. Auditez 10 % des décisions au hasard. Désaccord > 15 % ? Recalibrez vos critères.

05

Évaluer la qualité méthodologique d'un article

NotebookLM Après sélection, pour évaluer la rigueur avant d'utiliser comme appui empirique.
Tu es un évaluateur méthodologique pour une revue de littérature en
[DISCIPLINE]. L'article déposé dans cette source est l'objet de ton
évaluation.

Applique la grille suivante. Pour chaque élément, donne une cote
(SOLIDE / ACCEPTABLE / FAIBLE / NON APPLICABLE) et une justification
courte AVEC CITATION DU PASSAGE PERTINENT.

1. QUESTION DE RECHERCHE : claire ? Concepts définis ?
2. CADRE THÉORIQUE : explicite ? Mobilisé pour l'interprétation ?
3. DEVIS : adéquat ? Justifié ?
4. ÉCHANTILLON : stratégie décrite ? Taille justifiée ? Critères ?
5. COLLECTE : instruments décrits ? Qualité des données discutée ?
6. ANALYSE : méthode nommée ? Étapes explicites ? Réflexivité (qualitatif) ?
7. RÉSULTATS : reliés aux questions ? Visualisation appropriée ?
8. ÉTHIQUE : approbation ? Consentement ? Conflits d'intérêts ?
9. LIMITES : reconnues ? Honnêteté face aux failles ?
10. TRANSFÉRABILITÉ : conclusions proportionnées aux données ?

Termine par une SYNTHÈSE EN 5 LIGNES : peut-on s'appuyer sur cet
article ? Pour quoi exactement ? Avec quelles réserves ?
Conseils
  • Ce prompt brille dans NotebookLM : chaque cote est reliée à un extrait précis.
  • Exportez plusieurs évaluations dans un Excel pour les comparer.
  • Adaptez la grille : puissance statistique pour quantitatif, saturation pour qualitatif.
Piège à éviter

Prendre l'évaluation comme un verdict. L'IA peut manquer des subtilités contextuelles. Première passe, pas jugement final.

Phase 3

Extraire et organiser

06

Extraire une matrice de données à partir d'un article

NotebookLM / Elicit Pour chaque article inclus, uniformiser l'extraction.
Tu es un assistant pour l'extraction de données dans une revue
systématique. L'article déposé dans cette source est l'objet de
l'extraction.

Remplis la matrice suivante. Pour chaque cellule, donne :
- la réponse extraite (pas de paraphrase libre)
- la citation textuelle de l'extrait source (entre guillemets)
- la page (si visible)

Si une information n'est pas disponible, écris NON RAPPORTÉ.

CHAMP 1  — Référence complète (APA 7e)
CHAMP 2  — Question / objectif de recherche
CHAMP 3  — Cadre théorique principal
CHAMP 4  — Devis (qualitatif / quantitatif / mixte) — sous-type
CHAMP 5  — Échantillon (taille, caractéristiques, recrutement)
CHAMP 6  — Contexte (lieu, période, secteur)
CHAMP 7  — Instruments / méthodes de collecte
CHAMP 8  — Méthode d'analyse
CHAMP 9  — Résultats principaux (3 à 5 points)
CHAMP 10 — Conclusion des auteurs
CHAMP 11 — Limites déclarées
CHAMP 12 — Concepts/thèmes qui éclairent MA question : [VOTRE QUESTION]

Format final : tableau structuré, 3 colonnes (Réponse / Citation / Page).
Conseils
  • Une extraction par fichier, nommé selon l'article. Vous aurez un dossier prêt pour la synthèse.
  • Gardez le MÊME prompt pour tous les articles — la cohérence d'extraction est essentielle.
  • Le champ 12 transforme une extraction générique en extraction orientée revue.
Piège à éviter

Accepter une extraction sans citation textuelle. La citation est votre filet contre l'hallucination.

07

Comparer plusieurs études sur un même sujet

NotebookLM Une fois 5 à 20 articles extraits — pour repérer convergences et tensions.
Tu es un assistant pour la synthèse comparative d'une revue de
littérature. Les sources déposées sont les articles à comparer.

Ma question de revue : [VOTRE QUESTION]

Produis une SYNTHÈSE COMPARATIVE structurée comme suit :

A. CONVERGENCES MÉTHODOLOGIQUES : sur quoi les études s'accordent ?
B. DIVERGENCES MÉTHODOLOGIQUES : sur quoi diffèrent-elles ?
C. CONVERGENCES DE RÉSULTATS : quels constats reviennent ? Cite chaque
   étude (auteur, année).
D. DIVERGENCES DE RÉSULTATS : où les études se contredisent-elles ?
   Hypothèses explicatives (population, mesure, contexte).
E. ANGLES MORTS : quels aspects de ma question ne sont abordés par
   aucune des études du corpus ?
F. TABLEAU DE SYNTHÈSE : matrice études × dimensions (devis, population,
   résultats, limites).

Pour chaque affirmation, cite la source dans le corpus (auteur, année,
page idéalement).
Conseils
  • Maximum 20 articles dans le corpus : au-delà, NotebookLM perd en précision.
  • Signalez les articles fondamentaux par leur nom — NotebookLM y accordera plus de poids.
  • Exportez en Markdown pour réorganiser sans tout copier-coller.
Piège à éviter

Généraliser à partir de 3-4 études seulement. La comparaison gagne en intérêt à partir de 8-10.

Phase 4

Synthétiser et critiquer

08

Identifier les angles morts et les lacunes

NotebookLM + Claude Pour définir la contribution originale du projet.
Tu es un assistant pour la phase de synthèse critique d'une revue.
Les sources représentent l'état des connaissances sur [VOTRE SUJET].

Ma question : [VOTRE QUESTION]

Identifie les ANGLES MORTS, organisés en 5 catégories :

1. POPULATIONNELS : quelles populations sont sous-étudiées ?
2. MÉTHODOLOGIQUES : quelles approches manquent (qualitatif,
   longitudinal, participatif) ?
3. CONCEPTUELS : quels concepts adjacents ne sont pas articulés à mon
   sujet ?
4. TEMPORELS / CONTEXTUELS : la littérature est-elle datée ?
5. APPLICATIFS : connaissances actionnables pour pratique et
   politiques ?

Pour chaque angle, cite les indices dans le corpus qui te font conclure
à une lacune (absence, signalements d'auteurs, appels à recherche).

Termine par 3 PROPOSITIONS DE CONTRIBUTION ORIGINALE pour mon projet.
Conseils
  • Les phrases « future research should... » dans les conclusions sont vos meilleures sources, demandez-les explicitement.
  • Vérifiez les lacunes identifiées par une recherche Google Scholar ciblée : peut-être que des études existent ailleurs.
  • Ce prompt nourrit vos arguments de justification scientifique en introduction.
Piège à éviter

Prendre une lacune apparente pour une lacune réelle. Validez par recherche ciblée avant d'en faire un argument central.

09

Construire une matrice de synthèse argumentative

Claude + tableur Au moment de structurer la section « État de la littérature ».
Tu es un assistant pour la rédaction d'une revue argumentative.

Ma question : [VOTRE QUESTION]

Extractions de [N] articles clés (formatées au prompt 6) :
[COLLEZ VOS EXTRACTIONS — 5 À 12 ARTICLES]

Construis une MATRICE ARGUMENTATIVE qui dépasse le format catalogue.

Propose 3 ANGLES STRUCTURANTS :

A. NARRATION CHRONOLOGIQUE : évolution dans le temps, ruptures,
   continuités.
B. NARRATION THÉMATIQUE : grands axes, articles regroupés par axe,
   apport collectif.
C. NARRATION CONTROVERSE / DÉBAT : où la littérature se divise-t-elle ?
   Positions, auteurs, données.

Pour chaque narration, propose :
- une phrase-thèse qui structurerait la section
- 4 à 6 sous-sections (titre + phrase-résumé)
- les articles à citer dans chaque sous-section

Termine par une recommandation : quelle narration sert le mieux ma
question, et pourquoi.
Conseils
  • La narration controverse est puissante pour une thèse de doctorat ou un article scientifique.
  • La narration thématique est plus accessible pour un public appliqué.
  • La matrice devient votre squelette de rédaction.
Piège à éviter

Choisir la narration qui ressemble à ce que vous vouliez écrire. Si les trois vous semblent équivalentes, votre question n'est pas assez précise.

Phase 5

Rédiger et critiquer

10

Faire critiquer mon propre paragraphe de revue

Claude Après rédaction, avant la relecture par un pair.
Tu es un évaluateur exigeant pour une revue de littérature en
[DISCIPLINE]. Voici un paragraphe que j'ai rédigé :

[VOTRE PARAGRAPHE — 150 À 400 MOTS]

Critique-le selon 7 critères. Pour chacun, une cote (FORT / ACCEPTABLE /
FAIBLE) et une justification précise avec extrait du texte.

1. CLARTÉ DE LA THÈSE : argument central explicite dès la première
   phrase ?
2. INTÉGRATION DES SOURCES : citations articulées à un raisonnement,
   ou juxtaposées ?
3. PRÉCISION DES CITATIONS : références soutiennent-elles bien ce qui
   est affirmé ? Affirmations sans citation ?
4. ÉQUILIBRE : position nuancée ? Contradictions reconnues ?
5. STYLE ACADÉMIQUE : hedges excessifs ? Généralisations abusives ?
   Affirmations non sourcées ?
6. TRANSITIONS : intégration logique avec ce qui précède / suit ?
7. CONTRIBUTION AU RAISONNEMENT GLOBAL : fait-il avancer la revue ?

Termine par 3 RÉVISIONS CONCRÈTES (citations à remplacer, phrases à
reformuler, ajouts à faire).

Ne réécris pas le paragraphe. Critique-le.
Conseils
  • « Ne réécris pas » est important : sinon l'IA reformule et vous perdez votre voix.
  • Utilisez ce prompt sur vos paragraphes-clés : intro, argument central, conclusion.
  • Variante : « Ce paragraphe défendrait-il une thèse contraire ? Si oui, où est la faille ? »
Piège à éviter

Accepter les révisions sans esprit critique. L'IA peut suggérer une citation qu'elle inventera. Vérifiez chaque source.

5 anti-patrons à éviter

Les erreurs les plus fréquentes observées chez les personnes qui intègrent l'IA dans leur travail de revue.

1. La citation fantôme

L'IA produit une référence qui n'existe pas. Auteur plausible, année crédible, revue connue, mais l'article n'existe pas, ou est attribué à un autre auteur.

Remède : vérifier chaque référence. Google Scholar, DOI.org, Crossref. Si vous ne pouvez pas la trouver, ne la citez pas.

2. La paraphrase erronée

L'IA résume un article en attribuant aux auteurs une conclusion qu'ils n'ont pas tirée, ou en gommant leurs nuances.

Remède : pour chaque résumé qui sert votre argumentation, relire le passage source. La perte de temps est moindre que la perte de crédibilité.

3. Le biais de confirmation augmenté

Vous demandez à l'IA des arguments pour une thèse que vous avez déjà en tête. Elle s'exécute, sans aller chercher les contre-arguments.

Remède : demandez systématiquement « quels sont les contre-arguments dans la littérature, et quels auteurs les portent ? ». Si l'IA n'en trouve pas, votre revue n'est pas finie.

4. La synthèse sans corpus

Vous demandez à Claude (non à NotebookLM) une synthèse sur un sujet. L'IA puise dans ses données d'entraînement, sans citer, sans vérifier, biaisée vers la littérature anglo-saxonne.

Remède : pour toute synthèse sourcée, déposez votre corpus dans NotebookLM ou Elicit. La synthèse sans corpus sert au cadrage, pas à la conclusion.

5. La trace effacée

Vous utilisez l'IA pour produire un paragraphe, vous le retravaillez, vous oubliez de le noter. Votre comité ou votre revue scientifique vous le reprochera.

Remède : tenez un journal des usages (date, modèle, prompt, décision). Documentez dans votre méthodologie. La transparence est la meilleure protection.

Bibliographie scientifique

Sur les hallucinations et la fiabilité

  • Chelli, M., Descamps, J., Lavoué, V., Trojani, C., Azar, M., Deckert, M., Raynier, J.-L., Clowez, G., Boileau, P., & Ruetsch-Chelli, C. (2024). Hallucination rates and reference accuracy of ChatGPT and Bard for systematic reviews: Comparative analysis. Journal of Medical Internet Research, 26, e53164. jmir.org ↗
  • Walters, W. H., & Wilder, E. I. (2025). Can generative AI reliably synthesise literature? Exploring hallucination issues in ChatGPT. AI & Society. springer.com ↗

Sur la performance du tri d'abstracts

Sur l'état du champ (revues de portée 2025)

Sur les normes de transparence

Sur les cadres méthodologiques classiques

Gardez l'essentiel à portée de main

Les 10 prompts condensés en un aide-mémoire PDF imprimable. Un prompt par page, prêt à copier dans NotebookLM, Elicit ou Claude.

Télécharger l'aide-mémoire (PDF, 12 pages)