Bibliothèque · Recherche à l'ère de l'IA

Checklist : intégrer l'IA dans votre projet de recherche

Les questions à se poser avant d'utiliser l'IA dans un projet pour éviter les écueils éthiques, méthodologiques et juridiques. Ancrée dans TCPS 2, la Loi 25, l'ICMJE et la littérature scientifique récente.

Par Benoit Plante · Édition 2026 · Lecture : ~15 minutes

Pourquoi cette checklist

L'utilisation de l'IA dans la recherche n'est plus une question d'innovation isolée. Elle touche désormais l'éthique, le droit, la rigueur méthodologique et la responsabilité scientifique. Et la majorité des protocoles soumis aux comités d'éthique de la recherche (CER) ne le mentionnent toujours pas explicitement.

Cette checklist vous aide à poser les bonnes questions avant d'utiliser l'IA dans un projet, pas après, pas pendant. Elle est conçue pour trois moments précis :

  • Au moment de rédiger ou de modifier un protocole pour le CER
  • Au moment de choisir un outil IA pour une tâche spécifique (analyse, codage, extraction, rédaction)
  • Au moment de soumettre un manuscrit à une revue scientifique

Chaque question renvoie à une exigence : du Tri-Council Policy Statement (TCPS 2, 2022), de la Loi 25 du Québec, de l'ICMJE pour la publication, ou d'un consensus scientifique émergent. Quand une réponse est non, vous savez exactement quoi corriger.

Ce que dit la recherche

L'écart entre les pratiques actuelles et les exigences éthiques est documenté. Quatre constats récents qui motivent cette checklist.

01

La majorité des études IA en santé mentale n'aborde pas le consentement

Une revue de portée publiée dans AI & Society (2025) sur l'approbation éthique en santé mentale a trouvé que les études utilisant IA et apprentissage automatique manquent souvent d'une discussion explicite sur la manière dont le consentement éclairé s'applique à l'entraînement algorithmique, à la réutilisation des modèles et aux applications secondaires des données.

Implication : votre formulaire de consentement doit explicitement nommer l'usage de l'IA et le sort des données. Une formulation générique sur le « traitement informatisé » n'est plus suffisante.

02

Les CER manquent d'outils spécifiques à l'IA

Un article publié dans Frontiers in Artificial Intelligence (2023) note que « les comités d'éthique de la recherche se réfèrent au TCPS 2 pour bâtir leur cadre, mais les ordonnances et règlements concernant l'IA sont limités, et le manque d'outils rend plus difficile leur adaptation aux nouveaux défis créés par l'IA ». Le NIH américain a même interdit en 2023 l'usage de LLM dans l'évaluation par les pairs des subventions.

Implication : ne présumez pas que votre CER a une politique claire. C'est à vous de documenter l'usage IA dans votre protocole — soyez plus précis que ce qu'on vous demande.

03

La Loi 25 impose une analyse de risques pour tout transfert vers une IA externe

Depuis septembre 2022, la Loi 25 oblige les organisations québécoises à conduire une analyse des facteurs relatifs à la vie privée (AFRVP) lorsque des renseignements personnels sont transmis à un fournisseur tiers, ce qui inclut OpenAI, Anthropic et Google. Les pénalités peuvent atteindre 25 M$ ou 4 % du chiffre d'affaires mondial.

Implication : traiter des données de participants québécois dans ChatGPT, Claude ou Gemini sans avoir documenté l'analyse de risques est, dans plusieurs cas, illégal. La version « gratuite » ou « grand public » de ces outils est rarement conforme.

04

Les revues scientifiques exigent désormais une déclaration explicite

L'ICMJE (qui régit la plupart des revues médicales et plusieurs revues en sciences sociales) a clarifié dès 2023 que les outils d'IA générative ne peuvent pas être listés comme auteurs. À la soumission, l'auteur doit divulguer dans la lettre d'accompagnement et dans le manuscrit l'usage qui a été fait des LLM, des chatbots et des générateurs d'images. La responsabilité scientifique demeure entièrement humaine.

Implication : tenir un journal des usages IA pendant la conduite du projet n'est plus optionnel, c'est ce que vous devrez déclarer à la soumission. Sans journal, votre déclaration sera approximative ou incomplète.

La conformité éthique à l'IA n'attend pas l'arrivée d'une politique parfaite : elle se construit projet par projet, par anticipation. Voir les sources →

La checklist en 6 sections

Pour chaque question, cochez Oui, Non ou N/A. Toute réponse Non appelle une action de correction avant de poursuivre le projet ou de soumettre le protocole.

A

Avant d'utiliser l'IA

Questions préalables à toute intégration de l'IA dans le projet.

  • A1.
    Mon institution a-t-elle une politique sur l'usage de l'IA en recherche ?

    Vérifiez auprès du bureau de recherche / vice-rectorat / CER. Plusieurs universités canadiennes ont publié leur politique en 2024-2025.

  • A2.
    Mon projet a-t-il un protocole approuvé par un CER ?

    Si oui, l'usage de l'IA est-il compatible avec ce qui a été approuvé ? Sinon, une modification au protocole est requise avant de commencer.

  • A3.
    Ai-je consulté un éthicien ou un conseiller en intégrité scientifique de mon institution ?

    Pour un usage non standard (analyse de données sensibles, IA générative pour entrevues, etc.), un avis professionnel évite des mois de retard plus tard.

  • A4.
    L'usage prévu de l'IA est-il compatible avec ma discipline et ses normes ?

    Certaines associations savantes (psychologie, médecine, droit) ont leurs propres lignes directrices, parfois plus strictes que TCPS 2.

  • A5.
    Ai-je identifié précisément quelles tâches l'IA va effectuer dans le projet ?

    « Aide à l'analyse » est trop vague pour le CER et pour vous-même. Listez chaque tâche : recherche documentaire ? extraction ? codage ? rédaction ? traduction ?

B

Choix de l'outil

Tous les outils IA ne se valent pas sur le plan éthique et juridique. Vérifiez avant de cliquer sur « accepter ».

  • B1.
    L'outil traite-t-il les données dans une juridiction acceptable ?

    Canada, UE, États-Unis avec contrats d'accès au marché européen (DPF) sont en général acceptables. Données traitées hors de ces zones : risque accru sous la Loi 25 et le RGPD.

  • B2.
    L'outil utilise-t-il mes saisies pour entraîner ses modèles ?

    Versions grand public (ChatGPT Free, Claude Free) : oui par défaut. Versions API ou Enterprise : non en général, à confirmer dans les conditions d'utilisation.

  • B3.
    Le fournisseur dispose-t-il de certifications de sécurité reconnues ?

    SOC 2 Type II, ISO 27001, HIPAA (pour les données de santé). Si le fournisseur ne peut pas les fournir, n'y déposez pas de données sensibles.

  • B4.
    Quelle est la politique de rétention et de suppression des données ?

    Vérifiez la durée de conservation et l'existence d'une option de suppression manuelle. Si non clair, considérez l'outil comme non conforme aux exigences académiques.

  • B5.
    L'institution a-t-elle négocié un accord institutionnel avec le fournisseur ?

    Plusieurs universités ont des licences Claude, ChatGPT Enterprise ou Microsoft Copilot avec clauses spécifiques. Préférez ces accès institutionnels au compte personnel.

C

Données et confidentialité

La section la plus critique. Les erreurs ici exposent à des sanctions financières et à la perte de la confiance des participants.

  • C1.
    Mes données contiennent-elles des renseignements personnels au sens de la Loi 25 ?

    Nom, adresse courriel, données biométriques, opinions politiques, données de santé. Si oui, une AFRVP (analyse des facteurs relatifs à la vie privée) est requise avant tout transfert vers un outil IA externe.

  • C2.
    Mes participants ont-ils consenti spécifiquement à ce que leurs données soient traitées par IA ?

    Un consentement éclairé doit nommer l'IA, le type d'outil, le lieu de traitement et les risques. Les formulaires antérieurs à 2023 ne couvrent généralement pas cet usage.

  • C3.
    Les données sont-elles dépersonnalisées avant d'être déposées dans l'outil IA ?

    Retrait des noms, codification systématique des identifiants, suppression des verbatims trop identifiants. Idéalement : l'IA ne voit jamais de données nominatives.

  • C4.
    Une AFRVP a-t-elle été conduite et documentée ?

    Document écrit qui identifie les risques résiduels et les mesures d'atténuation. Obligatoire sous la Loi 25 dès qu'un fournisseur externe est impliqué.

  • C5.
    Mon CER a-t-il approuvé spécifiquement l'usage de l'IA dans ce projet ?

    Si le protocole approuvé est antérieur à l'introduction de l'IA, soumettez une modification. Décrire la tâche, l'outil, la juridiction et l'AFRVP.

  • C6.
    Le contrat avec le fournisseur prévoit-il un droit de retrait pour les participants ?

    Pour qu'un participant puisse exercer son droit de retrait, il faut pouvoir effectivement retirer ses données de l'outil. Vérifiez la mécanique avant la collecte.

D

Transparence et documentation

Ce qui n'est pas documenté n'est pas défendable.

  • D1.
    Je tiens un journal des usages IA pour ce projet

    Pour chaque session : date, outil et version du modèle (ex. Claude Opus 4.5, GPT-4o-2024-08), prompt complet, fichiers déposés, décision prise sur la base de la réponse.

  • D2.
    Mes prompts utilisés pour des analyses sont conservés intégralement

    Pas seulement leur description : le texte exact. Lors de la révision par les pairs, c'est ce texte qu'on pourra vous demander.

  • D3.
    J'ai défini comment l'usage de l'IA sera déclaré dans la publication finale

    Section méthodes : tâche, outil, version, prompt. Lettre d'accompagnement : déclaration explicite. Annexe : journal des usages si requis par la revue.

  • D4.
    Mon équipe a une convention partagée sur l'usage de l'IA

    Si plusieurs personnes contribuent (étudiants, professionnels de recherche, collaborateurs), le journal et les politiques doivent être communs. Une page partagée du projet suffit.

E

Biais et fiabilité

L'IA produit des résultats plausibles, pas nécessairement justes. Le contrôle qualité humain demeure la responsabilité du chercheur.

  • E1.
    J'ai identifié les biais connus du modèle pour ma tâche

    Sous-représentation des perspectives non anglo-saxonnes, biais de récence dans les références, biais de genre dans les recommandations professionnelles, biais culturels dans les analyses qualitatives.

  • E2.
    Chaque référence générée par l'IA est vérifiée à la source

    Les taux d'hallucination atteignent 28,6 % à 91,3 % selon le modèle (Chelli et al., JMIR 2024). Aucune citation non vérifiée ne devrait apparaître dans une publication.

  • E3.
    Mes extractions et codages issus de l'IA font l'objet d'un audit humain

    Minimum 10 % des décisions auditées au hasard. Pour les enjeux à risque (santé, populations vulnérables), un audit complet.

  • E4.
    J'ai prévu une triangulation indépendante des résultats sensibles

    Pour toute conclusion qui aura un impact (recommandations cliniques, politiques publiques, jugements de valeur), une vérification humaine indépendante de l'IA.

  • E5.
    Je documente les limites de l'IA dans la section « Limites » de ma publication

    Quel modèle, quelle version, quels biais possibles, quelles tâches non confiées à l'IA et pourquoi.

F

Publication et auctorialité

Les revues exigent désormais une déclaration explicite. Soyez précis.

  • F1.
    L'IA n'est jamais listée comme auteur (ICMJE, 2023)

    Un outil ne peut pas être responsable de la rigueur, de l'intégrité et de l'originalité du travail. La responsabilité demeure humaine.

  • F2.
    J'ai consulté la politique IA de la revue visée

    Chaque revue a sa formulation. Certaines exigent une déclaration en page-titre, d'autres dans la section méthodes, d'autres dans la cover letter — voire les trois.

  • F3.
    Ma déclaration nomme l'outil, sa version et son rôle précis

    Pas « ChatGPT a aidé à la rédaction ». Plutôt : « Claude Sonnet 4.5 a été utilisé pour reformuler la section discussion ; tous les passages ont été révisés et validés par les auteurs. »

  • F4.
    Tous les co-auteurs sont informés et d'accord avec l'usage de l'IA documenté

    La responsabilité des auteurs est collective. Un usage non déclaré à un co-auteur peut entraîner une rétraction.

3 signaux d'alarme : arrêtez tout

Si vous rencontrez l'une des trois situations suivantes, mettez le projet en pause et consultez votre conseiller en éthique avant de poursuivre.

1. Vous traitez des données nominatives dans un outil grand public

Verbatim d'entrevues avec noms, courriels de participants, dossiers médicaux dans la version gratuite de ChatGPT, Claude ou Gemini. Risque : violation de la Loi 25 (pénalités jusqu'à 25 M$), retrait obligatoire des données, possible rétraction de publication.

Action : arrêtez immédiatement le traitement. Documentez l'incident. Consultez le responsable de la protection des renseignements personnels de votre institution.

2. Votre formulaire de consentement ne mentionne pas l'IA

Vous avez recruté des participants sous un formulaire de consentement antérieur à votre décision d'utiliser l'IA. Risque : usage non couvert par le consentement, possible plainte au CER, données potentiellement inutilisables.

Action : ne déposez aucune donnée participante dans un outil IA. Soumettez une modification au protocole et obtenez un consentement supplémentaire avant tout traitement.

3. Une révision par les pairs vous demande votre prompt — et vous ne l'avez pas

Cas de plus en plus fréquent : l'évaluateur soupçonne un usage de l'IA non déclaré et demande la documentation. Sans journal, vous êtes obligé de reconstituer de mémoire — ce qui est inacceptable. Risque : rejet du manuscrit, perte de crédibilité, signalement à l'éditeur.

Action : prévention. Tenez le journal dès le début du projet, pas à la fin. Considérez-le comme la version 2025 de votre cahier de laboratoire.

Bibliographie

Cadres éthiques et juridiques

  • Conseil de recherches en sciences humaines, Conseil de recherches en sciences naturelles et en génie, & Instituts de recherche en santé du Canada. (2022). Énoncé de politique des trois Conseils : éthique de la recherche avec des êtres humains — EPTC 2 (2022). Gouvernement du Canada. ethique.gc.ca ↗
  • Gouvernement du Québec. (2021). Loi modernisant des dispositions législatives en matière de protection des renseignements personnels (Loi 25). Commission d'accès à l'information du Québec ↗
  • International Committee of Medical Journal Editors. (2024). Recommendations for the conduct, reporting, editing, and publication of scholarly work in medical journals (mise à jour janvier 2024). icmje.org ↗

Défis spécifiques de l'IA en éthique de la recherche

  • Resnik, D. B., & Hosseini, M. (2023). Specific challenges posed by artificial intelligence in research ethics. Frontiers in Artificial Intelligence, 6, 1149082. frontiersin.org ↗
  • Resnik, D. B., & Hosseini, M. (2024). The ethics of using artificial intelligence in scientific research: New guidance needed for a new tool. AI and Ethics. springer.com ↗

Consentement éclairé et IA

  • Diaz Milian, R., & Bhattacharyya, A. (2025). Ethical approval and informed consent in mental health research: A scoping review. AI & Society. springer.com ↗
  • U.S. Department of Health and Human Services, SACHRP. (2024). IRB considerations on the use of artificial intelligence in human subjects research. hhs.gov ↗

Hallucinations et fiabilité (référence croisée)

  • Chelli, M., Descamps, J., Lavoué, V., et al. (2024). Hallucination rates and reference accuracy of ChatGPT and Bard for systematic reviews: Comparative analysis. Journal of Medical Internet Research, 26, e53164. jmir.org ↗
  • Voir aussi la bibliographie complète sur les hallucinations du guide sur la revue de littérature.

Gardez la checklist à portée de main

Les 28 questions condensées dans un PDF imprimable avec cases à cocher, prêtes à servir au moment d'écrire votre protocole.

Télécharger la checklist (PDF, 6 pages)