Fermer×
8 octobre 2025

Projet PhilosophIA: l’intelligence artificielle générative au service du développement des habiletés de la pensée

Le projet PhilosophIA est une série d’ateliers pratiques que nous avons conçus pour guider les élèves du cours Philosophie et rationalité dans le développement d’habiletés de la pensée en s’appuyant sur l’intelligence artificielle (IA) générative plutôt que sur l’enseignement traditionnel. Nous vous présentons notre démarche et partageons avec vous nos 3 ateliers pour que vous puissiez les utiliser avec vos propres élèves.

En effet, l’IA générative s’est immiscée dans nos salles de classe depuis quelques sessions, plus ou moins à notre insu. Cela a bouleversé les pratiques pédagogiques de bien des enseignants et des enseignantes, bombardés d’injonctions du type «On n’a pas le choix de l’intégrer.» et «L’IA, c’est l’avenir». Pour notre part, au lieu de maintenir une posture strictement défensive, nous avons cherché à nous approprier l’IA, pour vérifier dans quelle mesure elle pourrait être utile dans nos cours de philosophie.

La genèse du projet

Nous avons choisi le 1er cours de philosophie pour expérimenter avec l’IA. Nous l’avons choisi parce qu’il a fait l’objet d’une analyse dans le Plan d’action pour la réussite en enseignement supérieur 2021-2026 (PARES) et que l’IA nous semblait pouvoir contribuer à la mise en œuvre de certaines des recommandations de ce plan. En effet, parmi ces recommandations, on retrouve l’enseignement explicite des habiletés de la pensée et des principes logiques de base, qui sont des habiletés essentielles au développement de l’esprit critique. C’est sur ces habiletés que s’appuie la 3e compétence du cours c’est-à-dire l’argumentation. Or, si on se fie au rapport Regards croisés sur les conditions de réussite éducative des premiers cours de littérature et de philosophie au cégep [PDF], l’enseignement magistral ne s’avère pas une solution – ou du moins, pas l’unique solution – à privilégier pour l’apprentissage de l’argumentation.

Il nous semblait qu’il y avait donc là une voie pour travailler avec l’IA. C’est à partir de ces considérations que nous avons conçu le projet PhilosophIA.

Littérature 

Il n’existe pas – à notre connaissance – de littérature spécifique sur le développement de la pensée critique au collégial, mais des recherches empiriques sur le développement des habiletés de la pensée ont été menées au Québec auprès d’élèves du secondaire. Pensons notamment à La pratique du dialogue philosophique au secondaire: vers une dialogique entre théories et pratiques par Mathieu Gagnon et Sébastien Yergeau. Les conseils pratiques et la réflexion théorique qui s’y trouvent, au sujet de l’importance de la pensée critique et de son lien avec certaines habiletés de la pensée (comme fournir des exemples, donner des raisons, examiner l’envers d’une position), ont servi d’ancrage à notre projet. La séquence d’acquisition des habiletés que nous avons ciblées s’en est grandement inspirée. 

Des ateliers clés en main

Nous avons conçu 3 ateliers pédagogiques pouvant être repris par des enseignants et enseignantes de philosophie.

Pour une question de simplicité et de facilité d’accès, nous avons utilisé l’IA de Microsoft (Copilot), puisqu’elle est intégrée dans tous les postes de travail de notre collège.

Bien que l’IA ne soit pas nécessaire pour le développement des habiletés de la pensée, nous souhaitions explorer le proverbial champ des possibles en la matière, dans le cadre d’un cours de philosophie. L’un des avantages que nous pouvons lui conférer, c’est de permettre aux élèves de progresser à leur rythme dans leurs apprentissages. L’IA leur offre également un accompagnement personnalisé, ce qui n’est pas toujours possible lorsqu’ils et elles se retrouvent dans des groupes d’une trentaine d’élèves. Les élèves pouvaient ainsi, par exemple, demander à l’IA de formuler une critique de leur thèse afin de leur permettre de la préciser.

On pourrait ajouter que ces 3 ateliers ont permis aux élèves de faire l’expérience d’une utilisation « vertueuse» de l’IA et qu’ils et elles ont ainsi pu s’initier à son fonctionnement, ses possibilités et ses limites.

Précisons que nous n’endossons pas forcément l’utilisation de l’IA dans un cadre scolaire. Nous sommes bien au fait des enjeux éthiques qu’elle suscite, ne serait-ce que par rapport à la propriété intellectuelle ou à son empreinte écologique. Cependant, sa prolifération rapide et globale rendait la posture défensive intenable à nos yeux. Au moins, nous pourrons fournir un exemple positif de son utilisation à nos élèves. C’est déjà ça!

Dans le cadre du notre projet, nous avons conçu 3 ateliers différents à réaliser en classe, chacun d’une durée prévue de 2 périodes consécutives (un peu moins de 2 heures).

Chaque atelier faisait intervenir différentes habiletés de la pensée puisées dans le livre de Yergeau et Gagnon.

Comme il existe une grande variété d’habiletés dans chacun des 3 blocs proposés par les auteurs (chaque bloc correspondant grossièrement à un niveau de difficulté), nous avons dû faire des choix. Nous avons d’abord cherché à déterminer les habiletés pour lesquelles l’IA était susceptible d’être un atout – en accélérant certaines tâches, en personnalisant les réponses ou en stimulant la créativité des élèves. Nous visions aussi une progression dans le niveau de difficulté entre l’atelier 1 et l’atelier 3. Ainsi, fournir un exemple (développé dans l’atelier 1) est généralement plus simple que de faire des liens avec l’actualité (développé dans l’atelier 3).

Dans le 1er atelier, nous avons ainsi arrêté notre choix sur les habiletés suivantes:

  • envisager une situation selon différents angles
  • fournir des exemples et des contre-exemples
  • examiner l’envers d’une position

Informations générales et contexte de réalisation de l’atelier 1 (tirés du document de présentation de l’atelier 1 [docx])

Dans le 2e, nous avons fait travailler les élèves à:

  • mettre en évidence différentes façons de penser
  • dégager des présupposés
  • identifier des ambiguïtés ou relever des contradictions

Enfin, dans le 3e, nous voulions amener les élèves à:

  • dégager les implications et les enjeux
  • établir des relations moyens-fins
  • établir des liens avec l’actualité

Cas de figure: l’atelier 1 

Dans le 1er atelier [docx], les élèves devaient répondre à diverses questions en lien avec une problématique contemporaine connue, celle de l’inclusion des femmes trans dans les compétitions sportives féminines.

Dans les cours qui ont précédé les ateliers, nous avons présenté aux élèves certaines des habiletés de la pensée à travailler en plus d’aborder avec elles et eux la problématisation et la formulation d’une thèse (ce contenu théorique étant un préalable à la réalisation de l’atelier).

En ce qui concerne l’atelier comme tel, les questions posées ne nécessitaient pas toujours l’apport de l’IA: au contraire:

  • Dans certains cas, l’utilisation de l’IA était proscrite.
  • Dans d’autres cas, les réponses devaient être entièrement générées par l’IA.
  • Il y avait enfin des questions où les élèves pouvaient faire appel à Copilot s’ils et elles le désiraient et construire leur réponse en s’aidant de l’IA.

Notons au passage que, même lorsque l’utilisation de l’IA était interdite, plusieurs équipes semblent l’avoir utilisée, ce qui n’a pas manqué de nous faire rager! Nous avions espoir que le côté obscur de la force ne prenne pas le dessus, dans un contexte scolaire encadré où nous encourageons l’utilisation de l’IA dans la majorité des questions, mais les risques de plagiat semblent toujours bien présents.

Avec l’étape 1 du 1er atelier, les élèves devaient utiliser l’IA pour envisager la problématique de l’inclusion des femmes trans dans les compétitions sportives féminines sous différents angles. C’était également l’occasion pour eux et elles de se familiariser avec l’emploi de requêtes pour optimiser la qualité des réponses fournies par l’IA. L’étape 1 leur permettait aussi de se «faire une tête», puisqu’ils et elles devaient demander à Copilot de dégager 2 perspectives opposées sur la controverse.

Vue d’ensemble et but de l’étape 2 (tirés du document de présentation de l’atelier 1 [docx])

L’étape 2 visait quant à elle le développement de l’habileté «fournir des exemples et des contre-exemples». Nous nous y attarderons un peu plus longuement, pour que vous puissiez bien voir la logique de nos ateliers à l’œuvre.

Au début de chaque étape, nous fournissons aux élèves une vue d’ensemble – incluant toutes les sous-étapes à réaliser avant de passer à l’habileté suivante – et un but.

Dans le document, les pages qui suivent la présentation de la vue d’ensemble se présentent sous la forme d’un encadré où les élèves pourront inscrire leurs réponses. Certaines questions sont évaluées, d’autres non, comme en témoigne la grille de correction à la page 4 du document. Pour l’étape 2, par exemple, seules les sous-étapes 2.5 et 2.6 seront évaluées. Les autres sont tout de même obligatoires et nécessaires pour le bon déroulement de l’atelier.

Pour la sous-étape 2.1, les élèves devaient simplement choisir une opinion à tester en lien avec la thématique parmi une liste de quatre.

À la sous-étape 2.2, les élèves devaient demander à l’IA de leur fournir des exemples et des contre-exemples pour appuyer l’idée choisie en 2.1.

C’est une tâche que l’IA remplit assez bien, même s’il faut la garder à l’œil lorsqu’elle cite ses sources. En effet, Copilot ne discrimine pas forcément entre des articles scientifiques et des articles sans grande légitimité.

Dans les 2 groupes d’élèves qui ont testé nos ateliers, aucun élève n’avait porté attention aux citations de Copilot. Personne n’avait cliqué sur les liens en référence pour évaluer la qualité de la source. Nous étions un peu déçus de le constater, puisque l’évaluation des sources est une compétence que nous tentons de développer dans les cours de philosophie!

La requête de la sous-étape 2.2 est plutôt simple et l’IA fournit généralement des exemples et contre-exemples suffisamment précis et concrets. On peut bien sûr atteindre un résultat similaire avec des engins de recherche comme Google, mais c’est tout simplement plus long –trier et lire des articles, pour finalement cibler les exemples et les contre-exemples.

En 2.3, nous demandons tout simplement aux élèves de recopier la réponse fournie par l’IA, ce qui nous permet de vérifier s’ils et elles ont été soit induits en erreur ou victimes d’une hallucination.

Pour la sous-étape 2.4, les élèves prennent connaissance d’une thèse qui leur sert en 2.5 et 2.6.

Ces 2 sous-étapes nous permettent de réinvestir des acquis précédents, par rapport à la formulation de requêtes et à l’évaluation d’exemples et de contre-exemples. Nous fournissons aux élèves les définitions des critères d’évaluation:

  • pertinence
  • acceptabilité
  • précision

Les élèves  doivent ensuite utiliser ces critères pour évaluer si le cas de la boxeuse Imane Khelif, aux Olympiques de Paris de 2024, constitue un bon exemple ou contre-exemple pour appuyer la thèse dont ils et elles ont pris connaissance en 2.4: «Les femmes trans bénéficient d’un avantage indu dans les compétitions sportives».

La plupart des équipes ont bien compris comment formuler une requête qui intègre des critères d’évaluation, mais plusieurs se sont fait induire en erreur par l’IA, ce qui a grandement faussé les résultats obtenus.

De plus, comme nous l’avons mentionné plus tôt, aucune des équipes n’a pris la peine de vérifier les sources citées par l’IA. Par exemple, plusieurs équipes se sont fait répondre que «Imane Khelif est une femme trans» (alors que ce n’est pas le cas), puisque l’IA se basait sur des articles à la légitimité douteuse ou avec un agenda anti-trans. Évidemment, l’évaluation des élèves qui se sont fait servir de telles faussetés a été biaisée. C’était à tout le moins une bonne occasion d’apprentissage: il faut garder un pas de recul avec l’IA, aussi sophistiquée soit-elle. Aiguiser son esprit critique est un long processus!

Finalement, la sous-étape 2.6, sur laquelle nous ne reviendrons pas en détail ici, propose aux élèves un exercice similaire. Cette fois-ci, l’IA n’a pas eu tendance à les induire en erreur comme ça a été le cas en 2.5.

Conseils aux enseignantes et enseignants qui souhaiteraient se lancer  

Un de nos objectifs en développant nos ateliers était que d’autres enseignants et enseignantes du cours Philosophie et rationalité puissent les reprendre et les réutiliser dans leurs cours. Dans certains cas, il vous sera peut-être utile d’adapter ce que nous proposons pour mieux coller à d’autres thématiques, à d’autres manières d’enseigner certains concepts ou à vos objectifs spécifiques. Il vous est aussi possible de vous inspirer de nos 3 ateliers pour concevoir quelque chose de complètement différent, tout en vous inspirant de notre expérience, que ce soit du type de question, de leur organisation ou de la présentation.

Si vous souhaitez vous lancer dans l’utilisation ou la création d’ateliers pédagogiques utilisant l’IA, voici nos recommandations:

  • Prenez le temps de présenter clairement les objectifs visés par l’utilisation de l’IA
    Dans plusieurs cours, les élèves peuvent avoir reçu le message que l’utilisation de l’IA n’est pas permise et constitue de la fraude ou nuit à l’apprentissage. Il faut donc présenter (brièvement) la réflexion et la démarche dans lesquelles les ateliers s’inscrivent. Parmi les objectifs visés par l’utilisation de l’IA, on peut retrouver:

    • Acquérir une meilleure compréhension des forces et faiblesses de l’IA générative
    • Développer certaines compétences en obtenant rapidement de la rétroaction personnalisée
    • Cultiver une posture critique face à l’IA générative
  • Expliquez les usages de l’IA qui sont acceptables ou pas
    La présentation des logos pour utilisation transparente de l’IA développés par Martine Peters de l’Université du Québec en Outaouais (et leur compréhension par les élèves) s’avère cruciale, à ce stade.
  • Montrez les liens entre les sous-étapes et les buts de chaque étape
    Les ateliers étant conçus en plusieurs étapes et sous-étapes, il est important, d’expliquer aux élèves le but global de chaque étape et de leur montrer comment leurs réponses seront réutilisées d’une sous-étape à l’autre de manière à atteindre ce but.
  • Expliquez les notions de base de l’IA
    Comment accéder à Copilot? Qu’est-ce qu’une requête? Comment consulter les sources sur lesquelles s’appuie Copilot?
  • Faites plusieurs ateliers
    Au fil des ateliers, nos élèves ont développé une aisance avec l’approche et arrivaient mieux à voir comment celle-ci servait leur apprentissage.
  • Prévoyez un retour en classe au cours suivant
    Cette étape s’est avérée particulièrement utile pour faire prendre conscience à nos élèves des limites de l’IA. Nous avons ainsi pu leur donner des exemples de réponses inadéquates de l’IA (comme une rétroaction qui ne correspondait pas aux critères fournis) ou mettre en évidence les réponses parfois contradictoires obtenues d’une équipe à l’autre, comme dans le cas d’Imane Khelif mentionné plus haut.
  • Prévoyez beaucoup de temps si vous souhaitez concevoir un atelier de A à Z
    Nous sommes 2 personnes à avoir consacré 4 séances de 3h pour concevoir l’atelier 1. Déterminer où l’IA peut s’avérer utile et trouver la bonne requête pour amener les élèves là où on le souhaite impliquait souvent de nombreux essais et erreurs.

Pour conclure, nous pouvons mentionner que les élèves ont généralement dit avoir apprécié les ateliers et les avoir trouvés utiles, soit pour valider les connaissances qu’ils et elles avaient acquises, dans le cas du 3e atelier, ou pour développer leurs compétences, dans le cas des ateliers 1 et 2.

Étant donné que nous avons seulement fait l’expérience dans 2 groupes, il est difficile pour l’instant de tirer des conclusions solides sur les bénéfices qui peuvent être escomptés avec cette approche. Nous espérons toutefois avoir contribué à la réflexion sur la manière dont l’IA peut être utilisée, très concrètement, dans le cadre d’un cours de philosophie et nous vous invitons à reprendre ce que nous avons fait pour faire vos propres expérimentations dans vos cours.

Références

Gagnon, M. et Yergeau. S. (2016). La pratique du dialogue philosophique au secondaire : vers un dialogue entre théories et pratiques. Presses de l’Université Laval.

Peters, M. (2023) Utilisation transparente de l’intelligence artificielle. Université du Québec en Outaouais.

À propos des auteurs

Émilie Deschamps

Émilie Deschamps enseigne la philosophie au collégial depuis 2022. Elle est détentrice d’une maitrise en philosophie de l’Université d’Ottawa et a aussi complété le Microprogramme de 2e cycle de formation initiale en enseignement au collégial (MIFIEC) de l’Université de Sherbrooke. Elle s’intéresse aux pratiques à impact élevé, en particulier la rétroaction, ainsi qu’au dialogue philosophique comme manières de favoriser l’apprentissage et la motivation des élèves.

Olivier Bouchard

Olivier Bouchard enseigne la philosophie au Cégep de Matane depuis l’automne 2010. Après des études de philosophie au 1er cycle, il s’est tourné vers l’administration et a complété une maîtrise en Responsabilité sociale et environnementale des entreprises. Alors qu’il enseignait déjà, il est retourné à nouveau sur les bancs d’école pour effectuer une autre maîtrise, cette fois en éthique. Conséquemment, son intérêt à l’égard de l’intelligence artificielle générative reste avant tout critique et teintée de considérations éthiques.

S’abonner
Notification pour
guest

1 Commentaire
Commentaires en ligne
Afficher tous les commentaires
Barthélémy Éric Edoa II
Barthélémy Éric Edoa II
20 octobre 2025 7h44

Merci pour cet article. Cela représente un véritable défi de pratique pédagogique, notamment pour l’enseignement de la philosophie : favoriser un usage prudent et vertueux de l’IA dans le cadre du développement des habiletés de pensée.