On voit comment l’enseignement explicite expose clairement et régulièrement les objectifs d’apprentissage. Cela aligne les activités sur la pratique et l’application des critères de performance. Le tout repose sur un parcours progressif favorisant l’autonomie progressive de l’élève:
- la modélisation lui montre la marche à suivre
- la pratique guidée lui permet de l’appliquer sous supervision
- la pratique autonome le ou la conforte dans sa maitrise
Le questionnement et la rétroaction fréquente jouent un rôle majeur dans cette pratique. Ils stimulent la réflexion et renforcent la mobilisation et l’engagement.
Dans un bloc de 2 heures d’enseignement, quand les concepts sont complexes, je ne passe pas toujours par les 5 étapes. Parfois, un bloc peut être consacré uniquement à la modélisation, sans que nous fassions la pratique guidée plus individuelle, qui sera réservée à un autre cours. Mais, à la fin de chaque bloc, nous faisons l’objectivation de la leçon et j’interroge les élèves sur ce qu’ils et elles ont appris. Je boucle le cours avec les objectifs annoncés au début de la leçon.
L’expertise vient avec la pratique
L’enseignement explicite représente selon moi bien plus qu’une simple méthode pédagogique; c’est une transformation profonde de la relation enseignement-apprentissage. Comme l’enseignement explicite rend visibles les processus cognitifs, les élèves développent une véritable autonomie intellectuelle et régulent leur propre processus d’apprentissage.
Au fil des années, j’ai constaté que la maitrise progressive de l’enseignement explicite m’a permis de ralentir mon rythme d’enseignement pour créer plus d’espace pour l’interaction, l’observation et l’ajustement. Cette «lenteur pédagogique» s’avère paradoxalement plus efficace, car elle permet une construction plus profonde des savoirs et des compétences.
Je crois que dans un monde où l’IA peut instantanément générer du contenu, la valeur ajoutée de l’enseignement réside peut-être plus que jamais dans la capacité à guider le processus de la pensée critique et le développement de l’autonomie intellectuelle. C’est précisément ce que permet l’enseignement explicite en offrant un cadre structuré, mais flexible, pour accompagner chaque élève.
2. Mettre en place un processus d’apprentissage et d’évaluation continu
L’évaluation, conçue pour observer directement ce qui a été enseigné de manière explicite, permet de mesurer si les concepts et les stratégies présentés en classe sont maitrisés ou non par les étudiants et les étudiantes.
Dans mon approche expérimentale, j’utilise des critères réguliers tout au long du trimestre, tant pour les différents artefacts (travaux) qui composent le dossier d’apprentissage (portfolio) que pour l’analyse finale qui certifiera l’atteinte de la compétence. Les critères que j’ai choisis pour évaluer les compétences en littératie sont inspirés de l’approche ELLAC:
- la structure: organisation logique et cohérente des idées (15%)
On évalue l’organisation logique et cohérente des idées. Une bonne structure permet de suivre clairement le cheminement de la pensée, en mettant l’accent sur la présence, l’organisation et la cohérence des éléments clés.
- la rigueur: exhaustivité et systématicité des observations (20%)
On se concentre sur l’exhaustivité et la systématicité des observations. Un travail rigoureux démontre une capacité à observer quantitativement et méthodiquement, à établir des liens entre les éléments et à produire une synthèse bien intégrée. Ce critère va de la progression d’une approche superficielle à une analyse plus exhaustive et généralisable.
- la plausibilité: crédibilité et pertinence des preuves (10%)
On s’intéresse à la crédibilité et au caractère convaincant de l’analyse. On évalue l’utilisation de preuves pertinentes, leur contextualisation et la force du lien entre l’interprétation et les preuves utilisées. La qualité de la plausibilité va d’affirmations non justifiées à des explications riches et bien étayées.
- la nuance: finesse et richesse du regard analytique (25%)
La nuance représente la finesse et la richesse des observations. Elle se manifeste par des inférences judicieuses, des déductions et inductions pertinentes et par une capacité à voir au-delà des oppositions binaires. Une analyse nuancée démontre une compréhension sophistiquée, voire originale. Elle montre une capacité à articuler des subtilités et à les généraliser.
- la qualité de la langue (30%)
Appliqués de façon constante durant toute la session, ces 5 critères me permettent d’évaluer assez aisément le développement des élèves en littératie.
Objectif: créer une boucle d’apprentissage
En travaillant toujours avec les mêmes critères, je suis en mesure de les ajuster régulièrement et de les rendre plus «universels» et applicables à tous les travaux. De leur côté, les élèves les comprennent de mieux en mieux et se les approprient tout autant. La méthode est efficace pour identifier de manière longitudinale les critères qui se révèlent les mieux maitrisés ou non.
Tout comme l’élève, je peux constater un problème récurrent de structure, de nuance ou de plausibilité. La récurrence a ceci de bon puisqu’elle permet de confirmer les forces et les faiblesses et de fixer des objectifs concrets et ciblés.
J’utilise l’IA pour analyser les données principales. L’IA est en mesure de voir des schémas récurrents dans l’apprentissage et parfois les blocages qui surgissent et qui indiquent l’urgence d’une intervention.
À partir de ces pistes, je peux créer un dossier d’apprentissage dynamique et engageant. Les étudiants et les étudiantes reçoivent une rétroaction fréquente et précise qui illustre clairement leur progression et les aspects à améliorer. Cette boucle de rétroaction transforme l’enseignement et l’apprentissage en un processus très interactif, ancré dans des compétences concrètes et observables de part et d’autre. C’est très motivant, parce que l’apprentissage est visible, autant par moi que par l’élève.
3. Mettre en œuvre une pratique alternative de notation
La problématique des notes traditionnelles
Susan Blum, dans Ungrading[en anglais], identifie plusieurs problèmes inhérents aux systèmes de notation traditionnels qui justifient le passage à des pratiques alternatives de notation (PAN). Tout d’abord, l’inconsistance et la subjectivité des notes sont des enjeux majeurs. Blum cite des recherches datant de 1912 à nos jours qui montrent une grande variabilité dans l’attribution des notes par différents évaluateurs ou évaluatrices pour un même travail, remettant en question leur fiabilité. De plus, comme le relève le Conseil supérieur de l’éducation dans son rapport Évaluer pour que ça compte vraiment [PDF], les notes traditionnelles échouent souvent à communiquer une rétroaction substantielle et utile aux étudiants et aux étudiantes. Elles tendent à favoriser une mentalité de «chasse aux points» plutôt qu’un véritable engagement dans l’apprentissage, décourageant la prise de risque intellectuel et la créativité.
La PAN s’inscrit dans une remise en question plus large de l’évaluation traditionnelle. Comme le souligne le Conseil supérieur de l’éducation, les notes chiffrées «ont une valeur informative pauvre et contribuent à véhiculer une vision techniciste et comptable de l’évaluation». C’est pourquoi j’ai choisi d’adopter, en plus d’une pratique d’évaluation continue, une pratique alternative de notation en abandonnant les notes chiffrées en cours de session au profit d’une évaluation qualitative centrée sur la progression. Cette approche s’aligne avec les recherches récentes qui montrent que l’évaluation, plutôt que de simplement mesurer l’apprentissage, devrait le soutenir activement (Clark et Talbert, 2023 [en anglais]; Nilson, 2014 [en anglais]; Feldman, 2023 [en anglais]; Pasquini, 2021)
Le système traditionnel peut également générer du stress et de l’anxiété chez les élèves, nuisant potentiellement à leur apprentissage. Enfin, la note sommative peut parfois conduire à des comportements indésirables comme la tricherie ou la recherche de cours «faciles» pour améliorer sa moyenne, détournant ainsi l’attention de l’objectif principal qui est l’apprentissage. Ces défis soulignent la nécessité de repenser nos approches d’évaluation pour créer des environnements d’apprentissage plus équitables, motivants et centrés sur le développement réel des compétences des élèves.
À l’instar des collègues Bruno Voisard, Caroline Cormier et François Arseneault-Hubert, qui enseignent en chimie au Cégep André-Laurendeau et qui ont publié dans Pédagogie collégiale un article à ce sujet, j’ai décidé d’expérimenter moi aussi une PAN.
Le cœur du système que j’ai mis en place repose sur l’évaluation d’un dossier d’apprentissage (une série d’artefacts ou, plus communément, d’exercices) produit par les élèves tout au long de la session. Chaque artefact est évalué selon les 5 critères mentionnés précédemment:
- la structure
- la rigueur
- la plausibilité
- la nuance
- la qualité du français écrit
Plutôt que d’attribuer des notes chiffrées, j’utilise une échelle à 4 niveaux basée sur la taxonomie SOLO, allant de «Incomplet (I)» à «Étendu (E)». Cette approche, comme le souligne Linda Nilson dans Specifications Grading[en anglais], permet de «concentrer notre énergie sur le développement d’attentes et d’exigences détaillées pour tous les élèves et de les communiquer clairement» [ma traduction].
Des niveaux de maitrise et une note globale
La taxonomie SOLO permet d’évaluer la progression des apprentissages selon 4 niveaux de maitrise codifiés. Ainsi, pour chaque critère d’évaluation, j’accorde une cote (I, D, M ou E) à l’élève :
- Incomplet/insuffisant (I)
L’élève ne démontre pas encore une compréhension suffisante du concept ou de la stratégie. C’est un niveau unistructurel où la construction est parcellaire et en deçà du seuil requis.
- En développement (D)
L’élève montre une compréhension d’éléments multiples (une compréhension multistructurelle), mais pas encore intégrée.
- Maitrisé (M)
L’élève démontre une compréhension relationnelle du concept ou de la stratégie.
- Étendu (E)
L’élève montre une certaine capacité d’abstraction et la capacité d’appliquer le concept de manière plus étendue. Ses idées sont parfois originales et créatives.
Ces niveaux servent de base à une rétroaction personnalisée pour chaque élève, s’appuyant sur une banque de 16 commentaires prérédigés qui combinent 4 critères d’évaluation avec 4 niveaux de maitrise différents.
Pour établir le niveau global de l’élève, j’utilise une formule conditionnelle, développée avec l’aide de l’IA.
Pour obtenir un niveau Étendu (E), 2 conditions doivent être simultanément remplies. L’élève doit avoir:
- obtenu au moins le niveau Maitrisé (M) dans les 5 critères
- atteint le niveau Étendu (E) dans au moins 3 critères
Si les conditions d’excellence ne sont pas atteintes (minimum M partout avec 3 E), le niveau est alors déterminé par la moyenne globale selon des seuils précis
Contrairement à une notation chiffrée liée à une moyenne de groupe et à des écarts, la notation par cotes est moins axée sur la comparaison entre les élèves.
Un aspect très important de ce système est l’accent mis sur la progression de l’élève plutôt que sur une performance ponctuelle. La note finale du portfolio est déterminée par les dernières productions de la session. Cette approche s’aligne avec la vision de David Clark et Robert Talbert dans Grading for Growth [en anglais], qui soulignent l’importance de déplacer l’attention des points vers l’apprentissage («shift the focus from points to learning»). En effet, ce système encourage les élèves à voir chaque artefact comme une opportunité d’apprentissage plutôt que de simples points à gagner.
Le dispositif des jetons de reprise
Pour soutenir cette vision de l’apprentissage continu, chaque élève reçoit 2 jetons au début de la session, utilisables pour reprendre et améliorer un artefact. Plus qu’une simple 2e chance, ces jetons font partie intégrante du processus d’apprentissage: les élèves doivent réfléchir à leur travail initial, identifier les aspects à améliorer et planifier leurs modifications.
Cette approche révèle une prise de conscience intéressante: plusieurs élèves choisissent stratégiquement de reprendre des artefacts situés tôt dans leur démarche, comprenant que l’amélioration d’un travail initial (stratégies de lecture, carte mentale, plan) influence positivement toute la suite du processus. Cette utilisation des jetons témoigne d’un engagement dans l’apprentissage, où chaque étape est perçue comme une opportunité de renforcer les fondations du travail final. Comme le note Susan Blum dans Ungrading [en anglais], de telles approches alternatives à la notation traditionnelle peuvent «réduire le stress des étudiants et étudiantes et les encourager à prendre des risques» [ma traduction].
Cette approche alternative de l’évaluation a été expérimentée lors de la session d’hiver 2024, produisant des résultats encourageants. Même sans le système de jetons, que je n’ai introduit qu’à l’automne 2024, j’ai observé un impact significatif sur l’engagement des élèves: 34 élèves sur 44 (77%) ont non seulement complété plus de 80% des artefacts du portfolio, mais ont aussi démontré une progression mesurable de leurs compétences au fil de la session. Ces observations préliminaires suggèrent que le système atteint son objectif principal: favoriser un engagement soutenu dans l’apprentissage tout en maintenant des standards de performance élevés.
Une transformation de l’évaluation
Ce système d’évaluation rompt avec la logique traditionnelle de l’évaluation. Plutôt que de simplement accumuler des points, les étudiants et étudiantes sont encouragés à s’engager dans un processus d’apprentissage continu. Comme le souligne le Conseil supérieur de l’éducation, il est important de «briser la logique comptable de l’évaluation» (p. 8 [PDF]) pour favoriser un apprentissage authentique.
En plaçant l’apprentissage au centre du processus d’évaluation, nous créons un environnement où les élèves peuvent prendre des risques, apprendre de leurs erreurs et développer une véritable autonomie intellectuelle. Les résultats préliminaires sont prometteurs, mais ce n’est qu’un début. La prochaine étape consistera à affiner cette approche en fonction des retours des élèves.
4. Appliquer un système de monitorage de l’apprentissage
J’ai cherché un moyen de dépister rapidement les élèves en difficulté ou à risque d’échec afin de les accompagner très tôt dans le processus d’apprentissage. Certes, on peut se fier aux résultats scolaires des élèves pour cela, mais, à mon avis, la performance scolaire seule est insuffisante pour orienter le suivi et l’accompagnement des élèves. De plus, je pense que, pour avoir un véritable impact sur l’apprentissage et pour que celui-ci soit pérenne, les interventions auprès des élèves doivent se faire en amont des évaluations sommatives.
J’ai identifié 3 indices clés pour le dépistage des élèves en difficulté. Je compile des informations au sujet de ces indices dans un tableur Numbers (l’équivalent d’Excel dans la suite iWork).
- l’assiduité (A)
Les étudiants et les étudiantes présents en classe sont davantage exposés au contenu, aux explications, aux discussions, aux pratiques guidées. Cela favorise une meilleure compréhension et rétention des informations.Je note donc dans mon tableur la présence en classe de chaque élève en indiquant les heures de cours auxquelles il ou elle assiste.

Aperçu de la feuille de mon tableur dans laquelle je compile les données relatives à l’assiduité des élèves
- la complétion des travaux (C)
Cet indice reflète la constance et la persévérance de l’élève dans ses efforts. Il donne une idée de la régularité avec laquelle l’élève remet ses travaux, sa volonté de les reprendre pour s’améliorer ainsi que son respect des délais.

Aperçu de la feuille de mon tableur dans laquelle je compile les données relatives à la complétion des travaux par les élèves
Dans la colonne R du tableau, j’écris 1 si le travail a été remis, rien si le travail n’a pas été fait. Dans la colonne N, j’indique la cote globale pondérée de l’élève pour ce travail, sous la forme d’un chiffre de 1 à 4 (insuffisant (I) = 1, en développement (D) = 2, maitrisé (M) = 3 et étendu (E) = 4). (La conversion des lettres en chiffres facilite l’analyse des données, mais elle ne correspond pas à une note, l’élève ne reçoit jamais de note chiffrée)
- la performance (P)
Ailleurs dans le tableur, je note les résultats détaillés de l’élève en fonction des 5 critères d’évaluation (structure, rigueur, plausibilité, nuance et qualité de la langue). De plus, j’entre les données sur le nombre de mots et le nombre d’erreurs, car cela donne une idée de la position de l’élève face à l’objectif linguistique de l’Épreuve uniforme de français (EUF).
-

Aperçu de la feuille de mon tableur dans laquelle je compile les données relatives à la performance des élèves
À partir de ces 3 indices directs, compilés dans un tableur pour chaque élève, je calcule des indices composites qui me donnent d’autres informations:
- mobilisation (M): moyenne de l’assiduité et de la complétion des travaux
- rendement (R): produit de la performance et de la complétion des travaux
- engagement (E): produit pondéré de l’assiduité, de la complétion des travaux et de la performance
- risque d’échec: inversement proportionnel à l’engagement (1 – E)
Ce système de monitorage, que j’expérimente depuis l’hiver 2024, n’a pas du tout la prétention d’être scientifique. Je l’utilise simplement comme un outil personnel pour guider mes interventions pédagogiques. Pourtant, des corrélations élevées sont apparues entre l’assiduité, la complétion des travaux et la performance.
Les données brutes ne disent pas grand-chose. Dans mon tableur, une feuille traduit les indices numériques en descriptions qualitatives (d’après une échelle que j’ai établie). Cela me permet de visualiser des informations qui ne sont pas toujours très explicites en classe.
Le système permet non seulement de suivre la maitrise des objectifs d’apprentissage, mais aussi l’engagement global de l’élève dans le cours. Cela me permet d’intervenir de manière ciblée pour soutenir le développement des compétences en lecture, en écriture et en pensée critique, compétences essentielles à la littératie. Les cellules colorées du tableur me permettent de savoir en un clin d’œil les interventions à prioriser.
J’ai utilisé l’IA pour développer les formules mathématiques à entrer dans Numbers pour classer et prioriser les informations correctement. Ainsi, l’IA a servi à créer les formules qui permettent de poser un diagnostic sur la situation de chaque élève. J’ai utilisé Claude 3.5 Sonnet pour identifier différents types de tendances (patterns) dans la progression des apprentissages.
Le système utilise un tableur avec surlignement conditionnel pour créer un tableau de bord visuel. Les données quantitatives sont automatiquement traduites en interprétations qualitatives pour guider les interventions. Une grille d’évaluation holistique basée sur la taxonomie SOLO permet d’évaluer les niveaux de maitrise de façon descriptive et informative.

Aperçu de mon tableur, avec les diagnostics de la situation de chaque élève établis grâce à des formules mathématiques élaborées par l’IA
Aspects pratiques et mise en œuvre
La mise en place du système commence par la configuration d’une seule ligne dans le tableur, le reste étant automatisé. La saisie hebdomadaire des données est rapide, environ 5 minutes. Le système permet également un suivi détaillé des types d’erreurs en français, facilitant un diagnostic précis des difficultés.
5. Adapter le modèle de réponse à l’intervention pour guider l’accompagnement
Le modèle de réponse à l’intervention traditionnel
Le modèle de la réponse à l’intervention (RAI) est une approche systématique visant à identifier et soutenir les élèves en difficulté. Au Québec, son application est bien documentée [PDF] au primaire et au secondaire.
Le modèle propose 3 niveaux d’intervention progressifs:
- enseignement de haute qualité pour tout le monde (80% des interventions)
- interventions ciblées (15%)
- interventions intensives individualisées (5%)
C’est bien beau de diagnostiquer les besoins, mais encore faut-il être en mesure d’y répondre et d’intervenir de façon adéquate. L’intérêt du modèle RAI réside dans son approche systématique et préventive. Cependant, la répartition traditionnelle 80-15-5 ne correspond pas tout à fait à la réalité d’un «cours défi» du collégial où une majorité des élèves ont besoin d’une forme d’accompagnement intensif.
Une adaptation
Face à cette réalité où une majorité des élèves nécessitent un soutien accru, j’ai développé une adaptation (pas très orthodoxe, je l’avoue) du modèle RAI qui maintient 3 niveaux, mais en redéfinit la distribution et l’intensité. L’intensification des interventions ne signifie pas un changement radical d’approche, mais plutôt une continuité renforcée. Comme le précise le Référentiel d’intervention en écriture [PDF], certains élèves «ne progressent pas de façon satisfaisante malgré une intervention efficace au niveau 1». Cette continuité permet de maintenir la cohérence des apprentissages tout en augmentant le niveau de soutien.
Niveau 1 — Enseignement universel avec accompagnement intégré
Les interventions de ce niveau:
- reconnaissent que tous les étudiants et toutes les étudiantes font face aux défis inhérents à un cours exigeant
- proposent des vérifications fréquentes et systématiques de la compréhension
- intègrent naturellement l’accompagnement personnalisé dans la pratique guidée
- offrent un accompagnement flexible qui s’ajuste aux besoins de chaque élève
Niveau 2 — Intervention intensive personnalisée
Les interventions de ce niveau:
- s’adressent aux élèves qui font face temporairement ou durablement à des défis supplémentaires
- impliquent une approche proactive de la part de l’enseignant
- offrent des opportunités de reprise et de rattrapage
- proposent un accompagnement accru qui se fait en classe
- reconnaissent le caractère évolutif des besoins qui peuvent varier selon les circonstances
Niveau 3 — Intervention très intensive ou spécialisée
Les interventions de ce niveau:
- concernent les élèves qui nécessitent un soutien substantiel et constant
- se déroulent principalement hors classe sur rendez-vous
- impliquent absolument une aide spécialisée (enseignant, CAF, API, services adaptés)
- permettent un accompagnement plus approfondi et hautement personnalisé
Cas types et observations
Voici des cas types qui montrent concrètement comment le modèle RAI s’applique dans ce cours de littérature.
Le cas de Marie illustre l’efficacité d’une intervention préventive de niveau 1. Consciente de ses défis dès l’évaluation diagnostique initiale, elle s’est rapidement inscrite au CAF. Cette proactivité, combinée à une assiduité et une complétion de tous les artefacts, lui a permis de progresser constamment. Son utilisation stratégique d’un jeton de reprise démontre sa capacité d’autorégulation. La progression graduelle de ses résultats, insatisfaisants en début de session, mais montrant finalement une bonne maitrise des concepts une fois rendue au 12e artefact, témoigne de l’efficacité d’un accompagnement universel bien utilisé.
Le parcours de Samuel illustre l’impact d’une intervention de niveau 2 bien ciblée. Après un début difficile marqué par des absences et 3 artefacts non complétés, une prise en charge à la 5e semaine a permis un revirement significatif. L’utilisation stratégique de ses jetons pour reprendre les 2 travaux, combinée à une amélioration de son assiduité, a contribué à ce revirement. Sa progression démontre l’efficacité d’une intervention modérée permettant un «raccrochage» après un départ difficile.
- Intervention de niveau 3 — Cas 1
Le cas de Léa souligne l’importance d’une intervention de niveau 3 face à des difficultés complexes. Malgré une inscription précoce au CAF et un taux de complétion parfait des artefacts, ses difficultés linguistiques persistent. Son assiduité irrégulière (83%) et l’utilisation maximale de ses jetons de reprise suggèrent des obstacles plus profonds nécessitant potentiellement un diagnostic et un accompagnement spécialisé par les services adaptés. Malheureusement, le diagnostic ne vient pas.
- Intervention de niveau 3 — Cas 2
Sofia illustre la pertinence d’une intervention intensive et coordonnée. Étudiante internationale confrontée à des défis linguistiques et d’adaptation culturelle, elle maintient une assiduité remarquable (98%) et complète tous ses artefacts malgré des performances fluctuantes. La collaboration entre différents services (aide pédagogique, travailleuse sociale) et des rencontres hebdomadaires avec moi ont permis de stabiliser sa situation. Son cas démontre l’importance d’une approche holistique dans l’intervention de niveau 3, particulièrement pour les élèves cumulant plusieurs défis.
Le plus difficile, je trouve, c’est de maintenir des attentes élevées tout en demeurant réaliste sur les résultats escomptés. C’est ce que ces 4 exemples illustrent. Malgré tous ses efforts, la personne enseignante est parfois impuissante devant une combinaison de facteurs défavorables.
Perspectives et limites
Comme le souligne le Référentiel d’intervention en écriture [PDF], les interventions doivent être suffisamment différenciées pour assurer la progression des élèves. Mais la plus grande difficulté de l’application du modèle RAI en classe demeure la gestion du temps et de l’espace. Honnêtement, je ne suffis pas aux interventions. Pour y parvenir, on peut peut-être envisager (ou rêver à) un réaménagement des ressources actuelles et un travail d’équipe plus concerté.
On pourrait imaginer, par exemple, que cette adaptation se concrétise à travers un Centre d’aide en littératie et en français écrit, une structure permettant d’opérationnaliser les différents niveaux d’intervention. Ça semble être ce qui se fait au Cégep Limoilou et c’est très inspirant. Les interventions de niveau 1 resteraient en classe, celles de niveau 2 prendraient la forme d’ateliers au Centre d’aide, et les interventions de niveau 3 se dérouleraient dans un cadre individualisé. Cette structure faciliterait la coordination entre intervenants et intervenantes tout en assurant un suivi systématique des progrès. Le défi principal est l’organisation des interventions intensives dans un horaire peu flexible.
Au-delà de ces défis, cette exploration d’une adaptation du modèle RAI au contexte collégial montre qu’il est possible de structurer notre accompagnement pour mieux soutenir la réussite. L’expérience nous rappelle que la qualité de la relation pédagogique reste au cœur de l’apprentissage. Les outils de suivi ne sont que des moyens d’actualiser cette dimension fondamentalement humaine de l’enseignement.
6. Automatiser certaines tâches
Pour produire des rétroactions personnalisées et étoffées pour les élèves, j’ai eu l’idée d’exploiter Claude.
L’utilisation de l’IA en évaluation soulève des enjeux de confidentialité et d’équité. J’ai donc systématiquement anonymisé les copies et maintenu une supervision constante. Les élèves ont été informés que leur rétroaction était générée par IA sous ma supervision, tandis que l’évaluation relevait uniquement de mon jugement.
J’en suis venu à développer un processus en 4 étapes.
-
- la documentation préalable
La 1re étape consiste à construire une base documentaire pour l’IA afin de contextualiser ses réponses. Je dépose dans sa banque de connaissances plusieurs documents qui fournissent le cadre de référence nécessaire à une évaluation cohérente.
- la structuration du processus évaluatif
La 2e étape met en place une routine d’évaluation systématique. Je commence toujours par vérifier que l’IA a bien assimilé les critères et le contexte en lui demandant de les reformuler.Ensuite, j’adopte une approche séquentielle assez stricte. Chaque travail est anonymisé et déposé individuellement dans la banque de connaissances. Il est ensuite évalué, puis retiré avant de passer au suivant.Cette discipline s’est révélée essentielle après avoir constaté que l’IA pouvait parfois «contaminer» son analyse en mélangeant des éléments de différents travaux, créant ainsi des «fabulations».Non seulement le travail de l’élève est anonymisé pour l’IA, il l’est également pour moi; ceci permet de réduire certains biais qui pourraient influer sur mon processus. Je laisse l’IA compléter son analyse avant d’intervenir, mais je n’hésite pas à la corriger quand elle fait des erreurs d’interprétation. La nécessité d’un cadrage plus précis est apparue lors d’incidents révélateurs et cette expérience a conduit à l’établissement d’une règle fondamentale à imposer à l’IA: ne jamais extrapoler au-delà des données disponibles.
- l’itération de la rétroaction
La 3e étape prend la forme d’un bref «dialogue» où je confirme ou infirme l’évaluation proposée par l’IA. Quand je repère une erreur d’analyse, je ne me contente pas de la signaler: j’explique mon raisonnement à l’IA et je détaille les éléments qui justifient mon évaluation différente. Au besoin, j’apporte des modifications à l’invite (prompt) système et j’en informe l’IA qui doit la relire avant de poursuivre. Je refais donc ce que je faisais auparavant avec ma grille d’évaluation sur papier.Le travail d’évaluation est lui-même constamment autoévalué. Je m’interroge sans cesse sur ma façon de faire et l’IA participe à ce recul critique, parfois comme un «collègue» qui connait mes objectifs et à qui je demande un regard extérieur. J’ajuste fréquemment les paramètres pour aligner nos lectures.
- la standardisation des rétroactionsLa dernière étape concerne la production des rétroactions finales, qui est le véritable but de l’exercice.J’ai développé, là aussi, un cadre assez strict pour la rédaction des rétroactions. Elles doivent:
- se concentrer sur le travail plutôt que sur l’élève
- offrir des suggestions d’amélioration concrètes
- adopter un ton encourageant qui favorise l’autonomie
Chaque rétroaction doit citer des passages spécifiques du travail et proposer des pistes d’amélioration ciblées.
Le format est aussi standardisé: les rétroactions sont structurées en 5 colonnes (pour les 5 critères) dans un format CSV, ce qui facilite leur intégration dans mon tableur de suivi.

Exemple d’une rétroaction produite par Claude. (Mon évaluation est différente de celle de Claude.) L’IA prépare une rétroaction en fonction du code DDDDI que je lui transmets. La rétroaction adopte une structure en 5 sections distinctes, chacune correspondant à un critère d’évaluation précis, avec une introduction contextuelle qui situe l’artefact et son objectif. On remarque son équilibre entre évaluation et conseils pratiques, son utilisation d’exemples tirés directement du travail de l’élève pour illustrer les concepts et son ton constructif qui encourage l’amélioration. Je révise la rétroaction et la modifie parfois (par exemple: ici, en écrivant «l’autrice veux», l’élève a fait une erreur de conjugaison, pas une erreur de syntaxe).
Cette méthodologie permet d’assurer la qualité et la cohérence des rétroactions. Parce que l’objectif, il faut le rappeler, n’est pas tant d’évaluer et d’attribuer une note que de fournir un commentaire constructif qui puisse orienter efficacement l’apprentissage de l’élève.
Le secret est [en bonne partie] dans la requête système
La requête système (prompt système) établit le contexte d’évaluation, décrit la tâche demandée et détaille le processus d’évaluation. Elle fournit des instructions précises pour la rédaction des rétroactions et spécifie le format technique attendu. Elle se termine par des directives comportementales guidant le «raisonnement» de l’IA.

La requête système s’articule autour de 7 sections fondamentales qui définissent le cadre complet de l’évaluation.
Paradoxalement, une requête plus sophistiquée a diminué la concordance entre mes évaluations et celles de l’IA (de 85,8% à 74,8%). L’IA s’est montrée plus sévère. Ceci suggère que la formalisation plus stricte a peut-être réduit la flexibilité interprétative.
Cette divergence révèle une dimension de l’évaluation qui échappe à la formalisation algorithmique: le jugement humain intègre inconsciemment le contexte d’apprentissage, la progression personnelle et l’engagement de l’élève. Ces éléments, difficiles à capturer dans une invite, constituent la «dimension humaine» essentielle de la relation pédagogique.
L’humain n’évalue pas comme un robot. Le jugement de l’enseignant ou de l’enseignante intègre inconsciemment une multitude de facteurs contextuels comme:
- les défis qui sont propres à l’élève
- la progression personnelle (et non linéaire) de l’élève à travers les travaux
- le degré d’engagement de l’élève dans le travail et dans le cours en fonction de sa motivation
- la perception que l’élève a de son efficacité personnelle
- le contexte d’enseignement en général
C’est un point de vue subjectif qui demeure important dans l’évaluation et la communication de son résultat.
L’objectif ici n’était absolument pas de déléguer la tâche de l’évaluation à une machine. Il était plutôt de fournir une rétroaction différenciée en fonction d’une évaluation donnée. Par contre, cette rétroaction avait pour source une évaluation du travail de chaque élève. Au-delà de la concordance statistique des évaluations, c’est la qualité des rétroactions qui était observée. Celles-ci étaient produites par mon évaluation, en fonction de critères précis. Cependant, au lieu d’être seulement composées de commentaires prérédigés qui servaient ici de balises, l’IA devait bonifier et personnaliser ces rétroactions en fonction du travail réel de l’élève.

Exemple d’une évaluation faite par Claude. Claude me présente toujours une évaluation argumentée en fonction de critères clairement définis. Depuis la fin de l’automne 2024, je peux choisir le style de ses explications. Elles peuvent être standards, concises, explicatives ou formelles.
L’IA a démontré une capacité impressionnante à ancrer ses commentaires dans le travail de chaque élève, citant précisément les passages pertinents. Chaque rétroaction identifie aussi les types d’erreurs de français les plus fréquents, offrant des cibles précises pour l’autocorrection.

Rétroaction produite par Claude, après que je lui ai précisé que la rétroaction devait être USB: utile, spécifique et bienveillante. Claude a compris la consigne!
Chaque rétroaction générée par Claude passe par une étape de relecture et, si nécessaire, de révision avant d’être transmise à l’élève. Cette supervision me permet de valider la pertinence des commentaires, de les ajuster éventuellement et d’assurer une cohérence avec les objectifs de l’exercice. Je porte une attention particulière à la vérification des citations et des références afin de garantir la validité (l’absence d’hallucination), la précision et la justesse de chaque retour. Les rétroactions riches et pertinentes maintiennent une charge de travail qui est, somme toute, assez raisonnable.

Ma réaction à l’évaluation d’un travail faite par Claude. Il faut toujours vérifier et ne rien tenir pour acquis. Il faut être vigilant.
L’importance du jugement professionnel
Mon expérience avec Claude confirme la pertinence des mises en garde que je lui adresse et souligne l’importance de l’expertise dans le processus d’évaluation. Seul l’enseignant ou l’enseignante possède une compréhension approfondie de la matière, du contexte de la classe et de la progression des élèves. C’est dans cette perspective que la métaphore du «dialogue» avec l’IA a du sens. Plutôt qu’une simple délégation de l’évaluation, il s’agit d’enrichir la pratique professionnelle à travers une «conversation» réfléchie et structurée. Je demande parfois à Claude de m’exposer l’argumentaire de son évaluation. Puis, je lui explique à mon tour pourquoi mon évaluation est plus adéquate. Ceci ne permet pas pour autant à l’IA de s’ajuster pour les évaluations ultérieures, puisque Claude n’apprend pas de nos interactions. Mais ça me permet, à moi, de consolider mon jugement professionnel.

Exemple d’une invite que j’ai soumise à Claude
Parfois, je révise mes consignes à la lumière de l’exercice, de la même façon qu’on demande conseil à un collègue. Je demande à Claude d’améliorer la clarté du travail demandé en fonction de certains éléments explicites.
Je crois que l’IA peut enrichir nos pratiques d’évaluation, particulièrement dans la génération de rétroactions détaillées. La clé réside dans l’équilibre entre l’efficacité de l’automatisation et la richesse du jugement humain.
7. Utiliser l’IA pour produire du matériel pédagogique
Comme il y a longtemps que j’avais donné le cours Écriture et littérature, j’ai eu envie de renouveler mon approche. J’avais donc besoin d’une grande quantité de nouveau matériel pédagogique. En juin 2024, j’ai entrepris de produire un manuel regroupant entre autres:
- la description des concepts ELLAC vus dans le cours et les explications s’y rapportant
- des lexiques spécialisés (sur les émotions, les besoins et les valeurs) et sur les concepts fréquents
- des stratégies de lecture, de rédaction, de révision et de métacognition
- les consignes de tous les travaux à faire pendant la session
- des grilles d’autoévaluation pour chaque travail
Par exemple, pour créer les consignes des travaux, j’ai fourni l’objectif du travail à Claude. J’explique en gros ce que je veux que l’élève fasse et je demande à l’IA de développer une procédure pour les élèves, en imposant souvent quelques éléments de la procédure auxquels je tiens. 5 secondes plus tard, j’obtiens une ébauche de texte qui correspond généralement assez bien à ce que j’ai demandé. Ensuite, je peaufine le résultat et je le modifie jusqu’à ce qu’il me satisfasse. Une fois que c’est devenu un bon exemple de consignes de travaux, je le téléverse dans la banque de connaissances de l’IA. Après cela, Claude pourra le prendre comme modèle pour créer les consignes du prochain travail (visant un autre objectif).

Deux pages extraites de mon manuel; les consignes pour 2 des travaux du portfolio de l’élève et la grille d’autoévaluation correspondante.
À partir d’une simple description de l’objectif pédagogique poursuivi par l’exercice, l’IA m’a aidé à décrire les savoirs, savoir-faire et savoir-être requis, à détailler la tâche et à orienter l’autoévaluation de l’élève.

Deux pages extraites de mon manuel; une description d’une stratégie de révision linguistique à la disposition des élèves.
Le manuel contient 20 stratégies de lecture, 3 de rédaction, 3 de révision et 2 de métacognition, ainsi que les consignes de 14 artefacts. Certaines de ces stratégies doivent obligatoirement être mises en application dans des travaux, d’autres le sont au choix. Il contient aussi des explications, des exemples concrets, des exercices et des tableaux d’autoévaluation qui portent sur les principaux concepts appliqués dans le cours. L’IA m’a aidé à créer et à structurer le tout, puis à uniformiser le contenu.
Sans l’IA, c’est certain que je n’aurais pas pu produire au mois de juin autant de matériel (140 pages) de qualité en 3 semaines. Le trimestre suivant, j’ai analysé les résultats de mes élèves et j’ai tiré des conclusions pour améliorer le matériel et le portfolio. J’ai peaufiné les consignes des travaux et les stratégies avec l’IA pour les rendre plus claires et encore plus accessibles. Ça m’a pris seulement 4 jours pour améliorer et amincir mon document de 115 pages. C’est comme si on était une équipe de 5 personnes à travailler sur le manuel en même temps!

Je demande à l’IA de confirmer la compréhension de mes indications pour la révision. Tout va bien, on peut procéder à la mise à jour du matériel pédagogique pour la session suivante!
En distribuant le manuel aux élèves au début de la session, je leur ai dit que j’avais utilisé l’IA pour le créer. Je l’ai également écrit dans le cahier, pour respecter les bonnes pratiques. J’ai aussi expliqué aux élèves que j’avais vérifié toutes les propositions de Claude pour m’assurer de leur justesse et de leurs qualités pédagogiques. C’est moi qui suis l’expert des contenus du manuel. C’est moi qui suis l’auteur de ce manuel. C’est moi qui ai dit quoi faire à l’IA et qui ai modifié les textes quand il le fallait (ou fait modifier les textes par l’IA avant de les revérifier, dans un processus récursif).
Reconstruire nos pratiques avec l’IA
À la lumière de mon projet pilote, je suis convaincu que l’IA peut nous aider à augmenter la compétence de nos élèves… et la nôtre! Les changements de pratiques qui s’imposent aujourd’hui nous font, d’une certaine façon, traverser les phases du deuil. Après le déni et la colère, etc. vient la reconstruction. Je crois en être là. Je fais de l’IA une utilisation à la fois vigilante et créative, qui peut être bénéfique autant pour moi que pour mes élèves.
D’une part, l’enseignement explicite des stratégies forme la base de cette expérimentation. Elle rend visible le processus d’apprentissage et favorise l’engagement des élèves. Cette approche s’appuie sur une évaluation continue au moyen d’un portfolio de plusieurs artefacts, permettant ainsi un suivi régulier des progrès. La pratique alternative de notation (PAN) transforme l’évaluation d’un outil de «sanction» en levier d’apprentissage en utilisant des niveaux qualitatifs (IDME) plutôt que des notes chiffrées.
D’autre part, le système de monitorage, alimenté par des données sur l’assiduité, la complétion des travaux et la performance (et ses critères), permet d’identifier rapidement les patterns d’apprentissage et les blocages potentiels. Cette information guide l’adaptation du modèle RAI au contexte collégial et permet de structurer les interventions en 3 niveaux d’intensité croissante.
Enfin, l’IA agit comme assistant pédagogique en aidant à créer du matériel d’enseignement (tout en maintenant le jugement professionnel au cœur du processus). L’automatisation de certaines tâches, notamment la génération de rétroactions différenciées, libère du temps pour un accompagnement plus personnalisé et plus chaleureux.
Cette synergie entre différentes approches vise à développer l’autonomie et la résilience des élèves tout en rendant l’enseignement plus efficace et équitable.
Et je crois que ça marche.
Je pense que j’arrive à répondre aux besoins de compétence, d’autonomie et de proximité sociale de mes élèves. En tout cas, j’ai beaucoup appris et je souhaite vous avoir partagé mon expérience avec succès, ne serait-ce qu’en levant certains doutes.
Je vous invite à en faire l’expérience et à me partager vos réflexions!
Super article! C’est très complet, beau travail à vous deux, Grégoire (pour l’intervention pédagogique très intéressante que tu as développée) et Catherine (pour cet article, comme toujours très clair!).