Fermer×
30 janvier 2025

Quelques recommandations issues du rapport Intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques

Quand il est question d’intelligence artificielle générative (IAG), c’est un euphémisme de dire que les choses évoluent rapidement. Malgré cela, le rapport Intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, publié en avril 2024 par le Conseil supérieur de l’éducation (CSE) et la Commission de l’éthique en science et en technologie (CEST), reste très actuel près d’un an après sa publication. Je vous en présente quelques grandes lignes, en m’intéressant surtout aux recommandations destinées aux personnes enseignantes.

Alignement pédagogique

Le 1er aspect de l’utilisation de l’IAG en enseignement supérieur abordé par le rapport est l’importance de l’alignement pédagogique.

L’alignement pédagogique consiste à viser la cohérence entre les objectifs pédagogiques ciblés, les activités proposées aux élèves et les évaluations réalisées. Selon le CSE et la CEST, «l’alignement pédagogique peut servir de repère pour l’intégration de l’IAG en enseignement supérieur».

Il s’agit donc pour les personnes enseignantes de se demander, a priori, quels sont les problèmes à résoudre via les technologies, de réfléchir d’abord aux objectifs pédagogiques de l’usage (ou non) du numérique et de déterminer ensuite comment, s’il y a lieu, les outils numériques peuvent contribuer à l’apprentissage et à l’enseignement.

– Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie (2024), Intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, p. XII

Le rapport cite l’existence de pratiques pédagogiques intégrant l’IAG qui semblent prometteuses, mais précise que le potentiel pédagogique de l’IAG dépend du contexte d’apprentissage.

Par exemple, une utilisation destinée à améliorer le style et la syntaxe d’un texte semble fondamentalement différente d’un usage ayant pour but de bonifier sa teneur et la qualité de son argumentation. Dans certains cas d’usage, l’exercice de réflexion de la personne étudiante pourrait se situer à un bas niveau cognitif et être très peu affecté par l’utilisation de l’IA générative, alors que d’autres cas pourraient impliquer des tâches cognitives de niveau supérieur. Selon l’objectif de l’apprentissage (évaluer la qualité de l’argumentation ou le style de rédaction), ces utilisations pourraient décharger (ou non) la personne étudiante de tâches cognitives déterminantes pour son apprentissage et de leur évaluation afférente […].

– Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie (2024), Intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, p. 21

Le rapport invite à la réflexion au sujet de la décharge cognitive qui peut être associée à certaines technologies. Par exemple, l’accès facile à n’importe quelle information sur internet peut décourager certaines personnes de mémoriser des informations, sachant qu’elles pourront aisément les retrouver sur le web en cas de besoin. (Je plaide coupable! Et j’avoue également réfléchir un peu moins à l’accord des participes passés des verbes pronominaux depuis qu’Antidote passe derrière moi dans tous mes courriels.) Le même type de phénomène pourrait s’observer au fur et à mesure que la place de l’IAG grandira dans nos vies. S’il devient très facile de faire écrire un texte par l’IAG, cela pourrait décourager certaines personnes de développer (ou de maintenir) leurs compétences rédactionnelles ou leur créativité, par exemple.

[E]n réalisant des tâches complexes à la place des personnes étudiantes, les technologies les déchargent d’efforts qui pourraient néanmoins contribuer à leur apprentissage. En effet, certaines tâches laborieuses pouvant être déléguées à l’IA générative pourraient se révéler nécessaires à l’apprentissage des notions fondamentales d’une discipline, par exemple la production de résumés de textes, la rédaction d’essais ou l’exercice de son esprit critique vis-à-vis des connaissances. Ces tâches peuvent être essentielles au développement de la pensée critique et d’autres compétences de haut niveau cognitif chez les personnes étudiantes.

– Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie (2024), Intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, p. 23

Le CSE et la CEST craignent également que l’utilisation de l’IAG décourage «les personnes étudiantes de recourir aux sources primaires, puisque l’exercice s’avère alors plus laborieux que d’interroger un grand modèle de langage».

Le rapport aborde également l’impact du plagiat facilité par l’IAG sur les capacités cognitives des élèves. En effet, puisque les évaluations sont essentielles à l’apprentissage, le plagiat compromet l’apprentissage. (Le plagiat et la tricherie ne sont assurément pas apparus avec l’IAG, mais l’IAG «peut faciliter les entorses à l’intégrité académique en plus de complexifier leur détection et leur preuve».)

En somme, en l’absence de formations et d’encadrements adéquats, l’IA risque de contribuer à modifier le rapport des personnes étudiantes au savoir, en diminuant l’intérêt porté à certains apprentissages tels que ceux liés aux connaissances factuelles.

– Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie (2024), Intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, p. 25

Une recommandation pour les enseignants et enseignantes et les établissements au sujet de l’alignement pédagogique

Le CSE et la CEST recommandent entre autres «[q]ue les personnes enseignantes et les établissements utilisent l’alignement pédagogique comme critère pour évaluer la pertinence de l’intégration de l’IA générative en enseignement supérieur, en évitant notamment les usages de celle-ci qui entraînent une décharge cognitive compromettant l’acquisition de connaissances ou de compétences jugées nécessaires à l’atteinte des objectifs d’apprentissage.»

Intégrité intellectuelle

Les politiques relatives à l’intégrité à l’ère de l’IA

Au sujet de l’utilisation intègre de l’IA, plusieurs questions intéressantes sont formulées:

  • Comment appliquer les règles concernant la citation des sources dans un contexte où l’IAG ne fournit pas de sources ni de références précises?
  • Si on utilise un agent conversationnel pour améliorer la tournure grammaticale d’une phrase, la raccourcir ou la traduire, faut-il en faire mention, même si c’est une tâche laborieuse? Est-ce acceptable d’utiliser l’IAG de cette façon dans le cadre d’une évaluation (comme on utilise un correcteur d’orthographe ou de grammaire classique) ou cela contrevient-il aux règles?
  • L’IAG peut-elle être identifiée comme coautrice d’un travail?

Le CSE et la CEST invitent également à s’interroger sur la nécessité de réviser les politiques relatives à l’intégrité intellectuelle, ou à tout le moins de «préciser comment l’usage de l’IA générative doit être interprété à l’égard des politiques et des balises existantes». Une révision formelle des politiques est longue et complexe. Elle nécessite un recul dont il n’est peut-être pas possible de faire preuve à l’heure actuelle. De plus, cette révision est compliquée du fait que les formes et le contexte des évaluations varient énormément d’un programme à un autre ou d’un cours à un autre.

Une même utilisation de l’IA générative pourrait être considérée comme intègre ou malhonnête selon les modalités et les objectifs de l’évaluation. Certains usages de l’IA générative en contexte d’évaluation pourraient être ou sont déjà encouragés et d’autres, prohibés. Par exemple, [un collège rapporte] que son département d’informatique permet à la population étudiante de s’initier à l’IA générative dans ses travaux, notamment pour résoudre des problèmes de programmation, tandis que, dans son département de philosophie, des dissertations qui étaient généralement rédigées à la maison ne le sont plus pour éviter tout recours à cette technologie. Conséquemment, certains établissements indiquent qu’ils incitent leur personnel enseignant à inscrire au plan de cours les usages permis et prohibés des outils d’IA générative. Cet enjeu renvoie à l’importance […] de se questionner sur l’alignement pédagogique afin de déterminer les utilisations acceptables de ces outils dans un contexte donné.

– Conseil supérieur de l’éducation et Commission de l’éthique en science et en technologie (2024), Intelligence artificielle générative en enseignement supérieur: enjeux pédagogiques et éthiques, p. 36

Même si certaines utilisations de l’IA peuvent être tantôt acceptables, tantôt non, le CSE et la CEST estiment qu’il devrait être clair pour tout le monde que, «à moins d’une indication contraire de l’enseignante ou de l’enseignant, une transcription intégrale d’un contenu produit par l’IA générative sans que la source soit reconnue constitue une forme d’entorse à l’intégrité académique.»

Un autre élément soulevé dans le rapport est la responsabilité du plagiat, que plusieurs font entièrement reposer sur les épaules des étudiants et des étudiantes.  Le CSE et la CEST avancent que cette responsabilité devrait plutôt être partagée entre les établissements, les personnes enseignantes et les personnes étudiantes. Oui, il devrait être clair que «les étudiantes et les étudiants demeurent responsables de tout mettre en œuvre pour s’assurer de l’exactitude du contenu de leurs productions, dans le respect des critères d’intégrité académique.» Toutefois, les établissements devraient «être en mesure de fournir des ressources et des informations adéquates aux personnes enseignantes et étudiantes pour les aider à relever efficacement les défis liés à l’IA générative et à optimiser les possibilités offertes par cet outil».

Ainsi, le CSE et la CEST invitent à la définition de lignes directrices et de balises qui, tout en respectant l’autonomie professionnelle et en favorisant l’innovation pédagogique, devraient inviter «les établissements à ajuster leurs politiques institutionnelles ou leurs règles relatives à l’intégrité académique, ou à préciser comment l’usage de l’IA générative devrait être interprété à l’égard des encadrements existants.»

Détecter le plagiat ou l’empêcher?

Le plagiat existait bien avant l’IAG. Cependant, cette technologie le rend plus accessible que jamais.

Certains logiciels de détection du plagiat existent, mais ils présentent plusieurs failles que relève le rapport:

  • il y a d’importants risques de faux négatifs et de faux positifs
  • il faut soumettre les travaux (propriétés des élèves) à des logiciels en ligne appartenant à des entreprises dont on ne connaît pas les pratiques, ce qui est un enjeu en matière de propriété intellectuelle
  • comme ces logiciels indiquent la probabilité d’un plagiat sans offrir de certitude ni d’explications; leur verdict est insuffisant pour accuser une personne étudiante

Le rapport invite les enseignants et les enseignantes à:

  • montrer l’exemple aux élèves en faisant preuve de transparence auprès de leurs élèves dans leur propre utilisation de l’IAG
  • fournir aux élèves des consignes claires par rapport à l’intégration de références dans leurs travaux
  • favoriser un climat de confiance
    (Le CSE et la CEST notent entre autres qu’«[u]ne forme de présomption de plagiat et de suspicion généralisée pourrait [contraindre les enseignants et les enseignantes] à adopter une posture d’hypervigilance et de contrôle, au détriment de leur rôle initial de pédagogues.»)
  • prioriser des évaluations minimisant les possibilités de plagiat

Concernant l’idée de minimiser les possibilités de plagiat dans les évaluations, le rapport indique que les évaluations les plus à risques seraient celles qui se situent sur le plan des connaissances déclaratives ou qui sont «compartimentée» autour de problèmes précis et circonscrits, et les moins à risques seraient celles qui impliquent des opérations intellectuelles d’un plus haut niveau taxonomique, qui sont plus englobantes de l’entièreté de la compétence.

Le rapport met toutefois en garde contre la tentation de:

  • relever indûment le niveau de certains examens, sans réviser les modalités d’enseignement. Cela pourrait «défavoriser les personnes étudiantes qui peinent déjà à atteindre le seuil de passage».
  • évacuer complètement l’évaluation des savoirs déclaratifs et de la capacité de synthèse. À cet égard, l’évaluation formative pourrait être une voie à prendre.

Au sujet des examens maison, le rapport indique que «certaines autrices et certains auteurs suggèrent de tester les questions avec ChatGPT au préalable et de les retirer lorsque le système montre une trop bonne performance.» Toutefois, «[c]ette pratique pourrait toutefois s’avérer très fastidieuse compte tenu du nombre d’outils d’IA générative qui existent et de leur amélioration continue.»

Dans le cas des critères d’évaluation des examens écrits, le rapport indique que certaines sources proposent de «mettre l’accent sur la cohérence de la présentation, la qualité des références ou l’inclusion des réflexions des apprenantes et des apprenants plutôt que sur la structure et le style du texte».

Quelques auteurs et autrices cités dans le rapport, tout en admettant que les élèves «ont tendance à oublier rapidement le savoir mis sur papier», proposent de revenir aux évaluations papier-crayon sous supervision en classe.

Le CSE et la CEST indiquent toutefois que la consultation qu’ils ont réalisée a mis au jour plusieurs inconvénients à un retour intégral à l’évaluation en classe:

  • certaines compétences sont beaucoup plus difficiles à évaluer que d’autres dans une modalité papier-crayon en classe
  • l’idée de réaliser toutes les évaluations en classe est limitée par des contraintes de ressources (locaux et matériel disponibles) et des contraintes temporelles
  • l’évaluation en classe «prive les étudiantes et étudiants de précieuses heures en classe, remplaçant le temps dévolu au développement de compétence par du temps d’évaluation supervisée»
  • renouveler les évaluations impose de former le personnel enseignant

    À cet égard, le CSE et la CEST recommandent que «le MES offre un soutien au développement professionnel des personnes enseignantes de même que des membres du personnel professionnel (ex.: technopédagogues) en matière d’évaluation des apprentissages». D’ailleurs, une section entière du rapport est dédiée à la compétence numérique.

  • les élèves à besoins particuliers qui ont droit d’utiliser du matériel informatique lors des évaluations autrement réalisées sur papier devraient soit être supervisés, soit utiliser des ordinateurs paramétrés pour bloquer l’accès aux outils d’IA

Alternativement, un article cité dans le rapport propose d’intégrer les outils d’IAG, avec des balises, aux évaluations.

Une recommandation pour les enseignants et les enseignantes au sujet de l’intégrité intellectuelle

Pour s’assurer de l’intégrité intellectuelle, le CSE et la CEST recommandent entre autres que les personnes enseignantes:

  • «au regard d’éventuelles délégations de tâches à l’IA générative, préserve[nt] leur jugement professionnel et [agissent] en accord avec leur responsabilité professionnelle, en particulier pour des tâches dont la réalisation comporte un risque de préjudice, par exemple la correction de travaux»
  • s’appuient «sur les objectifs poursuivis dans leurs cours pour déterminer les types de contributions attendues de la part des personnes étudiantes»
  • «révise[nt] au besoin les modalités d’évaluation des apprentissages de leurs cours, de manière à favoriser une utilisation intègre et adéquate de l’IA générative, tout en préservant l’évaluation des connaissances jugées appropriées, par exemple les connaissances déclaratives»

Protection des renseignements personnels

Finalement, dans une section consacrée à la qualité de l’information, le rapport aborde entre autres la question de la protection des renseignements personnels. Le CSE et la CEST recommandent aux personnes enseignantes qui intègrent l’IAG dans leurs pratiques de:

  • s’assurer que soient expliqués «aux personnes étudiantes, de façon claire et transparente, les risques posés par cet outil relativement aux renseignements personnels et aux droits d’auteur»
  • obtenir,  «le cas échéant, le consentement des personnes étudiantes avant de partager [leurs] productions avec [une IAG], ou avant [de leur imposer] une activité qui implique [qu’elles] partagent leurs productions, des parties de leurs productions ou des informations avec [une IAG], dans le respect des bonnes pratiques en matière de propriété intellectuelle et de protection des renseignements personnels»
  • prévoir «des solutions de remplacement en cas de refus des personnes étudiantes de partager un contenu avec des outils d’IA générative, lorsque ce refus est raisonnable étant donné les objectifs d’apprentissage. Ces solutions devraient être équivalentes quant aux objectifs d’apprentissage, aux critères d’évaluation, au temps et à l’effort de travail, et ce, tant pour les personnes enseignantes que pour les personnes étudiantes. De plus, ces dernières devraient être informées de l’existence de ces solutions en amont de la demande de consentement.»

Ce que vous en retenez

Avez-vous lu le rapport du CSE et de la CEST? Les éléments clés que vous avez retenus sont-ils les mêmes que moi? Sinon, quelles sont les idées qui vous ont marqué?

Que vous ayez lu le rapport complet ou seulement les quelques passages que j’en présente ici, y avez-vous trouvé des idées intéressantes pour adapter vos pratiques avec l’implantation de l’IAG? Quels changements avez-vous déjà dû apporter à vos pratiques, s’il y a lieu? Quelles sont les difficultés qui subsistent?

Partagez-moi le tout dans la zone de commentaires!

À propos de l'auteure

Catherine Rhéaume

Catherine Rhéaume est éditrice et rédactrice pour Éductive (auparavant Profweb) depuis 2013. Elle est enseignante de physique au Cégep Limoilou. Elle est également auteure de différents cahiers d’apprentissage pour la physique et pour la science et la technologie au secondaire. Son travail pour Éductive l’amène tout naturellement à s’intéresser à la pédagogie numérique et à l’innovation pédagogique.

S’abonner
Notification pour
guest

1 Commentaire
Le plus ancien
Le plus récent Le plus populaire
Commentaires en ligne
Afficher tous les commentaires
Yves mUNN
6 février 2025 16h20

Bravo Catherine,
Belle récapitulation des recommandations destinées aux enseignantes et enseignants. Ça fait du bien de revoir cela presque un an après sa publication à la lumière des avancées d’outils d’IA. Le rapport met en évidence les principes de base, mais j’ai hâte de voir ce que le comité nouvellement créé, l’Instance de concertation nationale sur l’intelligence artificielle en enseignement supérieur, va produire.