Fermer×
25 novembre 2024

L’intelligence artificielle en classe: faut-il surveiller ou encadrer?

Avec l’avènement de l’intelligence artificielle (IA), les modèles de langage évolués, notamment GPT-4 (OpenAI) et Copilot (Microsoft), ont rendu possible la génération de textes cohérents et détaillés sur presque tous les sujets, en quelques secondes. Cela est aussi attirant qu’inquiétant, car cela remet en question des pratiques pédagogiques établies et suscite des craintes quant à l’intégrité des évaluations. Les détecteurs d’IA peuvent jouer un rôle dans la prévention et la surveillance de la tricherie, mais leur fiabilité est limitée. Dans ce contexte, pour maximiser les bénéfices pédagogiques de l’IA tout en limitant les risques pour l’intégrité des évaluations et la validité des diplômes, il faut miser sur l’éducation des élèves à l’utilisation responsable de l’IA, mais aussi adapter les méthodes d’évaluation.

Des avantages qui vont de pair avec des risques

Pour un enseignant ou une enseignante, l’utilisation de l’IA présente des avantages potentiels, tels que :

  • fournir des assistants pédagogiques aux élèves
  • aider les élèves à comprendre des concepts complexes
  • offrir aux élèves des rétroactions instantanées

Cependant, Dalalah et Dalalah (2023) [en anglais] et Sweeney (2023) [en anglais] soulignent que l’IA rend aussi la tricherie plus accessible. Les étudiants et étudiantes peuvent facilement générer des travaux écrits en utilisant des modèles de langage comme ChatGPT, ce qui menace directement l’intégrité intellectuelle et le processus d’acquisition de compétences. Sweeney (2023) évoque même l’émergence d’une «normalisation» de l’utilisation des IA, où les étudiants et étudiantes ne perçoivent plus la distinction entre travail authentique et triche, car ils et elles sont poussés par la commodité et la pression de performances scolaires élevées.

Weber-Wulff et al. (2023) [en anglais] révèlent que les institutions ressentent une pression accrue pour détecter ces pratiques, car la crédibilité des diplômes est en jeu. Les détecteurs d’IA apparaissent comme l’une des solutions principales pour identifier la tricherie et pour protéger la validité des diplômes et la réputation des établissements.

Parmi la liste grandissante de détecteurs d’IA sur le marché, il y a notamment:

Chacun de ces outils propose des fonctionnalités variées, allant de l’analyse textuelle à la détection avancée de modèles linguistiques propres aux textes générés par des IA.

L’attrait des détecteurs d’IA en enseignement supérieur

En théorie, les détecteurs d’IA devraient jouer un rôle clé dans la lutte contre la tricherie générée par l’IA en permettant non seulement d’identifier les travaux qui sont rédigés par l’IA, mais en agissant également comme mesure dissuasive à la tricherie.

Comme le soulignent Sadasivan et al. (2024) [PDF, en anglais], sans éliminer complètement la tricherie, les détecteurs d’IA peuvent réduire son incidence en sensibilisant les étudiants et étudiantes aux enjeux de l’intégrité intellectuelle.

L’efficacité des détecteurs d’IA

Si les détecteurs d’IA semblent avantageux, les recherches montrent néanmoins que leur efficacité reste limitée. Sadasivan et al. (2024) ont étudié les performances des détecteurs disponibles, révélant qu’ils échouent fréquemment à détecter des textes générés par IA, en particulier lorsque ces textes ont été légèrement modifiés, paraphrasés ou traduits.

Perkins et al. (2023) [en anglais] ont quant à eux observé une efficacité d’environ 54% pour détecter les textes produits par ChatGPT, ce qui signifie qu’une grande partie des contenus générés par l’IA échappe à la détection, même avec des systèmes avancés comme Turnitin [en anglais]. L’une des méthodes les plus efficace pour berner les détecteurs d’IA consiste en des attaques de paraphrases récursive, où le texte soumis à l’IA est transformé de manière répétée, ce qui rend sa détection extrêmement difficile (Sadasivan et al., 2024).

De plus, Weber-Wulff et al. (2023) notent que les détecteurs actuels souffrent d’un manque de précision, ce qui les rend vulnérables aux faux positifs (textes humains identifiés comme générés par l’IA) et aux faux négatifs (textes écrits par l’IA identifiés comme humains). Weber-Wulff et al. (2023) estiment que la précision des détecteurs d’IA dépasse rarement 80%.

Par exemple, les sections de revue de littérature, qui adoptent souvent un ton formel et général, déclenchent parfois de faux positifs, comme l’ont observé Dalalah et Dalalah (2023). Cela complique encore l’utilisation des détecteurs d’IA, car ils peuvent stigmatiser des travaux authentiques et ainsi éroder la confiance des étudiants et étudiantes envers les systèmes de détection.

Par conséquent, les chercheurs et chercheuses comme Sweeney (2023) suggèrent de ne pas se fier uniquement aux détecteurs d’IA pour juger de l’intégrité d’un travail et rappellent que l’évaluation humaine reste essentielle pour juger les travaux et pour décider de la légitimité d’un contenu suspect.

Prévenir par l’encadrement plutôt que la détection

Les détecteurs d’IA ne sont ni infaillibles ni suffisants. Comme le montrent Weber-Wulff et al. (2023), Perkins et al. (2023) et Sadasivan et al. (2024), ces outils doivent être utilisés avec prudence, en complément à une évaluation humaine et à une réflexion éthique plus étendue.

Weber-Wulff et al. (2023) préconisent de se concentrer davantage sur des stratégies pédagogiques portant sur l’utilisation éthique des outils d’IA, au lieu de compter sur des systèmes de détection peu fiables. Cela met donc en lumière la pertinence d’utiliser des stratégies pédagogiques qui permettent d’encadrer l’usage de l’IA au lieu de tenter de le détecter à tout prix (Weber-Wulff et al. 2023).

Pistes de solutions

Pour faire face aux limites des détecteurs d’IA et aux défis croissants liés à l’utilisation de l’IA et à son évolution rapide, il faut adopter une approche proactive plutôt qu’être simplement en réaction. Se contenter de surveiller et de sanctionner l’usage de l’IA ne suffit plus.

Une stratégie prometteuse repose sur l’éducation des élèves, combinée à une révision des pratiques pédagogiques, afin d’intégrer l’IA de manière éthique et constructive dans le processus d’apprentissage. Cela permettrait non seulement de mieux encadrer l’utilisation de ces outils, mais aussi de développer chez les étudiants et les étudiantes des compétences critiques essentielles dans un monde de plus en plus influencé par l’IA. Par exemple, des séances dédiées pourraient être intégrées à des cours déjà existants, comme les cours de méthodologie ou de langues, pour aborder:

  • les concepts clés de l’IA
  • les éléments constituant un acte de tricherie
  • les façons appropriées d’exploiter les outils d’IA dans les travaux

Une autre option pourrait consister à proposer des ateliers pratiques sur l’utilisation responsable de l’IA, organisés à la bibliothèque. Ces ateliers, bien que facultatifs, pourraient être promus par les enseignants et les enseignantes dans leurs cours afin d’encourager les étudiants et les étudiantes à y participer.

Par ailleurs, la transparence est tout aussi importante: les établissements pourraient demander aux élèves de déclarer toute utilisation de l’IA dans leurs travaux. Cette déclaration pourrait inclure une explication sur la manière dont l’outil a enrichi leur réflexion ou leur analyse, ce qui pourrait s’intégrer aux critères d’évaluation.

Un autre levier consisterait à réorienter les évaluations vers le processus plutôt que le résultat final. Par exemple, certains travaux pourraient comporter un journal réflexif ou un entretien individuel où chaque élève expliquerait sa méthodologie et justifierait ses choix.

Simultanément, encourager la créativité et la pensée critique permettrait d’intégrer l’IA comme un outil d’apprentissage collaboratif. Par exemple, les élèves pourraient utiliser un outil d’IA générative de texte pour explorer une idée, tout en analysant et en critiquant les réponses générées, puis en les comparant à des sources fiables.

Diversifier les formats d’évaluation en combinant une évaluation écrite et un volet additionnel en classe (discussions, présentations orales, travaux de groupe, etc.) permettraient de minimiser la dépendance aux outils automatisés. Une telle évaluation mixte créerait un contexte dans lequel l’effort personnel reste central tout en laissant une place à l’IA comme ressource complémentaire.

Cependant, bien que ces stratégies apparaissent comme des solutions viables, il est important de noter qu’il existe encore peu de données empiriques pour évaluer leur efficacité à long terme sur l’intégrité intellectuelle et le développement des compétences des étudiants et des étudiantes.

Bien que les détecteurs d’IA jouent un rôle dans la prévention et la surveillance, leur fiabilité limitée et leurs lacunes mettent en évidence la nécessité de solutions complémentaires. Une approche proactive qui inclut de former les élèves à une utilisation responsable de l’IA et d’adapter les méthodes d’évaluation peut offrir une réponse équilibrée aux défis posés par l’IA. En encadrant l’IA, il est possible de maximiser ses bénéfices pédagogiques tout en limitant les risques pour l’intégrité des évaluations et des diplômes.

Références

Dalalah, D., & Dalalah, O. M. A. (2023). The false positives and false negatives of generative AI detection tools in education and academic research: The case of ChatGPT. The International Journal of Management Education, 21(2), 100822.

Perkins, M., Roe, J., Postma, D., McGaughran, J., & Hickerson, D. (2023). Detection of GPT-4 Generated Text in Higher Education : Combining Academic Judgement and Software to Identify Generative AI Tool Misuse. Journal of Academic Ethics, 22, 89-113.

Sadasivan, V. S., Kumar, A., Balasubramanian, S., Wang, W., & Feizi, S. (2024). Can AI-Generated Text be Reliably Detected? (eprint arXiv:2303.11156). arXiv.

Sweeney, S. (2023). Who wrote this? Essay mills and assessment – Considerations regarding contract cheating and AI in higher education. The International Journal of Management Education, 21(2), 100818.

Weber-Wulff, D., Anohina-Naumeca, A., Bjelobaba, S., Foltýnek, T., Guerrero-Dib, J., Popoola, O., Šigut, P., & Waddington, L. (2023). Testing of detection tools for AI-generated text. International Journal for Educational Integrity, 19(1), 26.

À propos de l'auteur

Jean-Nicolas Proulx

Jean-Nicolas est conseiller technopédagogique et titulaire d’une maîtrise sur mesure en éducation de l’Université Laval. Passionné par la pédagogie collégiale, il détient également un diplôme de 2e cycle dans ce domaine. L’intégration du numérique en éducation, en particulier les jeux numériques, est un sujet qui le passionne et sur lequel il a fait de la recherche et a enseigné dans le cadre de ses études doctorales en technologie éducative à l’Université Laval.

S’abonner
Notification pour
guest

0 Commentaires
Commentaires en ligne
Afficher tous les commentaires