Nous pensons qu’il est essentiel d’enseigner à nos étudiants et étudiantes les implications sociétales de l’intelligence artificielle (IA) dans toutes ses applications. Nous avons créé un référentiel de compétence en éthique de l’IA pour répondre à la demande croissante de nombreux acteurs de l’enseignement supérieur qui souhaitent proposer différents types de formations en éthique de l’IA.
Le besoin d’enseigner l’éthique de l’IA
Nous sommes tous les 2 professeurs de philosophie au Collège André-Laurendeau. Nous avons un intérêt de longue date pour les sujets liés à la philosophie de la technologie, notamment l’éthique de l’IA. (Frédérick a même écrit sa thèse sur l’éthique de la technologie).
Nous avions d’ailleurs commencé depuis quelques années à intégrer des éléments relatifs à ces défis dans nos cours de philosophie (dans le cours d’éthique et dans le cours sur l’être humain). Il est simple de discuter du numérique avec les étudiants et les étudiantes. Il n’est pas nécessaire de leur faire comprendre l’importance du sujet, car ils sont en permanence en contact avec le numérique !
Nous avons remarqué qu’il y avait un intérêt marqué pour l’éthique de l’IA en enseignement supérieur actuellement (de la part des chercheurs, des professeurs, mais aussi des établissements d’enseignement). Cependant, nous avons constaté qu’il n’y avait pas de consensus sur ce qui devrait être au cœur de la formation à l’éthique de l’IA.
Il n’y a pas de littérature qui traite expressément de l’enseignement de l’éthique de l’IA pouvant contribuer à la préparation de nos cours. Il existe plusieurs documents et prises de position sur l’éthique de l’IA, mais relativement peu sur l’enseignement de l’éthique de l’IA. De plus, la plupart des formations en éthique de l’IA en sont encore à leurs débuts.
Notre référentiel de compétence pour l’enseignement de l’éthique de l’IA
Nous avons cherché à définir la compétence en éthique de l’IA que les étudiants et étudiantes devraient acquérir. Pour ce faire, nous avons travaillé en collaboration avec André Mondoux, sociologue et professeur à l’École des médias de l’UQAM. Nous avons créé un référentiel de compétence. Notre projet a été soutenu par le Pôle montréalais d’enseignement supérieur en intelligence artificielle (PIA).
Notre référentiel est conçu pour aider ceux et celles qui envisagent de développer un programme de formation sur l’éthique de l’IA et sur la manière de l’organiser. Il ne s’agit pas d’un outil pédagogique au sens traditionnel du terme (mais des outils pédagogiques peuvent être construits à partir du référentiel !)
Notre référentiel est conçu pour aider les personnes qui souhaitent créer de nouveaux cours. Il peut s’agir de directions d’établissement qui souhaitent proposer un nouveau cours ou d’enseignants qui souhaitent axer une session sur le sujet dans le cadre d’un cours existant, par exemple.
Nous avons construit notre référentiel en tenant compte de différents contextes d’enseignement collégial ou universitaire:
- des cours qui portent entièrement sur le sujet
- des cours qui intègrent un seul module ou une seule séance sur le sujet
- des activités extracurriculaires en lien avec le sujet
Nous avons aussi tenu compte de la diversité des profils des étudiants: certains se spécialisent en informatique, d’autres en sciences sociales, en communication ou encore en santé, par exemple.
Contenu du référentiel
Notre référentiel est basé sur une interprétation de la compétence éthique inspirée de l’approche philosophique du pragmatisme américain.
Le référentiel identifie 3 composantes essentielles à la compétence éthique:
- la sensibilité éthique (la capacité de la personne de reconnaître qu’elle est dans une situation éthique)
- les capacités réflexives (le savoir-agir en situation éthique)
- les capacités dialogiques (l’interaction en situation éthique)
Le référentiel identifie aussi 4 champs de compétence en éthique de l’IA.
Les 4 champs de la compétence en éthique de l’IA
Champ de compétence | Dans ce champ de compétence, par exemple, on s’intéresse… |
Aspects techniques des systèmes d’IA | … au rôle de l’algorithme de YouTube quant à la polarisation des discours, la dissémination de la désinformation et la diffusion de contenu à caractère haineux ou violent. |
Dilemmes moraux liés aux systèmes d’IA | … à l’utilisation des applications mobiles de traçage des contacts et de notification d’exposition à la COVID-19 et à la tension qu’elle génère entre la protection de la vie privée, le consentement et la sécurité. |
Contexte sociotechnique des systèmes d’IA | … à l’utilisation de l’IA à des fins de police prédictive et aux effets potentiellement discriminatoires de ces pratiques. |
Cadres normatifs complémentaires à l’éthique | … à la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, la Loi sur la protection des données personnelles dans le secteur privé ou la Proposition de règlement concernant l’IA de l’Union européenne. |