Articles
Réfléchir ensemble à l'application de l'intelligence artificielle dans notre société
Par Élise Prioleau
Des professionnels du Collège de Rosemont et de l’Université de Montréal ont produit un guide d’animation sur les enjeux éthiques de l’intelligence artificielle (IA). Un outil pédagogique qui favorise une réflexion critique sur les technologies émergentes à travers une pratique de délibération citoyenne.
D’ici 10 à 20 ans, 47 % des emplois actuels pourraient être remplacés par des robots, selon la Commission de l’éthique en sciences et technologies. L’intelligence artificielle va-t-elle remplacer l’être humain? Il est vrai que l’IA nous surpasse dans la rapidité avec laquelle elle traite des données massives. En revanche, elle n’a pas notre intelligence émotionnelle, ni notre capacité à l’empathie, apprend-on dans la section mythes et réalités du guide Intégrer l’éthique de l’intelligence artificielle en enseignement supérieur : une trousse à outils. La trousse donne une foule de renseignements sur les mythes et réalités entourant l’IA.
On retrouve également dans la trousse des scénarios, ou « cas d’usage », mettant en scène des applications futures de l’intelligence artificielle. Des situations fictives sont présentées sous la forme de courts récits, dans lesquels l’IA pourrait donner lieu à des dilemmes moraux. C’est à partir de ces cas que les étudiants entameront une réflexion personnelle menant à la délibération en groupe. À la fin de la trousse, un guide d’animation est proposé à l’attention des enseignants et enseignantes. Ce guide explique les étapes et les objectifs de la délibération en classe.
Deux objectifs : former et outiller les étudiants
La trousse à outils a deux objectifs. « Le premier est de développer une formation en enseignement supérieur sur les enjeux éthiques liés à l’intelligence artificielle », explique Louis Normand, conseiller pédagogique au Collège de Rosemont. « Dans le cadre du projet, 25 professionnels du Cégep de Rosemont ont suivi une formation sur l’animation d’une délibération en classe.» La formation était donnée par Pauline Noiseau, la coordonnatrice d’AlgoraLab, un laboratoire de l’Université de Montréal dédié à l’éthique délibérative autour de l’IA.
Louis Normand, conseiller pédagogique au Collège de Rosemont.
Le second objectif de la trousse est d’outiller les étudiants et leurs enseignants pour faire face aux enjeux liés aux usages de l’IA. Ultimement, comme le rappelle l’introduction de la trousse, le but est d’encourager l’implication du plus grand nombre autour d’une réflexion sur l’encadrement de l’IA dans notre société. Une réflexion commune pouvant mener à un engagement concret, tel que la soumission de recommandations aux représentants politiques.
Rappelons que la trousse reprend les principes du processus délibératif citoyen qui a donné naissance à la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. La trousse a été financé par le Pôle montréalais d’enseignement supérieur en intelligence artificielle (PIA).
La délibération, une éducation à la citoyenneté
Les ateliers délibératifs se font en groupes de 8 à 10 étudiants. Les groupes travaillent sur une problématique en lien avec l’IA. C’est un travail de réflexion commune, qui se fait sous le mode de la co-construction. « C’est une recherche de solution en groupe », précise Louis Normand. « Contrairement au débat classique, au terme du processus de co-construction, il n’y a pas de gagnants ou de perdants. Au contraire, c’est tout le groupe qui gagne », précise Louis Normand.
Danny Bouchard, professeur de philosophie au Collège de Rosemont, a été formé pour animer des assemblées délibératives sur les enjeux éthiques de l’IA. Cette année, il a commencé à introduire une réflexion sur l’IA dans ses cours. « On fait d’abord lire aux participants un cas d’usage, un scénario qui illustre certaines limites éthiques à l’application de l’IA dans la société », résume-t-il. « Ensuite, les délibérants doivent s’entendre sur les problèmes éthiques qui prédominent dans leur cas d’étude. Enfin, les étudiants entament une discussion, au terme de laquelle ils devront penser un cadre normatif d’application de l’IA. On leur demande de formuler des recommandations concrètes pour encadrer l’utilisation de l’IA dans la société », relate le professeur de philosophie.
La trousse propose quatre études de cas en lien avec les relations humaines, l’aménagement du territoire, la santé et la culture.
Les avantages de la délibération en classe
« Mener une réflexion commune sur la question de l’IA est important aujourd’hui et plus que jamais », considère Danny Bouchard. « La délibération est un acte citoyen. Ça amène les étudiants à se questionner sur les implications de l’IA dans la vie réelle. Le processus de réflexion permet une distance critique face à ces technologies », selon le professeur.
Pour réussir une délibération en classe, prévient Danny Bouchard, les participants doivent être préparés avant la séance. « Les étudiants doivent lire le cas d’usage, commencer à chercher du contenu et réfléchir individuellement sur la question. La délibération est une mise en commun des pensées individuelles et des faits qui les alimentent. Quand les gens sont préparés, ça donne de très bons échanges. C’est nourrissant. »
Danny Bouchard espère qu’on ira plus loin dans l’éducation critique des jeunes en ce qui a trait à l’IA. « Il faudra aller vers des cours complets pour explorer les enjeux éthiques que pose l’IA. On en voit la nécessité. Manipuler une technologie, ce n’est pas comprendre. C’est notre rôle d’éducateurs que d’outiller les jeunes pour leur permettre de développer un esprit critique, une vigilance et une capacité d’agir en toute conscience dans la société de demain. »
1 Commission de l’éthique en sciences et technologie. (2019). Les effets de l’intelligence artificielle sur le monde du travail. p. 12.https://www.ethique.gouv.qc.ca/assets/documents/IA_travail/CEST_effets_intelligence_artificielle_travail_A.pdf