Articles
Recommandations du CSE et de la CEST
Intelligence artificielle générative en enseignement supérieur : enjeux pédagogiques et éthiques
Le Conseil supérieur de l’éducation (CSE) et la Commission de l’éthique en science et en technologie (CEST) ont publié conjointement un rapport qui présente 20 recommandations dans le but d’assurer une utilisation judicieuse de l’IA générative dans les collèges et les universités du Québec. Le Portail s’est entretenu à ce sujet avec madame Monique Brodeur, présidente du Conseil supérieur de l’éducation, et monsieur Luc Bégin, président de la Commission de l’éthique en science et en technologie.
Par Alain Lallier, Portail du réseau collégial
L’alignement pédagogique comme repère
Dans le contexte de la présence de plus en plus significative de l’IA générative dans l’espace public, comment faut-il comprendre la recommandation du rapport d’utiliser l’alignement pédagogique comme « point de repère » quant à la pertinence d’intégrer ou non l’IA générative dans les activités d’apprentissage ?
Le rapport définit l’alignement pédagogique comme « un principe qui peut s’appliquer à l’échelle d’un cours ou d’un programme et qui stipule que les activités d’apprentissage soient conçues de manière à permettre le développement de compétences et de connaissances bien précises et que les apprentissages soient évalués en fonction de ces dernières » (Basque et collab., 2015).
L'utilisation de l’IA générative apporte-t-elle une valeur ajoutée ?
« Pour toute activité d’apprentissage ou d’évaluation, il faut se demander s’il y a une valeur ajoutée à utiliser l’IA générative », explique Mme Brodeur. « Les outils d’IA générative ne sont au final que des outils. Si nous les utilisons, en quoi est-ce avantageux ? Et pour aller de l’avant, il faut que la personne enseignante connaisse bien les différentes ressources qu’elle se propose d’utiliser. Nous savons pertinemment − et c’est le cas aussi dans la population en général — que le niveau de littératie numérique, dont la littératie de l’IA générative, varie au sein du corps enseignant, et ce, tant au niveau universitaire que collégial. Plusieurs sont très en avance et proactifs; d’autres ont une position plus nuancée; d’autres ont peu ou pas développé cette compétence, alors que pour certaines personnes, ce n’est tout simplement pas souhaitable. »
Pour que les personnes enseignantes développent leurs compétences numériques
Le rapport souligne que les personnes enseignantes sont les mieux placées pour déterminer les situations et les contextes dans lesquels il y a une valeur ajoutée à utiliser l’IA générative, pourvu qu’elles soient en mesure de le faire. « Par ailleurs, les établissements universitaires et collégiaux, soutenus par le ministère de l’Enseignement supérieur, doivent créer des conditions permettant le développement des compétences génériques des personnes enseignantes et que des communautés d’apprentissage, composées de personnes qui ont développé davantage leurs compétences numériques, partagent leur expérience avec des personnes qui débutent en la matière », affirme Mme Brodeur.
« Nous insistons dans tout le rapport sur le respect de l’autonomie des établissements, le respect de l’autonomie professionnelle des enseignants et de leur liberté académique, poursuit-elle. Ce choix doit revenir à chaque personne enseignante. »
Une approche prudente
Les lecteurs du rapport pourront constater que le CSE et la CEST invitent à la prudence en matière d’intégration de l’IA générative en enseignement. L’approche prudente, c’est même un des messages clés du rapport. Selon Luc Bégin, « Face à une nouvelle technologie, il y a des gens qui s’emballent, qui essaient tout, alors que d’autres se braquent. Nous ne recommandons pas l’une ou l’autre de ces attitudes. Seule la notion d’alignement pédagogique doit servir de guide pour juger de la pertinence de recourir à l’IA générative, car ce n’est pas parce que l’on peut techniquement utiliser l’IA générative que son utilisation est judicieuse dans certaines situations pédagogiques. Il faut demeurer prudent et exercer son jugement. Est-ce que vraiment il y a une plus-value à utiliser l’IA générative ou pas ? Cette prudence contribue aussi à diminuer les réactions parfois très négatives face à ces technologies ».
L’importance de la recherche
Autre élément clé en filigrane dans tout le rapport : l’importance de la recherche. « L’IA générative étant toute récente, nous n’avons pas de données provenant d’études d’impact pour mesurer ses bénéfices ou ses inconvénients. Dans tout le rapport, nous invitons les différentes instances concernées à soutenir la recherche pour documenter la situation dans le réseau, à mener des projets pilotes et des études d’impact afin de produire des savoirs et des connaissances scientifiques sur le sujet », ajoute la présidente.
Luc Bégin renchérit : « On est en période d’expérimentations par rapport aux systèmes d’IA générative. Plus il y aura mutualisation des expertises, plus on sera en mesure de faire le partage adéquat des différentes expériences et des balises que l’on aura mises en place. Plus on partage ces éléments, plus on se donne la possibilité de satisfaire des impératifs pédagogiques bien pensés et favorables au développement des personnes étudiantes et de leurs compétences. »
L’intégrité intellectuelle et pédagogique
L’arrivée de l’IA générative dans les cégeps et les universités a accentué les préoccupations relatives au plagiat et à la fraude. Le rapport y consacre d’ailleurs un chapitre complet.
Un appel à la clarté
Luc Bégin explique qu’il faut comprendre que l’on fait des usages variés de ces outils dans différents programmes : « Par exemple, on pourrait enseigner comment utiliser l’IA pour faire du codage en informatique. Ça devient alors un outil très intéressant. Dans d’autres disciplines, comme la philosophie, les usages risquent de nous conduire au plagiat. Face à ces usages variés, lesquels sont légitimes ? Comme il y a beaucoup de zones grises, la clarté des lignes directrices prend toute son importance. Pour nous, il apparaît essentiel que les plans de cours fournissent systématiquement des indications quant aux usages acceptables ou non de l’IA. À l’heure actuelle, cette clarté fait défaut, ce qui peut s’avérer très insécurisant pour la population étudiante. Utiliser l’IA générative pour faire de la correction linguistique, reformuler des phrases, etc., c’est une chose, mais générer des contenus qu’une personne n’aurait pas été en mesure de structurer et d’exposer par elle-même, c’est très différent. »
« Le rôle du rapport n’était pas de dire ce qui est acceptable ou non, mais de démontrer qu’il est impératif d’indiquer clairement des lignes directrices. Ces lignes pourront varier d’un établissement à un autre, conformément à l’autonomie des établissements d’enseignement supérieur. Il pourra aussi y avoir des variations entre les facultés et les départements, selon les types d’usages possibles de ces outils. Mais dans tous les cas, clarté et transparence s’imposent, tant pour les personnes étudiantes que pour les personnes enseignantes. »
Favoriser un climat de confiance
« Nous avons tout intérêt à favoriser un climat de confiance entre les corps enseignant et étudiant, insiste Luc Bégin. Une des craintes actuelles face à l’usage de ces outils, c’est de créer un état de méfiance généralisée. Ce serait très négatif. C’est bien documenté : des interventions bienveillantes de la part des personnes enseignantes contribuent à motiver et à améliorer les résultats des personnes étudiantes. Mais ces interactions supposent un climat de confiance, d’où l’importance d’établir des lignes directrices claires pour faciliter l’usage adéquat de ces outils. »
L'établissement d’une structure collaborative nationale
Selon la présidente du Conseil, il faut insister sur l’importance que chaque établissement demeure autonome dans l’établissement de ses balises. Elle rappelle aussi que le rapport recommande au ministère de l’Enseignement supérieur d’établir une structure collaborative nationale de concertation qui aura le mandat de formuler les grandes lignes directrices et les balises, qui pourront être adaptées en fonction des contextes de chacun des établissements. Cela permettrait une certaine harmonisation à l’échelle du Québec.
Le droit d’utiliser ces outils ou non
Le rapport envisage des situations où des personnes enseignantes et étudiantes refuseraient de laisser l’IA générative entrer dans leur vie pédagogique. Pour Mme Brodeur, il faut reconnaître le droit fondamental des personnes enseignantes et étudiantes d’utiliser ou non ces outils.
Luc Bégin précise que cette reconnaissance peut créer des difficultés : « À partir du moment où des personnes étudiantes disent “non, moi, je ne veux pas être obligé d’utiliser ces outils”, et ce, pour diverses raisons comme la sobriété numérique ou la protection des données personnelles, nous devrions être en mesure de respecter ce choix-là et d’offrir d’autres modalités d’évaluation et de production. Dans certains cas, cela peut s’avérer extrêmement complexe. »
La qualité de l’information
Dans un contexte de mésinformation possible résultant de l’utilisation de l’IA générative, le rapport met en doute la fiabilité des informations générées par ces outils (déformation des faits, informations erronées ou incomplètes, possibilités de biais, etc.). On dénote également une tendance à accorder une confiance exagérée aux résultats produits par les outils d’IA générative, et ce, tant de la part des personnes enseignantes qu’étudiantes. « Cela conduit forcément à une diminution de la vigilance par rapport à ces outils et aux résultats qu’ils produisent, ce qui réduit du même coup notre attitude critique face aux informations fournies par les outils d’IA générative. C’est ce qui s’appelle en recherche le biais de l’automatisation », explique Luc Bégin. Pour lui, il s’agit d’un problème majeur qui pourrait créer un contexte absolument non propice au développement des compétences intellectuelles à favoriser en milieu éducatif.
Bien expliquer les risques associés à la qualité de l’information
Le rapport met l’accent sur le fait que l’on doit être en mesure de bien expliquer aux personnes apprenantes les risques associés à la qualité de l’information. Il faut que les personnes enseignantes soient très vigilantes par rapport aux résultats obtenus et aux risques de biais et de mésinformation qui découlent de l’utilisation de ces outils. « Il faut inciter les personnes étudiantes à bien diversifier leurs sources d’information, rajoute Luc Bégin. On sait qu’il peut être extrêmement facile d’utiliser ces outils : on pose des questions; on obtient les réponses. C’est beaucoup plus facile que d’effectuer des recherches approfondies et d’aller aux sources primaires. Pourtant, c’est ce type de réflexe qu’il est important que les personnes étudiantes développent. Il faut donc les inviter à s’appuyer sur des sources primaires et sur l’expertise des personnes enseignantes. Il faut combattre cette confiance excessive à l’endroit des informations que les outils d’IA générative produisent. »
Favoriser les vertus épistémiques
Il faut encourager et favoriser les vertus épistémiques, c’est-à-dire la curiosité intellectuelle, le goût de la recherche, l’esprit critique, le sens de l’effort intellectuel, car elles contribuent à l’acquisition d’informations de qualité.
Un appel au Ministère pour exercer un leadership fort
La présidente du CSE conclut l’entretien en rappelant la recommandation adressée au Ministère et aux établissements afin qu'ils soutiennent la mutualisation des expertises, des pratiques, des initiatives et des balises pour le recours à l’IA générative. « Mais en aucun cas on ne demande de légiférer. »
L’importance d’une structure collaborative de concertation nationale
Le rapport insiste beaucoup sur l’importance que le Ministère « établisse une structure collaborative de concertation nationale, impliquant chacune des actrices et chacun des acteurs de l’enseignement supérieur, visant à développer une vision commune et à définir des principes directeurs de base à l’égard d’une utilisation responsable et sécuritaire de l’IA générative en enseignement supérieur ainsi que des priorités stratégiques et des orientations à l’échelle du système ».
« Nos recommandations arrivent à un moment précis. On sait que ces évolutions technologiques vont se poursuivre à une cadence si grande qu’il est difficile de prévoir où nous serons rendus dans 3 ou 4 ans. Mais ce que l’on sait en revanche, c’est qu’en se dotant d’une telle structure, on aura au moins un instrument sérieux de veille qui nous permettra de mutualiser nos expertises et les balises qui ont été mises en place à la suite des réussites et des moins bons coups. Ainsi, on évitera d’être toujours en retard et de voir chaque établissement faire cavalier seul parce que nous aurons la capacité d’avancer collectivement plus facilement et d’affronter les enjeux », affirme Luc Bégin en conclusion.
Note de l'éditeur: La Fédération des cégeps a organisé récemment un webinaire sur le même sujet.
REGARDS
IA GÉNÉRATIVE EN ENSEIGNEMENT SUPÉRIEUR : ENJEUX PÉDAGOGIQUES ET ÉTHIQUES