Articles

Intelligence artificielle et réussite étudiante, une alliance complexe

Par Thérèse Lafleur

S’allier l’intelligence artificielle (IA) pour soutenir la réussite étudiante s’inscrit dans la complexité. Afin de mettre en perspective cette dynamique humain/machine, la Fédération des cégeps a organisé le forum Données et intelligence artificielle : l’innovation au service de la réussite, qui s’est déroulé en mode virtuel le 9 mars 2022.

Animé par Bruno Guglielminetti, spécialiste des nouvelles technologies et des médias numériques, le forum a proposé à plus de 350 participants une compréhension partagée des enjeux de manière à favoriser le déploiement structuré et concerté de l’utilisation des données et de l’IA dans le réseau collégial.

Amplifier et améliorer la connaissance humaine

Le forum s’est amorcé sur les propos inspirants d’Ollivier Dyens, professeur titulaire, fondateur et codirecteur de Building 21 de l’Université McGill et auteur de La terreur et le sublime : Humaniser l’intelligence artificielle pour construire un nouveau mondei.


Ollivier Dyens, professeur, fondateur et codirecteur de Building 21de l’Université McGill. Photo : Owen Egan

D’entrée de jeu, le professeur Dyens soulève deux questions : « Comment l’éducation et la technologie s’enchevêtrent ? Comment créer à travers cet enchevêtrement un écosystème éducatif riche et vivace qui permettra à nos étudiants de résoudre les grands problèmes du 21e siècle ? »

Il propose d’utiliser la technologie pour amplifier la connaissance humaine tout en l’améliorant. Pour le professeur Dyens, recourir à l’IA force à être plus créatifs, plus humains, plus justes et à créer un système d’éducation qui va refléter ces principes fondamentaux.

Selon lui, la pire erreur serait d’ignorer les enjeux technologiques. La technologie transforme notre monde, mais surtout, elle révèle et amplifie l’humain, une humanité complexe et contextuelle.

L’importance cruciale de la qualité des données

Dans cette foulée, Younez Zerouali, directeur scientifique de JACOBB Centre d’Intelligence artificielle appliquée, un Centre collégial de transfert technologique (CCTT) mis sur pied par John Abbott College et le Collège Bois-de-Boulogne, présente un Tour d’horizon de l’utilisation des données et de l’intelligence artificielle dans le milieu de l’éducation. 


Younez Zerouali, directeur scientifique du CCTT JACOBB Centre d’Intelligence artificielle appliquée

« Pour l’IA, une donnée brute est un objet à dimensions multiples. Des dimensions qu’il faut traduire en représentations numériques pour qu’elles puissent être exploitées par l’IA. Ainsi un jeu de données institutionnelles peut être généré. Ensuite, le traitement et l’analyse des données permettent d’exploiter les données à meilleur escient au bénéfice tant des différents intervenants que des étudiants. Une analyse qui sert à faciliter la prise de décision. » explique monsieur Zerouali.

Il suggère d’aborder le développement de l’IA en trois étapes : la technologie, le développement et la collaboration. Ainsi, à partir d’une solide base de données et avec le support technologique adéquat ainsi que des équipes de travail bien ciblées, les phases de préparation, de modélisation et de développement d’un projet d’IA peuvent se faire par cycles de développement. Un déploiement qui se veut agile, par sprints de quatre à six semaines,et qui permet de construire progressivement le système d’IA visé.

Comme tous les intervenants à ce forum, il insiste sur le rôle capital de l’utilisateur dans le développement de projets d’IA. En effet, c’est l’utilisateur qui est en mesure de prédire/réduire/contextualiser des biais perceptuels, non intentionnels ou conceptuels dans la collecte ou l’utilisation des données.

Pousser la réflexion sur les enjeux

Bien que l’IA en éducation suscite un intérêt pédagogique et scientifique croissant depuis une trentaine d’années, peu d’études ont traité des enjeux éthiques et critiques de l’IA pour l’enseignement supérieurii.

« Il y a lieu de garder une vigilance éthique et critique sur les systèmes d’IA non pas pour les interdire, mais bien pour les accompagner dans leur développement et dans leur implantation en enseignement supérieur. » explique Simon Colliniii , professeur à l’Université du Québec à Montréal (UQAM) lors de la présentation Un coup d’œil sur la recherche dans le domaine.

Plus spécifiquement c’est dans la relation entre la conception d’un système d’IA, son fonctionnement et ses usages éducatifs que surgissent différents enjeux. En ce sens, le professeur Collin réfère à un modèle technoéthiqueiv qui tient compte de nombreuses dimensions lors de la conception ou de l’utilisation d’un système l’IA notamment les dimensions éthique, légale, démocratique, économique, technologique et pédagogique.

Lui aussi rappelle l’importance d’établir une collaboration entre les équipes de conception et les utilisateurs de manière à pouvoir optimiser en continu les systèmes d’IA en ce qui a trait à :
• l’exploitation de données versus la dignité humaine ;
• la rationalité technique versus la complexité humaine ;
• l’automatisation versus l’agentivité humaine ;
• la standardisation technique versus la justice sociale.

Pour le développement responsable de l’IA en éducation

Tout en reconnaissant le fort attrait actuel des établissements d’enseignement pour mettre à profit les données qui sont à leur disposition, Andréane Sabourin Laflamme, professeure de philosophie et d’éthique de l’IA au Cégep André-Laurendeau et Frédérick Bruneault, professeur de philosophie à l’Université du Québec à Montréal (UQAM) soulèvent qu’il y a aussi des risques associés à ces avancées prometteuses.

« Des risques qui ne doivent pas être mitigés si nous voulons augmenter l’acceptabilité sociale de l’IA. » souligne madame Sabourin Laflamme lors de la présentation Éthique et acceptabilité sociale.Elle rappelle que le contexte de l’éducation est bien particulier, car des décisions mineures à première vue peuvent avoir un impact majeur sur la vie des individus.

Bien qu’un certain encadrement légal protège les droits et libertés des individus,l’adoption de l’IA est peu balisée selon les deux professeurs qui, devant ces lacunes normatives, proposent des modèles dont la Déclaration de Montréal pour le développement responsable de l’IAv  ainsi que Les lignes directrices pour une IA digne de confiancevi développées par la Commission européenne pour soutenir le développement responsable de l’IA.

Plus spécifiquement axées sur l’éducation, les publications de l’UNESCO : L’intelligence artificielle en éducationvi et du Conseil supérieur de l’éducation : L’intelligence artificielle en éducation : un aperçu des possibilités et des enjeuxviii dégagent les voies à privilégierpour le développement responsable de l’IA.

Cependant, ces deux professeurs s’entendent pour dire que ces propositions ont aussi leurs limites. « Il y a un certain écart qui se crée entre ces chartes/principes et les pratiques. Alors il faut savoir passer du « quoi » au « comment » sans négliger l’intégration systématique de l’évaluation éthique.

Exploration versus exploitation de l’IA

La présentation Un parcours innovant : des pistes pour susciter et soutenir un projet d’innovation faite par Rachel Berthiaume, cocoordonnatrice LLio et contamineuse en chef et David Guimont, cocoordonnateur d'un centre de recherche, tous deux du Laboratoire d'innovation ouverte –Llio, le Centre collégial de transfert de technologie (CCTT) du Cégep de Rivière-du-Loup, pave la voie à de l’innovation ouverte et collaborative.

Avant de se lancer dans un parcours d’innovation en IA, ils suggèrent de cerner comment faire de l’innovation dans son établissement et dans son réseau.La bonne équipe est-elle en place pour innover ? L’environnement est-il propice à l’innovation ? Quelles sont les conditions préalables disponibles et lesquelles sont manquantes ? Bref quelle est la capacité d’innovation de son cégep ?

Parce que la conception de systèmes d’intelligence artificielle est complexe et aussi contextuelle. « Et derrière les mots il y a beaucoup d’applications et de méthodes à mettre en place. » souligne madame Berthiaume.

Selon eux, innover dans un collège repose sur l’équilibre à trouver entre l’exploration et l’exploitation. « Quand nous innovons, il y a toujours une phase d’exploration où nous sommes dans le chaos. Nous divergeons tout en tentant d’aller vers une forme de convergence dont résultera quelque chose d’exploitable dans notre établissement. » explique monsieur Guimont.

Dans un processus d’innovation ouverte et collaborative, les frontières doivent donc tomber et les utilisateurs être impliqués. Les projets qui se développent sont mouvants, apprenants et centrés sur l’utilisateur d’où l’importance de la pensée collective. La désirabilité s’ajoute ainsi à la faisabilité et à la fiabilité des projets.

S’ancrer dans un développement responsable et éthique

Lors du forum, les participants ont pu approfondir la réflexion et envisager la mise en œuvre de systèmes d’IA.Des échanges lors d’une table ronde ont ensuite permis d’aborder différentes perspectives pour pour articuler les liens entre les volets « quoi faire » et « comment le faire »présentés lors des ateliers et des conférences de la journée.

En somme, un système d’IA peut être porteur de réussite, mais le décideur demeure l’humain. L’IA s’avère un ingrédient favorisant la détection et l’intervention, voire l’intervention automatisée favorisant la réussite. Mais bien que l’IA puisse être un guide décisionnel et un système technologique performant,c’est avant tout l’humain qui doit demeurer à la barre de son développement responsable et éthique.


iLa terreur et le sublime : Humaniser l’intelligence artificielle pour construire un nouveau monde consulté le 22 mars 2022.
iiZawacki-Richter et al, 2019 consulté le 22 mars 2022.
iiiL’intelligence artificielle en éducation : enjeux de justice consulté le 22 mars 2022.
ivKrutka, D. G., Heath, M. K., et Staudt Willet, K. B. (2019). Foregrounding technoethics: Toward critical perspectives in technology and teacher education. Journal of Technology and Teacher Education, 27(4), 555–574
vDéclaration de Montréal pour le développement responsable de l’IA
viIndépendants de haut niveau sur l’intelligence artificielle consulté le 22 mars 2022.
viiL’intelligence artificielle dans l’éducation consulté le 22 mars 2022.
viiiL’intelligence artificielle en éducation: un aperçu des possibilités et des enjeux consulté le 22 mars 2022.