Articles

L’IA générative, un an après l’arrivée de ChatGPT

Copilot dans votre portable très bientôt ?

OBVIA, l’Observatoire international sur les impacts sociétaux de l’IA et du numérique, a organisé fin novembre un webinaire ayant pour thème : « L’IA générative, un an après l’arrivée de ChatGPT – Où en sommes-nous ? »

Alain Lallier, Portail du réseau collégial

L’image de couverture a été produite par Canva à l’aide d’un système d’intelligence artificielle (Obvia)

Trois professeurs-chercheurs du collégial ont participé à cette table ronde : Dave Anctil du Collège Jean-de-Brébeuf, Andréane Sabourin Laflamme du Cégep André-Laurendeau et Sylvain Auclair du Cégep de Sainte-Foy. Le Portail a retenu quelques-uns de leurs propos.

Sylvain Auclair, enseignant au Cégep de Sainte-Foy

D’entrée de jeu, Sylvain Auclair, enseignant au Cégep de Sainte-Foy, souligne les enjeux de l’utilisation de ChatGPT dans la rédaction des textes argumentatifs en philosophie : « C’est très difficile pour les professeurs de vérifier si un texte provient de l’élève ou de l’IA. C’est pourquoi j’ai décidé de revenir à la bonne vieille utilisation en classe du papier et du crayon. »

Des enjeux : la désinformation et la propriété intellectuelle

Pour Sylvain Auclair, l’utilisation des outils de l’IA générative soulève des enjeux transversaux majeurs concernant la désinformation et la propriété intellectuelle. « L’IA générative est de plus en plus intégrée dans nos pratiques et notre quotidien. Une enquête récente révélait que 20 % des Canadiens et des Canadiennes utilisent quotidiennement l’IA générative dans leur travail ou leurs études. Son utilisation comporte des avantages et des bénéfices, mais aussi des risques. Si la désinformation n’a rien de nouveau, ce qui est préoccupant, c’est le potentiel de l’IA d’amplifier ce phénomène. On sait que l’IA peut produire du contenu très rapidement de façon impressionnante, entre autres, des images qui peuvent être utilisées pour manipuler les gens. Les études montrent que c’est très difficile de départager le vrai du faux. Et tous les systèmes de modération des contenus sont limités. »

Selon lui, la démocratie est mise à mal, car elle suppose que les citoyens sont bien informés. « Si l’information véhiculée n’est pas bonne, elle a un impact sur la délibération publique. L’usage de l’IA pourrait aussi augmenter le pouvoir de certains acteurs, par exemple les groupes de pression, les gouvernements étrangers, des entreprises privées. On pourrait par exemple utiliser l’IA pour intervenir dans des processus de consultation ou inonder de commentaires des articles de presse en donnant l’impression qu’ils représentent l’opinion publique. »

Concernant la propriété intellectuelle, Sylvain Auclair rappelle que l’IA s’alimente des contenus en ligne, et ce processus de collecte de données ne respecte pas toujours la propriété intellectuelle.

Andréane Sabourin Laflamme, enseignante au Cégep André-Laurendeau

Enjeux pour le monde de l’éducation

Andréane Sabourin Laflamme, enseignante au Cégep André-Laurendeau, rappelle que le milieu de l’éducation a été secoué par l’arrivée de l’IA sur le marché : « Le débat polarise de manière importante. D’un côté, il y a toutes sortes de possibilités intéressantes et inédites. On peut penser que l’IA générative peut aider à soutenir certaines zones d’apprentissage personnalisé. On peut concevoir des robots conversationnels avec lesquels on peut interagir qui sont spécialisés dans un domaine particulier. Plusieurs professeurs l’utilisent comme outil pédagogique pour les aider à élaborer du matériel pédagogique, pour générer des exemples, des analogies dans le cadre de leurs cours. Il y a donc toutes sortes d’utilisations très créatives. On peut par exemple demander à ChatGPT de personnifier Socrate pour dialoguer avec lui et mieux confronter ses idées dans un cours de philosophie. Mais d’un autre côté, le fait que ces outils sont disponibles et très performants nous amène à remettre en question la manière dont on évalue les apprentissages.»

60 % des étudiants considèrent comme du plagiat l’utilisation de l’IA générative dans le cadre des travaux académiques

On sait que ChatGPT peut générer en quelques secondes des parties ou un travail académique complet d’une qualité acceptable, bonne et même très bonne dans certains domaines. GPT4 est très performant dans certains contextes académiques. Pensons aux examens d’entrée des grandes universités américaines, que l’outil a réussis haut la main. «Un sondage récent nous apprenait que 51 % des étudiants canadiens utilisent l’IA pour leurs travaux. On peut donc présumer que de nombreux travaux sont faits en tout ou en partie à l’aide de ces outils. Paradoxalement, le même sondage révèle que 60 % des étudiants considèrent comme du plagiat l’utilisation de l’IA générative dans le cadre des travaux académiques. Pourtant, dans certains contextes, on va encourager l’utilisation de l’IA générative, on va même l’intégrer dans le cadre de certains cours et, dans d’autres contextes, on va la proscrire. Il y a beaucoup de confusion. Et on se pose toutes sortes de questions. Est-ce que toutes les formes de recours à l’IA sont considérées comme du plagiat ? C’est assez clair que non. Et comment fait-on pour distinguer une utilisation légitime d’une utilisation  illégitime ? Ça va dépendre du contexte, de la discipline, de l’enseignement. Et on n’arrivera pas à démontrer hors de tout doute que l’étudiant a utilisé cet outil pour faire son travail, parce que les systèmes de détection ne sont pas très performants et assez faciles à contourner. Nous sommes obligés de nous  questionner sur notre rapport à l’évaluation.»

Notre rapport au langage, à la culture et à la connaissance générale probablement bouleversée

Andréane Sabourin Laflamme  ajoute : « En ce moment, demander à nos étudiants de faire des travaux à la maison ne constitue plus la meilleure manière d’évaluer l’acquisition de leurs compétences. De manière plus fondamentale, c’est peut-être même notre rapport au langage, à la culture et à la connaissance générale qui est probablement bouleversée. On peut penser que le marché des produits de l’IA destinés à l’éducation sera inondé dans les prochaines années. Mais il ne faut surtout pas oublier que les entreprises qui mettent ces produits en marché poursuivent des objectifs plus mercantiles que pédagogiques.»

Les enjeux pour le monde du travail

Dave Anctil, enseignant au Collège Jean-de-Brébeuf

De son côté, Dave Anctil, enseignant au Collège Jean-de-Brébeuf, souligne l’importance de réaliser que nos milieux de travail ne sont pas encore adaptés à l’IA cognitive, qui est capable comme nous de faire des tâches qui requièrent compétences et connaissances. « Nous assistons à un moment de rupture où c’est très difficile de faire des prédictions quant aux pertes d’emplois liées à l’augmentation de la productivité et la transformation du travail. Ce qui est sûr, c’est qu’il y aura transformation du travail. Les études nous montrent que l’on accélère la cadence. On est capable de produire plus, mais on augmente les cadences de travail. Et les entreprises commencent déjà à voir comment on peut ralentir les cadences générées par l’IA générative. Comme il n’y a pas de précédent, c’est normal qu’il y ait une période d’adaptation. Je crains que les incitations qui existent actuellement pour augmenter la productivité et réduire le nombre de salariés nous amènent à improviser des façons de faire qui vont avoir des conséquences très graves sur la société de manière générale. Des produits dangereux, comme des boucles de chaînes d’information erronées, vont se répandre. Il y a un potentiel de chaos que l’on ne doit pas sous-estimer.»

Une intégration à vitesse grand V

Dave Anctil souligne que la vitesse de la concurrence entre les géants que sont Google et Microsoft pour accaparer ces marchés provoque une intégration rapide de ces nouveaux outils. « Cette intégration rapide touche tous les milieux de travail, et ce n’est pas évident pour les organisations et les professions de ralentir cette intégration. Il y a vraiment une force centrifuge et centripète qui n’est pas du tout à l’avantage des organisations et des professionnels. L’impératif, on le voit dans les études, c’est que les professionnels doivent s’enthousiasmer pour augmenter leur performance au travail. »

Un déploiement à grande échelle via Copilot

Pour Dave Anctil, les visées commerciales sont évidentes. Le fait que Microsoft contrôle plus que jamais OpenIA et qu'il a accès aux développements les plus avancés lui donne un avantage marqué. « Microsoft est en train de déployer les outils de l’IA à grande échelle via Copilot. Ça veut dire que l’IA générative de dernière génération — pour l’instant le modèle GPT4, mais bientôt les autres modèles qui seront développés dans les laboratoires de l’OpenIA — sera présente dans tous les environnements de travail Microsoft et ses logiciels de bureautique. Et comme Microsoft est omniprésente dans les organisations, c’est une tempête parfaite et les organisations vont s’en remettre à elle. Cette entreprise a développé depuis longtemps une approche paternaliste qui dit essentiellement aux gestionnaires : "On va régler tous vos problèmes." Vous n’aurez plus à angoisser avec vos problèmes technologiques, on les prend en charge. On vous donne des garanties, d’où l’infonuagique, d’où le monopole sur la suite logicielle Office. Dans ce continuum, Microsoft a même déclaré qu’elle protégera toutes les organisations contre les poursuites civiles liées à l’utilisation de Copilot. Microsoft va en assumer les coûts. Papa Microsoft va tout prendre en charge, vous n’avez pas à vous en faire. Ce qui m’inquiète, c’est l’attentisme des organisations, leur passivité. Or, nous devons sortir de cette situation. »

Prendre une attitude proactive

Dave Anctil affirme que nous devons adopter une attitude proactive pour vraiment étudier la bonne manière d’intégrer l’IA générative dans les diverses professions. « Il faut agir avec prudence. Il faut surtout informer les gens pour qu’ils comprennent les limites de ces systèmes, mais aussi leurs capacités. Et tout ça ne peut pas se finaliser en quelques mois. »

Un rapport à venir

Beaucoup d’autres enjeux et des pistes de solutions ont été présentés lors de ce webinaire. Le cadre restreint de cet article ne permet pas d’en rendre compte complètement. Mais le lecteur intéressé aura l’occasion d’en saisir toute l’ampleur, car l’OBVIA va publier prochainement un rapport sur toutes ces questions.

Le webinaire est disponible sur le podcast IA Café


À lire sur l’IA en enseignement supérieur :

L’AQPC dépose son mémoire sur l'ng>;IA au Conseil supérieur de l’éducation (CSE)

La Fédération des cégeps se prononce sur l'utilisation de l'intelligence artificielle en enseignement supérieur

FNEEQ : INTELLIGENCE ARTIFICIELLE EN ÉDUCATION; De la mission à la démission sociale :replaçons l’humain au cœur de l’enseignement

ChatGPT nous rendra-t-il plus stupides?

Note de l'éditeur: 9 collèges sont membres d'OBVIA : Ahuntsic, Brébeuf, Sainte-Foy, Saint-Hyacinthe, John Abbott, Limoilou, Dawson, Bois-de-Boulogne et Rosemont.