Nouvelles
Guide pratique de non-utilisation de l’intelligence artificielle
La vision humaniste est l’un des fondements les plus importants de notre système éducatif.

Illustration: Tiffet «Faire rédiger par un outil d’IA revient donc à empêcher à la fois la pensée et le développement de la capacité à penser», écrit l’auteur.
Jonathan Ruel
L’auteur est professeur de physique au cégep de Saint-Laurent. Il a publié un roman, «L’astronome dur à cuire», aux éditions Druide en 2016.
J’enseigne la physique au cégep et j’affirme qu’il n’y a pas de bonne utilisation pédagogique de l’intelligence artificielle (IA) pour la rédaction de textes dans la formation générale ou dans les programmes préuniversitaires, que ce soit par les profs ou les étudiants.
Les discussions institutionnelles autour de l’IA évitent souvent de toucher à la pédagogie, pour la laisser aux enseignants, comme il se doit ; c’est ce que font les guides d’intégration de l’IA récemment diffusés par le ministère de l’Enseignement supérieur (MES).
Il y a selon moi urgence pour les profs de sortir du cadre étrangement désincarné de la gouvernance de l’IA et de nommer les utilisations de l’IA qui sont contraires à nos valeurs et à notre mission. Je ne parle pas de tricherie, mais de préoccupations plus fondamentales : l’apprentissage, et la conception de la personne que nous choisissons de transmettre.
Notre cadre est la liberté intellectuelle et d’enseignement, qui demande un débat rigoureux et loyal entre les points de vue, pour la recherche de la vérité. J’ai beaucoup d’estime pour des collègues qui se montrent intéressés par l’IA ; je ne veux pas attaquer ici des expérimentations pédagogiques précises. Cela dit, je crois que le fardeau de la preuve d’innocuité incombe aux utilisateurs de l’IA. Voici donc mon opinion, pétrie de l’expérience de nombreuses années en tant que non-utilisateur.
Non-requête humaniste
Les sciences naturelles ont une parenté avec les sciences humaines et les lettres, qui sont toutes issues de la tradition philosophique. C’est ce qui explique que ces disciplines soient souvent regroupées au sein de mêmes facultés à l’université, alors que l’ingénierie est dans une autre école, malgré sa proximité avec les sciences.
La réalité de la recherche est complexe, mais cette division historique a son sens. Quand Elon Musk déclare, en juillet 2025, que dans son entreprise xAI, « there are only engineers. Researcher is a relic term from academia », c’est toute une guerre culturelle qui s’annonce.
Je nomme les lettres et sciences parce qu’elles sont centrales au collégial, composant la majeure partie de la formation générale, ainsi que les plus gros programmes préuniversitaires. Leurs disciplines ont en commun la définition précise des termes, la nuance, la non-contradiction, l’argumentation fondée sur les faits et souvent une vision humaniste, qui est une valorisation des productions de l’esprit et de l’épanouissement de l’humain à travers leur étude.
Parlant de la définition précise des termes, l’humanisme est nommé par le MES dans l’un des principes directeurs pour l’intégration de l’IA, mais ce qu’on en dit est un pâle reflet de ce qu’on entend habituellement par humanisme : « Approcher l’intégration de l’IA de manière humaniste s’inscrit en cohérence avec la volonté de permettre à tous de s’épanouir pleinement. Cela signifie, sur le plan pédagogique, valoriser d’abord les interactions existantes entre les professionnels de l’enseignement et les étudiants, et faire en sorte que l’IA soutienne ces interactions, mais sans les remplacer. »
Cette pauvreté de sens est désolante, d’autant plus qu’il doit y avoir beaucoup de monde au MES qui comprend ce qu’est l’humanisme. Au contraire, la vision du monde proposée par les géants technologiques est profondément non humaniste, même quand elle est au service d’êtres humains.




