Nouvelles
ORES - Observatoire sur la réussite en enseignement supérieur
Intégrité académique et intelligence artificielle
L’arrivée de l’IA a transformé le monde de l’enseignement supérieur, poussant de nombreux établissements à adopter des politiques visant à encadrer son utilisation et à préserver l’intégrité académique.
Certaines de ces politiques exigent que les étudiantes et les étudiants accompagnent leurs travaux d’une déclaration concernant leur utilisation de l’IA. Or, selon une étude de cas menée par une chercheuse britannique, les étudiantes et les étudiants semblent peu enclins à admettre leur utilisation de l’IA via ce type de déclaration.
Cette chercheuse s’intéresse plus particulièrement au cas de l’École de commerce du King’s College London. À l’octobre 2023, l’École a exigé que les étudiantes et les étudiants remplissent une déclaration d’intégrité académique incluant une section sur l’utilisation d’outils d’IA lors de la remise de travaux. Dans cette section, les étudiantes et les étudiants devaient indiquer si des outils d’IA avaient été utilisés, et le cas échéant, comment ils avaient été utilisés dans le cadre du travail remis.
Il a été observé que la section portant sur l’utilisation de l’IA demeurait vide dans 74% des cas, alors que les autres sections de la déclaration (ex. identification de l’étudiante ou de l’étudiant) étaient fréquemment remplies.
La chercheuse a donc souhaité comprendre pourquoi les étudiantes et les étudiants ne remplissent pas la déclaration et ce qui pourrait les encourager à le faire. Pour le savoir, elle a interrogé par questionnaire (n=57) et par entretien semi-dirigé (n=17) des étudiantes et des étudiants de cette école. 79% des répondantes et répondants au questionnaire ont indiqué qu’elles utilisaient des outils d’IA dans le cadre de leurs travaux, mais seulement 65% de ces personnes en faisaient la déclaration.
Pourquoi ne pas déclarer l’usage de l’IA ?
Les entretiens et le sondage ont révélé 5 motifs entourant la non-complétion de la déclaration d’utilisation de l’IA :
- La crainte des conséquences académiques. Plusieurs personnes ont expliqué craindre d’être pénalisées ou injustement notées si elles admettaient avoir utilisé l’IA. Autrement dit, les étudiantes et les étudiants redoutent que leur transparence se retourne contre eux et devienne un aveu de culpabilité. La proximité des énoncés relatifs à l’IA avec ceux liés au plagiat dans la déclaration a également été source de suspicion.
- L’ambiguïté des instructions figurant sur la déclaration d’utilisation de l’IA. Certaines personnes répondantes ont indiqué que les instructions ne permettaient pas de comprendre ce qui était considéré comme un usage de l’IA à déclarer.
- La croyance que l’utilisation de l’IA ne requiert pas de divulgation. Certaines personnes ont expliqué qu’à leurs yeux, les outils d’IA sont des outils personnels, au même titre qu’une calculatrice ou qu’un logiciel de vérification de l’orthographe. De ce fait, déclarer leur utilisation ne leur semble pas nécessaire.
- La perception d’un manque de cohérence dans l’application des règles. Les étudiantes et les étudiants rencontrés ont remarqué une application variable des règles encadrant l’usage de l’IA chez les personnes enseignantes. Cela a entraîné de la confusion quant à la nécessité de signer la déclaration d’utilisation de l’IA.
- L’influence des pairs et la compétition. Les répondantes et répondants ont évoqué avoir l’impression que l’usage de l’IA est fréquent, et que conséquemment, il est normal de l’utiliser pour demeurer au même niveau que ses pairs. Paradoxalement, malgré cette normalisation, les étudiantes et les étudiants ont expliqué craindre que déclarer l’usage de l’IA les fasse paraître moins compétents que leurs pairs.
Comment encourager la déclaration de l’utilisation de l’IA ?
Ces résultats conduisent la chercheuse à formuler quelques recommandations aux établissements désirant amener les étudiantes et les étudiants à déclarer les usages de l’IA :
- Les établissements devraient élaborer des politiques claires encadrant l’utilisation de l’IA et le personnel enseignant devrait en être partie prenante. Ce dernier doit être formé afin de communiquer clairement les usages acceptés et interdits.
- Les politiques encadrant l’IA devraient mettre l’accent sur l’innovation académique et la responsabilité éthique afin de réduire la crainte des étudiants et étudiantes d’être pénalisés pour leur usage de l’IA.
- Afin d’encourager la déclaration honnête de l’utilisation de l’IA, une relation de confiance doit être bâtie entre les institutions et la population étudiante. Cette dernière doit avoir confiance que les évaluations seront justes et équitables malgré l’usage de l’IA. La chercheuse suggère de familiariser les étudiantes et les étudiants avec le formulaire de déclaration en l’intégrant d’abord dans des évaluations formatives, puis sommatives.
- L’influence des pairs pourrait être mise à profit via des programmes de mentorat et des ateliers portant sur l’usage éthique de l’IA. Cela contribuerait à envoyer le message que l’intégrité académique est une responsabilité partagée.
- Enfin, la chercheuse rappelle que les politiques entourant l’utilisation de l’IA doivent être adaptées au contexte des établissements pour répondre aux besoins particuliers des facultés et des personnes étudiantes. Ces politiques devraient aussi être régulièrement mises à jour afin de refléter les changements technologiques.
Référence
Gonsalves, C. (2024). Addressing student non-compliance in AI use declarations: implications for academic integrity and assessment in higher education. Assessment & Evaluation in Higher Education. https://doi.org/10.1080/02602938.2024.2415654