Les conseils scolaires sont aux prises avec l’utilisation de l’IA en classe, mais les politiques formelles restent insaisissables

Certains des plus grands conseils scolaires du Canada commenceront la nouvelle année scolaire sans politiques formelles sur l’utilisation de l’intelligence artificielle en classe, malgré les inquiétudes quant à l’impact de la technologie sur l’apprentissage et l’intégrité académique.

Mais même s’il semble y avoir un large consensus sur la nécessité de davantage d’orientation et de vigilance en matière d’IA à l’école, un expert en éducation affirme que des politiques générales ne seront de toute façon pas susceptibles d’aider.

La Presse Canadienne a demandé à 10 conseils scolaires de différentes régions du pays s’ils mettraient en œuvre une politique formelle pour l’année scolaire 2023-2024 couvrant l’utilisation de l’IA par les enseignants et les élèves, comme les chatbots capables de résoudre des problèmes de mathématiques ou de rédiger des dissertations.

Parmi les conseils qui ont répondu à l’enquête, aucun n’avait mis en place de politique officielle spécifique à l’IA. Certains ont déclaré qu’ils appliqueraient leurs codes de conduite existants à l’utilisation de l’IA en classe, tandis que d’autres ont déclaré qu’ils étaient en consultation sur la meilleure façon de s’attaquer à ce problème en croissance rapide.

Le Conseil scolaire du district de Toronto, le plus grand du pays, a seulement déclaré dans un bref communiqué que son personnel « examinerait la question plus en profondeur » pour déterminer si des changements étaient nécessaires aux règles d’honnêteté académique du conseil scolaire.

Juste à l’ouest de Toronto, le Peel District School Board a déclaré qu’il était « très conscient des implications éthiques et des risques potentiels associés à l’IA dans l’éducation » et qu’il adoptait une « approche proactive » pour atténuer tout risque.

« Grâce à des discussions continues et à une collaboration avec le personnel et les consultants du département, le conseil scolaire veille à ce que notre mise en œuvre de l’intelligence artificielle soit conforme aux meilleures pratiques, aux considérations éthiques et aux besoins uniques de notre population étudiante diversifiée », a déclaré le conseil scolaire dans un communiqué. « Ce travail éclairera la politique du conseil scolaire sur l’utilisation de l’IA dans les salles de classe et toute mesure d’atténuation, si nécessaire. »

Le Conseil scolaire de Calgary a déclaré qu’il n’avait pas de politique formelle sur l’IA, mais qu’il travaillait avec les écoles pour « construire une compréhension commune des utilisations légitimes et des limites de l’IA dans l’éducation », en mettant l’accent sur l’éthique. Le conseil scolaire a déclaré que les attentes des étudiants sont déjà décrites dans son code de conduite des étudiants et que les enseignants doivent « identifier clairement » les cas où l’utilisation de l’IA n’est pas autorisée dans les devoirs.

« En tant qu’éducateurs, nous soutenons l’utilisation d’outils d’assistance pour améliorer l’apprentissage, et non pour le remplacer », a déclaré le conseil dans un communiqué.

La Division scolaire de Winnipeg a également déclaré qu’elle n’avait pas de politique officielle, mais que son message aux enseignants était « qu’il y a une composante d’apprentissage dans l’IA et qu’ils devraient veiller à ce que l’outil soit utilisé de manière éthique et efficace dans leurs salles de classe ».

Pendant ce temps, la division des écoles publiques de Saskatoon a déclaré que des recherches supplémentaires sur les avantages et les impacts de l’utilisation de l’IA étaient nécessaires « avant de pouvoir explorer l’élaboration de politiques ».

Lauren Bialystok, professeure d’éducation à la justice sociale à l’Institut d’études pédagogiques de l’Ontario de l’Université de Toronto, a déclaré qu’il n’était pas surprenant que les conseils scolaires n’instituent pas de politiques formelles sur l’IA. Elle n’est pas non plus convaincue que de telles politiques fonctionneraient.

« Nous avons besoin de moyens plus raffinés et plus sensibles pour comprendre ce qui constitue une utilisation légitime ou illégitime de ces outils », a-t-elle déclaré dans une interview.

« Et une politique à l’échelle du conseil scolaire ou même une politique à l’échelle de l’école – dans certains cas même une politique à l’échelle du département – sera nécessairement trop générale ou trop spécifique pour quelqu’un. »

Bialystok a déclaré que c’est un fait que les outils d’IA tels que ChatGPT, le chatbot qui a explosé en popularité dès son lancement l’automne dernier, constituent une menace à l’intégrité académique – en particulier dans l’enseignement postsecondaire. Mais malgré ses pièges, l’IA offre également un « potentiel éducatif » et il existe des moyens éprouvés permettant aux étudiants et aux enseignants de l’utiliser pour améliorer l’apprentissage, a-t-elle noté.

« Ainsi, quelque chose comme, disons, une interdiction est non seulement complètement naïve et peu pratique, mais passe en réalité à côté de la nature multiforme de ces technologies. »

L’une des principales justifications d’une politique en matière d’IA serait de détecter et de minimiser la tricherie, mais élaborer un ensemble complet de règles pour les écoles est « très difficile » pour plusieurs raisons, a-t-elle déclaré.

Par exemple, les risques et les avantages varient selon le sujet. « Ce qui peut être admissible pour l’utilisation de l’IA dans un cours de sciences peut l’être moins dans un cours d’anglais, ou vice versa. »

Elle a également souligné que l’IA évolue constamment et qu’il serait donc très difficile de la suivre d’un point de vue politique.

Des instructeurs de partout au pays ont déclaré à La Presse Canadienne ces derniers mois qu’ils utilisent l’outil pour la planification des cours, les tâches administratives et qu’ils l’intègrent même dans les devoirs de certains étudiants.

Mais Bialystok a déclaré que si de nombreux enseignants férus de technologie sont heureux d’expérimenter l’IA en classe, beaucoup « n’ont pas non plus le temps ni les moyens » de comprendre comment l’utiliser et surveiller son utilisation.

« Leur profession, dans un certain sens, a changé du jour au lendemain et, de toute façon, ils n’avaient pas suffisamment de soutien, de répit ou de développement professionnel », a-t-elle déclaré.

Sarah Eaton, professeure agrégée à l’Université de Calgary et experte en éducation à l’IA, a déclaré que les conseils scolaires et les ministères de l’Éducation devraient envisager le développement professionnel des enseignants afin de mieux comprendre l’IA et la manière dont les élèves peuvent l’utiliser.

Eaton a déclaré qu’elle s’inquiétait du fait que les enseignants « ferment les yeux sur la technologie » en classe.

« Nous ne pouvons pas le contrôler ni l’interdire, mais nous pouvons aider les élèves à apprendre à l’utiliser, de manière supervisée, réfléchie et significative. »

— Avec des fichiers de William Eltherington

Sonja Puzic, La Presse Canadienne

Technologie IAÉcoles