2025-02-11
Deux perspectives sur l’IA en éducation supérieure
Partout sur la planète, l’innovation fulgurante en IA transforme l’enseignement supérieur. Comment pouvons-nous, en tant que communauté universitaire, tirer profit de cette technologie tout en négociant les défis éthiques et pédagogiques qu’elle pose ? Voilà la question directrice qui guidera mon mandat.
L’année 2025 est déjà bien entamée. Et elle apporte des vents de changement en IA, mais aussi de nouvelles connaissances fondamentales sur les enjeux en éducation et à l’université. Aujourd’hui, nous observons ces deux perspectives ouvertes par la recherche la plus récente.
L’IA agentique au service de la recherche ?
Si vous suivez l’actualité technologique, l’expression « IA agentique » (agentic AI) est sur toutes les lèvres ; c’est l’évolution normale et prévisible de l’IA générative. Il s’agit tout simplement d’augmenter les capacités des systèmes et services d’IA générative pour qu’ils puissent devenir des assistants plus utiles, compétents et polyvalents. Notamment en pouvant atteindre des objectifs étape par étape, utiliser des outils numériques de manière compétente et poser différentes actions en notre nom.
Les personnes abonnées à ChatGPT Plus peuvent d’ores et déjà lui confier des tâches en tant qu’agent. Par exemple, ChatGPT effectue à ma demande une veille numérique quotidienne. Il m’informe des publications et événements importants pour me garder à jour sur les éléments de mon mandat à la Faculté des arts et des sciences. Chaque matin, il effectue automatiquement une recherche en ligne, puis m’envoie un courriel contenant un petit rapport faisant état des événements, innovations et publications pertinentes pour mon travail (avec hyperliens). ChatGPT complémente ainsi ma veille technologique, dans un contexte où je manque toujours de temps.
Pour les communautés de recherche, l’IA agentique permet d’aller encore plus loin avec les capacités de « raisonnement » des nouveaux modèles, comme Gemini 2.0 de Google ainsi que les modèles o1-o3 d’OpenAI. En effet, ces modèles « raisonneurs » peuvent effectuer une recherche approfondie (deep research) : en interprétant des instructions générales de manière très sophistiquée, notamment en vous posant des questions pour les préciser, ils peuvent collecter, analyser et synthétiser des centaines de contenus provenant de multiples sources (en les citant directement). Bien que la performance en recherche de ces agents ne soit pas encore d’un niveau expert (professionnel ou scientifique), cette assistance peut augmenter considérablement les capacités de recherche des experts [1].
À terme, l’objectif des sociétés technologiques de la Big Tech est de créer une offre mondiale complète de services et d’assistants d’IA, pouvant réaliser la plupart des tâches cognitives de manière autonymique. À l’université, les nouvelles capacités de l’IA agentique soulèveront, encore une fois, des opportunités et des défis d’adaptation auxquels nous devrons revenir pour les discuter.
Les effets sur l’apprentissage
Faisons maintenant un petit état des lieux sur les connaissances disponibles à propos des effets de l’IA générative sur l’apprentissage.
Depuis la sortie de ChatGPT (en novembre 2022), la majorité des centaines d’études portant sur les effets d’apprentissage de l’IA ont documenté des corrélations positives. Chez les cohortes adolescentes comme chez les universitaires. Et ce, un peu partout dans le monde.
On pourrait dès lors se féliciter et envisager l’intégration tous azimuts de l’IA en enseignement supérieur, en estimant que « la science » appuie cette vision. Mais attention : si les études disponibles nous offrent de bonnes pistes, elles n’offrent cependant aucune certitude et sont d’une qualité scientifique très inégale.
Face à la nouveauté du phénomène de l’IA générative dans le monde de l’éducation, les études publiées en 2023-2024 ont adopté, en grande majorité, des méthodologies transversales sur de petits échantillons, recueillant des données à un instant T sans vérifier l’effet par un contexte expérimental contrôlant les variables ou par des mesures longitudinales. La plupart des études ne permettent donc pas d’établir la causalité et laissent place à des erreurs de type II. Par exemple, il se pourrait que les gains d’apprentissage mesurés s’expliquent surtout par les profils étudiants, plutôt que par les usages pédagogiques testés.
C’est du moins l’une des leçons suggérées par la première méta-analyse systématique des données, publiée à la fin de 2024 [2]. Suivant la norme PRISMA (Preferred Reporting Items for Systematic Reviews and Meta-Analyses), l’équipe de recherche a recensé et analysé les 69 « meilleures » études quantitatives (transversales et expérimentales) publiées dans des revues et congrès scientifiques anglophones entre le 1er décembre 2022 et la fin d’août 2024. À noter que 84 % des publications retenues pour analyse systématique se sont déroulées dans un contexte universitaire (le reste dans des contextes préuniversitaires). Cette méta-analyse nous offre ainsi un premier portrait scientifique de la recherche quantitative anglophone.
On y apprend que la grande majorité (87 %) des expérimentations dénombrées en Asie de l’Est, en Amérique du Nord et en Europe ont eu lieu en classe pour mieux contrôler les variables environnementales. Aussi, par volonté de précision comparative, les auteurs ont choisi d’inclure uniquement les études effectuées en contexte pédagogique d’utilisation directe de ChatGPT comme outil d’apprentissage en classe [3]. Aucune étude portant sur l’utilisation de l’IA comme soutien pédagogique à la maison ne fut retenue.
Maintenant, que nous apprend cette méta-analyse systématique [2] ? Voici les principaux résultats :
1) L’utilisation de ChatGPT a eu un effet positif global sur l’apprentissage (g+ = 0,712 [p < 0.001]), avec 44 des 51 études montrant des gains positifs.
2) Ensuite, ChatGPT a eu un effet positif significatif (g+ = 0,881 [p < 0.001]) sur la motivation, l’intérêt et l’engagement des personnes étudiantes mesurées.
3) Enfin, il a eu un effet positif (g+ = 0,703 [p < 0.001]) sur la résolution de problèmes et la réflexion critique (pensée de haut niveau).
Cependant, la méta-analyse documente aussi des défis [2] :
4) L’utilisation de ChatGPT ne s’est pas traduite par un effet significatif sur l’auto-efficacité des personnes étudiantes (g+ = 0,441 [p = 0,137]), ce qui suggère que l’IA ne modifie pas leur perception de leurs propres capacités, forces et difficultés (métacognition).
5) Finalement – et c’est très important –, l’utilisation de ChatGPT réduit l’effort mental requis pour certaines tâches, avec un effet négatif significatif (g+ = -0,675 [p = 0,026]).
Le délestage cognitif
Lors de mes derniers ateliers sur l’intégrité et les approches pédagogiques, j’ai beaucoup insisté sur le défi du délestage cognitif. Comme le suggère la méta-analyse précitée, une réduction généralisée de l’effort cognitif dans le travail scolaire se traduit souvent par un apprentissage réduit, voire un désapprentissage associé aux fonctions supérieures de la cognition. Pire encore, une étude publiée début 2025 [4] soutient que l’usage de l’IA se traduit par une baisse des capacités de pensée critique chez les jeunes de 17-25 ans (r = - 0,75 [p < 0,001]).
La formation universitaire doit donc rester prudente. L’IA modifie très rapidement notre environnement cognitif, et les personnes étudiantes sont plus vulnérables aux effets négatifs de cette transformation que les personnes pleinement développées au plan intellectuel. À mon avis, valoriser et protéger le développement cognitif de la communauté étudiante doit demeurer la priorité de l’éducation supérieure, ce qui passe par une sensibilisation constante à propos des usages technologiques.
Pour soutenir notre mission et protéger les cerveaux, on doit prévoir des activités et évaluations sans IA. Mais la communauté enseignante doit aussi développer des pédagogies de co-intelligence avec l’IA. Celles-ci devraient solliciter les capacités cognitives supérieures de la communauté étudiante comme l’autoévaluation, l’esprit critique, la résolution de problème et la créativité (originalité, pensée divergente).
Nous y reviendrons dans les prochains ateliers, ainsi que dans la nouvelle communauté de pratique, réunissant la plupart des disciplines enseignées à la Faculté des arts et des sciences.
Note : Les propos de Dave Anctil vous sont offerts à titre personnel, pour susciter la réflexion. Certains outils mentionnés ne font pas l’objet d’un soutien par les TI de l’Université de Montréal.
Références
[1] N. Jones (2025). « OpenAI’s ‘deep research’ tool: is it useful for scientists? », Nature News, 6 février.
[2] Deng R., Jiang M., Yu X., Lu Y. & Liu S. (2024). « Does ChatGPT enhance student learning? A systematic review and meta-analysis of experimental studies », Computers & Education [version préliminaire].
[3] Note à la communauté de recherche dans le domaine : à mon avis, la décision de restreindre la sélection des études utilisant ChatGPT ne fait qu’ajouter un vernis de rigueur scientifique. En effet, les différences entre ChatGPT 3.5 et ChatGPT 4o sont beaucoup plus grandes qu’entre, disons, ChatGPT 4o et Gemini Pro. On devrait comparer l’effet des systèmes d’IA sur la cognition humaine en fonction de la comparabilité de leurs capacités (modèles LLM, fonctionnalités utilisateurs, etc.) ; l’entreprise ou le nom du service importent beaucoup moins.
[4] Gerlich, M. (2025). « AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking », Societies, 15 (1), 6.