Numéro coordonné par Natasha Noben (Université de Luxembourg) et Aurélien Fiévez (HES-SO Genève)
natasha.noben@uni.lu et aurelien.fievez@hesge.ch
L’intelligence artificielle (IA) a fait une entrée remarquée dans le domaine de l’éducation au cours des dernières années. Son utilisation pour soutenir l’apprentissage connaît une croissance exponentielle, portée par de nombreuses innovations technopédagogiques. Cependant, il reste difficile de mesurer précisément comment l’IA améliore l’enseignement, l’apprentissage ou même aide les chercheur·es et professionnel·les de l’éducation à mieux comprendre les mécanismes d’un apprentissage efficace. Cette tension entre engouement et incertitude motive le présent numéro thématique, qui se propose d’examiner le rôle de l’IA dans l’enseignement, les apprentissages et la recherche.
Plusieurs définitions de l’IA coexistent dans la littérature, reflétant la pluralité du concept. Elle est parfois décrite comme « une branche de la science et de la technologie modernes visant d’une part à explorer les secrets de l’intelligence humaine, d’autre part à implémenter autant que possible l’intelligence humaine dans les machines, afin que ces dernières soient capables d’exécuter des fonctions aussi intelligemment qu’elles le peuvent. » Zhong, (2006, p. 90). Elle est également définie comme impliquant des machines capables d’imiter certaines fonctionnalités de l’intelligence humaine, notamment des caractéristiques telles que la perception, l’apprentissage, le raisonnement, la résolution de problèmes, l’interaction linguistique et même la production d’œuvres créatives (COMEST, 2019). Popenici et Kerr (2017) la décrivent par exemple comme « des systèmes informatiques capables de s’engager dans des processus de type humain tels que l’apprentissage, l’adaptation, la synthèse, l’autocorrection et l’utilisation de données pour des tâches de traitement complexe ». Loin d’opposer frontalement intelligence humaine et artificielle, cette vision met en avant les interactions potentielles et la complémentarité entre les deux.
Les usages de l’IA en éducation peuvent être catégorisés selon différents axes. Ainsi, Baker et al. (2019) distinguent des usages tournés vers le système, vers l’étudiant et vers l’enseignant. De son côté, l’UNESCO (2021) propose quatre grands domaines d’applications : la gestion et l’administration de l’éducation, l’apprentissage et l’évaluation, l’autonomisation des enseignant·es, et l’amélioration de l’éducation tout au long de la vie. Concrètement, de nombreux exemples d’outils à base d’IA sont déjà répertoriés pour soutenir l’enseignement et les apprentissages. On peut citer, entre autres, les learning analytics (analyses de traces d’apprentissage), les systèmes tutoriels intelligents (STI) – y compris les tuteurs conversationnels –, les environnements d’apprentissage exploratoires, l’évaluation automatisée de productions écrites ou encore les applications d’apprentissage des langues assistées par l’IA. Du côté de la recherche, l’IA est également mise à contribution pour assister les chercheurs et chercheuses, par exemple afin de formuler des questions de recherche ou des méthodologies, de collecter ou explorer des données, d’automatiser certaines analyses ou interprétations, voire de contribuer à la rédaction scientifique.
Cependant, qu’en est-il des opportunités et des limites liées à ces usages ? Quels bénéfices éducatifs l’IA permet-elle réellement d’envisager, et quels risques ou obstacles son intégration soulève-t-elle dans la pratique ? Pour appréhender ces enjeux, il est utile d’introduire la notion de plus-value apportée par les technologies en éducation. Noben et Fiévez (2024) définissent ainsi la plus-value (immédiate ou différée) du numérique en éducation comme « l’amélioration amenée par la transformation des pratiques d’enseignement ou d’apprentissage liée au processus d’intégration du numérique dans un dispositif, dans un contexte spécifique et en fonction des perceptions des acteur·trices, [une amélioration] potentielle [qui] ne sera effective que pendant ou après la mise en place du dispositif ». Autrement dit, les apports de l’IA en éducation dépendent fortement du contexte de mise en œuvre et du regard des acteurs et actrices concernés.
Opportunités et bénéfices potentiels de l’IA
De nombreux travaux soulignent les bénéfices espérés de l’IA pour l’enseignement et les apprentissages. Parmi les plus récurrents figurent des gains de rapidité, d’efficacité et de traçabilité dans le traitement des informations éducatives. Par exemple, l’IA peut analyser instantanément de grandes quantités de données (résultats d’évaluations, interactions en ligne, etc.) et fournir aux enseignant·es des tableaux de bord facilitant le suivi des progrès (Alexandre et al., 2023). Elle offre également une forte capacité d’adaptation et de personnalisation des parcours d’apprentissage : il devient plus aisé de créer des exercices ou des contenus sur mesure, adaptés au niveau et aux besoins de chaque apprenant·e. Cette adaptativité accrue, mise en avant par des recherches récentes, laisse entrevoir un meilleur engagement des étudiant·es grâce à des feedbacks immédiats et individualisés.
En outre, l’IA peut contribuer à alléger certaines charges pour les enseignant·es, en prenant en charge des tâches routinières ou en fournissant un accompagnement disponible à tout moment pour les apprenant·es. Des systèmes d’IA bien conçus offrent un retour d’information sans jugement et d’une grande disponibilité, ce qui peut compléter l’action des enseignants humains. Plusieurs études, comme celle de Romero (2019), suggèrent ainsi que l’IA éducative, en favorisant l’auto-régulation des apprenant·es (et même des enseignants dans l’ajustement de leurs pratiques), pourrait améliorer les apprentissages dans certains contextes. Elle peut par exemple aider chacun·e à identifier ses points forts/faibles et à progresser à son rythme, contribuant potentiellement à de meilleurs transferts d’apprentissages via une auto-évaluation améliorée. Enfin, quelques travaux explorent comment l’IA pourrait participer au développement de la pensée critique des élèves – notamment en les confrontant à des informations à analyser ou en les guidant dans la résolution de problèmes complexes (Mollick & Mollick, 2022).
Dans le domaine de la recherche, les opportunités liées à l’IA suscitent également beaucoup d’espoirs. Les outils d’IA générative, en particulier, offrent le potentiel d’accroître l’efficacité des travaux de recherche et de fluidifier certaines étapes du processus scientifique (revue de littérature, génération d’hypothèses, rédaction assistée, etc.) (Andersen et al., 2024 ; Van Noorden & Perkel, 2023). Concrètement, les raisons qui poussent déjà les chercheur·es à utiliser l’IA incluent principalement le gain de temps, une amélioration du sentiment d’efficacité personnelle, un renforcement de la confiance en soi dans certaines tâches, ainsi qu’une réduction du stress lié à la charge de travail. Par ailleurs, des analyses prospectives institutionnelles envisagent que l’IA puisse aboutir à des processus de recherche plus rapides, tout en favorisant de nouvelles formes de collaboration homme–machine au sein des équipes scientifiques. L’IA pourrait aussi contribuer à une meilleure accessibilité de la science, par exemple en aidant des chercheur·es non anglophones à surmonter la barrière de la langue dans la production et la diffusion de leurs travaux.
Limites, risques et controverses actuelles
Face à ces promesses, un certain nombre de craintes, limites et controverses sont régulièrement soulevées concernant l’intégration de l’IA en éducation. Galindo et Pierrot (2024) avertissent que les biais algorithmiques, le respect des données personnelles et le risque d’une éducation « déshumanisée » figurent parmi les écueils majeurs, nécessitant l’établissement de cadres robustes et une vigilance constante. En effet, les questions d’éthique et de transparence reviennent de façon récurrente dans la littérature sur l’IA éducative. Des enjeux complexes se posent autour de la protection des données des apprenant·es et du respect de leur vie privée. L’utilisation massive de données éducatives par des systèmes opaques suscite des inquiétudes légitimes quant au suivi et à la surveillance des élèves, poussant certains auteurs à demander des garanties fortes en matière de confidentialité et de gouvernance des données (p. ex. cadres juridiques, consentement éclairé). Sur le plan de la transparence, Ouoba (2024) souligne l’opacité de nombreux algorithmes actuels et plaide pour une meilleure explicabilité des modèles utilisés. Dans cette optique, Selwyn (2022) estime que les décisions prises par une IA doivent être compréhensibles par les enseignant·es et apprenant·es qui les utilisent. De même, Williamson et Eynon (2020) insistent sur la nécessité de rendre transparents non seulement les critères de décision des systèmes d’IA, mais aussi les données qu’ils utilisent, afin de déceler d’éventuels biais et d’instaurer une confiance raisonnée dans ces outils. Plus globalement, certain·es craignent que l’IA, si elle est mal maîtrisée, ne déshumanise la relation pédagogique en automatisant à outrance des interactions éducatives au détriment du rôle de l’enseignant·e. Il convient donc d’examiner comment l’IA peut compléter le travail enseignant sans le remplacer, et maintenir l’humain au centre des dispositifs d’apprentissage (notamment pour les dimensions socio-affectives que la machine ne saurait reproduire entièrement).
Les risques ne se limitent pas à la salle de classe. Dans le champ de la recherche, des préoccupations similaires émergent. Des scientifiques s’alarment du manque de transparence de certaines IA utilisées pour générer ou analyser des résultats, et du danger de désinformation si l’on s’en remet aveuglément à des modèles qui peuvent produire des erreurs factuelles ou des biais systémiques. La question de l’intégrité académique se pose également avec acuité : l’usage d’IA génératives type ChatGPT pour rédiger des articles ou des rapports soulève le spectre du plagiat et de la fraude, au point que l’on parle d’une « balance à trouver » pour préserver l’honnêteté scientifique (Bin-Nashwan et al., 2023). Certain·es pairs examinateur·ices ou institutions pourraient regarder d’un œil critique, voire refuser, des travaux qui auraient largement recours à l’IA, ce qui limite de fait son intégration sans politique claire. L’UNESCO (2024) s’interroge ainsi sur la place de l’IA dans la recherche en demandant si son essor ne met pas en péril « l’action humaine dans la compréhension du monde réel par le biais de la recherche ». Autrement dit, à trop déléguer de tâches cognitives à la machine, ne risque-t-on pas d’affaiblir le rôle du chercheur humain dans la production de savoir ?
Au-delà de ces enjeux, des débats transversaux viennent nuancer le tableau de l’IA éducative. D’une part, la nécessité d’une véritable littératie en IA se fait jour : il importe de former les enseignant·es, les élèves et plus généralement les citoyen·nes aux fondamentaux de l’IA, afin qu’ils puissent utiliser ces outils de manière éclairée et critique plutôt que passive. La peur ou la méconnaissance de l’IA peuvent constituer des freins majeurs à son adoption judicieuse, d’où l’importance d’une acculturation progressive pour en faire un outil au service des pédagogues et des apprenants, et non une « boîte noire » subie. D’autre part, l’inclusion constitue un impératif : sans garde-fous, l’intégration de l’IA pourrait exacerber la fracture numérique ou introduire de nouveaux biais défavorisant certains publics (par exemple si les algorithmes ne sont entraînés que sur des données socio-culturellement biaisées). Les décideurs appellent donc à la vigilance pour que l’IA n’aggrave pas les inégalités existantes ni ce que l’UNESCO qualifie de « pauvreté numérique ». Bien au contraire, une IA éducative bien pensée devrait respecter la diversité des apprenant·es et contribuer à la réduction des écarts, en s’alignant sur des principes d’équité et d’inclusion. Enfin, la question de la soutenabilité (durabilité) des solutions d’IA commence à émerger : on s’interroge sur l’impact environnemental de modèles très coûteux en calcul et en énergie, ainsi que sur la pérennité économique de l’intégration de ces technologies dans des systèmes éducatifs aux moyens souvent contraints. Là encore, des approches « IA responsable » préconisent de minimiser l’empreinte écologique et d’évaluer rigoureusement le rapport coût-efficacité de chaque innovation introduite.
Face à l’ensemble de ces défis, les organismes internationaux et les chercheurs appellent à l’élaboration de cadres de régulation et de bonnes pratiques pour encadrer l’essor de l’IA éducative. L’UNESCO (2025), notamment, a récemment publié des orientations globales invitant les États à adopter une approche centrée sur l’humain, où l’IA serait mise « au service du développement des capacités humaines pour des avenirs inclusifs, justes et durables ». Ces recommandations soulignent l’importance de réguler l’usage de l’IA dans l’éducation et la recherche (par des lois, normes éthiques, protections juridiques autour des données, etc. ) tout en développant les compétences des enseignant·es et apprenant·es pour s’approprier ces outils de manière réfléchie. Il s’agit en somme de maximiser les bénéfices de l’IA (efficience, personnalisation, accès au savoir…) tout en en contenant les dérives potentielles, afin que son intégration contribue réellement à améliorer l’éducation et la science sans trahir leurs valeurs fondamentales.
Pour contribuer à ces réflexions, ce numéro thématique de la revue IPTIC est structuré autour de trois axes principaux centrés sur les opportunités et les limites de l’IA : l’enseignement, les apprentissages et la recherche.
Les contributions attendues pourront relever aussi bien d’une synthèse des connaissances (revue systématique de la littérature existante, analyse théorique d’un courant de recherches) que d’une étude empirique ou d’une analyse de dispositif (par exemple retour d’expérience sur l’implémentation d’un outil d’IA dans un contexte éducatif donné), voire d’une réflexion prospective sur les enjeux à venir. Dans tous les cas, les auteur·es sont encouragé·es à adopter une approche nuancée, s’appuyant sur des éléments probants, pour éclairer le débat « IA et éducation » sous l’angle choisi.
Voici quelques questions (non exhaustives) qui pourront être abordées dans les articles :
Quels sont les enjeux de l’IA pour l’avenir, en lien avec l’enseignement, l’apprentissage et/ou la recherche ?
Quelles sont les perceptions des acteurs (apprenant·es, enseignant·es, établissements d'enseignement, etc.) concernant les usages de l’IA pour l’enseignement et l’apprentissage ?
Quels dispositifs pédagogiques et modes d’évaluation peuvent être soutenus par l’utilisation de l’IA, et quels effets en attendre en termes de développement des compétences des apprenant·es ou de satisfaction des parties prenantes ?
Quelles nouvelles contraintes s’imposent dans le choix des outils d’IA, et quelles bonnes pratiques adopter pour un usage éthique et durable de ces outils en contexte éducatif ?
Références
Alexandre, F., Comte, M-H, Lagarrigue, A., & Viéville, T. (2023). L’IA pour mieux apprendre et appréhender L’IA. In M. Romero, L. Heiser & A. Lepage (Eds.). Enseigner et apprendre à l’ère de l’intelligence artificielle. https://hal.science/hal-04013223/file/202303_LivreBlanc_UsagesCreatifsIA_GTnum_Scol_IA_R02.pdf
Andersen, J. P., Degn, L., Fishberg, R., Graversen, E. K., Horbach, S. P. J. M., Kalpazidou Schmidt, E., Schneider, J. W., & Sørensen, M. P. (2024). Generative Artificial Intelligence (GenAI) in the research process – a survey of researchers’ practices and perceptions. https://doi.org/10.31235/osf.io/83whe
Baker, T., Smith, L., & Anissa, N. (2019). Educ-AI-tion Rebooted? Exploring the future of artificial intelligence in schools and colleges. London : NESTA. https://www. nesta.org.uk/report/education-rebooted
Bin-Nashwan, S. A., Sadallah, M., & Bouteraa, M. (2023). Use of ChatGPT in academia: Academic integrity hangs in the balance. Technology in Society, 75. https://doi.org/10.1016/j.techsoc.2023.102370
COMEST (UNESCO World Commission on the Ethics of Scientific Knowledge and Technology) (2019). Preliminary Study on the Ethics of Artificial Intelligence. https://unesdoc.unesco.org/ark:/48223/pf0000367823
Galindo, L., & Pierrot, L. (2024). Que peut l’intelligence artificielle dans une collaboration humain-machine en éducation?. Revue internationale d’éducation de Sèvres, (97), 24-28.https://doi.org/10.4000/139bq
Mollick, E-R., & Mollick, L. (2022, Décembre 23). New Modes of Learning Enabled by AI Chatbots:Three Methods and Assignements. SSRN, 21. https://dx.doi.org/10.2139/ssrn.4300783
Noben, N., & Fiévez, A. (2024). Les plus-values pédagogiques liées à l’intégration du numérique en éducation : validation d’une définition et d’une typologie par un panel d’experts. Formation et Profession : Revue Scientifique Internationale en Education, 32 (1), 1-19. doi:10.18162/fp.2024.836
Ouoba, N. E. (2024). L'intégration des outils d'intelligence artificielle dans l'enseignement supérieur : perceptions, usages et défis. Les Cahiers de l'ACAREF, 4. hal-04961618
Popenici, S. A. D., & Kerr, S. (2017). Exploring the impact of artificial intelligence on teaching and learning in higher education. Research and Practice in Technology Enhanced Learning, 12(22), 1-13. https://doi.org/10.1186/s41039-017-0062-8
Romero, M. (2019). Analyser les apprentissages à partir des traces. Distances et médiations des savoirs, 26. https://doi.org/10.4000/dms.3754
Selwyn, N. (2022). The Future of AI and Education: Some Cautionary Notes. European Journal of Education, 57(4), 620 - 631. https://doi.org/10.1111/ejed.12532.
UNESCO (2021), IA et éducation: guide pour les décideurs politiques. https://unesdoc.unesco.org/ark:/48223/pf0000380006
UNESCO (2024). Orientations pour l’intelligence artificielle générative dans l’éducation et la recherche. https://doi.org/10.54675/HBCX3851
UNESCO (2025). Cadre mondial actualisé pour l’éthique de l’intelligence artificielle en éducation. https://doi.org/10.54675/BQZD8407
Van Noorden, R., & Perkel, J. M. (2023). AI and science: what 1,600 researchers think. Nature, 621(7980), 672–675. https://doi.org/10.1038/d41586-023-02980-0
Williamson B., & Eynon R. (2020), Datafication and Automation in Higher Education: Critical Perspectives on AI, Data and Learning Analytics, Learning, Media and Technology, 45(1), 1-12.
Zhong, Y. (2006). A cognitive approach to artificial intelligence research. IEEE International Conference on Cognitive Informatics, Beijing, China. https://doi.org/10.1109/COGINF.2006.365682
15 juin 25 : Envoi d’un abstract par les auteur·e·s intéressé·e·s (env. 400 mots)
15 juil. 25: Confirmation des pré-sélections par les coordinateur·trices du numéro
31 oct. 25 : Envoi de la première version du texte
31 janv. 26 : Evaluation des textes et envoi des feed-back aux auteurs
15 mars 26 : Envoi de la deuxième version du texte
15 juin 26 : Publication du numéro
Les auteurs et auditeurs doivent se conformer aux recommandations de la revue concernant la présentation et l’organisation des manuscrits.
Les résumés et communications doivent être transmis en format électronique (formats .doc ou .docx), envoyés à natasha.noben@uni.lu et aurelien.fievez@hesge.ch dans une version anonymisée et dépouillée de toute indication permettant d’identifier leurs auteurs (remplacer (Piaget, 1976) par (Auteur, 1976)). Dans les propriétés du document, les auteurs vérifient que leurs identités sont bien éliminées. La revue est exclusivement francophone.
Sur la première page, les coordonnées complètes des auteurs ainsi que leur attache institutionnelle (le cas échéant) sont clairement indiquées.
Tout manuscrit doit être conforme aux normes de présentation de l’APA (7e édition française). Ces règles de présentation sont à respecter pour les citations, les références bibliographiques, les figures et les tableaux.
Les questions peuvent être soumises à l’ensemble de coordinateurs.