|
|
JOURNÉE D'ÉTUDES DE L'APLV Nous aurons le plaisir de vous retrouver cette année à l'université de Paris-Nanterre pour une nouvelle édition de notre journée d''études annuelle. Cette année nous réfléchirons tous en ensemble à l'évaluation, vaste thème qui mobilise tous les acteurs de l'enseignement des langues. Les communications et posters s'intéresseront aux 4 axes prioritaires suivants: Axe 1 : Enjeux pédagogiques et institutionnels de l’évaluation en langues vivantes Axe 2 : Théories, méthodologies et recherches en cours sur l’évaluation en langues vivantes Axe 4 : L’intelligence artificielle dans l’évaluation et l’accompagnement des apprentissages APPEL Le verbe évaluer vient du latin valere, « valoir, avoir de la valeur », et désigne à la fois un acte de mesure et un processus d’attribution de valeur ou de jugement (CNRTL). Dans le champ éducatif, l’évaluation n’est pas un acte purement technique : elle engage des choix pédagogiques, institutionnels, éthiques et sociaux, qui façonnent le sens même de l’enseignement. En langues vivantes, ces enjeux prennent une dimension particulière. Évaluer ne consiste pas seulement à vérifier des connaissances linguistiques, mais aussi à apprécier la capacité des apprenants à mobiliser ces ressources dans des contextes variés, intégrant une dimension pragmatique, socioculturelle et interculturelle (Conseil de l’Europe, 2018 ; Piccardo & North, 2019 ; Tardieu, 2008). L’évaluation de l’oral, en particulier, mobilise de multiples critères : fluidité, aisance, précision linguistique (lexicale, grammaticale, phonologique), prosodie, pertinence pragmatique, adéquation au contexte sociolinguistique et culturel, et capacité d’interaction et de co-construction du discours. Ces critères, dont la pondération varie selon les types de tâches (interaction spontanée, présentation, médiation…), visent à évaluer la performance communicative globale, tout en exposant enseignants et élèves à la subjectivité de l’évaluation, notamment dans le domaine oral, et à des facteurs affectifs tels que l’anxiété langagière (Dewaele & MacIntyre, 2014 ; Lemarchand-Chauvin & Schmoll, projet GIS EMO-Lang, 2024–2026). Il est donc nécessaire d’utiliser des outils d’évaluation adaptés pour rendre compte de la co-construction du sens dans l’interaction (Manoïlov, 2021). Depuis 2001, le Cadre européen commun de référence pour les langues (CECRL) constitue un pilier des politiques linguistiques en Europe. Son échelle de niveaux (A1 à C2), enrichie en 2018, structure les programmes (Eduscol, 2020), les certifications (CLES, DELF, etc.), les concours de recrutement (CAPES, Agrégation), ainsi que les examens nationaux comme le baccalauréat. En complément de ce cadre, les évaluations conduites par la DEPP ou les enquêtes PISA mettent en lumière des écarts persistants entre les compétences visées par les politiques éducatives et celles effectivement maîtrisées par les élèves (OCDE, 2023). Traduire ces référentiels institutionnels en pratiques d’évaluation effectives s’avère complexe. Claire Tardieu (2008, 2009) souligne le caractère encore fragile de l’articulation entre évaluation formative et sommative, alors que la note continue de dominer les pratiques, parfois au détriment de la dimension formative. La docimologie, science de la mesure en éducation (Bourdoncle, 2007), met en évidence les biais d’évaluation. Cette subjectivité est particulièrement manifeste dans l’évaluation de l’oral, comme l’ont montré Fulcher (2024) et Han (2016), qui analysent la variabilité des jugements et les limites des outils d’objectivation. L’essor de l’évaluation par compétences interroge plus que jamais le lien entre évaluation et notation, jugée parfois anxiogène ou réductrice (Marchadour, 2019 ; Castellotti, 2017). Dans ce contexte, l’intelligence artificielle (IA) suscite de fortes attentes. Elle offre des perspectives nouvelles : correction automatisée, analyses linguistiques, feedback immédiat ou scoring prédictif (Xi, 2021). Si la recherche s’est déjà largement penchée sur les usages de l’IA dans l’évaluation éducative en général (Gardner & al., 2021 ; Jung & al., 2025), un manque subsiste concernant son application spécifique à l’évaluation des langues vivantes. Peu d’études abordent encore de manière approfondie les enjeux soulevés par l’usage de l’IA pour des tâches orales, interactionnelles ou pragmatiques, qui nécessitent une analyse fine des productions langagières humaines (Voss, 2024 ; Xi, 2021). Ces défis appellent aujourd’hui à repenser l’évaluation en langues vivantes à l’ère de l’intelligence artificielle. L’objectif n’est plus seulement de mesurer, mais de construire une évaluation plus juste, précise, valorisante et inclusive, au service de l’apprentissage et de la réussite des parcours. Comment articuler exigences institutionnelles, confiance des apprenants et innovations technologiques ? Comment l’IA peut-elle accompagner l’enseignant, sans se substituer à son expertise ni réduire la dimension humaine de l’évaluation ? Telles sont les questions au cœur de cette Journée d’étude de l’APLV, articulant table ronde, communications scientifiques et retours d’expériences. Cet appel s’adresse à tous les acteurs de l’enseignement des langues, du primaire à l’université. Types de contributions attendues
Axe 2 : Théories, méthodologies et recherches en cours sur l’évaluation en langues vivantes
Axe 4 : L’intelligence artificielle dans l’évaluation et l’accompagnement des apprentissages Posters : expérimentations, pratiques et innovations de terrain • Des dispositifs pédagogiques ou outils d’évaluation développés en classe ; La journée d’étude donnera lieu à un numéro spécial dans la revue Les Langues Modernes de l’APLV. Bibliographie indicative |