Formation & IA : embrasser le chaos, redessiner l’évaluation
Abstract
L’irruption de l’intelligence artificielle générative bouleverse en profondeur les pratiques d’évaluation, exposant la fragilité d’un modèle fondé sur la production écrite différée, désincarnée, scriptable. Dans ce nouveau contexte, étudiants comme enseignants s’appuient — souvent clandestinement — sur l’IA pour produire, corriger, ou valider, au risque de vider l’évaluation de sa fonction première : attester d’un apprentissage réel.
Face à cette zone grise, cet article propose une relecture des fondements de l’évaluation à l’ère de l’IA. Il met en évidence les limites des dispositifs classiques, tout en réhabilitant des formes d’évaluation plus exigeantes, processuelles, incarnées : l’oralité, le dialogue, la co-construction du jugement, la mise à l’épreuve située. Loin d’être de simples ajustements techniques, ces déplacements dessinent les contours d’un nouveau contrat pédagogique, fondé sur la présence, la réflexivité, et le trouble.
Évaluer ne peut plus se réduire à mesurer un produit fini : il s’agit désormais d’interpréter un cheminement. Et derrière cette transformation se joue une question plus vaste — celle du regard que nous portons, collectivement, sur ce que signifie apprendre et évaluer.
1. L’évaluation à l’épreuve de l’IA
Des étudiants qui rendent des synthèses parfaites, des analyses bien structurées, des travaux en apparence irréprochables – mais qu’ont-ils réellement fait ? Ont-ils compris, véritablement intégré ? Ou simplement copié-collé le résultat d’un prompt bien ajusté ?
Des enseignants qui corrigent à la chaîne, parfois avec l’aide discrète d’un assistant IA, sans l’expliciter, ni toujours pouvoir discerner si le texte qu’ils lisent est vraiment celui de l’étudiant – ou celui d’un chatbot bien entraîné. Des hautes écoles qui installent dans l’urgence des filtres anti-IA… qui sont déjà obsolètes1. Et, en creux, les pratiques clandestines s’installent : chacun sait que l’autre « triche » un peu. Et dans une sorte de connivence généralisée, tout le monde ferme les yeux en faisant mine.
Nous vivons une véritable déferlante. Ce que l’IA bouleverse ici, ce ne sont pas seulement les supports ou les outils d’évaluation : c’est le contrat tacite entre formateur et apprenant. Celui qui dit : “ce que tu me montres, c’est ce que tu as appris”. » Et la question devient à la fois urgente et critique : peut-on encore affirmer, avec certitude, que ce que nous évaluons est réellement le fruit d’un apprentissage ? Et si non, que validons-nous exactement ? Une compétence ? Un usage habile de la technologie ? Une capacité à faire illusion ? Les repères stables que nous avions jusqu’à présent se sont transformés en sable mouvants. Et ce que nous validons n’est peut-être plus ce que nous croyons.
Nous sommes entrés dans une zone grise, instable, troublée, inédite dans l’histoire de la pédagogie.
Où les textes produits ne disent plus forcément ce qui a été appris.
Où l’effort cognitif disparaît sous la fluidité algorithmique.
Où l’illusion de maîtrise remplace la confrontation à la difficulté.
Où l’évaluation perd peu à peu son pouvoir formateur pour devenir une simple formalité.
Et les risques sont majeurs :
Pour les étudiants, celui de produire sans apprendre.
Pour les enseignants, celui de corriger sans discerner.
Pour les institutions, celui de certifier des compétences fantômes.
Bienvenue dans le nouveau paradigme de la formation à l’ère de l’IA..Et soyons clair, il ne s’agit pas de rejeter l’IA, ni par ailleurs de se transformer en techno fanatique. Il s’agit simplement (et non, ce ne sera pas si simple) de comprendre ce qu’elle rend obsolète et ce qu’elle rend possible, puisqu’elle est à la fois un révélateur, un accélérateur, et un perturbateur.
Cette nouvelle réalité nous invite également à une remise en question aussi critique qu’inévitable : revisiter nos pratiques évaluatives. Non pas les adapter à la marge, mais les repenser en profondeur. Non pas s’opposer à l’IA ou vouloir sanctionner son usage, mais l’intégrer lucidement, comme une composante nouvelle de l’écosystème pédagogique. Et surtout, réaffirmer ce que l’évaluation devrait toujours être : un espace exigeant, vivant, humain, de mise à l’épreuve du savoir.
Bienvenue à bord, suivez le guide.
2. À quoi sert encore l’évaluation ?
« On ne changera pas nos pratiques d’évaluation si l’on ne revient pas d’abord à leur raison d’être. »
La crise que traverse aujourd’hui l’évaluation en formation n’est pas une crise des outils, mais une crise de sens. À force d’avoir confondu évaluation avec notation, contrôle, ou sanction, nous avons perdu de vue ce qu’elle est, au fond : un acte pédagogique à part entière, conçu pour faire émerger, accompagner, transformer un apprentissage — pas pour le figer dans une grille ou le réduire à une note.
Évaluer, étymologiquement, vient du latin “valor” : mettre en valeur, mettre en lumière.
Avant de certifier, classer ou éliminer, évaluer c’est donc éclairer un processus. C’est permettre à un apprenant de mieux se connaître, de situer ses acquis, de comprendre ses écarts, de progresser. Encore faut-il se rappeler que l’évaluation n’est pas une, mais plurielle. Elle remplit ainsi plusieurs fonctions complémentaires :
Diagnostiquer (en amont) : situer le niveau initial, comprendre d’où l’on part.
Réguler (en cours de route) : ajuster, orienter, relancer.
Former (tout au long) : accompagner par le feedback, questionner, mettre en tension.
Certifier (à la fin) : valider un niveau atteint, une compétence démontrée.
L’irruption de l’IA ne rend pas ces fonctions caduques. Mais elle nous oblige à les regarder en face. Car ce n’est pas tant l’évaluation en soi que l’IA rend obsolète — c’est la manière dont nous l’avons figée dans certaines (mauvaises) habitudes.
3. Elaguer de manière radicale
L’évaluation écrite classique : la première à tomber
Ce que l’IA fait vaciller en premier lieu, c’est l’évaluation écrite hors contexte2 : cette pratique répandue qui consiste à demander un texte structuré, rédigé en autonomie, remis en différé, corrigé à distance, selon des critères pré-établis. Pendant longtemps, ce modèle a tenu par sa simplicité logistique : il permettait de produire une “preuve” tangible, facile à stocker, à comparer, à noter. Mais déjà avant l’IA, il en montrait les limites : déconnecté du processus réel d’apprentissage, focalisé sur le livrable final, aveugle à la diversité des parcours.
Avec l’IA, ce modèle s’effondre. Car produire un texte “cohérent” n’est plus la preuve de rien. Un prompt bien construit suffit. Et l’enseignant, de son côté, lit une production dont il ne sait plus rien : ni l’origine, ni la part d’effort réel, ni le raisonnement sous-jacent.
On continue pourtant à l’utiliser, par habitude, par manque de temps, ou simplement par résignation. Mais ce que ce type d’évaluation valide aujourd’hui, ce n’est plus un apprentissage — c’est une capacité à déléguer efficacement à une IA.
Et cela n’a rien à voir avec la compétence que l’on est censé valider.
3.1. Ce que l’IA ne peut pas simuler : le processus, la tension, le trouble
Mais tout n’est pas à jeter. Loin de là.
Ce que l’IA ne sait pas faire — et ne saura jamais faire — c’est vivre une expérience d’apprentissage. Elle ne doute pas. Elle ne tâtonne pas. Elle ne revient pas en arrière. Elle ne réorganise pas ses idées après une discussion contradictoire.
Et c’est précisément là que se loge la richesse de l’évaluation compréhensive, régulatrice, dialogique.
Évaluer, ce n’est pas seulement juger un résultat. C’est mettre en tension une compréhension, faire émerger un point de bascule, aider l’apprenant à rendre intelligible son propre cheminement. Ce type d’évaluation est à la fois plus exigeant et plus juste. Il ne repose pas sur la simple restitution, mais sur la prise de position.
Il ne valide pas une forme, mais une transformation.
Et il n’est pas menacé par l’IA — parce qu’il s’appuie sur des signes humains, incarnés, non scriptables.
3.2. L’heure du tri : ce qu’il faut abandonner, ce qu’il faut renforcer
Nous devons faire un tri clair, radical, sans nostalgie.
À interroger ou abandonner :
Les évaluations écrites standardisées, hors contexte
Les livrables différés, optimisables par IA
Les critères figés appliqués à une “copie”
La note comme fin en soi
À préserver ou renforcer :
Les évaluations situées, dialogiques, co-construites
Les démonstrations orales, les soutenances réflexives
L’analyse de processus, l’explicitation de choix
Le feedback comme levier de progression
Soulignons-le, ce qui se joue ici ce n’est pas seulement une méthode de plus visant à optimiser les pratiques d’évaluation. C’est surtout une vision assumée de ce que signifie apprendre et évaluer. Rien de moins. Et derrière tout cela, forcément, une vision de ce que signifie former, transmettre, accompagner.
4. Vers des espaces d’évaluation robustes : oralité, chaos, incarnation
Nous avons évoqué plus haut la nécessité de sortir des évaluations écrites standardisées, facilement optimisables par l’IA. Nous avons insisté sur le recentrage sur le processus plutôt que sur le produit, sur l’importance d’évaluer en interaction plutôt qu’en isolement. Mais ce n’est pas encore suffisant.
Car les progrès de l’IA sont tels qu’elle est aujourd’hui capable de générer, comparer et critiquer ses propres productions, comme si elle entrait elle-même dans le jeu d’une méta-évaluation simulée. C’est le serpent qui se mord la queue.
Et cela appelle à faire un pas de côté. A penser autrement, à imaginer des espaces d’évaluation réellement robustes, non pas parce qu’ils seraient technologiquement “protégés”, mais parce qu’ils reposeraient sur des dimensions humaines que la machine ne peut ni anticiper, ni simuler, ni incarner.
Deux pistes se dessinent ici : le retour à une oralité exigeante, et l’intégration volontaire du chaos dans le design évaluatif.
4.1. Pourquoi l’oralité redevient un sanctuaire
À l’ère des contenus générés à la chaîne, l’évaluation orale retrouve une fonction précieuse : celle d’un sanctuaire de confrontation. Confrontation au contenu. Confrontation à l’autre. Confrontation à soi-même.
L’oral bien mené n’est en effet pas un simple “passage devant jury”. C’est un espace vivant, incertain, habité, où l’apprenant ne peut pas se contenter de restituer : il doit se positionner, argumenter, faire face.
Et ce que l’oral révèle dépasse largement le « savoir réciter des savoirs » :
Il met en jeu l’intuition, le ressenti, la capacité à s’ajuster en direct.
Il donne à voir l’intelligence émotionnelle, relationnelle, souvent peu perceptible dans les écrits.
Il devient une mise en scène de soi qui fait trace : une forme d’aboutissement du cheminement formatif.
Cependant l’oral n’est pas une garantie en soi3. Mal pensé, il devient une récitation déguisée. Bien pensé, il redevient un acte vivant, irréductible à un script.
Autrement dit, ce n’est pas l’oral en tant que tel qui est précieux. C’est l’irréductibilité de ce qu’il mobilise.
4.2. Créer des espaces de chaos formateur
“Dans un monde où tout devient scriptable, l’imprévu devient un marqueur de réel.”
Les IA obéissent à des logiques de prédiction, d’optimisation, de cohérence.
Or apprendre, c’est également tout l’inverse : c’est traverser des zones de trouble, d’hésitation, d’incertitude.
Un bon dispositif d’évaluation post-IA est un dispositif qui reconnaît et assume pleinement cette dimension imprévisible de l’apprentissage, en introduisant volontairement un certain degré de chaos :
Une question surprise qui oblige à sortir du script.
Une situation nouvelle, imprévue, à laquelle il faut réagir.
Une contradiction volontaire à résoudre.
Une information ambiguë à interpréter.
Ces éléments ne sont pas des pièges. Ce sont des leviers de pensée vivante. Ils font émerger la singularité du raisonnement, l’agilité, la capacité à formuler un point de vue dans l’inconfort. Et c’est précisément là que se loge l’humain. C’est aussi là que l’évaluation retrouve sa fonction initiatique : non plus juger ce que l’on sait, mais éprouver ce que l’on est en train de devenir.
4.3. L’évaluation comme performance incarnée
Enfin, il nous faut réhabiliter une idée souvent oubliée dans le design évaluatif : celle de la performance incarnée.
Dans certaines cultures pédagogiques — compagnonnage, arts vivants, écoles de métier — l’évaluation prend la forme d’une mise à l’épreuve située, physique, relationnelle. Elle mobilise la voix, le corps, le regard, les gestes. Elle engage la présence, la posture, l’ajustement.
Dans un monde technologisé, cette dimension doit retrouver ses lettres de noblesse. L’évaluation orale, en interaction, face à un jury ou à ses pairs, devient alors un moment de validation intégrale et symbolique : non seulement des contenus, mais du rapport au savoir, à l’autre, à soi-même. C’est une manière d’éprouver, concrètement, ce qui a été réellement appris.
4.4. L’évaluation comme co-construction collective du jugement
“L’évaluation post-IA ne peut plus être un acte solitaire — ni pour l’enseignant, ni pour l’apprenant.”
Mais cette exposition ne vaut pas uniquement par ce qu’elle révèle de l’individu : elle prend toute sa force lorsqu’elle s’inscrit dans un cadre collectif.
L’évaluation post-IA ne peut plus être un acte solitaire — ni pour l’enseignant, ni pour l’apprenant. Elle gagne à devenir collective, dialogique, partagée. Non pour diluer la responsabilité, mais pour en démultipler les points d’ancrage.
Croiser les regards, confronter les analyses, débattre d’un choix, s’exposer à d’autres lectures : c’est cela aussi, apprendre.
Co-évaluer, c’est aiguiser son discernement. C’est devoir justifier, se positionner, s’ajuster en contexte.
Et surtout, c’est résister, ensemble, à la tentation du tout-générable, en réactivant des zones de friction fertile où chacun doit s’engager, argumenter, expliciter.
Alors l’évaluation redevient ce qu’elle n’aurait jamais dû cesser d’être : un espace d’interprétation vivante, humaine, située — et non un simple verdict.
5. Conclusion ouverte
“Évaluer, au fond, c’est prendre position sur ce que signifie apprendre.”
À l’ère de l’IA, la question de l’évaluation ne peut donc plus être abordée uniquement en termes d’indicateurs, de formats ou de “triche”. Elle devient une question de design sensible :
Comment créer des espaces irréductibles à la logique algorithmique ?
Comment faire en sorte que ce qui est évalué mobilise des ressources profondément humaines — l’intuition, la nuance, la vulnérabilité, l’engagement ?
Comment transformer l’évaluation en expérience signifiante, à la fois pour l’apprenant et pour le formateur ?
L’oralité, le chaos, l’incarnation ne sont donc pas des artifices. Aujourd’hui plus que jamais, ils font office de balises dans un univers où tout peut être généré sans effort, sans corps, sans mémoire.
Mais cette exigence nouvelle pose une autre question, plus vitale encore :
Sommes-nous, nous aussi, prêts à nous exposer ?
À sortir de nos automatismes ? À développer de nouvelles compétences, incontournables à l’ère de l’IA ? À prendre le risque d’écouter, de dialoguer, d’interpréter — au lieu de corriger à distance, en pilote automatique ?
Car si l’IA met à nu la fragilité de nos dispositifs, elle révèle aussi une chose essentielle : évaluer, au fond, c’est prendre position sur ce que signifie apprendre.
C’est revisiter les fondamentaux du métier de formateur avec un nouveau regard, plus incisif, plus radical, à la recherche de l’essentiel.
C’est l’avenir et le sens de la formation qui se jouent ici, ni plus ni moins.
Aiguiser ce nouveau regard en vaut donc la peine.
_________________________________________________________________________________________________
Notes/références
https://www.unige.ch/fapse/faculte/utilisation-ia
https://arxiv.org/abs/2306.15666
Nous distinguons ici les travaux écrits de type « synthèse », « étude de cas », « dossier thématique », ou encore « mémoire » - non robustes à l’ère de l’IA – d’autres formes écrites, plus réflexives, processuelles et dialogiques.. (journal d’apprentissage, annotation de texte, écriture collaborative, etc…) – qui elles restent potentiellement robustes, selon leurs modalités.
L’oralité est souvent perçue comme un “refuge” face à l’IA… mais cette zone peut elle aussi devenir partiellement pénétrable, via des outils d’IA qui aident les étudiants à préparer, simuler, voire scénariser des examens oraux