Transformer l'école dans un monde digital

En finir avec les tests stupides !

Je lisais ce matin un article sur « Comment obtenir un GMAT de plus de 750 ? ». En parcourant le texte, j’éprouvais un sentiment de soulagement à l’idée que je n’aurai sans doute jamais plus à passer ce genre d’épreuve. De me dire que mon intelligence, mes compétences intellectuelles, ou ma capacité à réussir dans la vie seraient résumées à un score sur 800, quelque soit le sujet, a quelque chose de choquant et d’humiliant.

Ce n’est qu’au bout de quelques minutes de réflexion que je me suis rendu compte que ce test que je ne voudrais pas qu’on m’applique, je l’utilisais régulièrement pour évaluer des candidats, que ce soit pour notre programme doctoral ou dans les masters…

Et à la réflexion, c’est l’idée même de test portant uniquement sur des questions fermées sur laquelle on pourrait s’interroger. Car enfin, dans un monde où n’importe quelle information est à portée de quelques clics, où l’intelligence artificielle commence à concurrencer l’intelligence humaine sur quasiment tous les « problèmes fermés » (du jeu de go aux échecs, en s’étendant dorénavant à la résolution de problème standards grâce aux chatbots par exemple), à quoi sert d’évaluer les compétences d’un être humain à répondre à des questions qu’un ordinateur traiterait infiniment plus rapidement ? Ne vaudrait-il pas mieux justement évaluer les individus sur leur capacité à articuler la connaissance ? Sur leurs compétences humaines (les fameuses soft skills) ? Et sur des problèmes d’analyse, mais qui soient des problèmes ouverts et complexes (comme la résolution de problèmes mathématiques que les ordinateurs ont justement beaucoup de mal à approcher). Ou même sur des problématiques ambiguës, où il n’y a pas de bonnes ou de mauvaises réponses ?

Bien sûr, me direz-vous. Tout le monde est d’accord à ce niveau : nous savons bien que les questions fermées ne sont pas intéressantes et qu’il faudrait pouvoir évaluer des compétences plus pertinentes ! Mais quant il s’agit d’évaluer et de sélectionner potentiellement des milliers de candidats, il n’est tout simplement pas possible de ne pas faire appel à des tests standards et donc très rapides à corriger. Les questions à choix multiples (QCM) sont peut-être rarement pertinentes, mais elles ont le mérite d’exister, et donc de permettre une sélection rapide et « objective ».

Tout d’abord, tout outil de mesure porte en lui son biais. Et il ne faut pas s’étonner que nos élites manquent d’imagination, à une époque où nous en aurions bien besoin, si nous ne sélectionnons que ceux qui sont les plus performants à s’adapter à un cadre absurde, et répondre d’une manière qui soit la plus proche possible de ce qu’aurait fait une machine. Ensuite, la paresse ne doit jamais être une excuse en matière d’éducation : si nous sommes convaincus qu’un système est mauvais, il faut travailler à l’améliorer. Enfin, il ne faudrait jamais accepter d’entretenir un système que nous n’aimerions pas nous-même subir. Si l’argument principal est qu’il faut bien pouvoir sélectionner, autant sélectionner les candidats au hasard : ça aura au moins le mérite d’être honnête.

D’ailleurs, l’argument du temps nécessaire au traitement de tests spécifiques ou ouverts ne tient plus actuellement. Avec le numérique, et la mise en ligne d’un nombre croissant de cours et de contrôles d’acquis des connaissances et des compétences enseignées, il est dorénavant possible d’évaluer les participants-candidats sur des sujets qui sont pertinents pour la formation à laquelle ils candidatent. Qu’ils soient des centaines ou des milliers, si le traitement est automatisé, la propriété de « coût marginal zéro » du numérique rend possible un traitement plus spécifique de milliers, voire de centaines de milliers, de candidats. Il serait par exemple possible d’ouvrir à tous une partie des cours en ligne – comme le font dorénavant de plus en plus de plateformes, Coursera par exemple – et que la performance à ces cours ouverts soit prise en compte lors de la sélection pour des programmes diplômants. Il serait dès lors possible de tester les candidats sur toute une série de matières (des mathématiques à la rédaction, en passant par la comptabilité ou le droit dans des cas plus spécifiques) et donc d’éviter une mesure uni-dimensionnelle, ou trop simpliste, des capacités intellectuelles des individus évalués.

Reste alors à échapper aux questions fermées, même sur le numérique. Et il existe dorénavant en la matière toute une série de dispositifs qui permettent de faire des questions plus ouvertes, ou même d’évaluer des travaux complètement originaux. Même un QCM, pourra déjà être plus pertinent, puisqu’il pourra être spécifique au sujet étudié, et pourra par exemple s’adapter au fur et à mesure du test en fonction des réponses du candidat. Ensuite, il est possible de faire appel à l’évaluation par les pairs pour traiter un très grand nombre de travaux. Et ce dispositif peut être encadré par une batterie de moniteurs spécialisés sur le sujet, ou des accompagnants professionnels, et supervisé par un ou même plusieurs professeurs. Enfin, cette fameuse intelligence artificielle qui rentre en concurrence avec notre propre intelligence pourra bientôt être un outil à notre service dans ce cadre. Il est en effet dorénavant possible de (pré-)traiter des documents automatiquement que ce soit pour évaluer le style, ou même le contenu de travaux rédigés. Au final, l’objectif est de conserver des critères d’évaluation qui soient objectifs – évitant par exemple les travers d’un jury où l’exercice de l’oral amène souvent l’évaluateur à tomber, parfois à son insu, dans un jugement subjectif – mais qui soient pertinents dans un monde où répondre mécaniquement n’est plus satisfaisant.

On atteindra alors un double résultat. Tout d’abord, les tests de sélection deviendront plus pertinents car plus spécifiques. Et ils pourront évaluer des compétences plus larges que celles qui sont seulement évaluées pour l’instant grâce à des questions fermées. Ensuite, et c’est sans doute l’argument le plus important, il permettra de traiter un beaucoup plus grand nombre de candidats, et venant d’horizons plus variés que ce que nous pouvons gérer actuellement. Car lorsque les tests pourront effectivement couvrir des savoirs et des compétences beaucoup plus larges, il ne sera plus nécessaire de tenir compte systématiquement de la filière d’origine du candidat. Le test devrait se suffire à lui-même.

Et quoi qu’il en soit, tout ceci ne devrait pas être envisagé au détriment d’une vraie évaluation sur des dimensions beaucoup plus pertinentes et effectuée par des experts humains du sujet en question une fois que le candidat sera accepté dans le programme d’enseignement. Ce genre de dispositif automatisé ne devra servir que quand l’enseignant n’a pas le temps de s’occuper personnellement de milliers de travaux, et donc lors des sélections à l’entrée du programme. Au sein d’un programme, surtout dans un contexte d’enseignement d’excellence, les cas où les QCM sont encore utilisés devraient être rarissimes. Ils sont un aveu de paresse et une insulte à l’intelligence des étudiants.

Commentaire (1)

  1. parent de boursiers

    il faut passer de la sélection à la détection et pour cela le numérique est un outil
    adapté,une bonne détection permettra d’adapter les enseignements au potentiel du public visé et ainsi de mettre fin à la compétition truquée tel q’aujourd’hui

    Répondre

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>