Tuteurs intelligents et IA en éducation : rappels historiques

Dans ce billet, nous parlons intelligence artificielle et éducation avec une perspective technique et une perspective historique. Contrairement à ce que beaucoup pensent, c’est un domaine assez ancien. Il y a des conférences scientifiques sur l’IA en éducation depuis des décennies. Nous en sommes déjà à la 24ᵉ conférence AIED, et les recherches sur le sujet étaient déjà légion à la fin du XXᵉ siècle, y compris en français. Tapez sur Google ou sur Google scholar « systèmes tuteurs intelligents », ou en anglais « Intelligent Tutoring Systems » (ITS), et voyez jusqu’où l’on remonte. En France, la communauté scientifique qui se penche sur le sujet relève de ce que l’on appelle  les environnements informatiques pour l’apprentissage humain (EIAH); elle a été à l’origine de quelques travaux d’envergure, quoique son impact soit sans commune mesure avec la production anglo-saxonne. Sans être spécialiste, je me base sur ce que je connais du sujet pour vous dire quelques mots sur les ITS, un dada sur lequel je n’ai jamais travaillé personnellement (bien que j’ai failli faire ma thèse sur le sujet), mais sur lequel j’ai beaucoup lu.

Dans un ITS, il faut déjà faut modéliser les connaissances.  C’est ce qu’on appelle un modèle de domaine. Ensuite, deuxième composante importante d’un modèle, le modèle de l’apprenant (student model en anglais). On va faire des inférences,  c’est à dire essayer de « deviner » ce que l’apprenant sait ou ne sait pas sur la base de son comportement au sein d’une plateforme. Depuis longtemps, le « bayesian knowledge tracing » fait partie des méthodologies que l’on mobilise à cet effet. Regardez sur Wikipedia, c’est passionnant; c’est une alternative à la théorie de la réponse aux items (TRI ou IRT), dont je parle si souvent ici. Avec le BKT, l’idée est de décomposer les connaissances en composantes élémentaires, les knowledge components (KC) en anglais, et la « maîtrise » de ces KC par l’apprenant. Cela revient en quelque sorte à « cartographier » ses connaissances. Dernier modèle : le modèle de tuteur.

On peut faire ici une analogie avec les humains. Même si deux personnes ont à peu près le même diagnostic sur un apprenant, sur ce qu’il sait ou ce qu’il ne sait pas, ils ne vont pas nécessairement se comporter de la même manière pour remédier à une défaillance. Certains tuteurs vont donner des indices détaillés, quand d’autres tuteurs humains vont dire : « Ah non, moi je le dis pas du tout,  je lui répète la question à la limite, mais je ne vais pas lui donner d’indices ». Les modèles de tuteurs, cela permet de distinguer les différents types d’approches pédagogiques possibles, à diagnostic constant. Si vous creusez un peu la littérature relative aux systèmes tuteurs intelligents, vous verrez qu’il y a un quatrième modèle, « le modèle d’interface », mais nous n’avons pas la place de l’évoquer ici. Historiquement, en géométrie, il y a des tuteurs qui ont été inventés il y a presque presque 50 ans, bien avant les ordinateurs personnels. Dans les années 90, nous avons eu « Andes », pour l’enseignement de la physique newtonienne. Il me semble qu’il a même été utilisé par l’armée américaine. Et j’en passe, ils sont nombreux.

S’il y a dans le domaine une voie qui a été peu explorée et que je trouve très intéressante, c’est l’évaluation automatique des lacunes.  On va catégoriser des erreurs-type, en faire un catalogue, et créer des exercices pour « révéler » ces erreurs. C’est ce que l’on appelle en anglais les « misconceptions ». J’ai traduit par conception erronée en français, mais je n’aime pas cette traduction. Dans la littérature ITS, c’est ce que l’on appelle les buggy rules, « les règles erronées », qui débouchent sur des erreurs, et que l’on cherche parfois à détecter. Imaginez une IA qui soit capable, à force d’exercices, non seulement de savoir ce que vous faites correctement, ce que vous maîtrisez, mais qui sache aussi ce que vous maîtrisez mal, voir que vous pensez maîtriser mais qui est faux.

Ce n’est pas simplement que vous n’avez pas la connaissance,  c’est que vous avez acquis une mauvaise connaissance. Ça peut être une mauvaise habitude en programmation, une vision erronée et tenace de l’anatomie humaine. C’est intéressant aussi à savoir, par exemple, si l’on veut former automatiquement évaluer automatiquement un chirurgien par exemple. S’il a mémorisé quelque chose de faux, une erreur qui peut tuer le patient, on veut pouvoir la détecter. L’idée n’est plus de voir l’erreur comme un écart à la référence, au comportement attendu, et de lui donner une existence propre. Voilà une application passionnante de l’IA éducative, mais pas encore assez industrialisée. Je vous recommande, si vous voulez aller plus loin, de creuser le concept de tuteur cognitif, et de lire les travaux de Corbett, notamment. Les universités américaines de Pittsburgh et de Carnegie-Mellon ont longtemps été en pointe sur le sujet. Elles avaient produit un tuteur cognitif en algèbre.

Je m’arrête là pour le moment. Quand l’on creuse un peu la littérature scientifique sur l’IA en éducation, on a l’impression que c’est quelque chose qui a même été plus développé dans le passé que maintenant. Cependant, j’ai l’impression d’un renouveau de l’intérêt pour la question, en particulier avec l’avènement du deep learning. L’avenir nous le dira.

Leave a Comment

Filed under Non classé

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *