Des MOOC à Busuu : vers une quantification de l’apprentissage en ligne

http://www.dreamstime.com/stock-photography-climbing-man-ladder-image15468082En conclusion de ma thèse, je me fais l’avocat d’un élargissement à grande échelle de la démarche d’analyse des traces d’apprentissage. Cette démarche, que la communauté scientifique a amorcée sur la base d’échantillons de MOOC de taille croissante, doit à mon sens être élargie d’abord aux plates-formes dans leur ensemble, puis à d’autres types de sites d’apprentissage qui s’apparentent aux MOOC de par leur gratuité. Comme d’habitude, n’hésitez pas à apporter votre pierre à l’édifice si vous connaissez des données chiffrées que j’aurais ratées.

Dans le courant des années 1990, furent commandées un certain nombre d’études visant à quantifier l’essor de la formation à distance en France et en Europe (Rapport Keagan 1996, etc). L’informatisation de la FOAD était alors loin d’être achevée, et les chiffres fournis par les organismes interrogés se basaient sur des inscriptions et non sur des participations effectives. Ils étaient souvent surestimés selon les auteurs des rapports (Glickman 2002 – Des cours par correspondance au e-learning). L’impossibilité de mesurer les usages effectifs faute de traçabilité des utilisateurs compliquait considérablement une évaluation précise du phénomène, mais la situation a considérablement évolué depuis. Des quantifications précises à grande échelle sont à la portée de tout chercheur ayant accès aux traces d’apprentissage. Ces analyses précises et à grande échelle du phénomène MOOC restent cependant à faire. Les rapports disponibles donnent généralement des statistiques relativement grossières comme le nombre d’inscrits ou le nombre de certifiés; à quelques exceptions près, ils se cantonnent à un échantillon de cours d’une ou deux (Ho et al. 2015) institutions; les analyses transversales permettant de mettre à jour les catégories d’apprenants à l’échelle d’une plate-forme de la taille de Coursera ou d’edX se font encore attendre. Les tentatives de collecte de statistiques déclarées restent éparses et imprécises (Jordan et al. 2015); j’ai interagi avec Jordan et pour avoir vu comment elle traitait certaines des données que je connaissais bien, je peux vous dire qu’il n’y a dans cette étude aucun contrôle qualité visant à vérifier que les méthodes de calcul des taux de complétion coïncidaient d’un MOOC à l’autre. S’il existe un certain nombre d’analyses transversales à l’échelle de Coursera, aucune n’a cherché à quantifier les usages à l’échelle de la plate-forme. Le changement de politique du consortium edX sur la question du partage des données – tout partenaire du consortium pourrait bientôt avoir accès à l’ensemble des données produites par la plate-forme – est néanmoins susceptible de faire évoluer la situation sur ce plan-là. Il serait souhaitable que les plates-formes comme Coursera, edX, et autres, s’étant accordées sur le choix d’indicateurs, permettent de construire rétrospectivement une vision plus précise du phénomène MOOC en adoptant une démarche d’analyse commune. Alors même que les données sont relativement accessibles – en comparaison avec d’autres formes d’apprentissage en ligne – personne ne dispose d’une vision fine et large de la question. Il n’est donc pas étonnant que malgré deux décennies de discours autour de l’impact d’Internet sur les processus d’apprentissage, nous restions dans une relative ignorance de l’ampleur des apprentissages en ligne si même quand on peut récolter des données propres on ne le fait pas correctement.

Je me fais ici l’avocat d’une vision plus fine et globalisante des apprentissages en ligne, qui permette de souligner les carences des démarches actuelles. Les enquêtes sur les usages éducatifs d’Internet diffusées au cours des années 2000 (Selwynn et Gorard, etc) ne sont pas sans rappeler les efforts de quantification des apprentissages informels initiés par les travaux de Tough. Elles ont cela de frustrant qu’elles ne permetttent qu’une approximation dans la mesure où toute quantification des usages est entravée par la difficulté inhérente à l’analyse de traces d’apprentissages sur les sites ne nécessitant aucune identification. La plupart des études sur des sites comme Wikipedia ou Stackoverflow portent le plus souvent sur la construction du contenu que sur les usages effectifs. L’essor d’Internet a sans aucun doute multiplié les formes d’apprentissage informel mais n’a pas résolu pour autant les problèmes méthodologiques inhérents à leur mesure. Cependant, pourquoi s’attaquer à la face immergée de l’iceberg alors les sites imposant une identification des utilisateurs – et permettant donc de tracer les apprenants – sont devenus légion ? Les sites d’apprentissage en ligne grand public comme Busuu pour les langues, Khan Academy pour les apprentissages scolaires, ou Codecademy pour la programmation affirment disposer d’audiences fortes de plusieurs dizaines de millions de personnes et permettent de tracer leurs utilisateurs dans une large mesure.

La situation est à certain sens analogue à celle qui prévalait pour la formation à distance à l’époque du rapport Keagan. Il est relativement facile de rassembler les chiffres sur les audiences et les utilisateurs actifs communiqués par les différentes plates-formes mais ceux-ci sont difficilement comparables dans la mesure où les méthodologies appliquées pour identifier les utilisateurs actifs diffèrent priori selon les sites. Notre incapacité à détecter des publications basées sur les données d’usages précises de ces sites s’explique sans doute par le peu d’enthousiasme que peuvent montrer certaines entreprises lorsqu’il s’agit de communiquer à des chercheurs des données brutes dont l’analyse serait à même de déplaire à des clients ou investisseurs éventuels. A notre connaissance il n’existe pas à ce jour de comparaison d’usages de sites généralistes basée sur les traces d’apprentissage.  Une telle démarche, qui relève sans aucun doute des prérogatives de la recherche publique, permettrait notamment de mieux comprendre la problématique des dynamiques d’engagement au sein de formations en ligne gratuites, nombre de sites d’apprentissages disposant d’une partie gratuite. Les enjeux commerciaux de telles données sont néanmoins évidents et rendent toute collaboration délicate. En ce sens, la plus grande disponibilité des données de MOOC qu’a permis la mise en place d’initiatives publiques a sans doute permis d’initier la démarche. Il serait dommage de ne pas poursuivre la dynamique, d’autant que les MOOC tendent à adopter un format asynchrone et leur fonctionnement ressemble donc de manière croissante à celui des sites que j’ai évoqués.

PS : je vous mets la biblio complète bientôt

PPS : Vous m’excuserez si je ne fais de commentaire sur ce qui s’est passé vendredi et si je maintiens des billets prévus de longue date. Le coeur y est, je suis plus chanceux que certains amis, aucun de mes proches n’a été blessé autant que je sache. Par ailleurs les messages affluent du monde entier vers les Parisiens en ce moment. Un remerciement collectif aux lecteurs du blog et à tous les collègues universitaires à l’étranger qui ont fait la démarche d’aller aux nouvelles.

Be Sociable, Share!

1 Comment

Filed under Non classé

One Response to Des MOOC à Busuu : vers une quantification de l’apprentissage en ligne

  1. SaraMas

    bonjour,
    j’effectue une thèse touchant le coté technique des MOOCs, LMS … quelles sont les technologies utilisées à ce propos? et avez vous un exemple d’architecture technique d’une plateforme e-learning utilisée aujourd’hui.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *