Docs en stock : dans les coulisses de la démocratie universitaire

Indicateurs

Éducation et citoyenneté : quel indicateur pour une classe d’âge qui se tient bien sage ?

Dans notre exploration des indicateurs de l’ESR, le moment pousse à se poser cette question : quels indicateurs de performance seraient adaptés pour les objectifs d’autorité qui s’imposent de plus en plus dans l’éducation ? En d’autres termes : quelles mesures permettraient, par la mécanique de gouvernement à distance, d’obtenir une classe d’âge qui se tient bien sage ? Même si ce type d’objectif est absent des indicateurs de performance actuels, on peut déjà trouver deux propositions très concrètes.

Depuis quelques décennies, et encore plus depuis « l’autonomie des universités » (Loi libertés et responsabilités des universités, LRU, Pécresse, 2007), le gouvernement à distance se développe et s’impose dans l’enseignement supérieur et la recherche. Son principe s’adosse au nouveau management public, et consiste à déployer des indicateurs de performance, éventuellement adossés à des incitations. Les acteurs dirigés sont alors récompensés ou punis selon que des objectifs sont atteints ou non. Cette doctrine permet à l’État d’occuper une position « stratège », c’est-à-dire de décider des orientations sans se préoccuper de leur mise en œuvre.

Avec cette doctrine de gouvernement, l’État doit traduire ses volontés en indicateurs et objectifs, et prévoir des incitations permettant de s’assurer que sa volonté est bien mise en œuvre par les services décentralisés. En clair, il doit mettre en chiffres. Même pour les missions les plus concrètes, cette mise en chiffre est peu aisée et souvent dangereuse dans ses effets, comme l’illustre modestement la série de billets « Quels indicateurs pour… ». Plus la politique envisagée est éloignée de choses quantifiables, plus difficile et dangereuse est cette mise en chiffres. Pour l’éducation et l’enseignement supérieur, c’est notamment le cas des orientations politiques les plus idéologiques, telles que le type de citoyens adultes que l’éducation doit former.

Le gouvernement actuel a déjà formulé deux ébauches concrètes d’une telle proposition, l’une sur le parcours académique des élèves, et l’autre sur la gestion des établissements d’enseignement supérieur.

« La bataille de l’autorité se gagne dans les classes »

Dès son arrivée au Ministère de l’Éducation Nationale, M. Gabriel Attal (désormais Premier Ministre) a réorienté sa communication et son action vers « la bataille de l’autorité », alignant des propositions orientées vers la discipline, tant des corps que des esprits, avec une approche très martiale : « L’autorité de l’École, on ne la conteste pas, on s’y soumet », « Tu casses, tu répares. Tu salis, tu nettoies. Tu défies l’autorité, on t’apprend à la respecter ».

ImageEn guise de mise en chiffre, M. Attal propose que les élèves « perturbateurs » soient « sanctionnés sur leur brevet, leur CAP ou leur bac et qu’une mention soit apposée sur leur dossier Parcoursup ». Le même type de proposition a été formulé pour inciter les jeunes à s’inscrire au SNU, une sorte de stage lycéen para-militaire. Même si la proposition manque de clarté, elle nécessite une mise en chiffre, éventuellement indirecte, du comportement des élèves, pour que ce dernier soit pris en compte dans l’attribution des diplômes et des places dans l’enseignement supérieur.

En d’autres termes, M. Attal propose de diminuer le poids des performances académiques pour faire plus de place aux performances comportementales dans la définition des parcours et certifications scolaires. Un élève performant mais « perturbateur » pourrait ainsi perdre sa place dans Parcoursup au profit d’un élève moins performant, mais au comportement conforme à ce que l’institution doit attendre d’après M. Attal. On comprend déjà le danger que représente la subjectivité qui entoure naturellement le terme « perturbateur », dont chacun a une appréciation différente, et qui peut en plus varier en fonction de très nombreux paramètres, certains extérieurs à l’élève lui-même.

Il convient de noter que les classements Parcoursup peuvent déjà prendre en compte les comportements, puisque les bulletins scolaires font partie des dossiers de candidature. Cependant, il y a une différence fondamentale entre une commission d’examen des vœux qui décide de prendre en compte cet aspect, et un gouvernement qui décide que cet aspect doit être pris en compte, y compris dans la diplomation : brevet et bac ne certifieraient plus seulement d’un niveau, mais aussi d’un comportement.

Du point des vue des établissements, l’incitation est claire : si les mauvais comportements font baisser les taux de réussite, et puisque les taux de réussite servent à l’allocation des moyens et aux choix d’affectation des familles, il conviendra de tout mettre en œuvre pour les éviter, c’est-à-dire pour conformer le comportement des élèves aux attentes du gouvernement. En théorie du moins. En pratique, il sera souvent plus aisé de faire un simple « pas de vague », en ne signalant pas les problèmes de comportement, ou même en évitant de les gérer. En plus de conduire à une forme de cécité sur l’objet observé, cela conduirait à obtenir l’exact inverse de l’effet recherché.

« L’autonomie de l’enseignement supérieur n’est pas celle des valeurs républicaines »

Au delà des parcours académiques stricto sensu, M. Attal s’intéresse également aux activités para-académiques : « Depuis des années maintenant, à Sciences Po comme dans d’autres établissements, des débordements scandaleux se sont multipliés du fait d’une minorité agissante et dangereuse ». L’idée ici n’est pas de sanctionner directement les élèves et étudiants en fonction de leur comportement, mais de sanctionner les établissements qui laisseraient les étudiants s’exprimer trop librement en dehors du cadre idéologique décidé par l’État.

Pour atteindre cet objectif, M. Attal formule une proposition très concrète, pour Sciences Po : « l’exigence de sérénité des débats et ce retour à l’apaisement fera partie des critères du Comp de l’établissement et sera un axe prioritaire de la feuille de route de […] la future direction ». L’idée est ainsi double : d’abord contrôler la direction, par le choix d’une personne acquise à la cause, et l’inscription de l’objectif dans sa feuille de route, c’est-à-dire un mandat officiel pour poursuivre cette cause ; ensuite par l’inscription de « l’apaisement » dans le Contrat d’objectif, de moyens et de performances (COMP) de l’établissement.

Là encore, on retrouve la même dangereuse ambiguïté : que signifie « apaisement » et comment sera-t-il mis en chiffre ? C’est d’importance, car l’ambition des COMP est de moduler les subventions des établissements : les établissements « apaisés » recevraient ainsi une récompense pécuniaire, quand les autres seraient punis au porte-monnaie. Pour des établissements déjà mis en grande difficulté financière, l’incitation à ne plus tolérer les contestations étudiantes dans leur enceinte peut être très puissante, d’autant que cette tolérance est déjà très affaiblie. Et là encore, les risques d’effet pervers sont énormes : exclure la mobilisation de l’enceinte des établissements ne ferait qu’augmenter la tension et encourager les débordements.

Who watches the watchmen?

Bien sûr, tout ceci n’est pour l’instant qu’hypothétique, et la possibilité de coups de menton électoraux n’est pas du tout à exclure. Que ces coups de menton déplacent la fenêtre d’Overton n’est pas non plus à exclure, tout comme la possibilité que ces propositions prennent corps, dans l’immédiat ou à moyen terme. L’État commence d’ailleurs à s’outiller, par exemple avec la plateforme « dialogue », conçue pour lui permettre de connaître en temps réel les incidents relatifs au comportement des étudiants, et les suites qui sont données par leur établissement.

Bien sûr, cela pose la question de qui va définir précisément les orientations de notre système éducatif en termes de formation, ou plutôt de conformation des citoyens ? La réponse sera très différente en fonction du pouvoir en place. On obtiendra des citoyens très différents selon qu’on oblige ou interdit la prise en compte du comportement dans Parcoursup, selon qu’on estime qu’une interruption de cours non sollicitée est une nuisance ou une participation, selon qu’on considère une AG étudiante comme un détournement des moyens universitaires ou une pleine exploitation de ces moyens, selon qu’on considère la participation à telle ou telle organisation étudiante comme un danger ou un engagement, selon qu’on considère un blocage et un envahissement de CA comme un nécessaire apprentissage de la démocratie ou comme une atteinte à la sûreté de l’État.

Quoi qu’il en soit, la formation à la citoyenneté – sinon la conformation des futurs citoyens – semble revenir dans les considérations politiques, après un total effacement derrière les missions de réussite et d’insertion professionnelle. On ne peut que regretter que ce retour se fasse pour l’instant seulement par son abord le plus réactionnaire : l’autorité de l’État sur les citoyens qu’il est censé servir. 

 

Parcoursup : quel indicateur pour quelle communication ?

Cette année, les candidates et candidats dans Parcoursup auront deux jours pour répondre aux propositions qui leur seront faites. C’est l’occasion de discuter des indicateurs de performance de la plateforme, qui sont une très belle illustration de la loi de Goodhart : « lorsqu’une mesure devient un objectif, elle cesse d’être une bonne mesure ».

Les indicateurs avant Parcoursup

Parcoursup n’est utilisé que depuis 2018. Auparavant, avec APB, l’affectation était faite avec une échéance collective, pour la hiérarchisation des vœux le 31 mai, puis une machine calculait les affectations en moins de 24h. Une semaine plus tard, tous les candidats affectés recevaient leur réponse en même temps : en 2017, 98% des bac généraux, 87% des bac techno et 70% des bac pro. Pour les autres, une phase complémentaire était ensuite organisée.

C’était là le premier indicateur de performance d’APB : le taux de candidats affectés, qui était de 95% en 2017, avec environ 4% de candidats sans proposition et 1% de démissions.

Le second indicateur de performance concernait la satisfaction des candidats face à leur affectation, mesurée par la répartition des propositions selon l’ordre du vœu des candidats. En 2017, 63% des bac généraux obtenaient leur 1er vœu, comme 51% des bac technologiques et 44% des bac pro.

Des indicateurs d’APB aux indicateurs de Parcoursup

Pour une raison peu claire (les hypothèses sont nombreuses, et la communication des réformateurs peu concluante), la hiérarchisation des vœux a été supprimée. Or, cette hiérarchisation est indispensable pour que la machine puisse calculer rapidement l’affectation. Pour la remplacer, Parcoursup utilise une phase de réponses « au fil de l’eau », qui allait en 2018 de mai à.. septembre. 5 mois.Image

La plateforme passe ainsi de une semaine à cinq mois – la durée dépendant du classement des candidats, les « meilleurs » étant servis tout de suite, et les autres devant atteindre – pour rendre exactement le même service ! Bien naturellement, le reproche principal adressé à la nouvelle plateforme est donc devenu sa lenteur. La bureaucratie s’est alors mise à résoudre le problème qu’elle venait juste de créer, à coups de « calendrier repensé » et des « délais raccourcis ».

Les indicateurs ont été réformés pour se conformer au nouveau fonctionnement. Le taux de proposition a gagné en précision, notamment pour les démissions, beaucoup plus nombreuses qu’avec APB, sans doute en raison de la longueur de la procédure.

En 2023, le taux de sans réponse est à 4,7% (stable par rapport à APB), mais le taux de démission atteint 8,5% (contre 1% avec APB – attention tout de même, les démissions sont sans doute bien mieux mesurées avec Parcoursup qu’avec APB). Le taux d’affectation est ainsi de 86,7% (contre 95% avec APB).

La satisfaction des candidats a en revanche disparu des indicateurs de performance, au profit de la vitesse :

Si on ne sait plus si les candidats sont satisfaits de leur affectation, on sait désormais que 27% des candidats ont accepté une proposition à l’ouverture de la plateforme, et qu’il a fallut environ une semaine pour doubler ce nombre, 3 semaines pour atteindre 70%, et 3 mois pour atteindre 82,5%.

De la définition des indicateurs aux politiques publiques

La définition des indicateurs n’est pas seulement technique : elle témoigne ou guide des politiques publiques. Ainsi, si on veut améliorer les performances avec une mesure de la satisfaction, il faudra bien ouvrir des places dans les filières les plus demandées, ce qui nécessite des moyens. En revanche, avec une mesure de la vitesse, les moyens sont inutiles, puisqu’il suffit de raccourcir les délais de réponse pour accélérer les affectations… Mais diminuer les temps de réponse diminue le temps de réflexion, ce qui peut baisser la qualité de l’orientation, et augmente naturellement le stress des candidats, pressés de répondre plus rapidement.

Ainsi, 83% des candidats de 2023 jugent la procédure stressante, alors qu’ils n’étaient que 77% en 2020. De façon amusante, jusqu’en 2022, les objectifs d’accélération et de réduction du stress sont confondus dans les axes stratégiques d’amélioration continue, alors même que les deux peuvent être contradictoires.

Des politiques publiques aux besoins de communication

Cette amélioration continue ne répond pas seulement aux purs besoins des usagers de la plateforme, mais aussi aux besoins de communication de la ministre, dont l’action est également évaluée par ces indicateurs. Or, dans cette communication, la satisfaction a disparu et le stress est resté totalement absent, alors qu’est systématiquement mis en avant le débit et la vitesse.
L’amélioration continue impose que les indicateurs soient en perpétuelle amélioration : peu importe qu’on passe d’une semaine à 5 mois, pourvu que chaque année soit plus rapide que la précédente.

Image

Donc chaque année on « accélère le calendrier » et on « resserre les délais », ce qui conduit naturellement à stresser de plus en plus les candidats. Ce stress n’a en réalité aucune importance puisque cet indicateur est mal mesuré et très peu médiatisé, contrairement à la vitesse d’affectation, qui permet de feuilletonner toute la procédure, en allant à des niveau de précision tout à fait absurdes : « 74,49 % » « +0,63 point ».

Image

Et c’est ainsi qu’en souhaitant résoudre le problème qu’elle venait de créer, la bureaucratie a mécaniquement fait passer les délais de réponse d’initialement une semaine, à désormais deux jours, avec des règles de plus en plus complexes, ce qui rend la procédure de plus en plus stressante. C’est le prix à payer pour pouvoir annoncer l’accélération d’une procédure rendue inutilement lente.

Image

Au passage, la satisfaction des candidats, qui devrait normalement être notre souci principal dans toute cette affaire, a été totalement invisibilisée ! Plus aucun indicateur de la performance publique ne la mesure. Donc elle peut baisser tranquillement, sans que personne s’en aperçoive. L’Observatoire de la vie étudiante (OVE) a cependant intégré des questions relatives à cette mesure dans son enquête sur les conditions de vie, mais sans atteindre la visibilité qu’avait l’indicateur de satisfaction d’APB.

On a là un parfait exemple de la loi de Goodhart : en fixant pour objectif d’améliorer les délais de réponse, on augmente le stress et on prend le risque de diminuer la qualité de l’affectation.

Il y a-t-il une vie après l’amélioration continue ?

La question qui se pose lorsqu’on améliore continuellement – donc perpétuellement – un indicateur est : jusqu’où peut-on aller ? Est-il par exemple possible de descendre en dessous de 2 jours de délais de réponse, sans faire exploser le stress et le mécontentement, et sans démultiplier les erreurs et recours ? C’est peu probable.

Cette situation pose un problème majeur de communication pour la ministre : comment feuilletonner des améliorations lorsque plus aucune amélioration n’est possible ?

Deux approches sont mises en œuvre. Premièrement, la promotion du recours au « répondeur automatique », qui initialement n’existait pas, puis a été mis en place pour la phase complémentaire, avant de chaque année remonter de plus en plus tôt dans le calendrier. Ce « répondeur automatique » a le mérite d’accélérer énormément la plateforme, tout en diminuant le stress des candidats. Si la terminologie a changé, il s’agit en réalité strictement du fonctionnement d’APB, qui imposait l’utilisation de ce « répondeur » dès le 31 mai. Dis autrement : la seule façon de continuer à améliorer les performances de Parcoursup est de progressivement revenir à APB. Et c’est vraiment très drôle !

Deuxième approche : casser le thermomètre, et mettre en avant de nouveaux indicateurs, si possible très mauvais, et qui seront faciles à améliorer. C’est ce qui apparait dans les axes stratégiques d’amélioration de la plateforme : alors que les axe 1 et 2 n’ont pas fondamentalement changé, l’axe 3 qui concernait la vitesse de réponse et le stress a été supprimé et remplacé par un nouvel axe « renforcer les leviers pour objectiver l’analyse des candidatures et l’explicabilité des décisions rendues ».

Nous verrons bien comment ce nouvel axe sera traduit en indicateurs, et surtout, quels seront les nouveaux effets pervers qui seront inévitablement induits par leur amélioration. J’ai hâte !

A quel rythme vont les réformes de l’éducation ?

Pour sa première sortie médiatique en tant que Ministre de l’éducation nationale (et des JO), Mme. Oudéa-Castéra a justifié le choix du secteur privé pour ses enfants en fustigeant l’École publique. S’en est suivi plusieurs jours de grande tension, ravivant -entre autres- les polémiques sur la nécessité de réformer en profondeur l’éducation publique, certains semblant penser qu’elle ne l’est jamais. Comment objectiver le rythme des réformes de l’éducation ?

Au micro de BFMTV, Mme. Oudéa-Castéra a justifié le choix de mettre ses enfant à l’école privée Stanislas en évoquant sa « frustration » face à « des paquets d’heures qui n’étaient pas sérieusement remplacées. Et à un moment on en a eu marre », avant d’ajouter « nous nous assurons que nos enfants sont non seulement bien formés, avec de l’exigence dans la maîtrise des savoirs fondamentaux ; mais qu’ils sont heureux, qu’ils sont épanouis qu’ils ont des amis, qu’ils sont bien, qu’ils sont en sécurité, en confiance ». 

Elle semble estimer ainsi publiquement que l’École publique ne permet ni la maîtrise des savoirs fondamentaux, ni l’épanouissement, avoir des amis ou être en sécurité. Cela a mis le feu aux poudres, avec une intensité que je n’avais encore jamais vue sur Twitter/X, contredisant le narratif selon lequel M. Attal, Ministre de l’Éducation nationale pendant 6 mois, aurait renoué la confiance avec les enseignants. Cette intensité a redoublé après les vérifications d’usages, démontrant que la Ministre a menti : son école publique de secteur est en réalité huppée, et ne connaît aucun problème de remplacement. La relation avec les syndicats est désormais « extrêmement tendue ». Un coup de projecteur est aussi mis sur l’école Stanislas : son règlement intérieur est publiquement critiqué, et la pression augmente sur le rapport de l’inspection générale qui est maintenu secret. Cette école n’est pas seulement privée mais surtout très élitiste et souvent considérée comme « ultra réac », et il en reste finalement une accusation de séparatisme scolaire, qui devient virale.

Image

Les défenseurs de la Ministre s’appuient pour la plupart sur l’argument « elle dit ce que tout le monde pense » : l’école publique serait à fuir, y compris dans les beaux quartiers. La suite logique est alors de prôner une grande réforme de l’École publique, « mammouth irréformable », notamment à cause du « corporatisme des enseignants » qui s’opposeraient avec efficacité à toutes les réformes.

Si les principales accusation formulées par la Ministre ont déjà été maintes fois analysées (sur les « heures pas sérieusement remplacées », sur l’efficacité du secteur privé, sur les inégalités de dotations publiques), il n’y a pas de mesures précises du rythme des réformes à ma connaissance.

Mesurer le rythme des réformes de l’éducation

La base LEGI permet de retrouver toutes les versions du Code de l’éducation, ainsi que les textes le modifiant. Même s’il reste très difficile d’évaluer la portée réelle des modifications en termes concrets sur l’Éducation nationale et l’Enseignement supérieur, ces données fournissent une mesure quantitative des réformes de l’éducation :

On peut ainsi constater que de moins de 150 textes sous M. Sarkozy, nous sommes passés à plus de 300 lors du premier mandat de M. Macron, essentiellement par une inflation du nombre de décrets. Au rythme actuel, ce record devrait être dépassé lors du second mandat de M. Macron.

Depuis l’élection de M. Macron

Pour essayer de percevoir l’ampleur des réformes avec plus de finesse, il est possible de représenter, dans le temps, les modifications des articles du Code de l’éducation. Voici par exemple une représentation qui s’étend depuis l’élection de M. Macron à la présidence de la république :

Là encore, il convient de rester prudent, puisqu’une modification peut être massive mais cosmétique, comme courte mais très profonde. Néanmoins, on peut écarter l’hypothèse d’une absence d’intérêt et de réformes de l’éducation ces dernières années : 55 lois, 16 ordonnances, 2 décisions et 332 décrets ont conduit à 77 versions de la partie législative du code de l’éducation, et 257 de la partie réglementaire. Au final, la moitié des articles de ce code ont été modifiés, avec un rythme moyen d’une modification tous les 8 jours.

Les textes les plus transformants sont les Décret n° 2019-1558 du 30 décembre 2019 relatif aux attributions des recteurs de région académique et des recteurs d’académie et portant diverses mesures réglementaires dans le code de l’éducation et Décret n° 2019-1554 du 30 décembre 2019 relatif aux attributions des recteurs de région académique et des recteurs d’académie, dont on a que très peu parlé, mais qui modifient 311 articles, soit près d’un tiers du Code.

On trouve ensuite la LOI n° 2019-791 du 26 juillet 2019 pour une école de la confiance (1), qui modifie 151 articles. Voici la liste des 10 textes les plus transformants depuis l’élection de M. Macron. :

DECRET 2019-1558 2019-12-30 201 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000039700476
LOI 2019-791 2019-07-26 151 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000038829065
DECRET 2019-1554 2019-12-30 110 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000039700158
DECRET 2018-614 2018-07-16 63 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000037202561
DECRET 2021-1907 2021-12-30 55 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000044638867
LOI 2020-1674 2020-12-24 49 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000042738027
DECRET 2023-856 2023-09-05 49 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000048046061
DECRET 2020-785 2020-06-26 47 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000042044408
DECRET 2021-1910 2021-12-30 44 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000044740106
ORDONNANCE 2021-1747 2021-12-22 40 https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000044547312

Durant la scolarité d’un bachelier 2023

La même approche peut être utilisée pour visualiser les modifications législatives durant la scolarité d’un bachelier, de son inscription en maternelle en 2009 à son bac en 2023 :

https://raw.githubusercontent.com/juliengossa/legiplot/master/scolarite.gif

L’échelle temporelle étant plus grande, on observe (au niveau du CE1) un très gros ajout en fin de Code, qui correspond certainement à une codification (l’intégration dans le code de textes pré-existants) à droit constant. Cette codification semble ensuit terminée.

Au final, plus de 80% du Code de l’éducation a été modifié entre l’entrée dans le système éducatif et la fin du secondaire d’un bachelier 2023. 125 loi, 1 loi organique, 37 ordonnances, 6 décisions et 595 décrets auront conduit à 169 versions de la partie législative et 482 de la partie réglementaire. Difficile de parler d’« irréformable », quand un texte de modification survient tous les 15 jours en moyenne.

Aux décrets présentés précédemment s’ajoute le Décret n° 2012-16 du 5 janvier 2012 relatif à l’organisation académique, qui touche 175 articles et témoigne de l’importance que les gouvernements accordent à la réforme de l’organisation administrative de l’éducation. On trouve ensuite la LOI n° 2013-660 du 22 juillet 2013 relative à l’enseignement supérieur et à la recherche, dites loi Fioraso, qui modifie 100 article du code et la LOI n° 2013-595 du 8 juillet 2013 d’orientation et de programmation pour la refondation de l’école de la République qui en modifie 74. A côté, LOI n° 2007-1199 du 10 août 2007 relative aux libertés et responsabilités des universités (1) (LRU) n’en modifie que 36, bien qu’on puisse s’accorder sur sa plus grande profondeur : cela démontre la prudence qu’il convient de garder lorsqu’on quantifie le droit.

La liste des articles les plus modifiés permet également d’identifier les points qui intéressent le plus les législateurs. On y trouve notamment l’orientation et formation professionnelle, l’enseignement moral et civique, les œuvres universitaires, l’enseignement du numérique, et la formation au professorat :

L214-13 Législative 10 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000037390508
L312-15 Législative 10 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000045292525
L335-5 Législative 10 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000046774910
L683-1 Législative 10 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000043485268
L684-1 Législative 10 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000043485227
L681-1 Législative 9 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000043485309
L822-1 Législative 9 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000046873650
L312-9 Législative 8 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000047666746
L721-2 Législative 8 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000045293824
L771-1 Législative 8 https://www.legifrance.gouv.fr/codes/article_lc/LEGIARTI000043485415

On y trouve également plusieurs texte concernant l’outre-mer, sans que je sache exactement pourquoi.

Conclusion

Pour conclure, si l’analyse quantitative du droit nécessite de grandes précautions, et ne saurait se faire sérieusement sans l’aide de juristes, elle permet cependant d’écarter l’hypothèse d’une passivité des législateurs et d’une absence de réformes de l’éducation. Au contraire, cette analyse conduit à s’inquiéter d’un rythme de réforme sans doute beaucoup trop soutenu pour un système aussi compliqué que notre système éducatif.

Le rythme perçu par les données est d’autant plus inquiétant qu’une très grande partie des transformations ne passe pas par la loi. On peut par exemple penser aux réglages des taux de redoublement ou de réussite, aux ouvertures et fermetures de classes ou de places, aux quotas ou encore aux dotations des établissements : autant de paramètres contrôlés administrativement, sans intervention du législateur, et qui pourtant peuvent transformer en profondeur notre éducation nationale.

La formation d’un jeune prend 15 ans jusqu’au baccalauréat, 20 ans jusqu’au Master. Même si une réforme à un niveau n’a pas forcément de répercussions directes sur les autres niveaux, une articulation est souvent nécessaire, et toujours souhaitable. Exemple récent et flagrant : la réforme du baccalauréat général à profondément modifié les pré-requis des étudiants entrants dans le supérieur, sans que rien ne soit fait pour permettre de s’y adapter. Concomitamment, la réforme des IUT a profondément modifié cette formation post-bac. Les deux réformes en même temps ont ainsi plongé les IUT dans la confusion, devant faire des programmes nouveaux, avec une approche pédagogique nouvelle, face à un public nouveau.

Si on étend la logique, une réforme de la maternelle aura des conséquences (certes moindres) sur les bacheliers 15 ans plus tard, et sur les master 20 ans plus tard. Cela illustre le besoin de précaution lorsqu’on réforme l’éducation, et sans doute désormais le besoin de stabilité, pour que les enseignants reprennent leurs marques.

Pour aller plus loin…

Les visualisations de ce billet ont été fait grâce au projet Legiplot, conçu avec l’aide de Yang Yang.
Des informations plus complètes sont présentées dans le projet Legifouille : https://github.com/juliengossa/legiplot/blob/main/legifouille/legifouille.md

Pour mieux comprendre l’épisode Attal au Ministère de l’Education nationale, et plus largement faire un point sur les méthodes de réforme de l’éducation, cette émission d’Arrêt sur images :

https://www.arretsurimages.net/emissions/arret-sur-images/gabriel-attal-a-ete-bon-pour-faire-passer-ses-elements-de-langage

 

 

 

Subvention pour charge de service public : quel indicateur pour quelle répartition ?

Spécificité française, L’État a abandonné il y a 20 ans l’utilisation d’un modèle d’allocation des moyens pour répartir les dotations entre les universités. Depuis, c’est l’historique et la négociation qui priment, ce qui était acceptable tant que les dotations couvraient la masse salariale. Ce n’est désormais plus le cas, ce qui soulève une modeste vague de contestation de la part des dirigeants d’université, certains questionnant les décisions qui ont été prises. Cette contestation implique de comparer la SCSP de tous les établissements, à la recherche d’éventuelles injustices. Mais est-ce qu’une telle comparaison est possible ?

En langage technocratique, les subventions pour charge de service public (SCSP) sont définies ainsi :

Ces dernières sont des charges de fonctionnement indirect, et correspondent aux versements effectués par l’État au profit de tiers identifiés appelés « opérateurs » afin de couvrir leurs propres charges de fonctionnement, engendrées par l’exécution de politiques publiques relevant de la compétence directe de l’État, mais que ce dernier leur a confiées, et dont il conserve le contrôle.
Ces versements ont donc pour contrepartie la réalisation de missions confiées par l’État.
https://www.economie.gouv.fr/files/files/directions_services/dgfip/BOCP/2006/04-2006/icd06032-4.pdf

Plus grossièrement, c’est la somme d’euros que l’État confie directement aux universités, sans passer par des appels à projet, pour effectuer ses missions de service public. Elle se distingue des « ressources propres », qui constituent l’autre partie des ressources des universités (PIA, ANR, Régions, frais d’inscription, etc.), qui sont obtenus pour mener des actions particulières. La SCSP, aussi appelée « dotation récurrente » ou « budget récurent », est donc le support aux libertés académiques : plus elle est supérieure aux dépenses, plus l’établissement dispose de marges de manœuvre.

Dans les tableaux de bord financiers officiels, le ratio Ressources propres / Produits encaissables est plutôt défini comme le « Degré de dépendance de l’établissement aux subventions de charge de service public versées par l’État ». Cela montre qu’un même indicateur peut conduire à deux interprétations radicalement opposées, mais tout autant légitimes.

La SCSP est décidée lors d’un « dialogue stratégique et de gestion » entre les établissements et l’État (l’État dans cette note est compris comme l’ensemble présidence de la république, ministères, directions générales, rectorats). La France a la particularité de n’avoir aucun modèle d’allocation des moyens, et ce depuis bientôt 20 ans. Tout ne repose que sur l’historique, et une négociation discrétionnaire, de gré à gré, sans aucune trace écrite officielle pour comprendre les arbitrages. La France a ainsi le même outillage pour répartir les moyens que le Luxembourg, pays qui n’a qu’une seule université :

Le principe de « fongibilité asymétrique » dispose que la SCSP peut être utilisée pour des dépenses de toute nature (par exemple la masse salariale des contractuels ou le paiement des factures d’énergie), mais qu’en revanche les ressources propres ne peuvent pas servir à payer des fonctionnaires. Ce principe semble actuellement discuté, non pas pour augmenter le nombre de fonctionnaires, mais pour arriver à payer ceux qui sont déjà en poste, malgré une SCSP de plus en plus insuffisante :

Comme le montre ce graphique, pour la première fois, la SCSP ne couvre plus la masse salariale (rémunérations des fonctionnaires et des contractuels). Après avoir prétendu cesser de compenser le GVT (Glissement vieillesse technicité, c.-à-d. l’avancement à l’ancienneté), l’État a décidé de ne pas compenser les mesures de revalorisation salariale (hausse du point d’indice, RIFSEEP et RIPEC), ainsi que les nouveaux statuts (CPJ) décidés notamment durant la Loi de programmation de la recherche pour fluidifier son acceptation.

Cette transformation de l’« investissement sans précédent » promis par Madame Vidal en un « déficit sans précédent » a motivé les dirigeants des universités à en appeler au « principe de décideur-payeur », sans succès jusqu’à présent. Peut-être que l’État s’estime légitime à refuser de compenser ce qui a été réclamé par les dirigeants d’universités.

Sans doute que cette situation a aussi conduit les présidents d’université à approuver la perspective de profondes modifications statutaires des personnels d’enseignement et de recherche. Surtout, cela a conduit les dirigeants à remettre en cause la répartition des SCSP. Plusieurs voix se sont en effet élevées pour publiquement dénoncer des injustices, comme par exemple à Montpellier.

La recherche d’injustice s’appuie sur des comparaisons entre les SCSP octroyées aux établissements, le jeu étant de trouver un établissement comparable qui serait mieux traité que le sien, selon un indicateur donné.

Regardons ce qu’il en est concrètement.

Méthodologie

Cette note utilise essentiellement le jeu de données ouvertes Indicateurs financiers des opérateurs de l’enseignement supérieur français.
Les données non financières proviennent également des données ouvertes, agrégées dans le projet kpiESR et mises en forme dans les tableaux de bord des établissements.
Tous les traitements sont disponibles à cette adresse : https://github.com/cpesr/RFC/tree/main/SCSP

Les établissements retenus ici sont les universités et assimilés, de France métropolitaine, sans Paris Sciences et Lettres, dont les indicateurs sont trop hors-norme.

Les SCSP des universités

Commençons par regarder tout simplement la SCSP des universités :On observe une très vaste étendue de SCSP, allant de 22 M€ à Nîmes jusqu’à 544 M€ à AMU. Cinq établissements se distinguent clairement des autres, en dépassant les 500 M€ : AMU, UP, UL, ULille et SU. Si un effet fusion est évident, il n’est sans doute pas le seul facteur explicatif. Surtout, cette hétérogénéité cela montre deux difficultés : d’abord la difficulté pour l’État de gérer un paysage aussi différencié ; ensuite la difficulté pour les établissements de se retrouver autour de revendications communes.

Regardons maintenant l’évolution de ces SCSP (sans prise en compte de l’inflation) depuis 2014, en valeur 100 :

Là encore, on observe une grande hétérogénéité, avec une évolution allant de +3% à +65%, mais une nette concentration entre +10% et +20%. Nîmes est à la fois l’université qui touche le moins de SCSP, et celle dont la SCSP a le plus évolué. Selon l’indicateur qu’on choisira pour mener les négociations budgétaires, elle sera donc première ou dernière : l’université pourra argumenter qu’elle est celle qui reçoit le moins de dotation ; l’État pourra lui répondre quelle est celle qui a bénéficié de la plus grande « générosité ».

La comparaison de la SCSP entre établissements est difficile en raison de l’hétérogénéité de taille de ces établissements, qui a été accrue par les politiques de différenciation et de fusion. Cependant, la SCSP permet d’avoir une idée des marges de manœuvre dont disposent les présidences. En épargnant 1% de SCSP, Nîmes disposerait de 220 k€ (deux contrats doctoraux), quand AMU disposerait de plus de 5 M€ (permettant par exemple des vrais travaux bâtimentaires).

Mais regardons comment neutraliser la taille des établissements.

SCSP par personnel d’enseignement et de recherche

Première façon de neutraliser la taille des établissements : diviser par le nombre de personnels d’enseignement et de recherche (EEC : MCF, PR, PRAG, etc.) :

Là encore, on constate une grande hétérogénéité, allant de 97 k€/EEC à 165 k€/EEC, mais dans un écart qui peut permettre de comparer les établissements mieux qu’avec la simple SCSP. UGA a désormais la dernière place du classement, tant en 2022-2023, qu’en évolution depuis 2014 :

On observe que cette métrique annule beaucoup l’avantage fusion/IDEx constaté sur les SCSP : sous cet angle, les universités « excellentes » sont plutôt en bas du classement, tant en valeur qu’en évolution.

En réalité, compter le nombre d’enseignants est loin d’être trivial : faut-il compter les contractuels ? Les doctorants avec mission d’enseignement ? Compter les ETPT, les individus ou le potentiel d’enseignement ? Autant de méthodes de calcul qui modifient ces chiffres et le classements.

Ajoutons que cet indicateur présente un problème fondamental : les établissements qui mettent en œuvre une politique d’austérité RH, en supprimant des postes, peuvent voir leur SCSP/EEC augmenter. Il peut donc donner une illusion d’opulence là où il n’y a que de l’austérité.

C’est pourquoi on pourra préférer neutraliser la taille avec le nombre d’étudiants.

SCSP par étudiant

L’intérêt du nombre d’étudiants est qu’il dépend beaucoup moins des politiques des établissements que les effectifs enseignants, et qu’il représente sans doute mieux la « charge de service public ». Regardons la SCSP/Etudiant des universités :

On observe des valeurs allant de moins de 3 500€/étudiant à plus de 12 000€/étudiant. L’effet fusion/IDEx semble ici totalement neutralisé, les universités « excellentes » étant indissociables des autres. Cet indicateur pourrait servir de base solide à une négociation budgétaire, cependant regardons son évolution depuis 2014 :

Si on se fie à cet indicateur, on pourrait croire que Paris-Saclay a perdu 34% de sa SCSP/étudiant, pendant que UEVE voyait la sienne augmenter de 61%. En réalité, il s’agit simplement de déplacements purement administratifs d’inscriptions étudiantes entre les deux établissements, UEVE étant un établissement composante de Paris-Saclay, qui n’est pas une université mais un établissement public expérimental (EPE). Nombre d’étudiants de l’UEVE, notamment en Master et Doctorat, ne verront jamais les murs de Paris-Saclay, même s’ils y sont inscrits.

Si ce cas précis est remarquable sur cette représentation, il ne doit pas cacher que ce problème d’inscription administrative est extrêmement fréquent, bien sûr pour tous les EPE, mais aussi pour toutes les universités qui on tissé des partenariats avec les écoles de leur territoire par exemple. Les restructurations incessantes brisent les séries et empêchent de bien connaitre le système.

Les effectifs étudiants sont d’ailleurs assez difficile à mesurer proprement : faut-il compter les double-inscriptions en CPGE ? Les double-inscriptions en diplômes, au risque de compter deux fois des individus ? Seulement les inscriptions principales, au risque de négliger des charges d’enseignement supplémentaires ? Les inscriptions en DU/DE, qui parfois ne représentent que quelques dizaines d’heures de cours ? Les doctorants, qui participent beaucoup plus à l’enseignement qu’ils ne consomment d’heures de cours ?

Là encore, il existe une multitude de méthodes de calcul, toutes plus légitimes que les autres. Regardons par exemple ce qu’il se passe si on exclu les doctorants du calcul.

SCSP par étudiant (hors doctorants)

La SCSP par étudiant hors doctorant change peu de la SCSP par étudiant :

Si le classement n’est pas chamboulé par la non prise en compte des doctorants, on observe tout de même des modifications marginales. Par exemple Paris-Saclay passe de la 42e place à la 35e place. Si cela ne change fondamentalement rien, c’est tout de même une opportunité pour contester la méthode de calcul durant les négociations.

Cette observation s’applique à l’évolution de cet indicateur dans le temps :

Nous venons dont de voir que pour comparer les SCSP des établissements, le dénominateur pouvait être discuté, autant sur sa définition que sur son mode de calcul. Mais en réalité, le numérateur peut tout autant être discuté. Regardons par exemple les ressources par étudiant (hors doctorant).

Ressources par étudiant (hors doctorants)

On appelle « ressources » ou « produits de fonctionnement encaissables » l’ensemble des sommes encaissée par un établissement, quelle que soit la provenance. C’est donc la somme de la SCSP et des ressources propres encaissables :

Si la distribution de cet indicateur est très similaire à la distribution de la SCSP, on constate des transformations du classement : Sorbonne Université prend par exemple la première place, et Paris-Saclay passe de la 35e à la 14e place.

Le constat est identique pour l’évolution de l’indicateur :

Utiliser toutes les ressources au lieu de la seule SCSP pour négocier la SCSP avec l’État conduit à une situation qui illustrer bien la difficulté d’utiliser des indicateurs à des fins de pilotage. Par exemple, un établissement ayant beaucoup de ressources propres pourra se targuer d’avoir su « diversifier ses ressources » (sic) et donc réclamer une récompense en terme de SCSP ; mais l’État pourra lui rétorquer que ses ressources propres lui offrent déjà une situation confortable, et qu’en conséquence une augmentation de la SCSP n’est pas nécessaire. A contrario, un établissement ayant peu de ressources propres pourra présenter une situation financière nécessitant une augmentation de la SCSP ; mais l’État pourra lui rétorquer qu’il n’a qu’à faire plus d’efforts pour trouver des ressources propres – d’autres y arrivent bien.

Les arguments sont donc facilement réversibles, ce qui ne doit pas faciliter la rationalisation des négociations. Cette rationalisation est rendue encore plus compliquée par la différenciation des établissements en différentes catégories. Regardons deux de ces catégories.

Deux catégories d’établissement : PérimEx et Typologie.

Il est très fréquent qu’on explique les différences budgétaires par la nature des établissements.

Récemment, on a par exemple développé le « périmètre d’excellence » (PérimEx, sic). Il est de notoriété publique que l’octroi de l’IDEx et de l’ISITE donne un avantage financier conséquent aux établissements qui en bénéficient, contrairement aux NINI (Ni IDEx Ni ISITE). Regardons cela de plus près :

Ce graphique montre les quatre indicateurs que nous avons discutés, chaque point est un établissement, et le violon aide à lire leur densité. La première chose qui frappe est que les établissements IDEx et ISITE ne sont pas du tout différenciés des autres établissements. Voilà pour l’idée reçue.

Ensuite, on pourra observer que le choix de l’indicateur fera passer les établissements dans le PérimEx du bas du classement (SCSP/E-EC) au haut du classement (Ressources/étudiant hors doctorant). La prise en compte ou non des doctorants, mais surtout la prise en compte ou non des ressources propres (dont font partie les IDEx), pourra donner quelques variations substantielles.

Chaque établissement pourra ainsi choisir un indicateur différent selon son PérimEx, pour appuyer tel argument ou son contraire. Mais l’explication la plus classique pour expliquer les différences budgétaires tient à la typologie disciplinaire des établissements. Il est de notoriété publique que certaines disciplines sont plus coûteuses que d’autres, ce qui expliquerait la différence de traitement :

Sur ce graphique, on constate d’abord que la SCSP/E-EC est assez équilibrée en fonction de la typologie disciplinaire, précisément parce que les taux d’encadrement pédagogiques sont très inférieurs dans les universités tertiaires. Dans « La profession introuvable ? », Emmanuelle Picard conteste l’explication pragmatique (les études en LLA-SHS auraient besoin de moins d’enseignants) et émet l’hypothèse d’une différenciation historique de ces taux d’encadrement : dès la première vague de massification, les étudiants ont plus afflué en Lettres qu’en Sciences, diminuant d’autant les taux d’encadrement, sans volonté de rééquilibrage par les pouvoirs publics.

Quoi qu’il soit, avec les étudiants en dénominateur, les indicateurs montrent clairement trois blocs distincts, par ordre croissant de moyens : droit, économie, gestion ; lettres et sciences humaines ; et puis les universités scientifiques, médicales ou pluridisciplinaires. La différence entre ces groupes est significative, puisqu’on va du simple au double.

Utiliser les ressources plutôt que la SCSP creuse encore l’écart, sans doute puisque les universités tertiaires sont exclues des financements IDEx, et qu’elles participent plus difficilement à toutes les politiques d’incitation à la « diversification des ressources ».

Il ne s’agit pas ici de questionner la légitimité de ces différences, mais seulement de montrer qu’il est possible d’apporter différentes explications au partage de la SCSP, tout comme il est possible d’estimer que telle ou telle comparaison est avec ou sans pertinence en raison de certaines différences fondamentales.

En conclusion

Pour résumer, nous avons vu que les dotations récurrentes (SCSP), et plus largement des moyens financiers, étaient distribués très inégalement entre les établissements. Nous avons également vu que mesurer ces différences, notamment pour identifier des injustices, était notoirement difficile : la définition du numérateur et du dénominateur, les méthodes de calcul et le choix de regarder la dernière valeur ou l’évolution, changent le diagnostic, tantôt radicalement, tantôt suffisamment pour légitimer une contestation. En dernier ressort, il reste toujours la possibilité d’invoquer une situation locale particulière pour contester tel ou tel calcul, comme l’existence d’un EPE qui perturbe le décompte des effectifs.

A final, on observe que les arguments sont réversibles, ce qui permet à l’État de changer son indicateur d’épaule d’un établissement à l’autre ou d’un moment à l’autre des négociations. Puisque les dialogues de gestion sont des tête-à-tête sans traces écrites, il n’y a aucune façon de vérifier que l’action publique est uniforme, juste ou équitable entre les établissements. Il en serait différent avec modèle d’allocation, ou une conférence de gestion publique, ou encore avec des contrats rendus publics. A défaut, il ne reste qu’un rapport de force entre dirigeants et des décisions discrétionnaires.

Les graphiques suivants montrent les classements des établissements en fonction de l’indicateur choisi et du groupement choisi. Ils permettent d’identifier quels sont les arguments mobilisables par chaque établissement, selon qu’il se compare à tous les autres, ou seulement à ceux dans une catégorie donnée. Cela montre que même les établissements les mieux dotés peuvent facilement trouver une métrique montrant qu’ils sont désavantagés par rapport à d’autres.

Cette situation est sans doute une clé d’explication de la difficulté que nous aurions à rétablir un modèle d’allocation des moyens commun et accepté par tous les établissements, quand bien même ce serait notre volonté. Malheureusement, un tel modèle est sans doute le seul moyen sérieux d’assurer une visibilité pluriannuelle sur les moyens des universités. Malheureusement également, plus nous attendons, plus les dotations divergent ; et plus les dotations divergent moins plus il sera difficile de concevoir un modèle d’allocation des moyens.

 

 

Pour aller plus loin…

 

Insertion professionnelle : quel indicateur pour quelle politique publique ?

Quel dialogue de gestion pour quelle autonomie ?

 

Insertion professionnelle : quel indicateur pour quelle politique publique ?

« C’est la révolution que j’ai demandée pour la rentrée prochaine », « Il faut avoir le courage de revoir nos formations à l’université », « on doit réallouer les choses ». Ainsi s’exprimait M. Macron face au youtubeur Hugo Decrypte en septembre. Deux mois plus tard, ce dernier confirme face à France Universités, la CGE et la Cdefi : « il faut franchir le Rubicon en matière de professionnalisation », littéralement prendre des décisions irréversibles. Peut-être abordons-nous ici une deuxième phase de la loi ORE, dans laquelle les indicateurs d’insertion professionnelle joueront un grand rôle… Mais alors, quel indicateur choisir pour quelle politique publique ? Et quelle efficacité pouvons-nous en attendre ?

La loi Orientation et Réussite des Étudiants (Vidal, 2018) instaure notamment la plateforme Parcoursup, qui met l’accent sur la transparence des informations exposées aux candidats, dans la volonté affichée de leur permettre de faire le choix le plus éclairé possible. Mais du côté pilotage, cette loi offre également à l’État un contrôle accru de l’offre de formation publique, notamment par la définition des capacités d’accueil et quotas (boursiers, mobilité, filière du Bac).

Alors que se met en place la plateforme MonMaster, équivalent de Parcoursup pour les diplômés de Bac+3, force est de constater que peu de choses ont finalement changé : au delà de quelques arrangements et polémiques, le contrôle des capacités d’accueil n’a finalement servi qu’à éviter que les formations alignent leurs capacités sur leurs moyens, et le contrôle sur les quotas n’a finalement servi qu’à imposer une réforme aux IUT.

Face à cette absence de décision, le système a dérivé dans une situation qui peut sembler critique lorsqu’on compare les flux sortants de 3e année de Licence (L3, non professionnalisant) et ceux entrant en 1ère année de Master (M1, professionnalisant) :

Jusqu’à l’an dernier, aucune doctrine d’utilisation de ces pouvoirs nouveaux n’avait été explicitée. C’est ce que commence à changer M. Macron lorsqu’il propose comme seule question « Est-ce que cette formation permet de former des jeunes et de leur fournir (sic) un emploi ? » : il présente une doctrine d’enseignement supérieur totalement alignée sur les besoins de l’emploi. Cette doctrine se retrouve également dans la réforme du Lycée professionnel.

Les formations « qui ne permettent ni un bon taux d’insertion ni un bon taux de poursuite d’études, doivent être reconsidérées »,  « L’objectif est de transformer le quart de ces formations dont ces taux sont les plus faibles pour qu’elles ne soient plus proposées aux élèves à la rentrée 2026 »
Réforme du lycée professionnel : Carole Grandjean détaille l’année de terminale, dans Libération

M. Macron ambitionne ainsi de bâtir un « GPEC de la Nation », technique obligatoire dans le secteur privé depuis la loi Borloo de 2005.

« La gestion prévisionnelle des emplois et des compétences (GPEC) est une méthode pour adapter – à court et moyen termes – les emplois, les effectifs et les compétences aux exigences issues de la stratégie des entreprises et des modifications de leurs environnements économique, technologique, social et juridique.
La GPEC est une démarche de gestion prospective des ressources humaines qui permet d’accompagner le changement.
Elle doit permettre d’appréhender, collectivement, les questions d’emploi et de compétences et de construire des solutions transversales répondant simultanément aux enjeux de tous les acteurs concernés : les entreprises, les territoires et les actifs. »

Gestion prévisionnelle de l’emploi et des compétences (GPEC), Ministère du Travail

Pour simplifier, la « GPEC de la nation » vise donc à modifier l’allocation des moyens d’enseignement et des postes d’enseignants, tant entre disciplines qu’entre établissements, en fonction des besoins d’emploi de la nation.

Hypothèses de travail

Ignorons la partie prospective afin de penser cette idée sans buter sur les échecs de la prospective publique, par exemple lorsqu’en 2022 le gouvernement a souhaité investir massivement dans les NFT, qui aujourd’hui ne valent plus rien.

Ignorons également que l’orientation, et plus largement les études, peuvent avoir d’autres objectifs que la seule insertion professionnelle.

Ignorons de plus des travaux académiques, et prenons au sérieux le pré-supposé selon lequel l’orientation peut modifier à court terme le taux d’emploi global des diplômés.

Ignorons enfin le projet annuel de performance de la nation, qui n’envisage aucune amélioration, et supposons qu’un taux d’insertion de 93% est substantiellement améliorable, et que l’améliorer apportera des gains économiques importants, justifiant une réforme d’ampleur.

Concentrons-nous simplement sur ce que nous savons de l’insertion professionnelle des Masters, et regardons ce que peuvent en faire concrètement les étudiants, lorsqu’ils font des choix d’orientation, et ce que peuvent en faire les dirigeants, lorsqu’ils font des choix d’allocation des moyens.

Méthodologie

Les données présentées dans la suite se concentrent sur l’insertion professionnelle des diplômés de Master de la session 2020, hors Master d’enseignement, 30 mois après la diplomation, sans distinction de genre.

Elles sont issues des jeux de données ouvertes du SIES :

  • Insertion professionnelle des diplômés de Master en universités et établissements assimilés – données nationales par disciplines détaillées
  • Insertion professionnelle des diplômés de Master en universités et établissements assimilés

Tous les traitements, en R et ggplot, sont disponibles à cette adresse : https://github.com/cpesr/RFC/blob/main/insertion-pro/insertion-pro-tes.md

Les taux d’insertion

Le taux d’insertion se définit comme le nombre de diplômés en emploi divisé par le nombre de diplômés sur le marché du travail, aussi appelé taux d’emploi net. En creux, il mesure donc le nombre de chômeurs.

Lorsqu’on regarde les taux d’insertion par domaine disciplinaire, on peut constater qu’ils sont excellents : de 89% en LLA à 95% en DEG, pour un taux global de 93%. Soit un taux de 7% de chômage, pour 17% de chômage des jeunes au niveau national.

Du point de vue des étudiants, les taux d’insertion sont un indicateur assez pauvres pour fonder une décision d’orientation, de nombreux autres critères pourront peser bien plus lourd que ces différences de quelques pourcents : plaisir, appétence, résultats scolaires, opportunités, etc.

Du point de vue du pilotage, il paraîtra aussi peu pertinent de basculer des moyens d’un domaine à l’autre sur la base de si petites différences : réallouer efficacement suppose de disposer de marges de manœuvre, qu’une décennie d’austérité a rendues rares et ténues.

Le constat ne change pas vraiment lorsqu’on s’intéresse plus en détail à ce taux d’insertion :

On imagine difficilement un étudiant basculer d’Histoire à Électronique pour une différence si peu marquée, pas plus qu’on imagine un établissement redéployer des postes sur la base de ces indications. Il est également à noter que les disciplines qui conduisent aux moins bonnes insertions selon ces chiffres sont celles qui sont le plus proches des carrières d’enseignement ; or, ces chiffres sont hors Master d’enseignement, et il faut donc les relativiser. Il est de toutes façons peu probablement que des étudiants s’engagent dans de telles études sans connaissance de cause.

En conclusion, les taux d’insertion sont trop élevés et uniformes pour être utiles aussi bien aux étudiants choisissant leur avenir, qu’aux dirigeants pilotant les moyens. Le Ministère propose d’ailleurs d’autres indicateurs, dont les revenus, la nature du contrat ou de l’emploi, qui peuvent servir à des choix d’orientation, mais restent limités pour le pilotage. En revanche, deux autres taux sont présents dans les données, qui prennent du sens en terme de « GPEC de la nation ».

Les trois taux : insertion, emploi, et emploi salarié en France

Les trois taux présents dans les données sont :

  • Taux d’insertion : diplômés en emploi / diplômés sur le marché du travail (emploi + chômage, ou taux d’emploi net) ;
  • Taux d’emploi : diplômés en emploi / diplômés ;
  • Taux d’emploi salarié en France : diplômés en emploi seulement salarié en France / diplômés.

EDIT : C’est ce dernier taux qui est mis en avant par la plateforme InserSup, avec la précision suivante : « la population d’intérêt est celle des étudiants français de moins de 30 ans, diplômés de Licence professionnelle ou de Master d’une session annuelle N, et ne poursuivant pas d’études en N+1 ou N+2. »

Ces trois taux adoptent ainsi des perspectives différentes :

  • Le taux d’insertion, la perspective des diplômés : parmi ceux qui souhaitent un emploi, combien en ont ?
  • Le taux d’emploi, la perspective de l’activité économique : parmi tous les diplômés, combien produisent ?
  • Le taux d’emploi salarié en France, la perspective des employeurs du territoire : parmi tous les diplômés, combien produisent pour un employeur en France ?

C’est ce taux d’emploi salarié en France qui est le plus proche pour décrire la « GPEC de la nation » : il considère indifféremment ceux qui prennent une année de césure ou décident d’avoir une activité non marchande, ceux qui sont au chômage, ainsi que les travailleurs indépendants non salariés, et les employés hors de la France.

Regardons ces trois taux, par domaine disciplinaire :

Logiquement, les taux d’emplois sont moins bons que les taux d’insertion, surtout le taux d’emploi salarié en France, qui s’effondre en LLA. On aura donc une idée bien différente des Masters selon l’indicateur qu’on regarde. Cependant, les hiérarchies disciplinaires ne sont pas modifiées : changer de taux de référence n’inverse pas l’ordre des domaines disciplinaires. Mais regardons plus en détail :

En rentrant dans le détail des disciplines, on observe des différence significatives entre le taux d’insertion et le taux d’emploi salarié en France, inversant même certaines hiérarchies. Cas le plus impressionnant : Sciences du langage et linguistique passe de 90% à 47%. Selon l’indicateur choisi, on pourra donc trouver ses performances excellentes ou catastrophiques.

Toutes les disciplines de langue sont concernées par ce phénomène, sans doute car elles conduisent plus souvent que les autres à des carrières indépendantes ou internationales. Du point de vue de l’orientation, il pourrait paraître bien dommage que ces filières perdent en attractivité en raison d’un taux mal interprété, en apparence très négatif, alors qu’elles conduisent en réalité à des parcours promus par les discours institutionnels autour de l’entrepreneuriat et de la mobilité des étudiants et travailleurs.

An revanche, du point de vue du pilotage, des décideurs protectionnistes pourront rationnellement décider de définancer ces formations puisqu’elles ne servent pas directement à la production pour des employeurs en France. Si on ignore toutes les questions de rayonnement, on pourra même estimer que ces formations sont un service rendu à des puissances étrangères, et donc un mauvais investissement national.

Quel impact des trois taux pour les établissements ?

Nous avons vu que le choix du taux utilisé pouvait impacter des décisions d’orientation ou d’allocation des moyens entre disciplines. Mais qu’en est-il pour les établissement ? Là également, le taux choisi pourra avoir un impact crucial sur la décision :

Encore plus que pour les disciplines, la hiérarchie des établissement est lourdement impactée par le choix du taux. Paris-Panthéon-Assas, Sorbonne Nouvelle et Lorraine passent par exemple de la tête à la queue du classement, selon que l’on utilise le taux d’insertion ou le taux d’emploi salarié en France. L’université de Lorraine est celle qui présente le plus grand écart, avec 94% de taux d’insertion, 90% de taux d’emploi, mais seulement 66% de taux d’emploi salarié en France.

Regardons les taux de l’UL par discipline :

A l’Université de Lorraine, parmi les disciplines les plus impactées par le choix du taux, on retrouve les LLA, mais aussi Droit et, plus surprenant encore, Informatique, qui passe tout de même de 97% de taux d’insertion et 92% de taux d’emploi, à 42% de taux d’emploi salarié en France. Selon ce taux, il faudrait donc fuir et massivement définancer les formations d’informatique à l’Université de Lorraine, puisqu’elles ne « fournissent » pas un emploi… Cela questionne profondément la pertinence de cet indicateur pour prendre des décisions.

Ces exemples montrent l’importance stratégique de choix en apparence techniques : Quel indicateur mettre en avant sur les plateformes MonMaster et Parcoursup ? Comment les expliquer pour guider l’orientation des candidats ? Quel indicateur utiliser au sein des établissements pour opérer des redéploiements de postes et moyens ? Quel indicateur sera utilisé par le Ministère pour son dialogue stratégique et de gestion ? Quels objectifs seront éventuellement fixés dans les COMPs (Contrats d’objectifs, de moyens et de performance), comment et pourquoi ? Et quelles mesures les établissement mettront en place pour les atteindre ?

Tant de questions dont les réponses éclairent les intentions qui motivent la définition et l’utilisation de ces indicateurs, et nous permettent de comprendre un peu mieux l’action publique dans l’enseignement supérieur.

Alors que revoilà la « loi de Goodhart »…

La loi de l’économiste Charles Goodhart dit que « lorsqu’une mesure devient un objectif, elle cesse d’être une bonne mesure ». Nous en avons là une parfaite illustration : le taux d’emploi salarié en France est un bon indicateur pour connaître et observer les formations, mais il devient très mauvais dès lors qu’on l’utilise pour allouer des moyens, prendre des décisions d’orientation, ou, pire, fixer des objectifs.

Prenons le cas de l’Université de Lorraine (UL) et supposons que le Ministère fixe un objectif de 80% de taux d’emploi salarié dans son COMP, ou dans son dialogue de gestion. Pour atteindre un tel taux en informatique, l’UL n’aurait guère le choix : il faudrait mettre fin aux partenariats avec le Luxembourg, refuser les stages qui s’y déroulent, et sans doute diminuer les capacités d’accueil, en espérant que peu d’étudiants continuent malgré tout à viser cette carrière transfrontalière. Le bénéfice pour les étudiants et l’UL serait évidemment nul, et on peut même douter que la « GPEC de la nation » en sorte satisfaite, même si cela conduirait à plus d’informaticiens travaillants sur le sol français.

Un affichage sur la plateforme MonMaster aurait de pires conséquences encore, faisant fuir des candidats sans aucune raison légitime, et diminuant potentiellement les effectifs ou le niveau de recrutement des formations en informatique de l’UL, sans aucun gain par ailleurs.

… Et ses impacts sur les négociations.

On peut alors se dire qu’évidemment les choses ne seront jamais aussi mécaniques, qu’il y aura forcément de la souplesse dans l’utilisation des indicateurs et objectifs, pour s’assurer du respect des particularités locales et disciplinaires. Mais c’est là que le bât blesse, lorsque trois indicateurs décrivant la même performance donnent des résultats contradictoires, toutes les parties peuvent légitimement argumenter pour des arbitrages également contradictoires : « Votre taux A est trop bas, il faut donc réduire votre formation. », « Oui, mais notre taux B est très haut, ce qui montre qu’il faut l’augmenter. ». Ajoutez un troisième taux au milieu, et la discussion devient inextricable.

Mais ce n’est pas tout. En plus de leur définition, le calcul même des indicateurs peut facilement être contesté. Notamment, ces taux sont calculés dès lors qu’il y a au moins 30 réponses. EDIT : la plateforme InserSup précise :

« Outre le respect du secret statistique, le seuil minimal de 20 sortants par mention a été fixé pour éviter de faire apparaitre des évolutions temporelles du taux d’emploi salarié en France trop erratiques et ainsi assurer une fiabilité longitudinale de l’insertion. La fixation de ce seuil a pour conséquence la non exposition des données pour un nombre très important de mentions dans les établissements. Aussi, en vue de maximiser le nombre de mentions/diplômes par établissement pour lesquelles des indicateurs d’insertion sont exposés, un cumul avec la promotion précédente est effectué dans le cas où l’effectif est inférieur à 20. Demeurent des cas pour lesquels l’effectif cumulé reste inférieur à 20 et pour lesquels aucun taux d’emploi salarié en France n’est affiché. »

D’abord, cela ouvre à une contestation à propos des formations dont les taux ne sont pas calculés, qui peut même mener à des stratégies de non réponse pour se protéger des décisions politiques.

Ensuite, cela ouvre des contestations sur la pertinence des taux en fonction du nombre de réponses : Est-ce que 30 est suffisant ? 20 le serait-il ? 40 serait-il mieux ? Un taux calculé sur 200 réponses doit-il avoir plus de poids dans les négociations qu’un taux calculé sur 50 ? Autant de questions qui sont sans réponse consensuelle, donc potentiellement source de discorde.

Dès lors, le dialogue ne se fait plus guère sur une base objective, et il ne reste plus qu’un rapport de force s’appuyant sur la capacité des parties à argumenter, en fonction de leur maîtrise des indicateurs plus qu’en fonction des indicateurs eux-mêmes. Or, le système d’enseignement supérieur n’est fait que de particularités locales et disciplinaires. Pour aucune formation on ne sera en capacité de dire objectivement et sans contradiction possible « il faut réduire les capacités d’accueil ». Quand bien même y arriverions-nous pour quelques formations, ces indicateurs risquent fort d’apporter globalement plus de problèmes qu’ils n’en résolvent.

Au final, ces indicateurs, par ailleurs très utiles pour observer le système, compliquent le dialogue de gestion plus qu’ils ne le rationalisent. Il sera donc impossible d’éviter l’impression d’arbitraire, ce qui peut conduire au développement de la chanstique, c’est-à-dire à la manipulation des indicateurs par les formations qui les produisent, pour obtenir un effet recherché.

Conclusion

Pour élaborer une « GPEC de la nation », qui vise in fine à réduire les capacités d’accueil et les moyens des formations jugées ne pas suffisamment « fournir » un emploi, l’État s’est doté de trois indicateurs d’insertion professionnelle. Ces indicateurs ont vocation à être affiché sur la plateforme MonMaster, pour guider l’orientation des étudiants, et à servir lors des dialogues de gestion internes et externes aux établissements. Malheureusement, ces trois indicateurs ne font pas que raffiner l’information, mais peuvent très facilement conduire à des perceptions et des décisions radicalement différentes. Dès lors, leur utilisation nécessite de très grandes précautions, sans doute trop grandes pour une utilisation par le grand public ou pour fonder des arbitrages consensuels.

 

Pour aller plus loin…

Mon Master va-t-il sauver la méritocratie ?

50 ans de massification, et après ?

Sélection impossible : autonomie fantôme

Parcoursup : un outil pédagogique pour fluidifier l’abandon d’une partie de la jeunesse

Budget de l’ESR : il monte et il descend, mais surtout il descend

Un graphique de Lucas Chancel et Thomas Piketty rencontre régulièrement beaucoup de succès sur Twitter, et en conséquence beaucoup de critiques. S’attarder sur ces différentes critiques permet d’affiner notre compréhension de ce que cache ce graphique, en identifiant quatre facteurs impactant les moyens de l’ESR : son budget, le nombre d’étudiants, l’inflation, et le périmètre des missions. Dévoiler ces détails permet de conclure au désintérêt des pouvoirs publics envers l’enseignement supérieur, ce qui est finalement ce que montre ce graphique en un clin d’œil.

« La chute du budget de l’enseignement supérieur par étudiant »

Ce graphique et ses données sont disponibles à l’adresse https://lucaschancel.com/etudiants/ et la lecture indiquée est : « le budget de l’enseignement supérieur par étudiant (une fois l’inflation prise en compte) a baissé de près de 22% entre 2012 et 2023 en France. Entre 2017 et 2023, la baisse est de près de 15%. »

Visuellement, c’est la conjugaison de deux effets qui est sidérante : d’abord une chute rapide, mais surtout une chute « transpartisane », puisque les trois « partis de gouvernement » (droite, gauche puis revendiqué centre) poursuivent apparemment la même politique. Cela tranche évidemment avec les discours de ces gouvernements, chacun ayant claironné avoir fait un « investissement sans précédent » dans l’ESR. Cela a aussi un effet intéressant de confirmation-mais-indignation sur les militants : sur le même graphique, ils pourront à la fois confirmer que le camp opposé a menti et se désintéresse en réalité de l’enseignement supérieure, mais aussi découvrir que leur propre camp également. C’est propice aux critiques venues de tous bords.

Accusations de manipulation visuelle. Évacuons immédiatement la critique la plus facile : le graphique serait manipulatoire, notamment parce que son origine n’est pas 0. Or, ce graphique est en valeur 100, son origine n’est donc pas 0, mais 100. Partir de 0 permettrait une meilleure lecture de la proportion de la baisse, mais écraserait du même coup la hausse initiale sous la présidence Sarkozy. Pour cette raison et d’autres, la présentation actuelle est, à mon sens, tout à fait défendable. Quoi qu’il en soit, les données sont librement disponibles, donc charge à chacun de tenter un autre graphique s’il le souhaite.

Budget vs. démographie étudiante

La critique la plus récurrente est que ce n’est pas le budget qui baisse, mais la démographie étudiante qui augmente. Et c’est absolument vrai. Les auteurs ont d’ailleurs mis à portée de clic un graphique qui le montre de façon tout à fait explicite :

C’est absolument vrai, mais aussi sans beaucoup de pertinence : quel est le sens d’un budget si on ne prend pas en compte les besoins qu’il est censé couvrir ? Le graphique s’appelle d’ailleurs « budget par étudiant » et non seulement « budget ». Finalement, il y a moins d’honnêteté de la part d’une ministre qui annonce une augmentation du budget en occultant la hausse du nombre d’étudiants, que de la part des auteurs de ce graphique.

En réalité, si on souhaite critiquer ce graphique, on peut noter qu’il s’agit du budget du Ministère de l’enseignement supérieur et de la recherche (MESR), et plus précisément du Programme 150 « Formations supérieures et recherche universitaire », qui représente un peu moins de la moitié du budget de la mission « Recherche et enseignement supérieur » (MIRES). Il n’inclut notamment pas les ressources propres des établissements (frais d’inscription, par exemple), les budgets des autres ministères qui irriguent largement les écoles, et bien sûr les budgets des formations privées.

De plus, le nombre d’étudiants utilisé dans le calcul est le nombre total d’inscrits dans l’enseignement supérieur (3M, dont 1,6M à l’université), qui inclut donc tous les étudiants dans le privé et dans les écoles, mais aussi dans les formations qui ne relèvent pas du MESR, comme les BTS par exemple. Il s’agit donc d’une partie du budget de l’enseignement supérieur divisé par la totalité des étudiants.

Pour autant, ce calcul manque-t-il de pertinence ? En réalité, l’erreur serait de l’interpréter comme une approximation du coût d’une année de formation pour un étudiant : il ne prétend pas être, et c’est heureux car ce coût n’est pas calculable. Il faut aussi reconnaitre l’habilité des auteurs à préférer une valeur 100, plutôt que d’utiliser une unité comme les euros par étudiant, qui aurait été trompeuse. Nous allons voir que ce calcul a une autre signification.

Budget vs. inflation

Toujours si on souhaite critique ce graphique, on peut discuter de l’usage qui est fait de l’inflation, calculée à partir de l’indice des prix à la consommation (IPC) de l’INSEE).

Ce graphique montre que, une fois prise en compte l’inflation, les 15Md€ de budget de 2023 correspondent en réalité à 15Md euros-constants de façon relativement stable sur tout la période (alors qu’il ne s’agissait que 11Md en euros de 2008). La question est d’importance : Madame Vidal a par exemple refusé vigoureusement que sa Loi de programmation de la recherche (LPR, 2020) soit budgétisée en tenant compte de l’inflation. Alors qu’on pouvait prévoir une stagnation en euros constants, l’inflation conduira finalement à ce que « l’investissement sans précédent » soit en réalité une « érosion » (c’est-à-dire une baisse) :

S’il faut saluer le fait que les engagements pris lors du vote de la loi de programmation pour la recherche soient respectés en 2023, ces derniers permettent davantage de limiter l’érosion des moyens consacrés à la recherche en France que de se rapprocher de l’ambition initiale de la programmation.
Rapport législatif du Sénat sur le Projet de loi de finances pour 2023 : Recherche et enseignement supérieur 

Cependant, l’IPC utilisé mesure la variation moyenne des prix des produits consommés par les ménages, sur la base d’un panier fixe qui ne correspond sans doute pas aux dépenses d’un établissement d’enseignement supérieur : 20% d’inflation sur les produits alimentaires impacte énormément l’IPC, mais très peu le budget des universités. Utiliser un calcul de l’inflation adapté aux dépenses des universités pourrait donner un résultat assez différent (ou pas).

Cela nous conduit à faire une autre observation intéressante : environ les trois quart des budgets des universités sont consacrés à la masse salariale. Or, les rémunérations de leurs personnels ne suivent pas l’inflation, puisque le point d’indice en a décroché dans les années 80, et est gelé sur la totalité de la période couverte par le graphique (à l’exception des années d’élection présidentielle). En d’autres termes, l’inflation n’impacte pas directement la capacité des universités à payer leurs personnels, en revanche elle impacte durement la qualité de vie des personnels des universités (voir cette notre Nos Services Publics « Monter un escalator qui descend »).

Le périmètre des missions

Un autre facteur pour informer la lecture de ce graphique est l’évolution du périmètre des missions. En effet, le MESR ne distribue que rarement des moyens nouveaux pour renforcer l’existant. Plus généralement, il négocie ces moyens en échange de la création de nouvelles activités, comme le montre ce graphique par exemple :

Cela se confirme également par l’évolution du L123-2 du Code de l’éducation : entre 2006 et 2020, les missions du service public de l’enseignement supérieur sont passées de 3 à 11. On observera aussi par exemple que le programme 150 augmente grâce aux moyens de la LPR, qui est dédiée à la recherche et non à l’enseignement. Or, plus de moyens pour faire plus de choses, ce n’est pas plus de moyens. Et dans le cas (généralement constaté) où les moyens nouveaux ne couvrent pas les besoins nouveaux, c’est en réalité moins de moyens à activité constante.

Le désintérêt des pouvoirs publics envers l’enseignement supérieur

Tout cela mis bout à bout, nous faisons donc face à l’impossibilité d’évaluer sérieusement l’évolution de la dépense de l’État pour chacun de ses étudiants. Pour autant, nous avons pu vérifier que l’État ne ré-évalue pas sa dépense dans l’enseignement supérieur selon la démographie étudiante et l’inflation, et que les augmentations budgétaires correspondent le plus souvent à une augmentation des charges de travail, pas toujours en rapport avec l’enseignement. En d’autres termes, les universités ne tiennent que par la surcharge de travail et l’appauvrissement de leurs personnels.

Revenons maintenant au graphique critiqué :

Finalement, le calcul qui sous-tend ce graphique est donc une très bonne mesure de l’investissement budgétaire de l’État dans l’enseignement supérieur au regard des besoins de la nation. Son titre ne dit pas autre chose. La conclusion qu’il faut en tirer est simplement que l’État se désintéresse des missions fondamentales de l’enseignement supérieur, et c’est très exactement ce qu’il montre, en ayant en plus l’élégance de masquer de nombreux détails complexes mais qui finalement n’ajoutent rien à cette conclusion.

Dernière façon de se convaincre de la pertinence de ce graphique, malgré les critiques qu’on peut adresser à son calcul, il correspond finalement très bien à ce qu’on constate souvent sur d’autres indicateurs plus concrets et beaucoup plus proche du terrain, comme par exemple le nombre d’enseignants par étudiants dans le périmètre du MESR :

 

 

Pour aller plus loin…

Tableau de bord de l’ESR – Edition 2023

Vous voler votre montre pour vous donner l’heure. Et pas la bonne.

Combien coûte une formation universitaire (et par extension celle des étudiants étrangers) ?

 

Les bleus 2023 de l’ESR

Les « bleus » de l’ESR viennent d’être publiés. C’est un pur outil de techno-bureaucratie, dans lequel on trouve toutes les informations budgétaires (incompréhensibles), mais aussi tous les objectifs de performance.S’il est toujours impossible de savoir à quoi servent exactement ces documents dans les prises de décision, ils permettent en tous cas de percevoir la stratégie nationale d’ESR au delà des discours politiciens. On y découvre la fin de la massification, et l’absence d’ambition pour l’enseignement et la recherche, mais aussi l’ouverture sociale et la transition énergétique.

« Cette annexe au projet de loi de finances est prévue par l’article 51-5° de la loi organique du 1 er août 2001 relative aux lois de finances (LOLF). Conformément aux dispositions de la loi organique, ce document développe l’ensemble des moyens alloués à une politique publique et regroupés au sein d’une mission. Il comprend les projets annuels de performances (PAP) des programmes qui lui sont associés.

Cette annexe par mission récapitule les crédits (y compris les fonds de concours et attributions de produits attendus) et les emplois demandés pour 2023 en les détaillant par destination (programme et action) et par nature de dépense (titre et catégorie). »

Conformément aux normes technos, tout est catégorisé, chiffré et numéroté. Les programmes sont ainsi : 231 – Vie étudiante, 193 – Recherche spatiale, 192 – Recherche et enseignement supérieur en matière économique et industrielle, 191 – Recherche duale (civile et militaire), 190 – Recherche dans les domaines de l’énergie, du développement et de la mobilité durables, 172 – Recherches scientifiques et technologiques pluridisciplinaires, 150 – Formations supérieures et recherche universitaire et 142 – Enseignement supérieur et recherche agricoles.

Faisons un tour rapide.

Côté formation

Le programme principal pour les universités est le 150 – Formations supérieures et recherche universitaire. On y perçoit la stratégie de l’État, qui se décline ensuite en pressions jusque dans les salles de cours.Voici ses indicateurs de performance :

Image

Massification

Regardons l’indicateur « 1.1 – Pourcentage d’une classe d’âge obtenant un diplôme de l’enseignement supérieur en formation » :
Image

On peut y voir qu’en 2020, 56,2% d’une classe d’âge sortait diplômé de l’enseignement supérieur, mais que l’objectif pour 2023 est de 53%, et n’atteindra 56,5% qu’en 2025.

Une lecture premier degré pourrait donc être qu’il faut diminuer le pourcentage de diplômés pendant 2 ans, avant de revenir au taux actuel. Il faut regarder les Bleus de l’an dernier pour y voir plus clair :

En 2019 nous étions à 53,3%, et les cibles étaient ensuite fixées à 53%. Traduction : « On ne touche plus à rien, c’est bon comme ça ».

Cocasse ! Alors que Mme Frédérique Vidal, Ministre à l’époque, vantait sur tous les plateaux sa loi « Orientation et Réussite des Étudiants », la nation se fixait en réalité un objectif de stabilité, voire de résistance à d’éventuels progrès.

Le sursaut à 56,2% observé en 2020 n’est pas expliqué dans le document, et la justification des cibles n’a pas changé pour autant. Il est possible que ce soit une conséquence de la crise Covid, survenue début 2020, et qui a conduit à une baisse des exigences pour la diplomation. Dans ce cas, nous devrions l’ambition nationale de passer de 53% à 56% à une crise sanitaire et une baisse des exigences.

Plus certainement, il faut comprendre que l’ESR a dépassé les objectifs de la nation, et que la nation ne se fixe pas d’objectif plus ambitieux. Il s’agit donc plus de ralentir que d’accélérer la massification.

Cela se confirme avec l’indicateur « 2.1 – La cible des Jeunes sortant de l’enseignement supérieur sans diplôme post-bac » :Image

Son l’objectif reste fixé à 20% dans la durée. Traduction : Nous n’avons aucune ambition de poursuivre la massification en diplômant encore plus de jeunes.

Cette non ambition confirmée par l’indicateur « 2.4 – Part des néo-bacheliers ayant obtenu au moins une proposition à la fermeture de Parcoursup », qu’on laisse à 94,2 %, soit la valeur actuelle (dont on peut admirer la précision). Image

« Réussite étudiante »

En revanche, l’indicateur « 2.2 – Mesures de la réussite étudiante » montre que nous avons l’ambition d’améliorer légèrement la « réussite étudiante », qui n’est en fait que la diplomation à l’heure. Traduction : On ne veut pas former plus, mais seulement diplômer plus vite. Image

Un des moyens pour y arriver est la chasse à l’absentéisme, comme le montre l’indicateur « 2.3 – Assiduité ». Comment être contre ? Sauf qu’un bon moyen d’améliorer l’assiduité est d’exclure les étudiants qui sont contraints d’avoir un emploi pour vivre, ou ceux qui ont des problèmes de santé, par exemple. C’est l’ennui de la techno-bureaucratie : son aveuglement aux réalités humaines. Image

Insertion professionnelle

L’indicateur 1.2 montre une certaine ambition, réelle pour les BTS, marginale pour le reste. C’est un objectif pour la formation, pour lequel la formation ne peut pas grand chose. S’il y a une crise économique ou sanitaire, la formation n’y peut rien par exemple, alors que l’insertion pro est lourdement impactée.

Image

Mais là encore, cela peut conduire à des politiques perverses : si votre formation diplôme 100 personnes, dont 80 trouvent un emploi, cela signifie sans doute qu’il n’existe que 80 emplois-débouchés ; diminuer les effectifs à 80 est alors un très bon moyen de vous rapprocher des 100% d’insertion pro. Est-ce que notre ambition est de diplômer moins pour insérer plus ?

Programme 231 – Vie étudiante

Dans la formation, on trouve également le programme 231 – Vie étudiante.Image

L’indicateur « 1.1 – Accès à l’enseignement supérieur des jeunes de 20/21 ans selon leur origine sociale » nous montrent que l’on vise +1 point pour les enfants de Employés, Ouvriers, mais +2 points pour les enfants de Employeurs, cadres, professions intermédiaires.
Image

A contrario, l’indicateur « 1.2 – Évolution de la représentation des origines socio-professionnelles des étudiants selon le
niveau de formation » montre un volontarisme mou en terme d’ouverture sociale.Image

On a donc à la fois une priorité molle et sans doute réaliste donnée aux classes aisée, et un objectif d’ouverture sociale toute aussi mou mais sans doute de principe. Si on se plongeait dans les chiffres, il n’y aurait peut-être pas contradiction… Mais difficile d’y trouver une véritable stratégie d’ouverture sociale, sinon une forme de stabilité avec des arrangements marginaux.

En résumé de la formation

En plus des indicateurs présents dans ces documents, il est intéressant de voir ceux qui en sont absents, notamment : la transmission des connaissances et l’émancipation. L’objectif qui nous est fixé est de diplômer le bon nombre de personnes par rapport à l’emploi, en investissant le moins possible. Point barre.

Tous ces indicateurs auraient pu être établis il y a un demi-siècle, et il sont donc très loin des enjeux contemporains.

Côté recherche

Regardons l’indicateur « Production scientifique des opérateur du programme » du programme 150 : à horizon 2025, nous voulons 7,3% et 1,2% de « Part des publications de référence internationale ». Or, nous étions en 2020 à 9,1% et 2%. Traduction : nous avons pour objectif de baisser substantiellement le poids de nos universités dans la production scientifique européenne.Image

Cela s’explique dans le texte, qui note qu’on est plutôt sur une « résistance » dans la chute que dans une conquête. Cette baisse prévue est officiellement une « ambition de consolider ainsi que d’améliorer leur positionnement ». C’est comique. On imagine plutôt une forme de réalisme face à la trajectoire scientifique française, qui en dit plus long sur la Loi de programmation de la recherche que les discours politiciens.

Image

Programme 172 – Recherches scientifiques et technologiques pluridisciplinaires

Cette politique réaliste de baisse des performances recherche est confirmée dans les indicateurs du programme 172 Recherches scientifiques et technologiques pluridisciplinaires.

Image

Deux choses intéressantes. D’abord on garde une certaine ambition face à l’Allemagne et au Royaume-Uni. Ensuite, notre ambition baisse beaucoup moins pour le programme 172 (auquel sont rattachés les EPIC et EPST : CNRS, Inserm, Inria, INED, Inrae, IRD, CEA, CIRAD, Ifremer, BRGM) que pour le programme 150 (auquel sont rattachées les universités).

En résumé de la recherche

Tout comme pour la formation, notre stratégie nationale est marquée par un manque d’ambition, qui pourra être perçu au choix comme du réalisme ou un renoncement.

Là encore, on pourra noter que des pans entiers de la recherche sont complètement absents des objectifs de la nation, notamment l’intégrité scientifique et l’autonomie de la recherche.

Du côté de l’énergie et du climat

Les objectifs « Efficience environnementale » sont à l’image de l’ambition de notre nation en la matière : on prévoit d’abord une augmentation de la consommation énergétique (cocasse alors que le ministère vient de demander 10% de baisse aux universités), et puis une diminution (magique et marginale) de 0,6%…Image

Le programme « 190 – Recherche dans les domaines de l’énergie, du développement et de la mobilité durables » traite exclusivement de cette question. On n’y trouve vraiment peu de choses intéressantes, et notamment rien sur l’émancipation ou la transition. Après un été incendiaire et face à une crise énergétique sans précédent, on peut rester dubitatif face à la « Part des ressources apportées aux opérateurs par les redevances sur titre de propriété intellectuelle ».

Image

Le programme est strictement industriel, borné dans espérance d’une forme de techno-solutionisme. Difficile d’y voir une stratégie nationale à la hauteur des enjeux en matière d’énergie et de climat. Cela va même jusqu’à interroger la pertinence de cet outil techno-bureaucratique, dont même la temporalité semble inadaptée dans la crise actuelle : les termes du problème semblent avoir changé entre sa rédaction et sa publication, ce qui laisse peu d’à-propos aux objectifs à 3 ans.

Quand la bureaucratie s’emmêle les indicateurs

Les chiffres de ces documents ne sont pas fait pour comprendre ou interroger, mais seulement pour piloter. Cela conduit parfois à des situations cocasses.

Prenons l’exemple de l’indicateur « 6.1 – Part des mentions à faibles effectifs ». Celui-ci est intéressant, car d’un point de vue pédagogique on souhaite qu’il augmente, alors que d’un point de vue managérial ou budgétaire on souhaite qu’il baisse.

Image

Or, on peut constater que cet indicateur augmente, et que ses objectifs augmentent encore plus. La techno-bureaucratie serait donc pour de meilleures conditions pédagogiques, au détriment des considérations budgétaires ? Loin s’en faut ! Mais il faut lire le texte d’accompagnement pour le comprendre :

Image

En réalité, cet indicateur augmente à cause d’une politique volontariste de le faire baisser.. Et bien sûr, cette baisse n’est pas justifiée par des raisons des raisons budgétaires ou pédagogiques, mais pour « renforcer la sobriété énergétique » !

C’est très comique !

Comique également certains tableaux, pourtant au cœur des préoccupations, dont on ne sait pas s’ils préparent les futures normes d’évaluation des performances ou traduisent une complète méconnaissance des performances actuelles… A moins qu’il s’agissent simplement d’un problème d’édition.

Pour conclure

Parmi les plus grands outils de pilotage de la techo-bureaucratie, ces « bleus » 2023 permettent surtout de percevoir l’abysse qui sépare les discours politiciens, toujours grandiloquents et volontaristes, des réalités techniques vraiment fixées par l’État pour la nation. L’absence d’ambition est frappante, dans tous les domaines, confinant parfois au renoncement.

Nul doute cependant qu’une lecture plus approfondie et un lecteur plus avisé y verrait des choses plus précises, plus intéressantes.

Reste une forme particulière de comique d’État, lorsque les promesses « d’investissement historique » se traduisent aussitôt en prédiction de baisse des performances. Le techno aura toujours une sincérité étrangère au politique, et cela fonde toute sa préciosité.

Pour aller plus loin…

Une analyse plus politique de l’impact de la bureaucratie universitaire en temps de crise :

L’Université et la bureaucratie, face à la crise

EndOfDUT : Les quotas, la « main invisible » sur les formations

Avec Parcoursup et la loi ORE, le Ministère a mis en œuvre le déploiement d’une politique de quotas. Dernier épisode de cette politique, un bras de fer s’est engagé entre les IUT et le ministère concernant les quotas de bacheliers technologiques pour le BUT, la formation qui remplace le DUT. En première approche, on peut avoir l’impression que ces quotas sont à l’avantage des étudiants, permettant de corriger des biais de recrutement. Cependant, la mise en contexte de cette politique montre qu’ils vont en réalité à l’encontre des intérêts des étudiants comme de leurs recruteurs. Au final, seul le ministère en tire un avantage.

C’est par un courrier au ministère que l’Assemblée des directeurs d’IUT (ADIUT), pourtant favorable à un plus large accueil des bacheliers technologiques, dénonce « une politique quantitative de gestion des flux, dès la rentrée 2021, sous la forme de taux imposés de bacheliers technologiques ». Ces taux imposés, appelés quotas, ont été progressivement introduits depuis la loi Fioraso de 2013, puis renforcés par la loi ORE de 2018. Ils concernent maintenant toutes les formations et de nombreuses populations étudiants (filières du bac, boursiers, hors secteur). Ils sont aujourd’hui devenus un outil central pour le Ministère, qui les utilise pour restructurer les flux d’étudiants, et donc l’enseignement supérieur. Cela est très bien expliqué dans le premier rapport du Comité éthique et scientifique de Parcoursup :

Jusqu’à présent, la définition des quotas de bacheliers technologiques en DUT était issue d’une négociation (parfois ferme) entre les IUT et les rectorats, puis avec un acteur plus éloigné, les rectorats de grande région. Cette année, les négociations pour le BUT n’ont pas réellement pesé sur les décisions. Plus étonnant, les rectorats ont parfois annoncé plusieurs augmentations successives aux mêmes formations, ne faisant pas toujours sens pour les équipes pédagogiques. Cela a laissé une impression d’autoritarisme et d’improvisation, qui explique en partie la réaction de l’ADIUT.

Cas d’usages

Pour bien comprendre les enjeux qui entourent cette question des quotas, il convient de regarder concrètement leur fonctionnement.

Cas d’usage : les admissions sans quota

Pour illustrer le fonctionnement des quotas, plaçons-nous dans la logique de Parcoursup qui suppose qu’on sait prédire la réussite des étudiants, et prenons le cas artificiel d’une formation recrutant 10 étudiants parmi 20 candidats issus de deux filières différentes :

  • la filière 1 (carrés) est réputée pour bien préparer à la formation : sur 10 candidats, 5 ont une réussite presque certaine (en vert) ; 3 incertaine (en orange) ; et 2 ont un échec presque certain (en rouge) ;
  • la filière 2 (cercles) est réputée pour ne pas bien préparer à la formation : sur 10 candidats, 1 a une réussite presque certaine ; 3 incertaine ; et 6 ont un échec presque certain.

NB : ce déséquilibre dépend énormément des disciplines, et l’expérience des enseignants peut être très différente selon leur département.

Si on vise à la réussite des étudiants, on pourra classer toutes les 20 candidatures par chance de réussite, dans un classement globalement indépendant des filières : d’abord toutes les vertes, puis les oranges, et enfin les rouges. Ce recrutement aboutira à ainsi admettre tous les candidats ayant une réussite presque certaine, puis à admettre les candidats incertains tant qu’il reste des places, et à ne pas appeler les candidats dont on est sûr qu’ils ne pourront pas réussit.

Naturellement, la filière qui préparer le moins bien à la formation verra le moins de candidats admis. Sur cet exemple, on a donc 70% d’admission pour la filière 1 et 30% pour la filière 2.

Voyons maintenant ce qu’il se passe lorsqu’on active un quota.

Cas d’usage : les admissions avec quota

Les quotas servent à contourner ce classement global, pour s’assurer de l’admission d’une catégorie de candidats. L’illustration ci-après montre ce qu’il se passe avec un quota de 50% pour la filière 2 : quel que soit les chances de réussite des candidats qui en sont issus, on va leur réserver la moitié des places.

Les différences sont marquées par des formes géométriques pleines :

On constate ainsi que pour passer de 30% à 50% d’admission pour la filière 2, il a fallu remplacer deux candidats incertains de la filière 1 par des candidats de la filière 2. Pour ce faire, on va « chercher plus loin dans le classement » des candidats de la filière 2, jusqu’à prendre un candidat dont l’échec est certain.

Le classement des candidatures (représenté ici par les couleurs) devient alors secondaire face à la filière d’origine (représentée ici par la forme géométrique).

Ainsi, on a bien augmenté le nombre d’admissions de candidats issus de la filière 2, mais à deux prix : l’éviction de candidats de la filière 1 ; et l’admission d’un candidat dont l’échec est certain. Ceci montre que, mal employés, les quotas ne sont pas à l’avantage des étudiants puisqu’ils en desservent plus qu’ils n’en servent.

Un cas réel : application des quotas géographiques et de boursiers pour une admission en Licence

Ce graphique m’a été confié par Anne Viallefont, Maître de conférences en Statistique à l’UCA et Responsable Pédagogique de 1ère année de Licence d’Economie. Il montre la différence entre les rangs attribués par la commission d’examen des vœux (axe horizontal – premier cas d’usage de ce billet) et l’ordre effectif d’appel des candidats après application des quotas par le rectorat (axe vertical – deuxième cas d’usage de ce billet). Au dessous de la diagonale se trouvent les étudiants favorisés par cette politique -qui gagnent des rangs-, et en dessus ceux qui sont défavorisés -qui perdent des rangs-.

Ce graphique permet de constater deux deux choses. D’abord les quotas permettent des modifications substantielles de classement : des candidats classés initialement entre 800 et 1000 ont finalement des rangs d’appel entre 400 et 600 (pour les boursiers de l’académie), ou entre 1200 et 1400 (boursiers ou non, hors académie). Des candidats hors académie au départ bien classés (autour de la 300ème place) dégringolent de plus de 900 places dans l’ordre d’appel « rectifié » par le rectorat pour se retrouver au-delà du 1100ème appelé…

Ensuite, et cela ne doit pas être négligé, des quotas différents (filière d’origine, géographique, boursiers…) peuvent être cumulés pour arriver à un contrôle très précis des recrutements, et donc des profils des formations. Même une filière élitiste et attractive pourra être rendue locale et sociale selon la bonne volonté du rectorat, et quelle que soit la volonté des étudiants et de la formation.

Il s’agit d’une véritable prise de contrôle de la carte de formation par les rectorats, et donc le ministère, qui se dote ainsi d’une « main invisible » sur les formations.

Autres cas d’usage : quotas combinés avec d’autres mesures

Bien sûr, tout n’est pas à jeter dans les quotas, et ils ne sont pas le seul outil pour améliorer les admissions d’une population. Il est tout à fait possible de les combiner avec d’autres mesures pour les rendre efficaces tout en limitant leurs effets pervers. Voici quelques exemples :

  • Augmentation du nombre de places : même sans quota, cela permet naturellement d’augmenter les admissions depuis les deux filières, tout en évitant de recruter des candidats dont l’échec est certain ;
  • Augmentation du nombre de place + quotas : ajouter un quota peut permettre d’assurer que les nouvelles places sont réservées à la filière 2, au risque de recruter des candidats à l’échec certain ; au moins, aucun candidat de la filière 1 n’est lésé par la transformation ;
  • Renforcement de la filière 2 : plutôt que de jouer seulement sur les admissions, il est possible de modifier la formation de la filière 2 pour mieux préparer à la poursuite d’étude, augmentant le nombre de candidats aptes à réussir ; un quota temporaire peut alors être utile pour accélérer l’amélioration de la réputation de cette filière ;
  • Tout combiner : et évidement, il est possible de combiner l’augmentation des places et le renforcement de filière pour cumuler les avantages et rendre les quotas pleinement efficaces.

Le point commun de toutes ces propositions est qu’elles nécessitent des moyens, soit pour créer des places, soit pour renforcer une filière. Or, la réforme des IUT se fait à moyens absolument constants. En conséquence, le passage de deux à trois ans va engendrer une baisse des moyens par an-étudiant. La volonté politique d’arriver à ce résultat est confirmée par l’obstination du Ministère à supprimer des Programmes Nationaux (PN) du BUT les garanties de moyens qui existaient dans les Programmes pédagogiques nationaux (PPN) du DUT.

Il faut donc réfléchir à moyens constants, sinon en baisse.

Conséquences des quotas sans moyens

Nous l’avons vu, sans moyens, l’imposition de quotas conduit à abaisser le niveau de recrutement, éventuellement jusqu’à recruter des candidats dont l’échec est certain. Quelles sont alors les possibles réactions des formations ?

  1. Ne rien changer : dans ce cas, la formation verra son taux de réussite baisser, ce qui conduira normalement à une baisse de réputation, donc à une nouvelle baisse du niveau de recrutement, accompagnée éventuellement d’une baisse des moyens alloués à la performance.
  2. Augmenter l’effort pédagogique sur les étudiants les moins préparés : si cela permet de ne pas réduire le taux de réussite, cela implique (à moyens constants) de réduire l’effort pédagogique sur les mieux préparés, donc une baisse de qualité de la formation et du diplôme.
  3. Abaisser les exigences pédagogiques : à défaut de pouvoir continuer à délivrer la formation à tous les étudiants, les enseignants vont progressivement abaisser leurs exigences. Cela conduira naturellement à une baisse de la qualité de la formation et du diplôme. C’est la perspective la plus probable, et celle qui est promu par le Ministère, notamment dans ses annonces préliminaires.
  4. « Personnaliser » les parcours : dans ce cas, on va créer, en interne, des groupes de niveau, qui obtiendront le même diplôme mais avec des exigences pédagogiques différenciées. On peut par exemple identifier cette différence par des parcours au nom explicite (du type « poursuite d’études » et « insertion professionnelle »). Il sera par exemple possible d’avoir un parcours en 2 ans et un autre en 4, donc avec des couts an-étudiants différenciés. On a commencé à le faire en Licence avec les « oui si ». Il sera même possible de mettre le parcours d’insertion en apprentissage, pour assumer les moyens du parcours « d’excellence ».

On le voit donc, hormis la « personnalisation » des parcours qui ne sera défavorable que pour les étudiants les plus fragiles, ces perspectives sont in fine défavorables à tous les étudiants puisqu’elles font entrer la formation dans un cercle vicieux : baisse de la qualité de la formation, donc de la valeur du diplôme, donc de la réputation, donc du recrutement et de la formation. Ce cercle vicieux n’est pas seulement défavorable aux étudiants, mais aussi à tous ceux qui les recrutent, employeurs et formations supérieures, ainsi qu’à l’institution IUT dans son ensemble.

Seul le Ministère sort « gagnant » de cette situation, en se dotant d’une « main invisible » sur la carte des formations. Cette prise de contrôle lui permettra notamment d’organiser une amélioration artificielle des indicateurs d’admission dans le supérieur, à budget absolu constant, et donc à budget par an-étudiant en baisse. 

Pour aller plus loin…

Au delà des purs aspects de réduction de la dépense publique, qui peuvent expliquer cette réforme, on pourra trouver d’autres sources de compréhension dans une volonté politique de restratification sociale, dont on trouve des témoins dans la gestion de la crise sanitaire :

Et si l’abandon des étudiants était rationnel ?

Les autres billets au sujet du remplacement du DUT par le BUT :

Du DUT au BUT : 50% de bacs technos, et après ?

Du DUT au BUT : les portes-au-nez

Le DUT, droit au BUT.

Projets d’arrêtés : il est venu le temps des Bachelors