Docs en stock : dans les coulisses de la démocratie universitaire

LPPR : les enjeux de l’HCERES

« Il y a un choix : la science ouverte n’est pas bonne pour Shanghai. Alors on peut attendre un classement basé sur la science ouverte… Mais bon, en attendant… »

Cette phrase d’un président durant le colloque sur les fusions d’université résumé l’importance de l’évaluation dans notre système de recherche actuel : l’évaluation façonne toutes les stratégies, qu’elles soit individuelles (e.g. choix entre mieux préparer un cours ou mieux boucler un article) ou collectives (e.g. investir dans la science ouverte ou dans le recrutement d’une star).

Aujourd’hui, c’est dans un contexte de profonde transformation de notre système d’enseignement et de recherche, alors que l’évaluation est au cœur de tous les discours, qu’est renouvelé la présidence du Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur (HCERES).  Deux candidatures se font face :

  • D’un côté Thierry Coulhon, membre des dirigeants des universités depuis le XXe siècle, engagé politiquement à droite, superviseur de la LRU, chargé de la mise en œuvre du grand emprunt, participant à la campagne d’Emmanuel Macron, puis nommé conseiller éducation, enseignement supérieur, recherche et innovation auprès du président Macron : c’est un des architectes du système actuel.
  • D’un autre côté, 2700 universitaires convaincus que cette architecture du système actuel est contraire aux valeurs et intérêts de la science et des universités.

Cet affrontement est très concret, et va conditionner l’évaluation future de notre recherche et de notre enseignement supérieur, donc ses orientations, et donc notre avenir collectif.

L’évaluation, concrètement

Plusieurs critères définissent un système d’évaluation :

  • son sujet :
    • nature : politiques, organisations, projets, ou individus
    • niveau : ministère, agences, territoires, établissements, composantes, équipes, ou individus
  • son type :
    • évaluation formative : le but est d’aider le sujet à s’améliorer
    • évaluation sommative : le but est de prendre des décisions sur le sujet
    • évaluation comparative : le but est de comparer le sujet aux autres sujets équivalent (benchmarking)
  • les mesures :
    • métriques : qualitatives ou quantitatives
    • moyens de mesures : déclaratif, par les pairs, etc.

Sans oublier bien sûr le poids de l’évaluation, ses biais et ses inévitables effets pervers : le risque est grand d’échouer à améliorer, et en réalité de détériorer le sujet avec des évaluations lourdes et mal ciblées. C’est d’ailleurs un constat du système actuel sur lequel s’accord tous les acteurs de la recherche.

Chaque choix fait dans ces combinaisons est un choix hautement politique qui conduira à des conséquences concrètes. Par exemple :

  • une évaluation sommative des individus dans les équipes de recherche sur la volumétrie des publications aura un impact fort sur les stratégies individuelles de publication :
    • une évaluation positive des grands volumes accéléra le rythme de publication et déplacera le curseur vers la quantité au détriment de la qualité, y compris jusqu’à encourager les inconduites ;
    • une évaluation négative des grands volumes ralentira le rythme de publication et déplacera le curseur vers la qualité au détriment de la quantité, y compris jusqu’à encourager l’endormissement.

On est ici dans la question centrale aux discours actuels, et on voit qu’il n’y a pas de bonne solution, simplement un curseur à placer et déplacer selon les objectifs que l’on souhaite atteindre. Mais l’évaluation peut être beaucoup plus large que cette question de la performance en terme publication scientifique. Par exemple :

  • Une évaluation sommative des chercheurs sur les publication des données de recherche aura un impact fort sur le temps qu’ils consacreront à cette tâche.
  • Une évaluation formative des organisations présidences d’université sur la volumétrie des mails échangés dans leur établissement aura un impact fort sur les investissements dans les outils et procédures de communication interne.
  • Une évaluation comparative des conditions de travail des personnels, déclarative, qualitative et par les pairs, aura un impact fort sur les choix de carrière des jeunes chercheurs, et par conséquence sur les stratégies des présidences.
  • Etc.

Si l’évaluation est structurante pour l’enseignement supérieur et la recherche, en réalité, elle n’est ni imposée, ni universelle. Les possibilités sont infinies, et l’évaluation ne doit pas être arbitraire, mais réfléchie, discutée et partagée et ce vis-à-vis d’objectifs eux-mêmes réfléchis, discutés et partagés. 

C’est, d’après moi, tout le sens de cette candidature collective à l’Hcéres : Souhaitons-nous avoir une structuration de l’ESR par le haut et imposée, ou une structuration par le bas et partagée ?

Pour aller plus loin…

Alors même que se discute la LPPR, la présidence de l’HCERES est restée vacante après le départ à la retraite de Michel Cosnard, « une faute inexcusable » pour Sylvestre Huet.

Recherche : qui va désigner les labos perdants ?

 

Le Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur (Hcéres) est une autorité administrative indépendante régie par l’Article L114-3-1 du Code de la recherche, et dont la charge peut se résumer ainsi : 

– évaluer les établissements d’enseignement supérieur et leurs regroupements, les organismes de recherche, les fondations de coopération scientifique et l’Agence nationale de la recherche ;
– évaluer les unités de recherche à la demande de l’établissement dont elles relèvent, en l’absence de validation des procédures d’évaluation ou en l’absence de décision de l’établissement dont relèvent ces unités de recourir à une autre instance ;
– évaluer les diplômes visés des établissements d’enseignement supérieur ;
– s’assurer de la prise en compte, dans les évaluations des personnels de l’enseignement supérieur et de la recherche, de l’ensemble des missions qui leur sont assignées par la loi et leurs statuts particuliers ;
– s’assurer de la valorisation des activités de diffusion de la culture scientifique, technique et industrielle dans la carrière des personnels de l’enseignement supérieur et de la recherche ;
– évaluer a posteriori les programmes d’investissement ainsi que les structures de droit privé recevant des fonds publics destinés à la recherche ou à l’enseignement supérieur.

Remise en contexte et spécialisation

Aujourd’hui, à bien des égards, la massification de l’enseignement supérieur est achevée : d’une dizaine de pourcents de bacheliers dans une tranche d’âge, en un demi-siècle, nous sommes passés à près de 80%, dont beaucoup poursuivent dans l’enseignement supérieur.

Cette massification a été guidée par la croyance dans un cercle vertueux, où l’élévation du niveau de qualification amenait de la croissance économique, qui réinvestie dans l’éducation élevait encore le niveau de qualification, et ainsi de suite.

Or, si le niveau de qualification a augmenté, depuis 20 ans, la croissance n’a plus bougé. Cette croyance est donc naturellement remise en cause, et cette remise en cause s’étend évidemment à la recherche.

Il n’est donc plus aujourd’hui question d’augmenter uniformément le niveau de qualification ou de recherche scientifique sur tout le territoire, mais plutôt de spécialiser tout ce qui peut l’être : spécialiser les établissements (IDEX) comme les parcours des étudiants (Parcoursup).

Cette spécialisation, naturellement, conduit à la spécialisation des formations, établissements et laboratoires. C’est donc une période charnière pour le système d’enseignement supérieur et de recherche national, marquée par la fin de l’uniformité et la mise en œuvre de différenciations. D’un cadre national, nous passons à une multitudes de cadres locaux.

Dans ce contexte, l’évaluation prend une importance toute particulière. Les critères de cette évaluation, la manière de les mesurer, les objets sur lesquels ils portent, et les conséquences de cette évaluation vont définir les futurs contours et objectifs de notre appareil d’ESR.

Actuellement, l’Hcéres « accompagne, conseille et soutient la démarche d’amélioration de la qualité de l’enseignement supérieur et de la recherche en France ». Or, cette approche qualité est obsolète. Elle n’est plus en adéquation ni avec les enjeux, ni avec les techniques d’aujourd’hui. Son principal défaut est de se concentrer sur les performances des enseignants et chercheurs, et d’ignorer les actions de gouvernances. 

Or, les performances de l’enseignement et la recherche sont notoirement difficiles à évaluer. Il en ressort des évaluations lourdes, génératrices de stress, et parfois inutiles puisque en doublon des autres évaluations naturelles à notre activité : celles de nos pairs et de nos étudiants.

Or également, si mesurer les performances des enseignants et chercheurs pouvait faire sens dans un cadre national, c’est beaucoup moins le cas dans le contexte d’une multitude de cadres locaux. Ces cadres consistent en des objectifs différents, mais surtout des organisations différentes, issues de transformations institutionnelles profondes (fusions, regroupement, changement de statuts, etc.). Aujourd’hui, ces nouvelles organisations importent beaucoup plus que les performances des individus travaillant tout en bas de l’échelle. 

Proposition

Face à ces constats, une proposition simple : déporter les évaluations qui pèsent actuellement sur les enseignants et les chercheurs directement sur les organisations locales, des établissements et de leur direction.

Très concrètement, nous savons nécessaires de :

  1. Mettre fin aux évaluations bibliométriques qui ne reflètent en rien les performances des chercheurs et aux évaluations quantitatives de l’enseignement qui ne reflètent en rien l’apport aux étudiants.
  2. Réaliser un profilage des établissements qui permettent aux professionnels comme aux citoyens de connaître les priorité des établissements dans un contexte de forte différenciation. Ce profilage s’appuiera sur :
    1. un travail de fond sur les données ouvertes des établissements, qui doivent être exploitées mais surtout enrichies, conformément à l’Article 1 de la loi pour une république numérique.
    2. un travail d’enquête auprès des personnels des établissements, non pas pour mesurer leur performance, mais pour mesurer la qualité de leurs conditions de travail et surveiller leur moral en période de transformation.
    3. un travail d’audit auprès des directions et services centraux pour évaluer l’adéquation de la gouvernance avec le projet d’établissement, et l’efficacité du support aux missions d’enseignement et de recherche.
  3. Développer de toutes nouvelles mesures, très proches du terrain, telles que :
    1. les taux d’encadrement et de titularité, ainsi que l’adossement de l’enseignement à la recherche ;
    2. l’efficacité des procédures de communication internes : moyens de communications, nombre de mails… 
    3. l’organisation collégiale : efficacité des réunions, transparence des conseils, partage des décisions…
    4. la distribution des moyens : complexité des procédures, transparence des décisions, mesures des répartitions…
    5. etc.

Pour ce faire, il faut s’appuyer largement sur les scientifiques de renom dont notre nation dispose dans les disciplines pertinentes : gestion, sciences politiques, sociologie du travail et des organisations, sciences des données, économie, etc.

L’Hcéres ne doit pas être un outil au service des gouvernants pour les aider à conformer l’Université à ses décisions, mais doit être un outil au services des universitaires pour les aider à conformer les décisions aux besoins de leur mission d’enseignement et de recherche.

Lettre de motivation de la candidature collective

Défendre l’autonomie de la recherche et des formations

C’est peu dire que les réformes de notre système de recherche menées depuis quinze ans au nom de l’excellence n’ont pas eu l’effet escompté. Ambitionnant de renforcer le statut de puissance scientifique de la France, elles n’ont mené qu’au décrochage de la part française des publications mondiales, l’indicateur de performance choisi par les réformateurs eux-mêmes. Il n’y a pas à s’étonner : l’évaluation statistique des politiques publiques montre que la quantité de publications scientifiques est proportionnelle à l’argent investi dans la recherche, mais qu’elle est pratiquement insensible aux réformes structurelles. Or pendant ces quinze ans, l’effort financier s’est focalisé sur une niche fiscale, le Crédit d’Impôt Recherche, destinée à contourner l’interdiction européenne des aides publiques directes aux entreprises. L’évaluation faite par France Stratégie de son intérêt pour la recherche est sans appel : son effet de levier sur l’investissement privé est… négatif.

Les réorganisations de l’Université et de la recherche ont aussi des effets systémiques profonds, mais qui ne sont observables que si l’on s’intéresse au savoir produit et transmis plutôt qu’au dénombrement bibliométrique. Les réformes structurelles ont conduit à une chute de la qualité et du niveau d’exigence de la production scientifique, dont les multiples scandales de fraude ne sont que la partie apparente. Cette crise institutionnelle du monde savant est d’autant plus dramatique qu’elle survient dans une phase de crise sociale, climatique et démocratique dont la résolution passe par la production, la transmission, la critique et la conservation des savoirs.

Parce qu’elle se fonde sur la poursuite de la vérité comme horizon commun, la science suppose l’autonomie des savants, chercheurs et universitaires, vis-à-vis des pouvoirs dont son exercice dépend, qu’ils soient politiques, économiques ou religieux. Cette liberté académique ne doit pas être pensée comme une absence d’entraves mais comme une liberté positive, garantie par des moyens effectifs. Le sursaut passe par la réaffirmation des conditions pratiques de cette autonomie.

La première condition est budgétaire : pour encourager l’inventivité et la création, il est indispensable de doter la recherche de financements récurrents, en rupture avec le formatage bureaucratique de la science par des “appels à projets” court-termistes, qui encouragent le conformisme et la recherche incrémentale.

La deuxième condition tient à cette autre ressource préalable à la recherche : le temps. Pour maintenir la biodiversité nécessaire à un écosystème de recherche florissant, il est nécessaire de garantir statutairement la possibilité du temps long. La sélection spencérienne promue en haut lieu, faite de fragmentation et de contractualisation généralisée des statuts, tue cette diversité et entretient la crise qualitative. La solution passe par un recrutement de qualité lié à des postes pérennes, condition de l’attractivité pour les jeunes chercheurs comme pour les personnels techniques, de façon à irriguer sans cesse le système d’idées et d’aspirations nouvelles.

La troisième condition est de réduire la division du travail savant, ce qui exclut la séparation entre des managers de la recherche exerçant le pouvoir, et des chercheurs et universitaires dépossédés et devenus de simples exécutants, séparation qui constitue la définition stricte d’une bureaucratie. Il est indispensable de procéder à un audit des structures empilées depuis quinze ans et au chiffrage de leur coût de fonctionnement afin de libérer des moyens en supprimant des strates inutiles, voire nuisibles.

Sur le plan des pratiques, l’exigence et l’originalité des travaux scientifiques sont garanties depuis des siècles par une norme, celle de la controverse collégiale (la disputatio des classiques) : la discussion contradictoire et libre au sein de la communauté des pairs. Ce principe de gratification sociale fondée sur la reconnaissance de la valeur intellectuelle des travaux est irréductible à une “évaluation” managériale dont les fondements reposent sur un système de normes quantitatives externes, déterminées par les intérêts d’investisseurs : toute métrique normative cesse vite d’être une simple mesure pour devenir elle-même l’objectif à atteindre. Obligation doit donc être faite à tout comité de suivi, de recrutement ou de promotion de baser ses délibérations sur la lecture des travaux, et non sur l’évaluation quantitative. Pour que ce soit faisable et probant, le nombre de travaux soumis à examen doit être limité drastiquement.

L’autonomie du monde savant nécessite enfin de ré-instituer des normes de probation scientifiques exigeantes, prenant en compte les spécificités contemporaines. Il est urgent de restituer aux communautés de chercheurs le contrôle des revues scientifiques, et de destituer l’oligopole de l’édition sur lequel se fondent techniquement et économiquement les politiques d’évaluation actuelles.

Pour procéder à ces réformes, nous nous portons candidats à la présidence de l’institution en charge de définir les normes et les procédures qui régulent, organisent et déterminent la production savante : le HCERES. Notre candidature collective vise à renouer avec les principes d’autonomie et de responsabilité des savants qui fondent la science. Il ne saurait y avoir d’administration distincte dotée d’un « président » pour superviser ces pratiques : c’est l’ensemble du corps savant qui doit présider à l’évaluation qualitative de sa production.

Sans recherche autonome, nous n’avons pas d’avenir.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.