Catégories
Henri Audier

« Le CNRS enfin 1er sur le podium mondial de la recherche » : réponse à Laurent Bouvet

Dans son article « Le CNRS enfin 1er sur le podium mondial de la recherche » (1), Laurent Bouvet (LB), traite avec une certaine condescendance, voire un certain mépris, le fait qu’un Institut espagnol ait classé le CNRS à la première place mondiale pour le nombre des publications (2). C’est son droit : l’anti-CNRS est aigu et tenace chez certains universitaires, particulièrement en SHS. Mais il est par contre moins en droit d’affirmer « qu’on peut légitimement se demander si on ne peut pas faire dire n’importe quoi aux chiffres de la recherche, de publications, etc. Le collectif Sauvons la recherche (SLR) et les défenseurs de la recherche en organisme(s), pourtant réticents vis-à-vis des classements, se félicitent ainsi d’un tel retournement par rapport à la doxa du classement de Shanghai ». D’abord, parce qu’il n’est pas absurde de montrer la duplicité du gouvernement qui, d’un côté, ne jure que par les indicateurs de classement et, de l’autre, ne cesse de vouloir démolir le CNRS malgré ses « bons classements » mondiaux. Mais surtout du fait que l’article incriminé, écrit par François Jouve, professeur à Paris VI, et reproduit sur le site de Sauvons la recherche (3), est d’une grande finesse et ne correspond en rien à la caricature qu’en fait LB qui, à l’évidence, s’est arrêté au titre : « Le CNRS premier ! ». J’invite chacun à le lire.

L’article posté sur le site de SLR commence en effet par une citation d’Einstein qui donne le ton : « On ne peut pas compter tout ce qui a de la valeur, et ce que l’on peut compter n’a pas forcément de valeur. » L’article poursuit : « Toutes disciplines confondues il est à peu près admis que les indicateurs bibliométriques, qu’on veut nous imposer à marche forcée au niveau des individus, des laboratoires et des universités, n’ont pas grande valeur. Parmi les critiques principales que l’on peut leur faire, citons le manque de fiabilité des différentes bases de données et les nombreux effets pervers qui sont attachés à la recherche de l’amélioration individuelle de ses indices bibliométriques. »

Alors, jamais d’indicateurs, même s’il faut toujours relativiser leur portée ? L’article en question en débat : « Toutefois, agrégés sur de gros échantillons, ces indicateurs peuvent reprendre un semblant de pertinence si les bases de données utilisées sont suffisamment complètes pour couvrir l’ensemble des champs disciplinaires ». Le nombre de publications est un critère objectif qui, au niveau d’un pays, d’une discipline, d’un gros établissement, donne simplement une « indication » parmi d’autres, indication que l’on doit critiquer et relativiser.

Pourquoi y a-t-il contradiction apparente entre le classement qui résulte de cet indicateur et le classement de Shanghai ? S’il avait lu l’article qu’il incrimine, LB aurait su la réponse : « Tout d’abord le classement de Shanghai ne prend en compte que les établissements d’enseignement supérieur, donc le CNRS, l’INSERM et le CEA n’en font pas partie. D’autre part il base sa notation sur des critères absurdes. (…) 30% de la note s’obtient en comptant le nombre total de prix Nobel et médailles Fields, y compris ceux vieux de plus d’un siècle. 20% de la note est basée sur le nombre de “Highly cited authors” en référence à une liste discutable et peu à jour. (…) Enfin 20% supplémentaires proviennent du nombre de publications dans “Nature” et “Science” ce qui est particulièrement réducteur du point de vue disciplinaire, entre autres ».

Et si le nombre de publication n’était qu’un indice productiviste ? C’est ce que laisse entendre LB : « En effet, si le CNRS est bel et bien premier sur le podium, ce sont les académies des sciences chinoise et russe qui occupent les deux places suivantes ! (…) Le vieil argument anti-CNRS : il a été fondé sur le modèle de l’académie des sciences soviétique revient donc par la fenêtre à l’occasion de ce classement ». Pas de chance ! L’article qu’il cloue au pilori avait répondu par avance, en indiquant que plus les critères sont élitistes, plus le classement de la France sur le critère des publications s’améliore : « En 2007, la France se classe 6eme au nombre de publications et 4eme au nombre de citations et à l’indice H (h-number) : elle a moins de publications que la Chine et le Japon mais elles sont plus citées. »

Le fait qu’un Institut espagnol ait classé le CNRS premier dans le monde ne tient pas du hasard, n’en déplaise à Laurent Bouvet. Car cela fait des années que le CNRS occupe une bonne position mondiale. Pour s’en tenir au présent, sur d’autres critères, il figure au 4e rang mondial et au 1er rang européen selon le classement mondial “Webometrics” en 2009 (4) ; il précède la Max Planck Gesellschaft allemande. Au 1er rang européen aussi pour ses succès aux appels d’offre de l’European Research Council, également en 2009. De plus, dans le domaine complémentaire de la valorisation de la recherche, la situation est tout à fait correcte comme le reconnaît Le Figaro (10/12/09) : « Qui l’eût cru ? Encore considéré par nombre de ses détracteurs comme un inutile et coûteux repaire de chercheurs fonctionnarisés, le CNRS vient d’intégrer le « top ten » des organismes publics de recherche qui déposent le plus de brevets aux États-Unis. La société Intellectual Property Today a placé le navire amiral de la science française en dixième position, pour la période juillet 2008-juin 2009. C’est la première fois qu’un organisme européen figure dans les dix premières places ».

Certes, répétons-le, tous ces classements sont à relativiser, en fonction de leurs critères, de la taille des établissements, de leurs finalités, etc. Il reste qu’ils démontrent qu’il est criminel de la part du gouvernement de torpiller ce que l’article cité du Figaro appelle « le navire amiral de la science française ». Car c’est bien de la science française qu’il s’agit : il y a plus d’enseignants-chercheurs que de chercheurs CNRS dans les laboratoires qui dépendent du CNRS. Car au travers des instances scientifiques, ceux-ci ont (avaient ?) un rôle dans les grands choix scientifiques. Aujourd’hui, ce système est remplacé par un système quasi-totalitaire, avec la prise en main, par le pouvoir, de toutes les équipes – y compris et d’abord universitaires – au travers « d’alliances », de « fondations », et aussi grâce à l’hégémonie du fonctionnement sur « projets ».

Faut-il souligner que ces bons résultats sont obtenus en dépit de moyens stagnants, voire décroissants ? Car les faits sont là, malgré la campagne de Valérie Pécresse – ça en devient grotesque – qui fait, avec constance, pleuvoir chaque année des milliards postiches sur la recherche. Depuis 2002, chaque année, les moyens accordés à la recherche en fonction du PIB diminuent en sorte que l’on est en 2008 à 2,02 %du PIB, bien loin des 3 % prévus pour 2010.



(1) http://laurentbouvet.wordpress.com/2009/12/11/le-cnrs-enfin-1er-sur-un-podium-mondial/

(2) http://www.scimagoir.com/pdf/sir_2009_world_report.pdf

(3) http://www.sauvonslarecherche.fr/spip.php?article2931

(4) http://research.webometrics.info/.

Be Sociable, Share!

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *