Future is now : « ubérisation » de la science et économie de plateforme

<a href="http://www.freepik.com/free-photos-vectors/vintage">Vintage vector designed by Freepik</a>

Tous les secteurs d’activité sont aujourd’hui impactés par le numérique : EBay, Leboncoin.fr, Uber, Trip Advisor, Airbnb, BlaBlaCar, Deezer, Netflix, LinkedIn, Boursorama.com, sans oublier les fameux GAFA (pour Google — qui n’est pas qu’un moteur de recherche —, Apple, Facebook, Amazon), chaque année voit l’apparition de nouvelles plateformes, dans tous les secteurs d’activité liés au domaine des services, central dans les sociétés post-industrielles.

Mais qu’est-ce qu’une économie de plateforme, au juste ?

Si les grands médias ont popularisé ces derniers mois le néologisme d’« ubérisation », il n’est que de penser à celles qu’on vient de citer pour constater que toutes ces plateformes ne partagent pas les mêmes modèles d’affaires et que le domaine d’activité qu’elles couvrent comme la nature des échanges qu’elles opèrent sont très variés.

L’économie de plateforme est indissociable de l’économie des médias, et elle a fait l’objet depuis longtemps de fameux travaux, auxquels notamment la Toulouse School of economics, où exerce notre dernier « Prix Nobel » d’économie, le français Jean Tirole, doit une partie de sa notoriété.

Une des spécificités de l’économie des médias est sa capacité à exploiter des marchés multifaces. Le schéma suivant illustre ces analyses à travers deux exemples : à gauche, le modèle économique d’un journal gratuit, du type de ceux qui sont mis à disposition dans les transports en commun ; à droite, celui d’une chaîne de télévision privée sans abonnement (et qui ne bénéficie donc pas de la redevance).

12

L’Internet est un média. Mais c’est un média d’un nouveau genre, qui présente une spécificité de taille : c’est en effet le seul média qui permette au récepteur du message d’être également émetteur, et par là-même, d’alimenter en contenus une plateforme (dans l’exemple ci-dessous, Google).

123

Ladite plateforme se trouve alors affranchie des frais inhérents à la création de contenus, qui pesaient plus ou moins lourdement dans l’économie des médias plus traditionnels (selon le niveau de qualité des contenus produits : simple éditorialisation d’une dépêche d’agence de presse ou travail d’investigation journalistique ambitieux, sur plusieurs mois), mais qui dans tous les cas n’étaient pas nuls.

Une autre différence de taille tient dans la capacité de ces plateformes, du moins dans leurs avatars les plus aboutis, comme Google, à ouvrir une troisième face de leur marché, par la création de services à valeur ajoutée exploitant l’énorme quantité de données collectées sur la première face du marché : données de géolocalisation dans le cas de la « Google car », données de toute sorte dans le cas des « Google glasses ».

Enfin, ces plateformes mettent en œuvre toute une série de stratégies visant à accroître sans cesse la masse de données la leur disposition : conditions générales d’utilisation (CGU) assurant une captation maximale des données produites, mais aussi des données de trafic (analytics), rachat de réservoirs de contenus (YouTube par exemple, pour Google), lancement de services dans les nuages (cloud computing) tels Gmail, GoogleDrive, etc.

Quel rapport avec l’enseignement supérieur et la recherche ?

Eh bien ces domaines n’échappent pas aux phénomènes de plateformisation, et ce d’autant moins qu’ils constituent des secteurs producteurs de contenus à forte valeur ajoutée. Dans le domaine de la formation, le phénomène a reçu un important écho médiatique ces dernières années. C’est qu’il progresse rapidement. L’ensemble de l’expérience de formation est d’ores et déjà impacté, dans une logique qui intègre d’emblée l’impératif d’apprentissage tout au long de la vie : mise à disposition de cours (http://www.coursera.org/, http://www.edx.org/, http://www.khan-academy.fr/, http://www.udacity.com/, pour ne citer que les plateformes les plus connues), certifications (badges, portfolios numériques, attestations de suivi de MOOCS, etc.), orientation et insertion professionnelle (par exemple http://www.mastersbooking.fr, https://diplomeo.com), aide à la réussite, mentorat.

Comme il est classique dans ce modèle économique, cette plateformisation de l’expérience de formation sait tirer parti des analytics générés par le trafic des usagers, à savoir les traces laissées par les événements de connexion et d’utilisation de contenus numériques sur les plateformes, que ce soit pour améliorer les services proposés, monétiser leur valeur, ou tenter de se positionner comme des agences de notation des formations universitaires : aujourd’hui, LinkedIn avance posséder assez de données pour évaluer de l’extérieur la qualité de vie dans les universités, la valeur des cursus dans les carrières et assurer des propositions de parcours ajustés aux étudiants.

Peut-être parce qu’il a été davantage médiatisé, sûrement parce qu’elle représente un marché colossal à l’échelle mondiale, évalué à plus de 4 000 milliards de dollars, le développement de l’ « Edtech » a donné lieu à un récent avis du Conseil national du numérique (CNNum).

Mais c’est dans le domaine de la recherche scientifique que la plateformisation de l’activité est aujourd’hui de loin la plus avancée dans le domaine académique : le modèle exposé pour Google vaut en effet aussi pour les grands acteurs commerciaux de l’édition scientifique et technique (dans le schéma ci-dessous, le principal d’entre eux : Elsevier).

1234

Sur la première face du marché, Elsevier collecte gratuitement des contenus, et à forte valeur ajoutée : les publications produites par les chercheurs du monde entier. On notera que comme Google, Elsevier procède en outre au rachat d’autres réservoirs de contenus, comme le réseau social Mendeley il y a quelques années : l’objectif était en l’occurrence, à côté des données fournies par ScienceDirect sur la science qui venait de se faire, de bénéficier de données sur celle en train de se faire, à travers les échanges entre savants captés sur un réseau social dédié, et dûment analysés.

Sur la deuxième face du marché, ces contenus sont revendus aux bibliothèques universitaires, à des tarifs assurant de confortables marges aux actionnaires de l’« éditeur ».

Sur la troisième face du marché, Elsevier développe des services à valeur ajoutée, exploitant les contenus collectés gratuitement :

– un outil de bibliométrie : Scopus, qui se veut le concurrent direct ou le complément du Web of Science de Thomson-Reuters ;

– un outil permettant de cartographier les communautés de recherche en fonction de leur objet d’étude : SciVal. Selon leurs interlocuteurs, les commerciaux d’Elsevier développent un discours ciblé autour de SciVal : aux directeurs d’unités de recherche, le produit est présenté comme un outil de veille scientifique ; aux décideurs et financeurs, comme une outil d’aide à la décision visant à repérer les sujets scientifiques porteurs, les communautés (voire individus…) les plus dynamiques dans tel ou tel domaine, les objets de recherche les plus susceptibles de bénéficier de financements institutionnels ou privés. En bref, il s’agit d’une boîte noire (les algorithmes mis en œuvre sont aussi opaques que celui de Google) qui entend produire des indicateurs pertinents pour orienter les politiques de recherche des différents acteurs.

Ainsi, aujourd’hui, avec l’apparition de produits comme Scopus et SciVal, la question politique n’a jamais été aussi cruciale, et stratégique : nous abordons une période où les grandes plateformes de l’IST, conformément à la logique de leur développement, n’entendent plus seulement procéder à la captation abusive de la valeur produite par les communautés de recherche, mais à s’installer comme les opérateurs incontournables de l’évaluation de la recherche et de la construction de ses orientations stratégiques, en fournissant aux financeurs du monde académique des outils au fonctionnement opaque. Bref, à devenir rien moins que des agences de notation de la recherche.

Les réseaux sociaux de la recherche, qui ont connu récemment un développement très rapide, n’apportent aucune solution au problème : la même logique de captation de contenus produits par d’autres est en effet à l’œuvre, qui suffit à signer la plateformisation en cours de l’activité. Le modèle d’affaires est simplement moins abouti : deux faces seulement pour le marché créé par Facebook, une seule pour ReasearchGate et Academia (ce qui ne suffit pas à garantir la viabilité économique de ces acteurs : seront-ils rachetés, comme Mendeley, par des plateformes plus rentables, une fois que les « business angels », qui pour l’heure assurent leur équilibre économique, auront décidé qu’il est temps de rentrer dans leurs fonds ?). Mais la logique est la même.

Le problème posé par la plateformisation de la science est certes économique. Comme le souligne le CNNum dans un rapport récent, les phénomènes de plateformisation ont pu être lus un peu rapidement comme des mouvements visant à l’abaissement des barrières à l’entrée sur des marchés régulés, où des mesures qui se voulaient originellement protectrices avaient pu créer des situations de rente. L’arrivée d’Uber et les tensions consécutives dans le secteur des taxis illustrent exemplairement cette lecture, souvent appliquée aussi dans le domaine de la propriété intellectuelle.

Pour autant, cette interprétation est loin de recouvrer la diversité des situations, trop rapidement regroupées sous le vocable commode d’ « ubérisation ». Car dans bien des secteurs, après une phase de remise en cause des intermédiaires historiques, c’est bien plutôt à un mouvement de réintermédiation que l’on assiste, susceptible d’aboutir à de nouvelles formes de rente, à mesure que les choix de consommation se concentrent sur ces espaces : transposé dans le monde du numérique, il ne s’agit de rien d’autre que du mouvement qui a frappé à partir des années 1950 le petit commerce de proximité avec l’essor de la grande distribution. Les craintes portent ainsi sur la dépendance économique d’un spectre croissant d’acteurs contraints de s’affilier à la plateforme leader de leur secteur pour rester visibles, et d’y laisser une part non maîtrisée de leurs marges.

Le secteur de l’information scientifique et technique (IST) illustre exemplairement ce mouvement : un nombre croissant de petites maisons d’édition ou de titres de sociétés savantes ont été rachetés par des plateformeurs tel Elsevier, l’augmentation du nombre de titres mis à disposition servant dans un premier temps à justifier auprès des bibliothèques universitaires l’augmentation continue des coûts d’accès, avant que la hausse constante du prix des abonnements ne finisse par ne plus se voir du tout justifiée, une fois ancré le caractère oligopolistique de la plateforme. Ces hausses continues et injustifiables pèsent ainsi aujourd’hui lourdement sur les budgets des établissements d’enseignement supérieur et de recherche, dont un certain nombre d’acteurs ont vu un peu trop rapidement dans le mouvement de l’open access une solution à ce problème.

Or, l’open access est avant tout une riposte politique aux phénomènes de plateformisation. Le basculement des publications scientifiques en accès ouvert ne fera pas s’effondrer l’empire économique d’Elsevier et consorts : c’est évident dans le cas du gold open access tel que pratiqué majoritairement aujourd’hui (modèle auteur-payeur) ; mais c’est aussi vrai du green open access, qui n’est pas une forme de publication concurrente de la publication traditionnelle, mais parallèle. En revanche, l’open access, et particulièrement le green open access, entend, en usant des mêmes moyens fournis par les nouvelles technologies, et qui abaissent considérablement les coûts de publication, de permettre aux chercheurs de se réapproprier le fruit de leur travail, en assurant leur maîtrise sur les contenus qu’ils produisent. Mutatis mutandis, c’est ce qu’on pour l’heure réussi à faire les bibliothèques, avec des initiatives comme Gallica, data.bnf.fr, ou IdRef.

Il convient donc de renvoyer dos à dos ceux qui pensent un peu vite que la généralisation de l’open access mettra directement à bas financièrement les grands plateformes d’IST, et ceux qui, à l’instar d’Arnaud Nourry, PDG d’Hachette Livre, voudraient faire des bibliothèques et institutions d’enseignement et de recherche, les alliés, ne serait-ce qu’objectifs, de Google. Tartufferie ou inconscience ? Elsevier et consorts sont désormais, comme Google, des plateformes, à mille lieues de l’économie éditoriale traditionnelle ; ce qui ne les empêche pas d’émarger au Syndicat national de l’édition (SNE) ou à l’IPA (International Publishers Association). Qui est l’allié objectif de qui, en ce cas ?

Le plus préoccupant reste toutefois l’absence d’agenda stratégique de la plupart des institutions d’enseignement supérieur et de recherche françaises concernant le numérique. Qui n’est pas l’informatique, ni une question technique, d’équipements, d’outils, de gadgets, mais l’ombre portée, sociale, sociétale, économique, d’un certain nombre d’innovations techniques. À l’étranger, dans les pays comparables, la plateformisation de la science et des formations supérieures est un élément essentiel de la réflexion prospective des dirigeants académiques. Quand les universités françaises vont-elles enfin se saisir d’un des enjeux majeurs du XXIe siècle ?

Leave a Comment

Filed under Non classé

Le SNE est Big Brother, et Richard Malka est son prophète : le Syndicat national de l’édition contre le droit de lire à l’ère numérique, contre la fouille de contenus (TDM), contre la Recherche

Pistolero ! CCBYSA David Zeelaby via Flickr

Pistolero ! CCBYSA David Zeelaby via Flickr

 

À la lecture du pamphlet (texte tiré à 50 000 exemplaires et distribuée gratuitement dans toutes les librairies françaises) que Monsieur Richard Malka vient de publier avec le soutien du Syndicat national de l’édition (SNE), on ne peut s’empêcher de penser : mais qu’est-il donc allé faire dans cette galère ?

Le texte en question multiplie en effet les approximations, les méconnaissances (dont je préfère penser qu’elles ne sont pas feintes, ce serait pire), les omissions. Monsieur Malka le dit lui-même pourtant, p.28 : les équilibres en jeu, lorsqu’il s’agit de droit d’auteur, sont « subtils ». On ne peut donc que déplorer que son argumentaire le soit si peu, même si après tout, il s’agit d’un pamphlet : tout y est plié et même tordu pour persuader ; c’est la loi du genre.

Je préfère convaincre.

En puisant à davantage de pluralisme dans ses sources, Monsieur Malka aurait pu produire un texte tout autre, sans rien renier de ses convictions.

Mais avec de toutes autres conclusions, sans aucun doute.

En effet, certains des prémisses de son argumentation me semblent pouvoir être largement partagées.

Tout d’abord, la conviction que c’est en rémunérant la création qu’on l’encourage. C’est la thèse centrale du livre : la gratuité est nocive, pas seulement pour le porte-monnaie des ayants droit, mais aussi pour la société dans son ensemble.

Je le crois aussi.

C’est ensuite que tout se gâte : p. 26, il est affirmé de manière péremptoire que « tout mode de financement alternatif [au droit d’auteur] constitue un miroir aux alouettes. ».

On a pourtant créé, avant le droit d’auteur, et de manière souvent fort impertinente. Sans remonter jusqu’à la plus haute antiquité, qu’on songe à Villon, Rabelais, Montaigne.

Si désormais le modèle de rémunération attaché au droit d’auteur, qui repose toujours sur un nombre d’exemplaires vendus, est mis à mal par les spécificités du numérique (notamment parce ce dernier fait voler en éclats la notion d’original, partant, celle d’exemplaire), alors trouvons un mode de rémunération de la création adapté au monde qui vient (à supposer qu’il ne soit pas déjà là), et cessons de considérer les mécanismes mis en œuvre au XIXe siècle comme indépassables. L’important, c’est bien que la création soit rémunérée.

Et ainsi par exemple que les auteurs d’articles scientifiques soient payés : aujourd’hui, à l’exception notable des sciences juridiques, ils ne le sont pas.

Autre point de convergence forte avec Monsieur Malka : les grands plateformeurs du Net asphyxient aujourd’hui la création, en réalisant une captation abusive de la valeur produite par d’autres. Sur ce sujet, il convient de renvoyer aux excellentes analyses du Conseil national du numérique.

Mais il ne faudrait pas que sur cette question, Google et consorts accaparent toute l’attention. Sur le Web visible, ces acteurs jouissent indûment d’un statut d’hébergeur. Sur le Web invisible, d’autres profitent d’un statut aujourd’hui inadapté d’éditeur, et émargent au SNE.

Le ver est dans le fruit, et l’on aimerait un peu de cohérence de la part du Syndicat national de l’édition sur ce sujet.

Qu’il maîtrise mal, manifestement.

Tout comme Monsieur Malka.

Le sujet vaut la peine d’être creusé, et de quitter un peu le domaine du droit pour celui de l’économie. Follow the money.

Enfin, nous sommes bien d’accord : le fair use n’est pas soluble dans notre tradition juridique, profondément analytique. On entend par là que le périmètre des droits de l’auteur y est précisément défini (droit de représentation, droit de reproduction, etc. Et c’est être tout à fait fidèle à cette tradition que de soutenir une définition juridique positive, analytique, du domaine public, là où aujourd’hui le Code de la propriété intellectuelle n’en donne qu’une définition négative, en creux). Symétriquement, les exceptions au même droit d’auteur ne le sont pas moins.

Il en va tout autrement en droit communautaire : si les exceptions y sont précisément listées, le champ des droits de l’auteur est en revanche d’un flou consommé, puisque relève de l’exercice du droit d’auteur toute mise à disposition d’une œuvre au public.

C’est ainsi que lors des débats sur la DADVSI, il a pu être proposé que les récitations de textes effectués en classe par des élèves donnent lieu à versements sonnants et trébuchants au bénéfice des ayants droit.

C’est ainsi que depuis 2003 tout prêt en bibliothèque donne lieu au paiement par la puissance publique de redevances forfaitaires.

Le prêt en bibliothèque met-il en jeu le droit de reproduction ? Non.

Le droit de représentation ? Non plus.

Mais il s’agit bien, selon les termes du droit communautaire, d’une mise à disposition du public.

Je n’ai pas alors beaucoup entendu le SNE s’offusquer de cette torsion faite à notre tradition juridique. Le SNE a bien plutôt argué que cette redevance était de longue date pratiquée dans d’autres pays européens, à commencer par la Grande-Bretagne.

Mais en omettant toutefois de préciser qu’en l’occurrence, de l’autre côté de la Manche, les bibliothèques scolaires et universitaires en étaient exemptées.

Dans une vision équilibrée des choses, qui n’est pas celle du SNE, l’on prend en compte le fait que sans l’école, sans les bibliothèques, sans tout l’investissement public pour l’éducation, il n’y aurait pas de lecteurs. Et partant, pas d’auteurs non plus.

Cela suffit probablement à situer ce que je pense de la charge de Monsieur Malka contre l’exception pédagogique (qui soit dit en passant, existe déjà en droit français, quoique de manière bancale).

Mais la plus grande tartufferie réside probablement dans la fin du pamphlet pour lequel le SNE a mandaté Monsieur Malka.

La vision orwellienne d’une société dominée par les grands acteurs de l’Internet est un risque à prendre très au sérieux, Monsieur Malka a raison de le souligner.

Mais je ne crois malheureusement pas que le monde idéal qu’imagine le Syndicat national de l’édition soit plus enviable.

Ce dernier est par exemple vent debout contre une exception qui viendrait autoriser la fouille de contenus (text and data mining), une opposition dont le pamphlet de Monsieur Malka se fait l’écho, de manière particulièrement mal informée et tendancieuse.

Car la fouille de contenus concerne à peine le droit dauteur : pour fouiller, il faut disposer d’une copie des bases à explorer, c’est vrai. Mais cette copie n’est que technique, elle ne vise absolument pas à opérer une publication indue de contenus sous droits. Et il existe des moyens simples d’éviter toute dissémination accidentelle : le recours à des tiers de confiance par exemple, seuls habilités à procéder à la duplication des bases, et à y donner accès de façon contrôlée.

Surtout, le texte de Monsieur Malka passe sous silence quil ne sest jamais agi daccéder gratuitement à des contenus protégés. Les bibliothèques universitaires paient annuellement des sommes astronomiques, en constante progression (+ 7% par an en moyenne !) pour s’abonner auprès d’éditeurs spécialisés à des bases de contenus produits gratuitement par des chercheurs. Gratuitement, oui ! Alors bien d’accord pour dire que la gratuité c’est le vol : que Tartuffe paie donc les chercheurs pour leurs publications (et à hauteur du nombre de fois où elles sont téléchargées).

Et l’on ne voit dès lors pas pourquoi ces mêmes chercheurs n’auraient pas le droit d’utiliser des méthodes algorithmiques pour procéder à une lecture, assistée par ordinateur, de ces bases devenues, du fait de l’inflation des publications scientifiques, impossibles à fouiller manuellement, alors qu’ils ont largement contribué (gratuitement) à les produire, et que les bibliothèques y sont dûment abonnées.

La manière dont Monsieur Malka décrit ce qu’est la fouille de contenus montre assez clairement qu’il ignore totalement ce dont il parle : pour lui, taper quelques mots dans un moteur de recherche, c’est de la fouille. Indubitablement, le principe est le même : les moteurs en question, que ce soit celui de Google ou d’une base de données commerciale, utilisent des algorithmes.

Mais consacrer une exception au titre du text and data mining permettrait aux scientifiques de définir, au plus près de leur travail de recherche, les algorithmes dont ils ont besoin, et qui n’ont rien de générique. Et ce, afin de se livrer à des analyses bien plus poussées que ce que permettent les moteurs de recherche : par exemple chercher dans la littérature scientifique toutes les occurrences d’un gène, mais aussi extraire automatiquement des éléments relatifs à l’environnement scientifique dans lequel ce gène est cité (quelle pathologie ? quelle population étudiée ? etc.).

Même sans être généticien, le gain de temps et d’efficacité permis par une telle pratique est évident. Et la méthodologie à l’œuvre apparaît clairement pour ce qu’elle est : l’informatisation de pratiques de lecture érudites qui existent depuis des siècles, et un enjeu essentiel de la compétitivité de la recherche scientifique d’aujourd’hui. La Grande-Bretagne, les États-Unis, le Japon autorisent déjà le text and data mining. Le dernier Pulitzer s’en vend-il plus mal ?

Lutter contre l’exception au titre de la fouille de contenus, c’est donc dénier à des lecteurs la liberté de lire comme il l’entendent des contenus pour lesquels ils se sont acquitté tout à fait légalement d’un droit d’accès, particulièrement onéreux dans le cas des articles scientifiques. On voit donc mal ce que cela vient faire dans un pamphlet contre la gratuité.

Sauf quainsi la controffensive orchestrée par le SNE contre le risque dune société orwellienne apparaît pour ce quelle est : la volonté non moins orwellienne de contrôler totalement la circulation de l’écrit, et de revenir sur les équilibres à loeuvre dans le domaine de limprimé.

Vous voulez lire comme vous l’entendez, avec les lunettes que vous avez choisies, fussent-elles informatiques, un contenu auquel vous avez légalement accès ? Le SNE n’est pas d’accord, ou espère trouver un moyen que vous payiez pour cela.

Vous achetez un livre pour le prêter en bibliothèque ? Le SNE a obtenu le paiement d’une compensation. Pourtant toutes les études montrent que ceux qui empruntent le plus en bibliothèque sont aussi ceux qui achètent le plus en librairie. Peu importe : il n’y a rien à compenser, mais compensation est due.

Vous avez acquis un livre et vous voulez en faire don à quelqu’un d’autre ? La Direction générale de la concurrence, de la consommation et de la répression des fraudes s’en émeut.

Et demain ? L’instauration d’un droit de suite pour les livres, à l’image de ce qui se pratique sur le marché de l’art ? La fin de la règle de l’épuisement des droits dans le domaine de l’imprimé ?

Le sentiment qui se dégage de toutes ces manœuvres est bien que l’on tente aujourd’hui de se servir du numérique pour simplement mettre à bas jusqu’à l’écosystème qui régit actuellement le circuit du livre imprimé.

Pauvres lecteurs ! N’aurons-nous le choix demain en France qu’entre deux Big Brothers, Google et consorts, ou le SNE et ses amis ?

Décidément, Monsieur Malka, je me demande bien ce que vous êtes allé faire dans cette galère…

 

 

Leave a Comment

Filed under Bibliothèque, IST

Revues, science citation Index, impact factor, open access : petite histoire de l’IST à l’usage de toutes les générations

 

 

Correct_Your_Nose_by_James_Vaughan_CC_via_FlickrCorrect your nose by James Vaughan – CC – via Flickr 

 

On lit régulièrement ici ou là des critiques, plus ou moins fouillées, plus ou moins informées, du système actuel de la publication scientifique. On en déplore souvent l’évolution, on en prédit parfois l’effondrement. On se demande rarement comment on en est arrivé là.

Ce billet ne prétend pas apporter une réponse exhaustive à cette dernière question : ce n’est pas le bon format, et cela excède largement mes connaissances. Mais si les quelques lignes qui suivent pouvaient susciter des recherches sur le sujet, ou même plus modestement appeler de la part de ses lecteurs des compléments utiles à tous et d’abord à moi-même, je me suis dit que l’exercice pouvait avoir quelque utilité. C’est donc sans prétention aucune que j’ai décidé de me lancer, et de repérer, pour ce que j’en connais ou ai pu en lire, certains jalons qui me semblent importants ; j’essaierai d’expliquer pourquoi.

Pendant longtemps, l’IST[1] n’a pas représenté un enjeu économique en tant que tel (caractère pointu voire ésotérique des savoirs, lectorat potentiel très faible) : pour ne remonter qu’à l’époque moderne, où le discours scientifique conquiert progressivement son autonomie vis-à-vis de la philosophie et de la théologie, le commerce entre savants passe par des échanges épistolaires (Pascal, Fermat, Descartes, Newton, Leibniz, …), illustrant le fait que la recherche est avant tout une immense conversation.

Puis apparaissent les premières revues académiques (la première s’appelle Philosophical Transactions of the Royal Society of London,« Phil. Trans. » pour les initiés, et naît Outre-Manche en 1665). Ce type de support connaîtra une fortune certaine jusqu’à la première moitié du XXe siècle, à travers la multiplication des sociétés savantes, dont ils constituent le média de prédilection. L’édition scientifique est alors un marché de niche, non rentable, une édition de prestige.

Il convient de s’attarder sur cette première époque de la publication scientifique moderne, ainsi que le fait Jean-Claude Guesdon, dans son fameux article « À l’ombre d’Oldenburg : bibliothécaires, chercheurs scientifiques, maisons d’édition et le contrôle des publications scientifiques »[2]. Jean-Claude Guesdon y souligne clairement le double rôle assigné dès l’origine aux revues académiques par Henry Oldenburg, secrétaire de la Royal Society of London et fondateur des Phil. Trans. : « Phil. Trans. fut aussi conçue à une époque où la question de la propriété intellectuelle revêtait une acuité particulière et nombre de ses caractéristiques doivent ainsi être considérées dans ce contexte. En particulier, elle introduisit un degré de clarté et de transparence dans le processus d’expression de revendications novatrices en philosophie naturelle, et, en conséquence, elle commença à jouer un rôle comparable à celui d’un ‘bureau des brevets’ pour les idées scientifiques. L’objectif était d’atténuer et de gérer les conflits de ‘paternité’et les polémiques intellectuelles de façon àne pas laisser transparaître sur la scène publique ce spectacle potentiellement déplaisant. Oldenburg – et d’autres – avaient bien compris que si les querelles scientifiques pouvaient être résolues de manière posée, civilisée et ordonnée, les philosophes de la nature pourraient offrir au public une meilleure image d’eux-mêmes, plus digne. Par la même occasion, l’existence d’un registre public des innovations scientifiques aiderait à créer des règles de conduites internes, conduisant à une société hiérarchisée et bien structurée. » Dès lorigine, diffusion des connaissances, évaluation de la recherche et reconnaissance avant tout symbolique de la paternitédes innovations scientifiques sont donc indissociablement liées.

Un premier tournant conduisant à la situation actuelle se situe après la seconde guerre mondiale : À la faveur de l’impulsion politique et financière dont bénéficie la recherche dans le contexte de la Guerre froide, le commerce entre savants s’intensifie, ainsi que la recherche interdisciplinaire : il s’ensuit une première hausse du nombre de publications scientifiques, et subséquemment, une crise du référencement bibliographique. C’est alors qu’inspirés par le célèbre article « As we may think » de Vannevar Bush (le premier àavoir l’intuition de ce qui deviendra l’hyperlien), Eugene Garfield, linguiste, et Joshua Lederberg, prix Nobel de médecine, ont l’idée du Science Citation Index (SCI) et de son célèbre impact factor (IF) : en analysant qui cite quoi et avec quelle intensité, il est possible, au milieu de la myriade de titres de revues scientifiques existantes, de déterminer les publications qui comptent (on parle alors de core science : un nombre restreint de revues, àl’époque environ 750 titres, qui permettent de saisir l’essentiel de la production scientifique).

Très vite, suivant sa pente naturelle, le système aboutit àétablir une cote des revues académiques (le SCI est régulièrement publiéàpartir de 1963), ce qui leur permet de fonctionner comme des marques, des labels, avec le paradoxe qui sinstalle bientôt que ce nest plus la qualitédes articles publiés qui fait la valeur dune revue, mais la notoriétéde la revue qui confère sa valeur aux articles quelle accueille. Le SCI est donc d’abord conçu par les scientifiques comme une boussole, permettant de ne pas se laisser déborder par l’inflation documentaire, mais il va très vite lier plus indissociablement encore édition académique et évaluation scientifique, et devenir ainsi un outil de gestion des carrières des chercheurs, dans un système aujourd’hui parfaitement établi pour la plupart des domaines des STM[3] (beaucoup moins en SHS [4], mais dont il ne faut jamais perdre de vue qu’il n’a que quelque décennies.

La fin des années soixante va sceller le modèle économique actuel de l’IST en STM : les revues de la core science (essentiellement des revues de sociétés savantes créées àpartir de la fin du XVIII siècle) s’avèrent trop peu nombreuses pour donner audience à la myriade de jeunes chercheurs issus de la massification/démocratisation de l’enseignement supérieur que connaissent les pays industrialisés à partir des années 50 et 60. C’est alors que Robert Maxwell, personnalité controversée s’il en fût, lance les Pergamon science reviews, qui vont rapidement faire passer le petit éditeur scientifique Pergamon, acquis par Maxwell en 1951, dans la cour des grands : vont en effet faire son succès les jeunes générations de chercheurs en STM, dénués du capital social nécessaire àla publication de leurs travaux dans les revues les plus reconnues de l’époque. Dans une logique de concentration horizontale classique, Maxwell acquerra par la suite Reed International en 1981, avant que sur les ruines de l’empire de Maxwell, mystérieusement disparu en 1991, Elsevier ne rachète les Pergamon Press en 1992, pour fusionner en 1993 avec Reed, créant ainsi le géant de l’édition scientifique actuelle que l’on connaît.

Entretemps, avec la crise pétrolière des années 1970, les budgets des bibliothèques universitaires connaissaient une contraction brutale, conduisant les acquéreurs de revues scientifiques, d’abord aux États-unis puis en Europe à concentrer leurs achats sur les titres les plus efficients (rapport coût/consultation), amplifiant ainsi la ruine des petits éditeurs, la concentration du marché, et l’importance du SCI, devenu un véritable CAC 40 de l’édition scientifique. Et ce d’autant plus que dans le même temps, dans les pays développés et aujourd’hui dans les BRICS, l’accession d’un nombre toujours croissant d’élèves du secondaire à l’enseignement supérieur et au doctorat (symbolisée en France par la suppression de la thèse d’État au profit de la thèse de 3e cycle telle que nous la connaissons) jetait sur le marché symbolique de la publication scientifique un nombre toujours accru de nouveaux postulants à la reconnaissance académique : l’offre de revues où publier explosa d’autant, et la révolution numérique accentua encore le phénomène, tout comme le font actuellement le système du gold open access et les     « éditeurs prédateurs » régulièrement dénoncés.

Le marché ainsi constitué déjoue les règles classiques de la loi de l’offre et de la demande : il se caractérise en effet par une demande inélastique[5], et une structure au moins biface (publications contre visibilité côté chercheurs, abonnements contre espèces sonnantes et trébuchantes côté bibliothèques), bien connue de l’économie des médias.

Que nous apprennent ces quelques éléments d’histoire ?

1.Avant tout que la question de la diffusion de lIST et celle de l’évaluation de la recherche sont indissociablement liées. S’il faut travailler à la promotion du green open access, cela ne suffira pas à renverser le rapport de force avec les géants de l’édition scientifique, car ce faisant, on ne joue que sur l’une des faces du marché, celle qui concerne les bibliothèques et la diffusion de l’IST : on ne touche pas au commerce symbolique qui se joue entre éditeurs et publiants.

On navancera pas sur ces questions sans un travail commun entre professionnels de linformation et chercheurs. Non que les premiers soient qualifiés pour intervenir dans le système d’évaluation de la recherche. Mais ils en connaissent les effets sur leurs crédits d’acquisitions, et ont une expertise éprouvée dans le domaine de l’économie de l’édition scientifique et de celle du numérique, qui sont aujourd’hui en train de converger. Cette expertise est complémentaire de celle des chercheurs, qui porte sur l’autre versant du marché, celui de l’économie symbolique de la publication. Ensemble, seulement ensemble, ils peuvent faire avancer les choses.

2. Ensuite, qu’on publie beaucoup, et de plus en plus. Trop ? Trop mal ? Beaucoup de chercheurs le disent. C’est la course au publish or perish, accentuée en France par les spécificités propre de notre système universitaire. Il y a lieu par exemple de se demander si tout docteur a vocation à devenir un publiant professionnel. Ne faudrait-il pas au contraire revoir la formation des doctorants pour leur apprendre à faire certes de la recherche, mais aussi d’autres choses, et les préparer à d’autres débouchés que ceux, saturés, du monde académique ? Pas si loin de nous, de l’autre côtés e la Manche, un PhD ouvre de tout autres horizons…

3. Pour finir, et indubitablement, que les questions dIST sont tout à fait stratégiques pour les établissements denseignement supérieur et de recherche.

Tirons-en toutes les conséquences.

 

[1] Information scientifique et technique (IST) : information produite par et pour les chercheurs.

[2]https://halshs.archives-ouvertes.fr/halshs-00395366

[3]Sciences, techniques, médecine.

[4] Sciences humaines et sociales (dans l’acception reçue, inclut le droit).

[5]La demande est inélastique quand, quelles que soient les variations de prix, la demande est peu affectée (en clair, dans l’économie symbolique de la publication scientifique, les chercheurs ont un besoin vital de publier). Dans ces conditions, même si la compétition entre les acteurs est intense, le marché ne peut être compétitif : on dit qu’il est visqueux.

3 Comments

Filed under Bibliothèque, documentation, IST

Infini de la lecture : de Cassiodore au text and data mining

Mining for Information_FLickr

Mining for information – via Flickr

 

Pour un droit à la lecture computationnelle à l’ère numérique

En Occident, aux alentours de la fin du IIème ou du début du IIIème siècle de notre ère, pour des raisons sur lesquelles débattent encore les historiens du livre, une mutation se fait jour dans le domaine de l’écrit, qui aura des conséquences profondes sur la manière dont va se construire désormais le savoir : le codex, le livre tel que nous le connaissons encore aujourd’hui, va peu à peu se substituer au volumen, le rouleau de papyrus, de lin ou de parchemin, qui jusqu’alors avait constitué pour l’Antiquité, à côté de l’inscription sur ou dans la pierre, le principal support de l’écrit.

Cette mutation en apparence toute matérielle va avoir des conséquences intellectuelles inouïes, car elle modifie en profondeur les gestes de la lecture, et ouvre la voie à de nouvelles pratiques que le rouleau ne permettait pas, en fermant symétriquement d’autres qu’il avait rendues possibles : notamment, parce qu’il ne réclame plus, pour son maniement, deux mains comme le rouleau mais une seule, le codex va permettre la prise de notes en cours de lecture, et même (usage aujourd’hui admis pour les seuls ouvrages que l’on possède), l’annotation au fil du texte (plusieurs strates d’annotateurs pouvant intervenir sur un même exemplaire, Cassiodore entre autres théorisera au VIème siècle la manière d’introduire des notes de lecture dans un texte). Le codex facilite ainsi le passage du rôle de lecteur à celui d’auteur, quand bien même ce n’est qu’à travers l’utilisation, comme support de l’écrit, des blancs du texte (marges, pages blanches, pages de garde, intérieur des reliures, etc.).

En outre, parce qu’il ne nécessite plus, pour naviguer d’un passage du texte à l’autre, de déplier-replier un rouleau, le codex va ouvrir la possibilité de constituer des tables des matières, des index, de confronter bien plus commodément, et quasi simultanément, des passages différents, à l’intérieur d’un même livre ou entre plusieurs ouvrages. Le codex ouvre ainsi la possibilité d’une lecture sélective et discontinue, qui conduira également à ce que se généralisent toute une série de dispositifs destinés à s’orienter rapidement dans le texte : séparation entre les mots, ponctuation, marques de paragraphe, pagination, page de titre.

Ces quelques éléments d’histoire de l’écrit donnent beaucoup à penser. Ils montrent tout d’abord qu’une innovation matérielle peut avoir des conséquences intellectuelles importantes : sans codex, pas de glose scolastique, pas de roue de livres humaniste, pas d’herméneutique, pas de lecture philologique.

On fait souvent la part belle, dans l’histoire de l’écrit en Occident, à l’invention de l’imprimerie : c’est en effet une innovation majeure pour la diffusion du livre, et sa démocratisation progressive. Mais la généralisation du codex a eu sur le travail intellectuel des conséquences autrement considérables, on le voit, que la (re)découverte, par Gutenberg, de l’imprimerie.

Par ailleurs, le détour qui vient d’être effectué par des temps anciens montre également combien certains éléments que nous tenons aujourd’hui pour spécifiques au Web ont des ancêtres fort lointains : la possibilité pour plusieurs lecteurs d’intervenir sur un même texte pour le commenter ou l’annoter ; la possibilité d’un continuum, d’un cycle, entre lecteur et scripteur, voire auteur ; l’existence d’écrits se donnant à voir non par feuilletage de pages distinctes, mais par défilement d’un rouleau continu (vertical dans le cas du Web) — tous ces traits ont été largement commentés par les meilleurs historiens du livre, et notamment par Roger Chartier, titulaire de la chaire « Ecrit et cultures dans l’Europe moderne » au Collège de France.

Mais au-delà, surtout, ce qui apparaît de plus en plus clairement aujourd’hui, c’est que nous sommes probablement, avec l’apparition de cette nouvelle forme de l’écrit (de l’image, du son) qu’est le support numérique, à l’orée d’une transformation des pratiques de lecture aussi « disruptive » et féconde que l’a été l’adoption du codex dans les premiers siècles de notre ère. L’une de ces pratiques, qui a beaucoup fait couler d’encre ces derniers mois, est celle de la fouille de contenus, ou, si l’on préfère, de données : en informatique, il n’y a rien d’autre (les anglo-saxons parlent quant à eux de TDM, text and data mining).

Les données sont en effet aujourd’hui partout, et dans des quantités inouïes. L’instrumentation scientifique en produit des masses phénoménales (par exemple en astronomie, en aéronautique, ou en physique des hautes énergies et des particules), qui constituent une grande part de ce qu’on appelle les données brutes de la recherche. Dans le domaine des sciences humaines, les humanités numériques (digital humanities) renouvellent l’approche des textes et des corpus. La science recourt aussi de plus en plus, dans certains secteurs comme les études relatives à la biodiversité, aux données issues du crowdsourcing, via la mise en place de véritables plans de collecte par le grand public.

Dans ce contexte, le TDM offre la possibilité de fouiller, de manière croisée, d’énormes quantités de données, souvent issues de plusieurs bases hétérogènes, ce qui ouvre des possibilités inédites à la plupart des disciplines, de la génomique à la sociologie, en passant par la littérature ou la linguistique, dans une économie de moyens inimaginable jusqu’alors : la recherche médicale ou pharmaceutique sont, par exemple, très friandes de l’analyse de comptes rendus d’expériences ratées (« les résultats négatifs de la science ») afin d’éviter d’engager des moyens dans des voies sans issues. A l’heure où la compétitivité économique (qui dépend aussi de celle de la recherche) est sur toutes les bouches, une telle innovation n’est pas anodine, on le voit.

Le problème, c’est que les contenus concernés par le TDM sont bien souvent sous droits, et que le TDM exige, pour être pratiqué, de copier l’intégralité des bases de données sur lesquelles on travaille, afin d’y appliquer un algorithme de fouille. C’est vrai, mais le but n’est alors pas de rediffuser cette copie en la livrant par exemple sur le Web : il s’agit en fait d’une copie technique transitoire, proche dans sa logique de l’exception 5.1 admise par la directive européenne 2001/29/CE sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information (dite directive copyright).

Par ailleurs, en exploitant ainsi des bases de données considérées comme des investissements commerciaux, le fouilleur de données contrevient aux disposition du droit sui generis des bases de données, droit inspiré non par celui de la propriété intellectuelle, mais par celui de la concurrence : il y aurait parasitisme, au sens défini par la loi.

C’est oublier un peu vite que les bases de données auxquelles accède le chercheur recourant au TDM sont précisément accessibles en vertu d’abonnements annuels dûment souscrits par les institutions scientifiques, et souvent à prix d’or. Et que de surcroît les contenus concernés ont été produits par ces mêmes chercheurs : dans l’analyse de la chaîne de la création de valeur, la balance ne penche pas vraiment du côté qu’on voudrait faire croire.

Mais si un aménagement juridique, sous la forme par exemple d’une exception dûment encadrée au droit de la propriété intellectuelle, est nécessaire, il y a surtout à prendre conscience qu’un contrôle par les producteurs de bases de données des lectures qui pourraient être faites des contenus qu’ils commercialisent est proprement inadmissible. Car le TDM n’est en effet rien d’autre qu’une nouvelle modalité de lecture exploitant les moyens offerts par les technologies d’aujourd’hui : une lecture computationnelle.

Les Britanniques, comme les Japonais, ne s’y sont pas trompés, qui viennent d’adopter dans leur législation une exception en faveur du TDM. Et il n’est pas douteux que la jurisprudence américaine autour du fair use permette tout à fait légalement cette même pratique.

Les chercheurs français seraient-ils dès lors condamnés, dans la férocité de la compétition académique internationale, à se voir refuser d’accéder aux techniques de lecture nouvelles permises par le support numérique ?

Au nom de quoi ? L’on a en effet affaire à une pratique nouvelle qui ne lèse les intérêts de personne, alors que l’empêcher ou la contraindre créerait une distorsion de compétitivité pour notre recherche, et plus largement, pour notre économie. Sans compter qu’on semblerait alors de surcroît légitimer la possibilité pour celui qui commercialise des contenus de décider comment ils doivent être lus…

La voie contractuelle est sans issue : aucun éditeur scientifique n’est en position de négocier pour tous les contenus auquel peut avoir besoin de recourir, de façon homogène, une équipe de recherche dans ses opérations de TDM.

Il est donc urgent et important de légiférer en la matière et de sortir de postures idéologiques qui voudraient qu’à tous coups, liberté du commerce et liberté de penser aillent de pair.

Ce n’est pas toujours le cas.

Soyons pragmatiques.

2 Comments

Filed under Non classé

« E-Science: is there a french word for it ? »

Argument_by_Sharon_Mollerus_via_Flick_650r

Le numérique bouleverse en profondeur la manière de faire de la science. Ce que John Taylor, alors Directeur général de l’Office of Science and Technology britannique désignait en 1999 du terme de e-science.

L’expression a fait florès. Partout, sauf, symptomatiquement, en France. C’est qu’au-delà de la non-reprise du terme lui-même, en soi anecdotique, il y a surtout l’absence d’une stratégie nationale coordonnée en ce domaine : ces dernières années, les énergies ont été mobilisées ailleurs.

On voudrait penser, avec des initiatives telle celle proposée récemment à tous les acteurs par le CNRS  que les choses sont en train de changer. En tout cas, on l’espère. Trois axes de travail et de progrès, intimement liés, me semblent devoir être rapidement pris en considération. Ils sont au sens plein du terme stratégiques (le mot est souvent galvaudé, alors je précise) en ce sens que ne pas s’y affronter ni déterminer d’orientations claires, c’est condamner à terme (et peut-être même à court terme) la recherche française.

Il y a tout d’abord la question de l’évaluation et du pilotage de la recherche. Un enjeu majeur, très fortement corrélé à la problématique des publications. Dans ce dernier domaine, le débat fait rage depuis plusieurs années entre partisans du tout open access, et ceux qui n’y croient guère, ou à moitié. Je ne reviens pas ici sur ce que j’ai déjà écrit précédemment : avec l’apparition de produits comme SciVal ou Incites, le risque est désormais tout proche que les outils de pilotage des stratégies scientifiques et des politiques publiques de recherche dépendent entièrement du secteur de l’édition privée, et non des financeurs. Il n’y a donc plus à tergiverser. Car la question n’est plus de savoir s’il serait ne serait-ce que possible de se passer d’éditeurs commerciaux pour publier de la science. La question est : l’État, principal financeur de la recherche, et l’ensemble de ses opérateurs dans ce domaine, veulent-ils conserver leur capacité d’analyse quant à leur stratégie scientifique ? Si oui, il faut bâtir un écosystème d’évaluation le plus fiable possible, et cela implique que la production scientifique soit librement accessible, donc en open access. Ou alors il faudra s’en remettre pour la recherche à une sorte de système d’agences de notation privées Elsevier et Thomson Reuters sont sur les rangs dont on espère qu’il est inutile de rappeler ici les petits inconvénients, illustrés dans d’autres domaines. Il est donc plus que temps qu’à l’instar des initiatives prises par l’État dans plusieurs grandes nations scientifiques et non des moindres (États-Unis, Allemagne, par exemple), dès lors que la recherche est financée sur fonds publics, un dépôt obligatoire1 en open access des publications soit instauré, avec des clauses d’embargo les plus limitées possibles. Et qu’une réflexion soit engagée, au niveau national, sur les outils d’évaluation et de pilotage de la science dans le contexte technologique actuel.

L’autre grande évolution, c’est ce qu’on appelle désormais la data driven science. Les données sont en effet partout aujourd’hui, et dans des quantités inouïes. L’instrumentation scientifique en produit des masses phénoménales (par exemple en astronomie, en aéronautique, ou en physique des hautes énergies et des particules), qui constituent une grande part de ce qu’on appelle les données brutes de la recherche. Dans le domaine des sciences humaines, les humanités numériques (digital humanities) renouvellent l’approche des textes et des corpus. La science recourt aussi de plus en plus, dans certains secteurs comme les études relatives à la biodiversité, aux données issues du crowdsourcing, via la mise en place de véritables plans de collecte par le grand public. Le text and data mining (TDM) quant à lui, dont on débat beaucoup ces dernières semaines, en offrant la possibilité de fouiller, de manière croisée, d’énormes quantités de données, souvent issues de plusieurs bases hétérogènes, ouvre des possibilités inédites à la plupart des disciplines, de la génomique à la sociologie, en passant par la littérature ou la linguistique, dans une économie de moyens inimaginable jusqu’alors : la recherche médicale ou pharmaceutique sont par exemple très friandes de l’analyse de comptes rendus d’expériences ratées (« les résultats négatifs de la science ») afin d’éviter d’engager des moyens dans des voies sans issues.

Enfin, toutes ces évolutions ont pour fond la construction d’un Web de données, dit aussi Web sémantique, qui en étendant sa logique réticulaire jusqu’à la liaison entre elles des plus petites unités d’information disponibles, les données, et en recourant pour ce faire à un formalisme de niveau supérieur, porte la promesse de pouvoir les relier entre elles, quel que soit leur contexte de production, et sans nécessité d’un format-pivot ni appauvrissement de l’information

Certes, beaucoup d’initiatives ont vu et voient le jour en France sur cette question centrale des données, de leur traitement, et du linked open data. Mais il est indubitablement nécessaire aujourd’hui, et de les soutenir, et de les fédérer.

Et puis enfin il y a le cadre juridique du droit de l’information et de la propriété intellectuelle, qui ne prend pas assez en compte en France les intérêts et les besoins de l’ESR (ceux de la Culture ne sont pas moins légitimes, mais ils ne peuvent être les seuls qui vaillent)  : l’exception enseignement et recherche de la loi DADVSI (droit d’auteur et droits voisins dans la société de l’information) par exemple, étique et inutilement restrictive, n’offre pas le cadre approprié au développement d’une science (et d’une pédagogie) intégrant le numérique. Autre exemple : plusieurs acteurs de l’ESR comme l’ADBU et Couperin sont récemment intervenus devant le CSPLA pour convaincre de la nécessité que la loi vienne reconnaître l’innocuité de la pratique du TDM pour les éditeurs de contenus, et le formidable potentiel qu’elle recèle pour la recherche, l’innovation, et la compétitivité nationale. Ces questions juridiques sont cruciales. Et liées à l’enjeu autour des données, on le voit avec l’exemple du TDM. Tout comme l’indépendance du système d’évaluation et de pilotage de la recherche dépend de la maîtrise de données de qualité qu’on ne peut faire correctement parler que si elles sont correctement construites (et que l’on sait comment). Pas de pilotage scientifique efficace par exemple sans référentiels de qualité (celui des publications, celui des auteurs, celui des laboratoires, etc.).

On le voit à travers ces exemples : les professionnels de la documentation et de l’information sont au cœur des enjeux stratégiques de la science d’aujourd’hui. Non qu’ils veuillent piloter la recherche. Le conseil et l’expertise partielle qui est la leur leur suffisent. Aux décideurs de décider. Mais de manière éclairée. Et vite. 

Disons-le : on a engagé beaucoup de réformes de structure dans l’ESR ces dernières années, qui ont mobilisé l’essentiel des énergies, à tous les niveaux. Pendant cette période de recomposition, probablement encore inachevée, la révolution numérique n’a pas marqué le pas. Il est temps de cesser de considérer les questions qu’elle soulève d’un point de vue purement technique, ou sous le seul angle des outils, pour les réintégrer à la réflexion stratégique, et embrasser plus largement le tableau.

Les données sont le coeur de métier des professionnels de la documentation : il sont prêts à contribuer.

1Modulo, bien entendu les impératifs de la valorisation.

1 Comment

Filed under Bibliothèque, documentation, IST

Un train peut en cacher un autre….

cow_CC_by_mikemcsharry

 cow – CC by mikemcsharry via Flickr

 

Couperin (consortium unifié des établissements universitaires et de recherche pour l’accès aux publications numériques) vient de faire paraître un communiqué traçant les grandes lignes de la licence en cours de finalisation avec Elsevier pour les cinq années à venir, et la parution de ce communiqué donne lieu depuis quelques jours à des réactions dont certaines ne laissent pas d’étonner.

Loin de moi l’idée de défendre les intérêts d’Elsevier, le géant de l’édition scientifique commerciale n’a pas besoin de moi pour ça, et par ailleurs chacun sait ce qu’il en est de son histoire, de sa financiarisation, et de sa situation oligopolistique, sur un marché particulier, caractérisé par une demande inélastique.

Mais il est frappant de constater combien bon nombre de réactions à cet accord passent à côté du problème (même si d’autres soulèvent en revanche d’excellentes questions ).

On lit ainsi beaucoup d’appels au développement accru de l’open access.

Fort bien, la majorité des acteurs du monde académique est pour. Et il est tout aussi certain que malgré une première prise de position historique sur le sujet l’an dernier, à saluer (et qui ne doit pas rien à Couperin : le monde est compliqué…) le Ministère de l’Enseignement supérieur et de la Recherche français est encore très en deçà des politiques beaucoup plus volontaristes conduites dans bon nombre de pays comparablesÉtats-Unis en tête . Très certainement, nous avons en la matière des progrès à faire.

Mais il serait un peu naïf de croire qu’un basculement général dans le système de l’open access constituerait la panacée, réglant d’un coup la question de l’inflation des coûts des publications scientifiques. Elsevier, par exemple, a une politique très libérale en matière d’open access.

Flagrant délit de contradiction ? Erreur stratégique ? C’est peu probable, on s’en doute. Alors quoi ?

Eh bien tout simplement Elsevier a parfaitement compris une chose : c’est que si l’existence de ses revues importe tant, malgré tout, aux communautés scientifiques, ce n’est pas tant qu’il est pour elles crucial de lire les articles qu’elles contiennent (on en trouve la plupart sans problème en open access sur la Toile). C’est qu’il est vital d’y publier.

C’est tellement vrai que les investissements récents et actuels d’Elsevier portent sur le développement de ses produits Scopus et surtout de la suite SciVal : au-delà de la production d’indicateurs bibliométriques, il ne s’agit rien moins que de proposer aux institutions de recherche un outil clé en main permettant de cartographier les réseaux de recherche, de déterminer pour un domaine donné ses concurrents comme ses alliés potentiels, d’effectuer une veille fine sur les sujets en cours d’exploration comme sur les opportunités de financements publics. Bref, un outil complet de pilotage stratégique des politiques de recherche (qui partout reposent sur des financements publics).

On voit bien le danger : nous nous dirigeons vers un système où un acteur privé majeur et unique pèserait lourdement tout à la fois, et sur ce qui est publié ou ne l’est pas, et sur l’évaluation des revues scientifiques (et donc des articles qu’elles contiennent, puisque le système actuel est effectivement construit sur cette aberrante logique), et sur les outils d’orientation des stratégies de recherche des établissements, et sur tout le reste (cf. le rachat l’an dernier de Mendeley par Elsevier).

Pour un acteur privé, c’est beaucoup. C’est même trop.

Mais il ne suffira pas de tout publier en open access pour effectuer un salvateur salto arrière. C’est le système actuel d’évaluation de la recherche qui fonde le poids des géants mondiaux de l’édition scientifique. Et certes, un peu partout, des réflexions sont conduites pour proposer d’autres métriques , d’autres approches.

Ces avancées sont importantes.
Mais personne encore n’a la clé permettant de faire basculer le système mondialisé actuel vers autre chose.
Où aller : c’est à peu près clair.
Comment s’y prendre : c’est la vraie question.

Ainsi, que Couperin (un consortium d’établissements et non de bibliothèques, il semble qu’il faille encore le rappeler) conclue ou pas un accord, d’ailleurs historiquement avantageux, avec Elsevier, ne change rien à la vraie question, qui est celle du rôle de la publication dans l’évaluation de la recherche.
Pour y répondre, les professionnels de la documentation peuvent idéalement cesser de se chamailler et apporter leur expertise et leur expérience. Ce serait déjà beaucoup. Mais à condition de bien garder en tête que rien ne se fera sans les chercheurs, présents à toutes les étapes de la chaîne, et qui ont des intérêts contradictoires selon les positions qu’ils y occupent, parfois successivement. Un système générateur de schizophrénie.

Tout le reste n’est que postures et littérature : ça permet de se faire du bien, c’est excellent pour l’image, mais ça ne s’appelle pas penser.

56 Comments

Filed under Bibliothèque, documentation, IST

La frénésie MOOC : quand l’innovation est contre-révolutionnaire

DAY-OF-THE-MOOC

(Riff a GIF of David Kernohan’s Day of the MOOC poster for the Horror of the MOOCs assignment)

On assiste depuis plusieurs mois à un véritable déferlement médiatique sur les MOOCS (Massive online open courses), CLOMS en français (cours en ligne ouverts et massifs). Mais qu’en est-il réellement de ce dispositif anglo-saxon lorsqu’on le considère dans l’environnement français de l’enseignement supérieur ?

 

Vous avez dit MOOCS?

Sur une définition possible de cet objet que nous différencions bien de toutes les ressources éducatives en ligne déjà produites par les services TICE (cours filmés, PPT ou PDF mis en ligne) nous nous sentons très proche de l’analyse de Dominique Boullier, Professeur à Sciences Po et Directeur exécutif de forccast (projet de formation innovante IDEFI) : « Les MOOCS mettent en place avant tout un système de marques (au sens de réputation,« brands ») qui doivent se substituer à tous les autres dispositifs d’orientation dans les savoirs et dans la demande de formation » sur le web. Il s’agit d’inscrire des contenus pédagogiques dans l’économie de l’attention et de la réputation propre à l’Internet, afin d’accroître l’attractivité de son établissement.

Quelque soit le type de MOOC mis en place (cMOOC ou xMOOC : individuel ou collaboratif)  on ne peut pas considérer que ce dispositif puisse à lui seul être à même de révolutionner la pédagogie universitaire. Il s’agit cependant, et il ne serait pas raisonnable de le contester,  d’une véritable innovation (qui a presque dix ans aux Etats-Unis…). Néanmoins elle reste difficile à mettre en œuvre. Au delà du coût encore difficile à estimer (de 50 000 à 100 000 euros pour des séquences complexes), quid de l’engagement des enseignants-chercheurs dans ces chronophages, alors que la pédagogie ne fait pas partie de leur évaluation ? Quid de la certification voire de la diplomation des étudiants dans un contexte massif ?

Les MOOCS restent à ce stade, sur le plan pédagogique, une potentialité pour les enseignants et les étudiants. Ne nous leurrons pas. Les MOOCS sont à l’origine une démarche marketing des universités anglo-saxonnes et les promesses de révolution pédagogique semblent déjà s’éloigner. Ainsi que l’analyse  Gilles Roussel, président de l’UPEMLV (université Paris-Est Marne-la-Vallée) et également président de la commission insertion professionnelle de la CPU : « ils [les MOOCS] sont souvent des produits d’appel et de communication. Leur émergence ne va pas transformer à court terme les universités. L’enjeu principal est ailleurs : c’est la place que va occuper le numérique dans les enseignements. Les MOOCs s’inscrivent dans une évolution pédagogique plus large”. Une pédagogie plus active peut s’adosser aux MOOCS. On peut même concevoir des dispositifs d’évaluation formative adossés au pair à pair, et il est  indifférent dans ce cadre que l’on s’appuie sur un xMOOC suivi individuellement, ou un sur cMOOC, concu pour une mise en œuvre collaborative. Mais l’évaluation reste problématique, et la nature même des MOOCS n’entraîne pas en soi  une pédagogie rénovée

 

Au delà de l’innovation, la rénovation pédagogique

Comme le précise Matthieu Cisel dans son guide du MOOC, le préalable à la fabrication d’un Mooc nécessite la constitution d’une équipe pédagogique que nous qualifierions  « d’étendue ».  Si les enseignants sont le cœur du système, et si l’apport dans ce processus des DSI (visioconférence), ou des TICE (ingénierie pédagogique et compétences audiovisuelles) sont correctement identifiés, le guide du MOOC ne dit rien du rôle de la documentation. Un hasard ?  Pas tout à fait.

Au-delà du manque de transversalité entre services potentiellement contributeurs, au-delà de la difficulté de constituer en France des communautés d’apprenants, au-delà du coût de ces dispositifs,  qu’est-ce qui pourrait contrarier le développement des MOOCS ? Tout simplement le fait de reproduire avec ces outils des dispositifs pédagogiques somme toute traditionnels, inadaptés aux étudiants d’aujourd’hui, lesquels sont bien peu consultés sur les MOOCS ! Suffit-il d’équiper une salle d’enseignement d’un tableau numérique interactif pour rénover sa pédagogie ? Car c’est bien là qu’est l’enjeu. Et dans ce domaine, la documentation doit prendre toute sa place : la lecture, la réflexion en amont du cours, l’information en aval jouent un rôle déterminent dans la réussite des étudiants, comme le fait de les placer en position la plus active possible dans les apprentissages. C’est tout simplement la pédagogie pratiquée en Grande-Bretagne, en Allemagne, en Amérique du Nord, en Scandinavie, où l’acquisition des connaissances est le fait de lectures prescrites et inévitables, et où le cours avec l’enseignant est avant tout un temps d’échange, d’élucidation, de remédiation. L’inverse exact de la logique du cours magistral, qui favorise consubtantiellement la passivité, et l’évitement maximum de la réflexion préalable et de la lecture (tous supports confondus). Cette « pédagogie inversée » doit se généraliser en France.

Sortir du culte de l’ingénieur

Il est crucial pour les acteurs français de s’inscrire rapidement dans le mouvement mondial de captation des meilleurs étudiants : c’est toute l’ambition de France Université Numérique (FUN). Mais l’on comprend dès lors également que par nature les MOOCS soient de bien mauvais candidats à l’instauration d’une pédagogie universitaire plus active, « inversée » : leur caractère massif, qui en fait le principal intérêt dans l’économie du web, s’y oppose.

Ne nous trompons pas. Je ne suis pas contre les MOOCS, ni contre les nouveaux outils numériques. Les MOOCS permettent un accès réellement démocratisé et massif à des savoirs et contenus de niveau académique. Ils offrent réellement la possibilité pour les étudiants salariés de pouvoir adapter leur emploi du temps à des contraintes professionnelles. C’est aussi une véritable vitrine pour la francophonie : l’AUF ne s’y est pas trompé, qui a lancé un appel à la production de MOOCS.  En revanche on peut questionner la logique « brick & mortar »` des initiatives multiples de plateformes de MOOCS françaises (cf. Océan) venant quoi qu’en en dise en concurrence avec la plateforme de France Université Numérique. La question n’est pas celle des outils (quelle plateforme ?) mais bien celle de la rénovation pédagogique, et de la réussite étudiante.

La surexposition médiatique du sujet MOOC participe de la même frénésie technophilique qui tend à nous faire croire que l’imprimante 3D est indispensable chez nous ou que la livraison par drone d’un colis acheté quelques minutes auparavant sur la toile constituent une révolution profonde. Certes, les outils ne sont pas neutres : ils ouvrent des possibles inconcevables avant leur apparition, et ont parfois un impact sociétal considérable. Mais ce n’est pas une qualité intrinsèque : la roue motrice chez les Aztèques ou la poudre à usage militaire dans la Chine classique sont des exemples rebattus. Pour saisir le monde tel qu’il va, et tenter de percer où il court, on ne tire rien d’une focalisation sur les outils. Ce sont les usages qui comptent.

3 Comments

Filed under Pédagogie universitaire

Prospective, le couple formation-information en 2024 : quel rôle pour les bibliothèques, l’IST, la documentation ?

space book image by lance miyamoto

(c) Lance Miyamoto

Nouvel arrivant dans la blogosphère Educpros, je vous invite pour ce premier billet à un exercice de prospective sur l’avenir du couple information-formation à l’horizon 2024.

Un couple qui se heurte à au moins deux éléments d’incertitude

Le premier pourrait se résumer ainsi : quel sera le visage de la création de contenus dans les prochaines décennies ? Si l’Internet a contraint et contraint encore aujourd’hui les services de médiation culturelle, notamment documentaires, à revoir en profondeur leurs modes d’intervention, son impact est encore plus déstabilisant pour les industries culturelles, pour lesquelles s’inscrire dans une économie de l’attention bouleverse tous les équilibres. Comment rétribuer la création dans un contexte où vole en éclat la notion d’original, principe structurant du code de la propriété intellectuelle, et ou les notions d’émetteur et de récepteur apparaissent brouillées, chacun pouvant avec une grande facilité se réapproprier techniquement une création en vue de la transformer ou de la recomposer (pour le meilleur ou pour le pire) ? La facilité offerte par les technologies numériques,de créer des contenus là où hier, le monde analogique exigeait des équipement généralement lourds (imprimerie, chaîne de production cinématographique, etc.), bouleverse profondément la donne dans de nombreux secteurs, notamment académique, comme l’illustre le mouvement de l’open access dans le domaine de l’IST, ou celui des MOOCS dans l’ordre de la production de contenus pédagogiques.

Quelles mutations du système de formation dans les années à venir ?

Les pays développés ont fait le pari qu’ils se trouvent désormais à un stade de leur histoire où l’essentiel de la richesse produite résultera du capital humain mobilisable pour des activités à forte valeur ajoutée. C’est le thème bien connu de l’économie de la connaissance, qui place l’activité de formation (et singulièrement, la formation tout au long de la vie) au cœur de la production de richesses. Or, à des degrés divers, tous les pays développés ont à faire face dans ce domaine à un « plafond de verre », limitant le nombre de diplômés de l’enseignement supérieur en deçà des besoins identifiés, alors que le chômage inscrit ses ravages principalement parmi les actifs peu ou pas qualifiés. Comment hausse-t-on le niveau général de compétences d’une population, comme on l’a fait par exemple tout au long du XIXe siècle, évolution qu’est venue couronner l’instruction primaire obligatoire de Jules Ferry ? Gageons en tout cas que face au déluge informationnel actuel et aux transformations des modalités de construction du savoir qu’implique le numérique, il devient essentiel de revoir profondément les méthodes d’enseignement traditionnelles. Les évolutions rapides des usages et des représentations introduites par le numérique poussent en effet à l’adoption d’une pédagogie plus active, sur le modèle de nos voisins étrangers : lectures en amont du cours, séances avec l’enseignant recentrée sur la remédiation et l’interaction, TD ou TP résolument tournées vers les apprentissages méthodologiques, notamment informationnels (savoir trouver l’information mais aussi et surtout la trier, l’évaluer, se la réapproprier), travaux (individuels, de groupe, tutorés ou pas) à conduire hors la classe en autonomie. C’est dire que la rénovation de l’enseignement appelée par la « révolution » numérique nécessite la collaboration des enseignants, des professionnels des TICE et de ceux de la documentation au sein de véritables équipes pédagogiques. La question des outils, qui occupe beaucoup aujourd’hui, est en fait secondaire : on peut enseigner de façon très traditionnelle sur un tableau blanc interactif dernier cri. Les enseignants du supérieur sauront-ils, voudront-ils investir dans cette pédagogie plus exigeante ? Le système d’évaluation et de promotion qui régit leur carrière aujourd’hui n’y pousse pas vraiment. Et pendant ce temps, le secteur commercial s’organise pour occuper le terrain.

Qu’il s’agisse de création de contenu ou de formation, la vraie inconnue réside donc en fait dans la redistribution en cours de la frontière entre domaine public et intérêts commerciaux : il y a deux cents cinquante ans, aucune maison d’édition commerciale ne publiait dans le secteur académique, considéré comme une niche non-rentable ; de même, la responsabilité de l’éducation ne relevait pas à cette époque de la sphère publique. Qui pourrait dire ce qu’il en sera en 2024 ?

Leave a Comment

Filed under documentation