AVERTISSEMENT DE LA PLUS HAUTE IMPORTANCE : ce billet est issu d’une collaboration. Et par “issu d’une collaboration”, je veux dire que j’ai demandé à quelqu’un d’autre de l’écrire. 

Billet by Nicolas SIMON, MSCA Fellow & Chargé de recherche (FNRS – UCLouvain), et bien plus encore

La saison des rankings universitaires, c’est un peu comme celle précédant le Beaujolais nouveau. L’excitomère est à son comble le jour de l’annonce, mais il ne perdure guère au-delà des premières 24 heures de sa mise en circulation. Comme chaque année depuis 2003, le classement de Shanghaï est venu offrir un soubresaut d’une légerté inhabituelle dans l’actualité estivale de 2020. Et osons le dire, depuis presque 20 ans, ce classement est parvenu à laver les cerveaux des gestionnaires d’établissements d’enseignement supérieur et de recherche.

Pairs, experts, impairs

Évaluer la recherche n’est pas neuf. Lorsqu’est fondée la Royal Society à Londres dans les années 1660, les propositions de publications sont d’abord relues afin de vérifier qu’aucune erreur ne s’y soit glissée. Que ce soit Newton ou Einstein, nombreux sont les membres de la communauté scientifique a avoir dû adapter leurs projets de publications parce que l’évaluation par les pairs avait permis de mettre en évidence des problèmes. L’évaluation telle qu’elle se pratique aujourd’hui dans le monde universitaire, tant au niveau des enseignements et de la recherche, est toutefois d’une autre nature. Les évaluations produites sont de plus en plus l’œuvre d’expert·es parfois dépourvu·es d’expérience académique et dont les recommandations tendent à constituer de véritables programmes stratégiques de gouvernance. Ces évaluations mettent toujours plus en avant des indicateurs chiffrés dont la pertinence, souvent peu questionnée, amplifie le phénomène d’une gouvernance par les nombres supposée offrir une objectivation de l’évaluation (nombre de Prix Nobel, de publications, de projets européens obtenus, etc.).

Deep impacts

La vision qui consiste à envisager la recherche scientifique sous l’angle d’impacts sociétaux/technologiques/transferts de connaissances implique de disposer d’indicateurs permettant d’évaluer « objectivement » ces impacts. La quantification des mesures d’évaluation de la recherche conduit inéluctablement à considérer que certaines disciplines seraient « improductives ». Comment établir ainsi les impacts de disciplines comme l’histoire, la théologie, la musicologie ou la philosophie ?

On pose généralement cette question aux disciplines issues des Humanities et…et en fait, il n’y a qu’à elles qu’on pose cette question. Un tel état d’esprit n’est rendu possible qu’en raison d’une approche très étroite d’un concept essentiel, à savoir celui d’innovation. L’innovation est ce qui draine toute l’activité de recherche au sein des universités et/ou d’entreprises avec des départements de R&D. C’est parce que le concept d’innovation n’est compris que dans le sens d’innovation technologique récupérable par un Knowledge Transfer Office afin de créer une spin-off-pas-encore-start-up-cotée-en-bourse-mais-déjà-Licorne que de tels écarts intellectuels subsistent entre chercheurs/-euses d’une même institution. Un super rapport de 2009 consacré à l’avenir des sciences humaines aux Pays-Bas soulignait justement cette interprétation très étroite du concept d’innovation. Pourtant, en quoi le robot en forme de chien de Boston Dynamics capable de tirer un camion a-t-il un impact qualitativement plus fort qu’un projet collaboratif entre chercheurs·euses et institutions patrimoniales (musées, archives, bibliothèques) visant à valoriser leurs collections via des outils numériques ?

D’aucuns sont favorables à des des indicateurs quantifiables pour des raisons non pas intellectuelles mais pratiques. Pouvoir disposer d’un chiffre, qui plus est facile à obtenir, permet de comparer – supposément de façon objective – chaque chercheur·euse et d’accélérer les discussions de comités de sélection. Telle est la raison qui pousse certains à soutenir l’H-index, ce nombre censé évaluer la productivité et la notoriété des chercheurs·euses. On peut lire sous la plume de certains que cet indicateur « rationalise et simplifie des débats sans fin sur la manière de prendre en compte et le nombre de publications et le succès référentiel de celles-ci (leur impact en volumes de citations) »[1]. Cette vision signifie que « l’on souhaite de tout chercheur qu’il soit productif ». Ce type de logique est également à l’œuvre avec des instruments comme Google Scholar où sont comptabilisées le nombre de fois qu’une publication est citée – encore que Google Scholar ne moissonne pas toutes les publications produites dans la monde… – de sorte qu’une hiérarchie apparaître.

 

Damien Ernst (professeur @ ULiège) sur la venue de Didier Raoult à Liège

 
Classements déclassés

Les critères outrancièrement simplistes que proposent des classements comme celui de Shanghaï nous rappellent qu’un peu de marketing bien dosé est de nature à vous jeter de la poudre aux yeux. Prenons l’un des critères essentiels du classement de Shanghaï, à savoir le nombre de Prix Nobel obtenus par les chercheurs·euses dans une institution. Sur papier, on pourrait dire que c’est pas bête, voire presque intelligent. Le Produit Nobelisable Brut – PNB si vous préférez – constituerait un des meilleurs étalons-mètres autorisant la comparaison entre institutions de recherche. Le Prix Nobel de physique accordé au professeur François Englert (ULB) en 2013, par exemple, visait à récompenser les travaux d’une vie de recherche débutés dans les années 1950. En 2013, cela faisait déjà 25 ans que François Englert avait accédé à l’éméritat ! Le PNB ne représente donc rien à l’échelle d’un classement annuel. C’est peanuts ! Qui osera affirmer que l’obtention du PN de physique par le prof. Englert en 2013 reflète la recherche menée actuellement à l’ULB alors qu’il a quitté cette institution il y a un quart de siècle ? Au mieux, cela prouve que le département de physique de l’université en question a été à la pointe de la recherche à un moment donné. Mais c’est à peu près tout. Autant reprendre cet adage bien connu des boursicoteurs : les performances passées ne constituent pas une garantie pour l’avenir. Il devient donc de plus en plus interpellant que les autorités en charge de la gestion d’établissements de recherche n’adoptent pas des positions davantage tranchées en faveur d’une réelle réflexion concernant les critères d’évaluation et les indicateurs mobilisés lors de tels processus.

L’impact politique de tel classement est en outre énorme. On a vu qu’Emmanuel Macron a tweeté au sujet de la 14e place de Paris-Saclay en précisant que la recherche française était enfin reconnue à son « vrai niveau » :

Il y a de quoi se poser des questions quand on sait que Paris-Saclay est le résultat de fusions d’institutions qui, prises individuellement, n’atteindraient jamais une telle position. On peut s’attendre à ce que l’institution grimpe encore dans le ranking après l’incoporation prévue de deux autres universités d’ici à 2025. Je me rappelle avoir entendu quelqu’un affirmer que si la France voulait vraiment battre tous les records, alors autant fusionner toutes les universités de l’Hexagone, créer « l’Université de France » et agréger toute la production scientifique nationale. D’aucuns ont déjà songé à la même chose en Fédération Wallonie-Bruxelles où une fusion de l’ULB et de l’UCLouvain pour créer l’European University of Brussels on atteindrait une masse critique de 60.000 étudiants. Ces positions utopiques (FWB) ou tout simplement absurdes (France) créent par ailleurs de la concurrence entre les institutions et entre les pays. Être en mesure de truster les premières places de rankings mondiaux est une publicité formidable ! N’aimeriez-vous pas pouvoir envoyer vos enfants dans l’université la plus innovante d’Europe ?

Ces processus d’évaluation et de rankings rend compte d’une internationalisation accrue de l’enseignement et de la recherche. Cette situation implique de profondes reconfigurations de la gestion des universités qui doivent dorénavant évoluer dans un contexte de forte compétition. À long terme, ces évolutions n’iront pas sans accroître des problèmes déjà prégnants et connus du plus grand nombre. On se retrouve donc face à un paradoxe où les communautés scientifiques, bien que conscientes des effets délétères de la gouvernance par les nombres, continuent de valoriser des indicateurs et des comportements qui leur sont néfastes.

 

[1] Hugues Bersini dans L’évaluation de la recherche en question(s) ?, p. 75.

Orientations bibliographiques

– De Dijn Herman, Veretennicoff Irina, Willems Dominique e.a., Being a professor in 2016. Reflections on a profession in a changing world, Bruxelles, Koninklijke Vlaamse Academie van België, 2016 (Standpunten 40b).

– Gingras Yves, « Du mauvais usage de faux indicateurs », Revue d’histoire moderne et contemporaine, 55 (2008), p. 67-79.

– Gozlan Clémentine, « Évaluer la recherche aujourd’hui. Logiques sociales et politiques du jugement scientifique », La vie des idées, 8 septembre 2020, en ligne  (consulté le 11 septembre)

– L’évaluation de la recherche en question(s) ?, Bruxelles, Académie royale de Belgique, 2016.

Sustainable Humanities. Report from the Committee on the National Plan for the Future of the Humanities, Amsterdam, Amsterdam University Press, 2009.

[HORS SÉRIE] Évaluation des rankings, rankings des évaluations
Étiqueté avec :    

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Social Share Buttons and Icons powered by Ultimatelysocial
Facebook
Twitter
LinkedIn