Classements
Comme vous l'aurez remarqué je n'ai pas beaucoup de temps à consacrer à ce blog en ce moment. J'ai cependant tenu à prendre deux ou trois minutes pour partager avec vous, chers lecteurs, diverses informations glânées au hasard de mes lectures, et qui sont suffisament éloquentes par elles-mêmes pour me dispenser d'une longue analyse.
L'importance que prennent aujourd'hui les classements n'aura échappé à personne. Leur impact est particulièrement fort dans le monde de l'enseignement supérieur et de la recherche. Ainsi avons-nous tous entendu parler du classement de Shanghaï et de sa cruauté envers l'université française. On explique souvent ce phénomène par la taille réduite de nos facultés par rapport à leurs cousines américaines ou britanniques. Cela joue certes un rôle, mais il est intéressant de se pencher un peu plus sur la méthodologie utilisée. J'apprends ainsi par l'entremise de la Gazette des mathématiciens (*), que ce classement "est composé de 6 mesures dont 4 comptent pour 20% : (1) nombre de prix Nobel ou de médailles Fields, (2) nombre de chercheurs parmi la liste des « plus cités » de Thomson Reuters, (3) nombre d’articles publiés dans les revues Nature et Science, (4) nombre total d’articles recensés dans le Web of Science de la compagnie Thomson Reuters. Les 20% restants sont ajustés grâce à deux variables comptant 10% chacune : (5) nombre d’anciens étudiants ayant reçu un prix Nobel ou une médaille Fields, (6) ajustement des résultat précédents selon la taille de l’institution." On peut certainement objecter que ces critères agrègent des données totalement hétérogènes. Mais je ne soupçonnais pas l'importance du biais relevé par l'article de la Gazette : "le choix des revues Nature et Science est très discutable et fortement biaisé quant on sait que 72% des articles publiés dans la revue américaine Science le sont par des auteurs américains, et 67% de ceux parus dans la revue britannique Nature le sont par des britanniques ; et enfin comment se fier à un classement qui fait varier la position d’une université de plus de 100 places selon qu’on attribue le prix Nobel d’Albert Einstein (obtenu en 1922 !) à l’université de Berlin ou de von Humboldt ?" Dans la mesure où ce classement est structurellement biaisé en faveur des institutions américaines et brittaniques, on comprend mal pourquoi tant de dirigeants de grandes écoles et d'universités françaises ont pour objectif explicite d'améliorer leur rang dans celui-ci... sauf si on considère que l'attrait des classements est aussi universel qu'irrépressible.
Les classements ont en effet deux vertus irremplaçables. La première est de donner une impression d'objectivité à ceux qui n'ont aucune lumière sur un sujet particulier, et surtout, de leur éviter de prendre des risques. Les meilleurs vins selon la revue untel ne seront sûrement pas des piquettes, et le meilleur restaurant selon telle autre est rarement une gargotte. Bien sûr, à trop suivre ce type de conseil on risque malgré tout de passer à côté de son propre goût .
La seconde vertu des classements est incontestablement d'alimenter les conversations. Si vous êtes en manque sur ce dernier point, je vous conseille cet article récemment paru sur arkxiv, qui détermine enfin scien-ti-fi-que-ment (à l'aide d'un algorithme de type pagerank) qui fut le plus grand joueur de tennis de tous les temps. La réponse est un peu surprenante, quoique pas complètement dénuée de fondement, ce qui permet d'en discuter à satiété. Les magazines ont depuis longtemps flairé le filon, avec les classements des hôpitaux, des prépas, des lycées, etc. En voici deux (ici et là) qui ne sont, disons, pas complétement convergents... Précisons que ces deux classements utilisent, et c'est remarquable, les mêmes données brutes.
Les classements sont irrésistibles, vous dis-je, et la seule façon de lutter contre eux est d'en inventer de nouveaux. Ainsi, comme le note encore l'article de la Gazette (citant le rapport du sénateur Bourdin) "le classement de Shanghai est très favorable aux universités américaines... le classement anglais [du Times Higher Education], quant à lui, valorise mieux les performances des établissements du Royaume-Uni... et le classement de Leiden donne de belles places aux universités néerlandaises... Il n’était donc pas inutile qu’un organisme français vienne apporter sa contribution à cette surenchère de classements, pour éclairer d’un jour nouveau les performances des établissements français. De fait, le classement publié en septembre 2007 par l’école des Mines de Paris leur est très favorable, même s’il a fallu pour cela abolir tout critère en rapport avec la recherche et se concentrer sur le devenir des anciens étudiants au sein des entreprises."
Rien de meilleur en effet pour l'estime de soi que de se trouver au sommet d'un classement, encore que l'effet soit quelque peu diminué si on en a imaginé soi-même les critères.
Alors, je vous le demande, qui a le meilleur revers choppé parmi les agrégés de maths qui réussissent le risotto au cèpes ? Hein ? Qui ?
(*) L'article cite ici Yves Gingras, La fièvre de l’évaluation de la recherche. Du mauvais usage de faux indicateurs, CIRST, 2008.
MAJ 01/02 : un article d'Yves Gingras sur le sujet, sur le site de La Recherche. Merci à Luc Allemand pour ce lien.