//img.uscri.be/pth/0a3ecae90364344c5233837c90e41b5c5c42d5f2
Cette publication ne fait pas partie de la bibliothèque YouScribe
Elle est disponible uniquement à l'achat (la librairie de YouScribe)
Achetez pour : 26,25 € Lire un extrait

Lecture en ligne (cet ouvrage ne se télécharge pas)

L'évaluation de la recherche en sciences humaines et sociales

299 pages
Qu'est-ce que évaluer la recherche ? Pourquoi et pour quoi évaluer la recherche ? Comment évaluer la recherche ? Y a-t-il des pièges à l'évaluation et lesquels ? La transition de l'évaluation de la recherche à l'évaluation des chercheurs est-elle inévitable, voire souhaitable ? L'évaluation induit-elle des changements dans la recherche ? Ces questions, et bien d'autres - notamment en sciences humaines et sociales -, préoccupent les chercheurs, comme les organismes qui les subventionnent et ceux qui les emploient.
Voir plus Voir moins

L’ÉVALUATION DE LA RECHERCHE
EN SCIENCES HUMAINES ET SOCIALES
REGARDS DE CHERCHEURS
Textes rassemblés par Paul Servais
Dans la même collection :
1. Pierre Collart, Les abuseurs sexuels d’enfants et la norme sociale,
2005.
2. Mohamed Nachi et Matthieu de Nanteuil, éloge du compromis.
Pour une nouvelle pratique démocratique, 2006.
3. Lieven Vandekerckhove, Le tatouage. Sociogenèse des normes
esthétiques, 2006.
4. Marco Martiniello, Andrea Rea et Felice Dassetto (éds.), Immi gra-
ton et intégri ation en Belgique francophone. état des savoirs, 2007.
5. Francis Rousseaux, Classer ou collectionner ? Réconcilier scien-
tifques et collectionneurs, 2007.
e6. Paul Ghils, Les théories du langage au siècle. De la biologie à
la dialogique, 2007.
7. Didier Vrancken et Laurence Thomsin (dir.), Le social à l’épreuve
des parcours de vie, 2008.
8. Pierre Collart (dir.), Rencontre avec les différences. Entre sexes,
sciences et culture, 2009.
9. Jean-Louis Dufays, Michel Lisse et Christophe Meurée, Théorie de
la littérature. Une introduction, 2009.
10. Caroline Sägesser et Jean-Philippe Schreiber, Le fnancement public
des religions et de la laïcité en Belgique, à paraître.
11. Ariel Mendez (dir.), Processus. Concepts et méthode pour l’analyse
temporelle en sciences sociales, 2010.
12. Dominique Deprins, Parier sur l’incertitude, à paraître.
13. Luc Albarello, Société réfexive et pratiques de recherche, 2010.
14. Paul Servais (dir.), L’évaluation de la recherche en sciences humai-
nes et sociales. Regards de chercheurs, 2011.
xx_INTELLECTION_14_
ÉVALUATION DE LA RECHERCHE
EN SCIENCES HUMAINES ET SOCIALES
REGARDS DE CHERCHEURS
Textes rassemblés par Paul ServaisD/2011/4910/20 ISBN : 978-2-8061-0023-8
© Buyla- a adea s.a.
Grand’Place 29
B-1348 Louvain-la-Neuve
Tous droits de reproduction ou d’adaptation par quelque procédé que ce soit,
réservés pour tous pays sans l’autorisation de l’éditeur ou de ses ayants droit.
Imprimé en Belgique.
www.academia-bruylant.be
rmtcniSommaire
Préface 7
Partie 1
Enjeux
Les enjeux de l’évaluation. Du discours aux pratiques 15
Alain Eraly
Évaluer le travail de recherche ? 37
Thomas Périlleux
Crise de système dans l’enseignement supérieur français ? 55
Pierre Judet de La Combe
Partie 2
Mises en œuvre
How to do best ? L’évaluation de la recherche
en sciences humaines, selon Chad Gaffeld et le CRSH 85
Morgane Belin, Corentin de Favereau
L’expérience du F.R.S.-FNRS 103
Véronique Halloin
Vivre l’évaluation dans une université française :
le cas de Nancy 2 131
Philippe Martin
5L’évaluation de la recherche en sciences humaines et sociales
L’évaluation de la recherche et des chercheurs
en sciences humaines et sociales aux États-Unis 159
Herbert L. Smith
Les publications et l’évaluation des chercheurs ou des unités
dans le dispositif français en sciences humaines 167
Gérard Béaur
Quels critères de qualité dans les recherches empiriques ?
Le cas des recherches en éducation 183
Jean-Marie De Ketele, Léopold Paquay
Partie 3
Critiques
Équité pragmatique : production du sacré en respectant
les règles 213
Michèle Lamont
L’évaluation de la qualité des recherches qualitatives 231
Jean-Pierre Olivier de Sardan
Faut-il classer les revues en sciences humaines et sociales ?
Dix années de controverses françaises (1999-2009) 243
Gabriel Galvez-Behar
Pratiques et évaluations scientifques à la loupe
de la bibliométrie. Pistes et critères pour les sciences sociales.
Recherches menées par Yves Gingras 267
Gaétan du Roy, Caroline SappiaPréface
1Paul Servais
replacée dans le long terme, l’évaluation semble consubstantielle à
l’activité universitaire et, singulièrement, à la recherche. Les cher-
cheurs la pratiquent de longue date même si, comme Monsieur
Jourdain pour la prose, ils n’en ont pas toujours conscience. il suffit
pour s’en convaincre de parcourir les rubriques de comptes-rendus de
ela plupart des revues scientifiques, et cela dès le siècle, voire plus
tôt. Le développement des prix et concours scientifiques au sein des
académies, puis de fondations spécifiques, en constitue un autre témoi-
gnage majeur. et il en va de même du rituel académique des doctorats
honoris causa.
ea u cours de la deuxième moitié du siècle, cette activité scientifi-
que « naturelle », plus ou moins formalisée, gagne en ampleur et en
impact. C’est que le nombre de chercheurs explose, que les budgets
de recherche et développement, publics et privés, font de même, que
les agences de financement se multiplient. Le tout récent appel à con-
2tribution de la revue Quaderni le rappelle d’ailleurs et propose une
chronologie de l’évolution du phénomène, tout en suggérant des fac-
teurs structurels d’explication :
… l’évaluation de la recherche est le produit de mouvements histori-
ques aujourd’hui bien connus : dans la longue durée, l’avènement du
3 erègne de la mesure dans les politiques publiques ; au siècle, l’ap-
parition dans l’ordre industriel et la diffusion dans le secteur public
des mots d’ordre de « qualité totale », « démarche qualité » et de bench-
1 Historien, professeur, Université catholique de Louvain (UCL), président
de l’institut d’ana lyse du Changement dans l’Histoire et les Sociétés
Contempor aines (iaCCHOS).
2 Disponible sur internet : http://calenda.revues.org/nouvelle18595.html,
consulté le 08 février 2011.
3 D A. (1993), La politique des grands nombres. Histoire de la
raison statistique, Paris, La Découverte.
7
rèisxxxoxrsexeixsL’évaluation de la recherche en sciences humaines et sociales
4marking où la compétition devient un principe d’organisation ; enfn,
à partir des années 1980, l’adoption de la doctrine du Nouveau
Management Public (dans l’enseignement supérieur et la recherche,
mais aussi la santé, la justice, etc.) par les États occidentaux et par la
Commission européenne. Ses principes de rentabilité et d’accounta-
5bility (à la fois « rendre des comptes » et « être responsable ») s’inspi-
rent directement du management des entreprises.
6Une note inédite du professeur F. Dassetto va dans le même sens,
même si sa chronologie est légèrement différente :
eLe développement de la recherche scientifque au siècle a amené,
à partir de 1820 à un accroissement de la coopération internationale
entre scientifques. après la Première guerre mondiale, dans le cadre
des États, naissent des instances scientifques qui expriment la volonté
des États d’élaborer une véritable politique de la recherche fondamen-
tale et appliquée. L’innovation scientifque et technologique apparaît
désormais comme un outil indispensable de la puissance économique.
Dans les années 1950, la politique de recherche acquiert une dimen-
sion nouvelle : celle d’élaborer des « programmes de recherche » (à
l’instar du « programme Manhattan » qui a été à la base de la pre-
mière bombe atomique) qui font converger des scientifques et des
technologues autour d’objectifs précis sous l’impulsion des États. Le
programme « Concorde » fut un exemple dans le domaine. Les com-
munautés européennes ont prolongé cette idée à partir de la fn des
années 1970 par le déploiement des « programmes cadres ». De ce
fait la recherche scientifque et technologique tend à être fnalisée à
des politiques publiques, notamment militaires, économiques, de la
santé et, depuis deux décennies, environnementales.
il y met en évidence non seulement la dimension politique du proces-
sus, mais aussi les domaines plus particulièrement concernés – d’abord
les sciences de la nature et de la matière, mais aussi la technologie de
pointe – et les évolutions de ces instruments, de l’évaluation post
factum à l’évaluation ex ante dans un contexte de concurrence, mais
aussi de souci du risque.
4 B i. (2008), À vos marques, prêts… cherchez ! La stratégie euro-
péenne de Lisbonne, vers un marché de la recherche, Paris, Éditions du
croquant, coll. Savoir/agir.
5 GA A s. (2008), « L’évaluation des enseignements : une révolution invi-
sible », Revue d’Histoire Moderne et Contemporaine, 55-4bis (5), pp. 46-
60 ; F e., M c. et al. (2008), « t he Steering of Higher education
Systems : a Public Management Perspective », Higher Education, 56 (3),
pp. 325-348.
6 DA F., « recherches en sciences humaines, régulation publique et
évaluation » (communiquée le 9 mai 2009).
8
tosxinsrnrirlleescsotuxueieiPréface
Dans ce mouvement, plus particulièrement peut-être depuis une décen-
nie, c’est la nature même de l’évaluation et de ses motivations qui
évolue. De la prise en compte par la communauté scientifique, on en
est venu à la reddition de comptes à la collectivité, puis à une logique
de classement, successivement, des projets, des chercheurs, des équi-
pes, des institutions. La standardisation et l’objectivation des procédu-
res ont également retenu toute l’attention.
Parallèlement, les questions d’évaluation ont pris une importance de
plus en plus grande au sein de la communauté des chercheurs. Les réac-
7tions à de grands instruments et/ou projets nationaux en alle magne,
en angleterre, en italie, en France, le contexte de « fièvre rankings », les
comparaisons de pratiques entre sciences de la nature, sciences de la
santé et sciences de l’homme et de la société, n’ont fait que renforcer
et amplifier le phénomène. Si l’évaluation en tant que telle n’a que
rarement été mise en cause dans ces débats, il en a été tout autrement
de ses objectifs, de ses modalités, des indicateurs utilisés, des modè-
les privilégiés, des acteurs impliqués ou encore des impacts réels sur les
personnes, les équipes, les institutions et, finalement, les sociétés.
rencontres, échanges, réflexions, publications, analyses se sont mul-
8tipliés , sans pour autant que le débat s’apaise, peut-être plus dans le
9domaine des sciences humaines et sociales . Du fait d’un large et
profond sentiment d’inadaptation des critères, des modalités, des
indicateurs, la réflexion s’y est faite particulièrement intense, que ce
soit sur le mode politique, de manière technique ou scientifique, voire
académique, et sous la forme du rapport, de l’essai ou, plus rarement,
10de l’analyse .
Pour sa toute première activité collective ouverte, iaCCHOS ne pou-
vait passer à côté de ces multiples questionnements de fond : qu’est-ce
que évaluer la recherche ? Pourquoi et pour quoi évaluer la recherche ?
Comment évaluer la recherche ? Y a-t-il des pièges à l’évaluation et
lesquels ? La transition de l’évaluation de la recherche à l’év
7 G A a., MA B.r. (2003), « University research evaluation and Fun-
ding : an international Comparison », Minerva, 41 (4), pp. 277-304.
8 Par exemple (2008), « Fièvre européenne d’évaluation de la recherche
dans les sciences sociales », Bulletin de méthodologie sociologique, 100,
ermis en ligne le 1 octobre 2008. Disponible sur internet : http://bms.
revues.org/index3583.html, consulté le 05 février 2011.
9 Pour une entrée particulièrement stimulante dans ses débats, voir http://
evaluation.hypotheses.org/.
10 il faut en la matière saluer d’autant plus les travaux précurseurs et déca-
pants d’Yves Gingras et les analyses récentes de Michèle Lamont.
9
tinuenrL’évaluation de la recherche en sciences humaines et sociales
des chercheurs est-elle inévitable, voire souhaitable ? L’évaluation
induit-elle des changements dans la recherche ?
et plus spécifiquement pour les sciences humaines et sociales : quelles
conséquences les spécificités de leur objet ont-elles sur leurs prati-
ques, leurs résultats ? Quelles leçons en tirer pour leur évaluation ?
Quel a été l’impact de l’évolution du « pilotage et de l’évaluation » de
la recherche en sciences sociales au cours des dernières décennies ?
Quelles redéfinitions cela implique-t-il du rôle des chercheurs en
sciences sociales ? Plus fondamentalement peut-être, quelles transfor-
mations des relations entre « connaissances » et « politiques » en a-t-il
résulté ?
il était évidemment impossible d’embrasser l’ensemble de ces ques-
tions. Une première structuration de la réflexion et de sa progression
a dès lors privilégié « les politiques d’évaluation de la recherche en
sciences humaines et sociales : expériences et pratiques », puis la
prise en compte par les sciences humaines et sociales de l’évaluation.
Les outils et méthodes d’évaluation ont ensuite retenu l’attention pour
aboutir en fin de compte à une réflexion large centrée sur « Sciences
humaines et sociales, politiques et sociétés ». À chaque étape, ce sont
des chercheurs investis de responsabilités institutionnelles ou non, euro-
péens ou non, engagés dans des activités collégiales ou formelles
d’évaluation, qui ont été invités à partager leurs convictions, leurs
expériences, leurs interrogations face à l’évaluation de la recherche en
sciences humaines et sociales. Le cahier des charges proposé à cha-
que intervenant mettant l’accent avant toute chose sur la position du
chercheur, privilégiant dès lors la comparaison et la confrontation des
points de vue.
La richesse des discussions comme les accentuations des contributions
écrites ou leurs modalités de constitution ont cependant amené à
structurer l’ensemble du volume résultant des deux journées de ren-
contre d’une manière un peu différente. Un premier groupe de trois
contributions a été rassemblé au titre des enjeux qu’elles soulignaient :
impact de l’évaluation sur le chercheur et donc sur la recherche, tra-
vail de recherche et souffrance au travail, mais aussi modèles d’uni-
versité résultant de ces procédures d’évaluation et de leur évolution.
Un deuxième ensemble s’est dégagé accentuant particulièrement des
mises en œuvre. Chaque intervenant, ou ses porte-parole, y adopte un
point de vue singulier : institutions nationales de financement, donc
d’évaluation, au Canada et en europe, université, centre de recherche,
comité d’évaluation, association disciplinaire. De ces différentes expé-
10Préface
riences de l’évaluation émergent des perceptions et des conceptions
spécifiques du travail de recherche, mais aussi du travail de l’évalua-
tion, des objectifs poursuivis comme des responsabilités à assumer ou
qui incombent à chaque acteur. Le dernier ensemble, enfin, porte un
certain nombre de regards critiques sur le travail d’évaluation, ses
modalités et ses indicateurs. ils soulignent tantôt le caractère essentiel
de la collégialité et des règles « coutumières », la nécessité d’approches
évaluatives ajustées à l’objet spécifique des sciences humaines et
sociales, plus particulièrement mais pas exclusivement, en matière de
recherches qualitatives, et enfin les limites des classements comme de
différents concepts ou indicateurs perçus comme objectivants.
Ce parcours ne pouvait naturellement prétendre à la moindre exhaus-
tivité. Ce n’était d’ailleurs en rien son objectif. en tant que tel, il rassem-
ble simplement un certain nombre de pièces qui viennent s’ajouter au
dossier de plus en plus volumineux de l’évaluation de la recherche
spécifiquement dans le domaine des sciences humaines et sociales.
et peut-être l’intérêt majeur de l’ensemble réside-t-il dans trois élé-
ments. D’une part, il prend en compte le travail de recherche en tant
que travail, dans toutes ses dimensions, y compris la souffrance au
travail et le besoin de reconnaissance. D’autre part, il plaide pour un
ajustement de l’évaluation à la spécificité de l’objet, des méthodes et
des pratiques des sciences humaines et sociales. enfin, il est le fruit
d’un effort réflexif collectif de chercheurs praticiens tous engagés à
des titres divers dans le travail de la recherche comme, à des niveaux
multiples, dans la gestion de la recherche.
en ce sens, outre les intervenants aux deux journées consacrées à la
réflexion sur l’évaluation de la recherche en sciences humaines et
sociales, doivent absolument être remerciés les membres du comité
scientifique qui ont accompagnés la conception des journées, comme
la préparation de ce livre, à savoir les Professeurs Françoise Bartiaux
(démographe), Michel Dorban (historien), Christian Maroy (sociolo-
gue), Léopold Paquay (Sciences de l’éducation), t homas Périlleux
(sociologue), Olivier Servais (anthropologue), Dominique t abutin
(démographe). Les Professeurs Claire Billen et Serge Jaumain (ULB,
historiens) et Philippe Scieur (Facultés universitaires catholiques de
Mons, sociologue) se sont joints à eux. Mais les Professeurs Pierre-
Joseph Laurent (anthropologue) et Godelieve Masuy-Stroobandt (démo-
graphe) ont également apporté leur contribution à la réflexion commune
en acceptant de présider une séance de travail. enfin, le professeur
Ghislain Carlier (Sciences de la motricité) a assumé la tâche difficile
de clôturer deux jours de réflexion très riche en se faisant plus parti-
11L’évaluation de la recherche en sciences humaines et sociales
culièrement le porte-parole des jeunes chercheurs et en esquissant de
nombreuses pistes de réflexions ultérieures et de concrétisations sou-
haitables. D’autres encore, tel le pro fesseur Felice Dassetto (sociolo-
gue), ont contribué à faire de ces deux jours des moments privilégiés
de vie universitaire et intellectuelle au sens le plus noble. t ous ont
apporté leur pierre à une réflexion commune fondamentale ; tous
retrouveront dans les pages qui précèdent et dans les contributions
qui suivent l’écho de discussions où leur part fût prépondérante. C’est
la gratitude de toute la communauté des chercheurs de l’institut
d’analyse du Changement dans l’Histoire et les Sociétés Contemporai-
nes que je souhaite leur exprimer. ils ont sans conteste fait la preuve
de l’efficacité et de la richesse du mode de fonctionnement coopéra-
tif et collaboratif à la base même des mécanismes de recherche et de
réflexion en sciences humaines.
enfin, last but not least, la réalisation matérielle de ce volume doit tout
au travail efficace et sans relâche de Madame Marie-Charlotte Declève,
qui a assumé non seulement la mise en page, mais aussi de nombreu-
ses relectures et d’innombrables contacts avec les auteurs. Qu’elle en
soit très vivement remerciée.
Paul ServaiSPartie 1
Enjeux
Les enjeux de l’évaluation. Du discours aux pratiques
ALAIN ERALy
Évaluer le travail de recherche ?
THOMAS PÉRILLEUx
Crise de système dans l’enseignement supérieur français ?
PIERRE JUDET de LA COMbELes enjeux de l’évaluation.
Du discours aux pratiques
1Alain Eraly
1. Introduction
La culture de l’évaluation, c’est-à-dire à la fois les dispositifs techniques
d’évaluation et les discours qui les accompagnent et leur apportent une
justification, se diffuse dans tous les secteurs de la société : le travail,
la santé, la justice, l’emploi, la police, l’associatif, l’enseignement, la
recherche, la formation – pour l’essentiel sans grande résistance. La
cause est entendue : l’évaluation est un des emblèmes de notre moder-
nité réflexive et quiconque s’avise de s’y opposer choisit son camp ipso
facto, celui du conservatisme, de l’inefficience et du déclin.
Bien sûr, l’évaluation appartient en propre à la logique universitaire.
Depuis toujours, les chercheurs font l’objet d’une triple évaluation :
a) évaluation spécifique de la qualité de leurs travaux scientifiques
(thèses de doctorat, livres, articles) via les jurys de thèse et les comités
de lecture ; b) évaluation des projets de recherche qu’ils soumettent aux
organismes de financement de la recherche via des commissions scien-
tifiques ; etc. ; c) évaluation de leur contribution plus générale aux trois
missions de l’université lors des nominations et des promotions. Or, les
décideurs politiques et académiques développent actuellement un qua-
trième type d’évaluation qui a pour effet de transformer en profondeur
les trois précédents en leur ajoutant une série de dimensions nouvelles :
objectivation bibliométrique de la production scientifique, évaluation
des équipes de recherche, recours systématique à des experts étran-
gers, comparaisons quantifiées, inscription des universités dans des
classements internationaux. Ce vaste mouvement contribue à modi-
fier les foyers d’attention des responsables universitaires : centration
préférentielle sur les résultats quantifiés, développement d’un climat
1 Sociologue, professeur, Université libre de Bruxelles (ULB).
15enjeux
de compétition, indexation de la reconnaissance académique sur le
rayonnement international et la performance bibliométrique, et avant
toute chose, émergence d’un discours institutionnel selon lequel tout
ce qui est susceptible d’améliorer la place de l’université dans la com-
2 – comme pétition bibliométrique internationale est légitime en soi
est légitime en soi, dans l’entreprise privée, tout ce qui est susceptible
d’améliorer sa position concurrentielle. Les universités, dit-on, sont
engagées dans une compétition inéluctable pour attirer les professeurs,
les chercheurs, les étudiants, les budgets de recherche. Le discours de
la compétition internationale a désormais acquis la même puissance
rhétorique au sein des universités que dans d’autres secteurs de l’éco-
nomie naguère protégés et désormais soumis à la libre concurrence.
Ce qui frappe, c’est la facilité avec laquelle les universités s’engagent
dans cette voie en faisant l’économie d’un débat critique sur les finalités
de l’université et sur la logique des réformes qui sont mises en œuvre.
L’invocation de la compétition internationale sur fond de classements
de revues et de mesures bibliométriques entraîne une modification pro-
fonde du raisonnement académique : l’idée d’une « rentabilité » aca-
démique, d’un rapport objectif et quantifié entre des inputs financiers
et humains et des outputs scientifiques, s’impose de plus en plus,
comme aussi l’idée d’un « marché » de l’enseignement et de la recher-
che. La compétition cesse d’être une contrainte de l’action collective,
« elle tend à devenir la finalité » : l’ambition proclamée d’accéder au
« top européen » des universités suffit à emporter l’adhésion sans autre
justification. Quant aux logiques qui président à ce classement et
l’utilité sociale et culturelle d’accéder au « top européen », ce sont là
des questions assurément dignes d’intérêt, mais qui ne sauraient pour
autant risquer de dégrader la position de l’institution dans les classe-
ments. D’accord pour reconnaître que cette « compétition » procède
d’une fiction première, que les institutions universitaires sont infiniment
diverses et que l’on compare en permanence des institutions incom-
parables en termes de missions, de statut, de réglementations, de taille,
de moyens, d’autonomie, de maîtrise des ressources, etc. D’accord,
donc, pour admettre que la course est faussée, et même partiellement
2 Dans plusieurs articles, P.a. Lawrence analyse le processus par lequel les
indicateurs bibliométriques tendent à devenir une fin de soi, indépen-
damment du contenu des découvertes scientifiques. voir par exemple :
(2003), « t he Politics of Publication », Nature, 422, pp. 259-261 ; (2008),
« Lost in Publication : How Measurement Harms Science », Ethics in
Science and Environmental Politics, 8, pp. 9-11.
16Les enjeux de l’évaluation
dénuée de sens, mais pas question d’y mettre fin. Quel responsable
d’université prendrait la responsabilité de sortir du jeu ?
Les justifications avancées par les autorités politiques et universitaires
pour introduire les nouvelles logiques d’évaluation sont diverses et
généralement de bon aloi. On invoque pêle-mêle le « droit de savoir
ce qu’on fait avec l’argent public », l’exigence normative de « rendre des
comptes », la norme de la transparence, la nécessité de disposer d’une
vision d’ensemble et d’indicateurs de la recherche pour mieux piloter
l’institution universitaire, l’utilité d’identifier des « pôles d’excellence »,
l’importance de développer un « contrôle de qualité », la nécessité de
reconnaître le mérite sur des bases plus objectives, l’utilité d’amener les
équipes de recherche à s’engager dans le « cercle vertueux de l’éva-
luation », l’existence de poches de sous-productivité au sein du système
universitaire, en clair de professeurs/chercheurs trop peu productifs,
et donc la nécessité de mettre en place des moyens de pression pour
accroître leur contribution et garantir l’équité.
On pourrait certes épiloguer sur ces différentes motivations : toute
subvention publique donne-t-elle lieu à un « droit de savoir » ? Quelles
sont les limites de la transparence ? Qu’est-ce au juste que le mérite et
l’équité ? Qu’appelle-t-on sous-productivité ? Dans les limites de cette
contribution, je tiendrai cependant ces motivations pour légitimes a
priori. À mes yeux, la question est moins celle de l’évaluation comme
mode de gestion que celle de ses modalités effectives et de sa mise en
œuvre, celle de l’ambiguïté des finalités poursuivies, celle des effets
inattendus, potentiellement négatifs, celles des conditions effectives
d’un « cercle vertueux de l’évaluation » en milieu académique.
3Dans la suite, j’esquisse donc une analyse critique des processus
d’évaluation de la recherche universitaire en Belgique francophone ;
3 Cette analyse critique fait écho à divers ouvrages sur la question et
par exemple : AB c., s G B., W F e. & t F J.-P. (2007),
De la destruction du savoir en temps de paix, Paris, Mille et une nuits ;
B D P. (1997), Quelques diagnostics et remèdes urgents pour une
université en péril, Liber, coll. raisons d’agir ; B A W. & sA AG D.-c.
(2002), Counting out the Scholars. How Performance Indicators Under-
mine Universities and Colleges, t oronto, Caut Series ; J D P. (éd.) (2007),
Université : la grande illusion, Paris, L’esprit des péninsules ; WA .
(2008), L’éclipse du savoir, Paris, Broché. voir aussi le n° 37/2009 de la
revue Cités consacré au thème « L’idéologie de l’évaluation. La grande
imposture » et le n° 28/2009 de la Revue du MAUSS : « Penser la crise de
l’école. Perspectives anti-utilitaristes ». voir enfin le n° 100/2008 du Bul-
letin de méthodologie sociologique intitulé : « Fièvre européenne d’éva-
17
rettrleorouooeenvrunerneusrluteeieruussetoenjeux
j’approche préférentiellement ma lanterne des effets potentiellement
pervers de l’évaluation, ce qui n’implique nullement que je dénie toute
vertu aux dispositifs qui sont mis en place. il reste qu’en l’absence
d’une étude empirique rigoureuse et extensive, les développements qui
suivent conservent un caractère hypothétique, ils relèvent du témoi-
4gnage d’un académique impliqué plus que d’un savoir stabilisé et ils
appellent sans conteste le lancement d’une étude systématique sur les
réactions et stratégies d’adaptation des académiques aux nouvelles
règles du jeu.
2. L’ambiguïté des discours stratégiques
L’évaluation de la recherche et de l’enseignement est au cœur d’une
stratégie émergente de nos universités belges francophones, une stra-
tégie essentiellement mimétique, dictée/légitimée par la volonté poli-
tique et universitaire de rationaliser l’allocation des ressources afin
d’assurer une équité interne dans un contexte de rareté des ressources
et, plus fondamentalement, de renforcer la « performance » universitaire
au regard de la compétition internationale. Cette dernière est directe-
ment liée à un double processus : a) de formalisation des indicateurs
de performance, eux-mêmes liés aux nouvelles technologies de l’in-
formation (bibliométrie, classement des revues) ; b) d’externalisation
de l’évaluation via des instances multiples (depuis l’agence pour
l’évaluation de la qualité jusqu’aux agences d’accréditation comme
l’eFMD en passant par le Financial Time, le classement de Shanghai,
etc.) et, plus généralement, via le recours à des experts étrangers. Ce
double processus est « à la fois une condition de possibilité et une
conséquence de la compétition » : la formalisation des indicateurs per-
met la comparaison internationale et celle-ci, en retour, pousse à un
surcroît de formalisation ; l’externalisation de l’évaluation permet d’as-
surer l’objectivité de la compétition et la compétition tend à renforcer
luation de la recherche dans les sciences sociales », en particulier les
contributions d’Yves Gingras et de Laurence Coutrot consacrées à la
critique de la bibliométrie.
4 Je m’appuie sur une longue expérience de la gestion universitaire et de
l’évaluation : commissions scientifiques, commission du FNrS, commis-
sions de recrutement et de promotion, évaluation eQUiS d’une école de
gestion, participation à l’évaluation d’autres institutions, participation à
une campagne d’évaluation de la recherche, coprésidence d’un comité de
pilotage relatif à la mise en place d’un erP au sein d’une université, etc.
18Les enjeux de l’évaluation
le pouvoir des instances d’évaluation externes (les responsables s’ap-
puyant parfois sur ces instances pour faire passer les réformes en
interne). remarquons au passage ce glissement de la comparaison à
la compétition, « comme si la compétition découlait naturellement de
la comparaison ».
Désormais inscrites dans cet univers, les universités belges cherchent
comme les autres à améliorer leur classement ou du moins à éviter la
régression. Sommées par le marché et par les pouvoirs publics d’ac-
croître leur « performance », elles se lancent par conséquent dans des
stratégies d’évaluation.
Cependant, l’objectivation des résultats inhérente à l’évaluation
heurte de plein fouet l’ambiguïté constitutive de l’université dans la
poursuite de ses trois missions et que chaque académique, au nom de
la liberté académique, absorbait jusqu’ici à son niveau en fonction de
ses préférences et de ses compétences. Les politiques d’évaluation de
la recherche universitaire sont marquées en profondeur par cette
ambiguïté première. « Nous disposerons de tableaux de bord » : et pour
quoi faire au juste ? en quoi cette évaluation, « telle qu’elle est conçue »,
est-elle susceptible de soutenir l’université dans l’accomplissement de
ses missions ? et quel arbitrage entre les trois missions ? veut-on plus
d’étudiants ou de meilleurs étudiants ? L’université doit-elle former des
chercheurs ou des professionnels ? Faut-il privilégier la recherche fon-
damentale ou la recherche appliquée ? entre l’inscription dans des
réseaux scientifiques anglo-saxons, la contribution au développement
social, culturel et économique de la communauté, l’ouverture aux uni-
versités du Sud, quel ordre de priorités ? a ucune autorité universitaire
ne prendrait le risque de répondre précisément à ce genre de questions.
Du coup, c’est toute la stratégie qui se trouve frappée d’une incerti-
tude fondamentale. Faute d’une clarification des finalités, l’évaluation
semble alors devenir une finalité en soi, un accomplissement dont les
autorités académiques peuvent se prévaloir indépendamment de
5toute valeur ajoutée clairement mesurable : il faut évaluer parce qu’il
faut évaluer.
5 Pour une vision panoramique et compréhensive des démarches d’éva-
luation à l’université, voir F A D., M D J.-c. & P A F. (2009),
L’évaluation des chercheurs en questions, 1992-2009, Montréal, Presses
internationales Polytechnique.
19
llnoixzeriiosenjeux
3. Le décalage entre la stratégie et le système
L’efficience d’un dispositif d’évaluation suppose que celle-ci soit sui-
vie d’effets : aménagement de la fonction, accélération ou redéfinition
de la carrière, gratifications financières, modification de la charge (par
exemple réduction de la charge d’enseignement au profit de la recher-
che), sanctions en cas de sous-performance manifeste, restructuration
des équipes, etc. De nombreuses recherches en gestion, en économie,
en sociologie des organisations, en psychologie du travail, en sciences
de l’éducation convergent vers cette évidence : l’évaluation n’est pas
un processus indépendant, isolé des contextes de travail et d’organi-
sation ; son impact dépend directement de logiques institutionnelles
plus générales. en d’autres termes, l’implantation d’un tel système sup-
pose d’adapter la gestion des ressources humaines. On se fut attendu
à ce que les universités dépassent le simple mimétisme institutionnel
(« les autres le font ») et qu’elles en profitent pour mettre en question
leur propre fonctionnement.
Or, il est frappant d’observer qu’au nom de l’urgence et de la spécifi-
cité de l’université, les responsables ont choisi pour l’essentiel de se
centrer sur la « conception » des dispositifs d’évaluation en négligeant
la question plus générale de l’« intégration » de ces dispositifs au sein
des systèmes de gestion des ressources humaines : organigramme, rôle
de l’encadrement, plans de charge, allocation des ressources humaines
et financières, articulation des trois missions, gestion de carrière. L’éva-
luation semble souvent se surimposer à des logiques administratives
qu’il est très difficile de remettre en cause pour des raisons politiques
et/ou réglementaires (difficulté de recruter des professeurs étrangers,
absence d’incitants financiers, faible mobilité des ressources humaines,
rigidité dans l’attribution des charges d’enseignement, etc.). Les acteurs
universitaires font donc l’expérience « d’une contradiction croissante
entre la stratégie et le système ». Les valeurs de méritocratie, de moti-
vation, de mobilité, de performance qui inspirent les politiques d’éva-
luation entrent en conflit avec les contraintes fondamentales de
l’administration universitaire et les équipes qui font l’objet d’une éva-
luation par des experts étrangers sont souvent conduites à un hausse-
ment d’épaules résigné : « vos critiques sont justifiées, disent-ils en
substance aux évaluateurs, mais nous n’y pouvons rien. Chez nous,
c’est comme cela que ça fonctionne. » Dans ce cas, l’évaluation produit
effectivement un surcroît de réflexion critique, mais aussi un senti-
ment d’impuissance. Le scepticisme règne en particulier sur : a) sur les
20Les enjeux de l’évaluation
ressources de pouvoir et de réflexion du sommet stratégique nécessai-
res à la mise en œuvre des réformes ; b) sur la capacité de l’adminis-
tration de s’adapter aux nouvelles règles ; c) sur les moyens financiers
disponibles. en conséquence, le discours stratégique accuse un défi-
cit de légitimité. Même lorsqu’ils souscrivent à l’évaluation, les aca-
démiques restent sceptiques sur la capacité du système universitaire
d’opérer les réformes nécessaires à sa « modernisation réflexive ».
4. Les déficiences de la bibliométrie
L’efficience d’un système d’évaluation dépend directement de la
légitimité perçue des critères de mesure de la performance. Or, les
problèmes posés par la bibliométrie dans les sciences sociales et
humaines (et d’ailleurs dans les sciences en général) font désormais
6l’objet d’une littérature abondante . Je me bornerai à en mentionner
quelques-uns : la tendance à restreindre l’évaluation à ce qui est quan-
tifiable ; la négligence du contenu des articles, la quantité tendant à
remplacer la qualité ; la dépendance au marché de l’édition (un article
de vingt pages au contenu banal publié dans une revue classée pèse
plus lourd qu’une thèse de cinq cents pages, assortie d’un rapport de
thèse élogieux, mais en quête d’un éditeur) ; l’inflation des articles,
donc une redondance généralisée ; l’incohérence des classements de
revues ; l’hyperspécialisation des articles, donc la pénalisation des
perspectives interdisciplinaires ; la primauté de la méthodologie sur
l’innovation théorique ; les stratégies de réseaux et de citations ; le
privilège exorbitant accordé à l’anglais et à la culture anglo-saxonne ;
la mise au ban de la « grande théorie » et la remise en cause du livre
comme véhicule légitime de la connaissance (au point que des jeunes
collègues hésitent à se lancer dans la rédaction d’un ouvrage !) ; l’ex-
clusion de revues non classées et des réseaux scientifiques liés à ces
revues ; le formatage de la recherche (toute pensée doit désormais se
déployer en quinze ou vingt pages, dont au moins cinq de métho-
6 voir par exemple : G G A Y. (2008), La fièvre de l’évaluation de la recher-
che. Du mauvais usage de faux indicateurs, note de recherche. Disponible
sur internet : http://www.cirst.uqam.ca/Portals/0/docs/note_rech/2008_05.
pdf ; AD n. & HA G A.W. (2009), « When Knowledge Wins : t rans-
cending the Sense and Nonsense of academic rankings », The Academy
of Management Learning & Education, 8 (1), pp. 72-95 ; GA A . (2009),
La science à bout de souffle ? Paris, Seuil.
21
llseensrnlirzitrenjeux
dologie, dans un « format scientifique ») ; la pénalisation des travaux
d’érudition, des études qualitatives, des monographies, des analyses
critiques, de la recherche appliquée et de la recherche-action ; l’inci-
tation croissante, pour les doctorants en SSH, de remplacer la « grande
thèse » par une collection d’articles plus « rentables » ; la pénalisation
de certains domaines de recherche (comment faire une analyse com-
parée d’institutions politiques en vingt pages ?).
Ces déficiences, et bien d’autres, la plupart des chercheurs les con-
naissent bien, elles conduisent à affaiblir à leurs yeux la légitimité des
nouveaux dispositifs d’évaluation qui, à leurs yeux, ne produisent au
mieux qu’une formalisation trompeuse et très partielle de leur activité
de recherche.
La pression en faveur d’une performance quantifiée en matière de
7recherche universitaire semble avant tout générée par les rankings . Si
les classements internationaux s’étaient centrés sur la qualité et la
diversité des programmes d’enseignement, la professionnalisation des
étudiants ou la contribution des universités au développement écono-
mique et social, nul doute qu’on eût assisté à d’autres positionnements
stratégiques – qu’on peut parfois observer dans les business schools
qui sont exposées à des contraintes spécifiques en matière d’accrédi-
tation (existence de programmes de MBa et d’Executive Education,
relations avec le monde de l’entreprise, présence de cours d’éthique
et de responsabilité sociale de etc.).
Pour autant, les critères bibliométriques n’en continuent pas moins de
se généraliser, conditionnant la carrière des académiques – et d’abord
celle des assistants – et leur accès au financement. D’où vient leur
force ? Quelques pistes : la validité a priori du chiffre par rapport aux
arguments de contenu, son semblant d’objectivité, mais aussi l’éco-
nomie de temps qu’il autorise, son utilité dans les décisions d’alloca-
tion des ressources, la réduction de la charge de concertation et de
négociation liée à l’usage de critères impersonnels, le fait que ces indi-
cateurs se prêtent aisément à des comparaisons entre équipes, l’im-
pression qu’ils permettent un surcroît de rationalité dans la gestion
universitaire, et sans doute plus décisivement, le pouvoir des instan-
ces d’évaluation externes. il reste que les partisans de la compétition
bibliométrique restent une minorité : à tort ou à raison, la majorité des
collègues se refusent à confondre l’« excellence scientifique » (en par-
7 voir notamment : v A AA A. (2005), « Fatal attraction : Conceptual and
Methodological Problems in the ranking of Universities by Bibliometric
Methods », Scientometrics, 62 (1), pp. 133-143.
22
nrnLes enjeux de l’évaluation
ticulier la profondeur et la créativité théoriques) et la « productivité
scientifique » exprimée en termes bibliométriques.
5. L’externalisation de l’évaluation
Bien sûr, l’efficience d’un système d’évaluation dépend aussi de la
qualité et de l’impartialité des évaluateurs. Le recours à des évalua-
teurs étrangers tend aujourd’hui à devenir la norme. il est accepté
comme une évidence que les évaluateurs étrangers sont plus compé-
tents et plus indépendants, davantage susceptibles de jeter un regard
objectif, dénué de préjugés, sur nos institutions. Le changement est
8fondamental , il s’observe au sein des universités comme au Fonds
National de la recherche Scientifique (FNrS) : à la logique de la contro-
verse fondée sur des échanges argumentés entre collègues telle qu’on
pouvait l’observer dans les commissions scientifiques tend à se substi-
tuer le jugement plus impartial d’évaluateurs extérieurs. Ce changement
remarquable procède d’une sorte de désaveu implicite : il suggère que
lesdits collègues étaient incapables de s’abstraire de leurs positions
d’intérêt (ce qui fut parfois vrai). il procède aussi d’une conception
plus individualiste – et quelque peu démodée – de la rationalité selon
laquelle la « bonne décision » émane d’un cerveau impartial plutôt
que d’un dialogue argumenté entre parties prenantes.
Or, cette externalisation systématique de l’évaluation entraîne une
série d’inconvénients qui sont souvent passés sous silence. et d’abord
un coût financier : les évaluations coûtent cher, il s’agit d’amener des
professeurs étrangers à délaisser pour un temps leurs propres recher-
ches pour se consacrer à l’évaluation de la recherche des autres, de
leur payer les frais de voyage, de logement, de restauration, etc. pour
ne pas parler des structures internes aux universités qui sont mises en
place pour coordonner ces évaluations et du temps investi dans la
confection des rapports. t outes les universités se mettant progressive-
ment au diapason, la charge d’évaluation réciproque est en passe de
grandir spectaculairement au sein des communautés scientifiques avec
pour conséquence possible qu’il va devenir difficile de trouver des
experts motivés et compétents, prêts à consacrer des journées entières
8 D D n. (2009), « Penser un régime d’évaluation de la recherche scien-
tifique ». Disponible sur internet : http://evaluation.hypotheses.org/files/
2009/05/dodier-regime-devaluation.pdf
23
reioenjeux
à la lecture de rapports souvent fastidieux. et l’on constate malheureu-
sement que « certains » évaluateurs, lors de leur visite, n’ont fait que
survoler les dossiers, se sont arrêtés sur quelques éléments saillants
sans prendre la peine d’entrer dans les contenus des projets de recher-
che ou des publications. Le surcroît d’impartialité se paie parfois par
une superficialité du jugement, donc par une moindre qualité. il se
paie aussi par une « décontextualisation » relative : les experts exté-
rieurs manquent de la connaissance intime de l’institution, ils sont
invités à se prononcer sur des dossiers de chercheurs ou sur la produc-
tion d’une équipe de recherche « en faisant abstraction des contextes
réels », c’est-à-dire indépendamment des charges assumées par ailleurs
par les candidats, de leurs mérites propres, des contraintes exercées
par leur institution, des mécanismes effectifs d’incitation à la recher-
che, de la possibilité de recruter, de récompenser, de licencier, etc. et
comment éviter que les experts étrangers ne fondent spontanément
leurs jugements sur les pratiques en usage dans leur institution, sur les
préconceptions propres à leur champ disciplinaire, sur leurs orienta-
tions théoriques et méthodologiques, au risque de jugements biaisés ?
9il existe une littérature imposante sur les biais dans l’évaluation . Que
signifie par exemple, pour un jeune candidat au FNrS, l’indication
des grades obtenus et de son classement dans sa promotion indépen-
damment de l’exigence effective du programme qu’il a suivi et de son
mérite propre (le fait, par exemple, qu’il a dû travailler pour payer ses
études) ? Comment faire valoir dans un dossier de candidature un
mémoire de fin d’études exceptionnel, signe d’un véritable potentiel
de chercheur, s’il se combine avec des notes moyennes dans d’autres
matières, lesquelles ont pour effet de réduire le grade obtenu et le
classement dans la promotion ? Comment faire valoir ces informations
« s’il n’est pas possible d’argumenter » ? L’objectivation de l’évaluation
se traduit souvent par une réduction du débat argumenté, donc par
une réduction de la complexité. a u FNrS, les candidats-aspirants ne
reçoivent pas la chance d’être auditionnés par le jury pour défendre
leur projet. Des carrières peuvent ainsi se jouer sans que les intéressés
reçoivent le droit de se défendre. On trouve normal qu’un académi-
que consacre plusieurs heures à un étudiant dans le cadre de son
mémoire, anormal d’auditionner un candidat pour un mandat d’aspi-
9 voir par exemple G J. & A D G. (2005), « advantages and Dangers
of “remote” Peer evaluation », Research Evaluation, 14 (3), pp. 186-198 ;
o H M. & F Y B.-s. (2009), « research Governance in academia :
are there alternatives to academic rankings ? », CES IFO Working Paper,
2797.
24
olreäletesrrselulLes enjeux de l’évaluation
rant de quatre ans. S’avise-t-on que l’impersonnalité et le formalisme
10sont quelquefois le contraire de l’objectivité ? et faut-il rappeler que,
dans l’entreprise et l’administration, l’évaluation des performances ne
11se conçoit pas sans un dialogue avec l’intéressé ?
il n’est certes pas question de nier l’intérêt d’un recours au jugement
des évaluateurs étrangers, seulement d’en souligner les limitations. Pour
autant que les avis qu’ils formulent représentent un élément d’appré-
ciation dans un débat plus large, respectueux des contextes réels de
la recherche, ce recours est susceptible d’apporter une valeur ajoutée ;
s’il sert à faire l’économie de ce débat, alors on doit s’attendre à des
effets pervers. On peut le dire autrement : ce qu’un expert étranger peut
apporter de plus précieux, c’est la connaissance intime qu’il a d’un
« autre » système que le nôtre ; si, donc, sa contribution apporte un sur-
croît de « diversité » dans les arguments qui fondent la décision, elle
est incontestablement fort utile ; si elle conduit au contraire à « réduire »
cette diversité, alors on peut sans doute légitimement parler d’un exem-
ple d’effet pervers comme l’analysent depuis plus de soixante ans les
théoriciens de la bureaucratie.
6. Une question difficile :
sur quoi porte l’évaluation ?
L’efficience d’un système d’évaluation suppose bien sûr de clarifier
l’objet même de l’évaluation, le quoi et le qui. Qu’est-ce qui est éva-
lué précisément ? Les publications seules ? Ou l’activité de recherche
plus générale, laquelle inclut les colloques, séminaires, contrats de
recherche appliquée, encadrement de doctorats, etc. ? et dans les
publications : le nombre d’articles et le niveau de la revue ou bien le
contenu des articles, leur diversité, leur portée théorique ? Qu’est-ce
qui, par suite, n’est « pas » évalué ? il est dommage que cette dernière
question soit négligée alors que les études montrent que les critères,
qui font l’objet d’une évaluation explicite, tendent à devenir des foyers
d’attention prioritaires au détriment des dimensions du travail qui
10 c B. & lAM M. (2009), « Les conditions de l’évaluation universi-
taire ». Disponible sur internet : http://www.mouvements.info/Les-conditions-
de-l-evaluation.html
11 Pour une synthèse utile sur cette question, voir A B n. (éd.) (1996),
Diriger et motiver, Paris, éd. d’Organisation, en particulier le chapitre 6.
25
eutiutnsronoenjeux
peuvent échapper à l’évaluation – par exemple l’originalité théorique
des articles, l’utilité des connaissances produites pour les profession-
nels du domaine, leur contribution au progrès social et économique,
leur potentiel de fécondation des enseignements ou encore la maîtrise
qu’ils attestent des grands auteurs de la discipline.
a utre question tout aussi délicate : qui est évalué ? Les équipes ou les
chercheurs individuels ? actuellement, l’évaluation des de
recherche tend à s’ajouter à l’évaluation des individus. Mais qu’est-ce
au juste qu’une équipe de recherche ? Un groupe abstrait ou un groupe
concret ? Une simple collection de chercheurs ou une équipe au sens
propre du terme, c’est-à-dire un groupe dont les membres interagissent
entre eux et dont l’output est clairement collectif ? Évaluer un groupe
abstrait n’a guère plus d’utilité motivationnelle que si on additionnait
les notes individuelles des étudiants aux examens pour leur donner
une note collective. Certaines équipes ne se forment qu’à l’occasion
de l’évaluation pour se défaire tout aussitôt. a utant les regroupements
peuvent se justifier au plan organisationnel (partage de ressources,
inscription dans une hiérarchie, économies d’échelles), autant ils peu-
vent devenir artificiels en matière d’évaluation de la recherche. il est
important de lever le flou conceptuel qui accompagne la course à la
« taille critique ». Le chercheur isolé n’existe plus, aime-t-on à répéter,
la science est devenue une entreprise collective. est-ce toujours le cas
en sciences humaines ? Certains parmi nos professeurs les plus éminents
ont mené leur entreprise quasi solitairement, à l’écart des collègues,
en veillant à se protéger des contraintes de la vie institutionnelle. C’est
du reste cette stratégie de protection qui leur a permis de se consacrer
à la recherche. On le voit, la question de l’évaluation de la recherche
est indissociable de la question de l’organigramme : de la structura-
tion des équipes de recherche et de l’organisation du travail concret.
7. La tension croissante entre les trois missions
en dernière analyse, l’efficience d’un système d’évaluation se mesure
à sa capacité de « générer les bonnes incitations », c’est-à-dire à cana-
liser les ressources d’attention et de réflexion vers l’accomplissement
des missions fondamentales de l’organisation. Une centration trop
exclusive sur l’évaluation de la seule recherche au détriment des autres
dimensions du travail académique (enseignement, formation d’adultes,
gestion interne, coopération au développement, relations internationa-
26Les enjeux de l’évaluation
les, etc.) aura nécessairement pour effet d’affaiblir ces autres dimen-
sions.
De fait, le renforcement de la pression en faveur de la recherche a,
d’ores et déjà, comme conséquence de « renforcer la tension entre les
missions de l’université » et cela d’autant plus que l’intégration des trois n’est clairement assumée ni au niveau central de l’institution
ni au niveau des doyens et des responsables des équipes de recherche.
La simple juxtaposition des recommandations issues de l’évaluation
de la recherche et celles issues de l’évaluation de l’enseignement con-
duit déjà à des contradictions manifestes : les mêmes académiques
sont invités, d’une part, à accroître le nombre de leurs publications
dans des revues classées, attirer plus de doctorants, diriger plus de
thèses, lancer des partenariats internationaux, chasser les contrats de
recherche, et d’autre part, à revoir en profondeur les programmes d’en-
seignement, lancer de nouvelles filières, revoir la pédagogie, passer à
l’anglais afin d’attirer des étudiants belges et étrangers.
Condamnés à opérer eux-mêmes les arbitrages, les jeunes académi-
ques à la poursuite d’un profil international comprennent vite que,
quels que soient les discours institutionnels, la recherche « bibliomé-
trisée » est de très loin le meilleur investissement. ils sont donc poussés
à réduire leur investissement pédagogique en se bornant au minimum
acceptable. L’enseignement est d’ores et déjà vécu par beaucoup
comme une contrainte nécessaire, sinon carrément un obstacle à la
recherche, « c’est-à-dire à la carrière ». il devient fréquent, dans les
recrutements de jeunes professeurs étrangers, de voir des candidats
conditionner leur candidature au plafonnement strict de leur charge
d’enseignement. La conclusion s’impose : la pression en faveur de la
recherche induit une perte relative de légitimité de la mission d’ensei-
gnement. est-ce vraiment l’effet recherché ?
La tension semble encore plus forte avec la troisième mission (gestion
interne, formation continue, coopération au développement, etc.).
Clai rement, la participation à la gestion interne de l’institution s’ap-
parente à une sorte de bénévolat qui, s’il est susceptible de conférer
un petit avantage dans les nominations internes, ne compte à peu près
pour rien dans les carrières internationales. D’où un affaiblissement
tendanciel, déploré par les plus anciens, de la référence à l’institu-
tion.
Quant à la formation continue ou la coopération au développement,
elle n’est que rarement prise en compte dans les décisions de recru-
tement et de promotion. C’est au point qu’on observe un certain
27enjeux
désarroi chez ceux qui, depuis longtemps, se sont projetés dans un rôle
d’universitaire au service de la cité, qui puisaient un sentiment d’uti-
lité dans les missions d’intérêt public qu’ils remplissaient, missions
de conseil et d’expertise, formation continue, aide au développement
régional, coopération au développement, et qui voient leur capital
symbolique s’effondrer sous leurs yeux.
en vain rappellera-t-on que la spécificité même de l’université, c’est
l’articulation de l’enseignement et de la recherche, celle-ci venant
irriguer celui-là. Hormis dans les cours doctoraux, cette articulation
– assurément indispensable – s’apparente souvent à une pétition de
principe. Le gouffre est grandissant entre les aspirations des étudiants
de bachelier et de master et les articles pointus qui sortent dans des
revues hyperspécialisées. et l’on n’observe à ma connaissance aucune
relation empirique entre l’excellence bibliométrique et l’excellence
pédagogique. L’évaluation de la recherche tend à accentuer la contra-
diction structurelle dans laquelle s’engagent les universités aujourd’hui :
des enseignements en voie d’académisation, des étudiants en quête de
professionnalisation.
8. Un faisceau d’injonctions contradictoires
On le voit, les tensions entre les trois missions vont en s’intensifiant.
Le choix d’une université de privilégier la recherche est assurément
légitime, il est même enthousiasmant. Ce qui l’est beaucoup moins,
c’est le refus d’assumer tout arbitrage véritable entre les trois missions,
c’est la tendance à juxtaposer les discours sans jamais assumer la con-
tradiction potentielle (un jour en faveur de la recherche, le deuxième
en faveur de l’enseignement, le troisième en faveur de la participation
à la gestion, le quatrième en faveur de la coopération au développe-
ment, le cinquième en faveur de la formation continue) en laissant
croire qu’il est possible, à corps professoral constant et par la simple
magie de l’évaluation, d’accroître substantiellement le nombre d’arti-
cles publiés dans des revues classées, de thèses de doctorat, de con-
trats de recherche internationaux, sans répercussion marquée sur les
deux autres missions.
Beaucoup de professeurs vivent au quotidien cette expérience sur-
réaliste de voir, jour après jour, leur agenda se remplir avec des tâches
administratives et pédagogiques (préparation de rapports, commis-
sions scientifiques de recrutement ou de promotion, analyse de dos-
28