Abstract

In France, the journals in the various social sciences have been evaluated by committees since the 1950s before getting yearly public grants for their publication. The 1980s witnessed the beginning of a very different process, the ranking of journals along hierarchical categories. It was generalized to the European Union and then to France in 2007-2008. On the contrary, the article argues that only a single list encompassing the scholarly journals, both in France and in Europe, would make sense. It insists on a major dimension of the activities of journals : creating and developing knowledge, which cannot be assessed through unilateral and pre-established categories.

Résumé

Depuis les années 1950 les revues françaises de sciences sociales font l’objet d’évaluations en vue de subventions annuelles. Les années 1980 ont vu le début d’un processus différent, celui d’un classement des revues selon une relation d’ordre. Il s’est généralisé à l’échelle de l’Europe puis de la France en 2007–2008. L’article se prononce, au contraire, pour une liste unique des revues scientifiques à l’échelle française et européenne. Il insiste sur le rô d’animation et de création des revues, qui ne peut être enfermé dans des catégories unilatérales et préétablies.

Une revue n’est rien sans ses lectrices et ses lecteurs. C’est pourquoi il nous est apparu nécessaire de faire connaître à tous ceux qui nous lisent de par le monde dans l’édition papier ou en ligne les graves préoccupations que cause aux revues européennes la multiplication récente des classements de revues de sciences sociales.

Les revues sont par nature à la fois des lieux d’animation d’un champ intellectuel et des instances d’évaluation de la production des auteurs qui interviennent dans ce champ.

Il n’y a donc rien d’étonnant à ce que ces évaluateurs soient à leur tour évalués. Le problème est la manière dont dans les dernières années la signification et les méthodes de leur évaluation ont changé.

Nous analyserons d’abord en France les formes traditionnelles de l’évaluation des revues, destinées à leur venir en aide, ensuite l’irruption d’une autre logique dans une enquête sociologique puis chez les économistes, en troisième lieu la généralisation des classements à toutes les sciences sociales et à l’Europe, enfin les façons dont les revues expliquent aux organismes publics que les classements sont une mauvaise politique.

Pour autant il ne faut pas jeter le bébé avec l’eau du bain. Les détestables classements des revues produits par la Fondation Européenne de la Science puis en France par l’Agence d’Évaluation de la Recherche et de l’Enseignement Supérieur (AERES), classements qui, disons-le tout net, n’ont pas d’équivalent aux États-Unis (voilà donc au moins un domaine où ces deux organismes ont innové !), ne doivent pas couler avec eux la cause de l’évaluation.

Évaluer pour aider

Les revues ont commencé à être évaluées lorsqu’elles ont bénéficié d’une aide de l’État. À partir du début des années 1950 elles ont pu ainsi recevoir une aide du CNRS, sur proposition de la commission correspondante du Comité National de la Recherche Scientifique. Si les évaluateurs sont ainsi connus (une majorité d’élus, une minorité de nommés), les rapports et les critères à la base de l’attribution de l’aide ne sont pas publics. Les aides sont différentes selon les revues. Il y a donc non pas un classement formel, mais une différenciation qui exprime des jugements de valeur. Ce système toujours en vigueur (avec des modifications significatives dans les deux dernières [End Page 5] années) n’a cependant pas été contesté. Certes la subvention, malgré des revalorisations périodiques, représente une part des besoins des revues qui tend à décroître, mais elle reste indispensable et prend le sens d’une reconnaissance de qualité.

Ce premier système a été complété à partir du début des années 1980 par l’attribution à nombre de revues d’une deuxième aide par le Centre National du Livre (CNL), organisme du ministère de la Culture. Conçue par un directeur du Livre qui était lui-même universitaire (Jean Gattégno), cette aide est d’un montant généralement supérieur à celle du CNRS. Chaque demande fait l’objet d’une décision d’une Commission des revues, dont les membres sont tous nommés par le directeur du CNL en respectant des critères de pluralisme et de compétence. Les rapports sur les revues et les montants attribués ne sont pas publics.

Les revues évaluées positivement par le CNL – donc pas toutes les revues – ont ainsi bénéficié de deux aides de source différente, ce qui ne les rendait pas dépendantes à l’égard de l’État. Ces aides ne sont pas seulement allées aux revues existantes, elles ont aussi permis des créations de revues. Elles ont enfin été utiles face à l’érosion du lectorat francophone, devenue sensible dans cette période.

L’irruption d’une autre logique

Ce type initial d’évaluation, modeste dans ses procédures, a commencé à être mis en cause de l’intérieur de la recherche française – donc ni du fait des forces de la mondialisation ni du fait de l’État national – à partir de 1999.

Tout d’abord un professeur de sociologie de l’Université de Toulouse III, Philippe Jeannin, a entrepris, dans le cadre d’une recherche pour le ministère de la Recherche, de constituer des listes « fiables » des périodiques scientifiques par discipline. Il l’a fait de 1999 à 2003 pour le droit, l’information et la communication, les sciences de l’éducation, la sociologie et la démographie, l’économie, la psychologie. « Cela ne signifie pas pour autant que les revues interdisciplinaires sont écartées ». Ce sociologue a croisé les bases de données « qui font autorité » et a demandé, « de façon large, à chaque communauté, et non à quelques experts, ce qu’elle en pense » en vue d’une évaluation « consensuelle, publique, révisable » et « pas hégémonique ». Il a ensuite fait apparaître un classement des revues en A B C : A revues généralistes au cœur de la discipline, B revues spécialisées ou régionales, ou revues au cœur d’une autre discipline, C revues de débat social ou de valorisation. L’objectif poursuivi par P. Jeannin dans ce qu’il appelle une « revuemétrie » est alors d’ « aider les chercheurs, crédibiliser chaque communauté, aider les décideurs, valoriser l’environnement de la recherche » 1.

La perspective est tout autre chez les économistes et les gestionnaires en 2003. « Sentant le danger de voir la direction [générale du CNRS] promouvoir des critères d’évaluation [des personnes] trop simples », la commission 37 du Comité National – économie et gestion – a « voulu énoncer ses propres critères d’évaluation » 2, en établissant un classement des revues jugées par elle comme relevant de son champ. Elle a ainsi inclus une partie des revues d’histoire et de sociologie. Le but était d’avoir des bases de référence objectives et partagées, de briser l’opacité, parfois même de [End Page 6] défendre les « minorités ». On retrouve ici une tendance de très longue durée, à l’œuvre en Europe depuis la fin du XVIIIe siècle, consistant à placer une confiance croissante dans les chiffres pour protéger les organisations des pressions multiples qui s’exercent sur elles 3. Ce classement, on ne le répétera jamais assez, a été fait par une commission à majorité intersyndicale et pourtant sans consultation sérieuse des communautés scientifiques concernées. Il a placé de manière quasi automatique en haut du classement les revues américaines et en dessous la plupart des revues de langue française. Pendant son élaboration, il n’a provoqué que des protestations isolées 4. Connu à partir du début 2004, il a attiré, chez les historiens, l’attention de l’Association française des historiens économistes, qui en a discuté mais n’a pas pris d’initiatives à son propos. Des effets de spirale sont vite apparus. Le classement a eu des effets directs sur les universitaires et les chercheurs, qui ont développé des stratégies individualistes de publication dans des revues anglo-saxonnes, et sur les laboratoires, de plus en plus jugés sur le nombre de publications de leurs membres dans les revues A, si possible anglo-saxonnes. Il est immédiatement devenu la référence pour les recrutements dans les universités par les commissions de spécialistes, dans les concours chercheurs du CNRS et dans les écoles de commerce car des points ont été attribués en fonction du classement des revues où les candidats ont publié leurs travaux.

La commission suivante a entrepris la mise à jour et la révision du classement en modifiant les méthodes d’élaboration. Elle a adressé des lettres de mission à des spécialistes, dont certains ont pu créer fin 2006 des sous-commissions ouvertes à des économistes et gestionnaires qui n’en étaient pas membres. Ces sous-commissions ont lu les revues. Elles en ont consulté les responsables. Les classements concertés qu’elles ont élaborés en février 2007 ont été ensuite soumis à la commission plénière. Là, double surprise : une partie des propositions ont été chamboulées, une revue qui venait de paraître s’est trouvée classée A et après sa publication en novembre 2007 le classement général a été modifié sur quelques points à la suite de démarches discrètes. Le changement de méthodologie – le remplacement d’un classement en étoiles par des catégories, longuement commenté dans le préambule – interdit en principe la comparaison des deux classements (2004 et 2007). Néanmoins le nombre de catégories 2007 étant égal au nombre d’étoiles 2004, un esprit malicieux ne manquera pas de trouver l’algorithme de transformation, dont le seul piège est que les catégories descendent quand les étoiles montent.

La généralisation du classement à toutes les sciences sociales et au monde

Là dessus est arrivé, fin 2007, le classement de la Fondation Européenne de la Science, le European Reference Index for Humanities (ERIH) 5. Il reflète la préoccupation des organismes nationaux de la recherche publique qui administrent cette fondation, dont le CNRS, la Deutsche Forschungsgesellschaft (DFG), l’Economic and [End Page 7]

Tableau 1. Citations des revues d’histoire selon l’ISI et classement de l’ERIH Tableau réalisé par Christoph Conrad pour le Comité éditorial du Mouvement Social. [End Page 8]
Click for larger view
View full resolution
Tableau 1.

Citations des revues d’histoire selon l’ISI et classement de l’ERIH

Tableau réalisé par Christoph Conrad pour le Comité éditorial du Mouvement Social. [End Page 8]

Social Research Council (ESRC). Ce sont tous des organismes publics qui versent des crédits aux équipes de recherche. En 2001 leurs dirigeants – une bureaucratie scientifique composée d’universitaires et de chercheurs appartenant en majorité aux sciences dures – ont voulu répondre aux incertitudes troublantes lorsqu’il s’agit d’attribuer des crédits de contrats européens de sciences sociales en harmonisant au moins un des repères : les publications d’articles dans les revues de sciences sociales, univers jugé par eux plus incertain que celui des sciences dures. Les structures de la Fondation ont inventé un mode de classement qui ressemble beaucoup à celui de la section 37 du CNRS. Dans chaque discipline un comité d’évaluation a été désigné en 2005 ou 2006. Il a fait son classement dans son coin. Sa composition a été rendue publique en même temps que les résultats de son activité. Voici par exemple le petit comité – uniquement masculin, soit dit en passant – qui a opéré pour plus de 1500 revues d’histoire.

Simon Mercieca (président), Université de Malte

Richard Aldous, University College Dublin

Tønnes Bekker-Nielsen, Syddansk Universitet, Odense

Dusan Kovac, Académie des Sciences de Slovaquie, Bratislava

John Morrill, Université de Cambridge

Jan Luiten van Zanden, Institut International d’Histoire Sociale, Amsterdam

On retiendra ici une procédure totalement opaque, où en général les francophones sont très peu représentés et sur la qualité de laquelle on peut s’interroger au vu de deux éléments : l’ERIH prétend par exemple qu’il y a en ce moment 2 revues différentes, les Annales HSS et les Annales ESC, et leur attribue deux classements différents ; les revues de langue anglaise, notamment américaines, ont en moyenne des classements supérieurs à ceux de leurs homologues d’autres langues, et prennent les meilleures places, ce qui bloque largement la catégorie A, conçue a priori comme ne devant pas dépasser 20 % du total (relevons en passant que les entreprises privées qui évaluent les « hauts potentiels » ne décident jamais à l’avance le pourcentage de gens qui sont excellents). Les classements ont beau se prévaloir officiellement de la bibliométrie et des facteurs d’impact, les réseaux et les représentations de leurs membres y ont de toute évidence une part certaine.

On pouvait cependant faire encore moins bien. Le record d’opacité a été atteint par l’Agence d’Évaluation de la Recherche et de l’Enseignement Supérieur, créée par l’État français par décret du 3 novembre 2006 et opérationnelle depuis mars 2007. Celle-ci n’avait jamais annoncé qu’elle entendait classer les revues ni a fortiori [End Page 9]

Tableau 2. Classement de quelques revues françaises par l’ERIH (European Reference Index for the Humanities, ESF) et l’AERES Tableau réalisé par Christoph Conrad pour le Comité éditorial du Mouvement Social. [End Page 10]
Click for larger view
View full resolution
Tableau 2.

Classement de quelques revues françaises par l’ERIH (European Reference Index for the Humanities, ESF) et l’AERES

Tableau réalisé par Christoph Conrad pour le Comité éditorial du Mouvement Social. [End Page 10]

à quelle fin. Le 28 juillet 2008, en pleine période de vacances, elle a publié sur son site Internet le classement de 6000 revues du monde entier dans différentes disciplines du domaine des sciences humaines et sociales. Cet exercice est ainsi d’une arrogance totale (redisons-le, il n’y a pas de classement de ce type aux États-Unis). Il prête aussi le flanc à la critique en l’absence d’énonciation de ses sources et ses méthodes. Il n’y a même pas les critères, certes contestables, du classement annuel des universités fait par l’Université de Shanghaï. L’agence se borne à énoncer que « la liste constitue une aide à l’évaluation de la production des unités de recherche, au sein des comités organisés par l’AERES. Dans l’ensemble, la classification A, B, C correspond à l’étendue du rayonnement des revues ». Le cadre disciplinaire retenu explique le mauvais parti fait aux revues pluridisciplinaires, telles Genèses ou Diasporas. Quand on regarde les revues d’une discipline comme l’histoire, il ne faut pas être grand clerc pour reconnaître la reprise pour l’essentiel du classement ERIH et, à l’occasion, l’ombre du classement de la commission 37.

Les effets pervers de ces classements sur l’orientation des revues, sur le choix des lieux de publication par les jeunes chercheurs comme par les auteurs établis, sur les attributions de bourses, de contrats et de prix, sur les nouvelles revues, sur les revues électroniques ou sur la pluridisciplinarité sont prévisibles.

En outre, des chercheurs ont pu effectuer des comparaisons entre le classement de l’AERES et celui de l’ERIH qui l’a précédé.

Il n’est pas seulement apparu des effets de nationalisme dans les listes de l’AERES. Pour la sociologie-démographie et la science politique, des études ont comparé les listes de l’enquête de P. Jeannin en 2001–2002, de l’ERIH et de l’AERES. La comparaison en termes de sérieux et de qualité ne tourne pas à l’avantage de l’AERES 6. Pour les sciences religieuses et la théologie (catégorie de l’ERIH), on peut ainsi s’apercevoir que les listes de l’AERES comprennent des revues auxquelles n’est pas attribuée une lettre (2) ainsi que des revues qui sont citées deux ou trois fois (58), et parfois avec une évaluation différente, ce qui aura des conséquences importantes sur les évaluateurs comme sur les évalués. Les experts ont ainsi commis 80 erreurs 7. La catégorie C est définie par l’ERIH comme comprenant « des revues de recherche avec une signification locale-régionale importante en Europe, parfois citées hors du pays d’origine quoique le lectorat visé principalement soit dans la communauté académique du pays ». Au contraire, le classement AERES a fait de C une catégorie inférieure.

Les protestations des revues et les réponses des autorités

Devant cet ensemble de faits accomplis, qui ne ressemblent en rien aux pratiques d’étalonnage ou de parangonnage 8 en honneur dans les entreprises, plusieurs positions sont possibles pour les revues. On a vu en Europe des revues faire appel du classement qui leur était attribué, voire demander à sortir du classement ERIH. La British Academy, la plus respectée des sociétés savantes britanniques et qui n’est nullement [End Page 11] suspecte d’euroscepticisme, a élaboré une vigoureuse critique des méthodes suivies par l’ERIH et a déclaré que le travail de celle-ci n’est, globalement, pas fiable 9. Une revue allemande d’histoire sociale qui cherche à impulser le débat au sein de la profession historienne, WerkstattGeschichte, a proposé aux responsables du congrès biennal des historiens allemands, le Historikertag, d’organiser une session rassemblant une partie des revues allemandes d’histoire et des représentants des organismes publics de recherche sur les manières d’« assurer la qualité » des revues. Cette proposition a été acceptée et la session s’est tenue au cours du congrès de Dresde le 2 octobre 2008 10. Le point de vue général a été que le classement de l’ERIH pose trois problèmes : il ne s’intéresse pas à ce qui devrait être son objet, le travail concret des revues dans la sélection et la mise en forme des articles qui leur sont soumis ainsi que dans la prospection d’articles qu’elles sollicitent ; il ne s’appuie pas sur une bibliométrie satisfaisante tenant compte de la diversité des langues et revues européennes ; il n’apporte pas l’évaluation dont les revues et leurs bailleurs de fonds auraient besoin. L’accord s’est fait en séance sur une démarche des sociétés savantes et des revues auprès des organismes nationaux de recherche de manière à obtenir une révision fondamentale des bases et de la nature de l’ERIH.

En France, nombre de revues ont adressé des remarques critiques à l’AERES sur le bien-fondé du classement publié. Certains universitaires sont allés plus loin : une pétition a été lancée « pour le retrait complet et définitif » de la liste des revues de l’AERES.

L’AERES dès lors a été obligée de répondre aux critiques venues de tous côtés. Elle s’est d’abord exprimée par des déclarations à l’agence de presse éducation-formation (AEF) le 13 octobre 2008 11.

D’une part, elle a dévoilé a posteriori ses méthodes. Celles-ci se révèlent faites de bric et de broc. L’agence s’est « fondée sur […] les listes de l’ERIH, essentiellement anglophones ». Puis celles-ci ont été « retravaillées », soit grâce aux « listes constituées par le CNRS, quand elles existaient » 12 soit, « à partir du printemps 2008 », dans le cadre de « commissions composées de présidents de sections du CNU ou du CoNRS 13, de délégués scientifiques adjoints du CNRS 14, de délégués scientifiques de l’AERES, et enfin de présidents de comités de visite ». Le nouveau délégué scientifique coordinateur pour les SHS, Patrice Bourdelais, a précisé donc dans cette logique : « Cela a été plus compliqué lorsque rien n’était disponible, c’est pourquoi il n’existe pas encore de classement de revues pour certaines disciplines ».

Le président de l’AERES, le médecin Jean-François Dhainaut, a annoncé que l’année universitaire 2008–2009 va « servir à dialoguer pour parvenir à un classement le plus consensuel possible des revues en sciences humaines et sociales ». Deux cas de figure sont désormais distingués par l’Agence. Dans les disciplines sur lesquelles elle a publié « un premier classement », des « comités d’actualisation » seront mis en place pour « suivre l’évolution des revues et faire des reclassements ». Ils comprendront « 10 à 12 membres : représentants du CNU [Conseil National des Universités], [End Page 12] des sections du CNRS [Comité National de la Recherche Scientifique], de l’IUF [Institut Universitaire de France], personnalités qualifiées étrangères » en recherchant « l’équilibre des différents secteurs thématiques ou méthodologiques ». Dans les autres disciplines, c’est-à-dire le droit et l’ensemble « lettres, civilisation et arts », des listes doivent être élaborées avant juin prochain. Ces déclarations laissent entière la question de l’utilisation de tels classements dans les recrutements et les promotions, ainsi que dans les subventions des revues, et de leurs effets de normalisation sur les revues comme sur les individus et les équipes.

Fin septembre, notre revue Le Mouvement Social a pris l’initiative de proposer une réunion des revues de sciences sociales françaises. Cette réunion, co-organisée avec Actes de la recherche en sciences sociales, les Annales HSS, Clio, Genèses, Politix et la Revue d’histoire moderne et contemporaine, s’est tenue à Paris le 4 décembre. La position que notre Comité éditorial avait prise le 22 novembre en faveur d’une liste unique pluridisciplinaire et sans classement des revues effectivement scientifiques de sciences sociales 15 a aussi été celle du plus grand nombre des revues participantes. Le représentant de l’AERES qui était présent a indiqué que la position de l’agence était en train d’évoluer vers une « liste complète », mais sans véritablement prendre position sur l’abandon d’une catégorie C 16.

Conclusion

Revenons pour conclure sur le fond. À quoi bon un classement ? Pour Pierre Glorieux, physicien, président de la section des unités de recherche de l’AERES, « nous voulons d’abord faire connaître les bonnes pratiques aux revues françaises, notamment en montrant qu’au niveau international il existe des pratiques communes et que les SHS ne sont pas à part ». Ensuite il s’agit « d’inciter les jeunes chercheurs à essayer de publier dans des revues de niveau international » 17. Ces propos traduisent à nouveau l’écart entre la vision des sciences dures et la réalité des SHS. « Faire connaître les bonnes pratiques aux revues françaises » signifie que celles-ci n’en ont pas. Et autant il est important d’encourager les publications d’articles dans des revues étrangères, autant il serait utile que cette agence reconnaisse qu’il existe en France « des revues de niveau international ». Sinon à quoi joue-t-on ? La question n’est donc pas celle d’un classement des revues, fût-il peaufiné, mais d’une évaluation périodique – sans relation d’ordre – de l’ensemble des activités que les revues exercent effectivement, réalisée par des pairs et dans des comités dont les méthodes de travail et les conditions de désignation soient rigoureuses et publiques.

Une autre stratégie serait que les revues impliquées, dans la mesure où elles sont suffisamment nombreuses et dans la mesure où elles incorporent un nombre suffisant de titres prestigieux, s’organisent pour construire leurs propres outils d’évaluation, de façon alternative aux organismes officiels, européens ou nationaux 18.

Quelles qu’en soient les modalités d’organisation, l’évaluation des revues pourra, à terme, combiner des aspects qualitatifs et la prise en compte de la bibliométrie. La [End Page 13] bibliométrie a fait des progrès depuis vingt ans, mais elle pose encore des problèmes en sciences sociales en raison des effets de langue, de l’état des bases de données et des possibles modalités de comptage 19. Le pluralisme qui vient d’apparaître peut conduire à des améliorations : le Web of Science de la firme canadienne Thomson- Reuters va devoir se tenir un peu à carreau à cause de la concurrence croissante de Scopus de Reed-Elsevier 20. Il peut y avoir un bon usage de la bibliométrie. Il peut aussi y en avoir un mauvais usage. Le rapport très ferme publié en juin 2008 par trois associations internationales de mathématiciens et de statisticiens sur les indicateurs bibliométriques actuels ne doit pas être pris comme une disqualification des statistiques en matière d’évaluation ; il s’agit d’une critique sévère de leur utilisation, émise par des professionnels avertis 21. Ils rejoignent ici les chercheurs en gestion, lesquels ont montré que les outils de gestion chiffrés qui se sont développés dans les entreprises et les administrations sont susceptibles d’ avoir deux effets opposés. D’un côté ils peuvent aider les organisations à prendre conscience de problèmes mal connus et ainsi à progresser. D’un autre côté ils assurent nécessairement une réduction du réel. Mais ou bien celle-ci permet des choix pertinents ou bien elle transforme les agents en fournisseurs de données à « des systèmes dont les finalités leur échappent ». Les indicateurs de performance tendent à être vécus par les acteurs comme des normes et de surcroît à engendrer des pratiques en réalité inadéquates mais permettant de tenir les normes et donc d’être bien jugés 22. C’est pourquoi une partie des entreprises et des administrations « ont appris à se méfier de l’usage de critères de gestion sommaires » et à pratiquer des évaluations qui aillent au fond des choses.

Une évaluation qui s’intéresse d’abord au travail que les revues font avec les auteurs comme avec les livres qu’elles recensent et qui utilise une diversité d’ indicateurs de façon complémentaire sans tomber dans la clôture sur les disciplines et en prenant en compte les manières de communiquer de chaque pays est, à notre avis, la voie à suivre, à condition qu’elle ne concentre pas le pouvoir entre les mains d’un petit nombre de personnes et qu’elle accepte l’idée que le milieu scientifique ne saurait se réduire à l’imitation et à la domination, mais peut être un espace de création, de critique et de controverse. [End Page 14]

Patrick Fridenson

Directeur d’études à l’École des Hautes Études en Sciences Sociales, directeur de la revue d’histoire Le Mouvement Social.

Footnotes

1. La problématique et les listes sont accessibles sur www.iut-tarbes.fr/enquete/ .

2. M. Berry, « La recherche saisie par la mesure. Vers des camisoles invisibles ? », in I. Martinez et C. Pouchet (dir.), Mesure(s), Toulouse, Presses de l’Université des Sciences Sociales de Toulouse, 2004.

3. T. M. Porter, Trust in numbers : the pursuit of objectivity in science and public life, Princeton, Princeton University Press, 1995.

4. M. Berry, « Classement des revues : le CNRS va-t-il perdre son âme ? », Lettre ouverte au CNRS, septembre 2003, et « La recherche en gestion doit échapper aux standards américains », Le Monde, 31 mars 2004.

6. F. Briatte, « Comparaison interclassements des revues en sociologie-démographie et en science politique », Bulletin méthodologique de sociologie, octobre 2008, p. 51 – 60.

7. Lettre de Gilles Dorival (Université d’Aix-Marseille I et IUF) au président de l’AERES, 16 septembre 2008.

8. Traductions usuelles du terme anglais benchmarking.

9. www.britac.ac.uk/reports/peer-review/chap-6.cfm . Consulté le 3 octobre 2008.

10. Étaient présents dans la salle une représentante de Past and Present et le signataire de ces lignes.

11. AEF, dépêche n° 102848 du 14 octobre 2008.

12. Allusion, entre autres, au classement de la commission 37.

13. Sigle désignant actuellement le Comité National, auparavant appelé CN.

14. Sans doute s’agit-il des directeurs scientifiques adjoints (DSA).

15. Voir supra, p. 3.

16. Voir le compte rendu de la réunion par Emmanuelle Picard sur la liste de diffusion des revues créée en 2004 :revues_shs@cru.fr.

17. AEF, dépêche du 14 octobre 2008 déjà citée.

18. Suggestion formulée par Jean-Claude Guédon (Université de Montréal).

19. Cf. J.-Y. Mérindol, « Comment l’évaluation est arrivée dans les universités françaises », Revue d’histoire moderne et contemporaine, 55–4 bis, 2008.

20. Je remercie Jean-Claude Guédon pour cette remarque.

21. Cf. « Ce que les mathématiciens ont à dire sur les sciences bibliométriques », 10 septembre 2008, sur le blog du mathématicien Jean-François Méla : http://jfmela.free.fr/jfmblog/ .

22. M. Berry, « La recherche saisie par la mesure. Vers des camisoles invisibles ? », art. cit.

Additional Information

ISSN
1961-8646
Print ISSN
0027-2671
Pages
5-14
Launched on MUSE
2009-03-23
Open Access
No
Back To Top

This website uses cookies to ensure you get the best experience on our website. Without cookies your experience may not be seamless.