L`autosuffisance des dictateurs des facteurs d`impact cache leur
Transcription
L`autosuffisance des dictateurs des facteurs d`impact cache leur
Éditorial mt 2015 ; 21 (2) : 77-9 L’autosuffisance des dictateurs des facteurs d’impact cache leur ignorance de la bibliométrie Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 78.47.27.170 le 08/02/2017. Hervé Maisonneuve 30 rue Faidherbe, 75011 Paris, France <[email protected]> D doi:10.1684/met.2015.0485 iscuter des facteurs d’impact (FI) des revues ne laisse jamais indifférent et donne lieu à des affrontements parfois violents. Je l’ai constaté plusieurs fois. Je suis heureux de voir que des institutions ont engagé une réflexion pour évaluer leurs indicateurs. Ces indicateurs ont été conçus pour un objectif, mais nous devons nous interroger sur les usages qui en ont été faits. Le FI des revues a été inventé par Eugène Garfield à la fin des années cinquante. Dès 1961, il avait créé un indicateur de la notoriété des revues pour les comparer entre elles, pour guider le choix des abonnements par les documentalistes, et pour attirer la publicité pour les revues. Dans les années 1980, des universitaires ont utilisé le FI comme critère de substitution afin d’évaluer la recherche et les carrières, et c’était une erreur. E. Garfield, qui est en vie en 2015, a toujours été étonné par l’usage qui en a été fait pour évaluer des carrières et des hommes [1]. Le facteur d’impact : le jeu des revues pour influencer des évaluateurs naïfs Tirés à part : H. Maisonneuve Par facteur d’impact, nous entendons bien sûr le facteur proposé par Thomson Reuters (anciennement ISI pour Institute for Scientific Information), et d’autres compétiteurs basés uniquement sur les citations (facteur d’impact sur 5 ans, SCImago, EigenFactor, H-index, etc.). Pourquoi partir du postulat qu’un article plus cité serait un indicateur de la qualité de la revue qui a publié l’article, et non pas de la qualité de l’article ? Suggérer ensuite que tous les articles d’une même revue ont la même qualité est un non-sens. Réalisons que 0,5 % des articles ont été cités plus de 100 fois, et que la moitié ne seraient jamais cités [1, 2]. Parfois quelques articles font varier fortement le FI d’une revue ! Comment ne pas être surpris par la manière très arbitraire du calcul du FI car numérateur et dénominateur sont décidés après des cuisines obscures ! Comment ne pas être étonné par les descriptions des rédacteurs de PLOS Medicine lors de la fixation du premier FI de cette revue : « Pendant nos discussions avec Thomson Scientific, le facteur d’impact de PLoS Medicine – basé sur les mêmes articles pendant la même année – a oscillé entre plus de 11 (. . .) à moins de 3 (. . .). . . » [3] ! Combien de comités de rédaction ont comme objectif principal de faire augmenter leur facteur d’impact : citez ma revue dans vos articles, citez, citez. . . Pour les citations dans ma revue, ne dépassons pas un taux d’auto-citation que je surveille car je risque de perdre mon FI ! Des cartels de citations sont régulièrement identifiés et de 15 à 50 revues perdent Pour citer cet article : Maisonneuve H. L’autosuffisance des dictateurs des facteurs d’impact cache leur ignorance de la bibliométrie. mt 2015 ; 21 (2) : 77-9 doi:10.1684/met.2015.0485 77 Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 78.47.27.170 le 08/02/2017. Éditorial 78 leur FI chaque année. Un cartel de citations définit ces rédacteurs qui s’entendent : « Tu cites ma revue dans tes éditoriaux et j’en fais de même » (quitte à citer 50 articles d’une même revue dans un éditorial). Nombreux ont été les travaux montrant le mauvais usage du FI depuis PO. Seglen dans les années 1990 [4]. Depuis cette date, des institutions essayent de lutter contre l’emploi abusif du FI. Je vous propose pour comprendre ces critiques de vous reporter à des publications françaises : L’Académie des Sciences en janvier 2011 : « Quant au FI qui s’adresse aux revues et non pas aux chercheurs, il est néanmoins souvent pris en compte pour évaluer la qualité d’un article. Cette pratique, très utilisée dans certaines disciplines comme la biologie et la médecine, est dangereuse car les revues les plus prestigieuses, à FI très élevé, contiennent un pourcentage significatif d’articles de qualité moyenne, même s’il reste vrai que la publication d’un article dans ces grandes revues représente un indice de notoriété, à condition que le chercheur considéré ait joué un rôle prédominant dans le travail en question » [5]. En mai 2011, répétition avec un rapport sur le statut hospitalo-universitaire qui suggère de s’éloigner du FI [6]. Félicitons ces éditoriaux de revues qui appellent à réfléchir sur le FI en proposer d’analyser une maladie sournoise : la manie du FI [7, 8]. Le FI et son usage mettent en péril nos revues biomédicales françaises car les auteurs ne veulent publier qu’en anglais. Ces indicateurs sont : 1) les téléchargements et consultations (html, pdf, xml, à partir du site de la revue et d’autres archives ; 2) les citations en prenant en compte des données de ISI Web of Science, Scopus, Cross Ref, PubMedCentral, Europe PubMed Central, Google Scholar, etc.) ; 3) les commentaires sur les réseaux sociaux : Nature.comblogs, Wikipedia, Research Blogging, Twitter, Google Blogs, WordPress.com, Facebook, LinkedIn, ResearchGate. . .) ; 4) les partages et archivages dans Mendeley, CiteULike, Figshare, etc. ; 5) les citations dans les médias grand public, avec liste des communiqués de presse,. . . citations dans des vidéos, voire la localisation géographique des auteurs de tweets ou commentaires, ou des scores comparant aux autres articles de la même revue. La plupart des maisons d’édition ont adopté des systèmes pour évaluer l’audience et la notoriété d’un article, mais un changement de paradigme entre les facteurs d’impact et les évaluations des articles sera long. . . car la maîtrise de ces nouveaux indicateurs demande de la sagesse. Ne va-t-on pas vers les mêmes dérives que celles des FI, sans prendre en compte le chercheur et son équipe ! Nous sommes dans une course au « hot paper » plutôt qu’à l’originalité, à la qualité, comme l’a montré la liste des 100 articles 2014 ayant eu la meilleure audience sur les réseaux sociaux. . . vous aurez de la visibilité en publiant sur le pénis d’insectes femelles et le vagin de mâles, la consommation de chocolat des infirmières, ou celle d’alcool par James Bond. . . pauvre science1 . . . Les Almetrics ou les Altmetrics seraient la solution ! DORA : est-ce la solution pour évaluer la recherche ? Deux appellations sont en compétition : « Almetrics » pour Article Level Metrics et « Altmetrics » pour Alternative metrics. La technologie nous permet d’évaluer l’audience, la notoriété d’un article et non plus d’une revue. Les activités académiques ne se limitent pas à la production d’articles dans des revues avec une notoriété importante. La communication de la recherche change avec les blogs, les archives ouvertes, et tous les autres modes de communication électronique. . . Serait-il utile de valoriser d’autres productions que des articles de recherche ? Les termes génériques de cette nouvelle ère de l’évaluation sont : Almetrics avec un excellent rapport de Scholarly Publishing and Academic Resources Coalition [9] ou Altmetrics avec la publication d’un manifeste [10]. Le « TweetImpact » devrait être éphémère mais de mauvaises surprises sont possibles. L’impact social ou sociétal n’intéresse personne, alors que l’on devrait s’interroger. Toute une industrie de ces mesures a été créée ; elle est basée sur des indicateurs que l’on amalgame pour chaque article. La Declaration On Research Assessment (DORA) a été proposée en décembre 2012 à San Francisco par la Société américaine de biologie cellulaire et des rédacteurs et éditeurs de revues biomédicales (http://am.ascb.org/dora/). Au 15 décembre 2014, ce sont 547 organisations et 12 055 individus qui ont signé cette déclaration. De manière surprenante, et que je n’explique pas, la France est en seconde position des signataires individuels (8 %) après les États-Unis (31 %). Cette déclaration a 18 recommandations : la recommandation 1 est de ne pas utiliser les facteurs d’impact des revues pour évaluer la qualité des articles, les contributions d’un auteur, ni dans les décisions d’embauche, de promotion ou de financement. Deux recommandations s’adressent aux organismes de financement de la recherche, 2 aux institutions, 5 aux maisons d‘édition, 4 aux organismes qui proposent des indicateurs, et 4 aux chercheurs. Pour les chercheurs, il est fortement recommandé de ne pas citer des revues générales, mais plutôt 1 http://www.altmetric.com/top100/2014/ mt, vol. 21, n◦ 2, mars-avril 2015 Copyright © 2017 John Libbey Eurotext. Téléchargé par un robot venant de 78.47.27.170 le 08/02/2017. des articles originaux afin de bien rendre la paternité des observations à ceux qui ont été les premiers à les décrire. Sur le site de DORA, vous trouverez les informations détaillées, et un poster à télécharger pour l’afficher dans votre service ou laboratoire. Le chemin est encore long, même si des changements commencent à être observés, et DORA ne suffira pas. Le chemin est long car les FI ne sont que des épiphénomènes du malaise de la science. Certains se demandent si la science n’est pas pourrie et proposent d’en changer les fondements et les règles [11, 12]. D’autres pensent que 85 % des financements de la recherche sont du gaspillage et proposent d’améliorer nos pratiques2 . Ces réflexions vont au-delà de cet éditorial, mais je vous invite à écouter 7 vidéos et lire d’urgence les 50 pages du Lancet consacrées en janvier 2014 à ce thème : « Research : Increasing value, Reducing Waste »3 . 3. The PLoS Medicine Editors . The impact factor game. It is time to find a better way to assess the scientific literature. PLOS Medicine 2006 ; 3 : e291. doi: 10.1371/journal.pmed.0030291. Liens d’intérêts : l’auteur déclare les liens d’intérêts suivants : Gérant de H2MW, Hervé Maisonneuve Medical Writing, EURL dans le domaine de la formation et de la rédaction médicale. 8. Casadevall A, Fang FC. Causes for the persistence of impact factor mania. mBio 5 : e00064-14. doi : 10.1128/mBio.00064-14. Références 4. Seglen PO. Why the impact factor of journals should not be used for evaluating research. BMJ 1997 ; 314 : 498-501. 5. Académie des sciences. Du bon usage de la bibliométrie pour l’évaluation individuelle des chercheurs. Rapport remis le 17 janvier 2011 à Madame la ministre de l’enseignement supérieur et de la recherche. Consulté le 15 décembre 2014 sur http://www.academiesciences.fr/activite/rapport/avis170111.pdf. 6. Gaillard R. Mission sur l’évolution du statut hospitalouniversitaire. Rapport remis le mardi 3 mai 2011 à Madame Valérie Pécresse, Ministre de l’enseignement supérieur et de la recherche. Consulté le 15 décembre 2014 sur http://www.enseignementsup-recherche.gouv.fr/cid55973/rapportde-raphael-gaillard-sur-le-statut-hospitalo-universitaire.html. 7. Besch S. A propos de l’impact factor : délétère ou utile ? Journal de Traumatologie du Sport 2014 ; 31 : 69-70. 9. Tananbaum G. Article-level-metrics. A SPARC primer. 2013 April, 14 pages. Consulté le 15 décembre 2014 sur http://www.sparc.arl.org/sites/default/files/sparc-alm-primer.pdf. 10. Priem J, Groth P, Taraborelli D. The Altmetrics collection. PLOS ONE 2012 ; 7 : e48753. doi: 10.1371/journal.pone.0048753. 1. Garfield E. The history and meaning of the journal impact factor. JAMA 2006 ; 295 : 90-3. 11. Casadevall A, Fang FC. Reforming Science : Methodological and Cultural Reforms. Infection & Immunity 2012 ; 80 : 891-6. 2. Gingras Y. Les dérives de l’évaluation de la recherche. Du bon usage de la bibliométrie. Editions Raisons d’Agir, 2014, 122 pages. 12. Fang FC, Casadevall A. Reforming Science : Structural Reforms. Infection & Immunity 2012 ; 80 : 897-901. 2 3 http://researchwaste.net/ http://www.thelancet.com/ series/research mt, vol. 21, n◦ 2, mars-avril 2015 79