Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Vues sur la bibliométrie

Maxence Larrieu
February 05, 2021

Vues sur la bibliométrie

Vues sur la bibliométrie

Partie 1 : Bibliométrie et documentation, p.4
Partie 2 : Bibliométrie et évaluation de la recherche, p. 40
partie 3 : Bibliométrie et science ouverte, p. 59

Maxence Larrieu

February 05, 2021
Tweet

More Decks by Maxence Larrieu

Other Decks in Research

Transcript

  1. 2/124 Pinto, A. L., Semeler-Ribas, A., Gonzales-Aguilar, A., & Clauzel,

    C. (2015). Visualization and co-occurrence of journals in the area of information science in vis-a-vis the Qualis/Capes system in Brazil. Netcom. Réseaux, communication et territoires, (29-3/4), 325-346.
  2. 5/124 Accroissement scientifique Mabe, M., & Amin, M. (2001). Growth

    dynamics of scholarly and scientific journals. Scientometrics, 51, 147-162. • XXe s. accroissement des journaux • 1920 début de la hausse
  3. 6/124 Growth of the annual number of cited references from

    1650 to 2012 (citing publications from 1980 to 2012) Bornmann, L., & Mutz, R. (2015). Growth rates of modern science: A bibliometric analysis based on the number of publications and cited references. Journal of the Association for Information Science and Technology doi.org/10.1002/asi.23329
  4. 7/124 Savoir-faire pour sélectionner des livres “ The answer to

    the question of what books a library in chemistry should contain will be found excellently answered in a book, containing a list of 1,600 books, each one judged by experts as to importance and value. This book, edited by Patterson and Crane, will soon be available Contexte bibliothéconomie Gross, P. L., & Gross, E. M. (1927). College libraries and chemical education. Science, 66(1713), 385-389.
  5. 8/124 • Changement de granularité • Budget limité, quantité d’article

    démesurée : comment procéder ? “ What files of scientific periodicals are needed in a college library successfully to prepare the student for advanced work ? Contexte bibliothéconomie “ only relatively few libraries can afford complete files of journals which have been published continuously for a century or more Ibid.
  6. 9/124 Depuis une revue majeure, comptage des citations vers les

    autres revues du domaine Gross, P. L., & Gross, E. M. (1927). College libraries and chemical education. Science, 66(1713), 385-389
  7. 10/124 Définition Pritchard, A. (1969). Statistical bibliography or bibliometrics. Journal

    of documentation , 25(4), 348-349 “ L’application des mathématiques et des méthodes statistiques aux livres, articles et autres moyens de communication
  8. 11/124 L’application des mathématiques et des méthodes statistiques aux livres

    et autres moyens de communication références des publications scientifiques Définition bis
  9. 12/124 La bibliométrie • Concerne la science • S’opère sur

    les références, pas le contenu • Naît dans un contexte documentaire • Concerne initialement les journaux et articles • Ne possède pas de finalité per se
  10. 13/124 “ la bibliométrie est aux publications ce que la

    démographie est aux populations. Le bibliomètre exploite statistiquement des signalements bibliographiques comme le démographe étudie les populations : il n'est pas sensé avoir lu les publications qu'il catégorise et comptabilise Rostaing, H. (1996). La bibliométrie et ses techniques Bibliométrie et démographie
  11. 15/124 Eugène Garfield, the guy • 1951 PhD in Linguistic,

    related to chimical nomencalture • 1953 degree in Library Science • 1960 create Institue of Scientific Information • 1963 conceptor of the Science Citation Index US, 1925 - 2017
  12. 19/124 Journal Citation Reports • Index des journaux scientifiques :

    issn, domaine, nb of publis, citations émises, citations reçues, facteur impact
  13. 20/124 Facteur d’Impact Métrique sur le journal, conçue en 1969

    Rapport entre le nombre de citations reçues et le nombre d’articles publiés
  14. 21/124 Facteur d’Impact FI 2018 = Somme des citations reçues

    en 2018 des publis parues en 2015-17 ____________________________________________________ Nombre de publications « citable » en 2015-17
  15. 22/124 Garfield, E. (2006). "The History and Meaning of the

    Journal Impact Factor". JAMA. 295 (1): 90–3.
  16. 24/124 Outils traditionnels • Bases : Wos & Scopus •

    Avant Scopus (2004), le Wos avait le monopole : la bibliométrie s’est forgée pendant 40 ans avec le Wos
  17. 27/124 Wos The Core collection is • Over 74 millions

    records • 21,177 journals • Over 8 million conference papers • 104,000 books • 1.5 billion (1900 to present) cited references Wos coverage (juin 2021)
  18. 28/124 Scopus • 70 millions items • 21,950 peer-reviewed journals

    • 8 millions conference papers • 150,000 books • 1.4 Billion of recorded references Scopus coverage (juin. 2021)
  19. 29/124 ✐Exercice Laboratoires : MAP5, LATMOS, VIMA, GEMAC, LSCP, Lipade,

    CERLIS nb publi 3 dernières années 2 premiers type de publication 2 premiers domaines 2 revues au plus fort impact du premier domaine
  20. 32/124 Des données structurées publi journal citat° reçues domaine auteur

    structure établiss ement pays citat° émises type doc
  21. 33/124 des identifiants publi journal citat° reçues domaine auteur structure

    établiss ement pays citat° émises ISSN DOI ORCID RNSR ROR idRef structId idHal type doc ROR GRID ISO
  22. 34/124 des référentiels • Référentiel Auteurs • Référentiel Structures •

    Référentiel Journaux • Référentiel Domaines • Référentiel Type de doc ...
  23. 36/124 Base ref domaine ref journal ref auteur ref structure

    ref type doc données utilisat° données bibliogra données citations métriques
  24. 37/124 x² + ∫n+1 - √y = indicateur la bibliométrie

    Base ref domaine ref journal ref auteur ref structure ref type doc données utilisat° données bibliogra données citations métriques
  25. 39/124 Différents usages de la bibliométrie Rappel : la bibliométrie

    n’a pas de finalité en soi • Exemple – Veille scientifique – Veille industrielle (90’s ajout des brevets) – Éclairer l’évolution des sciences (eg. disciplines émergeantes) – Appuyer l’évaluation de la recherche
  26. 41/124 Un usage non prévu “ Les répertoires de l'ISI

    n 'ont pas été créés pour mesurer les "performances" des chercheurs, équipes ou laboratoires […]. Or très rapidement, on a fait dévier le but originel de ces données pour évaluer, plus ou moins légitimement, les acteurs de la recherche scientifique. Rostaing, H. (1996). La bibliométrie et ses techniques. La bibliométrie pour évaluer la recherche : un glissement
  27. 42/124 “ Il y a actuellement un consensus pour dire

    que la citation ne mesure pas la qualité de la recherche mais plus exactement ce qu'on pourrait appeler l'impact des publications, que cet impact soit dû au contenu de l'article ou aux autres facteurs influençant la pratique de citation Prédicat bancal : données de citations comme signe de qualité Ibid.
  28. 44/124 Nombre de citation et facteur d’impact des revues pour

    « noter » les chercheurs “ On connaît la très forte influence exercée par l’ISI sur la communauté scientifique internationale. Le modèle statistique qu’il a mis en œuvre conditionne l’avancement des chercheurs dans un nombre croissant de pays. Les administrations qui en ont la tutelle utilisent fréquemment la combinaison Citations + Impact Factor pour « noter » ces chercheurs. Durand-Barthez, M. (2006). L'évaluation des publications scientifiques: du facteur d'impact à l'indice de notoriété.
  29. 45/124 Ex : points SIGAPS, ministère Santé Nombre de publication,

    FI revue et rang des auteurs, pour calculer un score, à partir duquel déduire une dotation Conçu en 2002 CHU Lille
  30. 46/124 La valeur du point en 2017 est de 648

    euros MADIOT, H., BELLE, L., Points SIGAPS / SIGREC : ce que vous faites gagner à votre Hôpital Congrès CNCH 2016 Un score calculé à partir des publications, utilisé par le Ministère de la Santé pour financer une partie des CHU
  31. 47/124 “ D’outil de cartographie, de gestion et d’analyse des

    publications à l’échelle des établissements, il a été transformé en outil de gestion administrative de l’enveloppe budgétaire dédiée à la recherche “ Alors que les budgets de recherche, pour les CHU notamment, étaient auparavant alloués sur une base forfaitaire et proportionnelle à la taille de l’établissement, l’instauration du nouveau système SIGAPS a profondément changé la donne, en introduisant un financement basé sur la « performance », modèle qualifié par certains chercheurs de « tarification à l’acte bibliométrique » (Mancini et al., 2009). Gingras, Y., & Khelfaoui, M. (2020) L’effet SIGAPS: La recherche médicale française sous l’emprise de l’évaluation comptable.
  32. 48/124 labcom-risca.com (2021, 06) “ plusieurs CHU utilisent désormais les

    données de publication individuelles compilées par SIGAPS dans les processus d’embauche ou de promotion des chercheurs Ibid.
  33. 49/124 Ex : classement de Shangaï 6 critères dont 3

    basés sur les publications et citations du Wos
  34. 51/124 Un usage détourné de la bibliométrie, mais tellement répandu

    qu’on ne peut se référer à l’un sans l’autre
  35. 52/124 “ été 2009 l’AERES a invité les représentants de

    chaque section du CNU et du CNRS à former des commissions destinées à établir, section par section, la liste des revues garantissant la valeur des travaux publiés dans une discipline donnée. Ainsi donc devait s’achever la préhistoire de l’évaluation ; que vive désormais l’ère de la bibliométrie ! Abelhauser, A., Sauret, M. J., & Gori, R. (2011). La folie évaluation: les nouvelles fabriques de la servitude. Fayard/Mille et une nuits
  36. 53/124 “ La bibliométrie est accusée de tous les maux.

    « des effets délétères de la bibliométrie sur la recherche » “ Pour le meilleur et pour le pire, les grandes manœuvres sont lancées dans la recherche française sur le front de la bibliométrie : celle-ci cesse désormais d’être un outil réservé aux documentalistes et spécialistes de l’information. Les princes qui nous gouvernent s’en sont emparés à des fins d’évaluation des disciplines, des laboratoires, des individus Le Coadic, Yves-François. « Défense et illustration de la bibliométrie ». Bulletin des bibliothèques de France (BBF), 2010, n° 4, p. 48-51. Un usage hautement décrié Abelhauser, A., Sauret, M. J., & Gori, R. (2011). La folie évaluation: les nouvelles fabriques de la servitude. Fayard/Mille et une nuits
  37. 55/124 Le h-index Métrique sur le chercheur conçue en 2005

    Viser l’impact d’un chercheur en croisant : - le nombre de publication - le nombre de citation reçues
  38. 58/124 ✐Exercice : h-index • Alain Bui, Sylvie Retailleau, Pierre

    Couprie, Alexandre Mebazaa, Damien lamberton, Mélanie Clément-fontaine Pour chaque chercheur extraire ces données : nb publis, h-index scopus, h-index GScholar
  39. 60/124 Bibliométrie Évaluation Éthique de la recherche Oligopole Science ouverte

    Marché édition scientifique Bibliodiversité Indicateurs Classement Valorisation Impact Image : 10.3390/math7010086
  40. 62/124 L’évaluation bibliométrique de la recherche, freine, le développement de

    la science ouverte (postulat : notre volonté est de développer la science ouverte)
  41. 63/124 ‘‘ Évaluation bibliométrique de la recherche’’ : évaluation utilisant

    le facteur d’impact, le WOS (ou leurs succédanés) pour évaluer la recherche par ex. SIGAPS
  42. 64/124 Un système d’évaluation pernicieux Préambule : les pratiques des

    chercheurs sont fortement conditionnées par le système d’évaluation de la recherche
  43. 65/124 Composant du système pernicieux • Des revues sur-favorisées •

    Des chercheurs devant publier dans ces revues (carrière) • Des (méga) éditeurs qui commercialisent ces revues
  44. 66/124 Dérives (i) économiques • Plus une revue est prestigieuse

    meilleure est sa commercialisation (APC et abonnements) « on ne négocie pas une porche »
  45. 67/124 Dérives (ii) éthiques • Niveau chercheur : – citations

    coercitives – primes pour publier dans Nature
  46. 68/124 Gingras, Y., & Khelfaoui, M. (2020) L’effet SIGAPS: La

    recherche médicale française sous l’emprise de l’évaluation comptable. “ Censés mettre fin aux pratiques de copinages, ces critères d’évaluation quantitatifs, dits « objectifs », ont dans les faits conduit à une croissance anormale du taux d’autocitations nationales, c’est-à-dire des citations faites par les chercheurs d’un pays aux publications de leur pays
  47. 69/124 Don’t pay prizes for published science, Nature, 2017 “

    Zhejiang Agricultural and Forestry University in Lin’An, for example, pays a flat rate of 500,000 yuan for a paper published in Cell, Science or Nature. And it uses a table with equations to help calculate prizes for publications elsewhere. For any paper in a journal with an impact factor (IF) higher than 10, for example, the prize is IF × 1.5 × 10,000 yuan. And the practice is far from unique to China. Scientists in countries such as Qatar and Saudi Arabia can find themselves similarly rewarded.
  48. 73/124 Farge, M. (2017), Comment les chercheurs échangent leurs idées.

    Présentation. slideplayer.fr/slide/13210808/ (2021 01)
  49. 75/124 Système pyramidal ; oligopole doi.org/10.1371/journal.pone.0127502.g001 Larivière, V., Haustein, S.,

    & Mongeon, P. (2015). The oligopoly of academic publishers in the digital era. PloS one, 10(6) Dérives (iii) globales
  50. 77/124 “ une grande partie des revues médicales françaises sont

    classées « E », étant donné leur faible visibilité internationale. Le système SIGAPS a donc pour effet de précipiter le déclin des revues médicales françaises à caractère national Gingras, Y., & Khelfaoui, M. (2020) L’effet SIGAPS: La recherche médicale française sous l’emprise de l’évaluation comptable.
  51. 78/124 Dérives (iii) globales • L’effet Matthieu “ Les auteurs

    d'articles cherchent à faire référence à des articles des chercheurs renommés afin de mieux convaincre de la solidité de leur argumentation Rostaing, H. (1996). La bibliométrie et ses techniques
  52. 79/124 … le succès appelle le succès “ Si un

    élément (le scientifique, le périodique...) a du succès, sa probabilité de succès augmentera pour une tentative ultérieure, alors qu'un échec ne réduit pas la probabilité de succès pour la prochaine tentative (Rostaing, 1996)
  53. 80/124 Dérives (iii) globales • Goodhart's Law « When a

    mesure become a target, it ceases to be a good measure » Faire de la recherche pour publier ?
  54. 81/124 “ On peut aussi se questionner sur le caractère

    éthique d’un système qui amène, consciemment ou non, les chercheurs et les gestionnaires de la recherche à adapter leurs pratiques pour optimiser les points SIGAPS plutôt que la recherche de qualité. (Gingras et al. 2020)
  55. 82/124 “ [dans la compétition de freeride] tu skies plus

    vraiment pour toi, tu prends des lignes pour des juges ” Jérémie Heitz Portrait d’un freerider surdoué, Jérémie Heitz youtube.com/watch?v=0HQzzWot9i4, (2021 06)
  56. 83/124 “ La critique du « publish or perish »

    est bien sûr ancienne, mais elle est exacerbée par les nouvelles méthodes d’évaluation. (Gingras et al. 2020)
  57. 84/124 “ We should be in a position where we

    are able to influence our academic system, not be stifled by the current actors in it Tenant, John, 2019
  58. 86/124 Le Wos, comme Scopus (ou autre) possèdent des biais

    “ Il faut donc, en plus, prendre en considération les limites propres à la source ISI : les mauvaises couvertures thématiques, géographiques, temporelles (CARPENTER et NARIN, 1981) et la variation des saisies des citations dans les références (retranscrites telles qu'elles sont mentionnées dans l'article d'origine). Rostaing, H. (1996). La bibliométrie et ses techniques
  59. 87/124 Hcéres compare l’UBM dans Wos, Hal et rapport Rapport

    hceres nov 2018 Hal = 8 * Wos Biblio Hcéres = 24,4 * Wos
  60. 88/124 Comment des bases qui sélectionnent des revues peuvent- elles

    être qualifiées d’exhaustives ? Paradoxe: qualifier Scopus d’exhaustif et de qualitatif fin de l’exhaustivité
  61. 89/124 Pour une université pluridisciplinaire, les indicateurs de l’OST sont

    calculés sur moins de 70 % Baromètre Science ouverte UVSQ
  62. 90/124 “ C’est en croisant les bases mais surtout en

    puisant dans des archives ouvertes que ces biais [de représentativité] peuvent être atténués. Comment peut-on parler d’étude interdisciplinaire si les sciences sociales sont a priori oubliées ? Frédérique Bordignon, « Comment ouvrir et mesurer la science vont de pair ? », Arabesques, 103 | 2021, 4-5. doi.org/10.35562/arabesques.2714
  63. 91/124 WOS et Scopus se recouvrent à ~75 % Baromètre

    Science ouverte UVSQ github.com/ml4rrieu/barometre_science_ouverte_uvsq (2021 01)
  64. 92/124 Une dimension politique : qui sélectionne les revues ?

    “ Where DOAJ listed 12,582 journals (as of January 2019), SCOPUS listed 5920 OA journals and WoS only listed 4485 journals blog.doaj.org/2019
  65. 93/124 Visser, M., van Eck, N. J., & Waltman, L.

    (2020). Large-scale comparison of bibliographic data sources: Scopus, Web of Science, Dimensions, Crossref, and Microsoft Academic. arXiv preprint arXiv:2005.10732. RIP
  66. 94/124 « Web of science » Carte à la une

    : le monde selon... le Web of Science
  67. 95/124 Ce reflet n’est-il pas, à un certain degré, celui

    d’une science « occidentale et anglo-saxonne » ?
  68. 101/124 Open data Publish or perish Open access Open software

    Course à l’IF Course à la quantité Article oriented Diversité Données FAIR Reproductibilité
  69. 102/124 3. Sur l’évaluation de la recherche à l’heure de

    la science ouverte évaluation rech. ≠ bibliométrie
  70. 103/124 Jamais un nombre ne rendra compte de la qualité

    scientifique Ne pas prétendre au qualitatif avec du quantitatif Si la qualité se mesure ce n’est qu’après lecture
  71. 105/124 Sortir de la prétendue objectivité « C’est objectif car

    c’est basé sur le nombre de citations des revues, pas depuis leur lecture » Oui, mais les revues sont sélectionnées en amont Une instance qui sélectionne les revues dont il faut traiter les citations peut-elle prétendre à l’objectivité ?
  72. 106/124 Une analyse se basant sur des nombres est elle

    objective ? “ La caractérisation par un simple chiffre rend d’ailleurs possible un classement, illusion totale d’objectivité dont les êtres humains [du XXIe] sont extrêmement friands surtout lorsqu’ils sont amenés à faire un choix Rentier, B. (2018). Science ouverte, le défi de la transparence. Académie royale de Belgique Pointer l’aveuglement du nombre
  73. 107/124 La déclaration de DORA But : - freiner l’hégémonique

    FI - considérer code & datasets - être transparent sur l’évaluation - guider les bonnes pratiques sfdora.org, (2021 01) 2013
  74. 110/124 Leiden Manifesto for research metrics Science and technology indicators

    are prone to conceptual ambiguity and uncertainty and require strong assumptions that are not universally accepted. (...) best practice uses multiple indicators to provide a more robust and pluralistic picture “ Use these ten principles to guide research evaluation leidenmanifesto.org/ 2015
  75. 112/124 “ 4. Demandez à la personne évaluée de sélectionner

    au maximum une publication par an qu’elle considère comme la meilleure. “ 3. N’utilisez jamais d’indicateurs indirects et/ou peu pertinents tels que le nombre absolu de publications, les facteurs d’impact des revues ni leurs produits dérivés. En règle générale, n’utilisez pas de chiffres ou de mesures numériques. Ressource : Bernard Rentier
  76. 118/124 Fiche de Poste 2019, Bibliomètre, Sorbonne Université Monitorer les

    publications en accès ouvert d’un établissement