Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Bibliométrie & science ouverte

C62883159382961b2cd5382e8b349238?s=47 mlarrieu
March 17, 2022

Bibliométrie & science ouverte

En quoi une agence qui produit des statistiques sur des publications scientifiques serait-elle concernée par un mouvement prônant un accès ouvert global aux produits de la recherche ? Il serait tentant en premier lieu de penser que la bibliométrie n'a pas grand chose à voir avec la science ouverte. Pourtant, en étudiant de plus près l'écosystème des acteurs de la recherche, force est de constater que la bibliométrie est un des maillons central dans le développement de la science ouverte.
Cette formation vise à éclairer les liens entre bibliométrie et science ouverte, et plus particulièrement aux changements provoqués par cette dernière sur la bibliométrie et l'évaluation de la recherche.

Dans la première partie nous expliquons la genèse de la bibliométrie ; dans la deuxième nous décrivons "l'évaluation bibliométrique de la recherche", c'est à dire une évaluation quantitative, portée sur le nombre de publications et de citations. Finalement dans la dernière partie nous éclairons les liens qui se tissent entre bibliométrie et science ouverte.

A. bibliométrie & documentation (p.3)
B. bibliométrie & évaluation (p. 38)
C. bibliométrie & science ouverte (p.56)

C62883159382961b2cd5382e8b349238?s=128

mlarrieu

March 17, 2022
Tweet

More Decks by mlarrieu

Other Decks in Science

Transcript

  1. Bibliométrie & Science Ouverte URFIST 2022-03 Maxence LARRIEU, PhD cv.archives-ouvertes.fr/maxence-larrieu

    Kim HUIJPEN #OSEC2022
  2. 2/127 Plan Bibliométrie & Documentation Bibliométrie & Évaluation Bibliométrie &

    Science ouverte 30s 90s 10s
  3. Bibliométrie & Documentation

  4. 4/127 Accroissement scientifique Mabe, M., & Amin, M. (2001). Growth

    dynamics of scholarly and scientific journals. Scientometrics, 51, 147-162. • XXe s. accroissement des journaux • 1920 début de la hausse
  5. 5/127 Growth of the annual number of cited references from

    1650 to 2012 (citing publications from 1980 to 2012) Bornmann, L., & Mutz, R. (2015). Growth rates of modern science: A bibliometric analysis based on the number of publications and cited references. Journal of the Association for Information Science and Technology doi.org/10.1002/asi.23329
  6. 6/127 Savoir-faire pour sélectionner des livres “ The answer to

    the question of what books a library in chemistry should contain will be found excellently answered in a book, containing a list of 1,600 books, each one judged by experts as to importance and value. This book, edited by Patterson and Crane, will soon be available Contexte bibliothéconomie Gross, P. L., & Gross, E. M. (1927). College libraries and chemical education. Science, 66(1713), 385-389.
  7. 7/127 • Changement de granularité • Budget limité, quantité d’article

    démesurée : comment procéder ? “ What files of scientific periodicals are needed in a college library successfully to prepare the student for advanced work ? Contexte bibliothéconomie “ only relatively few libraries can afford complete files of journals which have been published continuously for a century or more Ibid.
  8. 8/127 Depuis une revue majeure, comptage des citations vers les

    autres revues du domaine Gross, P. L., & Gross, E. M. (1927). College libraries and chemical education. Science, 66(1713), 385-389
  9. 9/127 Définition Pritchard, A. (1969). Statistical bibliography or bibliometrics. Journal

    of documentation , 25(4), 348-349 “ L’application des mathématiques et des méthodes statistiques aux livres, articles et autres moyens de communication
  10. 10/127 L’application des mathématiques et des méthodes statistiques aux livres

    et autres moyens de communication références des publications scientifiques Définition bis
  11. 11/127 La bibliométrie • Concerne la science • S’opère sur

    les références, pas le contenu • Naît dans un contexte documentaire • Concerne initialement les journaux et articles • Ne possède pas de finalité per se
  12. 12/127 “ la bibliométrie est aux publications ce que la

    démographie est aux populations. Le bibliomètre exploite statistiquement des signalements bibliographiques comme le démographe étudie les populations : il n'est pas sensé avoir lu les publications qu'il catégorise et comptabilise Rostaing, H. (1996). La bibliométrie et ses techniques Bibliométrie et démographie
  13. 13/127 Comment trouver les références bibliographiques des publications mondiales (nationales,

    institutionnelles) ?
  14. 14/127 Eugène Garfield, the guy • 1951 PhD in Linguistic,

    related to chimical nomencalture • 1953 degree in Library Science • 1960 create Institue of Scientific Information • 1963 conceptor of the Science Citation Index US, 1925 - 2017
  15. 15/127 Science Citation Index • Première base des citations scientifiques

    • Ancêtre du Web Of Science
  16. 16/127 Science Citation Index Article cité Source de la citation

  17. 17/127 Journal Citation Reports • Index des journaux scientifiques issn,

    domaine, nb of publis, citations émises, citations reçues, facteur impact
  18. 18/127 Facteur d’Impact Métrique sur le journal, conçue en 1969

    Rapport entre le nombre de citations reçues et le nombre d’articles publiés
  19. 19/127 Facteur d’Impact FI 2018 = Somme des citations reçues

    en 2018 des publis parues en 2015-17 ____________________________________________________ Nombre de publications « citable » en 2015-17
  20. 20/127 Garfield, E. (2006). "The History and Meaning of the

    Journal Impact Factor". JAMA. 295 (1): 90–3.
  21. 21/127 Journal Citation Ranking

  22. 22/127 Outils traditionnels • Bases : Wos & Scopus •

    Avant Scopus (2004), le Wos avait le monopole : la bibliométrie s’est forgée pendant 40 ans avec le Wos
  23. 23/127 Web Of Science

  24. 24/127 Scopus

  25. 25/127 Wos The Core collection is • Over 74 millions

    records • 21,177 journals • Over 8 million conference papers • 104,000 books • 1.5 billion (1900 to present) cited references Wos coverage (juin 2021)
  26. 26/127 Scopus • 70 millions items • 21,950 peer-reviewed journals

    • 8 millions conference papers • 150,000 books • 1.4 Billion of recorded references Scopus coverage (juin. 2021)
  27. 27/127 ✐Exercice Laboratoires : MAP5, LATMOS, VIMA, ELICO, GEMAC, LSCP,

    Lipade, CERLIS nb publi 3 dernières années 2 premiers type de publication 2 premiers domaines 2 revues au plus fort impact du premier domaine
  28. 28/127

  29. 29/127 Vue sur les données Bibliographiques Citations

  30. 30/127 des données structurées publi journal citat° reçues domaine auteur

    structure établiss ement pays citat° émises type doc
  31. 31/127 des identifiants publi journal citat° reçues domaine auteur structure

    établiss ement pays citat° émises ISSN DOI ORCID RNSR idRef structId idHal type doc ROR GRID ISO
  32. 32/127 des référentiels • Référentiel Auteurs • Référentiel Structures •

    Référentiel Journaux • Référentiel Domaines • Référentiel Type de doc ...
  33. 33/127 Référentiel Auteur Hal

  34. 34/127 Base ref domaine ref journal ref auteur ref structure

    ref type doc données utilisat° données bibliogra données citations métriques
  35. 35/127 x² + ∫n+1x - √y = indicateur bibliométrie Base

    ref domaine ref journal ref auteur ref structure ref type doc données utilisat° données bibliogra données citations métriques
  36. 36/127 Deux axes cardinaux

  37. 37/127 Différents usages Rappel : la bibliométrie n’a pas de

    finalité en soi • Exemple – Veille scientifique – Veille industrielle (90’s ajout des brevets) – Éclairer l’évolution des sciences (eg. disciplines émergeantes) – Appuyer l’évaluation de la recherche
  38. Évaluer la recherche

  39. 39/127 Un usage non prévu “ Les répertoires de l'ISI

    n 'ont pas été créés pour mesurer les "performances" des chercheurs, équipes ou laboratoires […]. Or très rapidement, on a fait dévier le but originel de ces données pour évaluer, plus ou moins légitimement, les acteurs de la recherche scientifique. Rostaing, H. (1996). La bibliométrie et ses techniques. La bibliométrie pour évaluer la recherche : un glissement
  40. 40/127 “ Il y a actuellement un consensus pour dire

    que la citation ne mesure pas la qualité de la recherche mais plus exactement ce qu'on pourrait appeler l'impact des publications, que cet impact soit dû au contenu de l'article ou aux autres facteurs influençant la pratique de citation Prédicat bancal : nombre de citations comme signe de qualité Ibid.
  41. 41/127 twitter.com/astromikemerri/status/1428025833860567049

  42. 42/127 Nombre de citation et facteur d’impact pour noter les

    chercheurs “ Le modèle statistique [que l’ISI] il a mis en œuvre conditionne l’avancement des chercheurs dans un nombre croissant de pays. Les administrations qui en ont la tutelle utilisent fréquemment la combinaison Citations + Impact Factor pour « noter » ces chercheurs. Durand-Barthez, M. (2006). L'évaluation des publications scientifiques: du facteur d'impact à l'indice de notoriété.
  43. 43/127 Ex : points SIGAPS, ministère Santé Nombre de publication,

    FI revue et rang des auteurs, pour calculer un score, à partir duquel déduire une dotation Conçu en 2002 CHU Lille
  44. 44/127 La valeur du point en 2017 est de 648

    euros MADIOT, H., BELLE, L., Points SIGAPS / SIGREC : ce que vous faites gagner à votre Hôpital. Congrès CNCH 2016 Un score calculé à partir des publications, utilisé par le Ministère de la Santé pour financer une partie des CHU
  45. 45/127 “ D’outil de cartographie, de gestion et d’analyse des

    publications à l’échelle des établissements, [SIGAPS] a été transformé en outil de gestion administrative de l’enveloppe budgétaire dédiée à la recherche “ Alors que les budgets de recherche, pour les CHU notamment, étaient auparavant alloués sur une base forfaitaire et proportionnelle à la taille de l’établissement, l’instauration du nouveau système SIGAPS a profondément changé la donne, en introduisant un financement basé sur la « performance », modèle qualifié par certains chercheurs de « tarification à l’acte bibliométrique » (Mancini et al., 2009). Gingras, Y., & Khelfaoui, M. (2020) L’effet SIGAPS: La recherche médicale française sous l’emprise de l’évaluation comptable.
  46. 46/127 labcom-risca.com (2021, 06) “ plusieurs CHU utilisent désormais les

    données de publication individuelles compilées par SIGAPS dans les processus d’embauche ou de promotion des chercheurs Ibid.
  47. 47/127 Ex : classement de Shangaï 6 critères dont 3

    basés sur les publications et citations du Wos
  48. 48/127 Ex : Hcéres classement des revues (2020) SHS1 Économie

    & Gestion source
  49. 49/127 Un usage détourné de la bibliométrie, mais tellement répandu

    qu’on ne peut se référer à l’un sans l’autre
  50. 50/127 “ été 2009 l’AERES a invité les représentants de

    chaque section du CNU et du CNRS à former des commissions destinées à établir, section par section, la liste des revues garantissant la valeur des travaux publiés dans une discipline donnée. Ainsi donc devait s’achever la préhistoire de l’évaluation ; que vive désormais l’ère de la bibliométrie ! Abelhauser, A., Sauret, M. J., & Gori, R. (2011). La folie évaluation: les nouvelles fabriques de la servitude. Fayard/Mille et une nuits
  51. 51/127 “ La bibliométrie est accusée de tous les maux.

    « des effets délétères de la bibliométrie sur la recherche » “ Pour le meilleur et pour le pire, les grandes manœuvres sont lancées dans la recherche française sur le front de la bibliométrie : celle-ci cesse désormais d’être un outil réservé aux documentalistes et spécialistes de l’information. Les princes qui nous gouvernent s’en sont emparés à des fins d’évaluation des disciplines, des laboratoires, des individus Le Coadic, Yves-François. « Défense et illustration de la bibliométrie ». Bulletin des bibliothèques de France (BBF), 2010, n° 4, p. 48-51. Un usage hautement décrié Abelhauser, A., Sauret, M. J., & Gori, R. (2011). La folie évaluation: les nouvelles fabriques de la servitude. Fayard/Mille et une nuits
  52. 52/127 Le h-index Métrique sur le chercheur conçue en 2005

    Viser l’impact d’un chercheur en croisant : - le nombre de publication - le nombre de citation reçues
  53. 53/127 Le h-index Le nombre n de publications qui ont

    au moins été citées n fois.
  54. 54/127 Le rang de la dernière publication qui reste inférieur

    au nombre de citations reçues
  55. 55/127 ✐Exercice : h-index • Alain Bui, Sylvie Retailleau, Pierre

    Couprie, Alexandre Mebazaa, Damien lamberton, Mélanie Clément-fontaine Pour chaque chercheur extraire nb publis, h-index scopus, h-index GScholar
  56. Bibliométrie & Science Ouverte

  57. 57/127 Bibliométrie Évaluation Éthique de la recherche Oligopole Science ouverte

    Marché édition scientifique Bibliodiversité Indicateurs Classement Valorisation Impact Image : 10.3390/math7010086
  58. 58/127 1. Pourquoi la bibliométrie à l’heure de la science

    ouverte ?
  59. 59/127 Illustration

  60. 60/127 L’évaluation bibliométrique de la recherche, bloque le développement de

    la science ouverte (postulat : nous travaillons pour la science ouverte)
  61. 61/127 ‘‘ Évaluation bibliométrique de la recherche’’ : évaluation utilisant

    le facteur d’impact, le WOS (ou leurs succédanés) pour évaluer la recherche par ex. SIGAPS « Culture du WOS » « culture de l’impact factor » Chérifa Boukacem-Zeghmouri #OSEC2022
  62. 62/127 Un système d’évaluation pernicieux Préambule : les pratiques des

    chercheurs sont conditionnées par le système d’évaluation de la recherche
  63. 63/127 Composant du système pernicieux • Des revues sur-favorisées •

    Des chercheurs devant publier dans ces revues (carrière) • Des (méga) éditeurs qui commercialisent ces revues
  64. 64/127 Dérives (i) économiques • Plus une revue est prestigieuse

    meilleure est sa commercialisation (APC et abonnements) « on ne négocie pas une porche »
  65. 65/127 bjoern.brembs.net/2018/04/why-open-access-big-deals-are-worse-than-subscriptions/

  66. 66/127 Dérives (ii) éthiques • Niveau chercheur : – citations

    coercitives – primes pour publier dans Nature
  67. 67/127 Gingras, Y., & Khelfaoui, M. (2020) L’effet SIGAPS: La

    recherche médicale française sous l’emprise de l’évaluation comptable. “ Censés mettre fin aux pratiques de copinages, ces critères d’évaluation quantitatifs, dits « objectifs », ont dans les faits conduit à une croissance anormale du taux d’autocitations nationales, c’est-à-dire des citations faites par les chercheurs d’un pays aux publications de leur pays
  68. 68/127 Don’t pay prizes for published science, Nature, 2017 “

    Zhejiang Agricultural and Forestry University in Lin’An, for example, pays a flat rate of 500,000 yuan for a paper published in Cell, Science or Nature. And it uses a table with equations to help calculate prizes for publications elsewhere. For any paper in a journal with an impact factor (IF) higher than 10, for example, the prize is IF × 1.5 × 10,000 yuan. And the practice is far from unique to China. Scientists in countries such as Qatar and Saudi Arabia can find themselves similarly rewarded.
  69. 69/127 Hvistendahl, M. (2013). China's publication bazaar. Science, 342 6162,

    1035-9 .
  70. 70/127 Dérives (ii) éthiques • Niveau publisher : – citations

    coercitives – cartels de publishers
  71. 71/127 Farge, M. (2017), Comment les chercheurs échangent leurs idées.

    Présentation. slideplayer.fr/slide/13210808/ (2021 01)
  72. 72/127

  73. 73/127 Système pyramidal ; oligopole ; concentration éditoriale doi.org/10.1371/journal.pone.0127502.g001 Larivière,

    V., Haustein, S., & Mongeon, P. (2015). The oligopoly of academic publishers in the digital era. PloS one, 10(6) Dérives (iii) globales
  74. None
  75. github.com/ml4rrieu/fr_expenditure_publishing_syst

  76. 75 % of European spending on scientific journals goes to

    the "big five" Emanuel KULCZYCKI #OSEC2022
  77. 77/127 Dérives (iii) globales • Assèchement éditorial “ une grande

    partie des revues médicales françaises sont classées « E », étant donné leur faible visibilité internationale. Le système SIGAPS a donc pour effet de précipiter le déclin des revues médicales françaises à caractère national Gingras, Y., & Khelfaoui, M. (2020) L’effet SIGAPS: La recherche médicale française sous l’emprise de l’évaluation comptable.
  78. 78/127 Dérives (iii) globales • L’effet Matthieu “ Les auteurs

    d'articles cherchent à faire référence à des articles des chercheurs renommés afin de mieux convaincre de la solidité de leur argumentation Rostaing, H. (1996). La bibliométrie et ses techniques
  79. 79/127 Dérives (iii) globales • Goodhart's Law « When a

    mesure become a target, it ceases to be a good measure » Faire de la recherche pour publier ?
  80. 80/127 “ On peut aussi se questionner sur le caractère

    éthique d’un système qui amène, consciemment ou non, les chercheurs et les gestionnaires de la recherche à adapter leurs pratiques pour optimiser les points SIGAPS plutôt que la recherche de qualité. (Gingras et al. 2020)
  81. 81/127 “ [dans la compétition de freeride] tu skies plus

    vraiment pour toi, tu prends des lignes pour des juges ” Jérémie Heitz Portrait d’un freerider surdoué, Jérémie Heitz youtube.com/watch?v=0HQzzWot9i4, (2021 06)
  82. 82/127 “ La critique du « publish or perish »

    est bien sûr ancienne, mais elle est exacerbée par les nouvelles méthodes d’évaluation. (Gingras et al. 2020)
  83. 83/127

  84. 84/127 “ We should be in a position where we

    are able to influence our academic system, not be stifled by the current actors in it John Tenant, 2019
  85. 85/127 2. La science ouverte renouvelle la bibliométrie 2a. meilleure

    connaissance des outils utilisés
  86. 86/127 “ Il faut donc, en plus, prendre en considération

    les limites propres à la source ISI : les mauvaises couvertures thématiques, géographiques, temporelles et la variation des saisies des citations dans les références (retranscrites telles qu'elles sont mentionnées dans l'article d'origine). Rostaing, H. (1996). La bibliométrie et ses techniques Wos & Scopus : couverture problématique
  87. 87/127 Hcéres compare l’UBM dans Wos, Hal et rapport Rapport

    hceres nov 2018 Hal = 8 * Wos Biblio Hcéres = 24,4 * Wos
  88. 88/127 Emanuel KULCZYCKI #OSEC2022 https://doi.org/10.1007/s11192-018-2711-0

  89. 89/127 Comment des bases qui sélectionnent des revues peuvent-elles être

    qualifiées d’exhaustives ? Paradoxe: qualifier Scopus d’exhaustif et de qualitatif fin de l’exhaustivité
  90. 90/127 Pour une université pluridisciplinaire, les indicateurs de l’OST sont

    calculés sur moins de 70 % Baromètre Science ouverte UVSQ
  91. 91/127 “ C’est en croisant les bases mais surtout en

    puisant dans des archives ouvertes que ces biais [de représentativité] peuvent être atténués. Comment peut-on parler d’étude interdisciplinaire si les sciences sociales sont a priori oubliées ? Frédérique Bordignon, « Comment ouvrir et mesurer la science vont de pair ? », Arabesques, 103 | 2021, 4-5. doi.org/10.35562/arabesques.2714
  92. 92/127 WOS et Scopus se recouvrent à ~75 % Baromètre

    Science ouverte UVSQ github.com/ml4rrieu/barometre_science_ouverte_uvsq (2021 01)
  93. 93/127 Une dimension politique : qui sélectionne les revues ?

    “ Where DOAJ listed 12,582 journals (as of January 2019), SCOPUS listed 5920 OA journals and WoS only listed 4485 journals blog.doaj.org/2019
  94. 94/127 Visser, M., van Eck, N. J., & Waltman, L.

    (2020). Large-scale comparison of bibliographic data sources: Scopus, Web of Science, Dimensions, Crossref, and Microsoft Academic. arXiv preprint arXiv:2005.10732. RIP
  95. 95/127 « Web of science » Carte à la une

    : le monde selon... le Web of Science
  96. 96/127 Ce reflet n’est-il pas, à un certain degré, celui

    d’une science « occidentale et anglo-saxonne » ?
  97. 97/127 https://twitter.com/LizzieGadd/status/1331641697529442308, 2021 01

  98. 98/127 2. La science ouverte renouvelle la bibliométrie 2b. des

    nouveaux acteurs/données
  99. 99/127 Des données de citations ouvertes

  100. 100/127 Un écosystème ouvert

  101. 101/127 Vers outil bibliométrique français en faveur de la science

    ouverte ? Research.data.gouv.fr
  102. 102/127 Open data Publish or perish Open software Course à

    l’IF Course à la quantité Article oriented Sources Multilinguisme Reproductibilité « Culture du WOS » Diversité des productions
  103. 103/127 3. Sur l’évaluation de la recherche à l’heure de

    la science ouverte évaluation rech. ≠ bibliométrie
  104. 104/127 Ne pas prétendre au qualitatif avec du quantitatif

  105. 105/127 « La bibliométrie pour évaluer les publications scientifiques en

    biologie et santé » alambic.hypotheses.org/6068 Jamais un nombre ne rendra compte de la qualité scientifique
  106. 106/127 Si la qualité se mesure ce n’est qu’après lecture

  107. 107/127 Sortir de la prétendue objectivité « C’est objectif car

    c’est basé sur le nombre de citations des revues, pas depuis leur lecture » Oui, mais les revues sont sélectionnées en amont Une organisation qui sélectionne les revues dont il faut traiter les citations peut-elle prétendre à l’objectivité ?
  108. 108/127 Une analyse se basant sur des nombres est elle

    objective ? “ La caractérisation par un simple chiffre rend d’ailleurs possible un classement, illusion totale d’objectivité dont les êtres humains [du XXIe] sont extrêmement friands surtout lorsqu’ils sont amenés à faire un choix Rentier, B. (2018). Science ouverte, le défi de la transparence. Académie royale de Belgique Pointer l’aveuglement du nombre
  109. 109/127 La déclaration de DORA But : - freiner l’hégémonique

    FI - considérer code & datasets - être transparent sur l’évaluation - guider les bonnes pratiques sfdora.org, (2021 01) 2013
  110. 110/127 hal-01938552

  111. 111/127 Ne plus recourir aux classements de revues

  112. 112/127 hceres.fr/fr/actualites/le-hceres-signe-dora- la-declaration-de-san-francisco-sur-levaluat ion-de-la-recherche

  113. 113/127 Leiden Manifesto for research metrics Science and technology indicators

    are prone to conceptual ambiguity and uncertainty and require strong assumptions that are not universally accepted. (...) best practice uses multiple indicators to provide a more robust and pluralistic picture “ Use these ten principles to guide research evaluation leidenmanifesto.org/ 2015
  114. 114/127 Appel de Paris sur l’évaluation de la recherche https://osec2022.eu/fr/appel-de-paris/

    2022
  115. 115/127 “ 4. Demandez à la personne évaluée de sélectionner

    au maximum une publication par an qu’elle considère comme la meilleure. “ 3. N’utilisez jamais d’indicateurs indirects et/ou peu pertinents tels que le nombre absolu de publications, les facteurs d’impact des revues ni leurs produits dérivés. En règle générale, n’utilisez pas de chiffres ou de mesures numériques. Ressource : Bernard Rentier
  116. 116/127 Changer les mentalités

  117. 117/127 Guider les pratiques ecrlife.org/fighting-the-impact-factor-one-cv-at-a-time/

  118. 118/127 3. N’opposons pas bibliométrie & science ouverte Exemples ▼

  119. 119/127 bso.dataesr.ovh/publications/general Piloter l’accès ouvert en France

  120. 120/127 github.com/nicholasmfraser/covid19_preprints (2021 01) Mesurer l’évolution des preprints sur la

    COVID-19
  121. 121/127 github.com/bmkramer/I4OA (2021 01) Mesurer l’évolution de I4OA (initiative for

    open abstract)
  122. 122/127 https://doi.org/10.5281/zenodo.4558704

  123. Coda

  124. 124/127

  125. 125/127

  126. 126/127 Kim HUIJPEN #OSEC2022

  127. 127/127 merci @ml4rrieu