Sarah Carvallo, Professeur de philosophie à l’Université de Franche-Comté, chercheur associé à l’IHRIM 

Présentation par Nicolas Aumonier

Je suis très heureux d’accueillir en votre nom Sarah Carvallo. Sarah est ancienne élève de l’ENS (1991-1996). Elle est agrégée de philosophie en 1993, docteur en philosophie de l’Université Paris X-Nanterre en 2000, Maître de conférences en philosophie à l’École Centrale de Lyon de 2004 à 2017. Pendant ce temps-là,elle est aussi de 2011 à 2015Visitingprofessor à l’Université de Beihang, l’Académie chinoise de Sciences Sociales, et maintenant professeur de philosophie des sciences à l’Université de Besançon-Franche Comté depuis2018. Ses travaux tournent principalement, pour la partie la plus technique – ce qui lui permet d’être très tranquille dans son cercle de spécialistes – autour de Leibniz, de Stahl et des médecins du XVIIe siècle, ceux que vous connaissez par cœur, Harvey, Riolan et Perrault. Et Sarah a publié en 2018 un très joli livre qui s’intitule L’homme parfait. L’anthropologie médicale de Harvey, Riolan et Perrault (1628-1688), qui tourne autour des figures de cercles, de perfection et de fabrique. Sarah Carvallo s’intéresse aussi au vieillissement, à la fin de vie, et elle est membre de la Plate-forme nationale pour la recherche sur la fin de vie depuis 2018. Elle s’intéresse également à l’éthique des sciences, à la notion d’intégrité scientifique et coordonne le numéro de la revue Anthropologie sociale en 2019 sur l’éthique de la recherche. Elle a assuré un MOOC pour l’Université de Lyon, à l’époque, et donc est très en pointe sur ces questions d’intégrité scientifique. Je termine par le plus important, Sarah est mariée et a sept enfants. Je lui passe la parole.

Lire l'article complet

Communication

 

Merci beaucoup Nicolas. Je voudrais d’abord rendre hommage à une femme qui m’a beaucoup marquée, elle s’appelle Anne-Marie Depeigne et a vieilli en ces lieux où nous sommes. J’allais la voir à la fin de sa vie, ici, quand je passais à Paris, et c’est avec émotion que je pense à elle. Nicolas m’a proposé de traiter devant vous de l’intégrité scientifique. En effet, aujourd’hui, la question qui se pose de façon générale à propos des sciences est moins ambitieuse que celle de la vérité, elle est celle de la robustesse et de la fiabilité. En fait, suite à la prise de conscience d’un certain nombre de dysfonctionnements, se pose la question de savoir comment garantir la robustesse pour que nous puissions faire confiance à la science dans le contexte que nous traversons. Inutile de montrer les tensions, les difficultés de cette situation complexe, où il y a une absence de consensus scientifique. Il faut surtout évoquer la prise de conscience d’un certain nombre de dysfonctionnements internes à la recherche, amenant à poser la question de savoir s’il s’agit encore de « la science ». Pendant longtemps, la rigueur et l’honnêteté scientifiques semblait évidentes, voire consubstantielles à la pratique scientifique ; elles ne le sont plus. La science a-t-elle changé ? Cette dé-corrélation est-elle un accident à corriger, ou ne faut-il pas envisager une nouvelle appréhension de la science, en internalisant la question politique, d’une certaine façon, c’est-à-dire en posant la question de la légitimité de la science, non seulement à partir de ses méthodes d’analyse, etc., mais aussi à partir de la garantie que les scientifiques, souverains dans leur domaine, répondent à la mission que leur délègue la société : produire des connaissances qui puissent servir de repères et de guides dans les décisions ?

Ainsi, au début du xxe siècle, Poincaré, par exemple, présentait comme deux domaines étanches ne se rencontrant jamais la science, d’un côté, dédiée aux faits, et, de l’autre côté, la morale et la politique, dédiées aux valeurs. Or on s’est progressivement rendu compte qu’on ne pouvait pas scinder ces deux dimensions de la science, et que la science avait toujours un ancrage éthique et politique à assumer. Cette prise de conscience s’est faite un peu dans la douleur, à partir de l’explicitation d’un problème qui, on va le voir, a conduit à se demander s’il s’agissait d’un accident, d’une déviance, ou s’il s’agissait d’un problème systémique – ce qui peut rappeler d’autres problèmes que nous traversons actuellement. Ce problème est celui qu’on a appelé le FFP, Fraude, Falsification et Plagiat, notamment défini par l’Office américain de l’intégrité scientifique, qui parle plus exactement de research integrity, c’est-à-dire ‘de l’intégrité de la recherche’. En effet, une question importante consiste à savoir si l’on vise la recherche, comme un mode de fonctionnement propre à des institutions publiques ou privées, ou la science. Car ce qu’il y a de compliqué quand on parle de La science, c’est qu’il n’y a pas de limites. Je pense à cet éternel débat entre sciences de la nature, sciences humaines et sociales… jusqu’où peut-on parler de science au singulier ? Et donc, quand on parle de l’intégrité « de la recherche », on élude cette difficulté : on ne se demande pas ce qu’est la science…mais on parle de la recherche comme d’un fonctionnement professionnel et organisationnel – en particulier académique, mais pas seulement, parce qu’il y a beaucoup d’institutions privées qui font aussi de la recherche. On s’intéresse donc davantage à des pratiques opératoires, qui débouchent notamment sur des publications et des brevets, c’est-à-dire généralement à la propriété intellectuelle. Aussi les Américains préfèrent-ils nettement dire « intégrité de la recherche », quand nous préférons plutôt dire en France « intégrité scientifique ».

Quand on a pris conscience du problème de la fabrication, de la falsification et du plagiat en France, on a essayé de l’évaluer. Or cela représente quand même 1 à 2 % des publications mondiales. Donc, certes c’est très minoritaire, mais malgré tout cela correspond potentiellement à 20 000 publications par an, qui ne sont pas, en fin de compte, des publications scientifiques. Dans un premier temps, ces publications paraissent après avoir bel et bien passé l’étape du reviewing, c’est-à-dire de la validation par les pairs : elles sont donc statutairement scientifiques jusqu’à ce qu’elles rétractées. Ce sont en réalité d’autres lecteurs que les experts sollicités par les revues qui vont se rendre compte que ces publications comportent des erreurs, des problèmes. Mais s’agit-il simplement d’erreurs, ou bien de fautes ? L’enquête cherchera à l’établir. L’autre question qui se pose, c’est de savoir comment ces anomalies ont pu passer le premier barrage, à savoir celui de l’évaluation par les pairs, censé justement détecter ce genre de difficultés. La réponse facile est que le travail a manifestement été mal été fait, mais une réponse plus complexe consiste à reconnaître que la robustesse scientifique n’est jamais si simple à garantir. C’est pourquoi il faut toute une logique de critique interne au champ scientifique, par les pairs, pour se rendre compte que ces difficultés-là n’avaient pas été repérées. Cela implique de lancer tout un processus pouvant aller jusqu’à la rétractation et jusqu’à faire perdre à la publication retirée son statut de publication scientifique. Cette situation d’indécision, voire de suspicion, caractérise la crise des sciences contemporaines : un système censé garantir la robustesse et la fiabilité des résultats est mis à mal, y compris dans les plus grandes revues, comme Nature, Lancet, Science, soit les plus prestigieuses revues scientifiques, celles qui ont pourtant le plus de moyens pour effectuer le reviewing. Ce qui est apparu en deuxième instance, c’est que, dans un certain nombre de cas, ces pratiques ne relevaient pas seulement de l’erreur et qu’il y avait effectivement une intention des chercheurs de publier, quitte à recourir au plagiat, à la falsification ou à la fraude de façon plus générale.

Pourquoi, à un certain moment, des scientifiques utilisaient ces moyens pour publier, et s’il s’agissait de déviances exceptionnelles, ou plus diffuses, plus systémiques. Une étude[1] publiée dans Nature en 2005 a fait l’effet d’une douche froide : en effet, selon elle, si on généralise l’ensemble des manières de tricher à des pratiques dites « questionnables » – par lesquelles on arrange un peu ses résultats, on republie plusieurs fois la même chose sans le dire, on fait des plagiats d’autres publications etc. – on obtient environ 30 % de chercheurs américains qui reconnaissent, de façon auto-déclarée, sans preuve, recourir ou avoir eu recours à ce type de « pratiques questionnables ». C’était aussi vrai pour les seniors que pour les juniors, et dans toutes les disciplines. Une enquête a été menée en France, notamment par Étienne Vergès à l’université de Grenoble : elle n’a pas été publiée, mais l’information qui a circulé, c’est qu’elle présentait finalement à peu près les mêmes résultats pour la communauté scientifique française.

Ces cas de publications rétractées, au sujet desquelles l’enquête a prouvé qu’il y avait une fraude intentionnelle de la part du scientifique, ont été beaucoup étudiés, tracés ; il apparaît qu’outre la responsabilité du chercheur ou de l’équipe, elles embarquent aussi la responsabilité des institutions (les universités, les centres de recherche, les revues). En d’autres termes, le responsable de la fraude n’est pas seulement l’individu fraudeur, voire son équipe, c’est aussi l’institution à laquelle il appartient, qui doit d’ailleurs payer les coûts de rétractation – qui sont élevés –mener une enquête, voire établir des sanctions au sein de son université. Par ailleurs, ces études de cas révèlent que la fraude atteint toutes les disciplines. Il y en a en médecine, mais également en psychologie ou en biologie végétale, dans les sciences de l’ingénieur, etc. Il n’y a pas une discipline qui y échapperait par nature.

Je me souviens d’une conférence internationale sur ‘’recherche et intégrité[2]’’, où un mathématicien expliquait avoir triché, mais sans même s’en rendre compte. Je vais revenir sur cet aspect-là, car en fait la difficulté, c’est que la frontière entre erreur et fraude peut être très diffuse. Il y a néanmoins des lignes rouges, c’est-à-dire lorsqu’il s’agit vraiment de la fabrication de résultats. Par exemple Diederick Stapel, un psychologue, a fabriqué des cohortes de sujets, à partir de rien, des cohortes de 900 personnes, et a publié énormément d’articles[3]. On parle donc de chercheurs « excellents » au sens où ils publient plus que la moyenne, obtiennent plus de financements pour leur recherche, occupent des postes académiques très convoités, etc. – pas de chercheurs inconnus qui chercheraient à entrer dans le système, mais de chercheurs déjà reconnus qui à un moment (quand ?) dérapent pour, selon eux, maintenir leur niveau d’excellence. Dans le livre[4]qu’il a écrit ensuite pour essayer d’expliquer comment il avait pu se retrouver dans cette situation, presque sans en avoir conscience, ce psychologue explique très bien qu’il est un brillant chercheur mais qu’à un moment donné il n’arrive plus à suivre la course de la publication ; or il se sent obligé de publier ; c’est ainsi qu’il arrive à ce moyen qui consiste à fabriquer des cohortes. Il y a donc une espèce de glissement et de franchissement progressif de la ligne rouge : alors qu’il était déjà un excellent chercheur, pour garder le rythme de l’excellence vient un moment où il se sent contraint ; puis, une fois qu’il a commencé à publier ce genre de papier à succès, il est obligé de continuer, parce que c’est ce qui crée sa notoriété. Ce qu’il y a d’intéressant dans cet exemple, c’est que les lignes rouges n’étaient plus évidentes pour les chercheurs eux-mêmes, pris dans un système d’injonctions contradictoires, publish or perish : si vous ne publiez pas dans des revues de renom et de façon soutenue, votre carrière et votre reconnaissance scientifique diminuent. On voit là l’ambiguïté de la notion d’excellence qui paradoxalement peut inciter à la fraude – sans l’excuser ni la justifier, bien sûr.

Une fois repéré ce genre de problèmes, on s’est aperçu qu’à partir du moment où les rétractations commençaient à être chiffrées, leur nombre augmentait. La question s’est alors posée de savoir si elles augmentaient parce qu’on les cherchait plus activement – l’augmentation serait alors proportionnelle à l’entreprise de détection, pas seulement en chiffres absolus – ou parce que le système de la science devient de plus en plus tendu, de plus en plus international : dans ce contexte de tension et de complexité, les grilles et les normes implicites de la science ne sont plus aussi évidentes pour les chercheurs. On ne peut pour le moment pas trancher entre les deux explications, mais de fait, quand on regarde les courbes, en tout cas, à partir des années 2000 on constate une franche augmentation des articles rétractés.

Comment a-t-on pu en arriver là ? Je rappelle que selon les sondages européens ou français, la science reste l’institution à laquelle le public fait le plus confiance, elle reste un lieu de confiance devant la politique, devant le journalisme[5]. On assiste donc à une forme de déstabilisation, qui fait que l’on se demande si cette confiance est légitime, si ce sont des individus qui ont failli, si c’est lié à certaines disciplines – de fait certaines disciplines, notamment la biologie et la médecine, connaissent davantage ce genre de difficultés que les mathématiques. Il y a donc des domaines plus touchés par ces questions-là –mais ce sont aussi les domaines où il y a plus de publications, ce qui rend les comparaisons strictes plus discutables Il s’est avéré aussi que c’était un problème institutionnel, au sens où les universités ou institutions qui avaient été confrontées à ces questions-là n’avaient pas su prévenir ces manquements. Plus fondamentalement, on peut se demander si ce ne serait pas la recherche elle-même, aujourd’hui, qui génèrerait ce genre de difficultés –recherche basée sur l’accélération des pratiques de tout ce qu’on appelle aujourd’hui les big data, l’open science. Ces pratiques ne brouillent-elles pas les repères qui étaient traditionnellement ceux de la science, avec qui plus est une internationalisation très forte, pour certains pays ? Alors, est-ce que ce n’est pas aussi un coût à payer pour accéder à cette science internationale ? Ainsi, il existe beaucoup d’analyses au niveau systémique, pour essayer de comprendre comment la science produit ce genre de déviances, qui ne sont pas le seul fait d’individus, de disciplines ou d’institutions particulières. Et l’explication, c’est finalement celle de l’évaluation de la recherche et de la course à l’excellence à l’échelle internationale.

En effet, dans les années soixante, notamment à partir de questions des bibliothécaires qui voulaient déterminer comment choisir les revues auxquelles s’abonner ou qu’il fallait  conserver– question d’autant plus importante qu’à l’époque c’était du papier – , on a mis en place un système d’évaluation de la recherche qui visait à produire des critères quantitatifs des meilleures revues, soit des meilleurs papiers ou des meilleurs chercheurs. C’est la naissance de la bibliométrie et de la scientométrie, qui se veut une science de la science[6]: c’est ce fameux impact facteur H qui classe le niveau de publication d’un scientifique. Dans les faits, cette quantification de la recherche est devenue aussi une injonction à augmenter le rythme de publications, et a introduit une situation de dilemme du chercheur, pris entre cette obligation de publier et une attente en termes de fiabilité, de qualité de la recherche. Ainsi il y a eu des enquêtes, dont une très intéressante en France, publiée en 2017, montrant ces tensions extrêmes que vivent les chercheurs, devenus soucieux de maintenir le rythme des publications pour ne pas perdre leur propre légitimité[7]. En effet, pour ce faire, il faut avoir des résultats positifs, mener des enquêtes, obtenir des financements, etc. Et cela induit forcément un défi permanent dans un système de plus en plus concurrentiel, qui peut mener jusqu’à des injonctions contradictoires. Ainsi, on trouve une première explication dans cette logique de l’évaluation et de la quantification de la recherche.

Deuxième explication systémique, proposée par Jean-Jacques Salomon[8] –un expert de la recherche au niveau de l’OCDE– ,qui utilise le concept de dénégation, qu’il reprend à Freud en montrant comment les scientifiques ont été formés, pendant très longtemps, pour être bons dans leur domaine de recherche, mais pas nécessairement pour assumer toute la dimension institutionnelle de la recherche. Le principe de dénégation consiste dans le fait d’être orienté par un seul critère, sans tenir compte des responsabilités beaucoup plus globales qui sont celles du chercheur. Ce que critique Salomon, c’est en quelque sorte une vision un peu idéaliste ou puriste de la science, qui est en réalité toujours embarquée dans des contextes politiques et institutionnels. Au contraire, selon lui, il revient aussi au chercheur d’assumer cette dimension de tension politique de son institution : être un bon chercheur, c’est être responsable.

La troisième explication systémique vient de l’analyse d’Hannah Arendt, qui a développé le concept de « la banalité du mal ».Il s’agit de se demander, au regard de ces pratiques questionnables devenues ordinaires, s’il n’y a pas une banalisation du franchissement de la ligne rouge. Or cela correspond précisément à ce qu’ont ressenti des doctorants arrivés dans des équipes de recherche où avaient cours des pratiques pas tout à fait transparentes : ils ont eu alors le sentiment d’un fonctionnement normal de la recherche, c’est-à-dire banal dans leur environnement proche mais anormal quant aux attentes en matière de rigueur et honnêteté. C’est à ce propos que l’on peut parler de ‘banalité du mal’, d’un manque de conscience par rapport à la faute ; ainsi la responsabilité personnelle, mais bien sûr aussi la responsabilité collective, notamment celle des investigateurs principaux (les porteurs de projets scientifiques), a été quelque peu gommée, diluée, du fait de certains fonctionnements devenus quasiment ordinaires en science. Globalement, cela a entraîné l’idée selon laquelle il allait falloir ‘ré-internaliser’ la reconnaissance des enjeux d’intégrité dans la science.

L’expression d’intégrité scientifique s’est un peu banalisée aujourd’hui, mais c’est un mot assez récent, qui date des années 1992. Ce sont notamment les États-Unis, au moment de la création de l’Office pour l’intégrité de la recherche, qui ont entériné ce terme, proposé en Finlande et au Danemark un ou deux ans auparavant. Cette notion d’intégrité vise à se différencier de l’éthique. Selon cette distinction (contestable à certains égards), l’éthique de la recherche s’interroge sur les problèmes posés par le nucléaire, les OGM, l’environnement, le financement, les générations futures, etc. en fonction des conséquences, des devoirs moraux, des valeurs, alors que l’intégrité serait consubstantielle à la science : elle est ce sans quoi, normalement, il ne devrait pas pouvoir y avoir de science. Elle ne dépend pas de valeurs, mais conditionne la possibilité même de la science, et par contre coup, la confiance en elle. Si la science n’était pas produite de façon intègre, elle ne pourrait plus être considérée comme de la science. C’est la logique de la rétraction qui exclut ce qui semblait scientifique hors de la recherche.

Après avoir identifié ces questions, l’enjeu a été de proposer des modes de régulation internes à la recherche, pour essayer de contrevenir à cette tendance– qui ne serait donc pas simplement ponctuelle mais aussi systémique. Cette régulation passe par un certain nombre d’actions, mais aussi, on va le voir, par un effort d’explicitation des enjeux. En ce qui concerne les actions, les États-Unis ont entrepris une politique assez importante au niveau fédéral et au niveau des différents États dans les années 90, en particulier à travers la création de l’Office de l’intégrité de la recherche en 1992 évoqué plus haut. En Europe, il a fallu attendre les années 2005, avec la Charte européenne du chercheur, et puis il y a eu l’émergence d’un accord international en 2010 au niveau de la Conférence internationale sur l’intégrité scientifique de Singapour, où l’on a essayé d’énoncer les principes fondamentaux de la recherche. Mais certains pays européens, comme le Danemark, avaient commencé dès 1992 à mettre en place une politique d’intégrité scientifique ; la France arrive assez tard dans le paysage.

L’idée de l’intégrité scientifique consiste à s’inscrire dans une conception principiste des normes, qui, dans le domaine médical, cherche à dégager un consensus sur les principes auxquels la médecine ne devrait jamais déroger. Ainsi le rapport de Belmont cherche à poser des normes consensuelles et universelles. De fait, toutes les institutions internationales de recherche médicale ont essayé de se mettre d’accord sur quelques principes fondamentaux de la recherche : l’honnêteté, une conduite responsable, la courtoisie et la loyauté, et la bonne gestion de la recherche. Ces normes peuvent paraître étonnamment simples : on a l’impression de revenir à des choses qui devraient aller de soi…. Ainsi, ce qui semblait consubstantiel à la recherche ne l’était pas en réalité, il fallait ré-expliciter ces principes intangibles, et considérer qu’à partir du moment où ils étaient enfreints, il ne pouvait pas être question de recherche, et qu’il fallait les sanctionner. Toute la question a donc été ensuite de savoir comment faire respecter ces principes durant tout le processus de la recherche pour éviter les rétractations. La notion de responsabilité est devenue alors centrale, de sorte que l’on est maintenant dans un système de responsabilisation des chercheurs, mais aussi des revues et des institutions. D’ailleurs, le décret français sur l’intégrité scientifique est sorti vendredi dernier, le 3 décembre 2021. On discerne très bien son but, à savoir rendre les chercheurs, ainsi que les institutions juridiquement responsables. C’est-à-dire qu’on va proposer un droit opposable aux institutions, si elles ne mettent pas en place des procédures pour garantir l’honnêteté, la responsabilité, la courtoisie, la loyauté et la bonne gestion– et de même pour les chercheurs. Or entre 2010 et 2021, beaucoup de choses ont déjà été mises en place. Le moment important en France, c’est 2015-2016, période de grand réveil et de prise de conscience française. Cette dernière est la conséquence d’une affaire touchant un chercheur de pointe en biologie végétale, Olivier Voinnet, membre de l’Académie des sciences et médaille d’argent du CNRS, en contrat partagé avec l’ETH-Zurich et le CNRS : en effet cinq de ses papiers dans des revues internationales sont rétractés. C’est une douche froide pour le CNRS, qui doit donc mener l’enquête et expliquer comment l’un de ses chercheurs de pointe a pu publier des papiers falsifiés. Voinnet a fait beaucoup de conférences, depuis, pour expliquer comment un chercheur brillant peut traverser à un moment une période difficile, et n’arrivant plus à trouver d’inspiration, commence à arranger un peu ses résultats, avant d’être prisonnier du système. Des querelles très fortes émergent alors dans les discussions entre professionnels, sur fond d’animosité très virulente, notamment entre Voinnet et une chercheuse américaine, Vicky Vance, qui commence à contester ses publications. On est donc très loin de la courtoisie.

Conscient de cette difficulté interne, le CNRS publie alors une Charte nationale de déontologie des métiers de la recherche, en introduisant un nouveau terme, celui de déontologie pour rapporter l’intégrité à des normes professionnelles. Or ce terme pose difficulté, car, un an, plus tard la France promulgue une loi sur la déontologie de la fonction publique. Or, tous les chercheurs ne sont pas fonctionnaires : quand vous êtes au CNRS, vous êtes aussi un fonctionnaire ; mais il y a d’autres institutions privées de recherche. Et la Charte concerne tous les chercheurs. Dans cette confusion sémantique, il ne faut pas confondre la déontologie des métiers de la recherche et la déontologie de la fonction publique – même si, parfois, on peut relever des deux systèmes. Et il faut souligner que, dans la déontologie du fonctionnaire, il y a aussi de l’intégrité. Bref, le problème se complique et les chercheurs se trouvent face à un problème sémantique qui révèle aussi une espèce de confusion : éthique, déontologie, intégrité sont des termes encore mal stabilisés, qui n’ont pas les mêmes découpages en anglais, et correspondent aussi à des traditions culturelles et juridiques légèrement différentes. Toujours est-il que ce fut un moment important pour le CNRS et la France. Thierry Mandon, secrétaire d’État, confie ensuite une mission à Pierre Corvol, de l’Académie de médecine, qui va déboucher sur un arrêté concernant la formation doctorale : désormais pèsera une obligation de former tous les docteurs français, d’une part à la recherche, d’autre part à l’intégrité scientifique et à l’éthique de la recherche. Ainsi, ce que l’on pensait être consubstantiel à la formation scientifique devra faire l’objet d’un enseignement obligatoire pour tous les doctorants. Il est aujourd’hui nécessaire, pour soutenir une thèse, de valider le fait d’avoir suivi ces formations en intégrité scientifique.

Il s’agit donc d’une régulation qui comme toujours, en France a fortiori, est top down. C’est-à-dire que l’on va édicter un certain nombre de chartes, de principes ; on va obliger, promulguer des décrets; c’est pourquoi l’on va commencer par viser les plus jeunes, et les obliger à internaliser ces nouvelles obligations. C’est vrai non seulement pour la France, mais aussi pour la plupart des autres pays européens et américains : l’objectif consiste à affirmer que l’intégrité scientifique, doit être internationale, puisqu’elle est censée être universelle. Mais ce qui rend son application difficile à l’échelle internationale vient de ce que la compréhension de l’honnêteté, de la courtoisie, de la loyauté, implique toujours une épaisseur culturelle et qu’il y a des différences entre les représentations institutionnelles de ces valeurs, pourtant manifestement tout à fait nécessaires.

Toujours est-il qu’avec ces chartes, ces textes et ces décrets, de nouveaux métiers sont créés, de nouvelles fonctions à l’université, en particulier la fonction de « référent intégrité scientifique ».Aujourd’hui chaque institution de recherche, privée ou publique, doit avoir un « référent intégrité scientifique ». Si bien que l’on assiste aujourd’hui à une inflation de référents : « laïcité », « égalité homme-femme », « déontologues », « qualité », et maintenant « intégrité scientifique ». Souvent ils s’ignorent tous les uns les autres et ne savent pas toujours quelles sont leurs fonctions respectives. Par ailleurs, comme ce sont des fonctions bénévoles, elles sont généralement le fait de personnes plutôt en fin de carrière qui n’ont pas forcément perçu l’évolution des métiers et ne sont pas forcément en lien direct avec les jeunes chercheurs et les doctorants. Il y a donc eu un certain flou, pour ne pas dire une certaine cacophonie. Je faisais partie quant à moi de ce réseau de référents « intégrité scientifique », je témoigne de la difficulté de clarifier la mission. Disons que le référent « intégrité scientifique » est celui qui doit lancer des enquêtes en interne, lorsqu’il est saisi à l’intérieur de l’université, pour essayer de discerner la nature du problème. Il devra juger s’il est opportun de faire appel à d’autres enquêtes, par exemple celles relevant du droit, puisque – on va le voir – il y a une dimension pénale de la fraude qui peut relever de la contrefaçon, dans le droit français, et donc être punie.

Vous imaginez donc un référent « intégrité scientifique » censé gérer tous les problèmes dans toutes les disciplines de son institution ? En réalité, son rôle dépend beaucoup du président d’université, puisqu’il n’a de compte à rendre qu’au président. Or les présidents d’université sont plus ou moins sensibles à ce genre de questions, sans compter le fait qu’elles ne sont pas forcément très agréables ni très faciles à régler. Quant aux sanctions, il s’agit du retrait d’un article, de sanctions souvent implicites, mais parfois aussi d’exclusion. En effet, une fois que vous avez été identifié comme ayant triché, vous ne pouvez plus avoir de fonds pour faire de la recherche, vous êtes mis au ban de votre réseau, de votre association. Il y a des mesures administratives pour qualifier la nature de la fraude, savoir s’il s’agit d’un plagiat, d’une falsification, d’un embellissement, etc. Le discrédit peut même toucher la personne dans l’opinion publique, Voinnet en a beaucoup parlé dans les médias ; il faut donc aussi supporter le poids de la honte publique. Certains chercheurs impliqués dans des fraudes se sont suicidés, comme Yoshiki Sasai au Japon. Enfin, les mesures peuvent être d’ordre pénal et aller jusqu’à la destitution du titre de chercheur, comme en Corée du Sud en ce qui concerne Hwang Woo-Suk ; Haruko Obakata démissionne. En France, un jeune chercheur, Arash Derambarsh, en droit a cherché à devenir avocat par la voie qui consiste à obtenir une thèse en droit, celle-ci donnant accès au titre d’avocat. Or la thèse avait été plagiée à peu près à 90 %. Elle a quand même été encadrée par un directeur de thèse à l’université Paris I, soutenue et validée par les membres du jury qui n’ont pas repéré de plagiat. Une enquête a été menée ; l’université veut le destituer de son titre de docteur, mais le candidat conteste la décision. Il y a eu un cas similaire, dont l’intérêt spécifique tient au fait qu’on y mesure à quel point les enjeux de pouvoir sont à l’œuvre. Ainsi un professeur de lettres de Paris-IV a-t-il été confondu pour avoir plagié un dossier que lui avait communiqué un collègue qui l’expertisait au Comité national des universités. La jeune chercheuse a porté plainte ; l’affaire passe au pénal, mais l’intéressé dénie et pour le moment ce professeur a été plutôt protégé par son université : aucune sanction n’a été mise en œuvre. Toujours est-il qu’on voit un système de surveillance et sanctions se mettre en place.

Beaucoup d’associations ont été créées au sein de l’université, dont des associations européennes, par exemple à Paris-Saclay l’association Polethis. A Lyon, nous avions créé une Plateforme pour l’intégrité et l’éthique de la recherche, par laquelle un ensemble de chercheurs  a proposé des actions, notamment en termes de formations, de réflexions et de publications sur ces questions-là. Ce qui est intéressant donc, c’est qu’il y a aussi des mouvements bottom up qui partent d’une prise de conscience d’un certain nombre de chercheurs et tentent de créer des formes de contre-mouvement, qui maintenant correspondent à toute une ligne de financement au niveau européen, et même au niveau de l’ANR (l’Agence Nationale de la Recherche française), qui permet désormais de monter des projets de recherche sur l’intégrité scientifique. A l’échelle européenne, un projet Printeger étudie la raison des difficultés à se mettre d’accord sur ce qu’est l’intégrité scientifique à l’échelle européenne, du fait de nos histoires, de nos cultures et de nos institutions différentes. Par conséquent, on imagine bien comme cela va être compliqué avec les Chinois, les Éthiopiens, les Russes et les Américains !Une prise de conscience générale passe donc, outre les textes, les sanctions, la formation, par tout un travail mené au niveau des éditeurs scientifiques, des grandes maisons d’édition, qui se sont dotées d’un comité d’éthique et ont mis en place des chartes et des systèmes de reviewing un peu plus performants, afin de garantir la validité du travail d’édition scientifique.

Cet ensemble de mesures n’a pas complètement réglé le problème, puisque de nouvelles affaires surviennent ; par conséquent, se pose la question de savoir s’il ne faudrait pas revenir à des changements plus structurels. Nous avons vu que l’intégrité scientifique défend une approche principiste, qui vise à trouver un consensus autour des principes les plus sobres et les plus minimaux, consubstantiels à la recherche par-delà les différentes cultures. Or cette approche n’est peut-être pas pertinente. C’est pourquoi d’autres propositions alternatives voient le jour : certains proposent de réintroduire une forme de ‘vertu’ scientifique, en arguant qu’on ne peut pas séparer si aisément intégrité et éthique, et ne se situer que dans le respect de principes. Cela implique alors de revenir à une approche vertueuse de la science. Ainsi, dans une logique quasi aristotélicienne, il s’agirait de renforcer ce qu’on appelait l’ethos scientifique, pour reprendre le terme de Merton, sociologue des sciences dans les années 1940, qui regardait la science comme une institution sociale capable de rendre les acteurs vertueux[9]. Or toute la suite de l’histoire montre que cela ne fonctionne pas si bien ; c’est pourquoi une des pistes de réflexion aujourd’hui est de dire que l’honnêteté, la loyauté, etc., ne sont pas seulement des principes, mais vont de pair avec toute une éducation qui devrait faire partie de la formation des chercheurs, devenir une compétence propre ; on parle de softs skills, de manière d’être, de savoir-être du scientifique.

La deuxième grande proposition, c’est celle de ralentir la recherche pour faire ce qu’on appelle de la slow science. En effet, on a constaté une espèce d’accélération de la recherche, du fait de la concurrence : les appels à projet ne durent en général pas plus de trois ans, parfois même un an seulement, ou même six mois. Il y a une forme d’incitation à cette course, et Sabina Leonelli, l’une des chercheuses les plus en vue aujourd’hui sur ce qu’on appelle l’open science et le big data, soit la science des données massives, dit que pour elle, c’est vraiment le seul moyen de réguler ces tensions internes à la science[10]. Parce que, si l’on incite à une publication quantitative et rapide, cela crée nécessairement des tensions, et le système ne peut pas résister. De fait il y a des évolutions intéressantes, comme par exemple celle de l’université d’Utrecht, reprise actuellement par celle de Paris-Saclay, qui ne souhaitent plus évaluer les carrières des chercheurs sur le nombre de publications. Elles veulent évaluer d’autres qualités du chercheur, comme son investissement dans l’enseignement, sa capacité à monter des projets collectifs au-delà de sa carrière personnelle, etc. Il y a donc des changements de comportement et de critères d’évaluation qui se mettent en place, ainsi qu’un encouragement donné, peu ou prou, à une forme de transparence de la science. Par exemple, on encourage à discuter des résultats de la recherche de façon transparente, soit entre scientifiques – à travers des plateformes comme Pubpeer– , soit même au niveau de la société publique, en faisant participer les citoyens à ces questions d’intégrité scientifique. Il y a des associations, notamment comme Sciences citoyennes, qui essayent d’impliquer les citoyens dans une réflexion sur la science et dans une prise de conscience que les déviances de la science concernent aussi la société, dans la mesure où celle-ci donne mandat aux chercheurs de développer leur recherche, en partie financée par les fonds publics : cela implique une forme de vigilance citoyenne. La loi évolue donc dans le sens d’un renforcement de cette notion de responsabilité citoyenne au niveau des institutions universitaires. C’était le sens de la réforme du plan investissement-avenir (PIA) de 2010, qui nous régit encore. Il fonctionne plus ou moins bien sur cet aspect-là, mais fait tout de même partie des grandes orientations de la réforme de la recherche.

Finalement, le problème essentiel est celui des conflits d’intérêts, non seulement au sens où le chercheur est financé par des entreprises ou des projets de recherche qui le lient, mais aussi parce que le critère de la quantité de publications peut créer des conflits d’intérêts entre la qualité, l’originalité de la recherche et cette injonction à la publication, tant que cette dernière est le seul critère d’évaluation. Pour essayer de résoudre les problèmes d’intégrité scientifique, il s’agit donc de réfléchir non seulement à la façon de mettre un système en tension, comme celui de la recherche, mais aussi d’essayer de les dénouer.

Pour conclure, ces réflexions sur l’intégrité scientifique sont donc très actuelles. Je fais partie d’un projet ANR sur l’intégrité scientifique, et je peux attester que ce sont des questions sur lesquelles la France est en train de réfléchir et de poser des actions très fortes. Mais cette réflexion oblige à assumer malgré tout le fait que la science intègre toujours un certain nombre de valeurs –autrement dit elle n’est pas purement neutre – et une responsabilité politique. Il y a donc toute une réflexion à mener en philosophie des sciences, pour dire que la science ne doit pas seulement être vraie –et c’est très difficile de savoir ce que c’est d’être vrai– mais doit être responsable. Et être responsable, c’est répondre à la confiance que la société vous accorde ;or les Français, spontanément, gardent encore confiance dans la science. Il y a en effet cette enquête de 2020 publiée en juillet 2021,« Les Français et la science », qui montre que les Français font confiance à la science malgré tout ce qu’on a pu vivre avec la pandémie ! Il s’agit donc d’une vraie délégation. Quant aux budgets de la recherche, évidemment les chercheurs se plaignent qu’ils ne sont jamais suffisants, mais malgré tout ils restent importants, et c’est de l’argent public qui est mandaté pour une fonction au service de la société. C’est pourquoi cette idée de science responsable vient à juste titre, selon moi, faire évoluer la teneur de la notion de robustesse, en montrant qu’une épaisseur sociale, culturelle, soulève la question des valeurs de la recherche : elle doit désormais être assumée et pensée de façon réflexive, à la fois par les chercheurs et par les institutions de la recherche. En un siècle, la conception même de la science a donc profondément changé. Il s’agit de revenir à ce critère de responsabilité, pour donner des pistes à différentes échelles jusqu’au plus haut niveau international, même si, évidemment, il n’y a pas de tribunal international de la science, pour voir comment assumer cette responsabilité collective. Je vous remercie.

 

 

Echanges de vues

 

Marie-Joëlle Guillaume

Je voudrais tout d’abord souligner un mot qui a attiré particulièrement mon attention, c’est le mot « vertu » – car il y a une solidité dans la vertu. On s’aperçoit effectivement que la science, dont le grand public considère en général qu’elle est « objective », est tout de même faite avec des hommes, leurs limites et leurs problèmes de responsabilité humaine.J’ai une question à vous poser, peut-être un peu naïve, mais l’accélération que l’on constate ne viendrait-elle pas du fait qu’une partie au moins de la recherche, même fondamentale, est d’abord orientée à notre époque vers l’utile, plus que vers la gratuité de la recherche. L’utile, cela veut dire que certains financements viendront ou ne viendront pas, selon que l’on sert certains intérêts ou non.

 

Sarah Carvallo

Il est vrai que de toute manière, objectivement il y a de moins en moins de recherche fondamentale, il y a moins de postes en recherche fondamentale qu’en recherche appliquée. C’est vrai par exemple si l’on prend les mathématiques et si l’on prend la physique, et même si l’on prend la biologie aujourd’hui –personnellement je travaille beaucoup avec des médecins, des biologistes, et je n’ai jamais vu un biologiste fondamental ! Il y a donc déjà une réorientation, ce qui est intéressant, parce qu’effectivement il y a un certain nombre de critiques, et pas seulement des critiques pour dire que la science fondamentale d’aujourd’hui sera la science appliquée de demain. En fait, il y a une critique encore plus pertinente à mon avis, qui rejoint un peu ce que vous dites, même si ce n’est pas une critique directement en termes d’utilité, c’est celle qui concerne l’actionnabilité, c’est-à-dire la capacité à trouver des applications. Une science actionnable, c’est une science dont la recherche doit tout de suite trouver des applications actionnables, vous permettant de faire assez rapidement des choses efficaces. Ce qui est intéressant – j’en discutais avec des généticiens il y a deux ou trois jours -, c’est qu’on n’a même plus envie de savoir comment ça marche, on veut juste que ça marche. Aujourd’hui en génomique, sur le séquençage très haut débit, on en est à la nouvelle génération, qui va bientôt elle-même être dépassée. On est en train d’essayer de trouver des systèmes de prévention de certaines maladies qu’on sait identifier, mais on agit en fait avant même de savoir comment cela fonctionne, parce qu’on n’a pas le temps, c’est très compliqué, et puis il y a une telle demande des associations de patients, des modes de financement, et même des médecins… ! Je ne sais pas si vous suivez un peu l’évolution de la recherche génétique, qui correspond, en France, au plan « France génomique 2025 », mais l’actionnabilité est explicitement au cœur des critères de ce plan. Ce qui est intéressant à relever, c’est qu’en réalité les scientifiques n’ont même plus « besoin » de théorie pour faire de la recherche, ce qui est assez sidérant, car finalement cela signifie qu’on n’a pas besoin de cette théorie pour garantir la robustesse.

Ainsi, on peut se poser la question : n’y a-t-il pas une forme de moralisation de la recherche sous la forme d’une morale utilitaire, mais qui oublie l’autre versant nécessaire, celui de la théorie précisément ? Or, face à cette critique-là, certains font valoir l’incontournable changement de paradigme scientifique, celui des technosciences, qui implique, pour faire de la science, de faire du big data, que ce soit en physique, en biologie, en chimie, etc., et nécessairement par le biais de très grosses structures. Autrement dit, c’est de la big science. Ainsi, peut-être la science n’est-elle plus une science théorique, parce que de fait, le papier et le crayon ne suffisent plus dans le traitement des données massives. Il y a donc beaucoup d’études et beaucoup de recherches en science studies sur les technosciences pour comprendre comment dans les années 1980 la science est devenue unetechnoscience. Dès lors, le mot « fondamental »n’a plus la même valeur qu’auparavant.

Les technosciences impliquent l’idée qu’on ne peut pas faire de sciences sans les techniques, c’est-à-dire que ce sont les technologies qui vous apportent des problèmes et vous posent des questions scientifiques. Par exemple, en génomique – le domaine que je connais le mieux dans la recherche de pointe actuelle– si naguère la recherche en médecine était faite par les médecins, ce sont désormais de nouveaux acteurs, les bio-informaticiens, qui vont généralement produire le séquençage –et non pas des médecins. Et ces nouveaux acteurs deviennent plus que nécessaires ; ils transforment les pratiques du diagnostic, l’enjeu étant d’arriver à créer une espèce de double culture chez certains professionnels, à la fois bio-informaticiens et médecins. Pour le moment, ils sont distincts, peut-être qu’à terme, certains profils uniront les deux cultures. Et la biologie fondamentale ne fait pas partie de la chaîne de production de la génomique.

 

Rémi Sentis

Tout d’abord, une petite anecdote concernant le problème de l’évaluation des chercheurs. Il y a cinq ou six ans, je participais régulièrement à un séminaire du plus gros laboratoire de mathématiques appliquées en France, qui se réunissait chaque semaine à la même heure depuis de longues années (et était connu de tout le milieu). Les plus anciens membres de ce séminaire ont réalisé que le nombre de personnes assistant à l’exposé du conférencier variait notablement d’une séance à l’autre ; et que ce nombre correspondait finalement une méthode d’évaluation de la recherche bien meilleure que de compter les publications dudit conférencier. Finalement ils ont relativisé l’importance de tous les comités d’évaluation. Le fait qu’il y avait 20 ou 60 personnes dans la salle était un très bon marqueur de la qualité des travaux du conférencier. En généralisant, on pourrait peut-être éviter des procédures extrêmement complexes…Je soumets cela à votre sagacité !

Plus sérieusement, je ne suis guère à l’aise quand vous parlez de la science en général : selon moi, avec les mathématiques il y a les sciences physiques naturelles qui utilisent un langage mathématique et les implications de la science. Mais à mon avis la médecine n’est pas une science, tout le monde savait cela il y a 25 ans ; or maintenant si l’on dit dans la presse que la médecine n’est pas une science, on se fait traiter d’ignoble individu, c’est tout juste si l’on ne va pas en prison !Mais il faut répéter que la médecine n’est pas une science, la médecine est un art, et c’est mieux ! C’est un art qui utilise des techniques basées sur des connaissances scientifiques et le médecin se doit d’avoir des connaissances scientifiques. Mais c’est un art ! Je ne parle pas de la sociologie ou des sciences humaines, qui ne sont absolument pas des sciences ! Ainsi le problème de la vérité là-dedans n’est pas le même en médecine et en mathématiques, en chimie.

Pour revenir à votre propos fondamental, j’ai beaucoup apprécié ce que vous avez dit de façon claire sur l’honnêteté et la loyauté ; c’est cela qui est crucial. Or ce sont des vertus chrétiennes : on est honnête et on ne ment pas, etc. Peut-être que si on insufflait un peu plus de vertus chrétiennes au niveau des jeunes chercheurs, ça irait mieux…

 

Sarah Carvallo

Je pense que nous serons tous d’accord sur la valeur des vertus chrétiennes dans cette salle, mais pouvons-nous généraliser le propos en dehors de la salle ? Quant à l’évaluation, votre exemple est intéressant, parce que cette évaluation informelle dont vous parlez est une évaluation essentiellement qualitative. Or quand vous avez des dossiers, que vous évaluez des chercheurs internationaux, etc., pour des appels à projets, et que vous êtes sollicité pour la lecture des dossiers, il faut fournir des critères objectifs, donc essentiellement quantitatifs. En effet deux experts analyseront le dossier : il faut fournir des arguments, que ça aille vite, que ce soit clair et net, etc. Donc le problème, c’est d’être en mesure de donner des indicateurs quantitatifs de l’évaluation. Si l’on se base sur l’audimat, cela peut être parfois ambigu, parce qu’il y a des biais. Je pense qu’il y a des chercheurs qui remplissent la salle, mais pas forcément pour de bonnes raisons. Mais je suis d’accord avec vous, un séminaire comme celui que vous citez, vraiment interne à une discipline, peut créer les bonnes conditions d’évaluation de la recherche. Cela dit ce n’est pas forcément homogénéisable – et aujourd’hui, en temps de pandémie, nous faisons des séminaires en ligne qui changent aussi la donne.

Enfin, sur votre conception de la science, elle est très respectable ; mais je ne suis pas d’accord sur votre conception de la médecine qui ne serait pas une science mais seulement un art. Depuis le XVIIe siècle au moins (mais on pourrait remonter à Hippocrate), la médecine prétend être une science, et tout son enjeu est justement de chercher à n’être pas seulement un art. On s’est appuyé sur Hippocrate et Galien pour dire que certes la médecine est un art, mais qu’elle est aussi un savoir, et que c’est précisément cela qui la différencie du charlatanisme. Les charlatans, ou ceux qu’on appelle aujourd’hui les para-médecins, les pratiquants des médecines alternatives, ou non-conventionnelles, sont l’éternel problème des médecins ;à chaque fois, le critère de démarcation entre les médecins et les autres, c’est la science ! L’enjeu de l’homéopathie, c’est la preuve scientifique ! Pour vérifier si c’est efficace ou pas, ce sont des arguments scientifiques qu’on utilise. Il y a donc déjà une tradition qui fait que la médecine prétend être une science, au moins en partie. Ensuite, il y a eu tout un débat au sujet de la scientificité de la sociologie ou de la psychologie, dont heureusement la philosophie est indemne. Ces disciplines ont en effet prétendu être des sciences, parce qu’elles ont des méthodes empiriques et parce qu’elles ont un terrain expérimental ; et il y a des montagnes de livres en psychologie et en sociologie pour expliquer en quoi ce sont des sciences. Disons que la question de la qualification de science (pour la sociologie, la psychologie, etc.) a été au cœur de la science wars, la guerre des sciences dans les années 1990. De guerre lasse, nous avons plutôt accepté de pluraliser le terme et le concept de sciences, de telle sorte qu’il y a plusieurs sciences.

Personnellement, il me semble que le terme de recherche permet d’éviter un débat de fond sur la nature de la science. A cet égard, le terme de recherche semble plus adapté : il faudrait dire « intégrité de la recherche » comme les Américains, plutôt qu’intégrité scientifique comme les Français. Pour comprendre cette distinction, il faudrait faire un détour par l’université allemande, qui a été le modèle universitaire. La Wiessenschaft, en allemand, désigne une discipline enseignée à l’Académie. Il y avait de la théologie dans les Wiessenschaften : il ne s’agissait pas de savoir quelle était la nature scientifique de la théologique, mais seulement de considérer qu’elle est enseignée à l’Académie. Nous avons récupéré le modèle de l’université allemande au XIXe siècle, pour refondre l’université française. Mais dans les années 1980 ce modèle académique ne fonctionne plus, parce qu’il y a bien d’autres lieux pour faire de la recherche ailleurs qu’à l’Université. Elle n’a plus de monopole. Ce modèle de la Wiessenschaft s’est donc effondré ; on a néanmoins gardé le fait que ce qui était science, c’est ce qui était académique, en gardant les critères de la publication – mais qui seront peut-être dépassé ou transformés par ceux de la propriété intellectuelle, les brevets. Ce biais institutionnel a introduit une certaine confusion sur les sens respectifs de la science et la recherche. Les philosophes, à part Hegel, n’ont jamais prétendu faire de la science. Ce n’est pas un débat qui nous concerne, ce n’est pas un enjeu pour nous, les philosophes. En revanche, avec les sociologues et les psychologues on peut avoir des conversations très difficiles si on conteste le terme de sciences – cela m’est arrivé.

 

Rémi Sentis

Justement, ils ont peut-être besoin d’être contestés pour revenir à une situation d’humilité. Parce que le concept d’activité scientifique est quand même basé sur l’expérimentation et l’observation ; plus précisément l’observation répétable, avec le fameux critère de Popper sur la falsifiabilité. Dans les enquêtes d’opinion en sociologie, on ne voit pas très bien où se trouvent les critères d’expérimentation et d’observation répétables.

 

Sarah Carvallo

Les sociologues vous renverraient l’ascenseur : cette conception de la science, qui est, par exemple, celle d’Einstein, reposant sur des lois universelles et des expériences susceptibles de falsification, est très réductrice par rapport à l’ensemble des recherches réalisées. C’est pourquoi émerge l’idée qu’il y a d’autres manières de faire de la science ou de la recherche, sans utiliser cette procédure-là. Aujourd’hui, il n’y a plus beaucoup de Poppériens dans le champ de l’université. On pourrait en débattre, mais je pense que c’est une cause perdue aujourd’hui de vouloir défendre le fait que les sciences se réduiraient aux « sciences pour l’ingénieur » selon la classification du CNRS (c’est-à-dire la biologie, la chimie, les maths et la physique).

 

Auditeur qui ne se nomme pas

J’avais une question technique. L’augmentation constatée du nombre des publications retirées ou rétractées n’est-il pas corrélé à la faible proportion de rejet de publication par les chargés du reviewing ? Ces derniers ne se disent-ils pas que de toutes façons si l’article est faux, il sera sujet à rétractation ?

 

Sarah Carvallo

En fait, il y a un vrai problème sur le reviewing, parce que c’est complètement bénévole, et anonyme, donc vous « perdez » ou donnez beaucoup de temps à faire du reviewing, ce qui ne sert vraiment pas forcément à grand-chose pour votre carrière, parce que personne ne sait que vous avez reviewé. Donc il faut avoir une conception désintéressée de la science et reconnaître la raison fondamentale de l’expertise par les pairs.

 

Nicolas Aumonier

Sauf qu’ilexiste des revues où l’anonymat n’est pas de mise.

 

Sarah Carvallo

Des « petites revues », peut-être, mais dans des revues scientifiques le reviewing est nécessairement anonyme à cause d’un éventuel lynchage…Cela peut être compliqué.

Mais en philosophie, il m’est arrivé de pouvoir identifier l’auteur même quand l’article a été anonymisé, car quand quelqu’un cite quinze références et que ce sont les siennes, c’est vrai, il y a une forme de suspicion. Sinon, la règle reste quand même l’anonymat, et je pense que c’est une bonne règle. Mais le problème est que l’expertise n’est absolument pas reconnue ; c’est pourquoi il y a vraiment une pénurie de reviewing. Je dirige une collection et il y a beaucoup de gens qui refusent cette tâche, qui n’ont pas le temps, ne sont pas intéressés, etc. Un autre problème est la nature du réseau d’expertise : il y a parfois réseaux cooptés qui ne fonctionnent pas bien. On en a débattu par exemple autour de l’évaluation des articles de Didier Raoult dans le cas de la revue New Microbes and New Infections[11]. Car en réalité, vous vous renvoyez l’ascenseur entre auteurs et experts ; vous êtes les experts du domaine, certes, mais en gros vous avez passé un accord préalable pour publier certains auteurs, donc cela ne fait pas office de reviewing, et il en résulte beaucoup de mauvais articles, ou en tout cas des articles qui ne risquent d’être rétractés. La troisième difficulté est la quantité d’articles soumis, en chiffres absolus comme en chiffres proportionnels en lien avec l’accélération de la recherche. Enfin, il y a une vraie difficulté quant à l’accessibilité à des revues de haut niveau par certaines équipes nationales, qui n’ont plus les moyens d’avoir une recherche de suffisamment haut niveau ; cela a entraîné une forme d’autocensure, parce que de toute manière elles ne pouvaient plus prétendre à une revue de très haut niveau. Il est donc difficile de vraiment voir cet effet pyramidal, à cause d’une crise du reviewing actuellement encours.

 

Nicolas Aumonier

Merci beaucoup Sarah. L’image qui m’est venue pour résumer ta communication très riche, c’est celle des Temps modernes, quand la cadence s’accélère, et quand la cadence ralentit. Il faut donc imaginer que du point de vue mondial, les chercheurs qui se pensent parfois, ou souvent, comme étant au-dessus du lot, faisant un métier de liberté, etc., sont en définitive aussi contraints que dans Les Temps modernes, à la chaîne. La solution que tu esquisses à la fin, c’est de ralentir la cadence. Ou bien – tu esquisses cela aussi à un moment donné –qu’il y ait finalement un peu plus d’argent…

 

Sarah Carvallo

Ah ça non, je ne demande pas plus d’argent !

 

Nicolas Aumonier

C’est pourtant aussi une solution, parce que ralentir la cadence, ou distribuer un peu plus d’argent, ça rend les gens plus posés. Maintenant, j’ai deux questions. On est en effet en train de construire des processus de régulation, des chaînes de contrôle, etc., qui vont fonctionner comme des citadelles de prise de pouvoir pour contrôler les collègues. Alors, ces procédures vont-elles finalement aboutir à autre chose qu’à des prises de pouvoir plus ou moins local ? Ma deuxième question concerne la question des enjeux de l’intégrité scientifique sur lesquels nous t’avons interrogée, dans le cadre d’un cycle qui pose la question très générale : « La vérité se décide-t-elle ? ». Est-ce que tu estimes que la construction, la reconnaissance des problèmes, puis la tentative de solution qui débouche sur le label « intégrité scientifique », aide à fournir des critères pour mieux décider de ce qui est vrai ou pas, ou est-ce que c’est à ajouter dans la pile des nombreux biais qui existent déjà ?

 

Sarah Carvallo

Merci beaucoup. Je ne demande pas plus d’argent, d’autant que la réforme de la loi pour la programmation pluriannuelle de la recherche de l’année dernière nous a déjà dit qu’il n’y en aurait pas plus, donc ce n’est pas la peine de se battre vainement. Mais il est vrai qu’il y a une tension très forte aujourd’hui sur le risque que l’intégrité scientifique fasse le contraire de ce qu’elle voudrait faire. Je travaille avec la déléguée à l’intégrité scientifique de l’INSERM qui s’appelle Ghislaine Fillatreau ; elle nous faisait passer un article sur la manière dont des industriels commencent à publier en « intégrité scientifique », dans le domaine de l’agroalimentaire. Parce qu’en fait, comme on ne sait pas très bien ce qu’est l’intégrité scientifique, on est encore dans une phase de mise en place ; or, depuis une dizaine d’années, les industriels ont compris qu’il fallait qu’ils soient présents maintenant pour édicter les règles et normes de l’intégrité scientifique. Disons qu’à la période précédente, les industriels font de la recherche pour garantir la valeur de leurs produits par des critères scientifique et dire ce qu’il faut faire ou ne pas faire, ou – parfois aussi – produire ce qu’on appelle l’agnotologie ; ce phénomène a été bien identifié dans le cadre des industries du tabac par R. Proctor. La stratégie industrielle dans les années 80  a consisté à produire une prolifération de publications scientifiques qui rendaient impossible la nocivité du tabac. Nous passons actuellement à un nouveau stade : les industries cherchent à participer à la construction des règles de l’intégrité scientifique, pour que cela ne leur retombe pas dessus. Effectivement, l’intégrité scientifique ressemble un peu à la police de la police, et la science de la science ; or ce ne sont pas forcément les meilleurs, ou les plus vertueux, qui font de l’intégrité scientifique ; cela peut être aussi une manière de prendre le pouvoir. Quand on voit l’histoire de l’Office français d’intégrité scientifique, les raisons d’y être ne sont pas forcément les bonnes, donc c’est compliqué, mais on n’a jamais su faire mieux au niveau humain dans toutes les institutions.

C’est pourquoi, en ce qui me concerne, la seule voie que je conçois est celle de la collégialité. Je crois que c’est la force de la science, d’avoir malgré tout un fonctionnement collégial. Je crois aussi que plus les étudiants, plus les chercheurs s’emparent de ces questions-là, moins elles sont monopolisées par quelques personnes qui vous disent ce qu’il faut faire et ne pas faire, plus il y aura une acculturation et un fonctionnement qui sera pratique, concret, opérationnel. Mais cela veut dire qu’il faut s’impliquer dans ces questions-là, et pas simplement cocher la case, parce qu’on a déjà beaucoup de cases à cocher ! En effet, une stratégie serait de se sentir en règle, comme pour l’éthique, après être passé devant le Comité d’éthique de la recherche. Non, en réalité, il faut vraiment intérioriser ces questions d’intégrité scientifique. Il me semble que par exemple, on a de plus en plus d’obligations en tant que directeur de thèse – on le voit bien, aujourd’hui, en matière d’encadrement doctoral. Mais si, plutôt que de les vivre comme des contraintes de plus, on essaie d’en voir les vertus et d’en tirer parti, parce qu’il y a quand même des problèmes dans le système doctoral, et pas seulement en France, si l’on essaie d’être un peu créatif dans l’encadrement des thèses, on pourra faire émerger des pistes intéressantes. J’ai moi-même participé à ces formations ; j’essaie de monter un certain nombre de projets, j’ai fait un MOOC sur l’éthique de la recherche : à chaque fois j’ai travaillé de façon pluridisciplinaire, je crois à la fécondité de l’implication collégiale. Et je crois aussi que les philosophes doivent s’impliquer. Car sinon, ce sont des sciences de l’info’com’ qui prendront la place : elles font bien sûr des choses intéressantes mais il faut aussi de la philosophie. De même, il y aura des sociologues, etc. La difficulté par rapport à la collégialité, c’est que les carrières sont très individuelles et que l’on a peu de temps. Je pense que les séminaires sont un lieu extrêmement important de la collégialité, où nous intégrons nos doctorants et où l’on trouve cette espèce de quintessence de la science, intelligente et courtoise. Un jeune peut y dire des choses passionnantes, un senior peut avoir une vision plus large, etc., il faut donc privilégier ce mode de travail. Mais aujourd’hui, il faut se battre pour faire un séminaire, qui nécessite de la régularité, et suppose de faire sans cesse venir des gens nouveaux, etc. D’où la tentation de juger qu’il n’est pas utile d’en faire. Il faut se dire au contraire que cela fait partie de la vie de la science.

 

Auditeur qui ne se nomme pas

Vous nous avez beaucoup parlé des chercheurs, mais quid de l’intégrité au niveau des institutions ? Cette question rejoint notre question fondamentale, à savoir « Est-ce que la vérité se décide ? ». A travers un certain nombre de révélations au sujet de la Covid, etc., on a eu l’impression qu’il y avait par exemple des laboratoires pharmaceutiques qui voulaient décider d’une forme de vérité !

 

Sarah Carvallo

Ce qu’il y a de vrai, c’est que beaucoup de présidents d’université n’avaient absolument pas conscience que l’intégrité scientifique faisait partie de leur mission. Ainsi, à Grenoble, c’était la vice-présidente de la recherche qui était elle-même inculpée de falsification et de fraudes dans ses publications. Je ne sais pas si vous aviez suivi cette affaire, mais la présidente par intérim du CNRS elle-même a été inculpée d’embellissement de ses données dans cinq de ses publications internationales… C’est pourquoi on peut considérer que les présidents d’université sont un peu comme tous les chercheurs : il faut essayer de les responsabiliser. Comment faire ? C’est tout le sens du décret de décembre 21 qui fait désormais peser sur eux une véritable obligation, mais sans moyens, et une responsabilité devant la loi. Ce décret devrait tout de même changer pas mal de choses.

 

Auditeur qui ne se nomme pas

Vous avez évoqué l’université, mais il y a aussi le domaine de la recherche commerciale et la question des conflits d’intérêt ?

 

Sarah Carvallo

Normalement, c’est au niveau de la publication que se fait le contrôle, et cela relève des éditions !Mais il y a un problème structurel de l’édition scientifique : on a externalisé les publications, qui sont gérées par des maisons d’édition privées qui ont été extrêmement rentables, avec des marges de 30 % pendant des années etc. Maintenant, c’est beaucoup moins rentable, même si cela le reste encore dans le contexte actuel. Le modèle économique, en gros, c’est que les scientifiques fournissent les articles, les reviewers étaient bénévoles, et les équipes ou bibliothèques achètent les ouvrages, les revues ou les articles, désormais il faut de surcroît payer pour publier ! C’était donc un modèle très rentable ; or les revues étaient censées faire la régulation, c’est pourquoi il y a eu des crises graves au sein des maisons d’édition, les plus grandes ayant été elles-mêmes accusées de ne pas avoir bien fait leur travail. La régulation éditoriale est très difficile dans un contexte où la publication est l’or noir de la carrière scientifique. Cela explique pourquoi le niveau de la publication constitue la pierre d’achoppement ; il y a un effet en feedback ensuite qui redescend ; et ce d’autant plus qu’il y a des liens d’intérêts forts pour obtenir des financements publics ou privés.

Il y eu une enquête, en 2019 me semble-t-il, sur les universités françaises de médecine et de pharmacie, et les déclarations de conflits d’intérêts. Trois d’entre elles seulement dans mon souvenir, déclaraient avoir des conflits d’intérêts, alors qu’elles étaient toutes financées en partie par des labos pharmaceutiques. Donc cela signifie que ça ne leur posait pas de problème, que cela a toujours été comme ça…Sauf que de fait, les problèmes arrivent, car les intérêts orientent forcément au moins les recherches, et parfois aussi les résultats. Donc cela se décide, mais collectivement : le top down ne marche pas… Enfin, je pense que le gouvernement français a mis les bouchées doubles depuis 2016, avec différents présidents et ministres de la recherche. Mais il y a un effet d’inertie, et il faut qu’il y ait une prise de conscience à tous les niveaux pour que quelque chose se mette en place. En conclusion je ne dirais pas que ça se décide de façon purement autoritaire ou purement intellectuelle, il faut que ça se décline aussi ; c’est pourquoi je crois fondamentale cette question de la formation et donc des vertus…

 

Auditeur qui ne se nomme pas :

Vous avez parlé de responsabilité devant la loi, est-ce qu’il ne serait utile d’avoir un parquet spécialisé – vue la difficulté de faire respecter concrètement ce type d’exigence ?

 

Sarah Carvallo

C’est en effet le problème. De toute manière ce sont des décrets, et ensuite il ne se passe plus rien. Mais il y a un certain nombre de juristes qui travaillent sur ces questions-là ;en ce qui nous concerne, nous travaillons avec des juristes notamment à partir d’archives, sur des cas de rétractation, pour essayer de voir si malgré tout une jurisprudence se met en place, qui puisse donner des repères, sur ce qui ne marche pas, et sur ce qu’il faudrait faire.

 

Auditeur qui ne se nomme pas

Avec des juristes, soit, mais est-ce que vous travaillez avec des magistrats ?

 

Sarah Carvallo

Non, mais parce que les magistrats n’ont pas le temps, donc les juristes avec lesquels nous travaillons sont des chercheurs en droit au CNRS.

 

Marie-Joëlle Guillaume

Merci de nous avoir montré ce soir toute la complexité de cette question d’intégrité scientifique, nous avons bien compris que nous sommes, dans ce domaine, au temps des pionniers !

Séance du 9 décembre 2021

 

[1]Martinson, B. C., Anderson, M., de Vries, S. (2005). Scientists behavingbadly, Nature, 435(7043), 737-8.

[2] World conferences on research integrity, 2017.https://wcrif.org/wcri2017

 

[3]https://retractionwatch.com/category/diederik-stapel/

[4]DiederikStapel, Faking science : a true story of academic fraud, enligne (consulté le 27.01. 2022)

https://errorstatistics.files.wordpress.com/2014/12/fakingscience-20141214.pdf.Dans une situation analogue, un biologiste français, Olivier Voinnetrelit aussi la trajectoire qui l’a conduit jusqu’à la fraude,

http://www2.cnrs.fr/sites/communique/fichier/droit_reponse.pdf (consulté le 27.01. 2022).

[5]https://ec.europa.eu/commfrontoffice/publicopinion/archives/ebs/ebs_154_fr.pdf ; Les Français et la science, BAUER Martin W., DUBOIS Michel, HERVOIS Pauline, (2021). Les Français et la science 2021 : représentations sociales de la science 1972-2020. Nancy : Université de Lorraine.

 

[6]Derek John de Solla Price, Derek J. de Solla Price (1976), A general theory of bibliometric and other cumulative advantage processes, in Journal of the American Society for Information Science 27:292-306.

[7]Chatelain-Ponroy, S., Mignot-Gérard, S., Musselin, C., Sponem, S. (2017). Is Commitment to Performance-Based Management Compatible with Commitment to University “Publicness”? Academics’ Values in French Universities. OrganizationStudies, (00), 1-25.

[8]Salomon, J.-J. (2006). Les scientifiques entre pouvoir et savoir. Paris : Albin Michel.

[9]R. K. Merton (1942). A note on science and democracy. Journal of Legal and Political Sociology, 1(1–2), 115–126.

[10] Sabina Leonelli (2019) La Recherche Scientifique à l’Ère des BigData: Cinq Façons Donc les Données Massive Nuisent à la Science, et Comment la Sauver.

[11]https://theconversation.com/etre-juge-et-partie-ou-comment-controler-une-revue-scientifique-140595