Intégrité, méconduite et fraude scientifique : bilan et propositions du long rapport parlementaire
Deux Pierre d’un coup
Le 04 mars 2021 à 11h55
17 min
Sciences et espace
Sciences
À l’opposé de l’intégrité, la méconduite scientifique peut prendre diverses formes et niveaux de gravité. Un rapport parlementaire (OPECST) fait le point en longueur sur ce sujet sensible, les avancées du secteur, le travail restant à accomplir, avec dix recommandations. Voici ce qu’il faut en retenir, au-delà du simple résumé.
En février 2019, Catherine Morin-Desailly – alors présidente de commission de la Culture, de l'Éducation et de la Communication – demandait à l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST, organe d’information commun à l’Assemblée nationale et au Sénat) un point sur « les choix de politique publique à opérer » pour l’intégrité scientifique.
Quand la méconduite scientifique fait les gros titres
Cette mission ne sortait pas de nulle part, elle s’inscrivait dans le sillage des « exemples de méconduite scientifique (conflits d’intérêts, signatures abusives, falsifications, plagiat et autoplagiat) ». Des affaires de ce genre ont fait couler beaucoup d’encre dans la presse les mois précédents, pouvant « miner durablement la confiance que la société place dans ses chercheurs et plus généralement dans la science ».
On pense notamment au cas d’Anne Peyroche qui a été brièvement à la tête du Centre national pour la recherche scientifique (CNRS) avant d’être remplacée par Antoine Petit. Elle avait été convoquée mi-janvier 2018 « pour un entretien destiné à l’éclairer sur des anomalies constatées dans certains de ses articles ». Dans la foulée, le CNRS annonçait une structure dédiée à l'intégrité scientifique. L’épilogue de cette affaire est arrivé début 2020, un rapport concluant « à l’existence de certaines pratiques contestables et "méconduites sérieuses " ».
Après deux ans de travaux, le député Pierre Henriet et le sénateur Pierre Ouzoulias viennent de rendre leur propre rapport sur le sujet (en version provisoire), intitulé « Promouvoir et protéger une culture partagée de l’intégrité scientifique ».
En guise de préambule, ils tiennent à mettre les points sur les « i » : ils « ont fait le choix de ne pas se limiter à épingler les mauvaises pratiques, qui ne sont qu’une illustration a contrario et réductrice de l’intégrité scientifique, alors même que l’immense majorité des chercheurs français est vertueuse ».
Valoriser les bonnes valeurs, corriger les autres
Le rapport vise « la valorisation d’une culture partagée de l’intégrité scientifique et la mise en évidence du problème systémique, inhérent au monde de la recherche, qui tend à favoriser les méconduites scientifiques ».
En cause notamment, des critères d’évaluation basés sur une « course à la publication scientifique » ; on parle parfois de « publish or perish ». Un virage amorcé par le CNRS début 2019. Il souhaitait alors « repenser l’évaluation individuelle des chercheurs et des chercheuses », notamment pour renforcer les publications en libre accès.
Il n’est pour autant pas facile de changer les mentalités et la course à la publication reste encore très présente.
Mais au fait, c’est quoi l’intégrité scientifique ?
Le rapport commence par dresser le portrait de ce qu’est l’intégrité scientifique. Il cite pour cela le professeur Pierre Corvol (présenté comme l’un de ses plus éminents défenseurs) : il s’agit d’une « démarche responsable de recherche ». Cela comprend « l’ensemble des règles et valeurs qui doivent régir l’activité de recherche pour en garantir le caractère honnête et scientifiquement rigoureux ».
Avec l’éthique et la déontologie, l’intégrité est « un des trois piliers » d’une science responsable selon Olivier Le Gall, le président de l’Office français de l’intégrité scientifique (OFIS). Ces trois concepts (qui sont souvent confondus) peuvent être comparés à trois pieds d’un même trépied, chacun étant indispensable pour assurer la stabilité.
L’intégrité scientifique peut être mise à mal par des pratiques diverses et variées : découpage d’un article en plusieurs petits morceaux pour multiplier les publications (salami slicing), recours au plagiat « pour gagner du temps », sélectionner uniquement des résultats allant dans le sens de l’hypothèse de départ (cherry picking), publier à tout prix pour soutenir une demande de fonds (fund or famish), etc.
On peut aussi parler de « l’effet chrysalide ». Dans ce cas, « un chercheur honnête, confronté à des difficultés pour publier, s’aperçoit que des collègues contournent ces difficultés, car ils savent embellir des résultats ». Un comportement qui sort légèrement « des bonnes pratiques » peut ainsi faciliter sa carrière… et le chercheur peut se laisser tenter. D’autant plus s’il « constate aussi que ces pratiques questionnables, pas très graves, sont acceptées par la communauté scientifique qui ferme les yeux ».
L’intégrité des chercheurs face à eux-mêmes et leurs collègues
Le rapport se fait l’écho d’une déclaration de Pierre Corvol : « la majeure partie des chercheurs exerçant en France est vertueuse ». Mais le rapport se penche aussi sur des chiffres de 2009 et une étude du chercheur Daniel Fanelli sur l’intégrité scientifique. La conclusion est plus en demi-mesure.
« 1,97 %, soit environ 140 000 chercheurs à l’échelle mondiale, admettent sur le mode déclaratif avoir un jour falsifié, fabriqué ou modifié des données, et 33,7 %, soit plus de 2 millions de chercheurs, disent s’être déjà adonnés à ce qu’on appelle des "pratiques questionnables de recherche" ». Ces chiffres sont forcément sous-évalués, car basés uniquement sur la bonne foi des déclarants.
Si on inverse la situation et qu’on demande aux chercheurs de parler du comportement de leurs collègues, les chiffres sont bien différents : « pas moins de 14,12 % d’entre eux ont été témoins de fraudes scientifiques chez leurs collèges, et 72 % d’entre eux ont déjà été témoins de "pratiques questionnables de recherche" ».
Un rapport, quatre grandes thématiques
Le rapport-fleuve de 134 pages se divise en quatre principales parties. La première, intitulée « l’intégrité scientifique en France, une autorégulation exercée par les acteurs de la recherche ».
Dans la seconde, les rapporteurs veulent « appréhender les méconduites scientifiques » et ainsi dresser un panorama de la « typologie des méconduites observées et leur traitement ». La troisième liste des pistes de réflexion pour « développer une "culture de l’intégrité scientifique" ». À ce titre, elle fait le tour des initiatives « qui assurent une diffusion toujours plus large et transgénérationnelle des principes de l’intégrité scientifique ».
Enfin, la quatrième partie s’intéresse aux « avancées récentes apportées dans la loi de programmation de la recherche 2021 - 2030 (LPR) en matière d’intégrité scientifique ». Par un « heureux hasard », la discussion parlementaire sur la LPR s’est déroulée en même temps que cette mission, avec un échange visiblement fructueux.
Trois systèmes pour classer les méconduites scientifiques
Nous ne nous attarderons pas outre mesure sur la première partie qui dresse un inventaire à la Prévert des différentes sources encadrant les principes de l’intégrité scientifique. La seconde partie revient sur la « nomenclature des méconduites », qui est « sensiblement harmonisée à l’international et en France au sein des différentes disciplines ». Il existe par contre différentes classifications des méconduites : par domaines (méthodologie, données, résultat), par degré de gravité et enfin par le niveau d’intentionnalité.
Dans le premier cas (les domaines), le rapport rappelle qu’il « n’existe pas de typologie des manquements scientifiques qui fasse consensus ». Ceci dit, les institutions se tournent souvent vers ce document de Frédéric Sgard et Stefan Michalowski, rapporteurs lors du Forum mondial de la science de l’OCDE de Tokyo en 2007.
Ils y dressent une liste non exhaustive des différents manquements : cela va de la fabrication/falsification de données aux fraudes financières, en passant par de mauvaises pratiques sur la conservation des données, des attitudes inappropriées, refuser/obtenir une position d’auteur de façon abusive, etc.
Au fil du temps, les pratiques évoluent et de nouvelles techniques arrivent, comme en attestent les recherches de la microbiologiste Elisabeth Bik. Elle a en effet « révélé au mois de février 2020 l’existence de "fermes à articles" chinoises, ou américaines comme YMGrad3, qui produisent à la chaîne de faux articles scientifiques, afin que leurs acheteurs obtiennent un diplôme ou une promotion, comptabilisant plus de 400 articles, publiés pour certains dans de grandes revues scientifiques ».
Concernant la seconde manière de classer les méconduites, le rapport revient sur l’importance de l’intentionnalité. Trois cas sont mis en avant : l’erreur (c’est-à-dire un manquement involontaire), la fraude (qui est intentionnelle avec l’espoir d’en tirer profit) et la faute (le manquement est conscient). Les rapporteurs citent Martine Bungener, économiste et sociologue, qui rappelle à juste titre : « N’oublions pas qu’il peut y avoir des erreurs, que l’on a le droit de se tromper, mais pas de falsifier des données ou des résultats ».
Pour le classement par gravité, le rapport s’appuie sur le rapport Bach concernant Anne Peyroche. Il comprend cinq niveaux (l’ex-présidente du CNRS a été reconnue coupable des niveaux I à IV) :
- niveau I : l’embellissement des données
- niveau II : la manipulation des données
- niveau III : la falsification, consistant à « modifier certains résultats », lorsque celle-ci « ne change pas
- l’interprétation d’une figure ou d’une phrase de texte »
- niveau IV : la falsification, lorsqu’elle « modifie l’interprétation de la figure ou du texte, indépendamment du message scientifique global »
- niveau V : la fabrication, consistant à « créer de novo des résultats qui n’ont pas été obtenus en laboratoire ». C’est « le stade ultime » pour le rapport
Les rapporteurs ne sont par contre pas en mesure du dire si « cette nomenclature était répandue ou en usage au sein des référents intégrité scientifique ». Rémy Mosseri, référent intégrité scientifique du CNRS, est le seul à indiquer l’avoir utilisée dans un cas particulier.
Présomption d’innocence et réhabilitation
Lors de son audition, Ghislaine Filliatreau (déléguée à l’intégrité scientifique de l’Inserm) soulevait que cette échelle à cinq niveaux n’est pas sans poser quelques problèmes :
« elle ne comporte aucun niveau zéro, alors même que toute personne soupçonnée d’un manquement à l’intégrité scientifique doit disposer de la présomption d’innocence. De même, elle n’intègre pas le critère d’intentionnalité, alors même que l’erreur peut être à l’origine d’une de ces méconduites. »
Le député et le sénateur détaillent ensuite les signalements et procédures des cas de méconduites, en terminant par un point important : la réhabilitation du chercheur, qu’il soit reconnu coupable ou non d’ailleurs. Si l’Inserm propose une solution via des mentorats, « tous les établissements ne sont pas armés pour réintégrer les chercheurs ayant commis un ou des manquements et certains tardent à entamer une réflexion sur le sujet ».
Même situation pour la réhabilitation d’un chercheur accusé à tort. Actuellement, cela « passe principalement par une lettre de réhabilitation, adressée par le PDG ».
Les pistes pour améliorer l’intégrité scientifique : la formation…
Concernant le troisième axe – développer une « culture de l’intégrité scientifique » –, le rapport affirme que cela passera d’abord par la « formation des futurs et jeunes chercheurs que se diffusent les valeurs de l’intégrité scientifique ». Sur ce point, les efforts semblent globalement insuffisants au regard des auditions menées.
Le rapport cite une enquête menée en 2018 par Meriem Koual, qui dresse un triste bilan de 153 écoles doctorales ayant répondu à son enquête :
« 93 % proposent une formation à l’intégrité scientifique dans le cadre du doctorat, 75 % rendent cette formation obligatoire, mais elle fait rarement l’objet d’un examen de validation […] Le volume horaire est relativement faible : moins de 2 heures pour 13 %, entre 2 et 10 heures dans 62 % des cas, entre 10 et 20 heures dans 21 % des cas, plus de 20 heures dans 4 % des cas ».
…et l’open peer review ?
Pour essayer de limiter les méconduites et autres validations de « complaisances » par des chercheurs, l’idée d’un « open peer review » arrive sur la table. Comme son nom l’indique, il s’agit d’une version « open » – dans le sens transparent – de la procédure de relecture et de validation par les pairs (peer review).
C’est une étape importante, comme nous l’avons déjà expliqué, et qui peut parfois prendre des années. Elle est critiquée sur certains points : une activité chronophage qui n’est pas valorisée dans l’évaluation des chercheurs, possible subjectivité de certains relecteurs anonymes qui peuvent demander à citer des références, etc.
Parfois, le temps nécessaire n’est pas pris et, en cette période de pandémie, il n’est pas rare de voir des publications mises en ligne à la va-vite puis modifées/retirées.
Avec l’open peer review, les revues « mettent en ligne les noms des relecteurs et/ou les commentaires du ou des relecteurs, et rendent donc transparent le processus de peer review ». Certaines ont déjà sauté le pas (F1000Research, Royal Society Open Science, Annals of Anatomy, PeerJ, EMBO Press).
De son côté, Marin Dacos, conseiller pour la science ouverte au MESRI, souligne lui aussi les avantages de l’open peer review, mais invite également à la prudence et surtout à l’expérimentation. Il ne faudrait en effet pas tomber « dans une forme de dictature de la transparence ».
Il soulève par exemple la question de la publication ou non des lettres de refus, et du droit de réponse.
Des référents « intégrité scientifique »… et des polémiques
Dans la quatrième partie du rapport, consacré aux avancées en matière d’intégrité scientifique. Les rapporteurs affirment avoir constaté que la perception des instituts évoluait rapidement : désormais, « la majorité des établissements est désormais dotée d’un référent intégrité scientifique ».
Cela ne règle pour autant pas tous les problèmes d’un coup de baguette magique. Les acteurs de la recherche demandent que « cette autorégulation soit accompagnée et soutenue par la législation ». Là encore, le cas Anne Peyroche est symptomatique, comme l’expliquait l’Express en février dernier.
Alors que la chercheuse était condamnée, le CEA annonçait le départ à la retraite de Marc Léger, son référent à l'intégrité scientifique, et son remplacement par Jean-Marc Grognet. « Or ce chercheur est un ami très proche de Peyroche (toujours en arrêt maladie). De 2011 à 2014, il a été directeur de l'Institut de Biologie et technologie de Saclay (iBiTec-S) du CEA, une structure où officiait justement... Anne Peyroche. Ainsi donc, l'une des publications incriminées date de 2012, lorsqu'il était son supérieur hiérarchique », expliquent nos confrères.
Cette nomination est mal passée auprès de certains : « Quand la nomination de Grognet a été connue au CEA, personne n'y a cru. Le dispositif de protection des tricheurs est en place ! », lâchait sous le coup de la colère un fonctionnaire à nos confrères.
Rapport et LPR : un « heureux hasard du calendrier »
Enfin, le timing ne pouvait pas être meilleur pour les rapporteurs : « Heureux hasard du calendrier, le travail de la mission a coïncidé avec la discussion parlementaire sur la loi de programmation pour la recherche (LPR) ».
Ils ont ainsi pu proposer sans attendre de « transcrire dans la loi un certain nombre des recommandations émanant de leurs travaux », ce qui a été fait. Certains points n’ont par contre pas pu faire l’objet d’un consensus avec la LPR. C’est notamment le cas de l’indépendance de l’Office Français de l'Intégrité Scientifique (OFIS) : « Certains acteurs pensent qu’il serait utile de donner une personnalité morale à l’OFIS, afin qu’il puisse instruire les cas ».
Dix recommandations pour améliorer les choses
Enfin, le rapport se termine par dix recommandations, dont l’objectif de « participer au rétablissement de la confiance à l’égard du monde scientifique et de renforcer la légitimité de la recherche française sur la scène internationale ». En voici le détail :
- « Introduire, par la loi, dans le code de la recherche une définition de l’intégrité scientifique et proposer des règles générales pour engager les institutions et les chercheurs à la respecter. Cet objectif a été en grande partie atteint par la loi de programmation de la recherche.
- Réévaluer les conditions d’exercice des missions de l’OFIS et du CoFIS, ainsi que leurs rôles institutionnels [cette recommandation comprend pas moins de 18 actions, ndlr].
- Encourager la nomination de RIS [référents intégrité scientifique, ndlr] dans l’ensemble des établissements de recherche ; préciser leur statut et les conditions d’exercice de leurs missions ; formaliser le suivi de leur travail, par exemple via la remise de bilans annuels ou pluriannuels de leur activité.
- Veiller à la bonne articulation des travaux et réflexions menés dans le cadre de l’OFIS, du CoFIS, du ResInt et de la conférence des signataires.
- Reconnaître l’intérêt des actions menées par les acteurs, promoteurs et garants de l’intégrité scientifique et soutenir leurs actions dans le respect de leur indépendance.
- Normaliser davantage les règles d’instruction des méconduites scientifiques ; assurer que les règles démocratiques du débat contradictoire soient respectées lors des procédures d’instruction ; encourager les interactions transversales entre RIS et services juridiques des établissements ; inciter à une prise de décision finale collégiale et ne reposant pas exclusivement sur celle du chef d’établissement ; finaliser la base de données des cas d’instruction de méconduites afin de disposer d’un référentiel.
- Rendre obligatoire la formation en intégrité scientifique tout au long de la carrière dans la recherche, en particulier pour les encadrants et autres positions de mentorat (HDR, post-doc), comme le font déjà, de manière informelle, certains établissements.
- S’assurer que les signataires de la déclaration de San Francisco (DORA) et du manifeste de Leiden appliquent bien les principes préconisés par ces textes ; à la suite de la déclaration de Bonn, promouvoir au sein de l’Union européenne une réflexion juridique et législative afin de doter l’Union d’une réglementation en faveur de l’intégrité scientifique et des libertés académiques.
- Intégrer la promotion et la garantie de l’intégrité scientifique au nombre de missions de l’Hcéres [Le Haut Conseil de l’évaluation de la recherche et de l’enseignement supérieur, ndlr].
- Mieux identifier les processus par lesquels les objectifs poursuivis par la politique de la science ouverte peuvent aider au respect et à la promotion de l’intégrité scientifique ; définir des normes d’archivage et de mise à disposition des données de la recherche afin de garantir le contrôle par les pairs des productions scientifiques. Les rapporteurs jugent souhaitable et nécessaire qu’un rapport sur la science ouverte soit initié, dans la suite du présent rapport ».
Intégrité, méconduite et fraude scientifique : bilan et propositions du long rapport parlementaire
-
Quand la méconduite scientifique fait les gros titres
-
Valoriser les bonnes valeurs, corriger les autres
-
Mais au fait, c’est quoi l’intégrité scientifique ?
-
L’intégrité des chercheurs face à eux-mêmes et leurs collègues
-
Un rapport, quatre grandes thématiques
-
Trois systèmes pour classer les méconduites scientifiques
-
Présomption d’innocence et réhabilitation
-
Les pistes pour améliorer l’intégrité scientifique : la formation…
-
…et l’open peer review ?
-
Des référents « intégrité scientifique »… et des polémiques
-
Rapport et LPR : un « heureux hasard du calendrier »
-
Dix recommandations pour améliorer les choses
Commentaires (20)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 04/03/2021 à 13h01
Ooooh quelle surprise !!! /s
Et après on s’étonne que les gens n’aient plus confiance dans la science moderne…
Ce qui m’ennuie encore plus c’est que l’approche pour résoudre le problème soit tout sauf scientifique. Ils ne veulent vraiment pas se poser la question de pourquoi il y a tant de fraude ? Bah non, parce que c’est le système en lui-même qui induit ça. Quand les financements sont de plus en plus privés, que le poste est mis en balance avec l’intégrité, que la responsabilité est tellement diluée que personne a vraiment l’impression de frauder…
Donc plutôt que bosser sur les causes, ils veulent mettre en place une machine complexe de rustine/pansement alors même que le passé a clairement montré que ça servira à rien (cf le problème au CEA où on voit bien que la nomination d’un responsable intégrité déjà en connivence ne peut pas améliorer quoi que ce soit).
Mais bon tant que l’argent public fuit de plus en plus la recherche (déjà que c’était pas non plus la panacée au niveau système), et que de plus en plus d’intérêts se mêlent des résultats publiables, ça risque pas de changer…
Le 06/03/2021 à 20h02
Ils ne problématisent pas car l’intégrité scientifique se défend par le refus de la production de problèmes… autrement dit c’est de la com ou pire une doctrine, en aucune façon une méthode de former des scientifiques dans des conditions d’exercice situées et mesurables par le quidam (véritable question sous-jacente et leitmotiv de leurs injonctions…).
Le 04/03/2021 à 13h30
Et que le système de reconnaissance à points favorise ceux qui publient quantitativement face à ceux qui publient qualitativement…
Le 04/03/2021 à 13h54
Putain, on peut pas mieux dire !!!
Sans parler des embauches qui se basent aussi sur la quantité …
Le 04/03/2021 à 15h06
Faudrait ajouter le niveau VI pour Didier Raoult, après tout c’est lui l’élite !
Le 05/03/2021 à 00h31
Ça manque d’arguments je trouve.
Le 05/03/2021 à 08h01
Pour ne pas le placer directement niveau VII ? Oui c’est vrai
Je vais la faire version plotiste : fais tes propres recherches !
Plus sérieusement, il a été interdit de publication dans d’importantes revues pour fraude, et encore récemment Science a fait un article sur une revue scientifique dont les éditeurs sont les collègues de DR à l’IHU et dont il est signataire du tiers des articles depuis la création.
Le 04/03/2021 à 17h11
Le niveau 6, c’est quand on cumule tous les niveaux précédents, c’est ça?
Le 04/03/2021 à 18h54
Quid de l’obligation de publier toutes ses données, ses algorithmes, etc. dans des formats accessibles pour pouvoir répliquer les études (et donc mieux détecter les fraudes) ? Et puis quoi encore.
Où sont les sanctions judiciaires et financières pour les fraudeurs ayant gaspillés l’argent public ? Vous n’y pensez pas.
On veut rejeter un système certes imparfait mais fonctionnel, mais comment évalue-t-on maintenant une publication scientifique et un chercheur ? Quelle horreur : une abominable discrimination envers les moins capables (que l’on va donc mécaniquement sélectionner).
Bref, encore une jolie future usine à gaz qui se profile pour enterrer un peu plus la recherche et ses nids de guêpes. Bien.
Le 04/03/2021 à 20h30
Je pense pas que ce soit vraiment lié à ça. C’est plutôt le boulot de sape permanent des politiques et surtout des médias : “le droit au débat” vu par le prisme des médias, qui conduit à accorder une visibilité disproportionnée à des clowns comme Allègre, Courtillot ou Gervais, en arguant qu’il faut laisser toutes les opinions s’exprimer alors qu’il s’agit d’un domaine où les opinions ne comptent pas mais les faits, la méthode et la rigueur.
Ça marche aussi pour les phytosanitaires, les OGM, le nucléaire, et un tas d’autres choses.
Ça n’a que peu à voir avec les financements privés ou les postes (sauf relativement à la quantité au détriment de la qualité, comme le dit si bien Patch). C’est vraiment le problème d’un indicateur (parmi d’autres) qui s’est mis à devenir un but en soi. En moins dramatique, ça rappelle le body count au Vietnam :
https://lavoiedelepee.blogspot.com/2017/12/datapocalypse-big-data-et-guerre-du.html
Ce que j’attendrais, c’est que comme dans un certain nombre de pays, les cas de fraude avérée soient sanctionnés par un licenciement, fonctionnaire ou pas. Quand on regrette que la police ait du mal à faire le ménage dans ses rangs, ça n’a rien d’exceptionnel (principalement les manquements sont plus visibles) : vous pouvez avoir une personne qui vole (des dizaines de milliers d’euros) d’un budget public et qu’on promouvra pour s’en débarrasser (car entamer une procédure judiciaire serait long, bloquerait un poste nécessaire, demanderait des frais de justices à l’administration, bref toutes les excuses sont bonnes).
Il faudrait surtout arrêter de 1) recruter des armées d’administratifs et 2) que ces derniers arrêtent de se décharger des tâches qui leur incombent en créant des procédures qui dégoulinent sur le service opérationnel.
Le 04/03/2021 à 23h45
Mais pourquoi je pense immédiatement à un mégalomane marseillais irresponsable et à la limite du charlatanisme ?
Marrant (ou triste), j’ai tout de suite pensé à Raoult aussi. Mais également à certaines collègues au comportement grave, comme Fouché et Perronne (pour n’en citer que 2), ainsi que Séralini (avant l’épidémie).
Excellent commentaire.
Le 05/03/2021 à 00h01
Trempant dans la prévention de fraudes et signalements dans un tout autre domaine, j’ai trouvé l’article intéressant et des idées. Merci.
Par exemple, le licenciement direct peut certes paraître approprié en cas de fraude, mais le rapport à mon avis mentionne un point important : la possibilité de réhabilitation. Les cas de fraudes mentionnés, et surtout l’analyse des causes, montre que c’est rarement une faute individuelle et comme toute faute elle doit pouvoir être rachetée. Focaliser sur la répression pour faire peur et faire disparaitre les fraudes ne fonctionne pas. Et le résultat n’est pas satisfaisant quand on voit le gars de base viré pour boucler le traitement de la fraude (plus le fraudeur, plus de problème) sans aller plus loin. Sauf dans certains cas particuliers de récidive bien sûr. C’est souvent un facteur aggravant en plus de la gravité de la faute elle-même.
Le 05/03/2021 à 06h58
J’abonde avec la majorité des propos de mes VDD. :)
J’ajouterais comme complément que les métriques bien managériales qui tentent de traduire des chercheurs et leurs recherches en des chiffres dans les cases d’un tableurs est vraiment la principale source de tous les problemes.
En Italie en l’espace de quelques années c’est ce qui a fait complètement s’écrouler tout leur système de recherche : ça mène dans une spirale infernale où de plus en plus de papiers à très très faible valeur ajoutée scientifique sont produits, ce qui a baissé mécaniquement les sources de financement, le niveau d’expertise des chercheurs.. et c’est comme ça que tu te retrouve avec une Recherche qui repose que sur les sections R&D des industriels et pour tous le reste nos collègues Italiens étaient limite ridicules à l’international…
On se dirige en plein là dedans en France avec la volonté de + en + affichée d’imposer des métriques strictes pour la notation (et donc les financements) des labos…
Pour boucler la boucle, le souci est comme vous l’aurez compris que les métriques en question vont être du type nbre de publications / an / personne, nombre de publi en rang A etc etc …
Sur le plan gestion administrative il faut arrêter avec les vœux clichés. Pour donner une idée dans mon labo ils sont moins de 10 (moins de 5 ?!) au service du personnel pour gérer 700 enseignants/chercheurs/contractuels/doctorants.
Les secrétaires sont allouées a plusieurs équipes/départements (donc 1 pour 50+…) etc. etc. .. et ils font un boulot de fou.
J’oserai pas généraliser a tous les labos de France, mais quand même ça me semble mieux que de vieux a priori.
Le 05/03/2021 à 08h08
Je ne comprends absolument pas, c’est vraiment étrange… Une nouvelle affaire à élucider!
Le 05/03/2021 à 08h33
La chicha pourrait être une explication…
Le 05/03/2021 à 08h33
Clairement… la métrique à coup de “nombre de publication” pour valider sa PEDR par exemple, ou à coup de h-factor qui sert d’étalon (recrutements, “qualité” de recherche pour les projets ec). La pression est forte pour publier bcp et de moindre qualité.
C’est bien beau de dire “il ne faut pas faire ceci ou cela”, mais encore faudrait il que le système (très faible financement des projets, évolution de carrière, recrutement) ne pousse pas à de telles pratiques.
Le 05/03/2021 à 10h43
Les petites mains administratives sont trop peu nombreuses, ce sont les services centraux qui vampirisent les effectifs administratifs (et la masse salariale, la fonction publique ressemble à une armée mexicaine avec des directeurs et responsables de tout et n’importe quoi sur des postes et grades mirobolants) et reportent le boulot sur les administratifs du bas de l’échelle (quand on a la chance d’en avoir) ou les opérationnels qui s’y substituent. Comme ces services dits “support” sont très loin de leurs usagers, ils ne comprennent rien aux problématiques de ce qu’ils gèrent donc :
Et ce n’est absolument pas un vieux cliché puisque toutes les tentatives d’analyses convergent vers ce problème alors même qu’elles n’arrivent qu’à obtenir une borne minimale du taux d’administratifs (tout ce qui est fait par des opérationnels n’entre par exemple pas en compte puisque ce n’est pas dans une fiche de poste avec une quotité de temps).
Récemment, quelqu’un ici avait par exemple mis un lien vers ce type d’analyse concernant l’hôpital (et c’était au moins la 10ème que j’ai pu voir).
Le 05/03/2021 à 12h05
Ah oui alors après si on veut élargir le spectre de la discussion à tout ce qui touche au service public de près ou de loin… si vous voulez (mais je pense que c’est un autre sujet du coup).
Il serait bon de noter quand même que si on jette un oeil du côté des grosses entreprises, on retrouve grosso modo les mêmes travers avec des procédures interminables pour la moindre broutille…
(et c’est sur ce point que je trouve la remarque de la soupe administrative publique comme un vieux cliché, parce que ce n’est pas vraiment propre à notre service public)
Le 05/03/2021 à 13h28
Un service public comme la recherche, c’est un tout. Ce n’est pas parce que le taux d’administratif dans le labo est faible voire inexistant, que la surcharge administrative est faible (pour rappel, le taux de personnels enseignants chercheur en France est en moyenne de 55% des effectifs, et il descend à 45% dans certains établissements). Même si les non-EC ne sont pas que des administratifs (DSI, autres), ils génèrent aussi leur part de procédures, signatures, etc. qui alourdissent d’autant le travail des labos et des enseignants.
Il y a une certaine tendance à l’embonpoint administratif dans le privé, mais il y a presque toujours un calcul de rentabilité ce qui fait qu’il n’y a que dans les services publics que tu trouveras des organes de contrôle beaucoup plus coûteux que ce qu’ils sont censés rapporter, par ex : plusieurs temps pleins pour décortiquer des retours de missions où les frais sont de quelques milliers d’euros dont 90% faciles à vérifier (hôtel, transport) et où des appels sont faits aux personnels qui auraient dépensé 7€ pour deux sandwichs alors qu’un repas, normalement c’est un sandwich par personne (je déconne pas, et c’est arrivé en plusieurs occasions, avec suspicion d’avoir invité une autre personne). À 30000€ le brut chargé, il va en falloir des sandwichs pour s’y retrouver.
Dans le privé, ça discute moins, il y a des contrôles aléatoires, mais le but c’est que la gestion soit efficace, c’est à dire que le contrôle ne coûte pas plus cher que les torts auxquels il peut remédier.
Le 06/03/2021 à 19h53
Un certain nombre de recherches ayant historiquement produit les pires atrocités… l’intégrité scientifique est dans pas mal de situations de ne rien faire plutôt que d’appuyer sur la détente avec 30 ou 40 ans d’avance sur les suicidés en devenir…