Crise de la reproductibilité en psychologie
Une réflexion critique sur la qualité des connaissances en psychologie
Le psychologue
Je vous livre ici une réflexion modeste, qui excède mes compétences habituelles (on parle de construction des connaissances d’une discipline - l’épistémologie. Mon doctorat commence à être loin). Mais que je suis bien obligé d’avoir, à la fois dans ma pratique habituelle (qui repose sur cet ensemble constitué de connaissances), et parce que j’enseigne encore (un peu) la psychologie (qui suppose une transmission de ces connaissances).
Peut-être le savez-vous : la psychologie - comme toutes les disciplines scientifiques - traverse une crise de la reproductibilité.
Je crois que c’est une problématique majeure pour la discipline (on parle des ensembles de connaissances qui la fonde !) et plus généralement la profession. Je trouve qu’on en parle trop peu, alors que ça commence à faire un moment que c’est là (pas loin de 20 ans a priori). Par contre, si vous me permettez la réflexion amère, on est doués pour s’exciter et partir en guerre sur des sujets mineurs. Pourtant elle nous concerne tous : professionnels et étudiants de la psychologie, mais aussi bénéficiaires de nos services.
Pour rappel, la crise de la reproductibilité désigne une crise méthodologique : lorsque l’on tente de reproduire les conditions expérimentales de certaines expériences, on n’obtient pas les mêmes résultats. De ce que je comprends, on commence même à établir que certaines études sont carrément faussées ou truquées (suivez Adrien Fillon à ce sujet). C’est vrai pour la psychologie, notamment la psychologie sociale (on commence à la voir montrer son nez dans les manuels comme le récent traité de psychologie sociale de Bègue & Desrichard).
Ça pose pas mal de questions pour les praticiens je trouve, si on admet que les pratiques doivent reposer en partie sur les connaissances expé. Ça ne fait pas consensus. Pour ma part, je suis plutôt team Lagache (un psychiatre et psychanalyste), qui disait (ça date un peu : 1950 !) dans l’unité de la psychologie que la pratique psychologique suppose d’articuler approche clinique (soit observer directement (étymologiquement : au chevet de), pour formuler une théorie singulière - au besoin unique - du fonctionnement de l’individu) et données de l’approche expérimentale (rapporter les données observées à un ensemble construit et cohérent de connaissances et de modèles du fonctionnement psychologique). Et qu’il n’est pas raisonnable de les dissocier.
Donc cette articulation est recommandée depuis… 75 ans, à tel point que chez les anglo-saxons, elle est intégrée à la définition même de clinique :
“clinical adj. of or relating to the diagnosis and treatment of psychological, medical, or other disorders. Originally involving only direct observation of patients, clinical methods have now broadened to take into account biological and statistical factors in treating patients and diagnosing disorders” (APA, 2018)
Sauf que si notre ensemble cohérent de théories, modèles et statistiques est un colosse aux pieds d’argile, on est mal.
Concrètement, ce n’est pas juste le problème des universitaires - même s’ils ont évidemment un rôle majeur dans la production et la diffusion des connaissances de la discipline. On risque au moins deux problèmes très concrets :
Un premier est que ça peut légitimer des professionnels a-référentiels, sans positionnement clair au niveau théorique et pratique. Ou qui se disent “intégratifs” [tousse], une façon polie de dire qu’ils piochent un peu partout. Et le pire est qu’on pourra difficilement leur donner tort de prendre de la distance avec tout ça. Entre les courants qui produisent des connaissances avec la méthode du doigt mouillé et ceux qui produisent des connaissances en simulant la rigueur méthodologique, on ne sait plus à quels saints se vouer.
Un second est que ça questionne vraiment l’intérêt de faire des années d’études à apprendre des théories et modèles si l’on est pas raisonnablement sûr de leur qualité. Si c’est juste une affaire de posture et de qualité relationnelle comme on peut le voir écrit parfois, je ne vois pas l’intérêt du bac +5 (ou +8 pour certains pays) et du titre. Des façons plus efficaces de travailler ses qualités relationnelles existent, et elles ne supposent pas de rester assis sur un banc en amphi.
Les psychiatres
Je dis “les” psychiatres parce que ma femme est à côté et participe pleinement.
Nous sommes malheureusement assez d’accord avec la position de Maxime, mais il y a à notre avis plusieurs points qui ont été abordés:
La problématique de la reproductibilité d’une étude stricto sensu, à savoir, tout a été fait de la même façon, mais les résultats trouvés ne sont pas les mêmes. Il est beaucoup plus délicat de faire une étude expérimentale scientifique identique à une autre en psychiatrie, et il est donc fréquent que les résultats ne soient pas reproductible, en dehors de toute falsification.
La problématique de la malhonnêteté des chercheurs, qui parfois falsifient leurs résultats, ce qui rend toute réplication impossible. Le manque de transparence fréquent n’aide pas - les auteurs ne fournissent pas toujours leurs données par exemple, ce qui est à mon avis très suspicieux.
La problématique de l’ignorance du grand public quant au fait qu’une étude, seule, n’a pas beaucoup de valeur, et qu’elle n’est à considérer qu’au regard des réplications ultérieures des résultats (ou de leur absence). Ça n’incite personne à s’emmerder à essayer de répliquer.
La problématique des revues scientifiques, qui sont littéralement l’équivalent des magazine people, et qui cherchent de résultats nouveaux, provocateurs - et qui se contrefichent bien de leur caractère reproductible.
La problématique de la non publication des échecs de réplication - entre autres, à cause du manque d’intérêt des revues pour ces études.
La problématique des liens d’intérêts. Les gens pensent que les liens d’intérêts financiers plombent la recherche scientifique, mais quand une équipe à passé sa carrière sur un sujet, vous pouvez être sûrs qu’ils ne feront pas souvent leur maximum pour regarder si leur travail a été répliqué ou pas.
La problématique des liens d’intérêts financiers, vous savez de quoi on parle - mais vous ne savez probablement pas à quel point c’est un problème.
La problématique de la recherche scientifique en elle même, qui nécessite des critères d’inclusions, des critères d’évaluations, tout un petit bordel qui fait qu’on arrive souvent avec des résultats qui sont difficilement interprétables et qui concernent de toute façon une population qui n’a souvent pas grand chose à voir avec les populations qui nous intéressent en clinique.
La problématique des statistiques. Les mêmes données peuvent engendrer des résultats différents en fonction de leur interprétation statistique.
Un bon début serait de considérer les opérateurs comme faisant partie du processus de soin et non comme des simples observateurs qui appliquent des outils sur les patients.
Je suis toujours dubitatif quand je constate l'énergie qu'on met à dresser des études avec un nombre suffisant de patients mais que ce sont toujours les mêmes opérateurs qui conduisent le processus étudié.
Peut être que l'IA nous aidera par la suite mais tant qu'une technique sera incarnée, je ne vois pas comment on pourrait obtenir des résultats reproductibles (sauf à augmenter suffisamment le nombre d'opérateurs pour diminuer la part aléatoire mais cela pose la question du coût de telles etudes).
Ce qui pourrait également être intéressant serait d'évaluer l'efficacité des opérateurs à travers différentes techniques sur un nombre suffisamment important de patients mais je crois que c'est un travail à vie.
Je pense donc qu'on essaie d'évaluer le fusil mais pas le chasseur qui le tient, si vous me pardonnez la métaphore un peu foireuse.
Merci pour le post