Le brouhaha scientifique : La science, la médecine et nous.
J’avais exprimé mon étonnement devant la violence des attaques contre le Professeur Raoult, et l’obstination de certains à opposer ce qu’ils appellent la science, aux vertus de l’observation et du soin.
En clair ce que nous disent certains médecins, c’est que face à un péril nouveau, il faut observer, tenter de comprendre et soigner au mieux, c’est à dire rétro-agir en fonction de ce qu’on observe et apprend (de sa pratique et de celle des autres).
A l’opposé, certains chercheurs nous vantent les mérites des tests dits randomisés permettant de comparer l’effet d’un traitement, à... pas grand chose parce qu’il n’existe pas de traitement connu. A partir de là, on oppose au « ça marche » des médecins, au « c’est pas prouvé » des prétendus chercheurs. C’est un peu si, en économie, on avait dit au gouvernements : « Ah ! Non ! Vous ne pouvez tenter d’endiguer la crise (de forme nouvelle et inconnue) sans avoir testé votre politique contre un placebo fait de bonnes paroles, sur des citoyens (ou des territoires) tirés au hasard ». Et soyons fous, il faut encore s’assurer de leur absence de relations, d’interdépendance entre eux. Bref il vous faut de vraies barrières. Tout ça bien entendu est un peu fou. Mais la situation est encore bien pire.
Dans le monde de la science médicale, on n’aime pas, semble-t-il les gens qui trouvent des solutions sans passer entre les mains des prêtres de la randomisation... mais on est parfois un peu déviants. Ainsi, il se trouve qu’une PME lancée dans le « big-data » pour fabriquer (je n’invente pas) un système d’aide au « triage » des malades, se dit subitement qu’elle a une mine d’or : des milliers de données numérisées émanant de ses partenaires. L’entreprise parle dans sa publicité d’intelligence artificielle, mais il s’agit tout simplement de calculs de probabilités conditionnelles, et de facteurs de risques. Le seul intérêt de la chose, est de fournir des probabilités ou des « Odds Ratio » (rapport de risques, ou de chances des bookmakers), fondés sur une masse significative d’informations concernant un grand nombre de patients. « Coup de chance » (pour eux, pas pour la science), il en ont quelques dizaines de milliers.
Il reste deux obstacles :
- Celui de la nature et de la qualité des données pour un hôpital donné;
- Et celui de la comparabilité des données d’un hôpital (d’un pays...) à l’autre.
En admettant même que des consignes de codification soient communes, il reste que les populations « choisies » (en fait on ignore comment se fait le « choix ») par chaque hôpital ne sont manifestement pas tirées d’un processus de sondage, et les populations de référence dont elles sont censées être représentatives nous sont totalement inconnues, et ont de bonnes raison d’être disparates.
Surgisphere n’est pas le seul à donner dans la « médecine collaborative ». Sermo par exemple revendique « un salon virtuel » de crowdsourcing regroupant 800 000 médecins dans 150 pays. L’idée n’est pas inintéressante puisqu’il s’agit, ici aussi de partage de cas ou de questions difficiles, et de recherche de réponses en temps réel. Mais pourrait-on en tirer des « lois scientifiques » alimentant des articles faisant autorité dans le monde médical pour autant ? Non bien sûr. Ainsi, les données publiés par Sermo sur l’opinion des médecins sur les traitements pourrait attirer l’attention et faire réfléchir.
La vision des traitements par les médecins en première ligne selon Sermo
Les conclusions qu’on pourrait en tirer seraient ravageuses : « traitons donc à la Vitamine C ou D ! « (ou les 2 !).
Mais au delà, de son effet comique ou dramatique, la nature de ces données est aussi importante à comprendre que le résultat obtenu. Ainsi rien n’indique quel est le poids relatif (% d’avis et de pratiques) de chaque point sur le graphe (autrement dit de quoi parle-t-on). Un examen des données détaillées montre simplement que l’on compare non seulement des choses non comparables : des avis sur des soins (en fait des substances) dont les posologies sont inconnues, mais au surplus l’usage variable (rare ou courant). Bref, on nage dans un gros flou. Autrement dit, l’information est peu utile sans explications.
Par ailleurs, comme dans la base utilisée par Surgisphere, chez Sermo, la part des praticiens Nord Américains prédomine très largement (mais moins : 1/3), et, pour des raisons diverses seulement 4000 praticiens environ sur les 800 000 revendiqués ont répondu à l’enquête de « neuvième semaine de Covid19 ». Autrement dit, on accumule les biais, d’autant que sur les 4000 répondants seuls 1/3 traitaient des malades du Covid19.
On a ainsi autant de garanties sur le sens des résultats publiés, que si on extrapolait des données d’enquête d’opinion auprès d’un fichier client, pour en tirer des constatations de portée générale. Or l’utilisation du fichier Surgisphere relève de la même logique. On a remarqué par exemple l’importance de patients souffrant de pathologies cardiovasculaires (codées grossièrement). Logique, la clientèle première de l’entreprise semble bien liée à la profession de cardiologue de son créateur. Mais la somme de biais existant - liés pour commencer par la nature inadéquate et imprécise des données recensées - est amplifié par l’absence totale d’analyse et de discernement. Ainsi on donne de l’appariement (on rend les groupes comparables étudiés « comme si on les avait tirés au hasard ») pour éviter des biais liés à la constitution des sous-ensembles comparés, mais on passe allègrement sur l’imprécision totale des traitements, des posologies, des conditions médicales réelles des patients enregistrés, et au surplus des traitements antérieurs. Et encore, se garde-t-on d’expliciter l’appariement en question.
De même, les données très intéressantes de Google et d’Apple sur la mobilité (par pays, région, etc..) pendant la crise du Covid19 ne sont pas strictement comparables, pas plus qu’elles ne sont représentatives d’autre chose que des pratiques des utilisateurs de leurs produits. On remarquera au passage que l’une et l’autre des compagnies ne publie (ou de dispose pas) de données sur la Chine (mais sur Hong-Kong, oui).
Il ne serait pas illégitime de vouloir, à partir de ces données, analyser l’incidence du confinement, ou de sa nature selon les pays. Mais, pour autant, les indications ou indicateurs en découlant n’auraient qu’une représentativité partielle, et un biais important.
De ces remarques je tire deux leçons principales. La première est que, malheureusement, la presse et les commentateurs (quant aux éditeurs ...? ), ne travaillent pas les documents qui sont publiés. Ils s’intéressent aux conclusions, rarement aux doutes, et sont pour le reste impressionnés par le jargon des articles. Leur côté rebutant, favorise la diffusion de travaux dont la médiocrité scientifique est évidente, quoique enrobée d’une mécanique statistique qui semble, parce que normalisée, implacable. Sauf que le problème est ailleurs. En amont le plus souvent.
La seconde est qu’on sent bien que se cache derrière ce tumulte quelque chose qui pourrait se résumer à deux questions simples : « qu’est-ce que la médecine ? », et « qu’est-ce que la science dans ou pour la médecine ».
Pour des non médecins pratiquant ou ayant pratiqué d’autres disciplines relevant de ce qu’on appelle les sciences humaines (comme si elles ne l’étaient pas toutes), cela évoquera sans doute des questions comparables dans leurs domaines, comme cette opposition presque dogmatique entre la recherche et les études appliquées.
Comprendre pour agir, ne relève pas toujours du monde rêvé de la « science », et pourtant c’en est une, en toute humilité.
P.S.