Avec l'introduction de l'intelligence artificielle (IA), les médecins semblent devenir moins performants pour détecter eux-mêmes des tumeurs au colon. C'est ce qu'avance une étude réalisée en Pologne et publiée dans « The Lancet Gastroenterology & Hepatology ». Une autre étude, britannique cette fois, démontre qu’une IA développée par Google repose en partie sur des biais sexistes et minimise les problèmes de santé des femmes… Deux études qui interrogent donc sur les bénéfices de l’IA dans le domaine de la santé.
Quel effet peuvent avoir les outils à base d'IA, de plus en plus utilisés dans le monde de la santé, sur la pratique médicale ? C’est à cette question qu’a tenté de répondre une étude polonaise, l’une des premières à évoquer le risque que cette technologie nuise aux compétences des spécialistes. Selon ces travaux, publiés dans « The Lancet Gastroenterology & Hepatology » le 12 août, la pratique régulière de l'IA semble en effet avoir « des effets nuisibles sur les compétences des spécialistes des endoscopies ».
Dans le cadre de cette étude, les chercheurs se sont concentrés sur les données de plusieurs centres polonais spécialisés dans les endoscopies et coloscopies, des examens qui permettent notamment de détecter des signes de cancer digestifs, en particulier du colon. Les données ont été recueillies en 2021 et 2022. Pendant cette période, ces centres ont généralisé l'usage de logiciels d'IA qui visent à aider les spécialistes à mieux détecter ce type de tumeurs. Les chercheurs n'ont pas examiné les résultats des examens effectués à l'aide de l'IA, mais ils ont plutôt regardé ce que donnaient ceux qui ont continué à être effectués par les mêmes spécialistes, mais sans assistance. Les résultats sont étonnants.
Avant l'introduction de l'IA, 28,4 % de ces examens aboutissaient à la détection d'un adénome, une tumeur bénigne mais qui peut potentiellement dégénérer en cancer. Or, une fois l'IA généralisé, ce taux a baissé à 22,4 %. Selon les auteurs, ce différentiel laisse donc penser que l'usage de l'IA a dégradé les capacités des spécialistes à identifier les tumeurs concernées. Une interprétation qui n’est toutefois pas une certitude, admettent les chercheurs. Il est en effet possible que, sur la même période, d'autres facteurs que l'IA ait joué sur le taux de tumeurs détecté. « Reste que les spécialistes des endoscopies auraient bien tort de négliger les résultats de cette étude », prévient le spécialiste Omer Ahmad qui n'a pas participé à ce travail. Pour ce gastro-entérologue, cette étude polonaise doit constituer une première alerte sur les dangers de l'IA en matière « de lente érosion de compétences fondamentales. Ces résultats nuancent l'engouement actuel pour vite adopter des technologies à base d'IA », conclut-il, soulignant qu'il s'agit de la première étude en vie réelle qui va dans le sens d'une perte de compétences médicales.
Cette semaine, une autre étude publiée dans « BMC Medical Information and Decision making », a elle aussi évoqué un risque lié à l’usage de l’IA en santé. Des travaux menés par la « London School of Economics » sur 617 dossiers médicaux révèlent que Gemma, un système d’IA développé par Google, serait sexiste. À travers différents exemples, les chercheurs ont ainsi démontré que l’IA utilise des mots plus « directs » lorsque le patient est un homme et a au contraire tendance à « minimiser » le problème lorsqu’il s’agit d’une femme et ce, pour un problème de santé identique. « Cela pourrait conduire à ce que les femmes reçoivent moins de soins si des modèles biaisés sont utilisés dans la pratique », analyse l’auteur principal de l’étude dans les colonnes du « Guardian ».
Avec l'AFP
Cybercriminalité
Sur Internet, les faux sites de vente de médicaments se multiplient
Prévention des méningites B
Trumenba désormais pris en charge pour les 15-24 ans
Retraits de lots
Ludiomil indisponible jusqu’à fin 2026
Dispositifs médicaux
Un test diagnostic pour la maladie d’Alzheimer obtient le marquage CE