Le Quotidien du pharmacien. – Comment percevez-vous la diffusion de l’intelligence artificielle (IA) dans la recherche médicale ?
Hervé Chneiweiss. – Si l’usage de l’intelligence artificielle progresse, c’est avant tout parce qu’elle est perçue comme un outil efficace. Les algorithmes ont montré leur efficacité et amènent une réelle plus-value à nos travaux. Je considère donc leur diffusion comme une avancée positive. Toutefois, comme avec tout nouvel outil, nous nous devons d’être vigilants et de prévenir les risques. Il existe une forme de naïveté autour des nouveaux outils informatiques, notamment dans la recherche biomédicale. On croit parfois à tort qu’elle est neutre ou qu’elle fonctionne sans coût réel, comme on l’a cru au début d’Internet ou des moteurs de recherche. Ce n’est évidemment pas le cas.
À quels risques pensez-vous lorsque vous parlez de naïveté ?
Il y a plusieurs niveaux. Une première dimension concerne la divulgation des résultats de recherche. Traditionnellement, les travaux sont menés par une équipe dans un laboratoire puis ils sont rendus publics à travers des publications scientifiques. Le fait d’utiliser des IA pour rédiger ou synthétiser des résultats les sort du circuit, jusqu’ici fermé. Confier des informations, des données confidentielles à des systèmes d’IA qui sont des éponges à données ouvre la porte à une fuite. Imaginez une IA qui, volontairement ou non, diffuserait vos résultats à vos concurrents. Vous perdriez la propriété intellectuelle sur vos découvertes. Je perçois un deuxième risque concernant la protection des données de santé, notamment dans la recherche clinique. Si les données sont injectées dans des systèmes non souverains comme ChatGPT ou Gemini, elles ne sont plus confidentielles. Enfin, le troisième risque est celui des hallucinations générées par les IA. Pour se conformer aux demandes qu’on leur soumet. Leurs calculs peuvent produire des résultats cohérents selon leurs algorithmes, mais en réalité incorrects.
Comment l’Inserm appréhende-t-il ces enjeux éthiques ?
Premièrement, un pôle d’intelligence artificielle a été créé, avec des ingénieurs qui se chargeront « d’ouvrir le capot » et de se pencher sur les lignes de codes, pour s’assurer qu’elles n’intègrent pas de biais. Par ailleurs, nous avons publié un guide de bonnes pratiques de l’IA, réalisé en collaboration avec le Conseil scientifique et Lorier, le programme de recherche intègre et responsable. Ce cadre sera mis à jour régulièrement. Il est primordial de garder à l’esprit que l’IA est un outil. Ce sont donc les chercheurs, qui demeurent responsables des résultats présentés. Je suis moi-même médecin oncologue. Si un incident survient à l’hôpital, c’est à moi qu’en incombe la responsabilité. En aucun cas à la pharmacie ou à l’infirmière. Je souhaite insister sur la puissance exceptionnelle de ces outils. Ils participent à accélérer la recherche, à améliorer la pharmacovigilance, à identifier de nouvelles cibles thérapeutiques… Les bénéfices sont immenses, mais nous ne devons pas laisser leurs promesses nous hypnotiser.