MedtechIntelligence artificielle

Article

Développer un modèle d’IA responsable

Partager sur facebook
Partager sur twitter
Partager sur linkedin
Partager sur google
Partager sur reddit
Partager sur tumblr
Partager sur pinterest
biotech info uncategorized christine balagué recadré bis

Tribune libre de Christine Balagué, professeur à l’Institut Mines-Télécom business school,  membre de la CERNA et de DATAIA, ex-Vice-présidente du Conseil National du Numérique.

 

Les algorithmes d’apprentissage prennent une importance croissante dans le domaine de la santé et permettent des progrès extraordinaires, comme par exemple pour le diagnostic précoce d’une pathologie, en oncologie, pour le séquençage du génome ou encore dans l’imagerie médicale. Ces technologies de machine learning et de deep learning vont être de plus en plus utilisées dans le futur. Cependant, même si l’intelligence artificielle est source de progrès majeurs en santé, son impact sur le patient et plus globalement sur la société peut poser problème.

Dans un monde numérique dominé par les modèles américains et chinois, il est nécessaire de développer un modèle alternatif d’intelligence artificielle responsable, loin d’une vision transhumaniste. Ce modèle d’IA responsable vise à respecter les valeurs qui fondent l’Europe, comme par exemple le respect de la vie privée, de la loyauté, de l’équité, de la non-discrimination, de l’autonomie de l’individu. La déclaration de Montréal, lancée le 4 décembre 2018, défend également cette nécessité de développer une intelligence artificielle responsable. A la CERNA (Comité d’Ethique de la Recherche sur le Numérique d’Allistène), composé de chercheurs pluridisciplinaires, nous avons publié plusieurs rapports sur la nécessité de former les chercheurs en IA sur ces enjeux d’éthique.

Pourquoi s’intéresse-t-on aux technologies et aux algorithmes responsables ? Parce que les algorithmes peuvent générer un certain nombre de problèmes. Ils peuvent tout d’abord comporter des biais, souvent liés à la base de données utilisée, elle-même biaisée.  En santé, la question de l’utilisation de données massives pose aussi la question de la ré-identification potentielle du patient et de la difficulté à réellement anonymiser les données.

Les algorithmes d’apprentissage peuvent également être source de discrimination, même si elle est souvent non intentionnelle. Enfin, un algorithme est porteur d’opinions et de jugements de valeur, et son concepteur doit décrire son intention de manière sincère et loyale, ainsi que les limites de son système. Enfin, les méthodes d’apprentissage profond sont souvent opaques et les résultats non explicables, alors que la performance de ces systèmes est particulièrement élevée. Il est donc nécessaire de rendre ces systèmes plus explicables, plus transparents, afin d’en comprendre le fonctionnement.

Un patient dont le diagnostic ou le choix thérapeutique est fourni par un médecin accompagné par une machine voudra comprendre pourquoi le système est parvenu à ces choix, et s’il se trompe. Ces technologies en santé obligent également à repenser la relation patient-médecin, et le rôle du médecin ainsi que celui du patient.  Enfin, l’intelligence artificielle repose sur des méthodes d’apprentissage traitant des données en grande quantité. L’enjeu du recueil d’un consentement éclairé est majeur pour le développement de ces technologies. Mais pour qu’il soit éclairé, il est nécessaire d’expliquer ces technologies, ce qui n’est pas simple, et de demander non seulement un consentement sur les données mais aussi sur le fait que la machine apprenne sur les données du patient.

Un autre enjeu important lié à l’intelligence artificielle en santé est la formation d’une part des médecins à la data science et aux technologies numériques, et d’autre part celle des ingénieurs ou des informaticiens aux enjeux du secteur de la santé. Il est nécessaire de développer des doubles cursus pour les médecins et pour les écoles d’ingénieurs.