MedtechDispositifs médicaux connectés

Interview

Visible Patient : l’analyse d’imagerie chirurgicale en pré et péri-opératoire

Partager sur facebook
Partager sur twitter
Partager sur linkedin
Partager sur google
Partager sur reddit
Partager sur tumblr
Partager sur pinterest
biotech info articles luc soler

 

Interview Luc Soler, CEO de Visible Patient

Luc Soler intervenait le 24 novembre dernier à la Station F, lors de la journée IA for Health dont Johnson &Johnson était l’un des principaux sponsors.

Votre logiciel a été développé à l’IRCAD ?

La première partie à l’IRCAD de 1999 à 2013.

Ensuite en créant notre société, on a rajouté des éléments et on a modifié le logiciel. On a obtenu un soft à base d’IA qui donne de meilleurs résultats et permet de faire beaucoup plus de choses.

J’ai été directeur scientifique de l’IRCAD pendant 20 ans, de 1999 à 2019. J’ai quitté l’IRCAD quand on a fait la deuxième levée de fond pour m’occuper à plein temps de Visible Patient, le laboratoire d’analyses médicales.

Votre partenariat avec J&J est plus récent, il y a deux ans ?

Nous avons signé le partenariat en 2020 pour une commercialisation à partir de 2021 de notre solution. C’est J&J qui va voir les chirurgiens, fait signer des contrats avec des hôpitaux, distribue notre service. Une fois le contrat signé, les hôpitaux accèdent à notre service en ligne et peuvent demander des modélisations qui sont réalisées par Visible Patient, mais ils seront facturés par J&J.

Vous avez fait considérablement évoluer le CA de la société ?

Oui, il a beaucoup évolué mais cela reste confidentiel. Plus de 100 hôpitaux l’utilisent, au quotidien, uniquement en Europe et au Moyen-Orient pour le moment. Aux Etats-Unis, et dans l’Asie Pacifique, nous avons déjà fait tous les tests, traité un certain nombre de patients, non pas pour obtenir la certification que nous avons déjà mais pour préparer le marché. Quand vous lancez un produit sur le marché vous le préparez avant à l’évolution.  C’est ce à quoi s’attelle J&J. On fait étape par étape, on commence par l’Europe, et après on va étendre : notre produit sera disponible en Asie-Pacifique, aux Etats-Unis et au Canada.

Vos logiciels s’appliquent à différents types d’organes?

Tous les organes. Là où nous avons le plus de demandes, en majorité, c’est en chirurgie thoracique. Les chirurgiens estiment que c’est dangereux d’opérer en segmentectomie  en découpant un petit morceau de poumon sans avoir un modèle en 3D (1). En deuxième position l’Hépato-biliaire-pancréas (HPB), en troisième position tout ce qui colorectal, à peu près à égalité avec la chirurgie pédiatrique, et ensuite l’urologie, les reins uniquement. Et enfin pour demain ce sera l’endométriose avec tout ce qui est gynécologique. Nous avons beaucoup de demandes sur ce sujet et nous avons donc mis en œuvre un programme afin d’automatiser ce process, car sans automatisation nous ne pourrons pas gérer le très gros volume de demandes liées à cette pathologie qui touche entre 10 et 15% des femmes.

Qu’entendez-vous par automatisation ?

Une nouvelle IA. Quand nous automatisons un traitement d’images, nous utilisons deux méthodes. La méthode hiérarchique, automatisée à un certain point. Vous devez entrer des paramètres, par exemple, cliquer sur un vaisseau, donner des noms etc. Bref, les opérateurs de Visible Patient passent du temps à régler les paramètres du programme. Avec l’IA, tout est automatique. Vous mettez l’image, vous cliquez sur un bouton, le logiciel traite l’image et il vous sort tous les organes. C’est un peu « magique » ! Dans notre cas, notre logiciel a appris avec une version que nous appelons adolescente car notre IA peut remettre en cause sa base de connaissances.

Il faut donc d’abord créer la base de connaissances. Cela signifie délimiter les organes du pelvis et l’endométriose. Une fois que vous avez une base suffisamment grosse, vous faites apprendre à l’IA à partir de ces données, et quand elle aura appris elle sera capable d’analyser elle-même. Aujourd’hui on fait les modèles de nos patientes et on apprend à notre IA. Une fois qu’on aura suffisamment de modèles, on pourra basculer sur un usage de masse parce que ce sera automatisé, pour aller plus vite et répondre à des demandes massives. En termes de qualité, ça sera pareil. Nous avons pu lancer ce projet sur l’endométriose grâce à un financement de la Fondation Force, basée à Strasbourg.

Vous êtes toujours à Strasbourg ?

Oui, on peut tout faire depuis Strasbourg. Ce qui est intéressant quand on est en Europe, c’est qu’on peut traiter les patients de tous les pays d’Europe et des autres pays, sauf la Chine et la Russie. En fait, la grande majorité des pays permettent un envoi de leur données vers l’Europe sauf la Chine et la Russie qui ont des lois aussi restrictives que l’Europe sur l’export de leurs données. Car en Europe, il est interdit d’envoyer des données médicales de citoyens européens en dehors de l’Europe. En revanche, depuis les autres pays c’est possible. Nous pouvons traiter des patients de Corée du Sud, d’Australie, de Nouvelle-Zélande depuis Strasbourg. Idem pour les Etats-Unis.

Où se trouve votre siège ?

A Strasbourg, au 6ème et dernier étage d’un bâtiment qui nous est loué par Electricité de Strasbourg d’où nous avons une magnifique vue sur la cathédrale et sur la faculté de médecine.

Vous faites tout depuis vos locaux ?

Oui, à commencer par le développement de nos logiciels qui sont des dispositifs médicaux certifiés dans 30 pays et traduits dans plus 15 langues. Nous y réalisons aussi le traitement des images car nous sommes un laboratoire d’analyse d’images comme l’indique d’ailleurs notre code NAF. Ce traitement d’images est réalisé dans nos locaux par des spécialistes, qui sont des manipulateurs d’électroradiologie médicale, et nous avons un médecin dans l’équipe.

Pour que les images soient validées, vous les interprétez ?

L’IA le fait toute seule mais on vérifie le résultat. L’IA peut rater un vaisseau par ci, une branche par là. Il est essentiel de vérifier parce qu’il y a des choses qu’elle rate. C’est la force de l‘humain. Je dis souvent que nous les humains, on n’est pas forcément bon pour faire les choses. En revanche, pour les critiquer on est super fort. Nous allons trouver des défauts et des imprécisions et pouvoir les corriger. Grâce à ça, on peut corriger et donner une qualité hors norme, ce qui laisse du temps pour contrôler.

C’est ce que vous appelez une “IA adolescente” ?

Oui et non. Oui car, après proposition de l’IA, c’est l’humain l’adulte qui prend la décision et c’est une des particularités de son adolescence. Non car ce que nous appelons adolescence dans notre IA est le fait qu’elle remette en cause son savoir appris en le considérant comme imparfait, ce qui est typique de l’adolescence. Normalement, une IA ne modifie pas sa base de connaissances et la considère toujours comme une vérité garantie base de son savoir. Mais aucune base de données ne peut être considérée comme parfaite, d’où cette idée que nous avons développé. Attention cependant, elle ne doit surtout pas devenir adulte, sinon cela signifierait qu’elle changerait sans contrôle humain des données que nous considérons initialement comme justes. Cela serait potentiellement dangereux. Seul le contrôle humain permet de vérifier si notre “IA adolescente” a raison ou pas. Les algorithmes certifiés sont des systèmes sécurisés. Une fois que les images sont validées par l’homme, nous les renvoyons au chirurgien.

Combien avez-vous de salariés ?

Un peu moins de 50 personnes. L’équipe est composée pour un tiers de manipulateurs radiologie, un autre tiers d’ingénieurs R&D informatique, et le dernier tiers réunit qualité et affaires réglementaires, les gestions des ventes, l’administration et la direction de la société.

Quels sont vos projets en cours ?

Le projet Endométriose, très important pour nous, et les nouvelles IA. On améliore en permanence nos IA, on a beaucoup de brevets, on les met en pratique et ça prend du temps : en effet, convertir un logiciel d’IA en Dispositif Médical est un processus qui est assez long. Cela prend du temps surtout quand vous avez autant de pays à gérer. Tous nos logiciels sont développés en interne.

 

biotech info articles medecin patient
Modélisation 3D Visible Patient à partir d’un scanner du patient permettant de planifier l’opération de retrait d’une tumeur (en vert) de l’estomac.

 

Vous avez une Vision 3D des organes. Les chirurgiens peuvent-ils avoir une vue en temps réel lors de l’opération ?

Avant l’opération il y a d’abord la vision en 3D permettant de définir l’opération idéale en simulant ce qui se passe si je coupe un vaisseau, et en vérifiant si l’opération sera efficace. C’est comme le problème d’un arbre malade. En ville, si un arbre est malade, il est coupé et remplacé par un nouvel arbre. En chirurgie, on appelle cela une transplantation. Mais si l’arbre est dans votre jardin, vous allez chercher la branche qui va alimenter la partie malade. Si vous coupez cette branche, vous ne savez pas vraiment quel est volume de feuilles ou de l’arbre qui va partir avec. C’est un peu le hasard. C’est tout l’objet de la simulation en pré-opératoire. Notre logiciel permet de simuler ce qui se passerait si vous coupez telle veine ou telle artère en estimant le volume de la partie de l’organe qui contient la pathologie que l’on souhaite retirer et qui ne sera plus alimentée ou drainée (nécrosée). On peut donc réaliser cette simulation sans risque pour le patient. C’est ce que j’ai montré dans cet exemple d’une chirurgie réalisée en 2018 chez un jeune enfant qui sans le programme devait voir la moitié de son rein droit retiré et son rein gauche entièrement retiré et transplanté. Au final, grâce à la simulation sur sa copie virtuelle, l’équipe a pu conserver une partie de ses deux reins et l’enfant n’a pas eu de transplantation tout en étant guéri.

On peut aussi imprimer ces modélisations des patients grâce aux imprimantes 3D. C’est intéressant pour l’apprentissage, pour faire une copie physique avant l’intervention sur laquelle le chirurgien pourra s’entraîner et répéter son geste.

Durant l’opération, on peut utiliser les casques de réalité augmentée. Le bénéfice c’est de voir en 3D. C’est comme si nous avions un hologramme 3D du patient. Durant l’opération, avec le casque Hololens de Microsoft, je peux alors manipuler cette copie virtuelle, cet hologramme de l’anatomie du patient et même l’agrandir pour voir tous les détails. Je peux aussi retirer virtuellement un organe ou le mettre en transparence pour mieux voir ce qui se cache derrière. C’est comme dans les films de science-fiction mais ce n’est plus de la fiction, c’est une réalité du présent. Notre logiciel est déjà disponible gratuitement et utilisable pour la formation des chirurgiens (2).

Enfin pendant l’opération, et c’est l’avenir, on peut aussi mélanger cet hologramme virtuel avec le vrai patient en le plaçant dans le patient. C’est ça, la réalité augmentée. Elle permet alors de voir le patient en transparence, le rêve de tout chirurgien. Aujourd’hui les logiciels qui permettent cette réalité augmentée, cette vue en transparence automatique, ne sont pas encore des dispositifs médicaux certifiés autorisés pour guider un geste chirurgical. C’est un peu comme la voiture autonome qui n’est pas autorisée à l’usage.

A quelle échéance prévoyez-vous que ce le soit?

Ce sont des développements qui vont prendre du temps, ça va dépendre des organismes de certification, et des études qui auront été menées. Car le vrai risque c’est si le système se trompe en vous disant qu’un vaisseau est là où il n’est pas et vous montre en transparence sa position erronée et que le chirurgien commette alors une erreur. Lorsque l’image est montrée en holographie 3D sans superposition, non pas sur la patient mais à côté, ce risque n’est pas présent puisque c’est le chirurgien qui mentalement repère les structures. Cet usage là est déjà disponible et son utilisation va très rapidement croître.

C’est comme un GPS ?

Oui, c’est comme avec un GPS. S’il ne vous montre que la carte, sans vous dire où aller, le choix de la route, le choix de tourner à droite ou à gauche c’est vous qui le prenez. En revanche, s’il vous dit de tourner à la première à droite et que c’est un précipice, vous risquer de tomber dans le vide et le GPS sera fortement responsable. Alors imaginez si en plus la voiture est autonome… Dans le cas de la chirurgie, c’est très dur de vérifier si le système de vision en transparence est correct sans faire une imagerie interne. Pour la réalité augmentée, la seule solution est de vérifier si ce que l’image nous montre en transparence est juste, en comparant avec des informations réelles durant l’opération. C’est ce que développent l’IRCAD et l’IHU de Strasbourg, avec des scanners, IRM ou encore des échographies peropératoires. L’IRCAD travaille à fond sur l’échographie parce que c’est la modalité la plus simple, la moins chère et la plus rapide. Mais l’interprétation d’une image échographique est complexe car l’image est dynamique et le patient se déforme en temps réel. C’est la raison pour laquelle il faut utiliser l’IA.

Vous-même vous êtes chirurgien ?

Je suis professeur associé à l’équipe de chirurgie digestive et endocrine à l’Hôpital de Strasbourg et membre de l’académie nationale de chirurgie, mais non je ne suis pas chirurgien. Ma particularité est que j’ai un doctorat en informatique et que je suis attaché à la faculté de médecine de Strasbourg. Cela illustre bien l’avenir de la médecine qui utilisera de plus en plus l’informatique et la robotique pour préparer et réaliser les opérations.

 

Propos recueillis par Thérèse Bouveret

(1) European Society of Thoracic Surgeons expert consensus recommendations on technical standards of segmentectomy for primary lung cancer – PubMed (nih.gov) En juin 2023 la société des experts en chirurgie thoracique dans ses standards techniques pour ce type d’opérations a fortement recommandé d’utiliser la reconstruction 3D préopératoire pour mieux définir la localisation de la tumeur, de variantes vasculaires anatomiques et pour s’assurer que l’exacte résection en segmentectomie.

(2) Dans la démo de réalité augmentée, il s’agissait de tests de chirurgie du poumon avec le casque Hololens réalisés par le Pr Patrick Bagan à l’Hôpital d’Argenteuil et par le Pr de Latour à l’Hôpital de Rennes.