Les IA génératives ont été adoptées par les entreprises et le grand public plus rapidement que n’importe quelle autre innovation technologique dans l’histoire. Ce n’est une question de temps avant qu’elles n’imprègnent l’ensemble du monde de la santé. Afin de border cette révolution technologique en cours, l’Organisation mondiale de la santé (OMS) a rendu public aujourd’hui ses 40 recommandations concernant la conception des applications médicales des IA génératives, et en particulier des modèles multimodaux, c’est-à-dire des IA capables d’intégrer différentes sources de données (image, texte, enregistrement audio) pour générer une analyse sous diverses formes. Ce type de technologie est déjà exploité dans des plateformes parfois bien connues du grand public : ChatGPT, Gemini, Bard et Bert (et sa version française CamemBert).
Toutes ces technologies « ont le potentiel d’améliorer la prise en charge des patients, mais seulement si ceux qui les développent, les utilisent et les régulent sont parfaitement informés des risques qui leur sont associés », résume le Dr Jeremy Farrar, en charge des questions technologique à l’OMS.
Les recommandations identifient cinq domaines d’application pour les IA génératives en santé : le diagnostic et la prise en charge (répondre aux questions des patients), l’analyse des symptômes et la prescription, les tâches administratives hospitalières, la formation des professionnels de santé et la recherche scientifique et clinique.
La qualité d’une IA dépend de ce qu’on lui fournit
Les recommandations insistent sur la qualité des données qui doivent être fournies aux IA pour les entraîner. Des données biaisées peuvent en effet conduire une IA générative à produire des conclusions fausses, ou faisant preuve de discrimination envers certaines catégories de patients. Et les ingénieurs et les chercheurs ne doivent pas, selon l’OMS, être seuls aux commandes lors de la mise au point de ces IA. Des usagers, des patients et des spécialistes de l’éthique doivent pouvoir participer dès le début de la conception.
Le rapport met aussi l’accent sur le besoin d’accessibilité, y compris d’un point de vue financier. Il met aussi en garde contre le « réflexe de l’automatisation » qui pourrait conduire les usagers de l’IA à ne pas remarquer certaines erreurs à cause d’une confiance trop aveugle dans la machine.
Pour parer à ce genre de problèmes, les auteurs du rapport recommandent la mise en place d’infrastructures publiques, ou gérées par des ONG, en mesure de fournir du matériel et des ensembles de données fiables répondant à des principes éthiques. Ces principes fondamentaux sont au nombre de six : autonomie des projets, promotion du bien-être, sécurité et de l’intérêt public, transparence de la technologie, responsabilités clairement établies, inclusivité et équité, soutenabilité environnementale. Les respecter devrait empêcher une mainmise trop importante de grands groupes internationaux sur les données de santé.
L’OMS demande aussi que chaque pays mette en place une agence de régulation spécialisée qui valide toute application de l’IA générative dans le domaine de la santé. Il est également préconisé de rendre obligatoires des audits réguliers par des entités indépendantes des IA génératives déployées, afin d’évaluer le niveau de protection des données et le respect des droits.
CCAM technique : des trous dans la raquette des revalorisations
Dr Patrick Gasser (Avenir Spé) : « Mon but n’est pas de m’opposer à mes collègues médecins généralistes »
Congrès de la SNFMI 2024 : la médecine interne à la loupe
La nouvelle convention médicale publiée au Journal officiel, le G à 30 euros le 22 décembre 2024