Aller au contenu

Des principes à la pratique

,
Santé conjuguée n°112 - septembre 2025

Au moment où l’IA devient une composante à part entière des soins de santé, les prestataires de soins jouent un rôle central dans l’équilibre entre innovation et responsabilité éthique. Le leadership de l’Organisation mondiale de la santé, soutenu par des institutions telles que le Delft Digital Ethics Centre, offre un cadre solide pour garantir que les technologies d’IA respectent les principes éthiques et améliorent véritablement les soins aux patients.

Dans les décennies à venir, le vieillissement de la population mondiale entrainera un accroissement de la demande de soins. Par ailleurs, grâce aux progrès de la médecine, la qualité des soins s’est améliorée. Le taux de survie des patients atteints de cancer, par exemple, a considérablement augmenté. Mais tout cela a un coût, et les dépenses de santé ont décuplé. Pour dispenser ces soins, il est en outre nécessaire de disposer de professionnels qualifiés… qui sont de plus en plus difficiles à trouver et à retenir. Répondre à une demande plus importante avec moins de personnel tout en restant attentif aux dépenses : l’IA médicale promet de nous aider à relever ces défis. Elle possède un potentiel extraordinaire de transformation des soins de santé en améliorant la précision des diagnostics, en personnalisant les traitements (proactifs) et en améliorant l’efficacité. L’IA générative, comme ChatGPT, peut en outre contribuer à réduire la charge administrative, à améliorer la précision des diagnostics et la communication entre médecins et patients. Certains experts, comme le chercheur en médecine numérique Eric Topol, ont suggéré avec optimisme que l’IA pourrait même « humaniser à nouveau la médecine » en déchargeant les médecins des tâches routinières et en leur permettant d’établir des liens plus profonds avec leurs patients.

Une aide encore perfectible

L’IA médicale n’est cependant pas encore à la hauteur des espérances. Un inventaire systématique des applications d’IA dans les unités de soins intensifs a permis de constater que seulement 2 % de toutes les études décrivent des systèmes d’IA réellement implémentés1. La grande majorité des développements répertoriés n’en sont donc encore qu’au stade du prototype. Bien que les chiffres absolus aient augmenté, on constate non sans inquiétude que ce pourcentage ne s’est pas amélioré depuis une étude de 2021. Ce constat rejoint des rapports plus généraux sur l’adoption de l’IA : selon le Massachusetts Institute of Technology (MIT), 95 % des projets pilotes d’IA générative en entreprise ont échoué ; et une étude menée auprès de 7 000 entreprises danoises a révélé qu’elle n’apportait que peu ou pas d’améliorations sur le plan de la productivité. Bien que ces études ne portent pas spécifiquement sur les soins de santé, elles soulignent la difficulté de concrétiser les promesses de l’IA, y compris dans le domaine de la santé. Les problèmes sous-jacents sont variés, mais ils se résument souvent à une mauvaise communication entre les prestataires de soins et les développeurs de modèles (ce qui conduit à des modèles qui ne résolvent pas le bon problème) et à une omission des exigences qui vont au-delà de la précision de l’IA (ce qui conduit à des modèles biaisés, créant des lacunes en matière de responsabilité ou compromettant la prise de décision partagée). Nous avons besoin que l’IA appliquée aux soins de santé soit développée différemment afin qu’elle puisse tenir ses promesses sans entrainer de problèmes, éthiques notamment.
Le Delft Digital Ethics Centre (DDEC), basé à l’université technique de Delft et récemment reconnu comme centre collaborateur de l’Organisation mondiale de la santé (OMS) sur l’IA pour la gouvernance sanitaire, y compris l’éthique, travaille à améliorer les choses. Avec plus de quarante chercheurs et des collaborations étroites au sein des établissements de santé, nous souhaitons améliorer la manière dont l’IA est conçue pour, et surtout avec, le secteur des soins de santé. La méthodologie « Design for Values » (l’intégration de principes et de méthodes de conception centrée sur l’humain et axée sur les valeurs) constitue le fondement méthodologique de cette recherche. Elle part des parties prenantes de la technologie : les personnes qui interagiront directement avec elle et celles qui seront indirectement affectées par elle. Quelles valeurs défendent-elles dont nous devons tenir compte dès la conception ? Ces valeurs vont au-delà de simples préférences et revêtent une importance éthique : les médecins, par exemple, accordent de l’importance à la précision du diagnostic et à la capacité de maintenir la responsabilité du diagnostic qu’ils posent (et doivent donc bien comprendre les raisons qui sous-tendent le diagnostic). Les patients accordent de l’importance à la qualité des soins, mais aussi à l’équité et à leur autonomie dans les décisions concernant leur propre santé. Une liste de référence de base de ces valeurs a été reprise dans les recommandations de l’OMS sur l’IA médicale, qui seront concrétisées et développées pour chaque application spécifique de l’IA :

  • Protéger l’autonomie,
  • Promouvoir le bien-être humain, la sécurité humaine et l’intérêt public,
  • Garantir la transparence, l’explicabilité et l’intelligibilité,
  • Encourager la responsabilité et la reddition de comptes,
  • Garantir l’inclusion et l’équité,
  • Promouvoir une IA réactive et durable.

Une fois les valeurs identifiées, l’étape cruciale suivante consiste à les traduire en exigences pour la conception technique du système d’IA ainsi qu’en exigences pour la conception organisationnelle de l’implémentation de l’IA. Comment la technologie doit-elle fonctionner et comment devons-nous travailler avec elle ? Les systèmes d’IA sont actuellement développés avec une vision souvent incomplète des exigences réelles pour un déploiement responsable, ce qui conduit à des échecs dans la pratique. Nous pouvons éviter nombre d’entre eux en clarifiant ce que nous attendons de ces systèmes grâce à une consultation étroite des parties prenantes et grâce aux conseils d’experts. Une fois les exigences clairement définies, nous pouvons développer des prototypes techniques qui sont testés et validés en fonction. Ce n’est qu’en modifiant ainsi la manière dont nous concevons l’IA que nous pourrons répondre à l’appel de l’OMS en faveur d’une « IA médicale sûre et éthique » afin de guider le développement et le déploiement de l’intelligence artificielle dans le domaine de la santé.

Promesses et pièges potentiels

Design for Values recadre le développement de l’IA au-delà des arguments de nouveauté ou d’efficacité. Elle exige l’anticipation des risques, l’ouverture, l’inclusivité et l’alignement sur des objectifs sociétaux durables, telles les recommandations de l’OMS. L’innovation ne se préoccupe pas d’éthique ni de responsabilité ; l’accent est généralement mis sur de nouvelles fonctionnalités alléchantes. Oui, c’est innovant, mais est-ce bon pour autant ? De nombreuses innovations ont conduit à des problèmes que nous rencontrons aujourd’hui, pensons à la bombe atomique, au DDT, à l’amiante… L’une des premières questions que nous devrions nous poser est celle-ci : cette nouvelle technologie est-elle moralement acceptable et va-t-elle contribuer à résoudre certains des grands problèmes de notre monde sans en créer de nouveaux ou en aggraver d’autres ?
Comme des technologies qui l’ont précédée, l’IA peut effectivement détériorer les soins de santé. Des problèmes sont apparus sur chacun des points repris dans les recommandations de l’OMS. Quelques exemples. L’IA peut involontairement renforcer les inégalités et les préjugés sociaux. Un système utilisé pour identifier et aider les personnes ayant des besoins complexes présentait un fort biais2 à l’encontre des patients noirs. Le système prédisait leurs besoins sur base des coûts historiques des soins plutôt que du diagnostic réel. En raison des disparités raciales existant dans le système de santé américain, les patients blancs présentant des symptômes identiques reçoivent en moyenne des traitements plus coûteux. Ils se sont donc vu attribuer un score de risque plus élevé que les patients noirs atteints de la même maladie et ont par conséquent bénéficié de davantage de soins une fois le système d’IA mis en place. Les auteurs de l’étude ont estimé que seuls 17,7 % des patients noirs ont reçu des soins supplémentaires alors que, compte tenu de leur état de santé, ils auraient dû être 46,5 %. Dans le domaine des coloscopies3, l’IA peut créer des situations dans lesquelles les médecins ne sont plus ne mesure d’assumer la responsabilité de leurs décisions (car celles-ci sont implicitement externalisées vers l’IA) ni les expliquer correctement, car la nature opaque des systèmes d’IA empêche de se rendre compte des erreurs, ce qui entraine un risque supplémentaire de déqualification4.
Cependant, si l’on tient compte des aspects liés à la qualité des soins dès la conception de l’IA et lors de son implémentation, nous pouvons créer une IA qui s’aligne sur les valeurs éthiques des soins de santé et qui améliore plutôt que de diminuer la qualité des soins responsables. Lorsqu’elle est conçue de manière réfléchie, l’IA médicale possède un potentiel extraordinaire pour transformer les soins de santé. En soins intensifs, par exemple, les systèmes qui aident à déterminer les tests à prescrire pour formuler un meilleur diagnostic de la septicémie répondent beaucoup mieux à ces exigences que les systèmes d’IA qui prédisent le risque qu’un patient en soit atteint. Dans ces cas, le diagnostic réel de la septicémie reste entre les mains du médecin et l’IA peut réellement améliorer la qualité des soins sans rien sacrifier à l’éthique 5.
Nous essayons souvent de concilier autant de valeurs que possible : confidentialité/sécurité, prospérité économique/durabilité, précision/équité. Il ne s’agit pas nécessairement d’un choix ou/ou, mais plutôt d’un choix et/et. Nous recherchons de nouvelles fonctionnalités et des solutions intelligentes qui nous permettent d’avoir le beurre et l’argent du beurre et qui nous aident à éviter de poser des choix tragiques. Une invention intelligente change le monde de manière telle qu’elle nous permet de faire davantage de choses : par exemple, répondre aux préoccupations en matière de confidentialité et exploiter le Big Data, grâce à la double innovation que constituent les données synthétiques et la confidentialité différentielle. Il n’y a aucune garantie que cela sera toujours possible, mais, si les enjeux sont suffisamment importants, nous avons l’obligation d’explorer si de telles solutions existent. Comme d’autres innovations, l’IA peut nous aider à faire les choses plus efficacement et de manière plus responsable. Mais elle ne le fera que si nous garantissons un développement inclusif de la technologie, dans lequel les valeurs très diverses des parties prenantes sont prises en compte dès la conception.

Ce que cela signifie pour les prestataires de soins

  • S’engager de manière réfléchie : comprendre les implications éthiques des systèmes d’IA pour les parties prenantes. Plaider en faveur de la transparence de la conception, de l’équité envers les patients et de la sécurité.
  • Participer activement : les connaissances cliniques sont essentielles pour identifier les défis éthiques et élaborer des solutions d’IA adaptées aux besoins pratiques.
  • Soutenir Design for Value, la conception axée sur les valeurs : favoriser la collaboration entre les parties prenantes, médecins, patients, éthiciens, ingénieurs et décideurs politiques, afin de garantir que les outils d’IA soient sûrs, efficaces et conformes à nos valeurs.
  • Se former et s’adapter : se tenir au courant des directives éthiques et des nouveaux cadres réglementaires. Adapter les processus de travail afin d’exploiter les avantages de l’IA de manière responsable.

Instaurer la confiance : promouvoir la transparence quant au rôle de l’IA auprès des patients afin d’améliorer la relation patient-prestataire de soins.
En tant que prestataires de soins, il est essentiel de comprendre les dimensions éthiques et les principes de conception de l’IA médicale pour une utilisation efficace et responsable. Lorsqu’elle est conçue de manière responsable et implémentée de manière réfléchie, l’IA médicale a le pouvoir de donner plus de moyens aux prestataires, d’enrichir l’expérience des patients et de contribuer à un système de santé plus juste et plus efficace, nous rapprochant ainsi de la vision d’une médecine véritablement centrée sur l’humain.

 

Traduit de l’anglais par DRP Copywriting.

 

  1. W.E. Berkhout et al., “Operationalization of Artificial Intelligence Applications in the Intensive Care Unit: A Systematic Review”, JAMA Network Open, 8(7), 2025.
  2. Ibid.
  3. K. Budzyń et al., “MDEndoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study”, The Lancet, August 12, 2025.
  4. G. Pozzi et al., “Harmful epistemic dependence on medical machine learning and its moral implications”, Journal of medical ethics, 2025. S. Buijsman et al., “Autonomy by Design: Preserving Human Autonomy in AI Decision-Support”, in S. Buijsman et al., Philosophy & Technology, 38(3), 2025.
  5. S. Zhang et al., “Rethinking Human-AI Collaboration in Complex Medical Decision Making: A Case Study in Sepsis Diagnosis”, 26 Feb 2024, https://arxiv.org.

Cet article est paru dans la revue:

Santé conjuguée, n°112 - septembre 2025

Introduction n°112

L’intelligence artificielle (IA) n’est plus une promesse lointaine ni une curiosité réservée aux laboratoires de recherche : elle est déjà entrée dans nos pratiques de soins, souvent sans que nous en ayons pleinement conscience. Qu’il s’agisse d’un(…)

- François Roucoux

L’IA médicale, toujours en quête de maturité

À près de soixante-cinq ans, l’IA médicale ne prend pas sa retraite, mais cherche la maturité. Pour comprendre le moment charnière que nous vivons, je vous propose un voyage depuis ses balbutiements dans les années 1960 jusqu’à son essor actuel, en passant par ses succès, ses échecs et les défis éthiques qu’elle soulève.
- François Roucoux

L’IA en maison de repos : entre promesse et prudence

On parle souvent de l’IA comme d’une révolution inévitable, capable de transformer en profondeur nos manières de soigner, de surveiller, d’interagir. Mais si la technologie évolue, c’est aussi à nous, professionnels de terrain, de la mettre à l’épreuve de la réalité des établissements, de nos équipes, de nos résidents.
- Frédéric Huel

IA à l’hôpital : des risques sous-estimés ?

Grâce au soutien financier des autorités publiques régionales et fédérales, les hôpitaux belges intègrent progressivement l’intelligence artificielle en vue d’améliorer la qualité des soins et d’alléger la charge de travail des soignants. Quels défis se cachent derrière ces promesses et quelles réponses y apporter ?
- Pauline Gillard

Quel usage des outils d’IA en maison médicale ?

Un logiciel labellisé belge présente une fonctionnalité de retranscription de la consultation utilisant des outils d’intelligence artificielle. Le microphone de l’ordinateur enregistre la conversation de l’anamnèse, la description de l’examen physique, les prescriptions et conseils donnés au patient. Le tout résumé dans le dossier médical informatisé (DMI). Un gain de temps et une qualité qui semblent au rendez-vous, avec la perspective d’un meilleur contact avec le patient… Appréciable, mais non sans poser de nombreuses questions.
- Dr Benjamin Fauquert

IA et données de santé : quels garde-fous ?

L’intelligence artificielle s’impose aujourd’hui comme un levier de transformation structurant du système de santé. Les cas d’usage se multiplient, nourris par une promesse d’optimisation, de personnalisation et de fluidification de la décision clinique. Cependant, cette évolution des pratiques repose sur un actif désormais stratégique : les données de santé.
- Emeraude Camberlin

Les enjeux éthiques de l’IA dans les soins de santé

Chirurgienne et chercheuse en philosophie au Centre de bioéthique de l’UNamur, Geneviève Guillaume analyse la question de la décision médicale. Elle pointe les risques liés au mésusage des outils d’intelligence artificielle par des soignantes et des soignants.
- Marinette Mormont

Impacts du numérique et de l’intelligence artificielle

Souvent associé à des mots comme « virtuel » ou « immatériel », le numérique repose sur une infrastructure bien physique, non sans conséquences sur l’environnement. L’intelligence artificielle contribue également aux dégâts.
- Jules Delcon

Des principes à la pratique

Au moment où l’IA devient une composante à part entière des soins de santé, les prestataires de soins jouent un rôle central dans l’équilibre entre innovation et responsabilité éthique. Le leadership de l’Organisation mondiale de la santé, soutenu par des institutions telles que le Delft Digital Ethics Centre, offre un cadre solide pour garantir que les technologies d’IA respectent les principes éthiques et améliorent véritablement les soins aux patients.
- Jeroen van den Hoven, Stefan Buijsman

La fin de l’individu

Le philosophe et romancier Gaspard Kœnig s’est posé la question de l’évolution de l’individu et de ses libertés à l’ère de l’intelligence artificielle. Il a mené une enquête de plusieurs mois, interrogé des professeurs, entrepreneurs, intellectuels, politiques, économistes, artistes et même un magicien à travers le monde. Il a rencontré des gens enthousiastes et d’autres inquiets, et présenté la synthèse de ses investigations dans un livre[efn_note]G. Kœnig, La Fin de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle, Alpha/Humensis, 2019, 2024.[/efn_note].
- Dr André Crismer

IA et neurosciences au service de la santé mentale

L’intelligence artificielle peut sembler éloignée de notre humanité, alimentant l’idée qu’elle serait peu adaptée au bien-être psychologique. Pourtant, ses capacités d’analyse et de modélisation ouvrent aujourd’hui des perspectives concrètes en neurosciences cliniques, et plus particulièrement en neuropsychiatrie.
- Camille Dieu

Vers la démocratie technique en santé

Depuis une trentaine d’années, une nouvelle forme de responsabilité est mise en avant dans le domaine de la santé par de nombreux auteurs et institutions : la responsabilité sociale en santé. Une manière de la définir est de l’entendre comme l’engagement des professionnels dans la « démocratie en santé ». L’un de ses enjeux est de penser l’intelligence artificielle en termes de « milieux ».
- Alain Loute, Louis Van Maele

Actualités 112

Au-delà de la peur

Le soin, acte de résistance et lueur d’espoir de paix sociale. Depuis près de deux ans, dans la bande de Gaza, 62 000 personnes ont été tuées, dont 18 000 enfants ; 155 000 personnes ont été blessées, dont 45 000 enfants. Près de(…)

- Fanny Dubois

FEDERICO DESSI : « nous ne sommes pas là juste pour soigner, nous sommes là aussi pour témoigner et changer les choses »

Médecins du monde est né en France en 1980 et la section belge en 1998. Comme le rappelle son directeur, le cœur du combat de l’ONG est l’accès à la santé, la santé pour tous de manière inconditionnelle. Tant en Belgique qu’à l’étranger.
- Pascale Meunier

Arizona, sécheresse garantie

Une synthèse de différentes analyses produites par des médias, partenaires sociaux, associations ou chercheurs, et construite à partir de la roue des déterminants de la santé, brosse les effets prévisibles de nos nouveaux gouvernements sur la population. Cible majeure : l’emploi.
- Emeline Goris, Marinette Mormont

Jeunes patients et maladies chroniques

Tu es jeune, tu te débrouilleras bien… C’est ce que j’entends souvent, mais ce n’est pas ce que je ressens. » Le récent rapport « Jeune et atteint d’une maladie chronique en Belgique » identifie clairement les obstacles structurels(…)

- Jolien Robijns

La démarche ASCOP

Concept anglo-saxon apparu dans les années 1990, le goal oriented care (GOC) est soutenu par la Fondation roi Baudouin depuis 2019. Traduite en français par « aide et soins centrés sur les objectifs de la personne » (ASCOP), cette approche peut traverser toute la pratique et accompagner, entre autres, certaines situations complexes, de polypathologie, de fragilité ou de perte d’autonomie.
- Pascale Meunier