Des principes à la pratique
Jeroen van den Hoven, Stefan Buijsman
Santé conjuguée n°112 - septembre 2025
Au moment où l’IA devient une composante à part entière des soins de santé, les prestataires de soins jouent un rôle central dans l’équilibre entre innovation et responsabilité éthique. Le leadership de l’Organisation mondiale de la santé, soutenu par des institutions telles que le Delft Digital Ethics Centre, offre un cadre solide pour garantir que les technologies d’IA respectent les principes éthiques et améliorent véritablement les soins aux patients.
Dans les décennies à venir, le vieillissement de la population mondiale entrainera un accroissement de la demande de soins. Par ailleurs, grâce aux progrès de la médecine, la qualité des soins s’est améliorée. Le taux de survie des patients atteints de cancer, par exemple, a considérablement augmenté. Mais tout cela a un coût, et les dépenses de santé ont décuplé. Pour dispenser ces soins, il est en outre nécessaire de disposer de professionnels qualifiés… qui sont de plus en plus difficiles à trouver et à retenir. Répondre à une demande plus importante avec moins de personnel tout en restant attentif aux dépenses : l’IA médicale promet de nous aider à relever ces défis. Elle possède un potentiel extraordinaire de transformation des soins de santé en améliorant la précision des diagnostics, en personnalisant les traitements (proactifs) et en améliorant l’efficacité. L’IA générative, comme ChatGPT, peut en outre contribuer à réduire la charge administrative, à améliorer la précision des diagnostics et la communication entre médecins et patients. Certains experts, comme le chercheur en médecine numérique Eric Topol, ont suggéré avec optimisme que l’IA pourrait même « humaniser à nouveau la médecine » en déchargeant les médecins des tâches routinières et en leur permettant d’établir des liens plus profonds avec leurs patients.
Une aide encore perfectible
L’IA médicale n’est cependant pas encore à la hauteur des espérances. Un inventaire systématique des applications d’IA dans les unités de soins intensifs a permis de constater que seulement 2 % de toutes les études décrivent des systèmes d’IA réellement implémentés1. La grande majorité des développements répertoriés n’en sont donc encore qu’au stade du prototype. Bien que les chiffres absolus aient augmenté, on constate non sans inquiétude que ce pourcentage ne s’est pas amélioré depuis une étude de 2021. Ce constat rejoint des rapports plus généraux sur l’adoption de l’IA : selon le Massachusetts Institute of Technology (MIT), 95 % des projets pilotes d’IA générative en entreprise ont échoué ; et une étude menée auprès de 7 000 entreprises danoises a révélé qu’elle n’apportait que peu ou pas d’améliorations sur le plan de la productivité. Bien que ces études ne portent pas spécifiquement sur les soins de santé, elles soulignent la difficulté de concrétiser les promesses de l’IA, y compris dans le domaine de la santé. Les problèmes sous-jacents sont variés, mais ils se résument souvent à une mauvaise communication entre les prestataires de soins et les développeurs de modèles (ce qui conduit à des modèles qui ne résolvent pas le bon problème) et à une omission des exigences qui vont au-delà de la précision de l’IA (ce qui conduit à des modèles biaisés, créant des lacunes en matière de responsabilité ou compromettant la prise de décision partagée). Nous avons besoin que l’IA appliquée aux soins de santé soit développée différemment afin qu’elle puisse tenir ses promesses sans entrainer de problèmes, éthiques notamment.
Le Delft Digital Ethics Centre (DDEC), basé à l’université technique de Delft et récemment reconnu comme centre collaborateur de l’Organisation mondiale de la santé (OMS) sur l’IA pour la gouvernance sanitaire, y compris l’éthique, travaille à améliorer les choses. Avec plus de quarante chercheurs et des collaborations étroites au sein des établissements de santé, nous souhaitons améliorer la manière dont l’IA est conçue pour, et surtout avec, le secteur des soins de santé. La méthodologie « Design for Values » (l’intégration de principes et de méthodes de conception centrée sur l’humain et axée sur les valeurs) constitue le fondement méthodologique de cette recherche. Elle part des parties prenantes de la technologie : les personnes qui interagiront directement avec elle et celles qui seront indirectement affectées par elle. Quelles valeurs défendent-elles dont nous devons tenir compte dès la conception ? Ces valeurs vont au-delà de simples préférences et revêtent une importance éthique : les médecins, par exemple, accordent de l’importance à la précision du diagnostic et à la capacité de maintenir la responsabilité du diagnostic qu’ils posent (et doivent donc bien comprendre les raisons qui sous-tendent le diagnostic). Les patients accordent de l’importance à la qualité des soins, mais aussi à l’équité et à leur autonomie dans les décisions concernant leur propre santé. Une liste de référence de base de ces valeurs a été reprise dans les recommandations de l’OMS sur l’IA médicale, qui seront concrétisées et développées pour chaque application spécifique de l’IA :
- Protéger l’autonomie,
- Promouvoir le bien-être humain, la sécurité humaine et l’intérêt public,
- Garantir la transparence, l’explicabilité et l’intelligibilité,
- Encourager la responsabilité et la reddition de comptes,
- Garantir l’inclusion et l’équité,
- Promouvoir une IA réactive et durable.
Une fois les valeurs identifiées, l’étape cruciale suivante consiste à les traduire en exigences pour la conception technique du système d’IA ainsi qu’en exigences pour la conception organisationnelle de l’implémentation de l’IA. Comment la technologie doit-elle fonctionner et comment devons-nous travailler avec elle ? Les systèmes d’IA sont actuellement développés avec une vision souvent incomplète des exigences réelles pour un déploiement responsable, ce qui conduit à des échecs dans la pratique. Nous pouvons éviter nombre d’entre eux en clarifiant ce que nous attendons de ces systèmes grâce à une consultation étroite des parties prenantes et grâce aux conseils d’experts. Une fois les exigences clairement définies, nous pouvons développer des prototypes techniques qui sont testés et validés en fonction. Ce n’est qu’en modifiant ainsi la manière dont nous concevons l’IA que nous pourrons répondre à l’appel de l’OMS en faveur d’une « IA médicale sûre et éthique » afin de guider le développement et le déploiement de l’intelligence artificielle dans le domaine de la santé.
Promesses et pièges potentiels
Design for Values recadre le développement de l’IA au-delà des arguments de nouveauté ou d’efficacité. Elle exige l’anticipation des risques, l’ouverture, l’inclusivité et l’alignement sur des objectifs sociétaux durables, telles les recommandations de l’OMS. L’innovation ne se préoccupe pas d’éthique ni de responsabilité ; l’accent est généralement mis sur de nouvelles fonctionnalités alléchantes. Oui, c’est innovant, mais est-ce bon pour autant ? De nombreuses innovations ont conduit à des problèmes que nous rencontrons aujourd’hui, pensons à la bombe atomique, au DDT, à l’amiante… L’une des premières questions que nous devrions nous poser est celle-ci : cette nouvelle technologie est-elle moralement acceptable et va-t-elle contribuer à résoudre certains des grands problèmes de notre monde sans en créer de nouveaux ou en aggraver d’autres ?
Comme des technologies qui l’ont précédée, l’IA peut effectivement détériorer les soins de santé. Des problèmes sont apparus sur chacun des points repris dans les recommandations de l’OMS. Quelques exemples. L’IA peut involontairement renforcer les inégalités et les préjugés sociaux. Un système utilisé pour identifier et aider les personnes ayant des besoins complexes présentait un fort biais2 à l’encontre des patients noirs. Le système prédisait leurs besoins sur base des coûts historiques des soins plutôt que du diagnostic réel. En raison des disparités raciales existant dans le système de santé américain, les patients blancs présentant des symptômes identiques reçoivent en moyenne des traitements plus coûteux. Ils se sont donc vu attribuer un score de risque plus élevé que les patients noirs atteints de la même maladie et ont par conséquent bénéficié de davantage de soins une fois le système d’IA mis en place. Les auteurs de l’étude ont estimé que seuls 17,7 % des patients noirs ont reçu des soins supplémentaires alors que, compte tenu de leur état de santé, ils auraient dû être 46,5 %. Dans le domaine des coloscopies3, l’IA peut créer des situations dans lesquelles les médecins ne sont plus ne mesure d’assumer la responsabilité de leurs décisions (car celles-ci sont implicitement externalisées vers l’IA) ni les expliquer correctement, car la nature opaque des systèmes d’IA empêche de se rendre compte des erreurs, ce qui entraine un risque supplémentaire de déqualification4.
Cependant, si l’on tient compte des aspects liés à la qualité des soins dès la conception de l’IA et lors de son implémentation, nous pouvons créer une IA qui s’aligne sur les valeurs éthiques des soins de santé et qui améliore plutôt que de diminuer la qualité des soins responsables. Lorsqu’elle est conçue de manière réfléchie, l’IA médicale possède un potentiel extraordinaire pour transformer les soins de santé. En soins intensifs, par exemple, les systèmes qui aident à déterminer les tests à prescrire pour formuler un meilleur diagnostic de la septicémie répondent beaucoup mieux à ces exigences que les systèmes d’IA qui prédisent le risque qu’un patient en soit atteint. Dans ces cas, le diagnostic réel de la septicémie reste entre les mains du médecin et l’IA peut réellement améliorer la qualité des soins sans rien sacrifier à l’éthique 5.
Nous essayons souvent de concilier autant de valeurs que possible : confidentialité/sécurité, prospérité économique/durabilité, précision/équité. Il ne s’agit pas nécessairement d’un choix ou/ou, mais plutôt d’un choix et/et. Nous recherchons de nouvelles fonctionnalités et des solutions intelligentes qui nous permettent d’avoir le beurre et l’argent du beurre et qui nous aident à éviter de poser des choix tragiques. Une invention intelligente change le monde de manière telle qu’elle nous permet de faire davantage de choses : par exemple, répondre aux préoccupations en matière de confidentialité et exploiter le Big Data, grâce à la double innovation que constituent les données synthétiques et la confidentialité différentielle. Il n’y a aucune garantie que cela sera toujours possible, mais, si les enjeux sont suffisamment importants, nous avons l’obligation d’explorer si de telles solutions existent. Comme d’autres innovations, l’IA peut nous aider à faire les choses plus efficacement et de manière plus responsable. Mais elle ne le fera que si nous garantissons un développement inclusif de la technologie, dans lequel les valeurs très diverses des parties prenantes sont prises en compte dès la conception.
Ce que cela signifie pour les prestataires de soins
- S’engager de manière réfléchie : comprendre les implications éthiques des systèmes d’IA pour les parties prenantes. Plaider en faveur de la transparence de la conception, de l’équité envers les patients et de la sécurité.
- Participer activement : les connaissances cliniques sont essentielles pour identifier les défis éthiques et élaborer des solutions d’IA adaptées aux besoins pratiques.
- Soutenir Design for Value, la conception axée sur les valeurs : favoriser la collaboration entre les parties prenantes, médecins, patients, éthiciens, ingénieurs et décideurs politiques, afin de garantir que les outils d’IA soient sûrs, efficaces et conformes à nos valeurs.
- Se former et s’adapter : se tenir au courant des directives éthiques et des nouveaux cadres réglementaires. Adapter les processus de travail afin d’exploiter les avantages de l’IA de manière responsable.
Instaurer la confiance : promouvoir la transparence quant au rôle de l’IA auprès des patients afin d’améliorer la relation patient-prestataire de soins.
En tant que prestataires de soins, il est essentiel de comprendre les dimensions éthiques et les principes de conception de l’IA médicale pour une utilisation efficace et responsable. Lorsqu’elle est conçue de manière responsable et implémentée de manière réfléchie, l’IA médicale a le pouvoir de donner plus de moyens aux prestataires, d’enrichir l’expérience des patients et de contribuer à un système de santé plus juste et plus efficace, nous rapprochant ainsi de la vision d’une médecine véritablement centrée sur l’humain.
Traduit de l’anglais par DRP Copywriting.
- W.E. Berkhout et al., “Operationalization of Artificial Intelligence Applications in the Intensive Care Unit: A Systematic Review”, JAMA Network Open, 8(7), 2025.
- Ibid.
- K. Budzyń et al., “MDEndoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study”, The Lancet, August 12, 2025.
- G. Pozzi et al., “Harmful epistemic dependence on medical machine learning and its moral implications”, Journal of medical ethics, 2025. S. Buijsman et al., “Autonomy by Design: Preserving Human Autonomy in AI Decision-Support”, in S. Buijsman et al., Philosophy & Technology, 38(3), 2025.
- S. Zhang et al., “Rethinking Human-AI Collaboration in Complex Medical Decision Making: A Case Study in Sepsis Diagnosis”, 26 Feb 2024, https://arxiv.org.
Cet article est paru dans la revue:
Santé conjuguée, n°112 - septembre 2025
L’intelligence artificielle (IA) n’est plus une promesse lointaine ni une curiosité réservée aux laboratoires de recherche : elle est déjà entrée dans nos pratiques de soins, souvent sans que nous en ayons pleinement conscience. Qu’il s’agisse d’un(…)
Dans le monde des soins, « intelligence artificielle » (IA) est sur toutes les lèvres. Des logiciels d’aide au diagnostic aux chatbots de santé, cette technologie promet de transformer la pratique médicale. Faut-il craindre que la consultation et(…)
Au sein de nos structures d’accueil et d’hébergement pour ainés d’HUmani à Montigny-le-Tilleul, Courcelles et Châtelet, nous avons mené deux tests de dispositifs de détection des chutes. Ces dispositifs sont au cœur d’une préoccupation majeure en(…)
Bien que son déploiement en Europe ne soit pas encore aussi avancé qu’aux États-Unis ou en Chine, l’introduction de l’intelligence artificielle à l’hôpital pourrait avoir de nombreuses retombées dans des domaines aussi divers que la médecine(…)
L’image est à l’origine des premières applications de l’IA dans le domaine de la santé : analyse de l’ECG six dérivations (Kardia mobile en Belgique), détection des apnées du sommeil et radiologie. La dermatoscopie est en cours(…)
La collecte massive des données de santé, leur traitement algorithmique, leur partage croisé entre acteurs publics et privés, leur transfert au-delà des frontières de l’Union européenne soulèvent des interrogations majeures. À qui appartiennent-elles réellement ? Quelles garanties(…)
Comment présenteriez-vous l’IA ? L’intelligence artificielle porte extrêmement mal son nom ! Elle n’est ni une intelligence ni artificielle. C’est un outil, une machine. Nous avons trois formes d’intelligence : une intelligence analytique (on analyse, on fait des opérations(…)
Le numérique repose sur trois grandes composantes techniques, interconnectées entre elles, appelées les trois tiers : les terminaux utilisateurs, avec lesquels nous interagissons pour accéder aux services numériques (ordinateurs, smartphones, objets connectés, téléviseurs intelligents, etc.) ; les équipements(…)
Dans les décennies à venir, le vieillissement de la population mondiale entrainera un accroissement de la demande de soins. Par ailleurs, grâce aux progrès de la médecine, la qualité des soins s’est améliorée. Le taux de(…)
Si l’intelligence artificielle ne menace pas directement l’existence d’Homo sapiens, elle risque bien, en déployant des techniques d’optimisation, de prédiction et de manipulation à grande échelle, de remettre en cause le fondement même de nos Lumières :(…)
La neuropsychiatrie vise à comprendre et à traiter les troubles mentaux en articulant neurosciences et pratique clinique. L’essor des approches computationnelles a introduit des outils capables de traiter des volumes de données d’une ampleur et d’une(…)
Interpellant initialement les facultés de médecine, l’Organisation mondiale de la santé a défini en 1995 leur responsabilité sociale comme « l’obligation d’orienter la formation qu’elles donnent, les recherches qu’elles poursuivent et les services qu’elles dispensent, vers les(…)
Actualités 112
Le soin, acte de résistance et lueur d’espoir de paix sociale. Depuis près de deux ans, dans la bande de Gaza, 62 000 personnes ont été tuées, dont 18 000 enfants ; 155 000 personnes ont été blessées, dont 45 000 enfants. Près de(…)
Qu’est-ce qui singularise le travail de Médecins du monde ? Nous allons où les autres ne vont pas. Nous travaillons avec un esprit humanitaire dans des situations de conflits, parfois de catastrophes naturelles, au plus près des(…)
Le néolibéralisme est un courant de pensée qui s’est développé au début des années 1980. Tout comme le libéralisme économique, il souhaite réduire le rôle de l’État. Il critique aussi le modèle de l’État-providence, soutenant que l’État(…)