Aller au contenu

Les enjeux éthiques de l’IA dans les soins de santé


Santé conjuguée n°112 - septembre 2025

Chirurgienne et chercheuse en philosophie au Centre de bioéthique de l’UNamur, Geneviève Guillaume analyse la question de la décision médicale. Elle pointe les risques liés au mésusage des outils d’intelligence artificielle par des soignantes et des soignants.

Comment présenteriez-vous l’IA ?

L’intelligence artificielle porte extrêmement mal son nom ! Elle n’est ni une intelligence ni artificielle. C’est un outil, une machine. Nous avons trois formes d’intelligence : une intelligence analytique (on analyse, on fait des opérations de déduction, d’induction, des opérations logiques ou de raisonnement analytique), une intelligence émotionnelle et créative (notre intelligence est incarnée dans des relations et, en médecine, c’est très important), et une intelligence pratique (c’est ce qu’on appelle le bon sens, la clairvoyance, mais aussi tous les savoir-faire et savoir-être). L’IA ne possède qu’une petite partie de ces compétences. Elle n’est pas non plus artificielle. C’est quelque chose de complètement matériel, elle a besoin d’une industrie extractive, d’énormément d’énergie et d’eau. La question écologique constitue d’ailleurs un des gros problèmes éthiques de l’IA. Elle a aussi largement besoin des humains, d’abord pour créer les modèles et méthodes qui lui permettent de fonctionner, ensuite pour être alimentée en data.

Quelles sont les principales questions éthiques qui se posent avec l’IA ?

Avant tout, il faut reconnaitre que l’IA a des points positifs, notamment en ce qui concerne le partage et la décentralisation du savoir, comme cela a été le cas à l’arrivée d’internet. En médecine, les apports de l’IA sont nombreux et prometteurs : soutien administratif, aide technique par exemple dans l’imagerie ou la robotisation des interventions, facilitation de la recherche, construction de guidelines ou de recommandations, etc. Mais il faut apprendre à utiliser ces outils correctement et faire attention au pouvoir qu’on leur donne. L’IA, c’est une machine de calcul, certes extrêmement puissante, mais qui doit rester à notre service. Parmi les questions éthiques posées sur l’utilisation de l’IA, on retrouve entre autres la toxicité mentale que cela peut générer, la marchandisation des données, le travail gratuit des utilisateurs qui fournissent ces données, la confidentialité et le secret médical, le désastre écologique, l’esclavage du clic : derrière l’IA qui « lit » des radiographies, certains radiologues du tiers monde sont sous-payés et utilisés pour marquer des images. Pour moi, c’est un problème dont on ne parle pas beaucoup. Est-ce qu’on va réussir à mettre en place des règles démocratiques efficaces et réguler tout cela ?

L’IA produit des connaissances. Quelles sont leurs limites ?

Il y a les problèmes de biais [le biais de sélection altère la capacité d’un modèle à généraliser, car les données d’entrainement ne reflètent pas fidèlement la diversité des cas réels ; le biais de classement favorise les catégories dominantes, NDLR] ou le fait d’être enfermé dans sa bulle d’informations et d’opinion. En médecine, on est fort influencé par le marketing, les firmes. Celles-ci nous influencent déjà avec la présentation de leurs études pour essayer de vendre leurs médicaments. Je crois qu’avec le développement de l’intelligence artificielle, il faudra vraiment qu’on devienne très vigilants. Aujourd’hui, les réseaux sociaux et l’IA sont capables d’influencer nos choix voire de nous suggérer des états : certaines personnes qui possèdent des montres connectées regardent chaque matin sur cette machine si elles ont bien dormi. En médecine, on peut se trouver face à un patient et lui dire « mon échographie, mon doppler me dit que vous allez bien », et ne pas chercher la raison pour laquelle ce patient se sent mal. Ce sont des choses qui se produisent déjà. Une question qui me semble très importante pour la médecine et dont on parle peu, c’est le fait que toutes ces données, pour être utilisées, sont nettoyées, triées. Certains philosophes parlent même de « purification » des données. Elles sont expurgées de leur contexte, de tout ce qui est en lien avec la singularité d’un patient, sa sensibilité, sa vie, etc. Les patients sont donc réduits à une glycémie, une tension, un poids, etc., qui les définissent. L’utilisation généralisée de ces critères objectifs risque de réduire la façon dont on considère les patients et je crois qu’il faut y être très attentif. Si nous limitons notre pensée à la manière dont l’IA nous pousse à penser, serons-nous encore capables de penser certaines choses, aurons-nous encore les mots pour en parler ? Nous n’en sommes pas là, mais nous pourrions en arriver à ne plus envisager qu’une réalité objective, calculée, mesurable.

Ces données objectives, factuelles, sont-elles fiables ?

La plupart des gens sont bluffés par l’IA, qui a une grande puissance de calcul, une qualité d’argumentation et de syntaxe. Mais il y a un taux d’erreurs énorme et en tout cas souvent inacceptable en médecine. Quand on utilise ChatGPT dans son domaine de connaissance, on se rend compte qu’il se trompe beaucoup. Comme son fonctionnement repose sur des probabilités, il lie des choses entre elles sans recherche de sens. En outre, certaines études font l’hypothèse que si l’on cesse d’alimenter l’IA avec de nouvelles données, elle va continuer à se nourrir de ce qu’elle a elle-même produit, en ce compris de ses propres erreurs. Tout cela se discute en tout cas. Mais ChatGPT n’a que deux ou trois ans, cela évolue très vite, et le temps de la science est plus lent…

Quelles sont les implications, en médecine, de cette accélération dans le développement de l’IA ?

Différentes méthodes d’apprentissage permet-ent aux machines d’effectuer des tâches : l’apprentissage supervisé (on donne des instructions à la machine pour réaliser une tâche), l’apprentissage non supervisé (petit à petit, on a mis tous les algorithmes dans le désordre en disant à la machine « débrouille-toi, trouve ton chemin toute seule ») et l’apprentissage par renforcement (par essai-erreur). Aujourd’hui, avec le deep learning, on associe ces trois méthodes d’apprentissage.
Le problème, pour la médecine en tout cas, c’est que l’on en vient à créer des boîtes noires. On ne comprend plus le chemin qu’emprunte la machine. Ce qui pose des difficultés en termes de transparence (le médecin ne comprend pas comment la machine calcule), d’acceptabilité (comment, en tant que médecin ou comme patient, accepter ce que la machine nous dit puisqu’on ne sait pas sur quelle base elle propose un résultat) et de responsabilité (en cas d’erreur, qui du concepteur de la machine ou du médecin porte la responsabilité ?).

L’IA pourrait-elle être amenée à décider à la place de l’humain ?

La réponse dépend de la manière dont on envisage la décision. Si la décision est le résultat d’un calcul formel, l’IA comme outil de production de connaissances peut être un bon outil pour décider. En revanche, si on comprend la décision comme l’aboutissement d’une délibération, l’IA ne pourra pas suffire. En médecine, plusieurs questions peuvent être posées par le patient à son médecin : « Qu’est-ce que j’ai ? » (question de connaissance), « Pourquoi suis-je malade ? » (question de la cause) ou « Pourquoi dois-je me soigner ? » (question de l’intention). Ces deux dernières questions sont des questions qui dépassent les limites des connaissances et sont liées au sens. Pour ce qui est de la causalité : l’IA raisonne de façon probabiliste. Elle peut réaliser des corrélations (premier niveau de causalité), donc faire des liens entre les phénomènes sans direction, pas des liens de cause à effet (deuxième niveau). Ce deuxième niveau de la causalité est lié au langage, qui nous permet de parler entre nous et de nous comprendre. Il existe un troisième niveau de causalité, qui est tout à fait inaccessible à l’IA, c’est de dire « Et si… ? » Ce niveau suppose des possibilités de réponses infinies et donc de l’imagination, de la création. Or l’IA ne sait pas produire de connaissances en dehors des données qu’elle possède. L’imagination, la communication, la mise en relation, c’est ce qui va nous permettre, en tant que médecin, de trouver du sens, de comprendre un patient dont on ne connait pas la vie. On a besoin de ce type de raisonnement contrefactuel pour prendre une décision.

La deuxième chose, c’est la question de l’intention…

Là aussi, il y a deux manières de prendre la question. La première, on peut définir un objectif à l’avance : sur base de certaines données, on décide qu’un patient va devoir prendre tel médicament pour faire descendre son taux de cholestérol. Ce sont des choses qui font l’objet de protocoles, de guidelines. L’IA est tout à fait capable de les prendre en compte dans sa manière de travailler. Mais ce type d’objectif mesurable et prédéterminé n’est pas toujours possible à mettre en place, et cela pour toute une série de raisons (effets secondaires, éléments liés au contexte de vie du patient, etc.). Dans certains cas, on va devoir changer l’objectif, négocier, rediscuter, interpréter. Il s’agit de mettre en balance les connaissances factuelles avec les circonstances, les possibilités, les besoins, les désirs du patient, les nôtres, ceux de la société, etc. C’est ce qu’on appelle l’interprétation ou la délibération. Cette façon de travailler ne rentre pas du tout dans les protocoles. Selon moi, en médecine, il est absolument indispensable d’avoir à la fois des protocoles, des connaissances et raisonnements exacts, et à la fois de pouvoir interpréter et de tenir compte du patient qui est en face de nous, et pas uniquement de son taux de cholestérol. Or l’IA va tout à fait dans le sens d’une médecine protocolisée, d’une médecine où on applique sans nécessairement réfléchir. La pensée est ce qui nous permet d’interpréter, d’interroger le sens de ce qu’on fait ; elle nécessite de l’imagination, de l’intuition, et elle est tout à fait inaccessible à l’IA. Comme médecin, nous avons vraiment intérêt à nous battre pour que ces formes d’intelligence soient reconnues et défendues. On a intérêt, aussi, à accepter de prendre en compte l’incertitude, qui ne se mesure pas, contrairement au risque, et qui échappe à nos tentatives de gestion et de prévision.

Comment voyez-vous évoluer le monde du soin ?

Pour le moment, il est en crise majeure, à l’hôpital en tout cas. Pour moi, l’une des raisons réside dans cette compréhension de la santé comme devant être gérée et uniquement gérée, sans considérer que cette gestion ne prend pas en compte toute la complexité de la décision et de la prise en charge en santé. En tant que soignants, nous sommes limités dans une fonction de techniciens qui appliquent des connaissances, et ça épuise. Au contraire, le côté relationnel doit être reconnu, encouragé. Mais pour le moment, je n’ai pas l’impression que cela va dans ce sens-là.

Avez-vous une recommandation à formuler ?

Il faut se méfier de notre tendance à l’anthropomorphisme. Quand on parle de modèles de langage avec ChatGPT, c’est un abus de langage. Il ne s’agit pas de modèles de langage, mais de génération de textes. Les neurones de ces machines, ce sont des suites ordonnées d’instructions, qui n’ont rien à voir avec la complexité des neurones de notre cerveau. Quand la machine fait des erreurs, on parle d’hallucinations… Ce sont des erreurs liées au fonctionnement probabiliste de l’IA. Depuis le début, l’IA imite, mais elle ne peut pas imaginer des comportements humains. L’intelligence artificielle, ce ne sont pas des pensées, c’est du calcul. Nous avons des limitations en matière de calcul, mais nous avons beaucoup d’autres compétences. Et avec 200 calories, vous savez déjà faire beaucoup de calculs, contrairement à la machine qui a besoin de tonnes d’énergie…

Cet article est paru dans la revue:

Santé conjuguée, n°112 - septembre 2025

Introduction n°112

L’intelligence artificielle (IA) n’est plus une promesse lointaine ni une curiosité réservée aux laboratoires de recherche : elle est déjà entrée dans nos pratiques de soins, souvent sans que nous en ayons pleinement conscience. Qu’il s’agisse d’un(…)

- François Roucoux

L’IA médicale, toujours en quête de maturité

À près de soixante-cinq ans, l’IA médicale ne prend pas sa retraite, mais cherche la maturité. Pour comprendre le moment charnière que nous vivons, je vous propose un voyage depuis ses balbutiements dans les années 1960 jusqu’à son essor actuel, en passant par ses succès, ses échecs et les défis éthiques qu’elle soulève.
- François Roucoux

L’IA en maison de repos : entre promesse et prudence

On parle souvent de l’IA comme d’une révolution inévitable, capable de transformer en profondeur nos manières de soigner, de surveiller, d’interagir. Mais si la technologie évolue, c’est aussi à nous, professionnels de terrain, de la mettre à l’épreuve de la réalité des établissements, de nos équipes, de nos résidents.
- Frédéric Huel

IA à l’hôpital : des risques sous-estimés ?

Grâce au soutien financier des autorités publiques régionales et fédérales, les hôpitaux belges intègrent progressivement l’intelligence artificielle en vue d’améliorer la qualité des soins et d’alléger la charge de travail des soignants. Quels défis se cachent derrière ces promesses et quelles réponses y apporter ?
- Pauline Gillard

Quel usage des outils d’IA en maison médicale ?

Un logiciel labellisé belge présente une fonctionnalité de retranscription de la consultation utilisant des outils d’intelligence artificielle. Le microphone de l’ordinateur enregistre la conversation de l’anamnèse, la description de l’examen physique, les prescriptions et conseils donnés au patient. Le tout résumé dans le dossier médical informatisé (DMI). Un gain de temps et une qualité qui semblent au rendez-vous, avec la perspective d’un meilleur contact avec le patient… Appréciable, mais non sans poser de nombreuses questions.
- Dr Benjamin Fauquert

IA et données de santé : quels garde-fous ?

L’intelligence artificielle s’impose aujourd’hui comme un levier de transformation structurant du système de santé. Les cas d’usage se multiplient, nourris par une promesse d’optimisation, de personnalisation et de fluidification de la décision clinique. Cependant, cette évolution des pratiques repose sur un actif désormais stratégique : les données de santé.
- Emeraude Camberlin

Les enjeux éthiques de l’IA dans les soins de santé

Chirurgienne et chercheuse en philosophie au Centre de bioéthique de l’UNamur, Geneviève Guillaume analyse la question de la décision médicale. Elle pointe les risques liés au mésusage des outils d’intelligence artificielle par des soignantes et des soignants.
- Marinette Mormont

Impacts du numérique et de l’intelligence artificielle

Souvent associé à des mots comme « virtuel » ou « immatériel », le numérique repose sur une infrastructure bien physique, non sans conséquences sur l’environnement. L’intelligence artificielle contribue également aux dégâts.
- Jules Delcon

Des principes à la pratique

Au moment où l’IA devient une composante à part entière des soins de santé, les prestataires de soins jouent un rôle central dans l’équilibre entre innovation et responsabilité éthique. Le leadership de l’Organisation mondiale de la santé, soutenu par des institutions telles que le Delft Digital Ethics Centre, offre un cadre solide pour garantir que les technologies d’IA respectent les principes éthiques et améliorent véritablement les soins aux patients.
- Jeroen van den Hoven, Stefan Buijsman

La fin de l’individu

Le philosophe et romancier Gaspard Kœnig s’est posé la question de l’évolution de l’individu et de ses libertés à l’ère de l’intelligence artificielle. Il a mené une enquête de plusieurs mois, interrogé des professeurs, entrepreneurs, intellectuels, politiques, économistes, artistes et même un magicien à travers le monde. Il a rencontré des gens enthousiastes et d’autres inquiets, et présenté la synthèse de ses investigations dans un livre[efn_note]G. Kœnig, La Fin de l’individu. Voyage d’un philosophe au pays de l’intelligence artificielle, Alpha/Humensis, 2019, 2024.[/efn_note].
- Dr André Crismer

IA et neurosciences au service de la santé mentale

L’intelligence artificielle peut sembler éloignée de notre humanité, alimentant l’idée qu’elle serait peu adaptée au bien-être psychologique. Pourtant, ses capacités d’analyse et de modélisation ouvrent aujourd’hui des perspectives concrètes en neurosciences cliniques, et plus particulièrement en neuropsychiatrie.
- Camille Dieu

Vers la démocratie technique en santé

Depuis une trentaine d’années, une nouvelle forme de responsabilité est mise en avant dans le domaine de la santé par de nombreux auteurs et institutions : la responsabilité sociale en santé. Une manière de la définir est de l’entendre comme l’engagement des professionnels dans la « démocratie en santé ». L’un de ses enjeux est de penser l’intelligence artificielle en termes de « milieux ».
- Alain Loute, Louis Van Maele

Actualités 112

Au-delà de la peur

Le soin, acte de résistance et lueur d’espoir de paix sociale. Depuis près de deux ans, dans la bande de Gaza, 62 000 personnes ont été tuées, dont 18 000 enfants ; 155 000 personnes ont été blessées, dont 45 000 enfants. Près de(…)

- Fanny Dubois

FEDERICO DESSI : « nous ne sommes pas là juste pour soigner, nous sommes là aussi pour témoigner et changer les choses »

Médecins du monde est né en France en 1980 et la section belge en 1998. Comme le rappelle son directeur, le cœur du combat de l’ONG est l’accès à la santé, la santé pour tous de manière inconditionnelle. Tant en Belgique qu’à l’étranger.
- Pascale Meunier

Arizona, sécheresse garantie

Une synthèse de différentes analyses produites par des médias, partenaires sociaux, associations ou chercheurs, et construite à partir de la roue des déterminants de la santé, brosse les effets prévisibles de nos nouveaux gouvernements sur la population. Cible majeure : l’emploi.
- Emeline Goris, Marinette Mormont

Jeunes patients et maladies chroniques

Tu es jeune, tu te débrouilleras bien… C’est ce que j’entends souvent, mais ce n’est pas ce que je ressens. » Le récent rapport « Jeune et atteint d’une maladie chronique en Belgique » identifie clairement les obstacles structurels(…)

- Jolien Robijns

La démarche ASCOP

Concept anglo-saxon apparu dans les années 1990, le goal oriented care (GOC) est soutenu par la Fondation roi Baudouin depuis 2019. Traduite en français par « aide et soins centrés sur les objectifs de la personne » (ASCOP), cette approche peut traverser toute la pratique et accompagner, entre autres, certaines situations complexes, de polypathologie, de fragilité ou de perte d’autonomie.
- Pascale Meunier