Les enjeux éthiques de l’IA dans les soins de santé
Marinette Mormont
Santé conjuguée n°112 - septembre 2025
Chirurgienne et chercheuse en philosophie au Centre de bioéthique de l’UNamur, Geneviève Guillaume analyse la question de la décision médicale. Elle pointe les risques liés au mésusage des outils d’intelligence artificielle par des soignantes et des soignants.
Comment présenteriez-vous l’IA ?
L’intelligence artificielle porte extrêmement mal son nom ! Elle n’est ni une intelligence ni artificielle. C’est un outil, une machine. Nous avons trois formes d’intelligence : une intelligence analytique (on analyse, on fait des opérations de déduction, d’induction, des opérations logiques ou de raisonnement analytique), une intelligence émotionnelle et créative (notre intelligence est incarnée dans des relations et, en médecine, c’est très important), et une intelligence pratique (c’est ce qu’on appelle le bon sens, la clairvoyance, mais aussi tous les savoir-faire et savoir-être). L’IA ne possède qu’une petite partie de ces compétences. Elle n’est pas non plus artificielle. C’est quelque chose de complètement matériel, elle a besoin d’une industrie extractive, d’énormément d’énergie et d’eau. La question écologique constitue d’ailleurs un des gros problèmes éthiques de l’IA. Elle a aussi largement besoin des humains, d’abord pour créer les modèles et méthodes qui lui permettent de fonctionner, ensuite pour être alimentée en data.
Quelles sont les principales questions éthiques qui se posent avec l’IA ?
Avant tout, il faut reconnaitre que l’IA a des points positifs, notamment en ce qui concerne le partage et la décentralisation du savoir, comme cela a été le cas à l’arrivée d’internet. En médecine, les apports de l’IA sont nombreux et prometteurs : soutien administratif, aide technique par exemple dans l’imagerie ou la robotisation des interventions, facilitation de la recherche, construction de guidelines ou de recommandations, etc. Mais il faut apprendre à utiliser ces outils correctement et faire attention au pouvoir qu’on leur donne. L’IA, c’est une machine de calcul, certes extrêmement puissante, mais qui doit rester à notre service. Parmi les questions éthiques posées sur l’utilisation de l’IA, on retrouve entre autres la toxicité mentale que cela peut générer, la marchandisation des données, le travail gratuit des utilisateurs qui fournissent ces données, la confidentialité et le secret médical, le désastre écologique, l’esclavage du clic : derrière l’IA qui « lit » des radiographies, certains radiologues du tiers monde sont sous-payés et utilisés pour marquer des images. Pour moi, c’est un problème dont on ne parle pas beaucoup. Est-ce qu’on va réussir à mettre en place des règles démocratiques efficaces et réguler tout cela ?
L’IA produit des connaissances. Quelles sont leurs limites ?
Il y a les problèmes de biais [le biais de sélection altère la capacité d’un modèle à généraliser, car les données d’entrainement ne reflètent pas fidèlement la diversité des cas réels ; le biais de classement favorise les catégories dominantes, NDLR] ou le fait d’être enfermé dans sa bulle d’informations et d’opinion. En médecine, on est fort influencé par le marketing, les firmes. Celles-ci nous influencent déjà avec la présentation de leurs études pour essayer de vendre leurs médicaments. Je crois qu’avec le développement de l’intelligence artificielle, il faudra vraiment qu’on devienne très vigilants. Aujourd’hui, les réseaux sociaux et l’IA sont capables d’influencer nos choix voire de nous suggérer des états : certaines personnes qui possèdent des montres connectées regardent chaque matin sur cette machine si elles ont bien dormi. En médecine, on peut se trouver face à un patient et lui dire « mon échographie, mon doppler me dit que vous allez bien », et ne pas chercher la raison pour laquelle ce patient se sent mal. Ce sont des choses qui se produisent déjà. Une question qui me semble très importante pour la médecine et dont on parle peu, c’est le fait que toutes ces données, pour être utilisées, sont nettoyées, triées. Certains philosophes parlent même de « purification » des données. Elles sont expurgées de leur contexte, de tout ce qui est en lien avec la singularité d’un patient, sa sensibilité, sa vie, etc. Les patients sont donc réduits à une glycémie, une tension, un poids, etc., qui les définissent. L’utilisation généralisée de ces critères objectifs risque de réduire la façon dont on considère les patients et je crois qu’il faut y être très attentif. Si nous limitons notre pensée à la manière dont l’IA nous pousse à penser, serons-nous encore capables de penser certaines choses, aurons-nous encore les mots pour en parler ? Nous n’en sommes pas là, mais nous pourrions en arriver à ne plus envisager qu’une réalité objective, calculée, mesurable.
Ces données objectives, factuelles, sont-elles fiables ?
La plupart des gens sont bluffés par l’IA, qui a une grande puissance de calcul, une qualité d’argumentation et de syntaxe. Mais il y a un taux d’erreurs énorme et en tout cas souvent inacceptable en médecine. Quand on utilise ChatGPT dans son domaine de connaissance, on se rend compte qu’il se trompe beaucoup. Comme son fonctionnement repose sur des probabilités, il lie des choses entre elles sans recherche de sens. En outre, certaines études font l’hypothèse que si l’on cesse d’alimenter l’IA avec de nouvelles données, elle va continuer à se nourrir de ce qu’elle a elle-même produit, en ce compris de ses propres erreurs. Tout cela se discute en tout cas. Mais ChatGPT n’a que deux ou trois ans, cela évolue très vite, et le temps de la science est plus lent…
Quelles sont les implications, en médecine, de cette accélération dans le développement de l’IA ?
Différentes méthodes d’apprentissage permet-ent aux machines d’effectuer des tâches : l’apprentissage supervisé (on donne des instructions à la machine pour réaliser une tâche), l’apprentissage non supervisé (petit à petit, on a mis tous les algorithmes dans le désordre en disant à la machine « débrouille-toi, trouve ton chemin toute seule ») et l’apprentissage par renforcement (par essai-erreur). Aujourd’hui, avec le deep learning, on associe ces trois méthodes d’apprentissage.
Le problème, pour la médecine en tout cas, c’est que l’on en vient à créer des boîtes noires. On ne comprend plus le chemin qu’emprunte la machine. Ce qui pose des difficultés en termes de transparence (le médecin ne comprend pas comment la machine calcule), d’acceptabilité (comment, en tant que médecin ou comme patient, accepter ce que la machine nous dit puisqu’on ne sait pas sur quelle base elle propose un résultat) et de responsabilité (en cas d’erreur, qui du concepteur de la machine ou du médecin porte la responsabilité ?).
L’IA pourrait-elle être amenée à décider à la place de l’humain ?
La réponse dépend de la manière dont on envisage la décision. Si la décision est le résultat d’un calcul formel, l’IA comme outil de production de connaissances peut être un bon outil pour décider. En revanche, si on comprend la décision comme l’aboutissement d’une délibération, l’IA ne pourra pas suffire. En médecine, plusieurs questions peuvent être posées par le patient à son médecin : « Qu’est-ce que j’ai ? » (question de connaissance), « Pourquoi suis-je malade ? » (question de la cause) ou « Pourquoi dois-je me soigner ? » (question de l’intention). Ces deux dernières questions sont des questions qui dépassent les limites des connaissances et sont liées au sens. Pour ce qui est de la causalité : l’IA raisonne de façon probabiliste. Elle peut réaliser des corrélations (premier niveau de causalité), donc faire des liens entre les phénomènes sans direction, pas des liens de cause à effet (deuxième niveau). Ce deuxième niveau de la causalité est lié au langage, qui nous permet de parler entre nous et de nous comprendre. Il existe un troisième niveau de causalité, qui est tout à fait inaccessible à l’IA, c’est de dire « Et si… ? » Ce niveau suppose des possibilités de réponses infinies et donc de l’imagination, de la création. Or l’IA ne sait pas produire de connaissances en dehors des données qu’elle possède. L’imagination, la communication, la mise en relation, c’est ce qui va nous permettre, en tant que médecin, de trouver du sens, de comprendre un patient dont on ne connait pas la vie. On a besoin de ce type de raisonnement contrefactuel pour prendre une décision.
La deuxième chose, c’est la question de l’intention…
Là aussi, il y a deux manières de prendre la question. La première, on peut définir un objectif à l’avance : sur base de certaines données, on décide qu’un patient va devoir prendre tel médicament pour faire descendre son taux de cholestérol. Ce sont des choses qui font l’objet de protocoles, de guidelines. L’IA est tout à fait capable de les prendre en compte dans sa manière de travailler. Mais ce type d’objectif mesurable et prédéterminé n’est pas toujours possible à mettre en place, et cela pour toute une série de raisons (effets secondaires, éléments liés au contexte de vie du patient, etc.). Dans certains cas, on va devoir changer l’objectif, négocier, rediscuter, interpréter. Il s’agit de mettre en balance les connaissances factuelles avec les circonstances, les possibilités, les besoins, les désirs du patient, les nôtres, ceux de la société, etc. C’est ce qu’on appelle l’interprétation ou la délibération. Cette façon de travailler ne rentre pas du tout dans les protocoles. Selon moi, en médecine, il est absolument indispensable d’avoir à la fois des protocoles, des connaissances et raisonnements exacts, et à la fois de pouvoir interpréter et de tenir compte du patient qui est en face de nous, et pas uniquement de son taux de cholestérol. Or l’IA va tout à fait dans le sens d’une médecine protocolisée, d’une médecine où on applique sans nécessairement réfléchir. La pensée est ce qui nous permet d’interpréter, d’interroger le sens de ce qu’on fait ; elle nécessite de l’imagination, de l’intuition, et elle est tout à fait inaccessible à l’IA. Comme médecin, nous avons vraiment intérêt à nous battre pour que ces formes d’intelligence soient reconnues et défendues. On a intérêt, aussi, à accepter de prendre en compte l’incertitude, qui ne se mesure pas, contrairement au risque, et qui échappe à nos tentatives de gestion et de prévision.
Comment voyez-vous évoluer le monde du soin ?
Pour le moment, il est en crise majeure, à l’hôpital en tout cas. Pour moi, l’une des raisons réside dans cette compréhension de la santé comme devant être gérée et uniquement gérée, sans considérer que cette gestion ne prend pas en compte toute la complexité de la décision et de la prise en charge en santé. En tant que soignants, nous sommes limités dans une fonction de techniciens qui appliquent des connaissances, et ça épuise. Au contraire, le côté relationnel doit être reconnu, encouragé. Mais pour le moment, je n’ai pas l’impression que cela va dans ce sens-là.
Avez-vous une recommandation à formuler ?
Il faut se méfier de notre tendance à l’anthropomorphisme. Quand on parle de modèles de langage avec ChatGPT, c’est un abus de langage. Il ne s’agit pas de modèles de langage, mais de génération de textes. Les neurones de ces machines, ce sont des suites ordonnées d’instructions, qui n’ont rien à voir avec la complexité des neurones de notre cerveau. Quand la machine fait des erreurs, on parle d’hallucinations… Ce sont des erreurs liées au fonctionnement probabiliste de l’IA. Depuis le début, l’IA imite, mais elle ne peut pas imaginer des comportements humains. L’intelligence artificielle, ce ne sont pas des pensées, c’est du calcul. Nous avons des limitations en matière de calcul, mais nous avons beaucoup d’autres compétences. Et avec 200 calories, vous savez déjà faire beaucoup de calculs, contrairement à la machine qui a besoin de tonnes d’énergie…
Cet article est paru dans la revue:
Santé conjuguée, n°112 - septembre 2025
Introduction n°112
L’intelligence artificielle (IA) n’est plus une promesse lointaine ni une curiosité réservée aux laboratoires de recherche : elle est déjà entrée dans nos pratiques de soins, souvent sans que nous en ayons pleinement conscience. Qu’il s’agisse d’un(…)
L’IA médicale, toujours en quête de maturité
Dans le monde des soins, « intelligence artificielle » (IA) est sur toutes les lèvres. Des logiciels d’aide au diagnostic aux chatbots de santé, cette technologie promet de transformer la pratique médicale. Faut-il craindre que la consultation et(…)
L’IA en maison de repos : entre promesse et prudence
Au sein de nos structures d’accueil et d’hébergement pour ainés d’HUmani à Montigny-le-Tilleul, Courcelles et Châtelet, nous avons mené deux tests de dispositifs de détection des chutes. Ces dispositifs sont au cœur d’une préoccupation majeure en(…)
IA à l’hôpital : des risques sous-estimés ?
Bien que son déploiement en Europe ne soit pas encore aussi avancé qu’aux États-Unis ou en Chine, l’introduction de l’intelligence artificielle à l’hôpital pourrait avoir de nombreuses retombées dans des domaines aussi divers que la médecine(…)
Quel usage des outils d’IA en maison médicale ?
L’image est à l’origine des premières applications de l’IA dans le domaine de la santé : analyse de l’ECG six dérivations (Kardia mobile en Belgique), détection des apnées du sommeil et radiologie. La dermatoscopie est en cours(…)
IA et données de santé : quels garde-fous ?
La collecte massive des données de santé, leur traitement algorithmique, leur partage croisé entre acteurs publics et privés, leur transfert au-delà des frontières de l’Union européenne soulèvent des interrogations majeures. À qui appartiennent-elles réellement ? Quelles garanties(…)
Les enjeux éthiques de l’IA dans les soins de santé
Comment présenteriez-vous l’IA ? L’intelligence artificielle porte extrêmement mal son nom ! Elle n’est ni une intelligence ni artificielle. C’est un outil, une machine. Nous avons trois formes d’intelligence : une intelligence analytique (on analyse, on fait des opérations(…)
Impacts du numérique et de l’intelligence artificielle
Le numérique repose sur trois grandes composantes techniques, interconnectées entre elles, appelées les trois tiers : les terminaux utilisateurs, avec lesquels nous interagissons pour accéder aux services numériques (ordinateurs, smartphones, objets connectés, téléviseurs intelligents, etc.) ; les équipements(…)
Des principes à la pratique
Dans les décennies à venir, le vieillissement de la population mondiale entrainera un accroissement de la demande de soins. Par ailleurs, grâce aux progrès de la médecine, la qualité des soins s’est améliorée. Le taux de(…)
La fin de l’individu
Si l’intelligence artificielle ne menace pas directement l’existence d’Homo sapiens, elle risque bien, en déployant des techniques d’optimisation, de prédiction et de manipulation à grande échelle, de remettre en cause le fondement même de nos Lumières :(…)
IA et neurosciences au service de la santé mentale
La neuropsychiatrie vise à comprendre et à traiter les troubles mentaux en articulant neurosciences et pratique clinique. L’essor des approches computationnelles a introduit des outils capables de traiter des volumes de données d’une ampleur et d’une(…)
Vers la démocratie technique en santé
Interpellant initialement les facultés de médecine, l’Organisation mondiale de la santé a défini en 1995 leur responsabilité sociale comme « l’obligation d’orienter la formation qu’elles donnent, les recherches qu’elles poursuivent et les services qu’elles dispensent, vers les(…)
Actualités 112
Au-delà de la peur
Le soin, acte de résistance et lueur d’espoir de paix sociale. Depuis près de deux ans, dans la bande de Gaza, 62 000 personnes ont été tuées, dont 18 000 enfants ; 155 000 personnes ont été blessées, dont 45 000 enfants. Près de(…)
FEDERICO DESSI : « nous ne sommes pas là juste pour soigner, nous sommes là aussi pour témoigner et changer les choses »
Qu’est-ce qui singularise le travail de Médecins du monde ? Nous allons où les autres ne vont pas. Nous travaillons avec un esprit humanitaire dans des situations de conflits, parfois de catastrophes naturelles, au plus près des(…)
Arizona, sécheresse garantie
Le néolibéralisme est un courant de pensée qui s’est développé au début des années 1980. Tout comme le libéralisme économique, il souhaite réduire le rôle de l’État. Il critique aussi le modèle de l’État-providence, soutenant que l’État(…)