Aller au contenu

L’IA médicale, toujours en quête de maturité


Santé conjuguée n°112 - septembre 2025

À près de soixante-cinq ans, l’IA médicale ne prend pas sa retraite, mais cherche la maturité. Pour comprendre le moment charnière que nous vivons, je vous propose un voyage depuis ses balbutiements dans les années 1960 jusqu’à son essor actuel, en passant par ses succès, ses échecs et les défis éthiques qu’elle soulève.

Dans le monde des soins, « intelligence artificielle » (IA) est sur toutes les lèvres. Des logiciels d’aide au diagnostic aux chatbots de santé, cette technologie promet de transformer la pratique médicale. Faut-il craindre que la consultation et l’acte intellectuel du diagnostic ou du pronostic soient relégués à des étapes automatisables ?

Une naissance provoquée

Nés dans le contexte de la Seconde Guerre mondiale, les premiers ordinateurs, calculateurs rapides et infatigables, deviennent le substrat idéal pour tenter de mécaniser le raisonnement. En 1950, Alan Turing1, dans un article devenu célèbre, pose la question : « Les machines peuvent-elles penser ? ». Le terme « intelligence artificielle » est forgé en 1956 par John McCarthy2 lors de la conférence de Dartmouth (États-Unis), considérée comme l’acte de naissance de la discipline. Dans la même décennie, Donald Hebb3 et Frank Rosenblatt4 s’inspirent de l’architecture de la rétine et explorent les réseaux de neurones artificiels pour créer des systèmes qui apprennent à partir d’exemples. Mais les machines de l’époque restent trop limitées pour concrétiser ces idées au-delà de simples prototypes. Une application au domaine médical relève alors de la science-fiction.

Des débuts prometteurs : les premiers systèmes experts

L’intérêt médical pour l’IA émerge à la fin des années 1960 avec les systèmes experts, conçus pour imiter le raisonnement clinique. Le système INTERNIST-1, développé en 1971, marque un tournant car il apporte la preuve qu’un ordinateur peut aider les médecins à établir un diagnostic différentiel. Également emblématique, MYCIN, conçu à Stanford en 1972, recommande des antibiotiques adaptés aux infections en fonction de données cliniques. Pour la première fois, un programme peut parfois faire jeu égal avec un expert humain sur une tâche médicale ciblée.
Ces systèmes pionniers, dont certains européens, marquent l’entrée de l’IA en médecine, mais leur rigidité et le coût des ordinateurs freinent leur large adoption. Dans la foulée, des conférences dédiées à l’IA médicale voient le jour. La première a lieu en 1975 à l’Université Rutgers aux États-Unis.

La montée en puissance de l’apprentissage machine

Les décennies 1980 et 1990 oscillent entre périodes d’enthousiasme et « hivers de l’IA ». Les approches symboliques à base de règles propres aux systèmes experts montrent vite leurs limites et l’attention se déplace vers l’apprentissage automatique. Geoffrey Hinton5, Yann LeCun6 et Yoshua Bengio7 relancent le domaine des réseaux neuronaux artificiels entrainés sur des données et démontrent leur efficacité. En 1982, Judea Pearl8 formalise les réseaux bayésiens, essentiels pour le raisonnement probabiliste et l’apprentissage statistique, tous deux indispensables à la déduction médicale.
Dès la fin des années 1980, des réseaux neuronaux sont expérimentés pour analyser des images cellulaires en cancérologie ou des électrocardiogrammes. En 1995, on recense déjà quelques systèmes spécialisés, mais ils restent confinés aux laboratoires et sans véritable impact sur la pratique clinique. Les soignants, dans leur pratique quotidienne, ne voient pas encore d’algorithmes miracles débarquer dans leur cabinet.

L’ère du Big Data et d’IBM Watson

Au tournant des années 2000, la numérisation massive des données de santé (imagerie, génomique, dossiers médicaux…) et la croissance exponentielle de la puissance de calcul ouvrent de nouvelles perspectives. Le fameux « Big Data » fait son entrée dans le milieu médical, offrant à l’IA une mine d’or à exploiter. En 2011, IBM Watson triomphe au jeu télévisé « Jeopardy! ». Watson est un programme de questions-réponses doté d’une compréhension du langage naturel impressionnante. Très vite, IBM oriente Watson vers le domaine de la santé avec l’ambition de révolutionner le diagnostic et la décision thérapeutique. Quatre ans plus tard, Watson for Oncology est proposé à des établissements de santé pour aider à choisir des traitements anticancéreux, tandis que DXplain, héritier d’INTERNIST-1, fournit des diagnostics différentiels en ligne.
L’explosion du deep learning change encore la donne. AlexNet, en 2012, révolutionne la reconnaissance d’images et les mêmes techniques s’appliquent rapidement à la radiologie. En quelques années, des réseaux neuronaux profonds (deep learning) apprennent à détecter sur des radiographies ou des scanners des lésions que l’œil humain pourrait manquer. La presse annonce une « révolution » médicale et la disparition prochaine des radiologues. Des startups affluent et attirent d’importants investissements.

La pandémie de covid-19, accélérateur inattendu

Des systèmes d’IA de surveillance épidémiologique comme le Canadien BlueDot détectent dès décembre 2019 les signaux faibles d’un regroupement de pneumonies inhabituelles à Wuhan. En 2020, la pandémie propulse véritablement l’IA en santé. La télémédecine explose, soutenue par les chatbots et assistants virtuels. Des algorithmes analysent les images pulmonaires, priorisent les patients à risque et assistent la recherche pharmaceutique.
AlphaFold de Google DeepMind permet des avancées majeures en biologie structurale qui vaudront le prix Nobel de chimie 2024 à deux de ses créateurs9, 10. Des gains considérables sont réalisés à la fois en temps (un an contre quatre à six ans pour atteindre une phase I) et en coûts pour le développement de nouveaux médicaments. Des antibiotiques inédits sont découverts avec l’aide de l’IA. Cependant, des défis persistent : les IA « hallucinent », sont sujettes aux biais (voir l’encadré) et à un manque de transparence quant à l’élaboration de leurs réponses. Un cadre réglementaire est nécessaire et les autorités commencent seulement à l’élaborer. La crise du covid oblige les soignants à s’approprier ces outils et change durablement les mentalités à l’égard de l’IA, devenue en peu de temps indispensable pour maintenir la continuité des soins.

2025, au cœur de la pratique médicale

L’intelligence artificielle s’impose progressivement dans de nombreux domaines de la pratique médicale. Son usage le plus avancé reste l’analyse d’images et de signaux physiologiques, où les réseaux neuronaux profonds détectent des anomalies avec une précision égale ou supérieure à celle de spécialistes. Parallèlement, les chatbots et assistants virtuels se multiplient, orientant les patients, répondant à leurs questions et proposant parfois un soutien psychologique de première ligne. La médecine personnalisée bénéficie également de l’IA : l’analyse de données génomiques et protéomiques permet d’identifier des mutations pathogènes, de prédire la réponse aux traitements anticancéreux et de diagnostiquer des maladies rares ou fréquentes avec une sensibilité inédite.
Les grands modèles de langage ouvrent de nouvelles perspectives dans le traitement automatique du langage médical. Ils structurent automatiquement les dossiers, synthétisent des comptes rendus et en extraient les informations pertinentes. Ils allègent la charge administrative des soignants, mais soulèvent des enjeux cruciaux de fiabilité et de confidentialité.
Enfin, des systèmes d’aide à la décision clinique s’intègrent progressivement aux dossiers médicaux électroniques pour alerter sur des diagnostics critiques, calculer des scores de risque ou anticiper une dégradation de l’état d’un patient.

 

Biais invisibles, conséquences bien réelles : l’IA face au défi de l’équité
L’IA suscite de grandes attentes en santé, mais hérite aussi de nos angles morts. Une notion importante à garder à l’esprit est que, basée sur des mécanismes d’apprentissage, une IA n’est jamais neutre. Elle reflète les données et contextes dans lesquels elle a été conçue. Ces biais peuvent sembler subtils, mais leurs conséquences cliniques sont potentiellement majeures : diagnostics moins fiables pour certaines populations, aggravation des inégalités d’accès aux soins, ou encore recommandations thérapeutiques inadaptées.

Quand l’IA reproduit les inégalités humaines
Un exemple marquant, publié en 2019 dans Science11, montre l’ampleur des biais en IA. Un algorithme commercial, appliqué à des millions de patients américains pour identifier ceux nécessitant un suivi intensif, sous-estimait systématiquement la gravité de l’état de santé des patients noirs. Le modèle se fondait sur les dépenses de santé passées comme indicateur du besoin futur, or ces dépenses sont plus faibles chez les patients noirs en raison d’inégalités d’accès aux soins. L’IA en déduisait à tort qu’ils étaient en meilleure santé, entrainant une orientation vers des soins insuffisants malgré une morbidité équivalente. Ce cas illustre comment un biais systémique peut être reproduit et amplifié par l’IA.
Les biais touchent aussi les bases d’images médicales. En dermatologie, plusieurs études montrent que les algorithmes détectent efficacement les cancers cutanés… mais surtout sur peaux claires 12. Les jeux de données contiennent peu d’images de peaux foncées, en partie parce que les phototypes 4 et 5 sont moins concernés par ces cancers et parce que les bases d’images issues de pays du Sud sont plus rares. Cette sous-représentation empêche les modèles de généraliser et risque d’aggraver les retards diagnostiques déjà observés dans certaines populations.
En radiologie, des biais apparaissent aussi lors de l’acquisition des images. Pendant la pandémie de covid-19, plusieurs IA semblaient capables de diagnostiquer l’infection à partir de radiographies pulmonaires. Or, des revues critiques ont montré que beaucoup reconnaissaient surtout des artefacts contextuels13 : les clichés de patients covid provenaient souvent de machines portables en soins intensifs, visuellement différentes des radiographies standards. L’algorithme « apprenait » donc à identifier l’appareil plutôt que la maladie, produisant des performances trompeuses, inapplicables en pratique clinique.
Les maladies cardiovasculaires, première cause de mortalité mondiale, illustrent un biais de genre en IA. Les symptômes féminins, souvent atypiques, sont moins bien reconnus et la recherche clinique a longtemps privilégié des cohortes masculines. Conséquence : plusieurs modèles prédictifs sous-estiment le risque cardiaque chez les femmes et offrent des performances diagnostiques inférieures à celles observées chez les hommes14.

Dé-biaiser l’IA : un impératif éthique et clinique
Plusieurs stratégies permettent de limiter les biais. La première est l’enrichissement des données, en veillant à représenter la diversité des patients (âge, sexe, origine, comorbidités). La seconde est l’audit continu : un modèle performant globalement peut échouer dans certains sous-groupes, d’où la nécessité d’un suivi comparable au calibrage régulier d’un CT-Scanner. Les métiers de techniciens au chevet des IA hospitalières sont encore à développer. Enfin, des approches techniques de « dé-biaisage » émergent, comme le rééquilibrage des données minoritaires ou l’usage de méthodes fédérées qui agrègent les données de plusieurs centres pour améliorer la représentativité.
Les biais en IA ne relèvent pas seulement de la technique, mais posent d’importants enjeux d’éthique, d’équité et de sécurité des soins. Pour devenir un outil fiable, l’IA doit intégrer ces exigences dès sa conception : qui est représenté dans les données, quelles hypothèses guident les modèles, et comment éviter que les recommandations données par l’IA accentuent les inégalités ? Autant de questions auxquelles les soignants doivent rester attentifs pour garantir que l’IA soit réellement au service de tous les patients.

Controverses et défis

Malgré ses promesses, l’IA médicale reste confrontée à des obstacles majeurs. Beaucoup d’algorithmes montrent de bons résultats en recherche, mais échouent à reproduire leurs performances en conditions cliniques réelles. Ce décalage, qualifié de « fossé de l’IA », s’explique par un manque de standardisation des systèmes, leur surajustement aux données d’entrainement et l’absence de comparaisons solides avec la réalité du terrain. Finalement, peu d’IA médicales sont homologuées en routine, sauf en imagerie. S’ajoute le problème des promesses excessives de l’industrie. IBM Watson, présenté comme une révolution en oncologie, n’a jamais prouvé son utilité clinique et a fini par décevoir les hôpitaux qui l’avaient adopté. Plus largement, les annonces affirmant que l’IA surpasserait rapidement les radiologues ou d’autres spécialistes se sont révélées infondées et ont alimenté la défiance des soignants.
La confidentialité des données constitue un au-tre enjeu. En 2015, le National Health Service (NHS) de Londres transmet à Google DeepMind les données de santé de 1,6 million de patients anglais sans consentement explicite, provoquant un scandale. Même anonymisées, les informations de santé restent vulnérables à la réidentification par l’IA. L’hébergement de ces données chez les géants du numérique nourrit par ailleurs la crainte d’usages commerciaux ou dévoyés de celles-ci. Le respect du RGPD, l’obtention d’un consentement éclairé et le recours à des techniques comme l’apprentissage fédéré ou le chiffrement homomorphique sont indispensables, même si leur mise en œuvre reste complexe et minoritaire.
Enfin, la question de la responsabilité médicale demeure. Si une IA commet une erreur, c’est encore au soignant qu’incombe la décision finale. L’IA est considérée comme un outil d’aide, non comme un décideur autonome. Mais cette frontière pourrait s’estomper avec des systèmes toujours plus performants. L’Europe prépare un règlement spécifique pour encadrer les applications à haut risque, tandis que la Food and Drug Administration (FDA) américaine a déjà validé plusieurs logiciels et élabore des lignes directrices pour les algorithmes évolutifs.

Se préparer au futur

Plutôt que de craindre d’être remplacés, les soignants doivent apprendre à collaborer avec ces outils. La formation aux principes, biais et limites de l’IA est essentielle pour leur conserver un regard critique. De plus en plus d’écoles et d’universités intègrent ces notions dans leurs programmes. Des formations continues permettent aux professionnels en activité d’acquérir une culture numérique. Les soignants ont aussi toute légitimité à participer au déploiement des IA dans leurs spécialités. Leur retour d’expérience est précieux pour corriger les erreurs, améliorer l’ergonomie et orienter les projets vers de vrais besoins. En s’impliquant dès la conception, ils deviennent partenaires actifs de l’innovation et garants de sa pertinence clinique.
L’IA peut automatiser les tâches administratives ou répétitives et redonner une place centrale à l’examen clinique, à l’écoute et à la relation humaine. Ainsi, un outil qui préanalyse un dossier ou filtre les examens normaux en radiologie permet au médecin de se concentrer sur les cas complexes. Paradoxalement, bien utilisée, l’IA pourrait réhumaniser la médecine. Mais l’esprit critique, la transparence et l’éthique doivent rester au cœur de la pratique. Le soignant de demain devra superviser les recommandations de l’IA sans déléguer sa responsabilité. Le professionnel de santé devra aussi garantir le respect de la confidentialité, de l’équité et de la transparence vis-à-vis des patients. Expliquer pourquoi une IA propose une option thérapeutique est essentiel pour préserver la confiance.
On peut parier que l’IA ne remplacera pas le médecin ou l’infirmier. Mais ceux qui sauront l’utiliser pourraient dépasser ceux qui l’ignorent et devenir de meilleurs soignants pour leurs patients. Cette évolution ouvre l’ère du « soignant augmenté », conciliant précision technologique et humanité. Toutefois, cette promesse ne se concrétisera qu’en relevant les défis déjà identifiés : corriger les biais, établir une régulation claire et entretenir la confiance. L’histoire de l’IA médicale, des premiers systèmes experts aux assistants virtuels d’aujourd’hui, a connu des excès et de faux départs. En 2025, nous ne faisons probablement qu’entamer cette révolution. La responsabilité des soignants est de l’accompagner avec lucidité, en défendant les valeurs humaines au cœur de leur métier.

 

  1. A. Turing (1912-1954), mathématicien britannique, père de l’informatique théorique, il a posé en 1950 la question fondatrice : Les machines peuvent-elles penser ? Son test est longtemps resté une référence pour évaluer l’intelligence artificielle.
  2. J. McCarthy (1927-2011), informaticien américain, inventeur du terme « intelligence artificielle » en 1956 lors de la conférence de Dartmouth. Créateur du langage LISP, central dans l’IA symbolique et les systèmes experts.
  3. D. Hebb (1904-1985), psychologue canadien connu pour sa théorie de l’apprentissage neuronal formulée en 1949. Il a inspiré les premiers modèles de réseaux de neurones artificiels.
  4. F. Rosenblatt (1928-1971), psychologue américain, inventeur du perceptron en 1957, premier modèle pratique d’un réseau neuronal artificiel. Ses travaux ont ouvert la voie à l’apprentissage machine.
  5. G. Hinton (1947-), informaticien britanno-canadien, pionnier des réseaux neuronaux profonds. Ses recherches ont révolutionné l’apprentissage automatique et la vision par ordinateur. Prix Nobel de physique 2024.
  6. Y. LeCun (1960-), chercheur français, inventeur des réseaux de neurones convolutifs (CNN) largement utilisés pour l’analyse d’images et de signaux. Directeur scientifique chez Meta AI.
  7. Y. Bengio (1964-), informaticien canadien, spécialiste de l’apprentissage profond. Il est connu pour ses contributions aux modèles génératifs et à l’IA éthique.
  8. J. Pearl (1936-), informaticien et philosophe israélo-américain. En 1982, il formalise les réseaux bayésiens et ouvre la voie à l’automatisation du raisonnement probabiliste et causal, indispensables au diagnostic médical.
  9. D. Baker (1962-), biochimiste américain, fondateur de l’Institute for Protein Design. Son équipe a développé avec DeepMind les méthodes de prédiction structurale des protéines récompensées par le prix Nobel de chimie 2024.
  10. D. Hassabis (1976-), neuroscientifique et entrepreneur britannique, cofondateur et PDG de DeepMind. Il est à l’origine d’AlphaFold, percée majeure en biologie structurale, récompensée par le prix Nobel de chimie 2024.
  11. Z. Obermeyer et al., “Dissecting racial bias in an algorithm used to manage the health of populations”, Science, 2019;366(6464).
  12. R. Daneshjou, et al., “Lack of diversity in dermatology AI datasets limits algorithm performance across skin tones”, Lancet Digital Health, 2022;4(6).
  13. M. Roberts et al., “Common pitfalls and recommendations for using machine learning to detect and prognosticate for COVID-19 using chest radiographs and CT scans”, Nature Machine Intelligence, 2021;3(3).
  14. V. Mhasawade et al., “Machine learning and algorithmic fairness in public and population health”, Nature Machine Intelligence, 2021;3.

Cet article est paru dans la revue:

Santé conjuguée, n°112 - septembre 2025

Introduction n°112

L’intelligence artificielle (IA) n’est plus une promesse lointaine ni une curiosité réservée aux laboratoires de recherche : elle est déjà entrée dans nos pratiques de soins, souvent sans que nous en ayons pleinement conscience. Qu’il s’agisse d’un(…)

- François Roucoux

L’IA médicale, toujours en quête de maturité

Dans le monde des soins, « intelligence artificielle » (IA) est sur toutes les lèvres. Des logiciels d’aide au diagnostic aux chatbots de santé, cette technologie promet de transformer la pratique médicale. Faut-il craindre que la consultation et(…)

- François Roucoux

L’IA en maison de repos : entre promesse et prudence

Au sein de nos structures d’accueil et d’hébergement pour ainés d’HUmani à Montigny-le-Tilleul, Courcelles et Châtelet, nous avons mené deux tests de dispositifs de détection des chutes. Ces dispositifs sont au cœur d’une préoccupation majeure en(…)

- Frédéric Huel

IA à l’hôpital : des risques sous-estimés ?

Bien que son déploiement en Europe ne soit pas encore aussi avancé qu’aux États-Unis ou en Chine, l’introduction de l’intelligence artificielle à l’hôpital pourrait avoir de nombreuses retombées dans des domaines aussi divers que la médecine(…)

- Pauline Gillard

Quel usage des outils d’IA en maison médicale ?

L’image est à l’origine des premières applications de l’IA dans le domaine de la santé : analyse de l’ECG six dérivations (Kardia mobile en Belgique), détection des apnées du sommeil et radiologie. La dermatoscopie est en cours(…)

- Dr Benjamin Fauquert

IA et données de santé : quels garde-fous ?

La collecte massive des données de santé, leur traitement algorithmique, leur partage croisé entre acteurs publics et privés, leur transfert au-delà des frontières de l’Union européenne soulèvent des interrogations majeures. À qui appartiennent-elles réellement ? Quelles garanties(…)

- Emeraude Camberlin

Les enjeux éthiques de l’IA dans les soins de santé

Comment présenteriez-vous l’IA ? L’intelligence artificielle porte extrêmement mal son nom ! Elle n’est ni une intelligence ni artificielle. C’est un outil, une machine. Nous avons trois formes d’intelligence : une intelligence analytique (on analyse, on fait des opérations(…)

- Marinette Mormont

Impacts du numérique et de l’intelligence artificielle

Le numérique repose sur trois grandes composantes techniques, interconnectées entre elles, appelées les trois tiers : les terminaux utilisateurs, avec lesquels nous interagissons pour accéder aux services numériques (ordinateurs, smartphones, objets connectés, téléviseurs intelligents, etc.) ; les équipements(…)

- Jules Delcon

Des principes à la pratique

Dans les décennies à venir, le vieillissement de la population mondiale entrainera un accroissement de la demande de soins. Par ailleurs, grâce aux progrès de la médecine, la qualité des soins s’est améliorée. Le taux de(…)

- Jeroen van den Hoven, Stefan Buijsman

La fin de l’individu

Si l’intelligence artificielle ne menace pas directement l’existence d’Homo sapiens, elle risque bien, en déployant des techniques d’optimisation, de prédiction et de manipulation à grande échelle, de remettre en cause le fondement même de nos Lumières :(…)

- Dr André Crismer

IA et neurosciences au service de la santé mentale

La neuropsychiatrie vise à comprendre et à traiter les troubles mentaux en articulant neurosciences et pratique clinique. L’essor des approches computationnelles a introduit des outils capables de traiter des volumes de données d’une ampleur et d’une(…)

- Camille Dieu

Vers la démocratie technique en santé

Interpellant initialement les facultés de médecine, l’Organisation mondiale de la santé a défini en 1995 leur responsabilité sociale comme « l’obligation d’orienter la formation qu’elles donnent, les recherches qu’elles poursuivent et les services qu’elles dispensent, vers les(…)

- Alain Loute, Louis Van Maele

Actualités 112

Au-delà de la peur

Le soin, acte de résistance et lueur d’espoir de paix sociale. Depuis près de deux ans, dans la bande de Gaza, 62 000 personnes ont été tuées, dont 18 000 enfants ; 155 000 personnes ont été blessées, dont 45 000 enfants. Près de(…)

- Fanny Dubois

FEDERICO DESSI : « nous ne sommes pas là juste pour soigner, nous sommes là aussi pour témoigner et changer les choses »

Qu’est-ce qui singularise le travail de Médecins du monde ? Nous allons où les autres ne vont pas. Nous travaillons avec un esprit humanitaire dans des situations de conflits, parfois de catastrophes naturelles, au plus près des(…)

- Pascale Meunier

Arizona, sécheresse garantie

Le néolibéralisme est un courant de pensée qui s’est développé au début des années 1980. Tout comme le libéralisme économique, il souhaite réduire le rôle de l’État. Il critique aussi le modèle de l’État-providence, soutenant que l’État(…)

- Emeline Goris, Marinette Mormont

Jeunes patients et maladies chroniques

Tu es jeune, tu te débrouilleras bien… C’est ce que j’entends souvent, mais ce n’est pas ce que je ressens. » Le récent rapport « Jeune et atteint d’une maladie chronique en Belgique » identifie clairement les obstacles structurels(…)

- Jolien Robijns

La démarche ASCOP

Premier constat : la moitié des personnes âgées de plus de 65 ans cumulent plus de cinq problèmes de santé. « À un moment donné, les soignants peuvent être perdus dans la prise en charge. Ce sont les maladies(…)

- Pascale Meunier