Aller au contenu

Santé conjuguée

Dans le monde des soins, « intelligence artificielle » (IA) est sur toutes les lèvres. Des logiciels d’aide au diagnostic aux chatbots de santé, cette technologie promet de transformer la pratique médicale. Faut-il craindre que la consultation et l’acte intellectuel du diagnostic ou du pronostic soient relégués à des étapes automatisables ?

Une naissance provoquée

Nés dans le contexte de la Seconde Guerre mondiale, les premiers ordinateurs, calculateurs rapides et infatigables, deviennent le substrat idéal pour tenter de mécaniser le raisonnement. En 1950, Alan Turing1, dans un aarticle devenu célèbre, pose la question : « Les machines peuvent-elles penser ? ». Le terme « intelligence artificielle » est forgé en 1956 par John McCarthy2 lors de la conférence de Dartmouth (États-Unis), considérée comme l’acte de naissance de la discipline. Dans la même décennie, Donald Hebb3 et Frank Rosenblatt4 s’inspirent de l’architecture de la rétine et explorent les réseaux de neurones artificiels pour créer des systèmes qui apprennent à partir d’exemples. Mais les machines de l’époque restent trop limitées pour concrétiser ces idées au-delà de simples prototypes. Une application au domaine médical relève alors de la science-fiction.

Des débuts prometteurs : les premiers systèmes experts

L’intérêt médical pour l’IA émerge à la fin des années 1960 avec les systèmes experts, conçus pour imiter le raisonnement clinique. Le système INTERNIST-1, développé en 1971, marque un tournant car il apporte la preuve qu’un ordinateur peut aider les médecins à établir un diagnostic différentiel. Également emblématique, MYCIN, conçu à Stanford en 1972, recommande des antibiotiques adaptés aux infections en fonction de données cliniques. Pour la première fois, un programme peut parfois faire jeu égal avec un expert humain sur une tâche médicale ciblée.
Ces systèmes pionniers, dont certains européens, marquent l’entrée de l’IA en médecine, mais leur rigidité et le coût des ordinateurs freinent leur large adoption. Dans la foulée, des conférences dédiées à l’IA médicale voient le jour. La première a lieu en 1975 à l’Université Rutgers aux États-Unis.

La montée en puissance de l’apprentissage machine

Les décennies 1980 et 1990 oscillent entre périodes d’enthousiasme et « hivers de l’IA ». Les approches symboliques à base de règles propres aux systèmes experts montrent vite leurs limites et l’attention se déplace vers l’apprentissage automatique. Geoffrey Hinton5, Yann LeCun6 et Yoshua Bengio7 relancent le domaine des réseaux neuronaux artificiels entrainés sur des données et démontrent leur efficacité. En 1982, Judea Pearl9 formalise les réseaux bayésiens, essentiels pour le raisonnement probabiliste et l’apprentissage statistique, tous deux indispensables à la déduction médicale.
Dès la fin des années 1980, des réseaux neuronaux sont expérimentés pour analyser des images cellulaires en cancérologie ou des électrocardiogrammes. En 1995, on recense déjà quelques systèmes spécialisés, mais ils restent confinés aux laboratoires et sans véritable impact sur la pratique clinique. Les soignants, dans leur pratique quotidienne, ne voient pas encore d’algorithmes miracles débarquer dans leur cabinet.

L’ère du Big Data et d’IBM Watson

Au tournant des années 2000, la numérisation massive des données de santé (imagerie, génomique, dossiers médicaux…) et la croissance exponentielle de la puissance de calcul ouvrent de nouvelles perspectives. Le fameux « Big Data » fait son entrée dans le milieu médical, offrant à l’IA une mine d’or à exploiter. En 2011, IBM Watson triomphe au jeu télévisé « Jeopardy! ». Watson est un programme de questions-réponses doté d’une compréhension du langage naturel impressionnante. Très vite, IBM oriente Watson vers le domaine de la santé avec l’ambition de révolutionner le diagnostic et la décision thérapeutique. Quatre ans plus tard, Watson for Oncology est proposé à des établissements de santé pour aider à choisir des traitements anticancéreux, tandis que DXplain, héritier d’INTERNIST-1, fournit des diagnostics différentiels en ligne.
L’explosion du deep learning change encore la donne. AlexNet, en 2012, révolutionne la reconnaissance d’images et les mêmes techniques s’appliquent rapidement à la radiologie. En quelques années, des réseaux neuronaux profonds (deep learning) apprennent à détecter sur des radiographies ou des scanners des lésions que l’œil humain pourrait manquer. La presse annonce une « révolution » médicale et la disparition prochaine des radiologues. Des startups affluent et attirent d’importants investissements.

La pandémie de covid-19, accélérateur inattendu

Des systèmes d’IA de surveillance épidémiologique comme le Canadien BlueDot détectent dès décembre 2019 les signaux faibles d’un regroupement de pneumonies inhabituelles à Wuhan. En 2020, la pandémie propulse véritablement l’IA en santé. La télémédecine explose, soutenue par les chatbots et assistants virtuels. Des algorithmes analysent les images pulmonaires, priorisent les patients à risque et assistent la recherche pharmaceutique.
AlphaFold de Google DeepMind permet des avancées majeures en biologie structurale qui vaudront le prix Nobel de chimie 2024 à deux de ses créateurs10,11. Des gains considérables sont réalisés à la fois en temps (un an contre quatre à six ans pour atteindre une phase I) et en coûts pour le développement de nouveaux médicaments. Des antibiotiques inédits sont découverts avec l’aide de l’IA. Cependant, des défis persistent : les IA « hallucinent », sont sujettes aux biais (voir l’encadré à la page suivante) et à un manque de transparence quant à l’élaboration de leurs réponses. Un cadre réglementaire est nécessaire et les autorités commencent seulement à l’élaborer. La crise du covid oblige les soignants à s’approprier ces outils et change durablement les mentalités à l’égard de l’IA, devenue en peu de temps indispensable pour maintenir la continuité des soins.

2025, au cœur de la pratique médicale

L’intelligence artificielle s’impose progressivement dans de nombreux domaines de la pratique médicale. Son usage le plus avancé reste l’analyse d’images et de signaux physiologiques, où les réseaux neuronaux profonds détectent des anomalies avec une précision égale ou supérieure à celle de spécialistes. Parallèlement, les chatbots et assistants virtuels se multiplient, orientant les patients, répondant à leurs questions et proposant parfois un soutien psychologique de première ligne. La médecine personnalisée bénéficie également de l’IA : l’analyse de données génomiques et protéomiques permet d’identifier des mutations pathogènes, de prédire la réponse aux traitements anticancéreux et de diagnostiquer des maladies rares ou fréquentes avec une sensibilité inédite.
Les grands modèles de langage ouvrent de nouvelles perspectives dans le traitement automatique du langage médical. Ils structurent automatiquement les dossiers, synthétisent des comptes rendus et en extraient les informations pertinentes. Ils allègent la charge administrative des soignants, mais soulèvent des enjeux cruciaux de fiabilité et de confidentialité.
Enfin, des systèmes d’aide à la décision clinique s’intègrent progressivement aux dossiers médicaux électroniques pour alerter sur des diagnostics critiques, calculer des scores de risque ou anticiper une dégradation de l’état d’un patient.

Controverses et défis

Malgré ses promesses, l’IA médicale reste confrontée à des obstacles majeurs. Beaucoup d’algorithmes montrent de bons résultats en recherche, mais échouent à reproduire leurs performances en conditions cliniques réelles. Ce décalage, qualifié de « fossé de l’IA », s’explique par un manque de standardisation des systèmes, leur surajustement aux données d’entrainement et l’absence de comparaisons solides avec la réalité du terrain. Finalement, peu d’IA médicales sont homologuées en routine, sauf en imagerie. S’ajoute le problème des promesses excessives de l’industrie. IBM Watson, présenté comme une révolution en oncologie, n’a jamais prouvé son utilité clinique et a fini par décevoir les hôpitaux qui l’avaient adopté. Plus largement, les annonces affirmant que l’IA surpasserait rapidement les radiologues ou d’autres spécialistes se sont révélées infondées et ont alimenté la défiance des soignants.
La confidentialité des données constitue un au-tre enjeu. En 2015, le National Health Service (NHS) de Londres transmet à Google DeepMind les données de santé de 1,6 million de patients anglais sans consentement explicite, provoquant un scandale. Même anonymisées, les informations de santé restent vulnérables à la réidentification par l’IA. L’hébergement de ces données chez les géants du numérique nourrit par ailleurs la crainte d’usages commerciaux ou dévoyés de celles-ci. Le respect du RGPD, l’obtention d’un consentement éclairé et le recours à des techniques comme l’apprentissage fédéré ou le chiffrement homomorphique sont indispensables, même si leur mise en œuvre reste complexe et minoritaire.
Enfin, la question de la responsabilité médicale demeure. Si une IA commet une erreur, c’est encore au soignant qu’incombe la décision finale. L’IA est considérée comme un outil d’aide, non comme un décideur autonome. Mais cette frontière pourrait s’estomper avec des systèmes toujours plus performants. L’Europe prépare un règlement spécifique pour encadrer les applications à haut risque, tandis que la Food and Drug Administration (FDA) américaine a déjà validé plusieurs logiciels et élabore des lignes directrices pour les algorithmes évolutifs.

Se préparer au futur

Plutôt que de craindre d’être remplacés, les soignants doivent apprendre à collaborer avec ces outils. La formation aux principes, biais et limites de l’IA est essentielle pour leur conserver un regard critique. De plus en plus d’écoles et d’universités intègrent ces notions dans leurs programmes. Des formations continues permettent aux professionnels en activité d’acquérir une culture numérique. Les soignants ont aussi toute légitimité à participer au déploiement des IA dans leurs spécialités. Leur retour d’expérience est précieux pour corriger les erreurs, améliorer l’ergonomie et orienter les projets vers de vrais besoins. En s’impliquant dès la conception, ils deviennent partenaires actifs de l’innovation et garants de sa pertinence clinique.
L’IA peut automatiser les tâches administratives ou répétitives et redonner une place centrale à l’examen clinique, à l’écoute et à la relation humaine. Ainsi, un outil qui préanalyse un dossier ou filtre les examens normaux en radiologie permet au médecin de se concentrer sur les cas complexes. Paradoxalement, bien utilisée, l’IA pourrait réhumaniser la médecine. Mais l’esprit critique, la transparence et l’éthique doivent rester au cœur de la pratique. Le soignant de demain devra superviser les recommandations de l’IA sans déléguer sa responsabilité. Le professionnel de santé devra aussi garantir le respect de la confidentialité, de l’équité et de la transparence vis-à-vis des patients. Expliquer pourquoi une IA propose une option thérapeutique est essentiel pour préserver la confiance.
On peut parier que l’IA ne remplacera pas le médecin ou l’infirmier. Mais ceux qui sauront l’utiliser pourraient dépasser ceux qui l’ignorent et devenir de meilleurs soignants pour leurs patients. Cette évolution ouvre l’ère du « soignant augmenté », conciliant précision technologique et humanité. Toutefois, cette promesse ne se concrétisera qu’en relevant les défis déjà identifiés : corriger les biais, établir une régulation claire et entretenir la confiance. L’histoire de l’IA médicale, des premiers systèmes experts aux assistants virtuels d’aujourd’hui, a connu des excès et de faux départs. En 2025, nous ne faisons probablement qu’entamer cette révolution. La responsabilité des soignants est de l’accompagner avec lucidité, en défendant les valeurs humaines au cœur de leur métier.

 

1. A. Turing (1912-1954), mathématicien britannique, père de l’informatique théorique, il a posé en 1950 la question fondatrice : Les machines peuvent-elles penser ? Son test est longtemps resté une référence pour évaluer l’intelligence artificielle.
2. J. McCarthy (1927-2011), informaticien américain, inventeur du terme « intelligence artificielle » en 1956 lors de la conférence de Dartmouth. Créateur du langage LISP, central dans l’IA symbolique et les systèmes experts.
3. D. Hebb (1904-1985), psychologue canadien connu pour sa théorie de l’apprentissage neuronal formulée en 1949. Il a inspiré les premiers modèles de réseaux de neurones artificiels.
4. F. Rosenblatt (1928-1971), psychologue américain, inventeur du perceptron en 1957, premier modèle pratique d’un réseau neuronal artificiel. Ses travaux ont ouvert la voie à l’apprentissage machine.
5. G. Hinton (1947-), informaticien britanno-canadien, pionnier des réseaux neuronaux profonds. Ses recherches ont révolutionné l’apprentissage automatique et la vision par ordinateur. Prix Nobel de
physique 2024.
6. Y. LeCun (1960-), chercheur français, inventeur des réseaux de neurones convolutifs (CNN) largement utilisés pour l’analyse d’images et de signaux. Directeur scientifique chez Meta AI.
7. Y. Bengio (1964-), informaticien canadien, spécialiste de l’apprentissage profond. Il est connu pour ses contributions aux modèles génératifs et à l’IA éthique.
9. J. Pearl (1936-), informaticien et philosophe israélo-américain. En 1982, il formalise les réseaux bayésiens et ouvre la voie à l’automatisation du raisonnement probabiliste et causal, indispensables au diagnostic médical.
10. D. Baker (1962-), biochimiste américain, fondateur de l’Institute for Protein Design. Son équipe a développé avec DeepMind les méthodes de prédiction structurale des protéines récompensées par le prix Nobel de chimie 2024.
11. D. Hassabis (1976-), neuroscientifique et entrepreneur britannique, cofondateur et PDG de DeepMind. Il est à l’origine d’AlphaFold, percée majeure en biologie structurale, récompensée par le prix Nobel de chimie 2024.

Cet article est paru dans la revue:

Santé conjuguée,