Grâce au soutien financier des autorités publiques régionales et fédérales, les hôpitaux belges intègrent progressivement l’intelligence artificielle en vue d’améliorer la qualité des soins et d’alléger la charge de travail des soignants. Quels défis se cachent derrière ces promesses et quelles réponses y apporter ?
Bien que son déploiement en Europe ne soit pas encore aussi avancé qu’aux États-Unis ou en Chine, l’introduction de l’intelligence artificielle à l’hôpital pourrait avoir de nombreuses retombées dans des domaines aussi divers que la médecine préventive, la médecine de précision, l’aide au diagnostic, la gestion du personnel, du flux de patients et du matériel, ou encore les soins de transition de l’hôpital au domicile.
Au Grand Hôpital de Charleroi (GHdC), un laboratoire d’intelligence artificielle (LAB-AI) a vu le jour pour encadrer et superviser les projets d’IA, et pour promouvoir l’innovation. Sa mission ? Développer des normes éthiques, technologiques et légales afin d’assurer la conformité des projets aux réglementations en vigueur telles que l’IA Act (le règlement européen qui vise à encadrer l’usage de l’intelligence artificielle)1 ou le Règlement général sur la protection des données (le RGPD qui protège les données à caractère personnel des citoyens européens) 2.
Catalyser les solutions IA
Riche d’une équipe pluridisciplinaire composée de médecins, d’experts informaticiens en IA au rang desquels figure un patient-partenaire, d’une infirmière, d’un philosophe, de la présidente du comité d’éthique du GHdC, de la déléguée à la protection des données et d’une membre de l’unité de recherche translationnelle chargée de faire le lien entre la recherche appliquée (trouver des solutions à des problèmes pratiques) et la recherche clinique (sur les patients), ce laboratoire constitue aussi un centre de recherche et développement qui explore de nouvelles applications de l’IA.
La multiplicité des points de vue en présence permet de répondre tant aux sollicitations de leurs collègues qu’aux projets émanant d’organisations externes. « Tous les départements – médical, administratif, financier, ressources humaines… – peuvent nous solliciter pour évaluer la possibilité de développer un projet d’IA en interne, explique Marie Detrait, médecin responsable de l’informatique médicale et du LAB-AI. Tout comme une firme privée ou une unité de recherche universitaire peut s’adresser à nous pour déployer des solutions reposant sur ces nouvelles technologies. » Ce laboratoire a rédigé une charte pour les utilisateurs du GHdC afin d’encadrer l’utilisation de l’IA et a élaboré un système informatique pour rapporter les anomalies liées à son usage.
Quelles applications concrètes ?
Parmi les projets les plus aboutis du LAB-AI, Marie Detrait épingle deux exemples d’innovations, l’un en gériatrie et l’autre en hématologie. « Dans le premier cas, nous avons entrainé un réseau de neurones qui est capable de faire des prévisions sur l’état de fragilité gériatrique d’un patient en s’appuyant sur l’ensemble des données disponibles au moment de son admission. Actuellement, ce projet porte sur les cas d’hospitalisation complète, mais nous allons l’étendre dans un second temps à l’hospitalisation de jour et aux consultations. Ces prédictions soutiennent les assistants sociaux dans la mise en place rapide de tout ce qui relève de l’aide à domicile ou du placement éventuel en maison de repos. »
L’autre projet consiste en un outil d’IA capable de prédire le caractère réfractaire d’un lymphome (un cancer agressif qui prend naissance dans les lymphocytes B, un sous-type de globules blancs logés dans les ganglions lymphatiques). « C’est très intéressant pour les hématologues d’avoir une prévision de cet état réfractaire ou de rechute précoce pour orienter rapidement les patients vers une nouvelle thérapie cellulaire quand leur lymphome ne répond pas à la chimiothérapie, indique Marie Detrait. C’est un outil d’aide à la décision qui soutient la réflexion des médecins et vient conforter leur intuition. » Ce modèle prédictif est accompagné d’un outil permettant d’expliquer l’algorithme. « Nous y mentionnons les différents paramètres sur lesquels repose la prévision de l’algorithme. Et ça, ça intéresse grandement les hématologues parce qu’ils vont y trouver plusieurs outils de pronostics validés dans la littérature. Au regard de ce qu’on pourrait appeler l’éthique de la technique, il est impératif d’implémenter ces algorithmes d’explicabilité. Nous ne pouvons pas laisser les utilisateurs face à une boite noire. »
Des défis de taille
L’intégration de l’IA dans les pratiques de soins confronte le monde hospitalier à de nombreux enjeux, à commencer par la qualité des données. « L’intelligence artificielle fonctionne bien si elle est alimentée avec des données de qualité, souligne Marie Detrait. Le cadre de développement informatique doit donc être réalisé de façon très rigoureuse et la qualité des données doit être parfaite pour la question qu’on se pose sans quoi nous risquons de recevoir de mauvaises réponses. » Il importe aussi de veiller à la représentativité des données. « Nous devons par exemple bannir la sous-représentation d’un groupe ethnique dans les données d’entrainement, quand nous savons qu’une maladie hématologique telle que le myélome multiple (cancer de la moelle osseuse) est beaucoup plus agressive chez les afrodescendants. Si vous n’entrainez votre modèle qu’avec des données issues de patients blancs, il ne va pas bien déceler le niveau de gravité pour un sujet d’origine africaine. »
Un autre défi a trait à l’obtention de données structurées, organisées selon un format standardisé (par exemple sous la forme d’un tableur ou d’une base de données relationnelle, par opposition à un texte libre ou une image). « C’est un aspect fondamental, selon Marie Detrait. Au sein de notre laboratoire, nous avons opté pour une approche mixte. Nous gardons une partie des données sous forme textuelle et nous structurerons l’autre partie dans une terminologie qui est reliée à des codifications que les machines peuvent s’échanger et comprendre. Pour la partie qui est restée textuelle, nous travaillons avec le large modèle de langage Mistral AI pour qu’il puisse venir chercher dans le texte des concepts médicaux et les transformer correctement en concepts avec un code compréhensible par les machines. C’est vraiment loin d’être négligeable parce que si nous sautons cette étape nous empêchons les algorithmes de travailler correctement. »
Outre la nécessité de protéger les données des patients (en hébergeant les infrastructures informatiques et logicielles dans des serveurs propres à l’hôpital par exemple), Marie Detrait pointe encore le risque d’alimenter des modèles de langage en dehors de l’Europe où les règles de bonnes pratiques (reprises dans l’IA Act et le RGPD) ne s’appliquent pas. « Nous avons formulé d’importantes recommandations à nos utilisateurs dans notre charte et nous avons choisi de recourir à la plateforme Mistral AI parce qu’elle a été développée en France avec des serveurs localisés en Europe et qu’elle est soumise à la réglementation européenne sur l’IA. »
Un premier bilan contrasté
Dans un baromètre sur l’adoption de l’IA dans les hôpitaux belges publié en 2022 et fondé sur une enquête réalisée auprès d’un panel de personnes représentatives de toutes les fonctions et de tous les types de structures hospitalières, la majorité des répondants estime que l’IA aura des effets positifs sur les conditions de travail du personnel hospitalier3. Les quatre principaux bénéfices attendus sont l’augmentation de la rapidité et de la fiabilité de la prise de décision, le gain de temps pour des tâches à valeur ajoutée, le suivi plus personnalisé des patients et la réduction des risques d’erreur.
En revanche, parmi les principaux risques du recours à l’IA, près de 60 % des personnes interrogées identifient la déshumanisation du travail et la perte de liens sociaux. Dans de moindres proportions, ils mentionnent aussi l’apparition de nouveaux risques psychosociaux (26 %), la dégradation du niveau de l’emploi (25 %), l’altération de la fiabilité des résultats et les risques d’erreurs (22 %) ainsi que la diminution ou la perte d’intérêt pour les travaux menés (22 %).
Effets différenciés sur les travailleurs
Aude Cefaliello, chercheuse à l’Institut syndical européen (ETUI), porte un regard critique sur l’impact des nouvelles technologies sur la santé et la sécurité des travailleurs. D’après elle, il faut tenir compte des différents types d’IA et des rapports de force propres au monde du travail pour en évaluer les effets. « L’IA est une forme d’automatisation plus ou moins complète de tâches physiques (soulever des patients, les déplacer en tenant compte des notifications d’une IA…) ou cognitives (aide au diagnostic, télémédecine…) qui sont normalement accomplies par les travailleurs et les travailleuses, décrit-elle. On observe aussi une automatisation de la relation de travail qui repose sur le management algorithmique qui recourt à des procédures informatisées conçues pour optimiser la main-d’œuvre dans une organisation. Par conséquent, en fonction des types d’IA implantés, du statut des travailleurs concernés et des rapports de force individuels ou collectifs existants, les avantages et les risques seront différents. » La chercheuse souligne aussi l’impact des disparités économiques entre institutions hospitalières. « Tandis qu’une clinique privée pourra se permettre le recours à des robots dernier cri pour assister son personnel soignant, un hôpital public définancé recourra plutôt au management algorithmique pour réduire ses coûts, risquant d’aggraver la souffrance au travail. »
Bien qu’elle reconnaisse l’intérêt de recourir aux IA pour automatiser les tâches routinières et répétitives et pour alléger la charge physique, mentale et administrative du personnel hospitalier, Aude Cefaliello entrevoit plusieurs risques professionnels liés à l’usage de ces nouvelles technologies :
- La réduction du nombre de travailleurs et l’intensification de leurs tâches, en « optimisant » l’affectation du personnel et en ajustant les besoins en temps réel ;
- L’exacerbation des risques psychosociaux en raison de la mise en place de systèmes de surveillance et d’évaluation de la productivité des travailleurs ;
- La perte d’autonomie des travailleurs et leur subordination à des systèmes d’IA dont les algorithmes leur dicteraient ce qu’ils doivent faire, comment et à quelle vitesse, entrainant un risque de responsabilisation accrue des travailleurs en cas d’erreur médicale commise par une IA.
La législation, un levier à la portée des syndicats
Actuellement, il n’existe pas de réglementation spécifique pour protéger les travailleurs face aux nouvelles technologies. Cependant, dès qu’un employeur annonce son intention de recourir à une IA, les travailleurs et leurs représentants peuvent se saisir des outils juridiques existants pour s’assurer que cette technologie ne comporte pas de risques pour leur santé et leur sécurité. « En tant que “déployeur”, autrement dit toute personne physique ou morale, autorité publique, agence ou autre organisme qui utilise un système d’IA dans le cadre de ses activités professionnelles, un employeur doit pouvoir répondre aux questions suivantes : quelles données seront collectées ? Dans quelle mesure et avec quelle intention ? Comment seront-elles stockées ? Quels sont les risques pour les travailleurs ? », explique Aude Cefaliello. Cette disposition préventive figure dans la directive-cadre 89/391/CEE qui réglemente la sécurité et la santé au travail et impose aux employeurs d’évaluer tous les risques liés au travail, ainsi que dans l’article 26(7) de l’IA Act qui encadre l’utilisation d’un système d’IA à haut risque sur le lieu de travail. « Cet article vise à responsabiliser spécifiquement les employeurs qui programment et intègrent le management algorithmique », précise la chercheuse.
Compte tenu du flou juridique actuel et du « risque de déshumanisation des processus de prise de décision », la Confédération européenne des syndicats (CES) plaide pour l’édiction d’une directive européenne qui réglementerait l’utilisation des systèmes algorithmiques au travail4. Ceux-ci doivent être « transparents et explicables » aux travailleurs « dans un langage clair et compréhensible », estime la CES qui appelle aussi à « renforcer la négociation collective des syndicats ainsi que les droits à l’information, la consultation et la participation des représentants des travailleurs ». Une revendication vigoureusement soutenue par Aude Cefaliello qui craint que les IA « n’exacerbent les inégalités et les dynamiques d’exclusion déjà présentes ».
- Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle, https://eur-lex.europa.eu.
- Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, https://eur-lex.europa.eu.
- N. Filali et al., L’adoption de l’intelligence artificielle dans les hôpitaux en Belgique. Baromètre, mars 2022, www.msdconnect.be.
- CES, « Résolution de la CES pour une directive européenne sur les systèmes algorithmiques au travail », www.etuc.org, 6 décembre 2022.
Cet article est paru dans la revue:
Santé conjuguée, n°112 - septembre 2025
Introduction n°112
L’intelligence artificielle (IA) n’est plus une promesse lointaine ni une curiosité réservée aux laboratoires de recherche : elle est déjà entrée dans nos pratiques de soins, souvent sans que nous en ayons pleinement conscience. Qu’il s’agisse d’un(…)
L’IA médicale, toujours en quête de maturité
Dans le monde des soins, « intelligence artificielle » (IA) est sur toutes les lèvres. Des logiciels d’aide au diagnostic aux chatbots de santé, cette technologie promet de transformer la pratique médicale. Faut-il craindre que la consultation et(…)
L’IA en maison de repos : entre promesse et prudence
Au sein de nos structures d’accueil et d’hébergement pour ainés d’HUmani à Montigny-le-Tilleul, Courcelles et Châtelet, nous avons mené deux tests de dispositifs de détection des chutes. Ces dispositifs sont au cœur d’une préoccupation majeure en(…)
IA à l’hôpital : des risques sous-estimés ?
Bien que son déploiement en Europe ne soit pas encore aussi avancé qu’aux États-Unis ou en Chine, l’introduction de l’intelligence artificielle à l’hôpital pourrait avoir de nombreuses retombées dans des domaines aussi divers que la médecine(…)
Quel usage des outils d’IA en maison médicale ?
L’image est à l’origine des premières applications de l’IA dans le domaine de la santé : analyse de l’ECG six dérivations (Kardia mobile en Belgique), détection des apnées du sommeil et radiologie. La dermatoscopie est en cours(…)
IA et données de santé : quels garde-fous ?
La collecte massive des données de santé, leur traitement algorithmique, leur partage croisé entre acteurs publics et privés, leur transfert au-delà des frontières de l’Union européenne soulèvent des interrogations majeures. À qui appartiennent-elles réellement ? Quelles garanties(…)
Les enjeux éthiques de l’IA dans les soins de santé
Comment présenteriez-vous l’IA ? L’intelligence artificielle porte extrêmement mal son nom ! Elle n’est ni une intelligence ni artificielle. C’est un outil, une machine. Nous avons trois formes d’intelligence : une intelligence analytique (on analyse, on fait des opérations(…)
Impacts du numérique et de l’intelligence artificielle
Le numérique repose sur trois grandes composantes techniques, interconnectées entre elles, appelées les trois tiers : les terminaux utilisateurs, avec lesquels nous interagissons pour accéder aux services numériques (ordinateurs, smartphones, objets connectés, téléviseurs intelligents, etc.) ; les équipements(…)
Des principes à la pratique
Dans les décennies à venir, le vieillissement de la population mondiale entrainera un accroissement de la demande de soins. Par ailleurs, grâce aux progrès de la médecine, la qualité des soins s’est améliorée. Le taux de(…)
La fin de l’individu
Si l’intelligence artificielle ne menace pas directement l’existence d’Homo sapiens, elle risque bien, en déployant des techniques d’optimisation, de prédiction et de manipulation à grande échelle, de remettre en cause le fondement même de nos Lumières :(…)
IA et neurosciences au service de la santé mentale
La neuropsychiatrie vise à comprendre et à traiter les troubles mentaux en articulant neurosciences et pratique clinique. L’essor des approches computationnelles a introduit des outils capables de traiter des volumes de données d’une ampleur et d’une(…)
Vers la démocratie technique en santé
Interpellant initialement les facultés de médecine, l’Organisation mondiale de la santé a défini en 1995 leur responsabilité sociale comme « l’obligation d’orienter la formation qu’elles donnent, les recherches qu’elles poursuivent et les services qu’elles dispensent, vers les(…)
Actualités 112
Au-delà de la peur
Le soin, acte de résistance et lueur d’espoir de paix sociale. Depuis près de deux ans, dans la bande de Gaza, 62 000 personnes ont été tuées, dont 18 000 enfants ; 155 000 personnes ont été blessées, dont 45 000 enfants. Près de(…)
FEDERICO DESSI : « nous ne sommes pas là juste pour soigner, nous sommes là aussi pour témoigner et changer les choses »
Qu’est-ce qui singularise le travail de Médecins du monde ? Nous allons où les autres ne vont pas. Nous travaillons avec un esprit humanitaire dans des situations de conflits, parfois de catastrophes naturelles, au plus près des(…)
Arizona, sécheresse garantie
Le néolibéralisme est un courant de pensée qui s’est développé au début des années 1980. Tout comme le libéralisme économique, il souhaite réduire le rôle de l’État. Il critique aussi le modèle de l’État-providence, soutenant que l’État(…)