Vers la démocratie technique en santé
Santé conjuguée
Depuis une trentaine d’années, une nouvelle forme de responsabilité est mise en avant dans le domaine de la santé par de nombreux auteurs et institutions : la responsabilité sociale en santé. Une manière de la définir est de l’entendre comme l’engagement des professionnels dans la « démocratie en santé ». L’un de ses enjeux est de penser l’intelligence artificielle en termes de « milieux ».
Interpellant initialement les facultés de médecine, l’Organisation mondiale de la santé a défini en 1995 leur responsabilité sociale comme « l’obligation d’orienter la formation qu’elles donnent, les recherches qu’elles poursuivent et les services qu’elles dispensent, vers les principaux problèmes de santé de la communauté, région ou nation qu’elles ont comme mandat de servir ». Cette définition s’est élargie jusqu’à concerner tout acteur en santé, individuel ou institutionnel. Plus récemment, à lire les premières pages du Dictionnaire francophone de la responsabilité sociale en santé, le comportement éthique auquel chaque acteur de santé, individu comme institution, « devrait tendre serait de devenir socialement responsable, c’est-à-dire d’être averti de la complexité des interactions conduisant à la santé des citoyens et des populations, d’en tenir compte dans les nouvelles fonctions qu’il aurait à assurer dans ce contexte et de vérifier l’impact de sa propre contribution pour un service de santé aussi juste, efficient et durable que possible »1.
En plus d’une responsabilité déontologique et morale, une responsabilité proprement sociale serait attendue des professionnels. Mais attention à ne pas la comprendre comme un nouveau devoir qui s’imposerait à eux en tant qu’individus. Il faut résister aux approches qui individualisent la question sociale et les problèmes collectifs. Dans notre société, la responsabilité des acteurs est malheureusement souvent appréhendée de la sorte. Alors que nous vivons dans des sociétés de plus en plus interdépendantes, on surresponsabilise individuellement les allocataires sociaux, les travailleurs, les malades, etc. Le concept de responsabilité sociale en santé traduirait-il une forme de responsabilisation excessive des professionnels ? Le concept de responsabilité sociale en santé nous prémunit d’une telle dérive. Il invite à penser la responsabilité en termes d’action collective. Il implique donc un agir collectif, interdisciplinaire et incluant toutes les parties prenantes, ainsi qu’une démarche évaluative pour vérifier l’impact de ses contributions. Nous défendons la vision de la responsabilité sociale des professionnels en santé comme la responsabilité de contribuer à ce que certains ont nommé la « démocratie en santé »2, « une démarche associant l’ensemble des acteurs du système de santé dans l’élaboration et la mise en œuvre de la politique de santé, dans un esprit de dialogue et de concertation »3.
En quoi ce concept de responsabilité sociale éclaire-t-il notre manière à nous, soignants, de contribuer à un développement responsable et à une intégration pertinente de l’IA dans nos pratiques ? Quels constats peuvent constituer le point de départ à notre implication dans ce champ ?
Au-delà de la « discrétion »
de l’intelligence artificielle
Prendre conscience des interdépendances qui entourent un objet, un sujet, ou la société dans son ensemble est au cœur de la responsabilité sociale. C’est ce qui permet de considérer que le bien-être collectif contribue également au bien-être individuel, de relier la santé à ses déterminants, de considérer l’individu en interaction avec son environnement. Rendre ces interdépendances visibles permet de mieux cibler les besoins et actions.
Cependant, lorsqu’il est question de technologie en santé, ces liens, relations et interdépendances ne sont pas toujours pris en compte. Prenons le courant des éthiques du care. Celles-ci ont montré l’importance du réseau de relations humaines et du travail de soin invisibilisé dans nos sociétés. Néanmoins, cette éthique évoque peu la place des outils et technologies. Cela laisse penser, d’une part, que ces outils sont supposés agir dans le silence, au risque d’occulter tous les effets qu’ils produisent. D’autre part, ce silence des éthiques du care sur la technologie peut induire, plus radicalement, l’idée que les technologies constituent un « autre » care, invitant à un clivage entre l’humain (chaud) et le technique (froid). Il y aurait l’éthique du soin, la relation, l’humain d’un côté, et de l’autre une médiation technique nécessaire, mais presque étrangère à l’éthique du soin. Or, la technologie fait partie du soin. Pas de care sans la médiation matérielle d’outils, de choses et de lieux.
Il y a donc un intérêt à rendre l’outil visible et intégré à la pratique. Pour éviter ces deux écueils, certains auteurs proposent de penser la technologie en termes de « milieux », en plaçant notre attention sur les relations d’interdépendance qui sont à l’œuvre entre un sujet et tout ce qui l’entoure. Un collectif français d’enseignants-chercheurs a ainsi proposé un manuel de conception technologique afin de « prendre soin des milieux »4. L’hypothèse est que toute technologie contribue à constituer un « milieu », un réseau d’acteurs humains et non humains dans lequel s’inscrit le soin. Il faut donc résister à appréhender l’objet technologique comme une entité discrète, au double sens d’un objet dont on requiert silence et discrétion et au sens mathématique d’une entité distincte et isolable.
Transformation tacite des « milieux »
Cette approche en termes de « milieu » nous parait essentielle pour aborder l’innovation technologique en santé et particulièrement les applications de l’intelligence artificielle. Il nous semble important de ne pas l’appréhender simplement comme des outils auxquels on décide de recourir ou non et qui remplaceraient l’humain pour tel ou tel acte technique ou intellectuel. Il faudrait plutôt les voir comme des objets qui s’inscrivent dans un réseau sociotechnique qu’ils transforment et qui les modifie en retour. L’IA en santé peut ainsi introduire de nouveau tiers dans la relation de soin : des prestataires techniques, des scientifiques de diverses disciplines, etc. Elle crée aussi de nouvelles dépendances, une nouvelle distribution des responsabilités et du pouvoir, liées à la gestion des données, à la maintenance, etc. Comme nous l’avons étudié sur le terrain dans le cadre de l’IA en radiologie, l’arrivée dans un service d’un logiciel d’IA d’aide à la décision en traumatologie a nécessairement eu pour effet de transformer l’organisation du service, les rôles des professionnels et leurs relations5. L’IA ne doit pas se questionner seule, ou abstraitement, mais au sein d’un ou plusieurs contextes, en relation avec différents acteurs, et sous l’angle de la distribution ou redistribution de savoirs, pouvoirs et responsabilités.
Les auteurs du manuel nous invitent à questionner également le concept de « substitution ». L’IA ne se limite jamais simplement à remplacer l’humain, en automatisant une activité cognitive. Elle transforme toujours en même temps cette activité. Pierre Steiner l’illustre avec l’évolution des supports d’inscription des textes : « Une logique de substitution repose sur la conviction qu’une technique peut remplacer une autre technique, ou une action non technique. La liseuse électronique peut remplacer le livre comme le robot d’assistance peut remplacer le personnel soignant […]. Or il n’y a pas de substitution, mais une transformation de l’expérience et du milieu de la lecture. »6 Il convient alors de se demander : que désirons-nous que l’IA transforme ? Que voulons-nous préserver de toute transformation ? Comment l’utilisation d’un nouveau logiciel dans un service redistribue-t-elle les responsabilités et le pouvoir ? Quels nouveaux acteurs agrège-t-il à la relation de soin ? Le nouveau « milieu socio-technique » est-il « habilitant » ou « prolétarise-t-il » le milieu pour reprendre un terme de Bernard Stiegler7, au sens où il « prive un sujet (producteur, consommateur, concepteur) de ses savoirs » ?
L’enjeu est de taille, car les concepteurs de systèmes à base d’intelligence artificielle ont pris l’habitude de « coloniser le futur »8 en saturant notre horizon d’attente de « promesses technologiques »9 destinées à capter des financements10. S’en suit une logique de solutionnisme technologique, qui met l’accent sur la technologie comme réponse unique aux défis de santé et qui détourne la responsabilité de problèmes sous-jacents et de conséquences à long terme, ou encore le choix d’autres solutions, technologiques ou non (car « il y a toujours d’autres alternatives techniques viables qui auraient pu être développées à la place de celles qui ont été choisies »11).
Les innovations technologiques transforment nos milieux de travail et de soin, ainsi que l’ensemble de la société, sans que l’ensemble de ces transformations soit l’objet de délibérations démocratiques. Des philosophes des techniques ont mis en avant le concept d’expérimentation sociale tacite pour appréhender la manière dont les technologies sont introduites dans la société. Pour Ibo van de Poel et ses collègues, « le développement d’une technologie et son introduction dans la société doivent être considérés comme un processus expérimental en raison des nombreuses incertitudes qui ne seront réduites que progressivement après la mise en œuvre effective de la technologie »12. Ils précisent néanmoins que cet apprentissage à l’échelle de la société est bien souvent « tacite ». L’objet de l’expérimentation et son pilotage ne sont ni négociés avec le public, ni même explicités. L’économiste Cédric Durand invite également à considérer internet comme un laboratoire. Selon lui, « nous servons régulièrement de cobayes pour des expériences dont nous ignorons tout »13. Il montre comment des plateformes mènent des expérimentations contrôlées aléatoirement pour faire évoluer leurs produits sans que nous en ayons conscience.
Démocratie technique
Face à cette dynamique d’expérimentation sociale tacite de la société, plusieurs auteurs en ont appelé à une « démocratie technique »14. « L’expression de “démocratie technique”, qui trouve son origine dans les travaux de Michel Callon et de la théorie de l’Acteur-réseau, renvoie aux changements procéduraux et institutionnels que devrait connaitre la démocratie afin de permettre aux questions sociotechniques de faire l’objet de décisions politiques délibérées et collectives. » L’horizon de la démocratie technique appelle un large champ de réflexion et d’action. Nul doute que les changements prioritaires que requiert cet horizon renvoient d’abord à l’économie du numérique et aux politiques de l’innovation. Les réflexions contemporaines sur le professionnalisme pourraient, modestement, alimenter ce chantier de la démocratie technique dans le domaine de la santé. Cette nouvelle forme de responsabilité sociale des professionnels en santé peut contribuer à démocratiser l’expérimentation tacite de nouvelles technologies.
Alexandre Mathieu-Fritz15 a étudié l’appropriation de nouvelles technologies par les professionnels. Dans l’usage de technologies innovantes, les praticiens peuvent faire face à une incertitude accrue, une incertitude plus importante que lors de la relation clinique face-à-face traditionnelle. Pour réduire cette incertitude, les professionnels mettent en œuvre ce qu’il appelle une « une attitude expérimentale », qui « consiste en quelque sorte à mener l’enquête, à tester les possibilités et à découvrir les surprises – bonnes ou mauvaises – que les usages du dispositif peuvent réserver ». Ce « pouvoir d’enquête » des professionnels ne peut-il pas être considéré comme une ressource pour exercer une responsabilité sociale en santé ? Par rapport à une logique de « surveillance » focalisée sur les risques avérés, les professionnels ne permettent-ils pas d’exercer une forme de « vigilance » face aux risques de ces nouvelles technologies, c’est-à-dire une « ouverture du monde perçu, une attention généralisée aux micro-variations habituellement enfouies sous les représentations et les routines qui engendre une dynamique de vérification »16 ?
Cette responsabilité sociale en santé face aux innovations technologiques ne devrait pas être considérée comme relevant de la seule responsabilité individuelle des professionnels. Les patients, et leurs associations, ont été depuis de nombreuses années porteurs d’une revendication de démocratisation technique. Les malades chroniques, dans l’usage prolongé de dispositifs techniques, n’ont-ils pas aussi développé un pouvoir d’enquête qui pourrait enrichir les débats et l’évaluation des technologies ? Les patients ne pourraient-ils être des partenaires des professionnels dans l’expérimentation de nouvelles technologies ? Ne faudrait-il pas considérer l’introduction d’une technologie dans un milieu de soin comme une force de transformation de l’organisation des soins ? Et dès lors questionner le pilotage de l’expérimentation de nouvelles technologies et l’ouvrir aux parties prenantes du soin ?
1. C. Boelen et al. (dir.), Dictionnaire francophone de la responsabilité socialeen santé, Presses universitaires de Rouen et du Havre, 2019.
2. C. Saout, La démocratie en santé. Comprendre et s’engager, Presses de l’EHESP, 2022.
3. www.ars.sante.fr.
4. M. Triclot (dir.), Prendre soin des milieux, Manuel de conception technologique, Ed. Matériologiques, 2024.
5. G. Gaglio et al., « L’émergence d’enjeux éthiques lors d’expérimentations de logiciels d’intelligence artificielle. Le cas de la radiologie », Réseaux, 240(4), 2023.
6. P. Steiner, « La constitutivité technique : enjeux théoriques », in M. Triclot, op. cit.
7. https://arsindustrialis.org/prolétarisation.
8. D. Bigo, « Sécurité maximale et prévention ? La matrice du futur antérieur et ses grilles », in B. Cassin (éd.), Derrière les grilles, Sortons du tout-évaluation, Fayard, 2014.
9. P.-B Joly, « Le régime des promesses technoscientifiques », in M. Audétat (éd.), Sciences et technologies émergentes : pourquoi tant de promesses ?, Hermann, 2015.
10. A. Loute, « Quelle éthique de l’éthique de l’intelligence artificielle ? », Louvain Médical,
vol 144, juin 2025.
11. A. Feenberg, (Re)penser la technique : Vers une technologie démocratique, La Découverte, 2004.
12. I. van de Poel et. al. (dir.), New Perspectives on Technology in Society, Experimentation beyond
the Laboratory, Routledge, 2018.
13. C. Durand, Technoféodalisme, Critique de l’économie numérique, La Découverte, 2020.
14. A. Barbin « La démocratie technique. Varia », Cahiers d’histoire du Cnam, 2018.
15. A. Mathieu-Fritz, Le praticien, le patient et les artefacts. Genèse des mondes de la télémédecine,
Presse des Mines, 2021.
16. F. Chateauraynaud, D. Torny, Les sombres précurseurs, Une sociologie pragmatique de l’alerte
et du risque, Ed. de l’EHESS, 2013.
Cet article est paru dans la revue:
Santé conjuguée,