L’IA en santé : entre cadre réglementaire et prolifération des guides, comment s’y retrouver ?
article rédigé le 07/10/2025 par Me Raphaël Cavan
Depuis l’adoption de l’artificial intelligence act (AI Act), le règlement européen sur l’intelligence artificielle (IA), les acteurs du secteur de la santé sont confrontés à un double défi : celui de s’approprier un outil aux promesses immenses, tout en naviguant dans un paysage réglementaire et normatif en pleine effervescence.
Publié au Journal officiel de l’Union européenne le 12 juillet 2024, l’IA Act pose les bases d’un cadre juridique contraignant quant à l’utilisation de l’IA, pleinement applicable à compter du 2 août 2026, bien que certaines de ses dispositions soient déjà entrées en vigueur, notamment les dispositions générales du chapitre 1, les pratiques interdites de l’unique article du chapitre 2, ou encore depuis août 2025, les règles relatives à la gouvernance de l’IA et à l’utilisation des modèles d’IA à usage général.
Pourtant, l’urgence ne se limite pas à la conformité. Selon le livre blanc sur l’IA de la Fédération Hospitalière de France (FHF), 90 % des établissements publics de santé envisagent d’intégrer l’IA dans leurs services d’ici 1 à 3 ans, contre 65 % qui l’utilisent déjà dans leurs activités.
Une adoption massive qui soulève une question cruciale : comment maîtriser cet outil innovant en si peu de temps ?Et ce d’autant que les acteurs institutionnels, chacun à leur tour, publient guides et recommandations pour encadrer l’utilisation de l’IA. Une prolifération de ressources qui risque de submerger les professionnels, déjà sous pression, dans l’appropriation de cet outil prometteur.
Alors comment s’y retrouver dans cet arsenal de textes, guides, recommandations et autres ? Nous tentons de vous donner ici quelques pistes pour mieux comprendre cet écosystème technique, éthique et juridique naissant autour de l’IA.
La première étape pour éviter de se perdre dans cette abondance d’informations est la suivante : repartir du texte de référence qu’est l’IA Act.
Le règlement européen constitue le socle juridique de base qui définit les règles en matière d’utilisation de l’IA, tous secteurs confondus, à travers l’identification du rôle des différents acteurs intervenant dans le cycle de vie d’un système d’IA (SIA), à savoir: la conception, le développement, le déploiement, l’exploitation et la maintenance.
Ce socle juridique prévoit des indications en matière éthique dans la mesure où celui-ci mentionne dans ses considérants les travaux du GEHN IA (groupe d’experts européens de haut niveau sur l’intelligence artificielle), qui a publié des lignes directrices en matière d’éthique pour une IA digne de confiance sur lesquelles s’appuie l’IA Act, notamment à travers l’obligation de mise en œuvre d’un contrôle humain dans la conception et le développement des systèmes d’IA à haut risque.
Ce contrôle humain « vise à prévenir ou à réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux qui peuvent apparaître lorsqu’un système d’IA à haut risque est utilisé conformément à sa destination ou dans des conditions de mauvaise utilisation raisonnablement prévisible » (Article 14 de l’IA Act).De même, le socle juridique de l’IA Act se traduit également par des indications en matière de technique, à travers l’obligation de mettre en œuvre « un niveau approprié d’exactitude, de robustesse et de cybersécurité, et de fonctionner de façon constante à cet égard tout au long de leur cycle de vie. » (Article 15 de l’IA Act).
Ce niveau approprié d’exactitude, de robustesse et de cybersécurité auquel fait référence l’IA Act doit permettre de faire face aux vulnérabilités spécifiques à l’IA, à travers notamment la mise en place de solutions techniques « ayant pour but de prévenir, de détecter, de contrer, de résoudre et de maîtriser les attaques visant à manipuler le jeu de données d’entraînement (empoisonnement des données) ou les composants préentraînés utilisés en entraînement (empoisonnement de modèle), les entrées destinées à induire le modèle d’IA en erreur (exemples contradictoires ou invasion de modèle), [Ou encore] les attaques visant la confidentialité ou les défauts du modèle ».
Selon le rôle identifié par l’acteur intervenant dans le cycle de vie de l’IA, un ensemble d’obligations s’appliquera alors à ce dernier. Les principaux acteurs dans la chaine de développement et de déploiement sont les suivants au sein de l’IA Act:
- Fournisseur : Toute personne physique ou morale qui développe ou fait développer un système d’IA, le met sur le marché ou en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit.
- Déployeur : une personne physique ou morale, une autorité publique, une agence ou un autre organisme utilisant sous sa propre autorité un système d’IA sauf lorsque ce système est utilisé dans le cadre d’une activité personnelle à caractère non professionnel. Dans le secteur de la santé, un hôpital utilisant un système d’IA pour le diagnostic ou la gestion des patients est ainsi considéré comme un déployeur.
- Importateur : Toute personne ou entité établie dans l’UE qui met sur le marché un système d’IA portant le nom ou la marque d’une entité située hors de l’UE.
- Distributeur : Toute personne ou entité faisant partie de la chaîne d’approvisionnement (hors fournisseur ou importateur) qui met un système d’IA à disposition sur le marché de l’UE.
À titre d’illustration, un fournisseur doit être en mesure de documenter de manière exhaustive le développement de son SIA, et un déployeur doit assurer auprès de ses utilisateurs une formation relative à l’utilisation du SIA et ses risques pour le patient.
Attention, un même acteur peut endosser plusieurs rôles selon sa stratégie et ses activités. Par exemple, un centre hospitalier qui souhaite développer seul ou à plusieurs un système d’IA va être un fournisseur puis éventuellement déployeur s’il souhaite l’utiliser en interne, tandis qu’un centre de santé utilisant un système d’IA développé « clé en main » sera seulement déployeur.
De même, n’oublions pas l’existence de la directive 2024/2853 du 23 octobre 2024 relative à la responsabilité du fait des produits défectueux qui s’applique également aux dommages causés par un SIA en élargissant la notion de « produit » en intégrant les composantes immatérielles, telles que les logiciels, fichiers numériques et services associés.
Enfin, le règlement général sur la protection des données (RGPD) complète également le socle juridique existant autour du développement et de l’usage d’un SIA. À ce titre, la Commission nationale de l’Informatique et des Libertés a notamment publié sur son site Internet plusieurs fiches relatives à l’application du RGPD dans le développement des SIA.
Face aux guides et recommandations, quelle posture adopter ?
La multiplication ces derniers mois de guides, bonnes pratiques et recommandations sur l’utilisation de l’IA en santé peut sembler déroutante. Pourtant, bien que ces documents n’aient aucune valeur juridique contraignante et ne soient donc pas opposables, ces derniers permettent de définir l’état de l’art technique mais aussi éthique du moment en matière de SIA.
L’état de l’art représente l’ensemble des connaissances, méthodes et pratiques reconnues par des experts et autorités compétentes comme étant les plus avancées et pertinentes dans un domaine à un moment donné.
Bien que les recommandations en matière d’IA ne constituent pas une norme obligatoire devant impérativement être suivie, celles-ci sont susceptibles de constituer un point de référence pour apprécier l’état de l’art technique en vigueur, et ainsi permettre aux autorités compétentes de relever d’éventuels manquements. C’est en tout cas le mode opératoire retenu par la Commission nationale de l’Informatique et des Libertés (CNIL), qui, sur le fondement de l’article 32 du RGPD relatif aux mesures de sécurité techniques et organisationnelles devant être mises en œuvre par le responsable de traitement.
À titre d’illustration, la CNIL avait dans sa décision visant la société Infogreffe du 8 septembre 2022 pu constater des écarts entre une pratique de sécurité et celle de l’état de l’art constitué par les recommandations relatives à l’utilisation d’un mot de passe fort de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) et de la recommandation CNIL relative aux mots de passe.
Ainsi, l’appropriation de ces guides est essentielle pour les acteurs sur le plan technique, selon qu’ils soient déployeur ou fournisseurs d’un SIA, avec notamment, et à titre non exhaustif, les recommandations de sécurité pour un système d’IA générative publiées le 29 avril 2024 par l’ANSSI, ou encore plus récemment le Modèle de Politique de Sécurité des Systèmes d’Information (PSSI) pour l’Intelligence artificielle publié par le Clusif le 5 septembre 2025.
De même, l’état de l’art éthique que propose de mettre en place certains guides en matière d’intégration d’IA dans un système d’information en santé doivent également être pris en considération par les acteurs du secteur.
En effet, à titre d’illustration, le guide d’implémentation de l’éthique dans les systèmes d’IA en santé, publié par la Délégation au Numérique en Santé (DNS) en juillet 2025, qui se veut une sorte de synthèse de l’ensemble des guides éthiques existant autour de l’IA en santé de ces dernières années, a pour ambition de compléter le cadre posé par l’IA Act, « en accompagnant les acteurs de l’IA en santé sur le chemin de l’éthique de l’IA à travers des critères pratiques et pragmatiques, explicites et auto-évaluables ».
Bien que non opposable, la DNS évoque toutefois qu’à terme, certains critères « pourront être repris dans des référentiels sectoriels opposables pour l’obtention de certains bénéfices, à l’image de ce qui a déjà été mis en œuvre pour l’éthique de la téléconsultation, ou de ce qui est prévu pour le référentiel de sécurité, d’interopérabilité et d’éthique des dispositifs médicaux numériques ».
Une lecture du guide de la DNS s’impose donc.
Du besoin de croiser les différents guides et recommandations
D’un point de vue pragmatique, il convient toutefois de relever que tous les guides existants aujourd’hui autour de l’IA ne se valent pas, en ce qu’ils n’apportent pas tous des mesures concrètes pour les acteurs souhaitant répondre à leurs exigences, ou ne font que répéter des principes généraux, voire des obligations imposées par les textes légaux.
Toutefois, par un croisement des différents guides et autres recommandations posées, les acteurs pourront avoir une vision plus claire de leurs exigences et sur la manière d’y répondre.
À titre d’illustration lorsque l’on prend le référentiel de certification des établissements de santé publié par la Haute autorité de Santé (HAS), on peut constater que certains critères en lien avec la formation et l’accompagnement des utilisateurs à l’utilisation d’outils intégrant de l’IA ont été introduits (notamment Critère 3.4-05 et Critère 3.4-06).
Pour répondre à ces critères le référentiel de la HAS précise que « L’établissement organise la formation des professionnels utilisateurs d’un dispositif médical numérique afin que ces derniers en connaissent les performances, les conditions d’usage et les limites ».
En complétant la lecture de cette exigence avec le modèle de politique de sécurité des systèmes d’information (PSSI) publié par le Clusif (association de cybersécurité en France), des indications sur la manière de construire le contenu de la formation nous sont apportées. En effet, selon l’association, ce type de formation doit reprendre notamment les éléments posés par : :
- Le document du NIST AI 100-2e2023, qui recense l’ensemble des bonnes pratiques ainsi que les risques et limites en termes d’utilisation en matière d’IA ;
- Le référentiel Atlas du MITRE qui sert de base de connaissances pour identifier les vulnérabilités potentielles d’un système d’IA et former les équipes à les anticiper. (Réf SIA-01).
À noter que les actions entreprises envers les utilisateurs du SIA et leur formation constituent également des actions permettant de répondre en partie aux critères posés par le guide de la DNS, notamment en ce qui concerne la phase de déploiement du SIA (critères 26 à 39), mais également aux exigences posées par l’article 4 de l’IA Act relatifs à la maîtrise de l’IA.
L’enjeu pour les acteurs de la santé est donc de pouvoir identifier ces synergies entre les différentes documentations !
L’identification de ces synergies est d’autant plus importante, qu’elle permettra à l’acteur en charge du déploiement et de la mise en œuvre d’un SIA au sein de sa structure de disposer d’une vision panoramique sur les risques et enjeux posés par un SIA.
Prenons un exemple très concret tiré de la PSSI du Clusif : la protection des actifs liés à l’IA.
En effet, la complexité technique liée au développement, déploiement et à l’utilisation d’un SIA nous ferait presque perdre de vue les enjeux juridiques majeurs qui devront être anticipés et/ou négociés contractuellement entre les établissements de santé et les éditeurs de solutions informatiques en santé embarquant de l’IA.
Qu’entend -on par actif liés à l’IA ? Le Clusif évoque les modèles d’IA, les données d’apprentissage, les commentaires et prompts des utilisateurs ; les logiciels ; la documentation ;ou encore les logs de connexion.
À ce titre, le Clusif pose comme règle que « Les actifs liés à l’IA doivent être traités comme des données sensibles »et que des « Des mesures de sécurité doivent être mises en œuvre pour assurer leur confidentialité, leur intégrité et leur disponibilité » (Ref SIA-07).
Vigilance donc sur la rédaction des clauses de confidentialité présentes dans les contrats et le périmètre des informations couvertes.
Voici donc autant de questions et de considérations qui nécessiteront pour les acteurs de la santé d’être accompagnés au mieux par des professionnels disposant de cette vue d’ensemble afin de veiller à la préservation de leurs intérêts.
Les lignes directrices de la Commission européenne
Enfin, il convient de rappeler que l’article 96 de l’IA Act prévoit que la Commission européenne va publier des lignes directrices qui auront pour objet d’apporter des précisions sur les exigences prévues par la réglementation.
Parmi les lignes directrices annoncées par l’article précité nous pouvons d’ores et déjà constater que celles relatives à la portée des obligations des fournisseurs de modèles d’IA à usage général (GPAI) ont été publiées en juillet 2025, et celles relatives aux pratiques interdites visées à l’article 5 de l’IA Act ont été publiées le 4 février dernier.
À ce stade, des lignes directrices sont encore en attente de publication, notamment celles visant à apporter des informations détaillées sur l’articulation entre l’IA Act et l’ensemble de la législation d’harmonisation de l’Union européenne prévue par l’annexe 1 de l’IA Act, notamment les règlements européens sur les dispositifs médicaux (Règlement (UE) 2017/745) et les dispositifs médicaux in vitro (Règlement (UE) 2017/746).
Vous l’aurez compris, l’écosystème légal et réglementaire autour de l’IA est en ébullition et nécessite plus que jamais pour les acteurs de la santé d’être accompagnés par des experts capables d’en décrypter les subtilités, d’anticiper les risques et d’aligner leurs projets sur les exigences techniques, éthiques et juridiques en constante évolution afin de transformer ces défis en opportunités sécurisées
Raphaël Cavan a rejoint le Cabinet Houdart & Associés en 2022 tant qu’élève avocat, et exerce aujourd’hui en tant qu'avocat au sein du pôle santé numérique.
L’obtention de son master en droit du numérique auprès de l’université Paris XII (UPEC)et ses différentes expériences professionnelles auprès d’acteurs publics lui ont permis de développer un sens du service public et un intérêt pour les enjeux posés par le numérique aujourd’hui dans le secteur de la santé et de la recherche scientifique.
Il intervient aujourd’hui auprès des établissements de santé privés et publics dans leur mise en conformité à la réglementation en matière de données personnelles, et les conseille sur les questions en lien avec le droit du numérique.


