L’arrivée des grandes plateformes numériques bouleverse les flux de données et l’organisation des soins. Des acteurs comme Doctolib, Withings et Sanofi intègrent des briques d’IA dans des services cliniques ou logistiques. Ce mouvement soulève des enjeux juridiques et éthiques que le régulateur doit encadrer rapidement.
En 2024 l’Union européenne a adopté le Règlement sur l’intelligence artificielle pour encadrer les systèmes à haut risque. En 2025 l’Agence du Numérique en Santé a proposé un guide pratique soumis à consultation publique pour préciser les critères éthiques. Ces éléments rapprochent la discussion vers l’encadré A retenir :
A retenir :
- Encadrement juridique renforcé pour systèmes IA à haut risque en santé
- Respect strict des données personnelles et conformité au RGPD
- Critères éthiques opérationnels pour conception, validation et surveillance des SIA
- Surveillance continue et traçabilité des modèles, responsabilité définie et partagée
Encadrement juridique de l’IA en santé face aux géants du numérique
Les points mis en évidence dans l’encadré précédent justifient une clarification juridique rapide. Un cadre cohérent doit articuler le RIA européen et les obligations liées au RGPD. Selon la Commission européenne, le RIA cible les systèmes à haut risque, dont beaucoup en santé.
Phase du SIA
Principe éthique associé
Références normatives
Conception
Bienfaisance
RGPD, RIA
Apprentissage
Non-malfaisance
RIA, recommandations ANS
Validation
Autonomie et sécurité
RGPD, standards cliniques
Mise en service
Justice et équité
RIA, référentiels nationaux
Surveillance
Responsabilité partagée
Normes de traçabilité
Points réglementaires :
- Identification des risques cliniques et catégorisation conforme RIA
- Mesures de minimisation des biais et justification des données
- Traçabilité des décisions algorithmiques et logs d’audit
- Responsabilité contractuelle et obligations des opérateurs
Impact du RIA sur les plateformes numériques et acteurs de santé
Ce cadre européen modifie les obligations des plateformes qui manipulent données de santé. Les places de marché et services de rendez-vous doivent documenter l’usage de l’IA et ses risques. Selon l’Agence du Numérique en Santé, la transparence fonctionnelle sera un critère clé pour l’agrément.
« J’ai dû revoir nos contrats pour intégrer les demandes de traçabilité et de responsabilisation des algorithmes »
Claire M.
Cette contrainte pèse différemment selon la taille des acteurs et la nature des services. Des sociétés comme Doctolib et Qare gèrent des flux patients, tandis que Withings produit des données de dispositifs connectés. Ces différences impliquent des obligations opérationnelles distinctes.
Exigences pour la conformité au RGPD dans les projets IA
Ce point précise les mesures attendues pour la protection des données personnelles en santé. Le RGPD impose des garanties proportionnées et des évaluations d’impact pour les traitements à risque élevé. Selon le RGPD et les recommandations nationales, la minimisation et l’anonymisation doivent être démontrées.
Acteur
Secteur principal
Rôle potentiel en IA santé
Doctolib
Plateforme de rendez-vous
Orchestration des parcours patients et data
Withings
Objets connectés
Collecte de données physiologiques
Sanofi
Industrie pharmaceutique
Recherche clinique assistée par IA
Owkin
Plateforme d’IA pour la santé
Recherche et découverte de biomarqueurs
Deeplink Medical
Imagerie médicale
Outils d’aide au diagnostic
Cette cartographie permet de mieux comprendre les responsabilités selon les flux de données. Les obligations de conformité ne sont pas identiques entre fabricants, plateformes et prestataires cliniques. Il faudra préciser les responsabilités contractuelles entre ces entités pour assurer la conformité effective.
Critères d’éthique opérationnelle pour déployer l’IA en milieu clinique
La clarification juridique précédente conduit à définir des critères pratiques pour chaque phase de déploiement. Ces critères doivent être opérationnels, vérifiables et adaptés aux services cliniques. Selon l’Agence du Numérique en Santé, le guide soumis à consultation vise précisément ce calibrage empirique.
Principes et méthodes doivent converger pour garantir la sécurité des patients et la qualité des soins. Les acteurs publiques et privés se voient demander d’adopter des pratiques standards auditable. Cet ensemble ouvre vers la définition des processus de validation clinique.
Critères opérationnels :
- Documentation complète des jeux de données et origine des échantillons
- Plans de test clinique pré‑enrôlement et métriques de sécurité
- Procédures de mise à jour et gestion des versions algorithmiques
- Protocoles de gestion des incidents et reprise d’activité clinique
Conception et apprentissage responsable des modèles cliniques
Cette section relie la stratégie éthique à la phase de conception et d’apprentissage du modèle. Les équipes doivent documenter l’origine des données et les biais potentiels évalués. Selon la Haute Autorité de Santé, la validation des variables et l’audit des performances sont indispensables avant déploiement.
« Lors du projet pilote, j’ai constaté des biais de représentation dans les données d’un hôpital régional »
Marc N.
Pour corriger ces biais, des méthodologies standardisées sont recommandées et doivent être publiées. Les solutions de recherche comme Owkin fournissent des approches collaboratives pour agréger des données sans centraliser. L’objectif est de préserver la diversité clinique tout en garantissant la confidentialité.
Validation et mise en service clinique des outils IA
Ce volet relie les essais cliniques, la régulation et la traçabilité opérationnelle du déploiement. Les études comparatives, les essais en conditions réelles et la surveillance post‑mise en service sont requis. Selon le guide proposé par l’ANS, la surveillance active doit être planifiée dès la mise en service.
- Protocole d’évaluation multicentrique avant déploiement
- Indicateurs de performance clinique définis et mesurables
- Flux de signalement d’incident et comité de revue ad hoc
- Plan de retrait et rollback en cas de dérive
Acteurs, responsabilités et surveillance de l’IA en santé publique face aux géants du numérique
Le passage des critères opérationnels à la gouvernance impose d’identifier clairement les rôles des acteurs concernés. Les éditeurs, les établissements de santé et les investisseurs ont des responsabilités distinctes et complémentaires. Selon le RIA, la responsabilité légale doit être traçable et engagée en cas de préjudice.
Le rôle des investisseurs et des écosystèmes financiers influence la diffusion des solutions IA médicales. Des fonds comme Mangrove peuvent accélérer la mise sur le marché des outils, mais la conformité reste non négociable. Ce constat prépare l’examen des modalités de surveillance et des mécanismes de sanction.
Acteurs et financements :
- Entreprises technologiques et éditeurs responsables du modèle et du maintien
- Établissements de santé responsables de l’usage clinique et de la surveillance locale
- Investisseurs finançant le déploiement et la commercialisation
- Autorités publiques assurant l’agrément et le contrôle réglementaire
Rôles des entreprises, des cliniciens et des financeurs
Ce passage analyse la répartition des responsabilités entre opérateurs privés et équipes cliniques. Les fournisseurs comme Deeplink Medical, Cegedim ou Tilak Healthcare conçoivent des composants, tandis que les hôpitaux opèrent les décisions cliniques. Selon des retours de terrain, la contractualisation précise réduit les zones grises de responsabilité.
« Notre clinique a signé un accord précisant la maintenance, la responsabilité et les procédures d’alerte »
Sophie N.
Les investisseurs exigent des indicateurs de conformité pour soutenir le financement des projets IA en santé. Les partenariats publics‑privés doivent inclure des clauses de sécurité et de partage des données. Ce partage contractuel est essentiel pour garantir la confiance et la qualité des soins.
Mécanismes de surveillance, sanctions et amélioration continue
La surveillance repose sur des mécanismes techniques et juridiques capables de détecter les dérives en réelle activité. Les exigences incluent logs immuables, audits périodiques et comités indépendants de vigilance. Selon la Commission européenne, la conformité active et la coopération transnationale renforceront la sécurité des patients.
« Les autorités nationales nous demandent désormais des rapports trimestriels sur les performances algorithmiques »
Antoine N.
Pour être efficaces, ces mécanismes doivent associer patients, cliniciens et autorités de régulation. Des ateliers inclusifs peuvent améliorer la détection des effets adverses et la résilience des systèmes. L’évolution de la gouvernance déterminera la capacité à maîtriser les risques des géants numériques.
Source : Agence du Numérique en Santé, « Consultation publique : guide d’implémentation d’une IA en santé éthique », ANS, 2025 ; Commission européenne, « Règlement sur l’intelligence artificielle », Commission européenne, 2024 ; Comité consultatif national d’éthique, « Rapport sur les enjeux éthiques du numérique et de l’IA », CCNE, 2024.