Le secteur de la santé est à la fois l’un des plus prometteurs pour l’IA et l’un des plus complexes réglementairement. Les enjeux sont immenses : amélioration du diagnostic, réduction des délais d’attente, optimisation administrative — mais aussi risques pour les patients si les systèmes IA se trompent. Voici l’état réel du déploiement de l’IA dans la santé française en 2025.
L’IA médicale en France : état des lieux 2025
Les cas d’usage déjà déployés en production
1. Imagerie médicale (le cas d’usage le plus mature)
L’IA en imagerie médicale est la success story de l’IA santé. Des algorithmes validés analysent :
- Radiographies thoraciques (détection pneumonie, tuberculose, cancer du poumon)
- IRM cérébraux (aide au diagnostic de l’AVC, des tumeurs)
- Mammographies (dépistage cancer du sein)
- Fond d’œil (rétinopathie diabétique)
Exemple français : Oxipit (détection de pathologies en radiographie), Therapixel (mammographie IA), Gleamer (radiologie musculo-squelettique). Ces solutions sont validées par la CE et remboursées progressivement.
Résultats mesurés : réduction du taux de faux négatifs de 20-40 % pour certaines pathologies en combinant médecin + IA versus médecin seul.
2. Gestion administrative et codage médical
Les établissements hospitaliers consacrent des ressources considérables au codage des actes (PMSI, CIM-10). Des outils IA automatisent :
- Extraction des diagnostics depuis les comptes-rendus médicaux
- Suggestion de codes CIM-10 / actes CCAM
- Contrôle cohérence dossier / facturation
Gain observé : 30-50 % de temps économisé sur le codage médical dans les établissements adoptants.
3. Aide à la prescription et vérification des ordonnances
Des systèmes d’aide à la décision thérapeutique (SADC) alertent les médecins sur :
- Interactions médicamenteuses
- Contre-indications selon le profil patient
- Posologies hors-normes
Ces systèmes existent depuis les années 2000, mais la nouvelle génération basée sur LLMs est plus nuancée et génère moins de faux positifs (le problème historique des systèmes à règles).
4. Chatbots de triage et d’orientation
Des chatbots comme Visio-Patient (Doctolib) ou les chatbots de pre-consultation utilisent l’IA pour orienter les patients avant la consultation. Ils collectent les symptômes, orientent vers le bon spécialiste, et transmettent un pré-résumé au médecin.
Les cas d’usage émergents (2025-2027)
LLMs pour le résumé de dossier médical
Un médecin reçoit un patient dont le dossier ATIH/DMP contient des années d’historique. Un LLM peut synthétiser ce dossier en 2 minutes, identifiant les pathologies chroniques, les traitements en cours, les allergies, et les hospitalisations récentes.
Enjeux : les LLMs peuvent halluciner des informations médicales. Le résumé doit toujours être vérifié par le médecin avant tout acte.
Génération de courriers médicaux
Dictée vocale + LLM → compte-rendu de consultation structuré. Des startups comme Nabla (Paris) ou Suki proposent des assistants de dictée médicale qui génèrent le compte-rendu pendant la consultation, libérant le médecin de la saisie.
Impact mesuré : économie de 1 à 2 heures de saisie par jour pour les médecins utilisant ces outils.
Analyse génomique et médecine personnalisée
Les LLMs spécialisés sur les données génomiques (ex: AlphaFold de DeepMind pour la structure des protéines) accélèrent la recherche sur les maladies rares et la médecine personnalisée. Ces usages sont encore essentiellement en R&D.
Le cadre réglementaire spécifique à l’IA médicale
Le règlement européen sur les dispositifs médicaux (MDR/IVDR)
En Europe, tout logiciel utilisé dans un but médical est un dispositif médical au sens du règlement MDR 2017/745. Cela s’applique à :
- Tout logiciel qui influence des décisions de diagnostic ou thérapeutiques
- Les algorithmes d’imagerie médicale
- Les systèmes d’aide à la décision clinique
La classification CE s’applique (I, IIa, IIb, III) selon le risque. Pour un algorithme d’aide au diagnostic de cancer : classe IIb ou III.
Implications :
- Marquage CE obligatoire avant commercialisation en Europe
- Documentation technique (documentation technique)
- Surveillance post-marché
- IDCM (Identifiant unique de dispositif)
L’AI Act et la santé
L’AI Act classe certains systèmes médicaux IA comme à haut risque :
- Systèmes utilisés pour des décisions thérapeutiques
- Systèmes qui traitent des données médicales pour identifier des maladies
Pour ces systèmes, les obligations AI Act s’ajoutent aux obligations MDR (ils ne se remplacent pas).
Le RGPD et les données de santé
Les données de santé sont une catégorie particulière au sens du RGPD, nécessitant :
- Une base légale spécifique (soins de santé, intérêt public, ou consentement explicite)
- Des mesures de sécurité renforcées
- Une DPIA systématique pour les traitements IA sur données de santé
Le SNDS (Système National des Données de Santé) est le trésor de données médico-administratives français. L’accès est possible pour la recherche, mais encadré par la CNIL et le Health Data Hub.
Le Health Data Hub
Créé en 2019, le Health Data Hub est la plateforme nationale de partage des données de santé. Il facilite l’accès aux données anonymisées pour les chercheurs et industriels souhaitant développer des IA médicales.
Controverses : le Health Data Hub a initialement été hébergé sur Microsoft Azure, soulevant des questions de souveraineté. La CNIL a demandé une migration vers un hébergeur européen, qui est en cours.
Les recommandations de la HAS sur l’IA médicale
La Haute Autorité de Santé a publié plusieurs recommandations :
Référentiel de bonnes pratiques (2023) :
- L’IA médicale doit être un outil d’aide à la décision, pas un substitut au jugement médical
- La responsabilité médicale reste entière avec le médecin
- Les patients doivent être informés de l’utilisation de l’IA dans leur prise en charge
- La validation clinique sur données françaises est préférable aux validations uniquement sur données américaines ou asiatiques
La démarche d’évaluation : La HAS peut évaluer les “actes innovants hors nomenclature” (AHIN) pour préparer le remboursement de nouvelles IA médicales. Cette évaluation est distincte mais complémentaire du marquage CE.
Les enjeux éthiques spécifiques à l’IA médicale
Le biais algorithmique en médecine
Les modèles entraînés sur des données majoritairement caucasiennes sont moins performants sur d’autres populations. Des études ont montré des disparités dans la détection de certaines maladies cutanées (dermatologie) selon la couleur de peau.
Exigence : valider les performances sur des données représentatives de la population française, incluant la diversité des patients.
La “déshumanisation” perçue des soins
Certains patients et soignants s’inquiètent que l’IA réduise la relation soignant-soigné à une transaction data. Les établissements qui déploient l’IA doivent intégrer des formations sur la communication (comment expliquer l’IA aux patients ?) et sur le maintien de la relation thérapeutique.
La responsabilité en cas d’erreur
Si un algorithme IA contribue à un mauvais diagnostic et que le patient subit un préjudice, qui est responsable ? Le médecin (qui a la responsabilité finale), l’établissement (qui a déployé le système), ou l’éditeur du logiciel ?
La jurisprudence est en construction. La tendance actuelle est de maintenir la responsabilité du médecin, mais les contrats avec les éditeurs d’IA médicale intègrent de plus en plus des clauses d’indemnisation spécifiques.
Pour les établissements de santé : par où commencer ?
Étape 1 : Identifier les cas d’usage à fort ROI rapide
Les projets les plus faciles à démarrer et à quantifier :
- Automatisation de la gestion des rendez-vous
- Codage médical assisté par IA
- Optimisation des plannings soignants
Étape 2 : Choisir des solutions certifiées CE
Pour tout logiciel à vocation médicale, exigez le marquage CE avant tout déploiement. La pression commerciale de certains éditeurs pour déployer “en test” des solutions non certifiées est un risque réglementaire et de responsabilité.
Étape 3 : Former les équipes soignantes
Les soignants ont besoin de comprendre :
- Ce que l’IA peut et ne peut pas faire
- Comment interpréter les recommandations IA (probabilités, intervalles de confiance)
- Comment documenter leur décision finale (distinct de la recommandation IA)
Étape 4 : Mettre en place une gouvernance IA santé
Un comité incluant médecins, soignants, DPO, DSI et représentants des patients pour superviser le déploiement et les incidents IA.
Questions fréquentes
Un médecin peut-il être tenu responsable d’une erreur commise en suivant une recommandation IA ? Oui. La responsabilité médicale reste entière. Le médecin doit exercer son jugement clinique indépendamment des recommandations de tout outil d’aide à la décision, qu’il soit IA ou non.
Les patients doivent-ils consentir à l’utilisation de l’IA dans leur traitement ? La HAS recommande d’informer les patients, mais le consentement explicite n’est pas systématiquement requis pour les outils d’aide à la décision non implantables. Pour les données utilisées dans des modèles IA de recherche, le cadre est plus strict.
Conclusion
L’IA dans la santé progresse à un rythme soutenu en France, portée par des startups innovantes, des établissements pionniers, et un cadre réglementaire qui, malgré sa complexité, offre une voie d’accès au marché claire. Les organisations qui réussiront seront celles qui combinent ambition technologique et rigueur éthique et réglementaire.
BetterPeople accompagne les équipes des établissements de santé et des acteurs du medtech dans la formation à l’IA et la compréhension des enjeux réglementaires. Contactez-nous.
Prêt à transformer votre organisation avec l'IA ?
Réservez un diagnostic gratuit de 30 minutes avec notre équipe.