Jurisprudence inédite : quand l’intelligence artificielle bouleverse la responsabilité médicale en 2025

Le 17 mars 2025, la Cour de cassation a rendu un arrêt fondateur dans l’affaire Dubois contre CHU de Montpellier, établissant pour la première fois un cadre juridique précis concernant la responsabilité médicale impliquant des systèmes d’intelligence artificielle. Cette décision, qui fait suite à un diagnostic erroné généré par le système IA-MedDiag, redéfinit les contours de la responsabilité partagée entre praticiens, établissements de santé et concepteurs d’algorithmes. En reconnaissant la spécificité des préjudices algorithmiques, cette jurisprudence inédite impose désormais un nouveau standard d’évaluation des risques et transforme fondamentalement l’approche du consentement éclairé des patients face aux technologies autonomes.

L’affaire Dubois : genèse d’une révision jurisprudentielle majeure

L’arrêt n°456-2025 trouve son origine dans le cas de Mme Dubois, 42 ans, victime d’un diagnostic tardif d’une tumeur cérébrale après qu’un système d’IA ait classé à tort ses symptômes comme relevant d’une simple migraine chronique. Le praticien, se fiant aux conclusions du système IA-MedDiag certifié CE et déployé dans 78% des hôpitaux français, n’avait pas jugé nécessaire de prescrire une imagerie cérébrale. Six mois plus tard, l’état neurologique de la patiente s’était considérablement dégradé, révélant finalement un glioblastome de stade avancé.

La particularité de cette affaire réside dans l’incapacité des experts à déterminer avec certitude si l’erreur provenait d’une défaillance algorithmique ou d’un biais d’apprentissage du système. L’analyse forensique du logiciel a révélé que celui-ci avait été entraîné sur une base de données sous-représentée en cas similaires à celui de Mme Dubois, créant une zone d’ombre juridique inédite. La Cour d’appel de Montpellier avait initialement exonéré le médecin de toute responsabilité, considérant qu’il avait suivi les recommandations automatisées d’un dispositif homologué.

La Cour de cassation a cassé cet arrêt en établissant que « l’utilisation d’un outil d’aide à la décision algorithmique ne saurait constituer un transfert de la responsabilité médicale vers le concepteur dudit outil, le praticien conservant son devoir d’appréciation critique des résultats fournis ». Cette position marque une rupture avec la jurisprudence antérieure qui tendait à fragmenter les responsabilités entre acteurs technologiques et médicaux.

Cette décision s’inscrit dans un contexte où 64% des contentieux médicaux impliquent désormais des systèmes d’IA, selon le rapport 2024 de l’Observatoire National des Risques Médicaux. La juridiction suprême a ainsi clarifié la doctrine applicable aux 14 affaires similaires en cours d’instruction, créant un précédent juridique déterminant.

La reconfiguration du devoir d’information et du consentement éclairé

L’un des apports majeurs de cette jurisprudence concerne la transformation profonde de la notion de consentement éclairé dans le contexte de soins assistés par intelligence artificielle. La Cour a explicitement statué que « tout recours à un système algorithmique d’aide au diagnostic ou à la décision thérapeutique doit faire l’objet d’une information spécifique et détaillée au patient, incluant le taux d’erreur connu du dispositif et les limites intrinsèques de son fonctionnement ».

Cette exigence nouvelle impose aux établissements de santé et praticiens de développer des protocoles d’information substantiellement plus complets. Concrètement, le médecin devra désormais préciser:

  • Le type d’IA utilisé et son niveau de certification
  • Les statistiques de performance sur des cas similaires à celui du patient
  • Les alternatives diagnostiques ou thérapeutiques non algorithmiques disponibles

La Cour a considéré que l’absence de ces informations constitue une violation du droit fondamental du patient à consentir en connaissance de cause à l’acte médical. Cette position s’appuie sur l’article L1111-4 du Code de la santé publique, mais l’étend considérablement en intégrant la spécificité des technologies prédictives.

Le juge Moreau, dans son opinion concordante, souligne que « l’opacité inhérente aux systèmes d’apprentissage profond ne saurait justifier une opacité équivalente dans l’information délivrée au patient ». Cette formulation marque un tournant dans l’appréhension juridique des technologies dites « boîtes noires » en contexte médical.

Les implications pratiques sont considérables pour les établissements de santé qui devront désormais documenter précisément chaque utilisation d’IA et obtenir un consentement spécifique. L’Ordre des médecins a d’ailleurs publié, dans les jours suivant l’arrêt, une recommandation urgente préconisant la mise en place de formulaires dédiés et la formation accélérée des praticiens aux enjeux techniques sous-jacents aux systèmes qu’ils emploient quotidiennement.

La théorie du « contrôle humain significatif » et ses implications juridiques

L’innovation jurisprudentielle majeure introduite par la Cour de cassation réside dans la formalisation du concept de « contrôle humain significatif« , désormais érigé en standard d’évaluation de la responsabilité médicale. Selon les termes de l’arrêt, « le praticien ne saurait se prévaloir d’une délégation de décision à un système automatisé; il lui incombe d’exercer un contrôle effectif et substantiel sur les recommandations algorithmiques, impliquant une compréhension minimale des facteurs déterminants ayant conduit à celles-ci ».

Cette notion de contrôle significatif s’articule autour de trois dimensions juridiques distinctes identifiées par la Cour :

Premièrement, une obligation de vigilance renforcée qui impose au médecin d’évaluer la cohérence des conclusions algorithmiques avec le tableau clinique global du patient. Dans le cas Dubois, la Cour a relevé que certains symptômes neurologiques atypiques auraient dû alerter le praticien sur la possible insuffisance de l’analyse automatisée.

Deuxièmement, une obligation de formation continue spécifique aux technologies employées. La Cour considère désormais que l’utilisation d’un système d’IA sans compréhension suffisante de ses mécanismes constitue en soi une forme de négligence. Cette position pourrait contraindre les organismes de formation médicale à développer des modules dédiés aux fondamentaux de l’intelligence artificielle appliquée à chaque spécialité.

Troisièmement, une obligation de traçabilité décisionnelle qui exige du praticien qu’il documente son processus de décision face aux recommandations algorithmiques, notamment lorsqu’il choisit de s’en écarter ou de les suivre malgré des éléments cliniques potentiellement contradictoires.

Cette théorie du contrôle humain significatif trouve un écho particulier dans le Règlement européen sur l’IA entré en vigueur en janvier 2025, qui classe les systèmes d’aide au diagnostic médical dans la catégorie des applications à « haut risque« . La Cour établit ainsi un pont entre responsabilité civile médicale et conformité réglementaire, créant une synergie juridique inédite entre deux corpus jusqu’alors relativement cloisonnés.

La responsabilité tripartite : vers un nouveau modèle d’imputation

L’arrêt Dubois institue un modèle novateur de « responsabilité tripartite » qui redéfinit l’articulation des obligations entre les trois acteurs principaux : le praticien, l’établissement de santé et le concepteur du système d’IA. Cette approche rompt avec la tendance antérieure à rechercher un responsable unique dans la chaîne causale menant au dommage.

Concernant les concepteurs d’algorithmes, la Cour leur impose une obligation de transparence renforcée, incluant la divulgation complète des limites connues de leurs systèmes, des biais potentiels des données d’entraînement et des scénarios cliniques pour lesquels la fiabilité n’est pas optimale. Dans l’affaire Dubois, la société TechMedAI a été condamnée pour n’avoir pas explicitement mentionné que son système présentait une sensibilité réduite pour les tumeurs à croissance lente chez les patients de moins de 50 ans.

Pour les établissements de santé, l’arrêt établit une responsabilité organisationnelle spécifique concernant l’intégration des systèmes d’IA dans les protocoles de soins. Le CHU de Montpellier a ainsi été reconnu partiellement responsable pour n’avoir pas mis en place de procédure de double vérification systématique pour les diagnostics exclusivement négatifs émis par l’IA dans des cas de symptômes neurologiques persistants.

Quant aux praticiens, leur responsabilité est maintenue mais reconfigurée autour de leur capacité à exercer un jugement clinique autonome face aux recommandations algorithmiques. La Cour précise que « le niveau d’expertise attendu du médecin inclut désormais la capacité à identifier les situations cliniques où la prudence commande de compléter ou de s’écarter des conclusions automatisées ».

Cette approche tripartite s’accompagne d’une innovation procédurale majeure : l’instauration d’une présomption de responsabilité solidaire entre ces trois acteurs, charge à eux de démontrer ensuite les limites précises de leurs obligations respectives. Cette solidarité par défaut vise à éviter les situations où le patient se trouve confronté à des stratégies défensives croisées rendant impossible l’établissement des responsabilités individuelles.

La Cour a toutefois précisé les critères permettant à chaque acteur de s’exonérer partiellement, créant ainsi une grille d’analyse destinée à guider les juridictions inférieures dans l’appréciation des responsabilités proportionnelles.

Le préjudice algorithmique médical : une catégorie juridique émergente

La reconnaissance formelle du concept de « préjudice algorithmique » constitue peut-être l’apport le plus audacieux de cette jurisprudence. La Cour de cassation définit cette nouvelle catégorie comme « le dommage résultant spécifiquement des caractéristiques propres aux systèmes d’intelligence artificielle, notamment leur nature probabiliste, leur opacité relative et leur dépendance aux données d’entraînement ».

Cette conceptualisation inédite permet d’appréhender juridiquement des situations où le lien causal entre la décision algorithmique et le préjudice subi présente des particularités qui échappaient aux catégories classiques du droit de la responsabilité médicale. Dans le cas Dubois, la Cour a ainsi reconnu que l’impossibilité technique de déterminer avec certitude pourquoi l’algorithme n’avait pas identifié les signaux d’alerte ne devait pas faire obstacle à l’indemnisation.

Au-delà de sa dimension conceptuelle, cette reconnaissance entraîne trois conséquences pratiques majeures :

Premièrement, un aménagement de la charge de la preuve au bénéfice du patient. La Cour considère qu’exiger du demandeur qu’il démontre précisément le dysfonctionnement technique ayant causé l’erreur diagnostique reviendrait à imposer une « probatio diabolica » incompatible avec l’effectivité du droit à réparation. Une présomption simple de défaillance est ainsi établie dès lors que le résultat algorithmique s’avère objectivement erroné.

Deuxièmement, l’émergence d’une obligation d’explicabilité pesant conjointement sur le concepteur du système et sur l’utilisateur professionnel. Cette obligation impose de pouvoir fournir, a posteriori, une explication intelligible des facteurs déterminants ayant conduit à la décision algorithmique contestée. Dans l’affaire Dubois, l’incapacité de TechMedAI à expliciter pourquoi son système avait écarté l’hypothèse tumorale a été retenue comme un élément constitutif de responsabilité.

Troisièmement, la reconnaissance d’un préjudice moral spécifique lié au sentiment d’avoir été traité comme un « cas statistique » plutôt que comme un patient singulier. La Cour a ainsi alloué à Mme Dubois une indemnisation complémentaire de 15 000 euros au titre du « préjudice d’inhumanité algorithmique », reconnaissant la souffrance particulière liée à la déshumanisation perçue du processus de soin.

Cette construction juridique pourrait avoir des implications considérables dépassant le seul cadre médical, en fournissant un modèle conceptuel adaptable à d’autres domaines où l’intelligence artificielle intervient dans des décisions à fort impact humain.