L’assurance Cigna en justice : L’IA dans la santé reconsidérée ?

Selon une enquête de Propublica révélée en mars dernier, la compagnie d’assurance santé Cigna serait poursuivie en justice pour l’utilisation d’un algorithme, le PxDx, qui rejetterait automatiquement des centaines de milliers de demandes de remboursement.

Cette situation, mettant en lumière les défis légaux et éthiques liés à l’utilisation de l’IA dans le secteur de la santé, pourrait-elle avoir des implications significatives pour la régulation de l’Intelligence Artificielle dans ce domaine ?

Une violation présumée de la loi californienne

Cigna, un géant de l’assurance santé, ferait donc face à une action en justice pour avoir utilisé l’algorithme PxDx accusé de rejeter massivement et automatiquement des demandes de remboursement. Ainsi, et bien que la loi sur l’assurance maladie de l’État de Californie exige un examen individuel pour chaque demande de remboursement, les médecins de Cigna utiliseraient PxDx pour rejeter instantanément les demandes de prise en charge sans ouvrir le dossier du patient.

Selon les allégations, en 2022, cet algorithme aurait permis à Cigna de rejeter plus de 300 000 demandes en seulement deux mois, laissant tous ces patients désemparés face à des factures médicales qui auraient dû être couvertes. Un directeur médical de la compagnie d’assurance aurait même rejeté 60 000 réclamations en un seul mois, consacrant en moyenne seulement 1,2 seconde à « examiner » chaque demande, selon le rapport ProPublica.

Une plainte, déposée en Californie par le cabinet d’avocat Clarkson et demandant le statut de recours collectif, a été initiée par deux patients qui se sont vu refuser une prise en charge par leur complémentaire santé Cigna. L’une des plaignantes, Suzanne Kisting-Leung, aurait été orientée vers une échographie en raison d’un risque suspecté de cancer de l’ovaire. Tandis que la deuxième, Ayesha Smiley, aurait été testée pour une carence en vitamine D par son médecin.

Selon cette plainte, l’assureur aurait violé la loi californienne en utilisant l’algorithme PxDx pour traiter les demandes de remboursement. En effet, la loi californienne stipule que chaque demande de remboursement doit faire l’objet d’une évaluation « complète, équitable et objective » par un professionnel de santé.

Cependant, selon la plainte déposée par le cabinet Clarkson, Cigna aurait contourné cette obligation légale en utilisant l’algorithme PxDx. Avec cet outil, la compagnie d’assurance aurait traité un grand nombre de demandes sans l’évaluation individuelle requise par la loi. En d’autres termes, l’algorithme aurait entièrement remplacé l’évaluation humaine.

Une enquête en cours

Cette plainte a déclenché une enquête, toujours en cours, des régulateurs étatiques et fédéraux ainsi que du House Energy and Commerce Committee. Le procès intenté dans le district oriental de Californie citerait par ailleurs l’enquête de ProPublica.

Selon la plainte, la rapidité des refus rendrait impossible l’examen individuel des demandes, ce qui violerait la loi de l’État. L’algorithme fonctionnerait en signalant les écarts entre un diagnostic et ce que Cigna considèrerait comme « des procédures acceptables » : « Cigna a délégué à tort son obligation d’évaluer et d’enquêter sur les réclamations au système PxDx et a trompé frauduleusement ses membres en leur faisant croire que la compagnie déciderait individuellement de leurs réclamations et paierait les procédures médicalement nécessaires » dénonce la poursuite.

Ainsi, l’algorithme PXDX permettrait à Cigna d’économiser de l’argent en refusant automatiquement les réclamations et en éliminant les coûts de main-d’œuvre associés au paiement des médecins durant le temps nécessaire pour effectuer un examen manuel individualisé pour chaque assuré Cigna.

Cigna utiliserait également le système PXDX afin de ne pas être tenue responsable des refus injustifiés. Par exemple, Cigna saurait que seule une infime minorité d’assurés (environ 0,2*%) fera appel des réclamations refusées, et que la grande majorité renoncerait à la procédure en payant les frais médicaux non remboursés.

Mais selon la compagnie d’assurance, PxDx aurait été conçu dans le but d’accélérer les paiements aux médecins, en facilitant le traitement des demandes de remboursement. Cet outil ne viserait donc pas à refuser massivement des demandes.

Cigna couvrant aujourd’hui environ 2,1 millions de membres en Californie, le procès demande le statut de recours collectif en proposant d’inclure toute personne dans l’Etat ayant souscrit une couverture santé à la compagnie au cours des quatre dernières années.

Les deux patientes à l’origine de la plainte réclament des dommages-intérêts et demandent à Cigna l’arrêt de l’utilisation de l’algorithme PxDx dans la gestion des réclamations.

Une remise en cause de l’IA dans le secteur de l’assurance santé ?

Alors que PxDx aurait été appliqué sur environ 50 tests et procédures à faible coût pour vérifier que les codes ont été soumis correctement, le nombre important de refus de réclamations d’assurance semble devenir un problème permanent dans le secteur de la santé. Pourtant de plus en plus de preuves que les entreprises de tous secteurs s’appuient sur des algorithmes pour automatiser les refus de réclamations ont ajouté un nouvel angle au débat.

En effet, cette nouvelle affaire soulève des questions fondamentales sur l’utilisation de l’intelligence artificielle dans le secteur de la santé. En particulier, elle interroge sur la manière dont l’IA est utilisée pour évaluer les demandes de remboursement des soins médicaux, son efficacité ne devant pas bafouer les obligations légales ni les droits des patients.

Car, le procès contre Cigna n’est pas le premier à remettre en question l’utilisation des algorithmes dans le domaine de la santé :

En 2019, une étude a révélé qu’un algorithme utilisé par les hôpitaux américains pour attribuer les soins de santé aux patients aurait favorisé des Blancs au détriment des Noirs. L’algorithme, développé par la société Optum, aurait classé les patients en fonction du coût prévu de leurs soins futurs. Ce système aurait donc sous-estimé le besoin de soins des patients noirs, qui dépensent généralement moins en raison de facteurs tels que la discrimination ou le manque d’accès aux soins. L’étude a ainsi estimé que l’élimination du biais racial de l’algorithme ferait doubler le nombre de patients noirs identifiés comme ayant besoin de soins supplémentaires.

Ainsi, la répétition de ce type de situation pourrait inciter les régulateurs à imposer des normes plus strictes sur l’utilisation de l’IA, notamment dans le domaine de la santé. Ils devraient notamment exiger une plus grande transparence dans le fonctionnement des algorithmes ainsi que la garantie que l’IA ne remplace pas l’évaluation humaine lorsqu’il s’agit de prendre des décisions qui impactent directement la vie des patients.

En attendant, l’issue de la bataille juridique entre Cigna et le cabinet Clarkson, cette affaire pourrait donc avoir des conséquences importantes sur l’avenir de l’IA au sein des assurances santé.

L’IA dans le secteur de la santé : une innovation qui doit être régulée

Comme le disait Frédéric Panchaud dans son article du 25 juin dernier : « Le cœur du sujet, c’est le manque de transparence ». Mais, à condition que ces innovations soient conçues avec éthique et surveillés en toute transparence, les algorithmes peuvent aussi être de puissants outils pour améliorer la qualité et l’efficacité des soins de santé.

Par exemple, une étude publiée dans la revue Nature en 2020 avait démontré que l’algorithme utilisé par Google Health dans ses mammographies détectaient mieux les cancers du sein que les radiologues : « en lisant les images, cette IA enregistrait moins de faux positifs et de faux négatifs que les médecins. »

Un autre algorithme en 2019, développé par l’université de San Diego en Californie, est parvenu à obtenir des performances aussi fiables que des pédiatres pour déceler des maladies chez l’enfant.

« C’est la première fois que l’intelligence artificielle parvient à imiter le raisonnement clinique d’un médecin », s’enthousiasmait alors le professeur Kang Zhang, professeur à la Faculté de médecine de l’Université des sciences et technologies de Macao et chercheur spécialisé dans l’intelligence artificielle.

Ces exemples montrent que la santé est un secteur où une transformation technologique grâce à l’intelligence artificielle pourrait être à la fois bénéfique mais aussi problématique pour la vie privée des patients ou l’accès aux soins.

C’est pourquoi, il est essentiel que les algorithmes utilisés dans le domaine de la santé soient soumis à des normes rigoureuses de responsabilité, d’audit et de validation. Les patients ayant le droit de savoir comment leurs données sont utilisées, comment les décisions sont prises et comment ils peuvent contester les résultats, les algorithmes ne doivent pas remplacer le jugement humain, mais plutôt le compléter ou le soutenir.

En conclusion, nous pouvons donc citer le Dr David Magnus, directeur du Centre d’éthique biomédicale de l’université Stanford : « Les algorithmes ne sont pas infaillibles. Ils doivent être testés, validés et surveillés. Et ils doivent être utilisés avec prudence et respect ».

Sur un sujet proche

Fin de vie : Comment des assureurs américains obéissent à un algorithme ?

Vous souhaitez être contacté par notre rédaction ?

    Vous souhaitez être contacté par notre service commercial ?