Santé : Selon une nouvelle étude, il est essentiel de tenir compte de la race et de l’origine ethnique pour lutter contre le biais des algorithmes médicaux

Les algorithmes sont utilisés pour prendre des décisions en matière de soins de santé et peuvent souvent être plus précis qu’une évaluation clinique, mais ils comportent également un risque de partialité et de discrimination. L’étude, publiée dans le dernier numéro de Health Affairs, souligne que si une précaution courante consiste à supprimer complètement les données relatives à la race et à l’origine ethnique, “cette approche est malavisée”. En fait, la connaissance, et non l’ignorance, de la race et de l’origine ethnique aide à combattre les préjugés, ont déclaré les chercheurs.

Si les données autodéclarées constituent l’étalon-or pour la race et l’ethnicité, l’estimation (imputation) de ces données peut aider à identifier et à corriger les biais. Les méthodes validées existantes, comme le géocodage bayésien amélioré des noms de famille (BISG), permettent de prédire la race et l’ethnicité et d’évaluer l’équité en matière de santé. Elles ont été développées par la RAND Corporation, Carnegie Mellon, Kaiser Permanente et les Centers for Medicare and Medicaid Services pour atténuer les limites des données Medicare et estimer la probabilité que chaque bénéficiaire s’identifie à un certain groupe racial ou ethnique.

Les stratégies fondées sur la valeur, bien que destinées à améliorer la qualité des soins, peuvent exacerber les disparités selon la façon dont elles sont conçues. Les prestataires qui obtiennent de mauvais résultats dans les mesures qui influencent les paiements incitatifs sont plus susceptibles de s’occuper de patients défavorisés et qui peuvent donc recevoir des remboursements moins importants, ce qui rend plus difficile l’amélioration de la prestation des soins.”

L’application de l’équité algorithmique peut contribuer à garantir que les paiements ne sont pas corrélés à la composition raciale et ethnique de leurs patients. Il faut pour cela estimer ces données démographiques et les agréger au niveau du prestataire.

Bien que les méthodes d’imputation soient très précises, l’étude note qu'”il y aura toujours une certaine incertitude quant à la race et à l’origine ethnique d’une seule personne”. Par conséquent, si un prestataire doit utiliser un algorithme qui requiert la race et l’origine ethnique pour prendre une décision clinique pour un patient, il doit chercher à obtenir des données autodéclarées. Cependant, lorsque les données imputées sont agrégées, l’incertitude concernant une seule personne a un “impact limité” sur l’incitation à la performance finale ajustée en fonction de l’équité que reçoit un fournisseur.

En fin de compte, si le biais des algorithmes dans le domaine des soins de santé suscite des inquiétudes, il n’est pas propre aux “biais humains qui engendrent des disparités dans les soins de santé et qui sont souvent récapitulés par les algorithmes”, conclut l’étude.

S’il est difficile de faire respecter l’équité dans les décisions humaines, des approches méthodologiques comme les BISG peuvent aider à faire respecter l’équité dans les algorithmes.

Les méthodes validées existantes, comme le géocodage bayésien amélioré des noms de famille (BISG), permettent de prédire la race et l’ethnicité et d’évaluer l’équité en matière de santé.

Fierce Healthcare