Royaume-Uni : Licenciés par Uber, ils accusent l’algorithme de vérification d’identité d’être “raciste”

Au Royaume-Uni, des travailleurs d’Uber et Uber Eats appartenant à des minorités ethniques ont été exclus de la plateforme par les algorithmes conçus par Microsoft.

Des livreurs qui travaillent jusqu’à 16 heures par jour congédiés du jour au lendemain, en raison d’algorithmes de vérification d’identité imparfaits. Au Royaume-Uni, plusieurs chauffeurs Uber et livreur Uber Eats ont témoigné de cette discrimination. Ils ont en commun de faire partie de minorités ethniques et seraient nombreux à avoir été exclus de la plateforme sans justification, selon des syndicats.

Pour comprendre la situation, il faut revenir sur une fonction de vérification d’identité mise en place par Uber au cours des dernières années, afin de sécuriser les trajets de leurs passagers, les livraisons de repas – via Uber Eats – ou encore éviter la sous-location abusive de certains comptes.

Erreurs des algorithmes

L’entreprise américaine impose désormais des vérifications régulières d’identité en invitant les chauffeurs et coursiers à envoyer un selfie depuis leur mobile. Une photo que des algorithmes comparent au portrait associé au profil du travailleur, dans la base de données d’Uber.

D’après les témoignages, des travailleurs profitant pourtant d’un niveau de satisfaction maximal de la part des clients ont été exclus de l’application après cette vérification d’identité: les algorithmes utilisés par Uber n’étaient pas capables de les reconnaître correctement, les associant de fait à des fraudeurs.

Malgré les nombreuses relances de coursiers et chauffeurs, dont l’intégralité des revenus provenaient d’Uber, l’entreprise s’est montrée inflexible, leur rappelant que leur exclusion était “définitive”. L’appartenance des chauffeurs et livreurs concernés à des minorités ethniques n’est pas anodine: les algorithmes utilisés par les géants du numérique sont régulièrement accusés d’importants biais selon la couleur de peau.

Algorithmes “racistes”: des accusations récurrentes

D’après une étude publiée en 2018 par des spécialistes du MIT et de Microsoft, l’algorithme utilisé par Uber (et justement conçu par Microsoft) se montre bien moins performant avec les personnes noires qu’avec les personnes blanches.

Données de l'étude "Proceedings of Machine Learning Research" (2018)
Données de l’étude “Proceedings of Machine Learning Research” (2018) © MIT / Microsoft

Lors de l’expérience, qui avait testé l’intelligence artificielle sur 1270 personnes, l’algorithme de Microsoft n’avait commis aucune erreur lorsqu’il s’agissait de reconnaître des hommes blancs, avait commis 1,7% d’erreurs pour reconnaître des femmes blanches, contre 6% d’erreurs dans le cas d’hommes à la peau foncée et 20,8% dans le cas de femmes à la peau foncée.

Les algorithmes, dont le fonctionnement repose sur des bases de données de fait issues du passé, sont régulièrement accusés de biais racistes en répétant mécaniquement certains biais humains. Différentes études confirmant ces biais ont poussé plusieurs grandes villes américaines à mettre fin à l’utilisation de la reconnaissance faciale à des fins sécuritaires.

Dans un registre différent, des algorithmes d’aide à la décision médicale avaient été accusés de privilégier les personnes blanches pour bénéficier d’une greffe de rein dans la région de Boston, toujours aux Etats-Unis.Sur le même sujet

Uber rappelle que la suppression du compte d’un travailleur se fait toujours suite à une “décision humaine”, mais n’a pas souhaité confirmer ou infirmer la réalisation d’audits sur la pertinence de ses systèmes de vérification d’identité. De son côté, Microsoft n’a pas souhaité apporter de commentaire.

Wired