Télévision : “Coded Bias”, comment lutter face aux logiciels de reconnaissance faciale racistes, sexistes et transphobes ?

Surveillance, recrutement, logement… L’intelligence artificielle régit tous les pans de notre quotidien. Réalisé par Shalini Kantayya, le documentaire “Coded Bias : algorithmes et discrimination” met en exergue ses biais multiples.

Lorsque Joy Buolamwini, chercheuse au Massachusetts Institute of Technology Media Lab, découvre que le logiciel de reconnaissance faciale utilisé par le laboratoire de l’université ne reconnaît pas son visage, elle croit d’abord à une erreur. En réalité, elle vient de mettre le doigt sur une lacune majeure de ce type d’outils utilisés par Microsoft ou IBM : ils sont incapables de reconnaître les visages de femmes non blanches.

Depuis les années 1950, des hommes blancs façonnent l’intelligence artificielle à leur image, intégrant leurs préjugés à la technologie. Il n’est donc pas étonnant qu’un demi-siècle plus tard les algorithmes régissant notamment les programmes de reconnaissance faciale soient truffés de biais racistes, sexistes ou transphobes.

Dans le documentaire Coded Bias : algorithmes et discrimination, la réalisatrice Shalini Kantayya a suivi le combat admirable de Joy Buolamwini pour un encadrement légal de l’intelligence artificielle et une meilleure connaissance de ses failles.Vers une éthique algorithmique ? Coded Bias ne reste néanmoins pas enfermé dans les lignes de code et met le doigt sur les conséquences concrètes de ces discriminations algorithmiques.

Au Royaume-Uni, Silkie Carlo, présidente de l’association Big Brother Watch, sensibilise ainsi les citoyens aux erreurs des logiciels de reconnaissance faciale utilisés par les forces de l’ordre. On apprend notamment que les hommes noirs sont plus susceptibles d’être victimes d’erreur d’identification. Joy Buolamwini revient également sur le recrutement qu’Amazon a délégué à une intelligence artificielle et qui a conduit à évincer tous les profils féminins… Elle explique aussi que les personnes transgenres sont régulièrement « mégenrées » par les logiciels de reconnaissance faciale.

Télérama