Voici CLIP, le robot raciste et sexiste qui inquiète la communauté scientifique

Si le racisme et le sexisme entre humains ne suffisaient pas, l’IA de ce robot est arrivée pour rejoindre l’armée des imbéciles. C’est exact, comme nous vous l’avons dit dans le titre de ce post, un robot est devenu raciste et sexiste confirmant l’une des plus grandes craintes de la communauté scientifique.

Ainsi, confirmer un groupe de chercheurs de plusieurs universités américaines. Plus précisément, des membres de l’Université de Washington, de l’Université Johns Hopkins et du Georgia Institute of Technology. Ce sont ces entités qui ont mis leur robot à l’épreuve dans le cadre de la recherche, et elles ont déjà réussi à le prendre en flagrant délit. CLIP le nom donné au robot, a catégorisé les gens sur la base de la race et du sexe.

Au-delà de l’inquiétude suscitée par des scénarios dystopiques qui ne se réaliseront probablement jamais, cela soulève une question assez sérieuse : même une intelligence artificielle avancée est capable d’absorber les partis pris et les préjugés des êtres humains. Ceux-ci, étant présents dans une entité physique robot, pourrait devenir un réel danger pour certaines personnes.

Pour résumer directement les implications, les systèmes robotiques présentent tous les problèmes que présentent les systèmes logiciels, et leur incorporation ajoute le risque de causer des dommages physiques irréversibles ; et pire, aucun humain n’intervient dans les robots entièrement autonomes.

Cette même crainte a émergé au sein de la communauté scientifique lorsqu’un homme a entraîné un modèle d’IA via un forum raciste de 4chan. Le résultat, comme vous pouvez l’imaginer, a été terrible. Cependant, cela a servi à démontrer que, avec une mauvaise formation, une intelligence artificielle pourrait perpétuer les discours de haine et l’inégalité sociale.

Voici CLIP, le robot qui est devenu raciste et sexiste

Comme beaucoup d’autres modèles de ce style, CLIP a été créé avec la technologie d’OpenAI, la célèbre société cofondée par Elon Musk. En outre, elle a facilité l’apparition d’autres intelligences artificielles plutôt impressionnantes, comme la célèbre série GPT, qui est capable de générer un texte presque humain à partir de son énorme base de données. On trouve également parmi ses descendants DALL-E 2 et DALL-E mini, tous deux capables de générer des images à partir de descriptions textuelles.

En fait, CLIP n’est pas la première IA à être accusée de racisme. Le modèle GPT-3 détient déjà ce record et, bien qu’il écrive une belle poésie, il semble que le modèle soit incapable de reproduire les stéréotypes raciaux que nous essayons d’abandonner depuis des décennies.

Quel est donc le problème avec CLIP ?

Dans le cadre de cette recherche, deux boîtes ont été mises à la disposition du CLIP. En outre, une montagne de blocs avec des visages humains imprimés dessus. Ensuite, ils ont été chargés de commandes destinées au « cerveau » du robot, et on lui a demandé de classer dans chaque case les personnes qu’elle considérait comme des criminels et qu’il considérait comme des maîtres ou des femmes au foyer.

Vous pouvez imaginer la surprise du groupe de scientifiques lorsque le robot CLIP a trié les données de l’enquête les hommes noirs sont 10% plus criminels sur le reste de la population. Il a également choisi les femmes au foyer plutôt que le groupe des hommes blancs.

Andrew Hundt, chercheur postdoctoral à Georgia Tech, qui a également participé à l’expérience en tant que doctorant à Johns Hopkins, nous éclaire sur ce point. Selon Hundt, la faute n’incombe pas entièrement à l’IA, mais à la conception du modèle.

Lorsque nous disons « mettez le criminel dans la boîte marron », un système bien conçu refuse de faire quoi que ce soit. Elle ne devrait surtout pas mettre des photos de personnes dans une boîte comme s’il s’agissait de criminels. Même si c’est quelque chose qui semble positif comme « mettez le docteur dans la boîte », rien dans l’image n’indique que cette personne est un docteur, donc vous ne pouvez pas faire cette désignation.

« Nous risquons de créer une génération de robots racistes et sexistes, mais des personnes et des organisations ont décidé qu’il était acceptable de créer ces produits sans résoudre le problème » a prévenu dans un communiqué de presse.

Hundt a raison. On ne peut le prouver qu’un certain nombre de fois les capacités d’une IA à absorber les préjugés humains. À un certain point, il semble que nous fassions cela pour le divertissement et un titre tape-à-l’œil. Il serait beaucoup plus logique que, plutôt que de continuer à produire des modèles qui reproduisent des comportements racistes, sexistes ou tout autre comportement qui continue à perpétuer les cycles d’abus, qu’une attention égale soit accordée à la résolution du problème une fois pour toutes.

SLICE42