Que peut-on faire pour stopper la radicalisation sur Facebook et YouTube ?

La radicalisation ne s’opère pas seulement dans les recoins obscurs du Net, mais aussi sur Facebook et YouTube. En cause, la logique des algorithmes de ces plateformes, qui proposent des contenus toujours plus extrêmes.

Un après-midi d’été ennuyeux, quand j’étais enfant, ma sœur et moi avons harcelé mon père pour qu’il nous emmène dans un nouvel endroit. Il a réfléchi un moment et nous a demandé si nous voulions aller dans un nouveau parc près de chez nous. Nous étions stupéfaites d’apprendre qu’il y avait un parc dans notre quartier dont nous n’avions jamais entendu parler. Notre père nous demanda de bien réfléchir. “Dell Park, dit-il, c’est son nom. Vous voyez où il se trouve?”

Nous nous sommes immédiatement lancées dans diverses spéculations, passant près d’une demi-heure à discuter des endroits où ce parc pouvait bien se trouver dans notre petite ville. Après avoir dressé en vain la liste de toutes les options, nous avons abandonné, et mon père accepta de nous emmener. Après quatre-vingt-dix secondes de marche, il s’arrêta et pointa du doigt une plaque de rue : “Dell Park”. Nous avions oublié que c’était le nom de la rue parallèle à la nôtre.

Juste sous nos yeux

Mon père s’empressa d’aller raconter sa blague au voisin, qui ria de bon cœur. Concentrées sur notre première idée, nous étions complètement passées à côté de la réponse qui se trouvait pourtant sous nos yeux. Ce jour-là, nous n’avons pas seulement appris que la bonne réponse n’est pas toujours de la catégorie attendue, mais qu’il est très facile de se laisser détourner de la vérité par ce qui ressemble à une solution évidente.

Le 8 décembre 2020, un rapport d’enquête néozélandais sur les attentats de Christchurch a été publié. Ses auteurs ont examiné les circonstances des deux fusillades qui ont éclaté en mars 2019 et fait 51 morts ainsi que 40 blessés dans deux mosquées de la ville. Ces attentats ont rapidement attiré l’attention des médias internationaux, pas seulement en raison de leur caractère incroyablement violent et raciste, mais à cause des liens révélés entre leur auteur et des groupes d’extrême droite opérant sur Internet.

Le terroriste a filmé et diffusé en direct les dix-sept premières minutes de l’attentat sur Facebook – durant lesquelles on l’entend dire : “Rappelez-vous, les gars, abonnez-vous à PewDiePie”, soit les termes exacts de l’appel lancé par le Youtubeur Felix Kjellberg [accusé de propos racistes et antisémites]. Avant de passer à l’acte, le terroriste avait posté un “manifeste” de 74 pages sur le tristement célèbre forum 8chan. Rempli de blagues d’initiés, le message avait tout d’un shitpost – le genre de divagation absurde ou ironique visant seulement à provoquer des réactions d’internautes.

Spéculations hâtives

À l’époque, les commentateurs ont très vite expliqué la radicalisation du terroriste par l’existence d’une culture de l’extrême droite sur Internet. Des auteurs – moi compris – ont fait le lien entre l’acte du terroriste et certains mèmes circulant dans des recoins cachés du web. On a même attribué l’attentat au déclin du site 8chan, finalement fermé après le retrait de Cloudflare, l’entreprise chargée de sa sécurité sur Internet, après deux autres fusillades de masse liées à ce site.Jusqu’au début de décembre, toutes ces assertions relevaient de la spéculation.

À en juger par les mèmes utilisés par le terroriste pendant le carnage et dans son manifeste, il paraissait assez évident qu’il s’agissait d’un homme séduit par des sites racistes. Si ces hypothèses n’étaient pas infondées, elles ne se révèlent aujourd’hui qu’à moitié vraies : le rapport d’enquête montre qu’en dépit de ses liens avec ces forums c’est sur Facebook et YouTube que le terroriste s’est radicalisé. La Première ministre néozélandaise, Jacinda Ardern, a présenté ses excuses pour ces“failles” de sécurité, avant de souligner que le terroriste ne “postait pas souvent de commentaires” sur des sites identifiés comme dangereux et que c’est sur YouTube qu’il a trouvé “une source d’information et d’inspiration significative”.

“C’est un aspect du dossier dont je compte discuter directement avec les dirigeants de YouTube”, a-t-elle déclaré.Le rapport d’enquête fait apparaître d’autres détails de l’historique en ligne du terroriste,notamment sa fréquentation du groupe Facebook extrémiste The Lads Society, ainsi que ses généreuses contributions financières à plusieurs organisations d’extrême droite. Il consultait des sites comme 4chan et 8chan, mais ne figurait pas parmi les membres actifs.

Réseaux grand public

Dans les semaines et les mois à venir, les chaînes, les vidéos, les posts et les pages Facebook que suivait le tueur de Christchurch vont être surveillés de plus près. Ce travail est important et pourrait éviter la radicalisation d’autres individus. Mais ces attentats nous rappellent également un autre sujet que nous abordons trop tard : le fait que la radicalisation ne se cantonne pas à des recoins d’Internet. C’est un phénomène qui se déroule sur les réseaux sociaux grand public que la plupart d’entre nous utilisons.Longtemps, YouTube et Facebook ont été épargnés par cette vérité dérangeante.

Si les deux plateformes reconnaissent avoir des problèmes sur les questions de désinformation et les théories du complot, elles se contentent de les régler par des demi-mesures et de manière très ponctuelle.Mais nous avons aujourd’hui la preuve que le parcours des utilisateurs les plus extrémistes sur ces sites n’est pas celui d’individus simplement abusés par de la désinformation ou une théorie du complot en particulier.

Vision du monde altérée

Ces internautes voient leur vision du monde radicalement transformée, ce qui aboutit à une volonté de nuire et à la mort d’innocents. C’est un processus de chaque seconde qui exploite la biochimie des mécanismes cognitifs pour amener ces personnes à avoir des idées dangereuses et radicales – et cette évolution est rarement réversible.La réputation a sans doute été le principal facteur de distorsion de cette réalité. Il est facile de qualifier 4chan de site raciste quand on y trouve des injures racistes à presque chaque page ; ce n’est pas aussi simple quand on parle de YouTube.L’image de Facebook, elle, a été écornée par le scandale Cambridge Analytica et la désinformation généralisée qu’on y trouve, mais le réseau n’a toutefois pas la réputation d’un distributeur de fake news.

Ce n’est pas là, pensait-on, que l’on dérive vers les groupes néonazis.Finalement, YouTube et Facebook peuvent toujours rejeter la faute sur 8chan, 4chan,voire Reddit, où les utilisateurs tiennent souvent des propos plus radicaux et où la confrontation des idées fait plus d’étincelles. Les grands sites peuvent arguer que, s’ils sont peut-être le point de départ de la radicalisation, ils n’en sont toutefois pas les véritables artisans.

Neutralité de façade

Cette ligne de défense est aujourd’hui mise à mal par le rapport d’enquête néozélandais.Ces deux plateformes ont à présent l’obligation de prendre position – ce qu’elles ont toutes les deux longtemps évité de faire.Pendant des années, YouTube et Facebook se sont abrités derrière les principes de neutralité et une attitude prétendument apolitique qui leur permettait de faire taire les critiques jusqu’à la prochaine et inévitable crise. Ce faisant, les deux réseaux ont laissé un problème sérieux, mais gérable, se muer en quelque chose de bien plus pernicieux.Sur YouTube, la radicalisation est un élément tellement central de l’expérience de certains utilisateurs que l’entreprise va devoir mettre en œuvre des changements radicaux pour éliminer ce risque. Le site doit être entièrement restructuré ou même fermé afin d’éviter qu’un nombre significatif d’utilisateurs ne soient entraînés sur la même pente.

Algorithme pernicieux

Dans l’immédiat, YouTube pourrait modifier en profondeur ses termes et conditions d’utilisation pour réduire les contenus racistes et d’extrême droite. Il pourrait changer son algorithme dont la logique est de proposer des contenus toujours plus extrêmes. Mais ces modifications impliqueraient pour le site qu’il renonce à l’un des arguments essentiels qui poussent les internautes à revenir sur la plateforme.

YouTube sait qu’il est plus facile – et financièrement plus intéressant – de reconnaître chaque problème au cas par cas, puis de passer à autre chose. C’est donc sa stratégie :l’entreprise bricole son algorithme à la marge, ajuste ses règles et annonce ces modifications avec tambours et trompettes, alors qu’en réalité elle ne fait à peu près rien pour empêcher la radicalisation.Becca Lewis, spécialiste des nouvelles technologies, l’écrivait récemment: “Il y a souvent un grand fossé entre ce que YouTube dit faire et ce que les créateurs de contenus et les utilisateurs constatent. L’ironie de cette histoire, c’est qu’en prétendant rester apolitique YouTube ne cesse de faire le choix très politique de ne pas se préoccuper des communautés les plus vulnérables et de ne pas les protéger.”

L’autre raison qui nous donne le sentiment qu’il est impossible d’avoir cette conversation est que la déradicalisation est un travail difficile. On sait comment empêcher la radicalisation, mais que faire des dizaines de millions de gens qui ont déjà franchi le cap ? Le fait est que l’on ne sait pas vraiment comment aider ceux qui ont été victimes de ce processus. Il n’existe aucune règle, simple ou complexe, pour les accompagner. Et si YouTube assume sa responsabilité en la matière, il lui faudra également contribuer à trouver des solutions.

Nous devons garder tout cela à l’esprit et tout faire pour forcer la main de ces plateformes que nous savons à présent responsables. L’idée que la radicalisation ne se produit que dans les recoins obscurs de la Toile n’est qu’une demi-vérité. Plus vite nous reconnaîtrons qu’elle a lieu sur les plateformes que nous utilisons tous, plus vite des changements pourront être faits pour éviter la répétition de tragédies comme celle de Christchurch.Seule une action radicale peut garantir que les réseaux sociaux ne soient plus des viviers de l’extrême droite.

New Statesman