MEMORABILIA

« Facebook: Mark Zuckerberg joue avec le feu ».

Scroll down to content

05 décembre 2020DEUX POIDS, DEUX MESURES

Des documents internes montrent que Facebook souhaite modérer les discours de haine contre les Noirs de manière plus agressive que les commentaires anti-blancs : gestion fine d’une réalité complexe ou délire d’apprentis-sorciers woke ?

Selon des documents internes, Facebook est en train de réviser ses algorithmes détectant les discours de haine sur le réseau afin de mieux détecter les discours haineux visant les populations noires, musulmanes ou bien la communauté LGBT que ceux visant les blancs. Avec cette hiérarchie du pire, Mark Zuckerberg joue avec le feu. 

Avec David Fayon. ATLANTICO, 5 décembre 2020.

Atlantico : Selon des documents internes, Facebook est en train de réviser ses algorithmes détectant les discours de haine sur le réseau. À l’avenir, l’entreprise va chercher à supprimer plus précisément les insultes à l’encontre des populations noires, musulmanes ou bien la communauté LGBT que celles visant les blancs. Cette pratique vise-t-elle réellement à mettre fin à des années d’ »indifférences raciale » dans leur algorithme ?

David Fayon : Déjà, il convient de souligner qu’il existe des biais dans les algorithmes. Ainsi par exemple les premiers algorithmes de reconnaissance faciale ne reconnaissaient pas les peaux noires (discrimination technologique alliée également au biais cognitifs des concepteurs majoritairement blancs) comme souligné par Aurélie Jean. Ensuite, les algorithmes peuvent modérer à tort du contenu pourtant licite et également laisser passer des discours haineux – et ce, quelle que soit la communauté visée. En outre, la modération d’un discours de haine est plus complexe que la modération de contenu interdit comme des images de personnes nues ou de violence.

Rappelons que le projet de Facebook, baptisé WoW, consiste à modifier les paramètres des systèmes de modération automatiques de Facebook afin de supprimer des propos haineux considérés comme « les pires des pires ». Même si cela correspond un peu à un « pénalty de compensation » car historiquement la modération de contenu en provenance de certaines communautés étaient plus forte et que cela répond à une demande légitime de la communauté black avec une prise de conscience qui s’est accentuée avec le mouvement « Black Lives Matter », le fait d’établir une hiérarchie n’est pas une bonne réponse. Cela équivaudrait à dire que certains propos sont pires que d’autres. Or en matière de racisme, toute forme est mauvaise, que ce soit le racisme anti-black, anti-asiatique, anti-blanc, etc. Dans un monde pur et parfait, la modération devrait être la même pour toute catégorie. Sinon, cela pourrait occasionner des tensions au sein de la société dans laquelle chaque citoyen est équivalent en matière de droits et de devoirs quelle que soit son origine avec un intérêt supérieur qui prime la race et la religion : l’appartenance à la nation, la concorde.

En outre, Facebook est sensible à ses sources de revenus. Du fait d’un boycott médiatisé relatif aux questions des droits civils en juillet dernier, l’entreprise de Menlo Park est poussée à agir pour corriger son algorithme par rapport au traitement des minorités et à mieux protéger les groupes sous-représentés. Pour autant la modération doit être équilibrée pour ne pas non plus porter préjudice à la majorité. L’exercice n’est pas simple.

Sur quelles données se base Facebook pour réaliser un tel tournant dans la modération des commentaires ?

Pour effectuer la modération, les algorithmes utilisés par Facebook attribuent des scores pondérés en fonction d’un préjudice perçu, qui est au demeurant quelque chose de subjectif. Désormais, la priorité serait plus grande pour – en reprenant un exemple donné par des journalistes américains ayant investigué – « les homosexuels sont dégoutants » que pour « les hommes sont des porcs ».

En dépriorisant certains commentaires car considérés car peu sensibles ou moins susceptibles d’être nuisibles, des propos à l’encontre de la majorité ne seront plus automatiquement supprimés par les algorithmes de Facebook. Cependant, des groupes de personnes critiquées et qui ne manifestent pas peuvent aussi un jour se révolter de façon explosive. On l’a vu en France avec le mouvement des Gilets Jaunes par exemple.

Facebook, qui voit son nombre d’utilisateurs stagner même si Instagram continue à progresser par ailleurs, reste sous le feu des critiques depuis le scandale Cambridge Analytica entre autres. Aussi le leader des réseaux sociaux cherche à ne pas perdre de comptes (et de revenus). Pour autant en pénalisant certaines catégories le risque est, si la modération ne convient pas, de voir des membres aller sur un autre réseau social.

Facebook entend se concentrer sur les propos considérés comme « les pires des pires ». Comment le réseau social va-t-il s’y prendre pour mettre en œuvre cette hiérarchie des insultes ?

Facebook devrait utiliser des coefficients selon les mots employés, les mots voisins un peu comme, dans le cadre des réactions à un post sur le réseau social, un partage a un coefficient plus fort qu’un commentaire long qui lui-même a plus d’importance qu’un commentaire court lequel a plus de poids qu’un émoji (J’aime, etc.). Certainement via des bases de données alliées à de l’intelligence artificielle pour déterminer ce qui est pire selon ses critères qui peuvent être aussi dictés par des questions d’ordre marketing.

Pour autant la modération algorithmique modère beaucoup trop à tort. L’idéal serait d’avoir un complément avec une modération humaine laquelle a un coût notable en traitement. Pour la réduire, le réseau social pourrait faire appel à des personnes faiblement rémunérées dans des pays où la main-d’œuvre est plus compétitive. Et là, si ce sont des personnes d’autres cultures qui ne perçoivent pas l’humour et certaines subtilités, nous allons avoir des sous ou des sur-modérations.

Y-a-t-il un risque d’une dérive idéologique des réseaux sociaux ?

Oui, nous avons une dérive potentielle avec un système de surenchère algorithmique et idéologique. Il existe d’autres possibilités d’ordre juridique. La personne tenant des propos racistes, révisionnistes peut être condamnée. Mais le processus est long.

Le vrai risque reste une balkanisation de la société où chaque communauté défend des intérêts catégoriels plutôt que l’intérêt de l’ensemble de la société. Il devrait aussi être possible de pouvoir s’exprimer et avoir des opinions différentes de celles majoritaires ou utiliser l’humour sans pour autant tenir des propos racistes ou diffamatoires. La ligne de crête est difficile et l’algorithme utilisé peut être une aide mais peut faire des erreurs. Ce n’est pas chose aisée.

Et comme disait Martin Luther King : « I have a dream that my four little children will one day live in a nation where they will not be judged by the color of their skin, but by the content of their character ». Puissions-nous avoir le même comportement des algorithmes. Il est grand temps de réenchanter Internet

****************

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

%d blogueurs aiment cette page :