MEMORABILIA

Frances Haugen : « Le métavers de Facebook est une bombe à retardement »

Scroll down to content

La lanceuse d’alerte de Facebook, Frances Haugen, est partie en croisade : en Europe, elle a dénoncé le manque de transparence du réseau et alerte contre les dangers des nouveaux projets de Mark Zuckerberg.

Durée : 8 minFacebook, qui vient de se rebaptiser "Meta", est au centre de nouvelles polémiques.

L’EXPRESS. 14 novembre 2021

Pas l’ombre d’un doute, le discours est bien rodé, même si la voix est un peu éraillée. Au terme d’un « roadtrip » de près d’un mois en Europe, Frances Haugen, l’ex-employée de Facebook à l’origine de la fuite de milliers de documents révélant les insuffisances du réseau dans sa politique de modération des contenus, a reçu L’Express. Chapeautée par son avocat, un spécialiste de la protection des lanceurs d’alerte, la jeune femme est revenue sur le manque de transparence des algorithmes de la plateforme. Surtout, pour la première fois, elle alerte l’opinion publique sur les dangers de la mue opérée par Mark Zuckerberg et son groupe dans les métavers, ces univers virtuels, potentiellement encore plus addictifs. Interview exclusive. 

L’Express : Vous venez de terminer un voyage qui vous a menée devant les Parlements britannique, allemand, français et européen, qu’en tirez-vous comme expérience ? Les opinions publiques et les gouvernements ont-ils pris conscience du comportement dangereux de Facebook ?   

Frances Haugen Je pense que cette fois les choses sont différentes, car nous avons pu fournir des preuves sur l’inaction de l’entreprise. A chaque scandale, la réponse a toujours été la même : « On s’excuse, c’est vraiment difficile et on y travaille. » Et c’est tout. Facebook n’a jamais donné de détail sur ce qu’il faisait pour garantir la sécurité des données personnelles, sur le contrôle des contenus haineux… Or maintenant tout le monde sait que l’entreprise est consciente des problèmes et des solutions à apporter pour rendre la plateforme plus sûre, mais qu’elle refuse de le faire parce qu’elle n’a jamais voulu sacrifier la moindre petite part de ses bénéfices au profit de la sécurité de tous.  La Loupe, le podcastNouveau ! Ecoutez l’info de plus près
Le matin, dès 6hJe découvre gratuitement
LIRE AUSSI >> Meta : comment Zuckerberg construit pièce par pièce un empire toujours plus puissant

Pourtant, Facebook avait annoncé en 2019 la création d’une sorte de « cour de justice » – le « oversight board » – , chargée de régler les litiges liés à la modération des contenus sur le réseau social. Cet organe est-il inutile ? 

Ce conseil de surveillance est composé de personnes très intelligentes et très bien intentionnées. Mais la façon dont il fonctionne aujourd’hui est totalement défectueuse. La méthode n’est pas la bonne, ils agissent a posteriori, en ne s’intéressant qu’aux contenus qui doivent être supprimés. Il faudrait que ses membres se demandent comment les algorithmes de classement à l’origine des messages mis en avant sur le fil d’actualité des utilisateurs, et qui se sont révélés particulièrement pervers, peuvent être modifiés et améliorés. Je sais que certaines personnalités de cet organisme souhaiteraient avoir un rôle beaucoup plus proactif… LIRE AUSSI >> « Facebook Files » : quatre pistes pour reprendre le pouvoir sur les géants de la tech

Vous parlez justement des algorithmes. Personne ne sait aujourd’hui qui les conçoit ou les modifie ? Sont-ils d’une telle complexité qu’ils sont hors de contrôle ?  

Facebook a créé un mur autour de ses algorithmes et personne ne sait vraiment ce qu’il s’y passe. Pour prendre une analogie, c’est comme si vous ne saviez rien de ce que vous mangez ou de la voiture que vous conduisez. Dans l’industrie alimentaire, on ne dit pas aux industriels ce qu’ils doivent produire mais on leur impose de révéler la composition de leurs plats. Nous devrions faire pareil avec Facebook. Chaque fois qu’un responsable du réseau social est auditionné sur le fonctionnement des algorithmes, la même réponse est toujours avancée : « Ces décisions sont prises par des comités ». Comités dont nous ne connaissons rien. Or, si une ou des personnes étaient nommées responsables de leur programmation, dont l’impact affecte des centaines de millions de personnes, ils prendraient davantage de précautions dans chacune de leurs décisions.  

Mais comment fait-on concrètement pour imposer cette transparence ? 

Le Digital Services Act (DSA), actuellement en discussion au Parlement européen, fait partie de la solution. En s’unissant, les pays peuvent atteindre une masse critique pour imposer leurs vues. L’un des objectifs de ma tournée européenne a été de rappeler aux opinions publiques, aux gouvernements que nous avons le pouvoir d’agir même si Facebook nous a convaincus que rien ne pouvait être fait. Beaucoup de solutions existent. 

Parmi ces solutions, il y a celle du démantèlement. Pourquoi n’y êtes-vous pas favorable ? 

Il est si facile de hurler au démantèlement de l’entreprise en séparant Facebook d’Instagram et de WhatsApp ! Mais cela ne réglerait rien. Je propose plutôt une régulation reposant sur trois piliers. Le premier concerne la transparence. Facebook comme toutes les plateformes devrait être obligé de divulguer toutes les nuisances, tous les biais qu’il engendre et qu’il aurait identifiés, même s’ils ne sont pas illégaux en tant que tels. Le deuxième pilier repose sur l’échange avec la société civile, les parents, les régulateurs. Et, enfin, le troisième implique sa responsabilité. Les plateformes devraient alors expliquer pour chacun des préjudices identifiés ce qu’elles comptent faire pour y remédier. Des objectifs globaux devraient être ainsi fixés et contrôlés dans le temps. Grâce à ce cadre, ces entreprises et leurs dérives seront exposées aux yeux de tous et elles seront alors prêtes à sacrifier un peu de leur profit afin d’assurer la sécurité de leurs utilisateurs. 

Pensez-vous que beaucoup d’autres employés en interne partagent votre point de vue ? 

Oui ! J’ai été contactée par un nombre étonnamment élevé de mes anciens collègues, heureux de ces révélations car ils sentent que l’entreprise va devoir changer. Je crois savoir qu’un certain nombre d’entre eux se sont manifestés pour porter plainte auprès des autorités.Nous vivons à une époque où la technologie s’accélère et le droit est toujours à la traîne. Dans ce cadre, le rôle des lanceurs d’alerte devient de plus en plus important. Mon espoir est que je puisse montrer le chemin… LIRE AUSSI >> Facebook Files : les leçons de Frances Haugen sur le plus grand réseau social du monde

Tout le monde se focalise sur Facebook mais les autres plateformes fonctionnent-elles mieux ? 

Toutes sont concernées par les mêmes problèmes. Mais certaines ont fait des choix différents. Le cas de Twitter est très intéressant. Chez eux, l’équipe chargée de la surveillance des discours haineux n’est pas chapeautée par la même personne qui gère les relations avec les hommes politiques et les gouvernements. Il n’y a donc pas d’interférences et de décisions contraires aux intérêts des utilisateurs. Cette séparation est cruciale. Il faudrait faire la même chose chez Facebook, où les deux équipes rendent des comptes à une seule personne… Mark Zuckerberg. 

Que pensez-vous des autres réseaux sociaux comme Telegram et Discord réputés pour avoir de meilleures pratiques ?  

J’adore Discord ! Je pense que c’est un excellent exemple de réseau social qui fonctionne bien. L’algorithme ne vous dit pas ce que vous devez lire ou voir, il affiche les informations par ordre chronologique. Quand vous êtes sur Discord, c’est comme si vous étiez dans une vraie pièce et qu’il y avait une conversation. Et une fois que cette conversation est terminée, les gens se déplacent dans de nouvelles pièces.  

La vitesse de circulation des informations se fait en un clic. Ne faudrait-il pas aussi ralentir ce flux? 

Effectivement et il existe des solutions. On peut contraindre les internautes à cliquer sur un lien avant de le partager ou d’attendre au moins 10 secondes sur un contenu avant de l’échanger. Je vous garantis que cela peut avoir un impact parce que les gens auront le temps de se demander : « Est-ce que j’ai vraiment envie de faire cela ? » Un autre levier concerne la viralité d’un contenu. Aujourd’hui, vous pouvez y être exposé car un de vos « amis » a vu une information sur le profil d’un autre « ami » et vous le partage en un clic, cela n’a pas de sens. Vous n’avez aucun lien avec la première personne qui a diffusé l’information… Il faudrait contraindre les utilisateurs à copier et coller le contenu avant de l’échanger. En développant des freins comme celui-là, la viralité serait ralentie. 

Facebook est en train de se transformer. Que pensez-vous du métavers ?  

Le métavers est un vrai danger. Il pourrait donner encore davantage d’influence à Facebook. Je m’explique. Quand vous allez mettre votre casque de réalité virtuelle, vous vous connecterez à un monde merveilleux : vous serez plus beau, mieux habillé, votre appartement sera plus grand… Et lorsque vous l’enlèverez vous reviendrez à la réalité, nécessairement plus terne. Imaginez ce que cela pourrait produire chez des enfants et des adolescents… C’est une bombe à retardement. Je ne sais pas comment ce métavers va voir le jour ni comment il sera géré. Mais c’est exactement le genre de projet sur lequel la société civile devrait être consultée afin de contraindre Facebook à donner des gages pour encadrer la mise en place d’un tel système et à élaborer des garde-fous. Ils ne le feront pas d’eux-mêmes. LIRE AUSSI >> Qu’est-ce que le métavers, le nouveau pari de Facebook

Sont-ils déjà très avancés sur le métavers ? 

Je n’ai jamais travaillé sur ce projet. Mais je sais qu’ils avancent très vite. D’ailleurs ils veulent recruter 10 000 personnes pour cela alors qu’il y a un manque d’effectifs partout dans la société, et notamment sur la modération. Les dirigeants n’ont jamais travaillé ailleurs et ne savent pas comment gérer la croissance de telles équipes. Ils ont été propulsés à 19 ou 20 ans à la tête de ce groupe et n’ont connu que ça. Ils tirent même une fierté de ce manque d’effectifs en disant : « Nous accomplissons des choses impossibles avec beaucoup moins de ressources que les autres. » Dès lors, les salariés sont récompensés pour avoir réussi à gérer des problèmes avec peu d’effectifs. 

Au-delà de Facebook, sentez-vous une volonté politique de s’attaquer aux autres grands groupes de la tech comme cela a pu se passer avec l’industrie du tabac ? 

Le parallèle avec l’industrie du tabac est le bon. Ces entreprises ont longtemps affirmé que les cigarettes avec filtre étaient plus saines, moins toxiques pour les fumeurs. Or les scientifiques ont démontré que c’était l’inverse : le filtre pousse les gens à fumer davantage. Comme pour l’industrie du tabac, des chercheurs devraient pouvoir étudier de façon indépendante l’impact de Facebook sur la société et remettre en cause son discours marketing.  

Et si on n’arrive pas à leur imposer ? Faut-il, alors, interdire Facebook ? Après tout, la Chine l’a fait. 

Je ne pense pas que ce soit la bonne solution. Je pense plutôt qu’il faudrait faire émerger un concurrent en Europe. J’ai travaillé pour Google+ [NDLR : le projet de réseau social du moteur de recherche] qui, à tort, a été considéré comme un échec. On l’oublie mais Google a gagné de l’argent grâce à cela. L’Europe pourrait tout à fait créer une alternative comme Google+ en investissant massivement afin de ne plus envoyer 6 à 8 milliards de dollars en Californie chaque année. 

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

%d blogueurs aiment cette page :