top of page
T.sauvage

Facebook, à nouveau accusé

Dernière mise à jour : 10 mai 2023

Le 14 septembre le Wall Street Journal révèle des documents internes à la société Facebook. Dans l’émission 60 minutes (CBS news), le 3 octobre on découvre l’identité de la personne ayant communiqué ces documents au journal. Frances Haugen, ex-employée de Facebook, se montre pour la première fois au grand public.


Une nouvelle lanceuse d’alerte


Frances Haugen est diplômée de Harvard en management, elle poursuit par des études d’informatique puis elle est embauchée par Google, Pinterest, Yelp et enfin, Facebook en 2019. Elle travaille en tant que spécialiste des classements algorithmiques, c’est-à-dire la hiérarchisation du contenu sur l’application. Durant les dernières élections américaines Facebook créé la “civic integrity”, une équipe qui se charge de réguler la haine et les fake news sur les différentes applications du groupe. L’équipe sera cependant fermée après la fin des élections. Haugen est déçue et ne croit plus en la capacité,ou plutôt en la volonté, de Facebook à combattre la haine et les fausses informations sur ses plate-formes. Elle parle de “temporary changes” (changements temporaires). Suite à cela, elle quitte Facebook en mai 2021.



Révélations


Frances Haugen copie et fait sortir des documents internes à Facebook avant de quitter l’entreprise. Ces documents révèlent notamment l’apathie dont fait preuve Facebook sur la gérance des contenus violents, haineux ou faux circulant sur Instagram et Facebook.

“The thing I saw at Facebook over and over again was there were conflicts of interest between what was good for the public, and what was good for Facebook.” (La chose que j’ai vue chez Facebook encore et encore c’est qu’il y avait des conflits d’intérêts entre ce qu’il y avait de bon pour le public, et ce qu’il y avait de bon pour Facebook.), dit Frances Haugen dans une interview. Elle explique ensuite comment l’algorithme de recommandations du contenu fonctionne : le contenu provoquant une réaction forte chez le spectateur est celui qui sera le plus souvent recommandé. La violence, la haine provoquent ce genre de réactions. Elle précise: “Facebook makes more money when you consume more content.” (Facebook se fait plus d’argent si vous consommez plus de contenu). C’est donc dans l’intérêt du groupe de promouvoir des contenus problématiques. Cependant, des événements organisés sur Facebook confirment l’impact important et dangereux de ce système. En 2018, le pouvoir militaire Malaysien utilise Facebook pour ce qui sera qualifié de “nettoyage ethnique” envers les Rohingya. Le 6 janvier 2021 les émeutiers qui envahissent le Capitol après l’élection de Joe Biden, ont utilisé Facebook pour organiser l’émeute. 13% des adolescentes déclarent que l’application Instagram augmente leurs pensées suicidaires et 17% disent que cela empire les troubles de l’alimentation. Facebook a intentionnellement recommandé du contenu promouvant l'anorexie à des jeunes filles pour en étudier les effets. Ces événements ont mis en danger des populations entières, des démocraties et des enfants.

Les documents dévoilent également que Facebook connait et admet le danger de son système et l’impact qu’il a sur notre société. Frances Haugen va plus loin et dit: “The version of Facebook that exists today is tearing our societies apart and causing ethnic violence around the world.” (La version de Facebook qui existe aujourd’hui déchire nos sociétés et cause une violence ethnique dans le monde entier.)


La réplique de Facebook


Facebook n’a évidemment pas pu rester sans réponse face à ces accusations. Dans un message envoyé à l’émission 60 minutes, la directrice de la politique de communication de Facebook Lena Pietsch déclare que l’entreprise continue à travailler sur la régulation du contenu haineux, violent et erroné sur les différentes plate-formes appartenant à Facebook. Elle dit: “To suggest we encourage bad content and do nothing is just not true.” (Suggérer que nous encourageons de mauvais contenus et que nous ne faisons rien est simplement faux.) La responsable de la politique de contenu Monika Bickert dit de la lanceuse d’alerte Frances Haugen qu’elle a volé les documents et qu’elle ne comprend pas la façon de fonctionner de Facebook

Les réfutations de Facebook paraissent peu argumentées comparées à l’ampleur des accusations. Comment est-il possible qu’on ait laissé une entreprise à but lucratif avoir un impact aussi important sur nos sociétés ? Ces révélations prouvent le besoin urgent de réguler le pouvoir des entreprises comme les GAFAM (Google, Apple, Facebook, Amazon, Microsoft).

M.Sauvage





Comments


  N'hésitez pas à partager cet article pour nous soutenir !

bottom of page