Publié par Gaia - Dreuz le 11 novembre 2021

Source : Publicsenat

L’ingénieure américaine Frances Haugen, à l’origine d’une série de divulgations sur les algorithmes utilisés par Facebook, où elle a travaillé de 2019 à 2021, était reçue mercredi par les sénateurs. Elle a dénoncé la course au profit dans laquelle s’est lancé le géant du numérique, quitte à fermer les yeux sur certains phénomènes de désinformation et de promotion des discours haineux.

Devenez « lecteur premium », pour avoir accès à une navigation sans publicité, et nous soutenir financièrement pour continuer de défendre vos idées !

En tant que lecteur premium, vous pouvez également participer à la discussion et publier des commentaires.

Montant libre







« Presque personne en dehors de Facebook ne sait ce qu’il se passe à l’intérieur de Facebook. » Et elle fait partie de cette petite poignée de privilégiés. Mercredi, le Sénat auditionnait l’Américaine Frances Haugen, ingénieure informaticienne, et employée entre 2019 et 2021 du réseau fondé par Mark Zuckerberg, avant de devenir lanceuse d’alerte. Cette spécialiste des algorithmes, a transmis au régulateur américain, au Congrès et à différents médias des centaines de documents internes au géant de la Silicon Valley, révélant que l’entreprise rechigne à lutter contre les effets nocifs qu’elle peut produire sur les utilisateurs du réseau, et plus généralement en matière de contenus haineux et de désinformation.

« Je crois que les produits de Facebook nuisent aux enfants, aggravent les clivages, nuisent à la démocratie », a expliqué Frances Haugen devant les commissions sénatoriales des Affaires européennes et de la Culture, de l’éducation et de la communication. « Les dirigeants savent comment rendre Facebook et Instagram plus sûrs mais refusent de faire les changements nécessaires, pour pouvoir faire passer leurs immenses bénéfices avant les gens ». Lancée dans une tournée européenne alors que l’UE examine le Digital Services Act, un règlement sur les services numériques qui prévoit d’encadrer l’utilisation des algorithmes, Frances Haugen a évoqué durant plus d’une heure certains des nombreux travers d’un réseau social qui revendique plus de 1,9 milliard d’utilisateurs dans le monde.

Des algorithmes au service du profit

« Facebook a fait face à plusieurs reprises à des conflits entre ses propres bénéfices et notre sécurité, et à chaque fois, l’entreprise a toujours choisi de résoudre ces conflits en faveur de ses propres profits », a relevé Frances Haugen devant les sénateurs. Cette spécialiste des nouvelles technologies pointe une rupture entre le Facebook de la fin des années 2000, proposant en priorité à ses utilisateurs des contenus liés aux cercles familiaux et amicaux, et le Facebook des années 2010 qui soumet les internautes à des contenus bien plus variés, mais aussi plus extrêmes.

« L’algorithme choisit toujours le contenu le plus clivant et le plus violent », explique Frances Haugen. « Il les hyperamplifie », car ces contenus sont susceptibles de faire réagir l’utilisateur, et plus l’utilisateur réagit, plus il passe du temps sur le réseau et consomme de la publicité. Et de citer l’exemple suivant : « En Allemagne, il y a eu un scandale parce que 65 % des personnes qui ont rejoint des groupes néonazis sur Facebook l’ont fait parce que l’algorithme leur avait suggéré. »

« Les algorithmes ont-ils été conçus dans cette intention originelle de faire exclusivement du profit, auquel cas peuvent-ils être corrigés, ou bien est-ce irréparable et le modèle économique définitivement toxique et pervers ? », a demandé la sénatrice Catherine Morin-Desailly. Selon Frances Haugen, « Facebook connaît énormément de solutions qui fonctionneraient partout dans le monde », mais préfère les laisser de côté lorsqu’elles induisent une baisse des revenus, notamment ceux générés par la publicité.

Des publics particulièrement vulnérables

Conséquence de l’exposition à des contenus violents : « La machine à générer des profits qu’est Facebook génère aussi de l’automutilation et de la haine de soi, notamment dans les publics les plus vulnérables », dénonce Frances Haugen. Ces différents effets pervers du réseau auraient même fait l’objet de recherches en interne. Les adolescentes seraient parmi les publics les plus sensibles à ce type de phénomène.

Par ailleurs, les veuves et les veufs, les personnes divorcées et celles ayant récemment déménagé seraient plus exposées que les autres à la désinformation sur Facebook : « Les personnes sont happées et consomment énormément de contenus parce qu’elles ont perdu leurs réseaux sociaux réels », explique Frances Haugen.

« Le problème, c’est que quand vous êtes hyperexposés, plus vous voyez une idée, plus elle vous semble réelle ». Ce qui aurait permis aux thèses complotistes et autres discours pseudo-scientifiques de proliférer sur le réseau pendant la crise du covid-19, via un nombre restreint d’utilisateurs. 80 % des messages contenant des informations sur le coronavirus auraient été reçus par seulement 4 % des communautés présentes sur Facebook. « Certaines personnes ont fait face à un déluge d’informations. »

Un angle mort sur la modération

Facebook ne dispose pas de collaborateurs suffisants pour comprendre les différents dialectes utilisés sur le réseau. De plus, ses systèmes de modération automatiques ne sont pas suffisamment pertinents, et peuvent être amenés à laisser de côté des contenus illicites, ou au contraire à supprimer ceux qui ne le sont pas. « Des discours contre-terroristes peuvent être étiquetés comme terroristes », note Frances Haugen.

« Combien de modérateurs francophones agissent pour Facebook ? », a interrogé le sénateur Laurent Lafon, président de la commission de la Culture, de l’éducation et de la communication. « L’entreprise ne le divulgue pas… parce qu’il y en a trop peu. Je ne connais pas le chiffre exact, mais en septembre 2020, 87 % du budget opérationnel était dépensé sur l’anglais », répond la lanceuse d’alerte. Selon elle, les trois-quarts des 30 000 modérateurs qu’emploie Facebook, la plupart basés aux Philippines, parlent d’abord anglais. « Facebook sait que la plus grosse menace pour l’entreprise ne peut venir que des États-Unis, donc du monde anglophone, ils sous-investissent dans les zones où ils ne se sentent pas menacées. »

Un manque criant de transparence

La lanceuse d’alerte a également insisté sur la nécessité de contraindre Facebook à communiquer davantage sur les données qu’il collecte, estimant que sur ce point, le géant du numérique est encore plus réticent que Twitter et Google à transmettre certaines informations. « Comment est-ce que le public est censé déterminer si Facebook résout les conflits d’intérêts de manière conforme à l’intérêt général, s’il n’a aucune visibilité et aucun contexte sur le fonctionnement réel de Facebook ? Cela doit changer », souligne Frances Haugen.

L’objectif : permettre à des chercheurs indépendants ou des universitaires de prélever des échantillonnages pour étudier les algorithmes mais aussi les comportements des utilisateurs. La publication et la diffusion de tels travaux pourraient d’ailleurs pousser l’entreprise à revoir ses priorités en termes de développement : « Si Facebook avait dépensé des milliards sur la sécurité je ne serais pas ici. Il y a un sous-investissement, avec seulement 1 000 ou 2 000 ingénieurs qui travaillent dessus », constate Frances Haugen.

La nécessité de renforcer la législation

« À maintes reprises Facebook a tenté d’aplanir des scandales en déclarant simplement : nous y travaillons. Cette dynamique doit changer », remarque Frances Haugen, qui considère que l’entreprise doit se soumettre à des audits et des contrôles externes. « Facebook ne peut pas être jury, témoin et procureur à la fois », martèle cette scientifique.

Elle salue notamment l’initiative européenne autour du Digital Services Act. « À mon avis, cette loi sur les services numériques, a le potentiel pour devenir une référence mondiale qui pourrait inspirer d’autres pays. […] La loi doit être forte et son application ferme, sinon nous perdrons cette occasion unique d’aligner l’avenir de la technologie et de la démocratie. »

Abonnez-vous sans tarder à notre chaîne Telegram, pour le cas où Dreuz soit censuré, ou son accès coupé. Cliquez ici : Dreuz.Info.Telegram.

Inscrivez-vous gratuitement pour recevoir chaque jour notre newsletter dans votre boîte de réception

Si vous êtes chez Orange, Wanadoo, Free etc, ils bloquent notre newsletter. Prenez un compte chez Protonmail, qui protège votre anonymat

Dreuz ne spam pas ! Votre adresse email n'est ni vendue, louée ou confiée à quiconque. L'inscription est gratuite et ouverte à tous