Privacy de Warme Winkel & Wunderbaum « Dans le système Facebook, seul le juge connaît la loi.» crédit photo dr
Chronique Doit-on assimiler la censure du plus grand des réseaux sociaux, sans distinction du message et du contenu, à une atteinte à la liberté d’expression ?
Interdit d’expression durant trois jours sur le réseau privé Facebook pour avoir publier la semaine dernière une image de comédiens où apparaît une paire de seins. Le fait est presque devenu banal ce qui paraît d’autant plus inquiétant. L’accumulation des données accessibles gratuitement – si on ne tient pas compte des données privées revendues à notre insu – confère aux plates-formes numériques un rôle incontournable en matière d’information.
La Revue Réseaux* publie dans son dernier opus un état des lieux édifiant consacré à cette question. Les analyses croisées de différents chercheurs permettent de comprendre comment l’offre de ces plates-formes remet en question la grille éditoriale des journaux et le pluralisme de l’information, garant d’un fonctionnement de la démocratie.
A dire vrai, en publiant cette image je me doutais que FB allait amputer ma liberté, d’autant que dans la pièce Privacy des néerlandais De Warme Winkel & Wunderbaum donnée au Théâtre Garonne à Toulouse il est justement question de l’exposition de notre vie intime sur les réseaux sociaux. « La vie privée n’est plus la norme sociale », déclarait en 2011 Mark Zuckerberg, le fondateur de Facebook.
La sanction est arrivée sur le champ, moins d’une minute après la publication. La conception de cette censure est plus que discutable. En vertu de la morale puritaine américaine, les images de nu heurtent les modérateurs de fb, alors que des vidéos de viol ou de décapitation peuvent se retrouver en ligne pendant plusieurs jours. Mais comme le démontre une enquête menée au cœur de la machine à modérer fb par le quotidien britannique The Guardian, « Dans le système Facebook, seul le juge connaît la loi.»
Problème de qualité de l’information
Ce n’est pas la première fois que je suis sanctionné (puni ?), la dernière fois, cela concernait une photo des femen. Libre à chacun d’avoir un regard critique sur ce mouvement féministe radical internationalement reconnu qui s’implique pour la démocratie, contre la corruption, la prostitution et l’influence des religions dans la société, mais comment ignorer l’impact de la censure du plus grand réseau social mondial, qui compte deux milliards d’utilisateurs actifs par mois, à l’encontre des femen ? Facebook aime le féministe tant que cela contribue à faire tourner la boutique mais il ne faut pas qu’elles soient provocatrices. Rien à voir avec ces jeunes filles qui vous invitent sur le même réseau à passer du bon temps avec elles sans montrer leur seins…
Les GAFAM (Google, Apple, Facebook, Amazon, Microsoft) mettent en œuvre des modes de contrôles de l’information, de conditionnement des opinions, et introduisent un problème de qualité de l’information à l’échelle mondiale qui posent bien des questions. Comme les autres géants, Facebook impose son offre aux internautes qui veulent accéder aux services et biens informationnels en les verrouillant sur son application, et impose ensuite ses conditions aux fournisseurs de contenus.
Pour éviter cette atteinte à la liberté d’expression dans la sphère domestique et contribuer à une action plus vaste, le pire est sans doute d’avoir recours à l’autocensure. Résister individuellement et massivement peut infléchir la loi d’airain de cette nouvelle oligarchie, on l’a vu, quitte à se faire bannir et à consacrer le temps gagné à inventer de nouveaux outils collaboratifs.
JMDH
Revue Réseau sep/oct 2017 Modèles économiques, usages et pluralisme de l’information en ligne, éditions La Découverte, 25 euros.
Le Guardian a mené une investigation au cœur de la machine à modérer du plus grand réseau social du monde, Facebook. Le quotidien britannique dévoile avec l’aide de Facebook des dizaines de règles auparavant secrètes appliquées par le géant, laissant apparaître les contours de la modération du réseau souvent décriée.
Si Facebook est un royaume, il est délimité par une frontière juridique, qui ne se fond ni dans la common law, ni dans nos système judiciaires. Loin de tous tribunaux, dominant la planète en y étendant son espace sans loi aux quatre coins du monde, Facebook représente un système juridique à lui-même.
Les sanctions comme les gratifications qui existent dans ce pays des likes n’ont rien de comparables à celles pratiquées dans nos tribunaux, et les individus ne sont pas tout à fait soumis aux mêmes règles, qu’ils viennent d’un pays à un autre. Dans cet espace juridique parallèle, le géant du réseau social a érigé ses propres tables des lois sans jamais les dévoiler.
Les décisions prises par les modérateurs et administrateurs du réseau sont évidemment régis sous la contrainte de la logique et de la règle, mais dans le système Facebook, seul le juge connaît la loi. Cette asymétrie permet au géant de se justifier de tout et de de botter en touche dès que sa responsabilité est mise en avant. Toutefois, cette somme de règles ne constitue pas en soit une réglementation qui viendrait se substituer à loi nationale, elle s’ajoute au contraire à celle-ci, comme un socle commun international des bons comportements exclusif au réseau.
Il y a donc deux milliards de personnes qui vivent dans cet espace juridique flou, tributaire des aléas d’une charte inconnue des utilisateurs, pour laquelle ils auraient légitimement un droit de regard.
C’est l’idée défendue par le Guardian, qui ce dimanche a dévoilé grâce à Facebook certaines lignes de conduite au cœur du système de modération du réseau qui a bien voulu éclaircir certaines de ses règles.
Des règles souvent tues pour leur caractère parfois dérangeant, parfois cynique et rarement justes. La première appréciation que nous pouvons avoir de ce corpus de règles laisse indubitablement penser que Facebook a créé une réglementation dont l’objectif premier est de se dégager de toute responsabilité dans le vrai monde.
Sous le feu des critiques européennes comme américaines, ces guidelines, ou cette charte secrète, dévoile un système surmené, croulant sous les plaintes et qui arbitre autant le revenge porn que le cannibalisme en dix secondes chrono.
Facebook a souhaité précisé à Numerama la réaction suivante, rédigée par Monika Bickert, à la tête des politiques de règlements internationaux de l’entreprise : « Notre priorité est de garantir la sécurité des personnes sur Facebook. Cela requiert beaucoup de réflexion autour de questions pointues et difficiles, et nous prenons très au sérieux le fait de le faire correctement. Mark Zuckerberg a récemment annoncé que nous allons ajouter 3 000 personnes à nos équipes de modération – qui s’ajoutent aux 4 500 personnes qui composent cette équipe aujourd’hui – pour examiner les millions de signalements que nous recevons chaque semaine, et pour améliorer le mode opératoire pour agir le plus rapidement possible. »
L’entreprise considère par ailleurs que contrairement à ce qu’elle a pu laisser penser en gardant secrètes sa charte, elle n’a rien à cacher concernant sa politique de modération. Toutefois, la considérant propre à évoluer au fil des cas, le réseau préfère garder de la souplesse en taisant ses règles. Enfin, le groupe américain précise que cet ensemble de standards est soumis aux lois nationales du régulateur qui prévalent sur les règles communautaires.
Appels aux meurtres, suicides et violences
Parmi les centaines de documents édités par le réseau social qu’a pu consulter le quotidien anglais, on trouve de nombreuses références aux menaces de mort et aux menaces en général. L’un de cas les plus ambigus à modérer pour le réseau qui demande à ses modérateurs de distinguer la crédibilité d’une menace en fonction de son ton.
Ainsi, on apprend que menacer de mort Donald Trump est tout à fait censuré puisqu’il représente un État ; toutefois, expliquer comment tuer une femme ou insulter quelqu’un — aussi longtemps qu’il n’est pas d’intérêt public — et lui souhaiter de mourir est accepté. Facebook considère que ces dernières menaces ne poursuivent pas une intention franche de tuer. Dans les exemples de Facebook, on peut lire que « frapper un roux » et « allons tabasser les gros » est aussi toléré, toutefois « Poignardons et devenons la cauchemar des sionistes » ne l’est pas.
La crédibilité d’une menace se joue souvent sur le choix de la victime : Facebook aura tendance à prendre au sérieux les appels au meurtre concernant des minorités ethniques ou des personnalités publiques. Un utilisateur lambda n’aura, lui, pas le même égard.
Plus délicate encore, la question des vidéos de morts violentes partagées sur le réseau social est réglée avec pragmatisme par Facebook. En effet les modérateurs vont rendre sensible le contenu sans toutefois le supprimer, considérant qu’il sensibilise l’entourage de la personne à un malaise psychologique. Nous avions déjà pu découvrir cette règle qui a sauvé une jeune fille qui tentait de se suicider en direct sur Facebook.
Le réseau social compte par ailleurs aller plus loin sur cette question en laissant les publications, de manière officielle, de toute personne souhaitant se blesser en direct sur Facebook Live. L’entreprise explique « ne pas vouloir censurer ou punir des personnes en détresse. » Sans toutefois assurer que le réseau prendra ses dispositions pour aider, voire sauver la personne. En France, des interventions d’urgence sont assurées par SOS Amitié, partenaire de l’entreprise.
Certains actes de violence sont également acceptés : les photos d’agression physiques, de harcèlement, notamment des enfants, n’ont pas à être supprimées pour le réseau social… à moins qu’elles ne révèlent un comportement sadique. Une nuance que les modérateurs doivent trancher en quelques secondes, au risque de censurer un programme de sensibilisation aux violences ou de laisser passer du cyber-bullying.
Notons que les animaux peuvent être battus, attaqués et tués en direct. Facebook a décidé de n’avoir aucun regard sur les violences faites aux animaux, les modérateurs sont seulement appelés à assigner le drapeau contenu sensible lorsque les images sont extrêmement dérangeantes.
Pour l’entreprise, son laxisme est à même de créer, comme pour les suicides, une sensibilisation. Le réseau note aussi qu’il doit souvent juger ce qui est de l’ordre du message politique de sensibilisation et ce qui est un abus. Par exemple, certaines organisations de défense des animaux étant passées expertes dans la production et la diffusion d’images des horreurs vécues par les animaux dans les abattoirs, toute censure serait vue comme politique.
Sexualité revench-porn cannibalisme
La pudibonderie de Facebook est souvent dénoncée. Le réseau étant coutumier d’une censure systématique de la nudité, sous toutes ses formes, les lignes dédiées aux nudités méritent notre attention. On apprend par exemple que les « œuvres d’art » réalisées à la main — ou au pinceau on imagine — montrant la nudité et/ou une activité sexuelle sont acceptées.
Le même motif, représenté grâce aux arts numériques, serait immédiatement censuré. Pour le réseau social, la technique de représentation permet de déminer l’intention présumée d’une œuvre : une peinture érotique aura tendance à être plus acceptable et attendue sur le réseau qu’un montage.
L’épisode de censure de la célèbre photo vietnamienne a également poussé l’entreprise à nuancer son approche de la nudité qui est désormais acceptée dans le cadre de la dénonciation de la guerre et de l’Holocauste.
Pour la nudité, il faut donc que soit associé des éléments de contextes déterminants précisés par l’entreprise : une extrême maigreur, des soldats de la seconde guerre, des uniformes de camps de la mort, ou des images prises dans les camps.
Pour juger le revenge porn, l’entreprise a établi une liste des éléments qui aideront le modérateur à comprendre la nature du contenu et du consentement de l’éventuelle victime. Premièrement, il faut que l’image soit produite dans l’intimité, qu’une personne soit nue, presque nue ou sexuellement active et enfin que son consentement puisse être mis en doute grâce à un commentaire revanchard ou cruel sur les contenus — ou qu’un média ait couvert l’affaire.
L’intérêt de Facebook pour le revenge porn souligne l’incroyable diversité des cas à juger par les modérateurs du réseau. Ces derniers, surmenés par des milliers de cas quotidiens, doivent arbitrer l’inhumain et l’ignoble toutes les heures, à un rythme effréné. Lorsqu’il va du cannibalisme, plus difficile à juger que vous ne le croyez, dix secondes ne suffisent rarement pas à définir le contenu vu.
Mais dans ce cas de figure, la censure est-elle plus facile que le laisser-faire ? Les rapports de force qui s’établissent alors appartiennent aux quelques minutes que passera le modérateur sur un signalement.
On apprend enfin, en parlant de rapport de force, que chaque utilisateur disposant de plus de 100 000 followers va disposer d’un statut étrange de personne publique qui peut tout à fait jouer en sa défaveur puisque Facebook se montera plus tendre avec leurs agresseurs. Leur figure publique est considérée comme plus naturellement attaquable par des individus sans intention.
Le réseau, dans les documents révélés, ne cache pas ses analyses psychologiques qui fondent une partie des décisions prises. Un document explique ainsi que Facebook reconnait que « les personnes utilisent un langage plus violent en ligne pour exprimer une frustration, et qu’ils se sentent en sécurité sur le site pour s’exprimer de cette manière. Les utilisateurs pensent qu’ils peuvent menacer quelqu’un sans conséquence, ils sont indifférents envers les personnes qu’ils menacent à cause du manque d’empathie créé par une communication entre écrans interposés. »
L’air de rien, les modérateurs du réseau social admettent arbitrer l’un des pires endroits sur Terre où les plus pitoyables vicissitudes deviennent des publications, des menaces, des photos scandaleuses à gérer chaque minute… dans une urgence délétère.
La commissaire européenne à la Concurrence, Margrethe Vestager, s’est lancée dans un combat difficile contre la fraude fiscale des multinationales. Google, Amazone, Facebook… jouent avec de complexes montages financiers et bénéficient de la complicité active de plusieurs Etats européens. L’Irlande est devenue ainsi le porte-avions des firmes américaines. Une concurrence fiscale qui mine l’Europe.
La surprenante commissaire danoise Margrethe Vestager à précisé les avantages fiscaux indus, assimilables selon elle à des aides d’Etat, accordées par l’Irlande à Apple. Le géant informatique américain avait fait appel en août 2016 de la décision de Bruxelles lui imposant de rembourser 13 milliards d’euros d’avantages fiscaux pour la période 2003-2014. «De la foutaise politique», avait réagi le patron d’Apple Tim Cook.
L’Irlande : paradis fiscal
De son coté, l’Irlande ne fait rien pour récupérer ces milliards d’euros, malgré une décennie d’austérité budgétaire. Dublin a même fait appel de la décision de Bruxelles, prouvant ainsi qu’elle est un paradis fiscal, niché au cœur de l’Union européenne.
Les services de Magrethe Vestater soupçonnent la firme américaine d’enregistrer en Irlande des bénéfices réalisés en Europe, Afrique, Inde et Moyen-Orient. La firme s’arrange ensuite avec Dublin pour ne soumettre à l’impôt qu’une infime partie de ce montant via un accord fiscal (Rescrit).
Apple a commencé à transférer en Irlande le produit des droits tirés des brevets développés en Californie. Ensuite, grâce à des traités signés entre l’Irlande et certains pays européens, une partie des bénéfices d’Apple peuvent transiter sans impôt par les Pays bas.
Optimisation fiscale ?
Grâce à ce montage, le taux réel d’imposition d’Apple est tombé à 0,06% de 2009 à 2001 et même à 0,005% en 2014, «ce qui signifie moins de 50 euros d’impôts pour chaque million de bénéfices», souligne la commissaire européenne à la Concurrence, Margrethe Vestager.
La firme de Cupertino est à l’origine de cette technique qui consiste à réduire l’impôt en acheminant les bénéfices vers un paradis fiscal, par l’intermédiaire de filiales irlandaises et hollandaises.
On comprend qu’un millier d’entreprises étrangères ont choisi de s’installer dans la verte Irlande, devenue le porte-avions américain en Europe: Google, Twitter, Facebook, Dell, Intel.
Pour Dublin, l’enjeu est aussi de préserver son régime fiscal attractif. Les multinationales emploient aujourd’hui 10% de la population active irlandaise.
En outre, le système de téléchargement d’Apple est basé au Luxembourg. Dès qu’une transaction monétaire est effectuée pour télécharger un film, de la musique ou une application via ce système, la vente est enregistrée au Luxembourg où la fiscalité est très avantageuse.
L’Europe contre l’Europe
La Commission européenne mène également des investigations sur le statut très favorable accordé à McDonald et à Amazon au Luxembourg ou encore à Starbucks aux Pays-Bas.
Une directive européenne anti-évasion fiscale doit en principe être traduite dans les législations nationales avant la fin de 2018. Un pas important, mais les paradis fiscaux existent également aux portes de l’Union europenne. il suffit d’une simple boîte aux lettres dans le minuscule canton de Zoug, près de Zurich, pour diminuer très sensiblement ses impôts. La Suisse a ainsi attiré 24.000 sociétés internationales. Un combat de longue haleine en perspective.
Cela ressemble à une volte-face. Une semaine après avoir assuré que Facebook n’avait pas influencé l’élection américaine, Mark Zuckerberg a annoncé, vendredi 18 novembre, une série de mesures pour lutter contre la diffusion d’articles mensongers sur le réseau social. « Nous prenons la désinformation très au sérieux », assure le responsable, alors que la polémique n’est pas retombée dans la Silicon Valley. Mais « nous devons être prudents », poursuit-il, car « nous ne voulons pas être les arbitres de la vérité ».
Les mesures détaillées par M. Zuckerberg restent encore au stade de projets. Elles ne s’appliqueront donc pas immédiatement. La plus importante concerne l’affichage d’un message d’alerte accompagnant les articles ayant été signalés comme mensongers. Pour distinguer les fausses informations, Facebook comptera sur ses utilisateurs, avec des outils plus simples à utiliser, mais aussi sur des sources externes, spécialisées dans le « fact checking ». Autre piste: afficher des liens vers des médias reconnus sous les articles partagés.
M. Zuckerberg souhaite également s’attaquer à « l’économie des fausses informations ». Lundi 14 novembre, Facebook a suivi l’exemple de Google et annoncé que les faux sites d’actualités n’auront plus accès à sa plate-forme publicitaire, Facebook Audience Network. Le réseau social travaille désormais à mieux détecter les sites qui abusent le système publicitaire, qui pourraient alors être bannis de Facebook. « Une partie de la désinformation est le fruit de spam motivé financièrement », explique le dirigeant.
UN MILLION DE PARTAGES
De nombreux observateurs accusent Facebook d’avoir facilité la victoire de Donald Trump lors des élections du 8 novembre, en permettant à ses partisans de partager des articles mensongers. Plus d’un million de fois pour certains de ces liens, comme par exemple celui assurant, à tort, que le pape François soutenait le candidat républicain. Ce débat illustre l’importance prise par le réseau social: selon le Pew Research Center, près de la moitié des Américains s’informent désormais sur Facebook.
La société de Menlo Park, qui compte plus de 150 millions d’utilisateurs aux Etats-Unis, a d’abord choisi de nier le problème. “Il est dingue de croire que les fausses informations publiées sur Facebook ont pu influencer le résultat de l’élection”, affirmait jeudi dernier M. Zuckerberg. “99% de tout ce que les gens voient sur Facebook est authentique. Les articles mensongers ne représentent qu’une minorité”, avait-il ajouté deux jours plus tard. Ce chiffre reste cependant impossible à vérifier.
La position de M. Zuckerberg contraste avec celle de Sundar Pichai, le directeur général de Google. Interrogé mardi 15 novembre par la BBC, celui-ci avait reconnu que la prolifération de fausses informations avait pu jouer un rôle. Des voix discordantes se font aussi entendre au sein même de Facebook. Selon BuzzFeed, plusieurs dizaines d’employés se sont ainsi réunis, de manière informelle, pour évoquer ce sujet et les outils pouvant être mis en place pour lutter contre la désinformation.
MARGE DE MANOEUVRE ÉTROITE
Le problème n’est pas nouveau mais il semble avoir pris une nouvelle ampleur au cours de la dernière campagne américaine, alors que la défiance vis-à-vis des médias traditionnels n’a jamais été aussi importante. La semaine dernière, Buzzfeed racontait comment une partie de ces sites étaient gérés depuis une petite ville de Macédoine, avec pour seul objectif de générer des recettes publicitaires. “Jusqu’à 3.000 dollars par jour”, expliquait l’un des gérants.
Les sanctions publicitaires annoncées en début de semaine par Google et Facebook ne suffiront pas. D’abord, parce que les sites concernés disposent d’autres plates-formes pour monétiser leur audience. Ensuite, parce que leurs articles continueront d’apparaître dans les résultats de recherche sur Google et dans les fils d’actualités sur Facebook. D’autres mesures sont nécessaires, par exemple la mise en place d’algorithmes informatiques ou d’équipes dédiées à la traque des articles mensongers.
Un tel scénario ouvrirait cependant un autre débat, en donnant le droit à Google et Facebook de déterminer ce qui est vrai de ce qui ne l’est pas. « Nous croyons qu’il faut permettre à tout le monde de s’exprimer, ce qui siginifie laisser les gens partagent ce qu’ils souhaitent, tant que possible », ajoute par ailleurs M. Zuckerberg. Le fondateur de Facebook sait aussi que sa marge de manoeuvre est étroite. En mai, le réseau social avait été accusé par des responsables républicains de parti pris politique.
Beaucoup de voix critiquent Facebook, accusé d’avoir fait monter Trump. C’est méconnaître ce qui se joue vraiment dans une élection et c’est une façon facile de ne pas voir en face la réalité du vote Trump.
Pour les critiques, cette sélection des contenus selon des critères hyper-personnalisés finit par créer des « bulles filtrantes » (filter bubbles) : des univers où les utilisateurs ne sont exposés qu’à des contenus qui reflètent ce qu’ils aiment et pensent déjà.
A travers les réseaux sociaux, « nous recevons des informations de personnes qui nous ressemblent et qui ont des centres d’intérêt proches des nôtres », dit le chercheur et activiste Ethan Zuckerman.
Au lendemain de l’élection de Donald Trump, plusieurs médias américains font le procès de Facebook et de son algorithme comme l’un des rouages de leur aveuglement. « Comment Facebook a aidé Donald Trump à devenir président », titre Forbes. Plus direct, Select All, un site du New York Mag, y va cash : « Donald Trump a gagné à cause de Facebook. »
La thèse est séduisante et rassurante au lendemain de la victoire. Mais si les critiques ne sont pas dénuées de fondement, il est faux, et hypocrite, de dire que Facebook a fait élire Trump.
D’abord parce que l’idée surestime le rôle des médias dans les votes. Ensuite parce qu’elle refuse de voir les vraies raisons du vote Trump. Et enfin parce qu’elle blâme Facebook pour tout un système – dont les sites qui accusent maintenant la plateforme font partie.
« Chambres d’écho »
Commençons par rappeler les critiques adressées à Facebook, qui est devenu une source d’informations majeures :
« [Facebook] centralise la consommation d’informations en ligne », écrivait John Herrman dans le New York Times. Parmi les 67% d’adultes américains disant utiliser Facebook, 44% expliquent l’utiliser comme source d’information, avançait une récente étude du Pew Research Center. Pour le journaliste, une grande partie des discussions politiques aux Etats-Unis se déroulent aujourd’hui sur Facebook.
Les critiques se concentrent d’abord sur le fil d’actualité (« newsfeed »), la fonctionnalité centrale de Facebook, qui permet de voir ce que ses amis partagent. Ce fil est personnalisé par un algorithme – et c’est le cœur du problème.
L’algorithme sélectionne explicitement les statuts, les articles ou les photos que ses utilisateurs sont plus susceptibles d’aimer et de commenter, en fonction de ce sur quoi ils ont déjà cliqué, liké, etc. Facebook cherche explicitement à provoquer ce qu’ils appellent l’engagement, car c’est un moyen de retenir plus longtemps les gens sur leur plateforme.
Les filtres des algorithmes écartent les contenus dissonnants et les mondes numériques des plateformes se peuplent alors de voix similaires, devenant des « chambres d’écho » qui déforment nos perceptions, en nous donnant l’impression fallacieuse que le monde pense comme nous.
Un journaliste britannique décrivait ainsi cette bulle filtrante : « Plus de 58 millions de personnes ont voté pour Trump. Je n’en connais aucune. »
Dans une appli, le Wall Street Journal avait montré ce que peuvent donner ces chambres d’écho en reproduisant côte à côte un fil conservateur (les articles proviennent de sources classées comme telles) et un autre plus à gauche. Voilà par exemple ce que deux utilisateurs différents pouvaient voir de Donald Trump ce vendredi matin :
Danger pour la démocratie
Certains, comme le militant de l’Internet Eli Pariser, ont pointé il y a déjà plusieurs années les dangers de ces dynamiques pour la démocratie :
« En fin de compte, la démocratie ne fonctionne que si les citoyens sont capables de penser au-delà de leurs propres intérêts. Mais pour le faire, nous avons besoin d’une vision commune du monde. Nous avons besoin d’entrer en contact avec la vie d’autres personnes, leurs besoins et désirs. La bulle filtrante nous pousse dans une direction opposée – elle crée l’impression que nos intérêts personnels sont tout ce qui existe.
Alors que si c’est une bonne chose pour faire consommer les gens, ce n’est en pas une pour faire en sorte que les gens prennent des décisions ensemble. »
C’est cette critique ancienne qui ressurgit aujourd’hui.
La fracture constatée au lendemain de l’élection et le désarroi des gens qui croyaient dur comme fer que Clinton serait élue s’expliquerait en partie par ces chambres d’écho. Pour Science of Us, c’est ce qui explique pourquoi le trumpisme a prospéré et pourquoi tant de personnes en ont été isolées.
Facebook polarise les contenus
Une autre critique récurrente concerne la polarisation des contenus. En favorisant les contenus populaires et largement partagés, Facebook encourage la création de contenus chocs, aux titres forts susceptibles d’être partagés dans l’économie de la viralité.
Comme les journaux sont de plus en plus dépendants de Facebook pour faire lire leurs contenus et toucher leur audience, ils se trouvent également poussés à produire des articles « clickbait », sensationnalistes et outranciers dans l’espoir de faire cliquer. Pour Vox, c’est ce qui explique que les élections américaines de 2016 ont pris un « ton si apocalyptique ».
Et au jeu de la phrase choc et de la production de contenus viraux, Trump est le candidat idéal. C’est aussi en ce sens que Facebook aurait favorisé Trump : parce que la plateforme, par essence, favorise les petits contenus clivants et partagés.
Pendant cette élection, cette dynamique a, souligne Science of Us, encouragé la création de de pages idéologiquement très marquées ou de tout petits sites à l’audience inversement proportionnelle grâce à des contenus viraux.
Ceux-ci sont une affaire lucrative : Buzzfeed a ainsi révélé qu’une poignée de Macédoniens avaient créé et géré une centaine de sites pro-Trump. Pas parce qu’ils appréciaient le candidat, mais pour les revenus publicitaires générés par leurs contenus. « Ils publient presque tous des contenus agressifs pro-Trump destinés aux conservateurs et partisans de Trump aux Etats-Unis », explique le journal. « L’enquête de BuzzFeed News a également établi que les articles qui fonctionnaient le mieux sur ces sites étaient presque tous faux ou trompeurs. »
Et ne peut pas lutter contre les fausses infos
Autre critique soulevée : l’incapacité de Facebook à contrer les hoax et les informations fausses. Facebook ne distingue pas dans le fil des utilisateurs ces infos erronées ou bidons, qui génèrent de l’audience.
« Si quelqu’un partage un article d’un politicien qui rentre dans votre conception du monde, mais que ce contenu est complètement faux, vous le verrez dans votre fil d’actualité », résume Business Insider. Les fact-checkeurs n’arrivent pas à se faire entendre. Une histoire fausse mais frappante risque de générer plus d’engagement qu’un article sérieux démontant ces infos fausses.
Sur cette place trop grande laissée aux infos fausses ou complètement bidons, Facebook répondait à Vox utiliser plusieurs signaux pour détecter ces contenus et réduire leur portée.
« Malgré ces efforts nous comprenons qu’il y a beaucoup de choses que nous devons faire et qu’il est important de continuer à améliorer notre capacité à détecter la désinformation. »
« Nous sommes une plateforme »
De son côté, Facebook se justifie avec une ligne de défense qui ne change pas : nous sommes une plateforme qui distribue des contenus et pas un média. C’est ce qu’a répondu en août son PDG Mark Zuckerberg :
« Quand vous imaginez un média, vous pensez à des gens qui produisent des contenus, qui les éditent – ça ce n’est pas ce que nous faisons. Notre raison d’être, c’est de vous donner des outils pour sélectionner et choisir, pour avoir l’expérience utilisateur de votre choix et vous connecter aux gens, aux institutions, aux entreprises et aux institutions de votre choix. »
Les critères de Facebook, détaillés sur son blog, sont fort clairs :
« Facebook est fondé sur l’idée de connecter les gens avec leurs amis et leurs familles. C’est toujours le principe directeur du fil d’actualités aujourd’hui. »
Les détracteurs de Facebook estiment qu’aujourd’hui, au vu du rôle que joue la plateforme, cet argument est trop limité. Facebook, disent-ils, doit prendre ses responsabilités politiques.
Mauvaise foi
Une fois n’est pas coutume, on va prendre (un peu) la défense de Facebook dans ce débat. Est-ce que Facebook est biaisé ? Bien sûr. Est-ce un problème qu’un algorithme protégé par le secret commercial détermine dans des conditions relativement opaques ce que vous voyez ? Oui.
Mais Facebook – et Dieu sait qu’on est méfiant ici à son sujet – ne peut certainement pas être responsable à lui tout seul du système qu’il incarne, ni des maux structurels de la démocratie représentative américaine, encore moins de ses fractures. Démonstration.
Blâmer Facebook c’est se dédouaner facilement au nom d’un passé informationnel mythique.
« Facebook vous montre des commentaires, des statuts et des infos qui vous procurent un influx constant de shoots de dopamine. Facebook place en haut de votre fil des histoires avec lesquelles vous êtes entièrement d’accord, plutôt que des histoires et des commentaires qui vont à l’encontre de vos préjugés et de votre façon de voir le monde. »
C’est un peu facile. Est-ce qu’avant les bulles filtrantes on était réellement ces citoyens modèles des Lumières, nourris d’une information diverse et de qualité, qu’on lisait avec intérêt et qui nous permettait de nous former des jugements éclairés en matière de politique ?
Probablement pas. Les gens avaient plein de moyens d’éviter les histoires allant à l’encontre de leurs préjugés, à commencer par décider d’acheter L’Huma ou le Figaro.
Facebook et son algorithme sont-ils vraiment responsables si les libéraux (au sens américain) n’ont pas compris qu’une large partie du pays ne pensait pas comme eux ?
La déconnexion entre les élites urbaines et les zones rurales ne date pas des réseaux sociaux. Le fait de vivre entre soi a été identifiée depuis longtemps par la sociologie et porte un nom : « l’homophilie », la tendance à aimer ceux et celles qui nous ressemblent.
Quant à blâmer Facebook parce qu’on y trouve de faux comptes et que les fausses news s’y propagent facilement… c’est un peu comme blâmer l’imprimerie parce qu’elle a permis d’imprimer « Les Protocoles des Sages de Sion ».
Les raisons structurelles du vote Trump
Oui on exagère un peu. Mais il y a quelque chose de troublant dans ce retournement unanime contre Facebook. L’élection de Trump est un séisme, comme le répète toujours en une le New York Times. Se tourner vers Facebook n’est-il pas aussi une façon d’éviter de voir la réalité en face ?
Trump n’est ni une pure création médiatique ni un fou, pour lesquels n’auraient voté que des consommateurs de médias abrutis par une fréquentation trop courante de Facebook.
Comme nous le rappelions mercredi dans un papier d’analyse, le vote Trump s’explique par des dynamiques anciennes. Parmi lesquelles :
montée de la colère des régions dévastées par la chute de l’industrie ;
mutation du parti républicain qui a favorisé l’émergence de candidats clivants ;
« guerres culturelles » qui opposent depuis au moins la période des droits civiques les tenants d’une Amérique multiculturelle en mutation aux partisans de « la terre et du sang », comme disait l’éditorialiste du New York Times Paul Krugman ;
rejet des élites symbolisées par Clinton ;
désir de changement quelles qu’en soient les conséquences…
Blâmer Facebook est une façon commode de refuser de voir ce qu’ont tenté d’exprimer les électeurs de Trump.
Les médias n’influencent le vote qu’à la marge
L’autre grand point faible de l’argumentation, c’est l’idée, qui sous-tend ces critiques, que les médias influencent beaucoup les résultats du vote. D’où les inquiétudes sur les chambres d’écho, les contenus qui feraient voter Trump etc. Or
« La perspective dominante dans la communauté universitaire a longtemps été que les médias avaient des effets limités sur les électeurs »
écrit [PDF] le chercheur Christophe Piar, spécialiste de l »interaction entre médias et politique.
Les travaux en sociologie tendent à montrer que beaucoup d’autres facteurs jouent sur les choix électoraux, bien avant les médias consommés.
Ainsi, rappelait en 2012 la professeure de science politique Brigitte Le Grignou dans Télérama, une étude menée pendant la campagne présidentielle américaine de 1940, qui fait toujours référence, avait montré que la majorité des électeurs (60%) savaient pour qui ils allaient voter avant la campagne. 20% se déterminaient au moment des primaires et il ne restait donc que 20% à convaincre pendant la campagne proprement dite. Et ces candidats dont le vote reste ouvert pendant la campagne, après les primaires, étaient aussi ceux qu’elle intéressait le moins.
Les sociologues auteurs de l’étude, avaient conclu que les électeurs étaient surtout déterminés par leur statut social, leur religion et leur lieu de résidence.
Plus près de nous, en 2007, deux chercheurs américains ont étudié l’effet de Fox News sur le vote républicain. Comme Fox News n’est pas arrivée en même temps dans toutes les villes, les chercheurs ont pu comparer le vote républicain des téléspectateurs qui avaient accès à Fox News et celui de ceux qui ne pouvaient pas regarder la chaîne. Cette étude a montré que le fait d’avoir ou non accès à Fox n’avait qu’un impact statistiquement insignifiant, dans l’augmentation de la part des votes républicain.
A ce résultat, il y avait deux explications possibles : le biais de confirmation (on aborde une information avec ses opinions préconçues et on la « filtre » à cette aune) ou le regard critique des gens, qui sont capables de recevoir l’information de Fox comme biaisée.
D’autres travaux de socio soulignent aussi le poids de facteurs plus influents que les médias, comme l’importance de l’entourage, des parents, amis, collègues etc, qui exercent aussi une pression des pairs.
Et ce n’est pas nouveau : pour ne prendre qu’un exemple, des chercheurs ont constaté que l’effet de la propagande antisémite nazie diffusée à la radio dépendait très largement des prédispositions des auditeurs :
« La radio nazie était la plus efficace dans les endroits où l’antisémitisme était traditionnellement important, mais elle avait des effets négatifs là où l’antisémitisme était traditionnellement faible. »
Bref, les médias influencent certains électeurs, à la marge, et en combinaison avec d’autres facteurs qui pèsent bien plus lourd qu’eux.
La faute à tout un écosystème
Ça ne veut pas dire pour autant que les médias n’influencent pas la politique. Ils ont des effets très nets [PDF] sur la façon dont elle est présentée : croissance des petites phrases, des thèmes chocs, création de « l’agenda médiatique » qui détermine des thèmes favoris de la campagne…
Indéniablement, Facebook fait partie du problème. Mais le problème est celui de tout un système, pas seulement d’une plateforme. Facebook, c’est l’arbre qui cache la forêt.
Ce qu’on reproche à Facebook, c’est le produit d’évolutions politiques d’une part et de tout un écosystème médiatique d’autre part.
C’est ce qu’explique Fred Turner, professeur à Stanford et grand historien des origines d’Internet, invité mardi à une conférence à Sciences-Po.
Trump est d’une part le produit de la montée de l’autoritarisme personnel : une forme de pouvoir fondée sur une personnalité, comme celle de Trump, où la capacité à émouvoir compte plus que les faits avancés.
D’autre part, il y a effectivement un écosystème médiatique qui lui correspond et le renforce – mais dont Facebook n’est qu’un rouage.
« Quand une nouvelle technologie apparaît, elle remplace rarement les anciennes. Les technologies ont tendance à se superposer. »
Il faut y ajouter Twitter, Fox News, les chaînes d’info, les sites pressurés par la baisse des audiences, la publicité, l’économie de l’attention…
C’est l’ensemble, dit Turner, qui est devenu insoutenable :
« L’individualisme aujourd’hui est un problème. Nous ne pouvons plus poursuivre l’expression individuelle comme but politique. Nous ne pouvons plus compter sur des systèmes qui mettent en avant l’expression individuelle pour changer la société. »
Devant le parterre d’étudiants de Sciences-Po, le prof de Stanford, venu de Californie, s’avouait à court de solutions miracles. « Nous avons besoin d’institutions publiques. La politique est difficile, souvent ennuyeuse. Mais l’alternative, c’est le monde de Donald Trump et Facebook. »
C’était quelques heures avant le résultat des élections.