« Infox » au Brésil : comment les fausses informations ont inondé WhatsApp

d67cd65_cjk-ERRFAZph2qZYZdl9mZYmLe scrutin présidentiel brésilien est un exemple inédit de propagation de « fake news » et de propagande politique sur l’application de messagerie appartenant à Facebook.

S’il fallait une preuve finale que la désinformation et la propagande politique peuvent se propager à travers l’application WhatsApp, les élections présidentielles brésiliennes en ont offert un exemple inquiétant. Le second tour du scrutin est prévu dimanche 28 octobre et oppose Fernando Haddad (Parti des travailleurs – PT, à gauche) et Jair Bolsonaro (Parti social libéral – PSL, extrême droite).

Depuis des semaines, le rôle et l’influence de WhatsApp font partie des thématiques de campagne, alors que des millions de messages à teneur politique circulent dans les poches des électeurs à travers cette messagerie appartenant à Facebook depuis 2014.

« Des centaines de millions de messages »

Au point où, le 18 octobre, la gauche brésilienne a demandé l’ouverture d’une enquête auprès du Tribunal supérieur électoral brésilien. Le Parti des travailleurs et ses alliés suspectent leurs adversaires politiques d’avoir orchestré une campagne de désinformation à l’encontre de Fernando Haddad et du PT, à travers des messages envoyés sur WhatsApp.

Une multitude de groupes

En quelques années, WhatsApp a largement dépassé son cadre initial de « messagerie privée » et est devenue une solution de communication publique majeure. Cela s’est traduit par une utilisation intensive de l’application à des fins de communication politique lors de l’élection présidentielle. Bien sûr, elle n’a pas remplacé les autres réseaux sociaux : le candidat d’extrême droite, Jair Bolsonaro, a bien construit une bonne partie de sa communication sur Facebook, YouTube, Instagram et Twitter, où il cumule près de 17 millions d’abonnés.

Cette demande a eu lieu au lendemain des révélations du quotidien Folha de S. Paulo, selon lesquelles quatre services spécialisés dans l’envoi de messages en masse sur WhatsApp (Quick Mobile, Yacows, Croc Services, SMS Market) ont signé des contrats de plusieurs millions de dollars avec des entreprises soutenant la campagne de Jair Bolsonaro. Ces services spécialisés sont capables d’envoyer « des centaines de millions de messages » par WhatsApp, indique le quotidien. La diffusion de tels messages est de nature à être épinglé par la loi brésilienne. « Le financement de campagne électorale par des entreprises privées est illégal. Il est question de fraude », a réagi un membre du PT.

Un autre usage illégal de WhatsApp proviendrait du fait qu’un parti politique ne peut, au Brésil, envoyer des messages qu’aux personnes recensées dans ses bases de données de sympathisants. Or, les entreprises spécialisées citées par le Folha de S. Paulo proposaient également des forfaits d’envois de messages à des listes d’utilisateurs WhatsApp qu’elles fournissaient elles-mêmes, et dont l’origine reste incertaine. Le quotidien évoque des listes de numéros obtenues « illégalement à travers des compagnies téléphoniques, ou de recouvrement de dettes ».

En réaction aux révélations du Folha de S. Paulo, WhatsApp a fermé « 100 000 comptes utilisateurs » associés aux quatre entreprises concernées, et leur a demandé de ne plus envoyer de messages en masse de la sorte.

Une application qui a remplacé les e-mails

Autant de chiffres donne le tournis. Du point de vue des utilisateurs français, un tel usage de WhatsApp à des fins de propagande électorale massive peut surprendre, alors qu’ils sont plus souvent habitués aux conversations privées, aux groupes rassemblant des collègues ou des membres de leur famille.

L’utilisation de WhatsApp est bien différente au Brésil, tant la messagerie y est populaire. En mai 2017, il s’agissait du deuxième pays le plus utilisateur de WhatsApp au monde, derrière l’Inde : 120 millions de personnes avaient alors un compte actif, sur 210 millions de Brésiliens.

« L’application est utilisée par tous les secteurs de la société. Elle a complètement remplacé les e-mails », commente Claire Wardle, directrice exécutive chez First Draft. Ces derniers mois, cette association internationale de journalistes et de chercheurs a travaillé au Brésil dans le cadre du projet collaboratif Comprova, qui collecte et dément les fausses informations qui circulent sur WhatsApp.

En 2016, une étude du Harvard Business Review indiquait que 96 % des Brésiliens ayant un smartphone utilisaient WhatsApp en priorité pour envoyer des messages. Dans un pays où les SMS coûtaient très chers, le succès de l’application, légère, rapide, et fonctionnant sur tous les modèles de smartphones, a tenu à la possibilité de s’envoyer des messages par un réseau Wi-Fi ou 3G.

Mais cela s’explique aussi par une politique agressive de la part de Facebook pour s’imposer dans les smartphones au Brésil, selon Yasodara Cordova, chercheuse en désinformation numérique à l’université d’Harvard, qui a écrit sur le sujet dans The Intercept. « 60 % des Brésiliens utilisent des forfaits prépayés, avec des limitations, mais dans lequel ils ont un accès gratuit permanent à WhatsApp et à Facebook grâce aux accords passés entre Facebook et des sociétés téléphoniques », explique-t-elle au Monde.

Sur WhatsApp, en revanche, une diffusion « verticale » de l’information depuis un compte amiral comme sur Facebook ou YouTube est impossible. Le fonctionnement de l’application n’autorise que des conversations de groupes de 256 personnes maximum : il empêche le développement de fils de discussion géants, et alimentés par des administrateurs WhatsApp qui disposeraient d’audiences considérables.

Résultat : la circulation de l’information sur WhatsApp est extrêmement fragmentée au travers des multitudes de groupes. « Les équipes de campagne ont été très fortes pour créer de multiples groupes de 256 utilisateurs, qui diffusent du contenu identique », explique Mme Wardle. La viralité d’un message ou d’une vidéo a lieu ensuite grâce au transfert de messages de groupes en groupes, que chaque utilisateur peut faire en un coup de pouce.

« La taille moyenne d’un groupe WhatsApp au Brésil est de six personnes, continue Claire Wardle. En ce qui concerne les fausses informations que nous repérons, elles circulent dans tout type de groupes. Elles peuvent partir d’un grand groupe, puis se transmettent de groupes de plus en plus petits, par l’action de chaque utilisateur, avec des transferts de messages. Elles atterrissent finalement dans des groupes WhatsApp vraiment petits, mais où les gens se font vraiment confiance. »

Un fonctionnement qui rappelle le principe de transfert de messages par e-mail, appliqué à l’écosystème de WhatsApp. Selon El Pais, qui reprend l’article de chercheurs ayant étudié pendant des mois le phénomène de viralité dans quatre-vingt-dix groupes, les techniques pour diffuser au maximum des messages sont bien rodées : des militants organisent le partage de messages, ou ciblent des régions précises du pays en étudiant les préfixes téléphoniques.

L’Agence France-Presse donne l’exemple d’un partisan de Jair Bolsonaro qui disait recevoir environ 500 messages WhatsApp par jour, pour et contre les deux candidats du second tour. « Cela ne fait pas de différence pour moi, a-t-il expliqué. Mais ma mère a reçu un message disant que Bolsonaro supprimerait le treizième mois et elle l’a cru. »

Le phénomène est global, et a concerné tous les camps politiques brésiliens pendant la campagne, quels que soient les candidats. Dans un reportage diffusé par la BBC en septembre, une journaliste ayant étudié des « milliers de groupes WhatsApp » montre aussi l’exemple d’une rumeur mensongère sur l’état de santé du candidat d’extrême droite Bolsonaro.

Des rumeurs visuelles

« Le jour du premier tour, nous avons aussi vu sur WhatsApp des fausses informations sur le processus de vote, des gens qui expliquaient par exemple que les machines de vote étaient cassées, etc. Soit le même genre de fausses informations qu’on a vu circuler aux Etats-Unis en 2016 », explique Claire Wardle, de First Draft.

En tout, depuis le mois de juin, la cinquantaine de journalistes réunis dans le projet Comprova a recensé plus de 60 000 messages signalés directement par des utilisateurs de WhatsApp, auxquels les journalistes ont répondu, tant bien que mal. Dans le New York Times, les responsables de Comprova disent aussi avoir recensé « 100 000 images à caractère politique » dans 347 groupes WhatsApp les plus populaires qu’ils ont pu intégrer grâce à des liens d’invitation.

Parmi les cinquante images les plus virales au sein de ces groupes, 56 % d’entre elles sont de fausses informations ou présentent des faits trompeurs, selon eux. « Les fausses informations sur WhatsApp sont plus visuelles qu’ailleurs : il y a beaucoup de mèmes, qui appuient sur des réactions émotionnelles autour de sujets comme l’immigration, les crimes, ou les croyances religieuses, pour créer des tensions », confirme Mme Wardle.

Ceci alors que l’utilisation de WhatsApp se fait principalement sur un écran de téléphone, et que le contexte accompagnant la photo et la vidéo, de même que son origine, sont rarement présents. Application conçue avant tout pour smartphone, WhatsApp favorise la diffusion de messages vidéo enregistrés en mode selfie, où l’on écoute une personne parler, sans avoir de titre de la vidéo, d’informations sur son origine, son nombre de vues, ou même l’identité de l’interlocuteur.

Rumeur sur l’« idéologie de genre »

Parmi les nombreuses rumeurs recensées par Claire Gatinois, correspondante du Monde au Brésil, celle du « kit gay » que Fernando Haddad, le candidat du PT, voudrait généraliser dans les écoles pour enseigner l’homosexualité au primaire. Une fausse intention, comme l’explique El Pais, mais régulièrement diffusée par les soutiens de Jair Bolsonaro.

Un utilisateur de WhatsApp au Brésil a pu ainsi recevoir, au gré des partages de groupes en groupes, un tract électoral dénonçant l’« idéologie de genre » dans les écoles, avec la photographie du candidat Haddad. Comme si on lui donnait ce tract dans la rue sans davantage d’explications.

Pour des informations supplémentaires ou du contexte, il devra se rendre sur un navigateur Internet et chercher lui-même ce qu’il en est. Ce que ne favorise pas WhatsApp. « L’application n’a pas été conçue au départ pour diffuser de l’information avec une telle ampleur. C’est avant tout une messagerie privée », abonde la chercheuse d’Harvard, Yasodara Cordova.

Elle explique que « la présentation d’une fausse information sur WhatsApp est souvent différente » d’autres plates-formes, citant une rumeur de bourrage d’urnes électroniques démentie par les fact-checkeurs de Comprova. Alors que le post Facebook dénonçant la supposée tricherie est accompagné de vidéos, la version WhatsApp de la rumeur ne fait, elle, que reprendre le texte annonçant « des urnes déjà achetées pour l’élection de 2018 ».

Des messages impossibles à identifier et réguler

Face à ce phénomène, la réponse de Facebook et WhatsApp est pour le moins timorée. Si Facebook mène la guerre aux infox sur son réseau social depuis l’élection présidentielle américaine de 2016 (notamment en participant au financement de projets de « fact-checking » comme Comprova), il ne peut appliquer ses mesures habituelles de tentatives d’endiguement sur WhatsApp.

La raison avant tout technique. L’une des fonctionnalités clés de WhatsApp est son chiffrement de bout en bout, qui empêche WhatsApp, ou n’importe quel service tiers connecté à l’application, de lire ou de rechercher le contenu des messages échangés par l’application, groupes inclus. Ce chiffrement robuste fait de WhatsApp l’une des applications grand public les plus respectueuses des communications privée des utilisateurs. Mais il rend aussi impossible toute régulation, observation centralisée ou modération des phénomènes problématiques. Ce que Mark Zuckerberg lui-même a reconnu être un problème « difficile ».

Il est impossible, par exemple, d’entraîner un logiciel d’intelligence artificielle à détecter automatiquement des messages problématiques ou violant les règles d’utilisation de la plate-forme, comme ce qui existe sur Facebook. Concernant les fausses informations, les mesures prises par Facebook depuis 2016 (signalement par les utilisateurs, modération et contexte plus clair des publicités politiques, liens fournis par des fact-checkeurs capables de repérer une fausse information) ne pourront s’appliquer à WhatsApp. De même que les lois promulguées par des Etats pour contrer la désinformation en période électorale.

Les travers du chiffrement

Le chiffrement rend également impossible de retrouver l’origine ou les auteurs d’une fausse information. « WhatsApp a un système de détection de spams, qui détecte des comportements inhabituels. Mais ils devraient faire plus : par exemple, limiter le nombre de groupes qu’un seul numéro WhatsApp peut créer, ou limiter le nombre de fois où un message peut être transféré », avance Claire Wardle, qui travaille avec le projet Comprova.

Les responsables de Comprova vont plus loin. Dans une tribune publiée dans le New York Times, ils demandent à WhatsApp de « changer ses réglages » en termes de transfert de messages ou de nombre de personnes présentes dans des groupes de discussion. Ce à quoi WhatsApp a répondu qu’il n’était pas possible d’appliquer ces changements avant la fin de l’élection.

L’une des seules mises à jour récente de l’application a été introduite en juillet, avec la généralisation d’un système marquant comme « transféré » les messages envoyés provenant d’une autre discussion. La fonctionnalité avait été testée auparavant au Brésil et en Inde, un autre pays dans lesquels la propagation de rumeurs et de fausses informations a des effets parfois gravissimes. Début 2018, sur WhatsApp, une vingtaine de personnes ont été lynchées en Inde à la suite de rumeurs sur des enlèvements.

Michaël Szadkowski

Source : Le Monde 25/10/2018

Réseaux sociaux. Facebook, ennemie de la démocratie en Asie

Photo Dado Ruvic

Photo Dado Ruvic

Le scandale autour des liens entre Cambridge Analytica et Facebook a révélé en Occident les dangers que représente la masse de données personnelles accumulées par le réseau social. En Asie, il est mis en accusation en tant que propagateur d’idées haineuses.

Depuis que Facebook est entrée dans nos vies, il y a déjà de nombreuses années, le monde a radicalement changé, et le réseau social a sans conteste contribué à ce changement.

Au fil du temps, on a accusé la plateforme de toutes sortes de maux, notamment d’être un facteur de divorces, de syphilis, de dépression, et même de clivages sociaux.

Récemment, de nouvelles incriminations ont été formulées. Facebook aurait une influence démesurée et se transformerait en une arme dès lors qu’il est entre de mauvaises mains. Ces derniers mois, la société de Mark Zuckerberg s’est vu reprocher d’avoir déclenché des troubles sociaux, fait élire un président, voire même favorisé un génocide.

Voici trois des accusations les plus extrêmes lancées contre le géant des réseaux sociaux cette année (et nous ne sommes encore qu’au mois de mars) :

  • La crise des Rohingyas – Birmanie

Yanghee Lee, rapporteuse spéciale de l’ONU pour la Birmanie, déclarait le 13 mars :

Je crains que Facebook ne soit devenue un monstre.

Les Nations unies ont montré du doigt la plateforme pour son “rôle déterminant” dans l’actuelle crise des Rohingyas, qui a vu près de 700 000 réfugiés fuir leur pays vers le Bangladesh voisin.

La répression militaire qui a lieu en ce moment même dans l’État d’Arakan (renommé Rakhine), au nord-ouest de la Birmanie, est alimentée par un fort sentiment d’hostilité envers musulmans et Rohingyas, très répandu dans ce pays à majorité bouddhiste. Or ce nationalisme est diffusé et amplifié par Facebook.

“Facebook a […] très fortement contribué à attiser les haines et les divisions au sein de la population. Le discours de haine est une composante très importante de ce phénomène”, a assuré Marzuki Darusman, président de la mission d’enquête de l’ONU sur place.

“En ce qui concerne la situation en Birmanie, Facebook est le réseau social par excellence”, ajoute-t-il.

L’entreprise a tenté d’endiguer le flux de discours haineux dans le pays en supprimant la page d’éminents nationalistes bouddhistes. Mais le phénomène ne concerne pas qu’une poignée d’excités : le gouvernement lui-même utilise la plateforme dans le cadre d’une vaste opération de relations publiques visant à gagner le soutien de la population et à diffuser un message anti-Rohingya.

Des témoignages très détaillés sur les affrontements et les actions de l’Armée du salut des Rohingyas de l’Arakan (ARSA) sont apparus sur “Information Committee”, le compte du bureau d’Aung San Suu Kyi, leader de fait. Des analystes affirment que ceux-ci enflamment les esprits et mettent en danger la vie des agents humanitaires étrangers.

  • Duterte contre ses détracteurs – Philippines

Les réseaux sociaux, et surtout Facebook, passent pour être l’arme la plus puissante de Rodrigo Duterte. Non content d’avoir facilité sa victoire électorale, le géant du numérique l’aurait aidé à neutraliser ses opposants et à fermer les médias frondeurs.

Après avoir mis en place une armée de partisans très au fait du fonctionnement de Facebook pour diffuser ses promesses de campagne et pouvoir se battre pied à pied afin d’obtenir son élection, Duterte a fait entrer certaines de ces personnalités clivantes dans son gouvernement. Une fois dans le palais de Malacañang, ils se sont vu confier la lutte contre l’opposition, selon Maria Ressa, journaliste de Rappler.

La sénatrice emprisonnée Leila de Lima, ouvertement critique envers le président et désignée par Amnesty International comme défenseuse des droits humains menacée, a fait les frais d’une campagne en ligne ciblée, comme l’a révélé le site d’information.

Peu après que la campagne #ArrestLeiladeLima est devenue virale, la sénatrice a été mise en garde à vue, accusée d’avoir monté un réseau de trafic de drogue, ce qu’elle nie avec force.

L’offensive des “trolls patriotiques” du chef d’État se poursuit aujourd’hui. Il suffit de lire les commentaires au bas de n’importe quel article en ligne qui le présente sous un jour négatif pour s’en convaincre. Ceux-ci, au vitriol, proviennent souvent d’authentiques partisans, mais Duterte a lui-même reconnu qu’il payait des trolls lorsqu’il était en campagne.

Autre cible des réseaux sociaux : Rappler, qui est sous le coup d’une révocation de sa licence depuis janvier dernier pour, selon le pouvoir, ne pas avoir respecté une loi sur l’interdiction du contrôle des médias par des sociétés étrangères. Dans les mois qui ont précédé cette décision, les partisans du président ont mené une violente campagne en ligne contre le site.

La technique de domination des réseaux sociaux par Duterte est tellement efficace qu’il a été couronné “Roi de Facebook” par l’entreprise elle-même en 2016. Car 64 % des conversations à propos des élections aux Philippines sur le réseau social portaient alors sur lui.

  • Les émeutes de Kandy – Sri Lanka

Une équipe de Facebook a rencontré le Premier ministre sri-lankais le 15 mars. Le gouvernement accuse en effet la plateforme de ne pas avoir su contrôler la diffusion de propos appelant à la haine, ce qui a contribué à l’explosion d’émeutes antimusulmanes ayant fait trois morts et conduit le pays à déclarer l’état d’urgence.

Lors des violences, le gouvernement a pris la décision inédite de bloquer l’application Facebook dans tout le pays par crainte d’une escalade.

Selon le ministre des Télécommunications Harin Fernando cité par le quotidien britannique The Guardian :

Le pays aurait été à feu et à sang en quelques heures.

Et de citer en exemple un tweet rapportant des propos tenus sur Facebook : “Tuez tous les musulmans, pas un seul enfant de ces chiens ne doit en réchapper.”

Au bout de six jours, Facebook a répondu que ce post ne violait pas sa politique de lutte contre la diffusion de propos haineux et de ce fait il n’a pas été supprimé de la plateforme.

Selon Sanjana Hattotuwa du Centre des alternatives politiques à Colombo, si le phénomène n’est pas spécifique au Sri Lanka, dans une région instable sur le plan politique et social, un outil comme Facebook “aggrave ces fractures”.

Emma Richards
Source 28/03/2018

Mark Zuckerberg défend bec et ongles le modèle économique de Facebook

30623644_1026144310866823_3205257062766346240_n

Mark Zuckerberg a de nouveau défendu mercredi devant les parlementaires américains le modèle économique de Facebook, malgré les cas avérés de manipulation et de détournement de données personnelles des utilisateurs, tout en affirmant qu’il n’était pas hostile à une régulation de l’internet, l’estimant «inévitable».

«L’importance de l’internet grandit dans le monde et je pense inévitable une certaine forme de régulation», a-t-il dit, tout en affirmant que celle-ci devait être «étudiée attentivement».

Auparavant, il avait assuré aux membres d’une commission de la Chambre des représentants que les utilisateurs étaient responsables des contenus qu’ils postaient.

«Chaque fois que quelqu’un choisit de partager quelque chose sur Facebook, il le fait en allant sur le service et en choisissant de partager une photo ou écrire un message. A chaque fois, il y a un contrôle», a-t-il assuré.

Le jeune PDG de 33 ans, qui a déjà passé cinq heures la veille à répondre aux questions des sénateurs, a toutefois admis avoir échoué à suffisamment protéger la vie privée des utilisateurs, annonçant des mesures de contrôles supplémentaires.

M. Zuckerberg n’en finit plus de s’excuser depuis la révélation du scandale Cambridge Analytica mi-mars, qui a nui fortement à l’image du groupe et fait baisser son titre en Bourse.

Selon Facebook, les données de quelque 87 millions d’utilisateurs –y compris les siennes, a admis M. Zuckerberg– se sont retrouvées entre les mains de la société d’analyse de données avant que Facebook commence à instaurer des restrictions en 2014. La firme britannique a ensuite travaillé pour la campagne du candidat républicain à la présidentielle américaine de 2016, Donald Trump.

– «Des avertissements partout» –

Après avoir admis que son réseau avait été «lent» à identifier les achats de publicité politique venus de Russie pendant la campagne électorale, il a assuré que Facebook faisait «de mieux en mieux» pour supprimer les faux comptes.

Le procureur spécial Robert Mueller enquête depuis mai 2017 sur une possible collusion entre l’équipe de campagne de M. Trump et des responsables russes pour influencer le scrutin. Il estime qu’internet et en particulier Facebook a servi de plateforme à une vaste opération de propagande pour favoriser la victoire du magnat de l’immobilier.

Dénonçant un «désastre», le représentant Frank Pallone avait affirmé en début d’audition que le Congrès devait «prendre des mesures immédiate pour protéger notre démocratie».

«Les avertissements étaient partout, pourquoi personne ne les a vus?», a-t-il demandé.

Mais Mark Zuckerberg a évité de répondre directement à la question d’une élue qui lui demandait s’il était prêt à changer le modèle économique de Facebook, actuellement un réseau social gratuit financé par la publicité, «dans l’intérêt de la protection de la vie privée».

«Je ne suis pas sûr de ce que cela veut dire», a-t-il commenté.

«Nous pensons que tout le monde mérite une bonne protection de la vie privée», a-t-il également affirmé à un autre élu qui l’interrogeait sur la possibilité pour les utilisateurs américains de bénéficier du nouveau règlement européen sur la protection des données personnelles, appelé «RGPD», qui doit entrer en vigueur le 25 mai.

«Nous travaillons afin de le faire aussi vite que possible», a affirmé M. Zuckerberg, sans pouvoir dire si cette protection serait mise en place dans les délais impartis.

Il avait déjà fait la veille devant le Sénat des commentaires similaires sur le RGPD qui lui ont valu mercredi les remerciements quelque peu ironiques d’une responsable européenne. «Merci M. Zuckerberg», a lancé Vera Jourova, commissaire à la Justice et à la Protection des consommateurs, au cours d’une conférence de presse à Bruxelles. «Je cherchais comment faire campagne pour notre règlement sur la protection des données. Voilà, c’est fait», a-t-elle souligné.

Source AFP 11/04/2018

Voir aussi : Rubrique Internet

Désolé pour les gens qui meurent en Afrique, Facebook va maintenant se concentrer sur l’écureuil qui meurt devant votre porte

7a970fdc3f2e23fd4aac5f0986ed5c2c

Le changement d’algorithme de Facebook agite le monde des médias et de la communication.

L’algorithme Facebook est à l’information ce que le taux directeur de la Fed est à l’économie mondiale. Le réseau social a atteint une telle puissance (plus de 2 milliards d’utilisateurs réguliers) qu’un battement d’aile de son algorithme peut avoir des conséquences immenses.

En 2012, par exemple, Facebook avait discrètement augmenté la part de news politiques dans le fil d’actualités de 2 millions d’utilisateurs américains avant l’élection présidentielle. Juste pour voir. Résultat : l’équipe data de Facebook avait mesuré une augmentation de la participation chez les électeurs concernés.

Les contenus des amis avant tout

Voici donc le nouveau tremblement de terre : Facebook a annoncé jeudi un changement majeur dans son algorithme : priorité sera donnée aux contenus postés par ses amis proches au détriment des contenus postés par les pages professionnelles (médias, marques, personnalités…). Avant même que l’on connaisse les effets réels de ce changement, tout le secteur des médias et de la communication est déjà en état de panique.

Telle une encyclique papale, Mark Zuckerberg a énoncé dans un post la philosophie de cette réforme du news-feed:

«La vidéo et autres contenus publics ont explosé sur Facebook ces dernières années. Puisqu’il y a désormais plus de contenus et de vidéos créés par les marques que de posts publiés par vos amis, le news-feed s’est détourné de ce qui est le plus important — nous aider à nous connecter avec les autres. Nous voulons nous assurer que nos services ne sont pas juste fun à utiliser, mais aussi utiles au bien-être des utilisateurs.»

Mark Zuckerberg, prof de yoga

Mark Zuckerberg parle donc maintenant comme un prof de yoga et veut se concentrer sur le «bien-être» de ses utilisateurs. Un mot relativement neuf dans son répertoire.

Le sens profond de cette réforme du news-feed est contenue dans cette phrase prêtée à Mark Zuckerberg : «un écureuil qui meurt devant votre porte risque de davantage vous intéresser que des gens qui meurent en AfriqueCette loi du mort au kilomètre avait été développée devant ses équipes en 2005 lors de la création du fil d’actualités, selon David Kirkpatrick, auteur de «The Facebook Effect».

Tout sauf la passivité

Une information qui ne fait pas réagir n’en est pas une. Zuckerberg ne veut pas que Facebook soit consommé façon «couch potato», passivement dans son lit ou son fauteuil, de la même manière qu’on regarde la télévision. Il convoque la science pour expliquer ce choix:

«Les recherches montrent que quand nous utilisons les réseaux sociaux pour se connecter avec des gens qui comptent pour nous, cela peut être bon pour notre bien-être. On peut se sentir ainsi plus lié aux autres et moins seul, et il existe une corrélation sur le long terme avec les indicateurs de bonheur et de bonne santé. Au contraire, lire des articles ou regarder des vidéos passivement — même si ces contenus sont divertissants ou instructifs — peut ne pas être aussi bon [pour le bien-être]»

Lutter contre les fake news ? Vraiment ?

Cette modification de l’algortihme est parfois interprétée — à tort, à mon sens — comme une manière de lutter contre les fake news. En réalité, selon cette nouvelle philosophie zuckerbergienne, le critère d’invisibilisation d’un contenu n’est pas sa fausseté mais son incapacité à faire réagir ou à créer le bien-être à long terme. On mesure bien à quel point l’objectif est totalement opposé à celui d’une éthique de l’information.

En privilégiant l’interaction au détriment du contenu pertinent, Mark Zuckerberg fait de l’information un simple support de conversation. Et rien de telle qu’une fake news pour susciter de l’interaction.

La pub veut de l’interaction

Facebook hait la passivité. Sans doute d’abord pour des raisons publicitaires. Un utilisateur passif, c’est un utilisateur qui ne crée pas de data et donc de valeur publicitaire.

«Si on analyse ce que dit Mark Zuckerberg, c’est une mesure qui vise à optimiser la performance publicitaire, estime Emmanuel Parody. Le critère de performance de Facebook, ce sont des contenus qui engagent, avec des internautes qui cliquent, partagent et commentent. Ce sont autant de critères de performance publicitaire»

Ce changement de paradigme chez Facebook marque la fin programmée d’une pratique qui a fait les grandes heures du réseau : le stalking. Facebook, pour les anciens, c’était d’abord cette machine fascinante à afficher des photos de quasi inconnus, à s’immerger dans des vies lointaines et à se perdre dans les abîmes de la sérendipité sociale.

La fin de la «machine zone»

En 2013, l’époque où Facebook était encore davantage un réseau de photos que de news, le journaliste Alexis Madrigal avait comparé l’ivresse de la consultation du réseau à celle que l’on ressent devant les machines à sous.

Selon lui, Facebook nous ferait entrer dans la «machine zone», cet état hypnotique que ressentent les joueurs de machine à sous, tel que décrit par l’anthropologue Natasha Schüll. Les joueurs ne sont pas tant aimantés par l’argent que par le rythme incessant de la machine, qui les plonge dans une forme d’hypnose.

Cette hypnose du stalking, ce plaisir si spécial du combo Facebook/kebab à 5h du matin en rentrant de soirée, est une activité que ne veut plus encourager le réseau. Car le stalking ne produit pas de «réactions», pas de «j’aime», pas de «grrr», pas de «wow». C’est une pure perte de temps. Et Facebook dit explicitement vouloir lutter contre ces «pertes de temps».

La vie quotidienne est ailleurs

Les contenus que Facebook veut maintenant encourager sont les événements de la vraie vie, prompts à créer de l’interaction avec ses amis : naissance, mariage, changement de job, déménagement, voyage… Le souci est que ces événements ne sont pas si légion. C’est pour cela que Facebook relance sans cesse, avec lourdeur, en proposant de repartager ces contenus un an, deux ans, trois ans, quatre ans après.

Facebook peut bien décider de se couper progressivement des médias et des marques, le problème est que ses utilisateurs ne produisent de toute façon plus assez de contenus perso. La vie quotidienne, banale et infra-ordinaire, vrai pétrole des réseaux, est partie sur Snapchat ou Instagram. Ne restent plus sur Facebook que les «actualités», personnelles (que Facebook veut renforcer) ou du monde (que Facebook veut minorer).

Il va falloir que beaucoup d’écureuils meurent devant nos portes sinon on va vite s’ennuyer sur ce réseau.

Vincent Glad

Source Libération 13/01/2018

Voir aussi : Rubrique InternetDe l’art ou de l’amour ? fb censure sans chercher, Dans l’enfer de la modération Facebook : les règles secrètes ont été dévoilées, rubrique Médias, Comment Facebook achète la presse française, rubrique Education, rubrique Politique, Société civile, rubrique Société, Citoyenneté,  rubrique International, rubrique Politique,

Google Facebook. Censure et chaussettes roses,

Google Facebook. Censure et chaussettes roses

cavalier

L’un, Google, prétend « organiser l’information du monde et la rendre universellement accessible et utile ». L’autre, Facebook, veut « rapprocher le monde » en connectant les gens. Chaque jour, plus d’un milliard de personnes utilisent ces services comme s’ils échappaient aux pesanteurs politiques avec autant d’agilité que leurs maisons mères esquivent leurs obligations fiscales. Générés par de froids algorithmes, les résultats d’une requête ou la sélection du fil d’actualité nous paraissent aller de soi : déformés par la publicité, certes, mais imperméables à l’idéologie. On n’accuserait pas un tuyau de gauchisme ou d’atlantisme. On devrait.

Le 18 novembre dernier, lors d’un forum international sur la sécurité, M. Eric Schmidt, alors président exécutif d’Alphabet, la société qui contrôle Google, répond à un utilisateur allemand indigné de recevoir sur son smartphone trop d’alertes Google en provenance de l’agence publique russe Sputnik : « Nous travaillons sur la détection et le déréférencement de ce genre de sites, je pense à RT et à Sputnik. Nous sommes bien conscients de ce qu’ils font — on en a beaucoup parlé — et nous essayons d’élaborer un système pour empêcher cela . » Avec sa cravate fuchsia et ses chaussettes assorties, M. Schmidt vient tranquillement d’annoncer que le moteur de recherche le plus utilisé dans le monde truquerait désormais ses résultats au détriment de certains médias suspects de véhiculer des fake news fausses nouvelles »). Pas n’importe lesquels : les seuls ouvertement visés figurent dans le collimateur du ministère de la défense américain, dont M. Schmidt est par ailleurs conseiller. Sous pression depuis l’élection présidentielle de 2016, Facebook et Twitter pourchassent les publicités achetées par des comptes associés au Kremlin, tandis que Google s’emploie à renvoyer dans les profondeurs du classement les résultats trop proches des vues de Moscou.

Mais comment séparer automatiquement le bon grain de l’ivraie ? « Dans un communiqué publié le 25 avril, M. Ben Gomes, vice-président de l’ingénierie de Google, a déclaré que la nouvelle version du moteur de recherche rétrograderait les sites “offensants”, et ferait remonter plus de “contenus faisant autorité” », écrivent Andre Damon et David North, du World Socialist Web Site (wsws.org, 2 août 2017). Aidé d’une société d’analyse de référencement, ce site trotskiste a mesuré les effets du nouvel algorithme qui, par défaut, présuppose les médias dominants fiables et la presse alternative louche. « On observe une perte importante de lectorat des sites socialistes, antiguerre et progressistes au cours des trois derniers mois, avec une diminution cumulée de 45 % du trafic en provenance de Google. » Entre mai et juillet 2017, les visites de wsws.org issues de Google ont chuté de 67 %, celles du réseau Alternet.org de 63 %. La plate-forme audiovisuelle Democracynow.org enregistre un plongeon de 36 % ; Counterpunch.org, de 21 % ; et Theintercept.com, de 19 %. « Dans la bataille contre les “fake news”, alerte l’association américaine Fairness and Accuracy in Reporting (FAIR) (1), une grande partie des reportages les plus indépendants et les plus précis sont en train de disparaître des résultats des recherches effectuées dans Google . » Tuer le pluralisme au nom de l’information ?

Pierre Rimbert

(1) Robin Andersen, « Backlash against Russian “fake news” is shutting down debate for real », Fair.org, 29 novembre 2017, dont le présent article reprend plusieurs éléments.

Source : Le Monde Diplomatique Janvier 2018

 

Voir aussi : Rubrique Médias, rubrique International, rubrique Politique,