Aujourd’hui, quand on part à la pêche aux infos qui viennent du monde, on tombe aussi sur celles des personnes. En naviguant sur la toile ce matin, m’est apparue cette photo du camp de réfugiés de Frakaport en Grèce. La photo publiée sur le blog de Cathy Garcia est accompagnée d’un témoignage poignant mais je ne sais pas pourquoi cette image bouleversante de vérité s’est gravée dans mon esprit. J’ai cherché quelques mots pour dire ce long parcours de souffrance qui ne s’achève pas. Je n’ai rien trouver. Je me suis alors réfugié dans une mini fiction comme si cela était plus efficace pour m’inciter à réfléchir, pour exprimer le sentiment de n’être rien devant cet océan d’indifférence.
Voie fictionnelle
C’était une gentille fille pleine de vie. A son arrivée, ne tenant pas en place, elle pressait sa mère de questions, sur ce qu’ils allaient faire dans cette nouvelle région, combien de temps ils y resteraient, où serait sa nouvelle école, comment seraient ses copines… Et puis, face aux demi-réponses de sa mère, le doute s’était installé. Le jour elle la voyait parfois fondre en larme. Maintenant, elle avait l’impression qu’on la guettait depuis le carré obscure qu’elle voyait de la fenêtre, mais elle ne posait plus de question.
Elle se réveille souvent au milieu de la nuit avec une sensation d’étouffement. Elle voit des flammes courir le long de la tente et ses dessins qui tombent en cendre.
JMDH
Ce qu’ils disent
» Nous sommes ici depuis trois mois. – Avant nous étions à Idomeni, sous des tentes en plein vent. – Les tentes ici sont installées dans un ancien entrepôt. – Nous regrettons Idomeni. – Ici nous sommes totalement isolés, sans contact avec le monde extérieur. – Les Grecs sont aussi pauvres que nous. – Il n’y a pas de travail, rien à faire. – En face il y a une usine d’épuration d’eau et l’air est irrespirable…«
Source témoignage : Blog de Cathy Garcia 14/09/2016
Beaucoup de voix critiquent Facebook, accusé d’avoir fait monter Trump. C’est méconnaître ce qui se joue vraiment dans une élection et c’est une façon facile de ne pas voir en face la réalité du vote Trump.
Pour les critiques, cette sélection des contenus selon des critères hyper-personnalisés finit par créer des « bulles filtrantes » (filter bubbles) : des univers où les utilisateurs ne sont exposés qu’à des contenus qui reflètent ce qu’ils aiment et pensent déjà.
A travers les réseaux sociaux, « nous recevons des informations de personnes qui nous ressemblent et qui ont des centres d’intérêt proches des nôtres », dit le chercheur et activiste Ethan Zuckerman.
Au lendemain de l’élection de Donald Trump, plusieurs médias américains font le procès de Facebook et de son algorithme comme l’un des rouages de leur aveuglement. « Comment Facebook a aidé Donald Trump à devenir président », titre Forbes. Plus direct, Select All, un site du New York Mag, y va cash : « Donald Trump a gagné à cause de Facebook. »
La thèse est séduisante et rassurante au lendemain de la victoire. Mais si les critiques ne sont pas dénuées de fondement, il est faux, et hypocrite, de dire que Facebook a fait élire Trump.
D’abord parce que l’idée surestime le rôle des médias dans les votes. Ensuite parce qu’elle refuse de voir les vraies raisons du vote Trump. Et enfin parce qu’elle blâme Facebook pour tout un système – dont les sites qui accusent maintenant la plateforme font partie.
« Chambres d’écho »
Commençons par rappeler les critiques adressées à Facebook, qui est devenu une source d’informations majeures :
« [Facebook] centralise la consommation d’informations en ligne », écrivait John Herrman dans le New York Times. Parmi les 67% d’adultes américains disant utiliser Facebook, 44% expliquent l’utiliser comme source d’information, avançait une récente étude du Pew Research Center. Pour le journaliste, une grande partie des discussions politiques aux Etats-Unis se déroulent aujourd’hui sur Facebook.
Les critiques se concentrent d’abord sur le fil d’actualité (« newsfeed »), la fonctionnalité centrale de Facebook, qui permet de voir ce que ses amis partagent. Ce fil est personnalisé par un algorithme – et c’est le cœur du problème.
L’algorithme sélectionne explicitement les statuts, les articles ou les photos que ses utilisateurs sont plus susceptibles d’aimer et de commenter, en fonction de ce sur quoi ils ont déjà cliqué, liké, etc. Facebook cherche explicitement à provoquer ce qu’ils appellent l’engagement, car c’est un moyen de retenir plus longtemps les gens sur leur plateforme.
Les filtres des algorithmes écartent les contenus dissonnants et les mondes numériques des plateformes se peuplent alors de voix similaires, devenant des « chambres d’écho » qui déforment nos perceptions, en nous donnant l’impression fallacieuse que le monde pense comme nous.
Un journaliste britannique décrivait ainsi cette bulle filtrante : « Plus de 58 millions de personnes ont voté pour Trump. Je n’en connais aucune. »
Dans une appli, le Wall Street Journal avait montré ce que peuvent donner ces chambres d’écho en reproduisant côte à côte un fil conservateur (les articles proviennent de sources classées comme telles) et un autre plus à gauche. Voilà par exemple ce que deux utilisateurs différents pouvaient voir de Donald Trump ce vendredi matin :
Danger pour la démocratie
Certains, comme le militant de l’Internet Eli Pariser, ont pointé il y a déjà plusieurs années les dangers de ces dynamiques pour la démocratie :
« En fin de compte, la démocratie ne fonctionne que si les citoyens sont capables de penser au-delà de leurs propres intérêts. Mais pour le faire, nous avons besoin d’une vision commune du monde. Nous avons besoin d’entrer en contact avec la vie d’autres personnes, leurs besoins et désirs. La bulle filtrante nous pousse dans une direction opposée – elle crée l’impression que nos intérêts personnels sont tout ce qui existe.
Alors que si c’est une bonne chose pour faire consommer les gens, ce n’est en pas une pour faire en sorte que les gens prennent des décisions ensemble. »
C’est cette critique ancienne qui ressurgit aujourd’hui.
La fracture constatée au lendemain de l’élection et le désarroi des gens qui croyaient dur comme fer que Clinton serait élue s’expliquerait en partie par ces chambres d’écho. Pour Science of Us, c’est ce qui explique pourquoi le trumpisme a prospéré et pourquoi tant de personnes en ont été isolées.
Facebook polarise les contenus
Une autre critique récurrente concerne la polarisation des contenus. En favorisant les contenus populaires et largement partagés, Facebook encourage la création de contenus chocs, aux titres forts susceptibles d’être partagés dans l’économie de la viralité.
Comme les journaux sont de plus en plus dépendants de Facebook pour faire lire leurs contenus et toucher leur audience, ils se trouvent également poussés à produire des articles « clickbait », sensationnalistes et outranciers dans l’espoir de faire cliquer. Pour Vox, c’est ce qui explique que les élections américaines de 2016 ont pris un « ton si apocalyptique ».
Et au jeu de la phrase choc et de la production de contenus viraux, Trump est le candidat idéal. C’est aussi en ce sens que Facebook aurait favorisé Trump : parce que la plateforme, par essence, favorise les petits contenus clivants et partagés.
Pendant cette élection, cette dynamique a, souligne Science of Us, encouragé la création de de pages idéologiquement très marquées ou de tout petits sites à l’audience inversement proportionnelle grâce à des contenus viraux.
Ceux-ci sont une affaire lucrative : Buzzfeed a ainsi révélé qu’une poignée de Macédoniens avaient créé et géré une centaine de sites pro-Trump. Pas parce qu’ils appréciaient le candidat, mais pour les revenus publicitaires générés par leurs contenus. « Ils publient presque tous des contenus agressifs pro-Trump destinés aux conservateurs et partisans de Trump aux Etats-Unis », explique le journal. « L’enquête de BuzzFeed News a également établi que les articles qui fonctionnaient le mieux sur ces sites étaient presque tous faux ou trompeurs. »
Et ne peut pas lutter contre les fausses infos
Autre critique soulevée : l’incapacité de Facebook à contrer les hoax et les informations fausses. Facebook ne distingue pas dans le fil des utilisateurs ces infos erronées ou bidons, qui génèrent de l’audience.
« Si quelqu’un partage un article d’un politicien qui rentre dans votre conception du monde, mais que ce contenu est complètement faux, vous le verrez dans votre fil d’actualité », résume Business Insider. Les fact-checkeurs n’arrivent pas à se faire entendre. Une histoire fausse mais frappante risque de générer plus d’engagement qu’un article sérieux démontant ces infos fausses.
Sur cette place trop grande laissée aux infos fausses ou complètement bidons, Facebook répondait à Vox utiliser plusieurs signaux pour détecter ces contenus et réduire leur portée.
« Malgré ces efforts nous comprenons qu’il y a beaucoup de choses que nous devons faire et qu’il est important de continuer à améliorer notre capacité à détecter la désinformation. »
« Nous sommes une plateforme »
De son côté, Facebook se justifie avec une ligne de défense qui ne change pas : nous sommes une plateforme qui distribue des contenus et pas un média. C’est ce qu’a répondu en août son PDG Mark Zuckerberg :
« Quand vous imaginez un média, vous pensez à des gens qui produisent des contenus, qui les éditent – ça ce n’est pas ce que nous faisons. Notre raison d’être, c’est de vous donner des outils pour sélectionner et choisir, pour avoir l’expérience utilisateur de votre choix et vous connecter aux gens, aux institutions, aux entreprises et aux institutions de votre choix. »
Les critères de Facebook, détaillés sur son blog, sont fort clairs :
« Facebook est fondé sur l’idée de connecter les gens avec leurs amis et leurs familles. C’est toujours le principe directeur du fil d’actualités aujourd’hui. »
Les détracteurs de Facebook estiment qu’aujourd’hui, au vu du rôle que joue la plateforme, cet argument est trop limité. Facebook, disent-ils, doit prendre ses responsabilités politiques.
Mauvaise foi
Une fois n’est pas coutume, on va prendre (un peu) la défense de Facebook dans ce débat. Est-ce que Facebook est biaisé ? Bien sûr. Est-ce un problème qu’un algorithme protégé par le secret commercial détermine dans des conditions relativement opaques ce que vous voyez ? Oui.
Mais Facebook – et Dieu sait qu’on est méfiant ici à son sujet – ne peut certainement pas être responsable à lui tout seul du système qu’il incarne, ni des maux structurels de la démocratie représentative américaine, encore moins de ses fractures. Démonstration.
Blâmer Facebook c’est se dédouaner facilement au nom d’un passé informationnel mythique.
« Facebook vous montre des commentaires, des statuts et des infos qui vous procurent un influx constant de shoots de dopamine. Facebook place en haut de votre fil des histoires avec lesquelles vous êtes entièrement d’accord, plutôt que des histoires et des commentaires qui vont à l’encontre de vos préjugés et de votre façon de voir le monde. »
C’est un peu facile. Est-ce qu’avant les bulles filtrantes on était réellement ces citoyens modèles des Lumières, nourris d’une information diverse et de qualité, qu’on lisait avec intérêt et qui nous permettait de nous former des jugements éclairés en matière de politique ?
Probablement pas. Les gens avaient plein de moyens d’éviter les histoires allant à l’encontre de leurs préjugés, à commencer par décider d’acheter L’Huma ou le Figaro.
Facebook et son algorithme sont-ils vraiment responsables si les libéraux (au sens américain) n’ont pas compris qu’une large partie du pays ne pensait pas comme eux ?
La déconnexion entre les élites urbaines et les zones rurales ne date pas des réseaux sociaux. Le fait de vivre entre soi a été identifiée depuis longtemps par la sociologie et porte un nom : « l’homophilie », la tendance à aimer ceux et celles qui nous ressemblent.
Quant à blâmer Facebook parce qu’on y trouve de faux comptes et que les fausses news s’y propagent facilement… c’est un peu comme blâmer l’imprimerie parce qu’elle a permis d’imprimer « Les Protocoles des Sages de Sion ».
Les raisons structurelles du vote Trump
Oui on exagère un peu. Mais il y a quelque chose de troublant dans ce retournement unanime contre Facebook. L’élection de Trump est un séisme, comme le répète toujours en une le New York Times. Se tourner vers Facebook n’est-il pas aussi une façon d’éviter de voir la réalité en face ?
Trump n’est ni une pure création médiatique ni un fou, pour lesquels n’auraient voté que des consommateurs de médias abrutis par une fréquentation trop courante de Facebook.
Comme nous le rappelions mercredi dans un papier d’analyse, le vote Trump s’explique par des dynamiques anciennes. Parmi lesquelles :
montée de la colère des régions dévastées par la chute de l’industrie ;
mutation du parti républicain qui a favorisé l’émergence de candidats clivants ;
« guerres culturelles » qui opposent depuis au moins la période des droits civiques les tenants d’une Amérique multiculturelle en mutation aux partisans de « la terre et du sang », comme disait l’éditorialiste du New York Times Paul Krugman ;
rejet des élites symbolisées par Clinton ;
désir de changement quelles qu’en soient les conséquences…
Blâmer Facebook est une façon commode de refuser de voir ce qu’ont tenté d’exprimer les électeurs de Trump.
Les médias n’influencent le vote qu’à la marge
L’autre grand point faible de l’argumentation, c’est l’idée, qui sous-tend ces critiques, que les médias influencent beaucoup les résultats du vote. D’où les inquiétudes sur les chambres d’écho, les contenus qui feraient voter Trump etc. Or
« La perspective dominante dans la communauté universitaire a longtemps été que les médias avaient des effets limités sur les électeurs »
écrit [PDF] le chercheur Christophe Piar, spécialiste de l »interaction entre médias et politique.
Les travaux en sociologie tendent à montrer que beaucoup d’autres facteurs jouent sur les choix électoraux, bien avant les médias consommés.
Ainsi, rappelait en 2012 la professeure de science politique Brigitte Le Grignou dans Télérama, une étude menée pendant la campagne présidentielle américaine de 1940, qui fait toujours référence, avait montré que la majorité des électeurs (60%) savaient pour qui ils allaient voter avant la campagne. 20% se déterminaient au moment des primaires et il ne restait donc que 20% à convaincre pendant la campagne proprement dite. Et ces candidats dont le vote reste ouvert pendant la campagne, après les primaires, étaient aussi ceux qu’elle intéressait le moins.
Les sociologues auteurs de l’étude, avaient conclu que les électeurs étaient surtout déterminés par leur statut social, leur religion et leur lieu de résidence.
Plus près de nous, en 2007, deux chercheurs américains ont étudié l’effet de Fox News sur le vote républicain. Comme Fox News n’est pas arrivée en même temps dans toutes les villes, les chercheurs ont pu comparer le vote républicain des téléspectateurs qui avaient accès à Fox News et celui de ceux qui ne pouvaient pas regarder la chaîne. Cette étude a montré que le fait d’avoir ou non accès à Fox n’avait qu’un impact statistiquement insignifiant, dans l’augmentation de la part des votes républicain.
A ce résultat, il y avait deux explications possibles : le biais de confirmation (on aborde une information avec ses opinions préconçues et on la « filtre » à cette aune) ou le regard critique des gens, qui sont capables de recevoir l’information de Fox comme biaisée.
D’autres travaux de socio soulignent aussi le poids de facteurs plus influents que les médias, comme l’importance de l’entourage, des parents, amis, collègues etc, qui exercent aussi une pression des pairs.
Et ce n’est pas nouveau : pour ne prendre qu’un exemple, des chercheurs ont constaté que l’effet de la propagande antisémite nazie diffusée à la radio dépendait très largement des prédispositions des auditeurs :
« La radio nazie était la plus efficace dans les endroits où l’antisémitisme était traditionnellement important, mais elle avait des effets négatifs là où l’antisémitisme était traditionnellement faible. »
Bref, les médias influencent certains électeurs, à la marge, et en combinaison avec d’autres facteurs qui pèsent bien plus lourd qu’eux.
La faute à tout un écosystème
Ça ne veut pas dire pour autant que les médias n’influencent pas la politique. Ils ont des effets très nets [PDF] sur la façon dont elle est présentée : croissance des petites phrases, des thèmes chocs, création de « l’agenda médiatique » qui détermine des thèmes favoris de la campagne…
Indéniablement, Facebook fait partie du problème. Mais le problème est celui de tout un système, pas seulement d’une plateforme. Facebook, c’est l’arbre qui cache la forêt.
Ce qu’on reproche à Facebook, c’est le produit d’évolutions politiques d’une part et de tout un écosystème médiatique d’autre part.
C’est ce qu’explique Fred Turner, professeur à Stanford et grand historien des origines d’Internet, invité mardi à une conférence à Sciences-Po.
Trump est d’une part le produit de la montée de l’autoritarisme personnel : une forme de pouvoir fondée sur une personnalité, comme celle de Trump, où la capacité à émouvoir compte plus que les faits avancés.
D’autre part, il y a effectivement un écosystème médiatique qui lui correspond et le renforce – mais dont Facebook n’est qu’un rouage.
« Quand une nouvelle technologie apparaît, elle remplace rarement les anciennes. Les technologies ont tendance à se superposer. »
Il faut y ajouter Twitter, Fox News, les chaînes d’info, les sites pressurés par la baisse des audiences, la publicité, l’économie de l’attention…
C’est l’ensemble, dit Turner, qui est devenu insoutenable :
« L’individualisme aujourd’hui est un problème. Nous ne pouvons plus poursuivre l’expression individuelle comme but politique. Nous ne pouvons plus compter sur des systèmes qui mettent en avant l’expression individuelle pour changer la société. »
Devant le parterre d’étudiants de Sciences-Po, le prof de Stanford, venu de Californie, s’avouait à court de solutions miracles. « Nous avons besoin d’institutions publiques. La politique est difficile, souvent ennuyeuse. Mais l’alternative, c’est le monde de Donald Trump et Facebook. »
C’était quelques heures avant le résultat des élections.
Comment nos applis sont fabriquées pour nous rendre dépendants : plongée dans une des Bibles de « l’addiction par design »
Beaucoup de médecins pensent que l’addiction à Internet n’existe pas. Pourtant dans la vie quotidienne, nous sommes nombreux à parler de nos téléphones comme de cuillères de crack.
« Il est complètement accro à Tinder », « j’essaie de décrocher un peu », « quand j’ai pas mon téléphone, je suis super nerveux », « je checke mes mails toutes les 5 minutes ».
Face à ça, nous nous flagellons : trop faibles, trop nuls, trop dispersés, trop déconcentrés : nous nous reprochons sans cesse de nous faire dévorer par nos téléphones. Pourtant, si nous nous sentons dépendants de certaines applis, c’est parce que des gens ont travaillé très dur pour nous y rendre accros.
Designers, chercheurs en architecture réseau, informaticiens, entrepreneurs… dans la Silicon Valley et ailleurs, ils cherchent à inventer des produits dont nous ne pourrons pas nous passer. En exploitant nos faiblesses bien humaines.
Plongée dans une des bibles de « l’addiction par design », pour comprendre d’un peu plus près les mécanismes qui nous enchaînent à nos écrans.
Le labo des technologies persuasives
C’est à l’université de Stanford, au cœur de la Silicon Valley, qu’on trouve un des lieux centraux de la fabrication de l’addiction par les technologies.
C’est un laboratoire de recherche, appelé le Persuasive Technology Lab. Son fondateur, B J Fogg, a inventé dans les années 1990 la « captologie » : l’étude des ordinateurs et des technologies numériques comme outils de persuasion.
Le fondateur d’Instagram, une des applis les plus addictives et l’une des plus grandes réussites de ces dernières années, est passé par ces cours, tout comme plusieurs designers et psychologues aujourd’hui haut placés chez Facebook.
Un ancien élève ayant tourné casaque, Tristan Harris, ancien « philosophe produit » chez Google dénonçant maintenant les « heures volées à la vie des gens », nous décrivait ainsi ce qui y était fait :
« Ma dernière année à Stanford j’ai choisi le cours pour devenir membre du laboratoire de persuasion technologique de Stanford. Qui était assez connu en fait pour enseigner aux étudiants comment entrer dans la psychologie des gens, et rendre les produits plus persuasifs et efficaces.
“ Persuasifs ”, ça semble bizarre comme mot dans ce contexte, mais ça veut dire : comment tu conçois un formulaire pour que les gens le finissent ? Si tu veux que quelqu’un ouvre un mail, comment tu le fabriques pour que ça soit le cas ?
On a appris toutes ces techniques, qui ressemblent à celles des magiciens. (…) J’ai vu sous mes yeux cette connexion entre les étudiants qui s’entrainaient à toutes ces stratégies et ces entreprises, qui utilisent ces principes tout le temps. Parce que c’est la clé du succès économique, faire en sorte que les gens passent le plus de temps possible sur leurs services. »
Et pour ça, il faut les rendre accros.
« Hooked »
« Les technologies qu’on utilise sont devenues des compulsions, quand ce n’est pas des addictions à part entière. Le réflexe de vérifier si on a un nouveau message.
Le désir d’aller sur YouTube, Facebook ou Twitter, juste quelques minutes, pour se retrouver une heure plus tard toujours en train de faire défiler l’écran ou de taper dessus.
Cette urgence que vous ressentez probablement toute la journée, sans nécessairement la remarquer. »
Celui qui écrit ça est un ancien élève du Persuasive Tech Lab. Il s’appelle Nir Eyal, il est « blogueur et consultant », invité chez Instagram ou LinkedIn, et il assume complètement le discours de l’addiction :
« Les innovateurs créent des produits conçus pour persuader les gens de faire ce que nous voulons qu’ils fassent. Nous appelons ces gens des “ usagers ” et même si nous ne le disons pas à voix haute, nous rêvons secrètement de les voir tous jusqu’au dernier, complètement accros à ce que nous fabriquons. »
Après des années passées dans l’industrie, des armes faites dans les mondes du jeu social en ligne et de la pub (deux mondes qui en connaissent un rayon en matière de fabrication de l’addiction) et, dit-il, des heures d’entretiens et d’observations, il a distillé ce qu’il a appris de la formation des addictions dans un livre.
Les 4 étapes de l’addiction
Le livre « Hooked » a une couverture jaune vif. On y voit le dessin d’une tête d’homme, vide. Un pointeur de souris est dirigé vers le cerveau.
Le sous-titre est explicite : « comment créer des produits addictifs » (en anglais le mot est « habit-forming », mais les dictionnaires sont formels : le mot relève du champ de l’addiction).
La couverture de « Hooked »
Alors comment fait-on ? C’est très simple, dit-il. Il faut créer des « hooks » : des façons d’accrocher les utilisateurs, suffisamment efficaces pour qu’ils ne décrochent plus jamais.
Le but ultime : que votre produit entre complètement dans les habitudes de l’usager, qu’il n’y pense même plus, qu’il se tourne vers lui sans même y penser, et qu’il s’y abîme sans réaliser que le temps passe.
Pour une appli, c’est le jackpot.
1 Trouver les bons « déclencheurs »
Ce qui va vous faire vibrer, vous émouvoir
Aujourd’hui, annonce Eyal,
« les entreprises doivent comprendre non seulement ce qui fait cliquer leurs usagers, mais aussi ce qui les fait vibrer. »
Le hook commence par un stimulus. Il faut que quelque chose donne envie aux usagers d’utiliser votre produit.
En version simple, ce sera un bouton « Cliquez ici », « S’inscrire », une notification qui provoquera chez l’usager une action.
Mais le Graal c’est le déclencheur interne : un sentiment, une émotion, quelque chose en l’usager, dans sa psyché même – un « itch », une « démangeaison », écrit Eyal, quelque chose qui le dérange, qui le gêne.
On l’a compris, pour ça les émotions négatives servent plus volontiers de déclencheur interne : ennui, tristesse, peur du rejet, frustration… Si un service soulage cette démangeaison (en proposant une distraction, par exemple), alors BANCO : l’usager va associer le service et la recherche de soulagement.
Et comme nous sommes des êtres d’habitude, une fois que nous associons un produit à une sensation, il y a de fortes chances que nous répétions encore et encore le processus. Comme le dit Evan Williams, fondateur de Twitter :
« Internet, c’est une machine géante conçue pour donner aux gens ce qu’ils veulent. (…) On pense souvent qu’Internet permet aux gens de faire des choses nouvelles. Mais les gens veulent juste continuer à faire ce qu’ils ont toujours fait. »
Le lien entre un déclencheur interne (exemple : la peur du temps qui passe) et une réaction (prendre une photo et la poster sur Instagram) va progressivement se renforcer, se sédimenter – « comme les couches de nacre qui se déposent dans une huître » écrit Eyal –, et devenir une habitude, quelque chose de subconscient plus jamais questionné.
C’est alors que l’entreprise aura réussi à établir son « monopole sur l’esprit » : être la réponse instinctive à un sentiment.
Comme aujourd’hui on va sur Google quand on se pose une question. Ou sur Amazon quand on cherche un livre ou un DVD. Sur Twitter ouTinder quand on s’ennuie, sur Facebook quand on se sent seul.
2 L’action
Pas trop de mystère ici : c’est ce qu’on va vous pousser à faire. Vous inscrire sur Facebook, vous abonner sur Twitter, faire des recherches sur Google, faire défiler sur Pinterest, swiper sur Tinder…
Mais la règle d’or, c’est que ces actions doivent être simples et ne pas demander beaucoup d’efforts de la part des usagers.
3 Une récompense variable
Si vous voulez que votre utilisateur revienne encore et encore, il faut lui donner une récompense – qu’il ne vienne pas pour rien.
Mais il ne faut pas lui donner toujours la même chose. Si l’issue de l’action est toujours la même, l’utilisateur se lassera. Mais s’il s’attend à trouver quelque chose de différent, s’il y a la possibilité du nouveau, vous avez de fortes chances de le faire revenir.
Pour Eyal, c’est la clé. Il faut nous habituer à associer une action et une récompense, mais pas de façon systématique. Savoir qu’il y aura quelque chose mais ignorer quoi : c’est le cœur du « hook. »
Eyal, citant une étude sur le comportement des joueurs pathologiques, déclare :
« En introduisant de la variabilité, on démultiplie l’effet et on crée ainsi un état de concentration, qui met en sommeil les zones du cerveau associées au jugement et à la raison, tout en activant les zones associées au désir et à l’exercice de la volonté. »
En d’autres termes, c’est pour ça, parce que vous attendez quelque chose sans trop savoir quoi, que vous vous trouvez, jugement et raison en sommeil, à zoner sur Facebook pendant des heures sans plus savoir ce que vous étiez venus chercher.
4 L’investissement
Pour rendre un usager bien, bien accro, il faut le garder sur le long terme. Et pour ça, il faut le « faire un peu travailler » : il faut qu’il investisse quelque chose qui lui donne envie de revenir.
Ce peut être des contenus, des abonnés, des données… L’important c’est qu’il ait le sentiment d’avoir tellement investi que ça ne vaut plus la peine de partir (un fonctionnement qui marche aussi sur les vieux couples dysfonctionnels).
Plus vous achetez de chansons sur iTunes, plus vous allez vouloir garder votre librairie de musique là. Plus vous avez d’abonnés sur Twitter, moins vous voudrez changer de plateforme, même pour aller sur des concurrents objectivement meilleurs.
Plus vous avez passé de temps à bâtir une réputation en ligne, comme sur eBay ou Yelp ou AirBnb, moins vous avez intérêt à en partir.
Plus vous avez galéré à apprendre à vous servir d’un produit (mettons Adobe Photoshop), moins il y a de chances que vous vouliez tout reprendre à zéro avec un autre logiciel.
Et la morale dans tout ça ?
Tout ça, donc, repose sur l’exploitation des faiblesses des gens (ce que certains appellent « le design des vulnérabilités »), et la mise en place de tous petits mécanismes presque invisibles (envoyer une notification au bon moment, vous montrer des posts d’amis pour vous inciter à rester dans la communauté). Ce n’est pas très moral et parfois, Nir Eyal semble s’en apercevoir. Il prend alors un ton moral.
Attention, dit-il en substance, il ne faut pas utiliser ces techniques pour faire le Mal mais faire le Bien. Pour savoir où l’on se situe sur le continuum entre ces deux pôles, il propose une « matrice de la manipulation » pour savoir si on est plutôt un « facilitateur » (un gentil qui manipule les gens certes, mais pour leur bien) ou un « dealer » (un méchant qui leur vend du crack dans le seul but de s’enrichir).
Mais sur le fond, la position de Eyal, comme de beaucoup de behavioristes, c’est que manipuler les comportements n’est pas en soi répréhensible, tout dépend de pourquoi on le fait.
C’est la position défendue par les théoriciens du nudge : un « paternalisme libéral » où l’on pousse sans violence les usagers à prendre les « bonnes décisions » pour eux.
Charte éthique ?
D’autres trouvent ces idées hautement problématiques. C’est le cas d’un repenti du Persuasive Tech Lab, Tristan Harris, qui milite avec l’association qu’il a créée, Time Well Spent (« temps bien dépensé »), pour la création d’un « label » décerné aux technologies soucieuses de ne pas trop manipuler leurs clients.
D’autres designers ont avancé l’idée d’une charte éthique pour leurs utilisateurs. Pour l’instant, ces tentatives sont encore bien loin d’avoir abouti à quoi que ce soit.
Mais l’ouverture du débat a pour immense mérite de nous faire comprendre que quand nous sommes accros à nos téléphones, ce n’est pas parce que nous n’avons aucune volonté. Mais parce que nous sommes alors face à toute une industrie invisible qui travaille à nous déconcentrer et à nous rendre accros.
Et tant qu’il n’y aura pas de changements de fond, il est évident que les forces en présence ne sont pas égales.
« Pour s’exercer, le pouvoir doit se donner l’instrument d’une surveillance permanente, exhaustive, omniprésente, capable de tout rendre visible, mais à la condition de se rendre elle-même invisible. Elle doit être comme un regard sans visage qui transforme tout le corps social en un champ de perception : des milliers d’yeux posés partout, des attentions mobiles et toujours en éveil, un long réseau hiérarchisé. (…) Cette incessante observation doit être cumulée dans une série de rapports et de registres ; tout au long du XVIII° siècle, un immense texte tend à recouvrir la société grâce à une organisation documentaire complexe. Et à la différence des méthodes de l’écriture judiciaire ou administrative, ce qui s’enregistre ainsi, ce sont des conduites, des attitudes, des virtualités, des soupçons – une prise en compte permanente du comportement des individus.Or, il faut remarquer que ce contrôle policier, s’il est tout entier « dans la main du roi », ne fonctionne pas dans une seule direction. C’est en fait tout un système à double entrée : il a à répondre, en tournant l’appareil de justice, aux volontés immédiates du roi ; mais il est susceptible aussi de répondre aux sollicitations d’en bas ; dans leur immense majorité, les fameuses lettres de cachet, qui ont été longtemps le symbole de l’arbitraire royal et qui ont politiquement disqualifié la pratique de la détention, étaient en fait demandées par des familles, des maîtres, des notables locaux, des habitants des quartiers, des curés de paroisse ; et elles avaient pour fonction de faire sanctionner par un internement toute une infrapénalité, celle du désordre, de l’agitation, de la désobéissance, de la mauvaise conduite. »
Michel Foucault, Surveiller et punir (Gallimard, 1975)