Vous avez peut-être déjà entendu dire que la fonction tirer pour actualiser de plusieurs applications mobiles s’ins- pire d’abord du levier d’une machine à sous, reproduisant ainsi un mécanisme déjà addictif qui nous maintient accrochés à nos appareils.

Cette ressemblance avec le jeu de hasard le plus rentable n’est pas une coïncidence.

Et ce n’est pas non plus la seule méthode utilisée par les entreprises Big Tech pour pirater notre cerveau et nous inciter à rester en ligne plus longtemps et à adopter des comportements addictifs.

« Les entreprises technologiques se sont emparées de certaines de nos vulnérabilités humaines les plus profondes », explique Gaia Bernstein, professeure de droit sur la protection de la vie privée et la politique technologique à l’Université de Seton Hall et auteure du livre Unwired : Gaining Control Over Addictive Technologies.

« Elles ont pris des expériences psychologiques très connues et les ont transformées en principes de design que l’on retrouve partout sur Internet ».

Les tactiques technologiques

La fonction tirer pour rafraîchir est l’une des méthodes utilisées par les entreprises technologiques pour nous rendre accros, et elle fonctionne grâce à ce que les experts appellent le « modèle des récompenses intermittentes ».

Il s’agit d’un concept psychologique selon lequel le cerveau libère plus de dopamine lorsque nous sommes récompensés de manière irrégulière, plutôt que lorsque nous savons avec certitude que nous recevrons ou non une récompense.

C’est le même mécanisme qui crée les addictions aux jeux d’argent et de hasard : gagner de l’argent à une machine à sous crée une immense satisfaction, même pour de petites sommes, car on ne sait jamais si l’on va gagner.

« Vous mettez un post sur Instagram, et vous n’avez aucune idée du moment où les gens vont l’aimer », explique Gaia Bernstein.

« Vous recevez constamment des notifications sur votre téléphone, mais vous ne savez pas quand vous allez les recevoir ou quand quelque chose d’important va arriver. »

C’est pourquoi on continue à consulter son téléphone et à recevoir des stimuli de dopamine lorsque l’on est récompensé par un message d’un ami ou une réponse à un courriel professionnel, par exemple.

Une autre méthode utilisée par les entreprises technologiques consiste à éliminer ce que les experts appellent les « signaux d’arrêt ».

« Si vous êtes sur X ou Facebook, il n’y a jamais de fin à la page. C’est ce qu’on appelle le défilement infini. »

Il s’agit d’une fonction conçue à l’origine par l’ingénieur Aza Raskin, qui a depuis exprimé beaucoup de regrets quant à cette invention.

Dans un tweet publié en juin 2019, il a déclaré : « Une de mes leçons du défilement infini : que l’optimisation de quelque chose pour la facilité d’utilisation ne signifie pas le meilleur pour l’utilisateur ou l’humanité. »

Pourquoi cette fonction est-elle si addictive? Aza Raskin l’a expliqué dans un entretien avec la BBC : « Si vous ne donnez pas à votre cerveau le temps de rattraper vos impulsions, vous continuez à défiler ».

Les signaux d’arrêt, comme la fin de la page d’un livre ou le bas des résultats d’une recherche Google, permettent à notre cerveau de prendre une pause et de décider si on veut continuer à s’engager dans l’activité en cours, car on doit prendre la décision consciente de tourner la page ou de charger la prochaine série de résultats de recherche.

Le cerveau étant l’organe qui consomme le plus d’énergie dans le corps, il essaie de rester efficace en choisissant par défaut l’option la plus facile.

Sachant que ces machines paresseuses auraient besoin de plus d’énergie pour s’arrêter plutôt que de continuer à dériver le long d’un fil d’actualité sans fin ou d’un flux continu d’épisodes de Netflix joués automatiquement, les entreprises technologiques ont exploité cette caractéristique de notre cerveau pour nous garder plus longtemps sur leurs plateformes.

C’est aussi la raison pour laquelle les entreprises tech- nologiques consacrent tant d’efforts à la rapidité de chargement de leurs pages. En 2012, chaque seconde supplémentaire de temps de chargement d’une recherche Amazon coûtait à l’entreprise 1,6 milliard $ par année. Un chiffre qui pourrait être beaucoup plus important aujourd’hui, puisque Amazon a connu une croissance exponentielle au cours de la dernière décennie.

Dans un article publié sur Medium, Tristan Harris, ancien concepteur éthique de Google et cofondateur du Centre for Humane Technology, et sans doute le transfuge le plus connu de l’industrie technologique, décrit d’autres façons dont les entreprises Big Tech détournent cette tendance du cerveau à privilégier le confort et la convenance.

Par exemple, il affirme que les entreprises technologiques ont pris le contrôle du menu des choix qu’elles proposent, donnant une illusion de choix. On croit à tort que ce qui est présenté est tout ce qui est disponible, permettant aux entreprises de manipuler nos choix. En utilisant une application de rencontres, on pense que seules les personnes qui sont inscrites sur l’application sont disponibles pour une date.

Il écrit : « Lorsqu’on nous propose un menu de choix, nous nous posons rarement les questions suivantes : qu’est-ce qui n’est pas sur le menu? ; pourquoi me propose-t-on ces options et pas d’autres? ; est-ce que je connais les objectifs du fournisseur du menu? ; est-ce que ce menu répond à mon besoin initial ou est-ce que les choix sont en fait une distraction? »

Et lorsqu’il s’agit de choix que les entreprises technologiques ne veulent pas que l’on fasse, des obstacles ou des « frictions » sont créés pour nous empêcher d’aller jusqu’au bout de notre décision.

Pour annuler un trajet Uber, au moins trois menus différents s’affichent et demandent si vous êtes certain de votre décision et pourquoi. Pour mettre fin à un abonnement, on vous amène souvent à parcourir plusieurs pages proposant des réductions ou expliquant la valeur de l’abonnement avant d’être finalement autorisé à résilier.

Tristan Harris explique également comment les entreprises technologiques ont créé des fonctions qui font appel à nos besoins et instincts sociaux. Les notifications que l’on reçoit à propos des likes reçus sur un post Instagram deviennent la façon dont on reçoit l’approbation sociale de la photo que l’on a prise.

La confirmation de lecture qui indique à notre ami que nous avons vu son message sur Facebook devient une incitation à y répondre immédiatement, de peur de paraître impoli.

Enfin, Gaia Bernstein souligne que l’un des moyens les plus importants pour nous garder accrochés est bien sûr les algorithmes sophistiqués et personnalisés qui sont conçus pour faire appel à nos intérêts et à nos émotions les plus fortes.

« Malheureusement, ils ont découvert que lorsque nous sommes en colère, lorsque nous ressentons de la haine, nous restons en ligne plus longtemps. Ils ont découvert que lorsque les adolescents se sentent mal, ils restent en ligne plus longtemps. »

Les algorithmes, dans leur objectif de collecter des données et de nous garder en ligne plus longtemps, sont donc incités à promouvoir toutes sortes de contenus provocants, des troubles alimentaires jusqu’aux idéo- logies politiques radicales.

Des incitations qui ont des conséquences hors ligne catastrophiques.

En 2018, Facebook a admis que ses algorithmes avaient été utilisés pour créer des chambres d’écho qui incitaient à la violence au Myanmar, promouvant un génocide contre le peuple Rohingya (7).

« Je reproche à Facebook, à sa société mère Meta et à l’homme derrière tout cela, Mark Zuckerberg, d’avoir contribué à créer les conditions qui ont permis à l’armée du Myanmar de déchaîner l’enfer sur nous », déclare Maung Sawyeddollah, réfugiée Rohingya, dans un article publié par Al-Jazeera.

« L’entreprise de médias sociaux a laissé les sentiments anti-Rohingya s’envenimer sur ses pages. Ses algorithmes ont favorisé la désinformation qui s’est finalement traduite par des violences dans la vie réelle. »

« Malheureusement, ils ont découvert que lorsque nous sommes en colère, lorsque nous ressentons de la haine, nous restons en ligne plus longtemps. Ils ont découvert que lorsque les adolescents se sentent mal, ils restent en ligne plus longtemps. » Gaia Bernstein.

Un déni plausible?

Mais comment savoir si les grandes entreprises technologiques travaillent activement à nous maintenir plus longtemps sur nos écrans?

La Liberté a posé cette question à Gaia Bernstein. Au début, dit-elle, nous ne savions pas ce qui se passait.

Puis les premiers dénonciateurs des entreprises Big Tech, comme Tristan Harris, Aza Raskin et Frances Haugen, ont fait part de leur expérience.

« De plus en plus de personnes ayant joué un rôle majeur dans ces entreprises se sont manifestées et ont expliqué comment l’engagement et le fait de garder les gens en ligne plus longtemps étaient essentiels pour le modèle économique des grandes entreprises technologiques.

« Peut-être qu’au début, ils ne se rendaient pas compte des dégâts qu’ils causaient », poursuit-elle.

« Mais à un certain moment, des études internes ont été révélées, par exemple dans le Wall Street Journal, démontrant essentiellement qu’elles connaissaient les dégâts, mais que leurs intérêts commerciaux y étaient tellement ancrés qu’elles ne pouvaient pas y renoncer. »

Depuis ce temps, les grandes entreprises technologiques ont continué de redoubler d’agressivité et de lutter contre toutes les réglementations et tentatives visant à structurer l’utilisation de la technologie, même après l’avalanche d’études détaillant les effets négatifs des écrans sur les cerveaux des adultes et des jeunes.

Au lieu de ça, les entreprises technologiques intègrent dans leurs produits des fonctions qui renvoient la responsabilité de l’utilisation excessive aux consommateurs. En créant des avertissements sur le temps passé devant l’écran et des contrôles parentaux faibles et faciles à ignorer, les fabricants de produits technologiques ont réussi à rejeter la responsabilité de leur propre conception addictive sur le manque de maîtrise de soi des utilisateurs.

Cette situation n’est pas sans rappeler les batailles juridiques menées contre l’industrie du tabac. Pendant des décennies, les fumeurs ont perdu des cas face aux fabricants de tabac parce que ces derniers affirmaient qu’ils fumaient en toute connaissance de cause.

« Maintenant, certaines lois ont été adoptées. Et que se passe-t-il ensuite? L’industrie technologique se rend aux tribunaux et affirme qu’il s’agit d’une violation de leurs droits de liberté d’expression. Les fonctions addictives, le défilement infini – ils disent que c’est leur discours. C’est dire à quel point les choses sont allées loin. »

Une raison d’espérer

Pourtant, l’industrie technologique n’a pas été en mesure d’arrêter les réglementations et les politiques qui commencent à être mises en place pour protéger les enfants et les adolescents.

Une tendance qui s’explique d’abord par le nombre croissant de preuves et d’histoires dévastatrices qui confirment que les écrans sont nocifs pour le développement du cerveau.

Des études montrent que les effets négatifs des écrans sur le développement cognitif, social et émotionnel, et la santé mentale des jeunes s’aggrave.

Mais aussi, comme l’affirme Gaia Bernstein, il est plus facile de commencer par imposer des restrictions aux comportements des mineurs. Il est plus facile de protéger les enfants en réglementant leur accès aux cigarettes ou à l’alcool, mais un organisme gouvernemental aurait bien du mal à essayer de restreindre l’accès des adultes à des substances nocives sans être accusé d’enfreindre leurs droits fondamentaux.

Ces changements de politique visant à protéger les enfants pourraient constituer un bon point de départ pour ceux qui cherchent à faire évoluer l’industrie technologique.

« Je pense que cela va changer les choses pour tout le monde, parce qu’il devient beaucoup plus difficile pour les entreprises d’avoir des modèles commerciaux différents pour des âges différents. »

« Ça devient plus compliqué, plus cher, et peut-être qu’on verra alors une évolution vers un modèle d’entreprise qui n’est pas basé sur le vol de notre temps. »