L’exemple des réseaux sociaux et le défi de la régulation
Les technologies de persuasion
Au cœur de l’économie de l’attention, les réseaux sociaux ne cessent d’améliorer les stratégies destinées à maximiser le temps d’écran des utilisateurs. Le modèle d’affaires des principales plateformes (e.g. Facebook, Twitter, LinkedIn, Snapchat, Instagram ou encore TikTok) repose sur l’obtention de données précises sur les intérêts et les choix de leurs utilisateurs, dans le but de vendre aux annonceurs la possibilité de présenter des publicités à des catégories spécifiques de personnes susceptibles d’être intéressées (cibler les « persuadables »).
Prises dans une course à l’attention, ces plateformes recourent à des méthodes de plus en plus sophistiquées pour inciter les individus à accroître l’usage qu’ils en font – la consommation moyenne serait de 150 minutes par jour – et encourager leurs amis à en faire autant, afin d’obtenir toujours plus d’informations sur les comportements des utilisateurs. Toute action en ligne est ainsi analysée: les clics, les publications sur lesquelles une personne s’attarde, la durée de l’examen du profil d’une connaissance, les vidéos regardées ou même le rythme d’écriture sur le clavier.
Ces réseaux sociaux sont construits sur des technologies de persuasion créées en vue d’influencer l’utilisateur à passer davantage de temps sur l’application en question. Les contours précis de ces technologies sont tracés par des designers, des psychologues, des ingénieurs, des experts en sciences comportementales et des neuroscientifiques, qui travaillent de concert pour que le produit soit en mesure de capter et maintenir l’attention. Des facteurs tels que la motivation (e.g. notre désir de lien social), la capacité (e.g. la simplicité d’utilisation) et les déclencheurs (e.g. les notifications) sont pris en considération pour optimiser chaque caractéristique de l’application.
Trois exemples de technologies de persuasion:
- le démarrage automatique de la vidéo suivante à l’issue d’un compte à rebours, la continuation du visionnage devenant la solution par défaut;
- les notifications figurant sur les applications dans un cercle rouge avec un chiffre (parfois avec une vibration ou un message lumineux apparaissant sur l’écran), exploitant la tendance à réagir à cette couleur avec une certaine urgence pour attirer l’utilisateur;
- la possibilité de nouveaux likes ou commentaires, suscitant un besoin de revenir sur l’application en quête du sentiment de plaisir, de récompenses ou d’appartenance.
L’exploitation de certains traits psychologiques à des fins commerciales (ou politiques) n’est pas nouveau. Depuis longtemps, les départements marketing utilisent des techniques tenant compte des biais cognitifs pour influencer les comportements des consommateurs [sur les stratégies du marketing, cf. le documentaire « Propaganda – La fabrique du consentement » de Jimmy Leipold, 2017]. La nouveauté réside dans la quantité d’informations analysée par les plateformes technologiques et le degré de précision des projections réalisées par des algorithmes alimentés par plus de deux milliards d’utilisateurs mensuels (Facebook).
Ces algorithmes permettent en effet de déterminer de façon personnalisée quelle vidéo, quel article ou quelle image faire apparaître sur le fil d’actualité d’un utilisateur pour garder son attention, sur la base d’une multitude de critères, notamment l’identification de comportements récurrents par des profils similaires, mais également la prise en compte des réactions humaines aux stimuli qui ont marqué notre évolution depuis nos plus vieux ancêtres (e.g. la peur du danger ou du rejet) et sont encore ancrés dans notre physiologie [à cet égard, cf. Yuval Noah Harari, Sapiens – Une brève histoire de l’humanité, 2015].
L’asymétrie des forces de négociation
Face à une intelligence artificielle, nourrie par de puissants algorithmes et sans cesse améliorée par les cerveaux de la Silicon Valley, l’individu, et son intelligence humaine, n’est pas toujours à même de rivaliser. Difficile de faire entrer un tel déséquilibre des forces de négociation dans la conception classique des rapports contractuels, à savoir la rencontre de personnes présumées égales et rationnelles au sein d’un marché supposé libre [sur la remise en question des postulats de la liberté contractuelle, cf. Jonathan Bory, L’effectivité de la liberté contractuelle, thèse, 2021, p. 66 ss].
Derrière la possibilité offerte gratuitement aux utilisateurs de rester en contact avec leurs amis et de découvrir des articles ou vidéos, le réseau social, prenons Facebook, enrichit sa base de données et vend aux annonceurs une opportunité d’influencer ou persuader ses utilisateurs. La référence à la « gratuité » est ainsi erronée, car l’utilisation du réseau a un prix: la valeur de l’attention consacrée et des données transmises. La capitalisation boursière de Facebook, près de 700 milliards de dollars, apporte la preuve de la valeur considérable de la contreprestation fournie par ses utilisateurs.
Shoshana Zuboff, professeure émérite de l’Université de Harvard, identifie quatre principales asymétries de forces [cf. Shoshana Zuboff, The Age of Surveillance Capitalism, 2019]:
- Une asymétrie de connaissances et d’informations: alors que le réseau social connaît les moindres faits et gestes de ses utilisateurs, il ne leur dévoile pas – ou que très partiellement – ses actions, objectifs et stratégies.
- Une asymétrie de capacité et de contrôle: la vie des utilisateurs est traduite en données comportementales (capacité) pour rendre possible l’influence et la persuasion des annonceurs, qui sont les clients du réseau social (contrôle).
- Une asymétrie de taille et d’échelle: des entreprises digitales gigantesques, qui soulèvent des questions sociales et économiques, en augmentant la concentration dans certaines industries et dont l’effet sur les emplois, les salaires et la démocratie n’est pas négligeable.
- Une asymétrie de ressources: les réseaux sociaux sont en mesure de changer les règles du jeu, compte tenu des moyens financiers – ils lèvent des centaines de millions auprès d’investisseurs reconnus -, des talents et des compétences scientifiques sans précédents à leur disposition.
En présence de telles disparités des forces entre les réseaux sociaux et les utilisateurs, il est difficilement défendable de s’en remettre pleinement à la responsabilité individuelle et aux forces autorégulatrices du marché pour assurer un certain équilibre dans la relation. D’autres modes de protection sont aujourd’hui indispensables; la mise en place de politiques publiques claires en matière de prévention des risques et de correction des déséquilibres est nécessaire.
L’étendue des risques et le défi de la régulation
Les études réalisées sur l’impact des réseaux sociaux mettent en évidence les risques pour les plus jeunes générations (e.g. cyberbullying et taux de suicide, déficit d’attention, retards de développement, manque de sommeil), ainsi que pour la santé au sens large (e.g. addictions, augmentation du stress, du sentiment de solitude, des troubles de l’alimentation) et la qualité des relations humaines (e.g. fréquentes interruptions de conversations par des notifications, distraction accrue), mais encore de la sécurité (e.g. consultation des réseaux sociaux au volant) ou de la démocratie (e.g. distorsions de la réalité par des fils d’actualité personnalisés, amplification de discriminations, renforcement de la polarisation, développement des fake news et influence du processus électoral).
Mis sous pression par leurs investisseurs dans un environnement concurrentiel, les réseaux sociaux sont pris dans une course à la croissance et à la monétisation, qui demande toujours plus de données et d’attention. Les conséquences sociales et financières liées à leurs actions, notamment aux technologies de persuasion mises en œuvre, ne sont que rarement assumées par ceux-ci. Alors que ces plateformes bénéficient de colossaux revenus publicitaires, l’essentiel des « externalités négatives » demeure porté par la communauté.
Sans rejeter les aspects positifs (e.g. accès à la connaissance offert par YouTube, révélation d’artistes sur TikTok, liberté d’expression sur Instagram et amitiés maintenues grâce à Facebook), des mesures sont requises pour prévenir les risques, protéger la population des conséquences négatives et favoriser le développement de technologies qui s’inscrivent effectivement au service du plus grand nombre (« humane technologies »). Les défis de politique publique relèvent bien sûr de la protection des données et de la vie privée, mais également d’autres domaines, tels que la protection du développement des enfants, la transparence et la responsabilité des plateformes, le droit des utilisateurs à la liberté cognitive, la protection de la concurrence, la justice fiscale ou encore la sécurité nationale.
En Suisse, l’adoption de la nouvelle loi sur la protection des données (dont l’entrée en vigueur est prévue en septembre 2023) et le renforcement des règles contre la concurrence déloyale (notamment l’art. 8 LCD), constituent des pas – encore insuffisants – vers une meilleure protection des utilisateurs. Sensible aux réflexions qui ont cours aux États-Unis et au sein de l’Union européenne, le Conseil fédéral semble prendre conscience du besoin de régulation. En ce sens, il a chargé, en novembre dernier, le Département fédéral de l’environnement, des transports, de l’énergie et de la communication de lui présenter une note sur la nécessité d’une « règlementation des plateformes numériques dans l’optique de renforcer les droits des utilisateurs et de lutter contre les pratiques commerciales non transparentes ».
L’espoir de voir des mesures efficaces discipliner les excès de ces plateformes multinationales repose sur les efforts communs de différents États, à commencer par les États-Unis et l’Union européenne, ainsi que sur des initiatives privées, à l’instar de celles du Center for Humane Technology fondé par Tristan Harris ou de NOYB (None of Your Business) fondé par Max Schrems. Le défi est de taille et l’intérêt du Conseil fédéral pour l’amélioration de la régulation du monde digital doit être salué. La Suisse a certainement un rôle à jouer dans la création de nouvelles conditions-cadres favorables à l’épanouissement des droits de chacun et à la protection de sa population « contre l’emploi abusif de données qui la concernent » (art. 13 al. 2 Cst. féd.).
Suggested citation: Bory Jonathan, Les technologies de persuasion et l’asymétrie des forces de négociation – L’exemple des réseaux sociaux et le défi de la régulation, published on 15 March 2022 by the LexTech Institute, https://www.lextechinstitute.ch/les-technologies…s-de-negociation/?lang=en.
Author(s) of this blog post
Doctor of Law, lawyer and lecturer at the University of Neuchâtel