NZNTV

NOYAUZERONETWORK.ORG / GENEVA, SWITZ.
Toxic Data. « Avec X, Musk s’est acheté une arène d’influence et s’est placé au centre »

SPACE X En mettant en scène son soutien au candidat républicain Donald Trump sur X, son propre réseau social, le milliardaire Elon Musk a rompu avec une certaine politique de neutralité observée jusqu’à présent par les dirigeant·es de la « Big Tech ». Par son instrumentalisation d’un des réseaux les plus influents dans le monde, le patron de Tesla et de SpaceX illustre de nouveau les dangers que représentent les plateformes numériques pour les démocraties. Dans un livre paru en 2022, Toxic Data. Comment les réseaux manipulent nos opinions (Flammarion), David Chavalarias, directeur de recherche au CNRS, abordait ces questions, relevait nos failles et proposait des solutions. Entretien.

Mediapart : Comment analysez-vous cette rencontre entre Elon Musk et Donald Trump ?

David Chavalarias : C’est l’aboutissement d’un processus qui a démarré dès le rachat de Twitter par Musk en octobre 2022, puisqu’il avait affirmé alors vouloir acquérir de l’influence idéologique en combattant le « virus woke ». Il a donc acheté cette plateforme à des fins politiques et non pour défendre la liberté d’expression comme il l’avait proclamé. À l’époque, mon sentiment était qu’il l’avait fait notamment pour peser dans l’élection américaine de 2024, ce qui se vérifie aujourd’hui.

Son soutien à Trump était donc prévisible et tout à fait logique. Cet échange entre les deux hommes est un prolongement de la volonté de Musk d’utiliser ce réseau social pour défendre ses intérêts à la fois économiques et idéologiques. Il faut aussi souligner que c’est la première fois qu’un dirigeant d’un grand réseau social l’instrumentalise et affiche à ce point ses idéaux politiques. Il le fait sans aucun scrupule, en envoyant paître les différentes autorités qui tentent de le ramener à la raison.

Il utilise également son pouvoir d’influence sur la mécanique même de X pour promouvoir ses idées. C’est-à-dire qu’il ne s’en sert pas seulement en tant que dirigeant influent, mais il change aussi l’algorithme de X, notamment en modulant la visibilité de certains types de contenus, en réintégrant certains types de comptes et en en bannissant d’autres, pour que le réseau favorise les visions idéologiques d’extrême droite.

Est-ce la radicalisation d’un phénomène qui existait déjà ?

Oui. Nous avons beaucoup étudié l’impact des réseaux sociaux sur la circulation de l’information, et notamment celui de X. Plusieurs travaux, tant de collègues que de mon équipe, montrent que de nombreux réseaux sociaux favorisent les contenus extrêmes et la polarisation.

Il faut comprendre que la majeure partie des messages lus par les utilisateurs d’un réseau social donné le sont sur leur fil d’actualité. Cette page personnalisée ne leur montre qu’une toute petite partie de ce que produisent les comptes auxquels ils se sont abonnés, et la manière dont cette partie est sélectionnée peut fortement biaiser leur perception de leur environnement social. Or, la plupart des réseaux sociaux utilisent pour cette sélection la maximisation de l’engagement, c’est-à-dire qu’ils favorisent les contenus qui attirent le plus de partages, de likes, de commentaires, etc.

Nous avons démontré que dès qu’un réseau social utilise ce type de métrique, destinée à maximiser les revenus, il y a un effet secondaire que l’on appelle le « biais de négativité algorithmique »Ce biais a pour effets d’augmenter la proportion de contenus toxiques dans le fil d’actualité des utilisateurs, c’est-à-dire ceux qui comportent des insultes, des attaques personnelles, ou qui suscitent des polémiques.

Ce phénomène est a priori commun à de nombreux réseaux sociaux mais nous en avons mesuré l’amplification sur X par les réglages décidés par Elon Musk après son rachat de Twitter. À l’automne 2022, ce biais est ainsi passé en moyenne de + 32 % à + 49 %, et peut dans certains cas atteindre + 200 %. Ainsi, ce que vous voyez dans votre fil d’actualité sur X n’est pas un échantillon neutre de ce qu’écrivent les comptes que vous suivez mais se trouve considérablement enrichi en contenus toxiques.

Par ailleurs, il est important de noter que Musk lui-même, avec ses presque 200 millions de followers, soit près d’un tiers des utilisateurs de Twitter, dispose d’un pouvoir d’influence gigantesque. Il lui suffit de réagir par un point d’exclamation ou une émoticône à un tweet pour que son auteur et le tweet lui-même reçoivent des milliers, voire des dizaines de milliers de reposts et de nouveaux abonnés dans les heures qui suivent.

Musk s’est acheté une arène d’influence et s’est placé au centre, c’est un faiseur de rois. D’ailleurs, quand vous vous inscrivez sur X, vous êtes obligé de suivre au moins trois comptes et très souvent on vous recommande le sien. Il a ainsi acquis la maîtrise totale d’un écosystème informationnel doté d’un capital social considérable. Même si Twitter a moins d’utilisateurs que TikTok ou Facebook, les influenceurs, comme les journalistes et les politiques, y sont nombreux et ont continué d’y être actifs même après la transformation de Twitter en X et les différents scandales qui ont suivi.

Sommes-nous désormais face à un choix entre les plateformes et la démocratie ? 

C’est la thèse de mon livre Toxic Data. J’y montrais que la mécanique algorithmique et les failles de ces réseaux sociaux constituent des dangers pour la démocratie. Aujourd’hui, la menace est montée d’un cran avec une personnalité qui a acquis un réseau social, influent aux États-Unis mais aussi en Europe, et l’instrumentalise sans aucune limite morale ou éthique pour promouvoir des idées d’extrême droite au niveau international.

Les récentes émeutes de Southport au Royaume-Uni, qui se sont largement organisées à partir de X, en offrent une parfaite illustration. Elon Musk a contribué à les amplifier en annonçant « La guerre civile est inévitable » en commentaire d’un tweet clamant que les émeutes étaient dues à l’immigration massive. Ce message a été vu plus de 9 millions de fois, avec un écho médiatique considérable.

Il avait déjà mis en garde à plusieurs reprises l’Allemagne, l’Italie et bien sûr les États-Unis contre l’immigration massive et la guerre civile. À la demande d’Erdoğan, il n’a pas hésité à fermer le compte de son principal opposant en pleine campagne électorale, de même qu’il a fermé temporairement le compte d’un sponsor de Kamala Harris au moment où il effectuait une efficace levée de fonds. Musk est familier de ce genre d’interventions dans l’actualité politique et l’on pourrait en donner maints autres exemples. 

Quelles peuvent être les réponses ? 

En France, le nombre d’utilisateurs actifs mensuels de X est estimé à 12 millions, alors qu’en comparaison, le 20 heures de TF1 est vu par environ 5 millions de personnes. Nous avons donc un problème systémique relatif à la circulation de l’information au sein d’une proportion significative de la population française. Pour y faire face, les réponses doivent être systémiques et il convient d’agir à plusieurs niveaux : individuel, collectif et institutionnel.

Individuellement, il faut comprendre que les choix de réseaux sociaux de la population d’un pays ont des conséquences importantes à court terme sur la qualité de l’information et à moyen terme sur les régimes politiques qui vont s’y déployer. Il est crucial de soutenir l’éducation à la nature et aux usages des réseaux sociaux, ainsi qu’aux mécanismes de la désinformation. Il est primordial que les citoyens comprennent l’importance d’être maîtres de leurs données personnelles et de leur capital social, ces personnes qui vous suivent et vous écoutent à travers les réseaux sociaux et que vous avez mis des années à constituer.

SurX, vous ne contrôlez ni vos données ni votre capital social, et X s’autorise, et il l’a déjà fait sans raison valable, à fermer tout simplement votre compte du jour au lendemain. Les conditions d’utilisation de X sont abusives. Imaginez un service postal qui vous dirait qu’il a le droit de lire ce que vous écrivez, de le modifier, de le distribuer aux destinataires ou à d’autres personnes, de ne pas le distribuer du tout, de ne mettre dans votre boîte aux lettres qu’une partie du courrier qui vous est adressé et celui d’autres personnes de son choix, ou encore de fermer votre boîte aux lettres quand il le souhaite, sans avoir aucun compte à vous rendre. Souscririez-vous à un tel service ?

Pourtant, ce sont mot pour mot les conditions actuelles de X et d’autres plateformes, ce qui place les utilisateurs à la merci des grands réseaux. Et pensons aux jeunes, qui désormais ne donnent même plus leur numéro de téléphone mais le compte de leur réseau favori. Ils sont complètement captifs de ces réseaux qui font partie de leur identité.

Au niveau collectif, se pose la question du statut des grandes plateformes de réseaux sociaux qui sont devenues de fait des places publiques de discussion, alors que ce sont des espaces gérés par des entreprises privées. Au sein de ces espaces privés, la question de la liberté d’expression, telle qu’elle est garantie dans une démocratie pour assurer la paix sociale, est subordonnée aux conditions d’utilisation du service. Or le fait d’avoir des environnements numériques dysfonctionnels, voire malsains du point de vue du débat public et de la liberté d’expression, induit un coût énorme.

On le voit bien avec les coûts économiques et sociaux de l’amplification des émeutes au Royaume-Uni ou en France. D’où l’intérêt de déployer des environnements numériques qui respectent une certaine éthique. Se pose alors la question de savoir pourquoi il n’y a pas d’espaces publics numériques sous forme de biens communs numériques, c’est-à-dire soutenus financièrement par la population, via l’État ou les collectivités ; et opérés par des acteurs indépendants qui œuvreraient pour le bien commun en respectant certains principes déontologiques.

Pour l’instant, il n’y a guère que des réseaux encore confidentiels comme Mastodon qui donnent toute liberté aux utilisateurs sur leurs données et leur capital social tout en ne biaisant pas leur perception de leur environnement social. En parallèle, il faut évidemment développer la régulation en imposant des contraintes aux grandes plateformes commerciales, ce que l’Europe a commencé à faire avec la directive sur les services numériques (DSA).

Que peut-on faire d’un point de vue institutionnel ? J’aborde cette question dans mon livre Toxic Data, car elle me paraît centrale.

Les dysfonctionnements des espaces numériques amplifient des failles notoires de certaines institutions, par exemple celles de nos modes de scrutin. C’était flagrant aux dernières législatives, mais déjà très visible lors de la dernière présidentielle, où l’on a plus souvent voté « contre » que voté « pour ».

Rappelons qu’une personne rejetée par plus de 50 % de la population peut tout à fait accéder au pouvoir dans le cadre d’un scrutin qui se dit « majoritaire ». Il suffit de passer le premier tour à la faveur d’une fragmentation de l’opinion, notamment par division des voix, et d’être perçu comme la ou le moins pire au second tour.

En favorisant la montée de personnalités clivantes et en accentuant le caractère conflictuel des échanges entre citoyens et entre partis politiques, les réseaux sociaux augmentent cette fragmentation. En permettant de diffuser de fausses informations à grande échelle ou de déformer la perception du moins pire via des campagnes sur les réseaux sociaux dans l’entre-deux-tours, ils permettent à certains acteurs de favoriser une ou un candidat par rapport à un autre.

Cela peut aller jusqu’à bloquer la formation d’un éventuel front républicain dont la fonction est justement d’éviter l’accession au pouvoir d’une personne majoritairement rejetée. La probabilité d’un accident électoral devient donc très forte. 

Tant que les processus électoraux ne pourront pas prendre en compte les nuances d’appréciation de tous les électeurs sur tous les candidats, et en particulier le rejet, ils seront vulnérables aux manipulations sur les réseaux sociaux. Dans le climat informationnel actuel, la démocratie est malade de son mode de scrutin. 

Mais il n’y a pas de fatalité, et des solutions existent. Par exemple le jugement majoritaire, inventé il y a une quinzaine d’années par des chercheurs du CNRS [L’électeur vote en évaluant tous les candidats, à partir d’une échelle de valeur. Le candidat le mieux évalué par une majorité remporte l’élection – ndlr], respecte la contrainte du rejet majoritaire et il est démontré qu’il est le mode de scrutin le moins sensible à une manipulation par radicalisation des débats. 

Que ce soit au niveau individuel, collectif et institutionnel, beaucoup de choses peuvent être mises en place en quelques mois et sont peu coûteuses. Ce qui manque est à la fois une prise de conscience collective et une volonté politique.

Emmanuel Macron a proposé de bloquer les réseaux sociaux ou de restreindre les réseaux sociaux pour les moins de 15 ans. Tout le discours politique semble s’attaquer aux plus jeunes, est-ce la bonne solution ? 

Les réseaux sociaux ne concernent pas simplement les jeunes. Dans un pays comme la France, environ 70 % de la population y est connectée. En 2021, 38 % des Français s’informaient au moins une fois par semaine grâce aux réseaux sociaux. On est dans un nouvel écosystème informationnel qui met en défaut à la fois les institutions et les procédures de choix collectifs. Mais on a des solutions. Cependant, on fait rarement le lien entre la désinformation et les modes de décision collective comme le vote, alors que c’est fondamental.

De plus, beaucoup de responsables politiques sont réticents à considérer cette question du changement de mode de scrutin, car cela signifierait passer dans un nouvel espace politique où ils seraient susceptibles de perdre leurs repères. 

Depuis le rachat de Twitter par Musk, ce dernier a également fermé l’accès aux données. En quoi ce manque de transparence est-il préjudiciable ? 

C’est un sujet important. La plupart des grands réseaux sociaux ne partagent pas leurs données, et il est très difficile pour la recherche de mener des études sur la désinformation ou sur les biais politiques. Pendant longtemps, Twitter a été l’un des seuls réseaux permettant de collecter des données sur n’importe quel sujet à grande échelle via une interface de programmation (API).

Nous n’avions accès qu’à 10 % de l’ensemble du flux au maximum mais c’était largement suffisant. Cela nous a permis, de 2016 à 2023, de mener de nombreuses études sur cet espace privilégié d’échanges politiques et de questions sociétales comme le réchauffement climatique ou la pandémie. Nous avons par exemple pu faire des études sur l’évolution du climatoscepticisme. Twitter nous a ouvert une fenêtre sur une partie de l’espace informationnel français et même international, et nous a permis de quantifier les différentes méthodes et biais, donc les méthodes de manipulation d’opinion.

Mais, après le rachat, Musk a fermé cet accès pour échapper à la critique et aussi pour des raisons économiques, car l’arrivée de l’intelligence artificielle a rendu les données sur les réseaux très lucratives. Musk a par exemple développé sa propre IA, Grok, entraînée sur les données des utilisateurs de X. Il y a donc désormais un problème majeur de transparence. Les études que nous avons menées lors des législatives s’effectuent sur un volume de données beaucoup plus restreint. Notre champ de vision s’est réduit. Il est beaucoup plus difficile pour la recherche de mesurer l’instrumentalisation de ce réseau et son impact.

François Bougon