Réseaux sociaux : « Si Emmanuel Macron croit à ce qu’il dit, il faut revoir les budgets alloués à la régulation des plateformes »

De Toulouse à Arras, le chef de l'Etat va à la rencontre des Français pour entendre leurs questions et donner son point de vue sur les réseaux sociaux et la menace qu'ils font peser sur notre démocratie. Mediacités a demandé à un expert ce qu'il pensait de ses prises de position.

Expert des algorithmes de recommandations, Jean-Lou Fourquet (en bas à gauche), estime qu'Emmanuel Macron fait les bons constats, sans agir concrètement. / Illustration Mediacités

Isolement, utilisation compulsive des réseaux sociaux, dégradation de la santé mentale, cyberharcèlement de masse, polarisation politique, guerre de l’information, appels à la haine… Les réseaux sociaux – malgré leurs indéniables bons côtés – peuvent mettre en danger nos sociétés.

Le 12 novembre à Toulouse, dans les locaux de La Dépêche du Midi, ou le 19 novembre à Arras avec La Voix du Nord… Ces dernières semaines, Emmanuel Macron réalise un tour de France en partenariat avec la presse quotidienne régionale pour évoquer le sujet et préparer l’opinion publique à des mesures annoncées pour 2026. Les députés macronistes viennent en effet de déposer une proposition de loi visant notamment à interdire les réseaux sociaux aux moins de quinze ans.

Mediacités a demandé à un spécialiste du sujet, Jean‐Lou Fourquet, s’il partageait les constats du président de la République et ce qu’il pensait de ses conclusions. Ancien ingénieur, ce journaliste indépendant a co‐écrit La dictature des algorithmes, en 2024, avec Lê Nguyên Hoang pour expliquer comment les IA de recommandations, aujourd’hui contrôlées par des multinationales ou des États autoritaires, fragilisent nos démocraties et les droits humains.

Mediacités : Vous avez regardé l’intervention d’Emmanuel Macron à Toulouse sur les réseaux sociaux. Il fait le constat de l’impact sur les enfants et sur les mineurs, des menaces de déstabilisation de la démocratie. Il cite les récentes ingérences en Roumanie et rappelle que ces plateformes ont pour modèle économique la vente de publicités ciblées, ce qui induit que les contenus mis en avant sont les plus viraux et non les plus intelligents. Partagez‐vous ce constat que les réseaux sociaux mettent en danger nos démocraties ?

Jean‐Lou Fourquet : J’ai été très frappé de le trouver très aligné avec ce que nous défendons à Tournesol (Lire plus bas) depuis des années. Pour qu’un débat démocratique puisse avoir lieu, il faut que l’information que les citoyens consomment soit de qualité. Ce n’est pas à Mediacités que je vais l’apprendre…           

L’information, comme l’air ou l’eau, est un « commun » dont notre fonctionnement démocratique dépend. Si on prend l’image d’un lac comme étant l’écosystème informationnel du citoyen, le lac dans lequel les citoyens s’abreuvent d’information est aujourd’hui ravagé par des marées noires à répétition causées par les grandes plateformes, comme Youtube et Tik Tok. Des mécanismes de filtrage permettent à ce lac d’informations de rester « potable ». Le premier, c’est l’Éducation nationale, où on a décidé démocratiquement de transmettre un tronc commun informationnel à tous les citoyens. Cela pèse quand même 160 milliards d’euros. S’y ajoutent les médias publics et les autorités de régulations, qui représentent quatre milliards d’euros. 

Mais en vingt ans, les réseaux sociaux ont pris tout l’espace et décident aujourd’hui sans aucun contrôle démocratique l’éditorialisation des contenus que les citoyens français vont consommer plusieurs heures par jour. Et là, qui régule ça ? Quasiment personne. L’Arcom dispose de 46 millions d’euros et un petit bout de ce budget est alloué à la régulation des réseaux sociaux. Et c’est ça qui est terrible.

Si Emmanuel Macron croit vraiment à ce qu’il dit, il faut revoir le montant des budgets qui sont alloués à la régulation des plateformes. Il faut financer des structures comme la nôtre, qui travaillent sur des algorithmes de recommandation alternatifs à ceux des grandes plateformes ou sur des plateformes alternatives. Qu’il y ait un tel constat, mais qu’il n’y ait pas les budgets et le fléchage, cela m’interroge.

Pendant son intervention, Emmanuel Macron a dit qu’il est trop compliqué pour la puissance publique de réguler les plateformes. C’est un aveu de faiblesse ou une absence de volonté de sa part ? 

À un moment il dit : « Je n’en veux pas aux plateformes, car c’est leur modèle économique. » D’accord, mais cela n’empêche pas de réguler. Le modèle économique des labos pharmaceutiques est de vendre des médicaments. Pour autant, on fait en sorte qu’ils ne mettent pas sur le marché des produits qui pourraient tuer des gens. Pareil pour les avions, et pourtant, ça n’entrave pas l’innovation, bien au contraire. Toulouse est bien placée pour le savoir. 

Dans le cas des réseaux sociaux, on ne peut pas les laisser déployer des algorithmes de recommandation à des milliards de citoyens, à des dizaines de millions en France, de citoyens, à des centaines de millions en Europe, sans avoir une autorité de régulation qui vérifie que ces algorithmes de recommandation n’ont pas des conséquences dramatiques. 

Mais est‐ce possible ? 

Il y a toujours moyen s’il y a une volonté politique. Cela dit, cela illustre l’aveu de faiblesse politique par rapport au néolibéralisme et au pouvoir du secteur économique, a fortiori celui de la tech. L’Europe a été littéralement colonisée par ces grandes plateformes. Ses citoyens passent des heures sur des réseaux sociaux gouvernés par des algorithmes de recommandation qui sont hors de portée de nos systèmes démocratiques européens. Ils sont même hors de tout contrôle démocratique dans l’absolu, puisque, que cela soit aux États‐Unis ou en Chine, il y a une connivence de plus en plus grande avec l’autoritarisme. 

Pourtant, l’Europe a mis en place des réglementations, comme le DSA qui existe depuis 2022. Un règlement visant déjà à responsabiliser les plateformes. Or, à l’entendre, on a l’impression qu’il faut encore légiférer.

En Europe, on se réfugie derrière la régulation, mais on oublie que s’il n’y a pas d’application derrière, cela ne sert pas à grand‐chose. Attention, cependant, on ne reste pas sans rien faire. L’Europe a imposé des amendes conséquentes à de grandes entreprises américaines : 1,8 milliard d’euros à Apple, en 2024, par exemple. 

Mais la question est : peut‐on se permettre aujourd’hui d’imposer des amendes à Meta [qui contrôle Facebook ou Instagram] et Google, sans qu’ils nous disent « ok, vous mettez tant de milliards, nous on part, on met plus Google en Europe ». C’est un rapport de force auquel ces structures sont prêtes [voir l’exemple de l’Australie et du Canada]. Il faut se rendre compte que ces grandes plateformes se voient elles‐mêmes et agissent de plus en plus comme des États dans les États ou des États nations numériques. Elles ont un pouvoir incroyable.

Résultat, j’ai l’impression que l’Europe a du mal à faire appliquer ses propres lois. Parce qu’en fait, si elle appliquait ce que ses lois prévoient (notamment le DSA, article 34 et 35), les plateformes devraient déjà être dans l’obligation de mesurer et d’atténuer les risques causés par leurs algorithmes de recommandation. 

Malgré tout, Emmanuel Macron dit qu’il faut forcer les plateformes à ouvrir leurs algorithmes pour les mettre à disposition d’acteurs choisis par les autorités de régulation. De quoi parle‐t‐il ?

Le gros problème aujourd’hui, c’est que pour comprendre le fonctionnement des algorithmes de recommandation et leurs conséquences sur la société, il faut absolument qu’on ait accès aux données. Or, à chaque fois que des groupes de citoyens ou d’avocats essaient de porter plainte contre Facebook ou d’autres plateformes numériques pour avoir amplifié tel message de haine avec telles conséquences, les plateformes se cachent toujours derrière le secret des affaires, ou bien derrière le respect de la vie privée des usagers qui se sont suicidés, par exemple. Cela leur permet de continuer à maintenir le doute quant aux conséquences négatives de l’amplification algorithmique qu’ils réalisent.

Pour lutter contre cela, il faut absolument imposer aux plateformes d’ouvrir leurs données à des équipes de chercheurs et de chercheuses. C’est le seul moyen pour qu’il y ait des études indépendantes sur les conséquences de ces systèmes.

À défaut de réguler les plateformes, Emmanuel Macron voudrait lever l’anonymat des utilisateurs de réseaux sociaux. Il en parle depuis 2019. Aujourd’hui, il affirme qu’il faut remettre de l’autorité sur les réseaux sociaux et de la responsabilité. Qu’en pensez‐vous ? 

Quand il dit ça, il fait abstraction de l’énorme risque de détournement autoritaire de cette levée de l’anonymat. Si cela est mis en place, on aura bien raison de s’inquiéter le jour où il y aura l’équivalent de Donald Trump au pouvoir en France. L’important n’est pas de lever l’anonymat, mais de redonner de la légitimité à l’expertise des gens qui s’expriment sur Internet, tout en préservant l’anonymat ou bien le pseudonymat. 

Des technologies permettent de prouver qu’un internaute est un citoyen français sans pour autant l’identifier. Il y a la validation par email institutionnel ou par garants qu’opère Tournesol par exemple, ou encore la preuve à divulgation nulle de connaissance, ou Zero Knowledge proof, en anglais. 

L’enjeu est aussi plus simplement de s’assurer que ce sont des humains qui s’expriment et pas des bots russes ou chinois. On peut assez facilement différencier les comportements inauthentiques pour ensuite supprimer ces faux comptes. En 2021, Facebook a supprimé quatre milliards de comptes. Il faut se rendre compte de ce que cela représente !

À Toulouse, Emmanuel Macron a évoqué la mise en place d’une majorité numérique à l’âge de quinze ans. Depuis, ses députés ont déposé une proposition de loi allant dans ce sens, avant même la fin de son cycle de « débats » sur la question. Est‐ce une solution ? 

Certains pensent que non, car il faudrait attaquer les plateformes sur leur modèle économique et interdire certains usages, notamment la publicité ciblée qui est à l’origine de toutes les dérives. Cela dit, préserver le public vulnérable que sont les jeunes, cela me paraît être une bonne direction. C’est exactement comme l’alcool. Sa consommation par un adulte fait également courir un risque, mais ce n’est pas interdit. En revanche, sur le plan sociétal, on a estimé que les jeunes étaient une population davantage à risque. 

Un élément qui n’a pas du tout été abordé par Emmanuel Macron, c’est la censure sur les réseaux sociaux, notamment sur YouTube. Dans une récente vidéo de Clément Viktorovitch, par exemple, le mot « viol » est bipé par l’auteur pour éviter l’invisibilisation automatique de la vidéo par Youtube. Y‑a‐t‐il une prise de conscience sur cette question ou pas du tout ?

Pour moi, cette question, c’est l’arbre qui cache la forêt. C’est important de tourner notre regard vers cet arbre à partir du moment où cela nous force à voir la forêt. L’immense pouvoir de Youtube, ce n’est pas simplement de censurer des mots, mais c’est bien d’invisibiliser des vidéos (shadow banning), des chaînes, des thématiques entières. 

C’est ce que Lê Nguyen Hoang appelle les mute news [les informations bâillonnées]. Les plateformes ont, par exemple, tendance à amplifier tous les thèmes qui divisent et qui clivent, tout en étouffant ce qui pourrait nous rassembler. En ce sens, il est intéressant de noter que la vidéo la mieux notée de Tournesol, et donc mise en avant, c’est une vidéo sur l’accaparement de la richesse par quelques individus.

Il y a un consensus radical transpartisan dans la population sur cette question qui amènerait à des changements politiques importants. On a vu cette thématique apparaître tardivement et fugacement dans les médias classiques cet automne avant de disparaître à nouveau… Dans un écosystème informationnel sain, ce genre de consensus radical ne devrait jamais quitter la Une des journaux et des fils d’information, tant que rien n’est fait politiquement pour s’attaquer au sujet. Il faut empêcher les plateformes d’invisibiliser ces consensus radicaux. 

Emmanuel Macron est au pouvoir depuis 2017. Un an avant, il y avait eu le Brexit où l’on sait le rôle joué par les réseaux sociaux. Un an après, il y a eu le scandale Cambridge Analytica qui a révélé les dangers liés aux algorithmes de recommandation. Les premières alertes sont encore plus anciennes. Pourtant, Emmanuel Macron ne se saisit de la question qu’aujourd’hui, en 2025. Qu’est‐ce qu’il attend pour agir ?

À chaque fois que j’écoute Emmanuel Macron, je le trouve beaucoup plus pertinent dans ce qu’il dit que dans ce qu’il fait. Il dit les choses que je veux entendre, mais ensuite, je ne vois pas bien ce qu’il fait. Très clairement, il aurait pu débloquer des investissements sur ce sujet. Je n’ai rien vu de tel. Beaucoup de financement sont allés sur l’IA générative, mais très peu sur les IA de recommandation démocratique. Avec Tournesol, nous allons essayer de contacter ses équipes parce que, vu ce qu’il dit, il devrait financer nos travaux. 

Depuis notre création il y a cinq ans, nous n’avons eu aucun financement public. Nous venons tout juste d’avoir notre premier financement privé (100 000 euros de la Fondation de France). Mais pour pérenniser une équipe et avoir quelques développeurs, il nous faudrait 300 000 ou 400 000 euros de budget de fonctionnement par an. Au vu de l’importance démocratique du sujet, un financement public serait plus qu’opportun. On pourrait avancer plus vite, parce que, pour l’instant, notre association est composée uniquement de bénévoles. 

Que propose Tournesol exactement ? 

C’est une plateforme associative qui essaie de voir comment pourrait fonctionner un algorithme de recommandation basé sur les votes réfléchis d’une communauté. Les membres de notre communauté évaluent des vidéos issues de Youtube en les comparant les unes aux autres, par exemple. Et cela va nourrir un algorithme de recommandation basé sur ces jugements humains réfléchis. N’importe qui peut installer notre extension sur son navigateur. Cela permet d’afficher nos recommandations sur YouTube. Au lieu d’avoir une vidéo sur le dernier skateboarder qui s’est jeté d’un avion sans parachute, que Youtube veut absolument que vous regardiez, vous allez avoir des vidéos qui ont été élues comme devant être largement recommandées par la communauté Tournesol.

https://www.youtube.com/watch?v=kt6WaZfDSAU

Et quoi les recommandations Tournesol se distinguent de celles de YouTube ?

Il y a quatre différences principales. La première différence, c’est la transparence du processus. Quand un utilisateur regarde une vidéo YouTube, aime une vidéo, la commente ou la partage, il ne sait pas quel impact cela a sur ses futures recommandations ou celles des autres. S’il commente négativement pour critiquer la vidéo, au lieu de l’enterrer, cela va peut‐être faire remonter la vidéo dans l’algorithme de recommandation. Sur Tournesol, tout est en open source pour que tout le monde puisse savoir exactement comment marche l’algorithme. Et donc, vous savez très bien que, quand vous comparez positivement une vidéo, vous allez avoir un impact positif sur le classement de la vidéo parce que vous pouvez aller voir comment cela marche.

La deuxième différence, c’est la robustesse. Les faux comptes recommandent aussi des vidéos et des contenus sur les réseaux sociaux. Il n’y a pas assez de vérification pour s’assurer que les comptes sont authentiques. Chez nous, il y a tout un système pour bien valider que la personne est un humain.

La troisième différence, c’est que les algorithmes de recommandation classiques sont basés sur l’instinct des gens. Sur Youtube, il ne montrent pas les vidéos des chaînes auxquelles tu es abonné, mais les vidéos des chaînes auxquelles tu n’as pas pu résister de regarder. C’est comme si les algorithmes de recommandation des grandes plateformes faisaient émerger l’instinct des foules plutôt que la partie réfléchie des internautes. 

Et nous, ce qu’on fait à Tournesol, c’est de capter l’avis réfléchi et mesuré des utilisateurs. Et le but de l’algorithme de recommandation de Tournesol, c’est d’essayer de faire émerger la sagesse et le côté rationnel de nous tous plutôt que notre instinct. 

Et la quatrième différence est une différence, peut‐être la plus fondamentale, c’est que les algos de recommandation sont individualisés. Ils ne montrent pas ce que tout le monde recommande, mais ce qu’il pense le plus irrésistible pour chacun. À Tournesol, quand tu votes pour une vidéo, tu votes pour ce que tu penses qu’il faudrait recommander à tout le monde. Pas sur ce que toi, tu aimerais voir. Les algos de recommandation classiques sont optimisés pour enfermer les utilisateurs dans leurs bulles. Ceux de Tournesol font en sorte de créer une base informationnelle commune propice au débat démocratique.

Aucun commentaire pour l'instant

Publié le

Modifié le

Temps de lecture : 9 minutes

Favorite

Par Gael Cérez

1 / ?