C’est une guerre invisible, qui dynamite de plus en plus l’espace numérique et nos démocraties. franceinfo a pu pénétrer, pour la première fois, chez Viginum, le service de l’Etat qui lutte depuis trois ans contre toutes les ingérences numériques étrangères.
Les bots, ce sont ces robots pilotés par des intérêts privés ou des Etats et qui, sur internet, se font passer pour des humains pour nous vendre des produits, nous arnaquer mais surtout, en ce moment, tenter de nous manipuler lors de crises politiques ou d’élections. Dans ce dernier cas, on parle de badbots, des « mauvais robots » parfois difficiles à identifier, cachés derrière de faux comptes ou mails, qui abreuvent les réseaux de fausses informations et interagissent de plus en plus avec les vrais internautes pour manipuler l’opinion ou déstabiliser des Etats comme la France.
franceinfo a pu pénétrer, pour la première fois, chez Viginum, le service de l’Etat qui lutte depuis trois ans contre toutes les ingérences numériques étrangères. Chacun des signalements de Viginum arrive directement sur les bureaux du Premier ministre et de la sphère du renseignement. Au sein de Viginum, le travail des analystes du Datalab, rivés à leurs écrans, est de détecter toutes les activités « inauthentiques » sur les réseaux sociaux, celles décuplées par les bots et, de plus en plus, par l’intelligence artificielle. « On a par exemple un compte qui publie tout à minuit, ou chaque heure, explique Paul-Antoine Chevalier est le chef du Datalab. Ce n’est pas du tout ce que ferait un humain de manière naturelle. Potentiellement, c’est l’actiond’un chatbot ou d’un service d’IA en ligne. C’est très probablement un robot. »
Durant les J.O. de Paris 2024, Viginum a identifié une de ces opérations de désinformation automatisée contre la France : la campagne pro russe Matriochka diffusait massivement du faux contenu, de fausses réponses sur X à partir de « fermes à robots ». Tout cela est aidé, désormais, par l’intelligence artificielle pour rendre ces narratifs encore plus crédibles. « C’est évident qu’on voit des manipulations à base d’IA dans les détections qu’on fait au jour le jour, confirme Paul-Antoine Chevalier. On a développé une méthode en interne, pour détecter les contenus massivement dupliqués même s’ils sont reformulés par de grands modèles de langage. On arrive à voir la proximité sémantique entre ces contenus. L’IA offre des possibilités toujours nouvelles aux attaquants, il faut donc être en mesure de le détecter. »
La part de ces badbots dans le paysage numérique serait très importante. Depuis plusieurs années, la société américaine de cybersécurité Imperva, une filiale du français Thales, prétend mesurer de manière fiable le trafic mondial de ces robots sur les réseaux. Selon Imperva, les bots vont, c’est mathématique, bientôt dépasser l’activité des humains. « Quand on regarde tout le trafic internet mondial, 50% sont du trafic humain et les autres 50% sont du trafic automatisé, via des robots, détaille Florian Malecki, l’un des responsables d’Imperva. Il y a un travail à faire par les éditeurs dans le monde de la cybersécurité, ainsi que par les fournisseurs de réseaux sociaux, pour bloquer ces badbots. Mais comme dans toute activité criminelle, c’est toujours la course entre les ‘bons’ acteurs et les ‘mauvais’ acteurs. »
« Aujourd’hui, 32% du trafic bot sont du trafic de robots malveillants. Et cela va continuer à augmenter. » – Florian Malecki, à franceinfo
Ces campagnes amplifiées par les bots polluent le débat public. Campagne électorale américaine, guerre en Ukraine, conflit israélo-palestinien, législatives en France… L’automatisation des campagnes de haine ou de désinformation est documentée par nombre de spécialistes, comme le mathématicien du CNRS David Chavalarias.
Dans un rapport, il s’est appuyé sur une base de données de 700 millions de messages entre 2016 et 2024 pour mettre en évidence des communautés de badbots pro russes. Des robots, avertit le chercheur, qui montent en gamme et produisent des interactions plus humaines qu’avant : « Mis à part les robots de type ‘économique’, qui essayent de vous faire acheter des choses, beaucoup de ces cohortes de robots sont là pour manipuler les opinions. Ces robots sont de plus en plus sophistiqués. Tout le monde connaît maintenant ChatGPT, les intelligences conversationnelles : on sait qu’on peut faire maintenant des robots qui vont aller au contact des utilisateurs, et même dialoguer avec eux, analyser leur production numérique et, du coup, adapter le discours. C’est un vrai danger. »
Aux Etats-Unis, le réseau social X est accusé d’avoir aidé à la victoire de Donald Trump. X lutte pourtant contre les robots en supprimant constamment des faux comptes. Mais la plateforme d’Elon Musk a aussi un intérêt à abriter beaucoup de ces robots sous son toit : leur activité apporte du trafic et beaucoup d’argent des annonceurs..
Le contenu doit être formulé de façon tout à fait différente.
Source : www.francetvinfo.fr