L’intelligence artificielle : un risque pour la société
En plein essor aux quatre coins du monde, l’intelligence artificielle fascine autant qu’elle effraie. De nombreuses voix s’élèvent aujourd’hui pour un meilleur contrôle de cette technologie, très appréciée dans les campagnes de désinformation et de dénigrement, visant souvent les femmes. Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l’information apparaît comme l’un des grands dangers du recours croissant à l’intelligence artificielle (IA).
Des deepfakes pornographiques visant les politiciennes
Le déploiement rapide de cette technologie, au cœur d’un sommet mondial en cours à Paris, a déjà nourri ces dernières années l’essor de la désinformation, en lui offrant de nouveaux outils redoutables.
Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.
C’est le cas de l’ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d’Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.
Pollution du web
Aucun domaine n’échappe à ces contenus factices : de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d’événements historiques fabriquées en quelques clics.
Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l’engagement. La finalité n’est pas forcément de faire circuler une fausse information, mais plutôt de capter l’attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.
Autre cas de figure : en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu’ils n’avaient pourtant jamais soutenus.
Chaque événement au cœur de l’actualité suscite ainsi un flot d’images créées en ligne, comme les incendies d’ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe « Hollywood » en flammes ou d’un Oscar dans les cendres ont fait le tour du monde.
Les chatbots en vogue, tels que l’américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard : « ils ont tendance à d’abord citer des sources générées par IA, donc c’est le serpent qui se mord la queue ».
L’arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d’imposer des cadres à ces outils, plaide l’experte. Il faudrait leur « apprendre à reconnaître les sources fiables des sources de propagande ».
Source : www.europe1.fr