Skip links

Redefier les illustrations produites par l’intelligence artificielle: un combat complexe







Article sur les manipulations profondes à caractère sexuel

Les manipulations profondes à caractère sexuel : quand l’intelligence artificielle met en péril la vie privée

Aujourd’hui, n’importe qui peut être « virtuellement » inséré dans une image ou une vidéo à caractère sexuel sans y avoir consenti. Face à ce danger, le système judiciaire est désespérément limité en ressources. En découvrant une image la représentant sur les réseaux sociaux, la journaliste Salomé Saqué a été envahie par une profonde humiliation. En décembre 2023, elle se voit sur une photo seins nus sur les quais de Seine. L’image, diffusée sans son autorisation, est incroyablement réaliste, suscitant des remarques sexistes de nombreux internautes convaincus de sa véracité. Cependant, elle insiste auprès de franceinfo : « Cette scène est purement fictive. » En réalité, la journaliste est l’une des nombreuses nouvelles victimes d’une technologie de plus en plus accessible et dangereuse : les manipulations profondes à caractère sexuel.

Ces montages photo ou vidéo extrêmement réalistes sont généralement illégaux et peuvent détruire la réputation et la vie des individus ciblés. Leur utilisation s’est intensifiée avec les progrès de l’intelligence artificielle (IA), exposant n’importe qui à ce type de problèmes. Cela concerne particulièrement les femmes, qu’elles soient célèbres (comme la chanteuse Taylor Swift) ou anonymes (comme des étudiantes harcelées par leurs pairs).

« Il y a une certaine inquiétude », admet Samuel Comblez, responsable des opérations chez la plateforme d’écoute 3018. « Actuellement, nous ne savons pas trop comment contrer cela. »

Ce fléau n’est pas récent. « Ces manipulations profondes ne font que prolonger un phénomène déjà existant », souligne Rachel-Flore Pardo, avocate et co-fondatrice de l’association Stop Fisha. Depuis des années, des sites et des forums entiers sont dédiés à la falsification de photos ou de vidéos de femmes célèbres, telles qu’Emma Watson ou Gal Gadot, pour les incorporer à des contenus pornographiques. En France, des vidéastes ou des influenceuses comme Léna Situations, Juju Fitcats ou Maghla sont régulièrement la cible de telles manipulations.

Avec les avancées technologiques, « les montages sont désormais si réalistes qu’il est difficile de les repérer », prévient Rachel-Flore Pardo. À l’origine de cette évolution : le développement des intelligences artificielles génératives telles que Midjourney ou Stable Diffusion, qui permettent de créer ou de modifier une image sans nécessiter de compétences techniques particulières. « Autrefois, il fallait des compétences en retouche, un ordinateur puissant, de nombreuses images de la personne visée… Aujourd’hui, les logiciels sont bien plus accessibles », explique Virginie Mathivet, experte en intelligence artificielle et fondatrice de la société de conseil Hemelopse.

A tel point que ce domaine est devenu un marché lucratif. Les plateformes visant à « déshabiller » artificiellement une personne sur une photo – ou plutôt remplacer ses vêtements par une silhouette nue aux proportions similaires – prolifèrent dans l’illégalité. D’après un rapport (document PDF) de l’entreprise de veille numérique Graphika, les sites de 34 entreprises de ce type ont enregistré plus de 24 millions de visites rien qu’en septembre 2023.

La victime a préféré ne pas témoigner. Parallèlement, le 3018 constate une augmentation des cas de « sextorsion », où des délinquants obligent une victime à leur envoyer des images dénudées d’elle-même pour ensuite la faire chanter. Ces délits, impliquant des individus de plus en plus jeunes en tant que victimes et auteurs, sont de plus en plus fréquents.

Les avantages de l’IA, employée pour exercer une pression, même sans avoir acquis de véritable image compromettante.

Face à cette vague redoutée par les spécialistes, que peuvent entreprendre les victimes ? Si ces clichés sont affichés sur un média social, leur première réaction doit être de les notifier. Les signalements transmis par les organismes désignés par les plateformes comme « indicateurs de confiance », tels que le 3018, sont traités de façon très prompte, souligne Samuel Comblez. Mais pour les utilisateurs individuels, le procédé est moins rapide et plus incertain. Même après une suppression, une simple capture d’écran ou un téléchargement de l’image infamante peut maintenir la menace.

« Un contenu truqué peut subsister en ligne une heure et engendrer des répercussions durant des années », résume à franceinfo Ketsia Mutombo, cofondatrice de l’association Féministes contre le cyberharcèlement. Gestionnaire des programmes de l’association féministe En avant toute(s), Louise Delavier confirme cette analyse. « Pas besoin de le diffuser pour provoquer des dommages, il suffit qu’il soit montré à d’autres, par exemple aux pairs à l’école. »




Source : www.francetvinfo.fr

>> Découvrez notre Générateur Image IA

Leave a comment

🍪 Ce site web utilise des cookies pour améliorer votre expérience en ligne.