Instagram lutte contre le chantage et la pédocriminalité avec la technologie artificielle
Une récente initiative de nettoyage dans l’univers des réseaux communautaires
Une récente initiative de nettoyage dans le monde complexe des réseaux sociaux. Instagram annonce le déploiement à partir de ce jeudi de plusieurs nouveaux outils de prévention et de sécurité destinés aux jeunes utilisateurs et à leurs parents.
La plateforme avait déjà restreint en début d’année l’envoi de messages aux mineurs par des individus qu’ils ne suivent pas. Désormais, elle filtre automatiquement les contenus potentiellement problématiques.
Le contrôle de la nudité est renforcé avec des fonctionnalités de détection activées par défaut pour les profils des moins de 18 ans. À condition bien sûr que les utilisateurs n’aient pas menti sur leur âge à la création de leur compte. Plus concrètement, leurs messages privés ou « DM » seront passés au crible pour détecter toute nudité sur les photos envoyées et flouter automatiquement l’image.
Un avertissement apparaîtra et le destinataire pourra alors choisir de voir ou non le contenu signalé. Une façon technique de lutter contre l’envoi de photos ou de vidéos à caractère sexuel non sollicitées comme les « dick pics ».
Il s’agit également de contrer les tentatives de « sextorsion », où après un échange de photos intimes, le destinataire se transforme en maître chanteur et demande de l’argent ou d’autres contenus en menaçant de diffuser les images compromettantes. Un phénomène en pleine expansion.
Les signalements pour chantage ont explosé en 2023. En effet, les signalements pour chantage ont explosé en 2023. L’Office des mineurs (Ofmin), rattaché au ministère de l’Intérieur, en a répertorié 12 000, contre seulement une dizaine il y a trois ans. Désormais, sur Instagram, un message d’avertissement apparaît avant l’envoi d’une photo compromettante rappelant ses conséquences car « d’autres individus peuvent faire une capture d’écran ou transmettre la photo sans votre autorisation » mentionne la fenêtre d’information.
« Ils prennent très au sérieux la problématique de la prévention de la diffusion non consentie de contenus. La méthode choisie, le floutage, a également une dimension éducative, car elle permet aux jeunes de prendre conscience du contenu, un nude, qu’ils s’apprêtent à partager ou à visionner » souligne Justine Atlan, directrice de l’association e-Enfance.
Et pour mettre les choses en perspective : « il y a une lutte de plusieurs années entre l’Union européenne, garante de la confidentialité, et les plateformes sur l’analyse des messages privés, Meta prouve avec cette fonctionnalité que c’est bénéfique pour contrer des contenus dangereux ».
Un message avertit des conséquences de l’envoi d’une photo dénudée.
« Cette technologie sera complétée par une sensibilisation aux faux profils diffusant des photos malveillantes », ajoute Capucine Tuffier, en charge de la protection de l’enfance chez Meta. Non seulement des algorithmes d’intelligence artificielle (IA) sont déployés pour repérer les comptes suspects, mais ils agissent également pour les supprimer et bloquer leur re-création.
L’intelligence artificielle de Meta devient également prédictive, pour identifier les comportements atypiques des individus impliqués dans la sextorsion ou la pédocriminalité. L’application serait en mesure de déceler, a priori, les profils à risque et les empêcher d’interagir avec les adolescents en supprimant le bouton « Écrire » permettant d’envoyer un message privé et en bloquant les recherches de ces profils de mineurs.
Comment l’intelligence artificielle peut-elle identifier ces individus malveillants ? « En tenant compte d’un mélange de signaux qui lui permettent d’agir de manière proactive », esquive Capucine Tuffier. Meta ne souhaite « pas divulguer excessivement d’informations qui pourraient leur permettre d’ajuster leurs comportements » et de contourner cette surveillance préventive.. La teneur doit être formulée de manière totalement différente.
Source : www.leparisien.fr