Les risques des agents conversationnels malveillants
L’univers de l’intelligence artificielle (IA) est en perpétuelle évolution, et de ce fait, les menaces associées à son usage le sont également. En effet, des experts de l’université de l’Indiana à Bloomington ont récemment mis en évidence une nouvelle tendance alarmante : la propagation d’agents conversationnels malveillants, élaborés par l’industrie du crime organisé.
Ces agents sont baptisés DarkGPT, EscapeGPT, WormGPT, WolfGPT, EvilGPT, DarkBARD, BadGPT, FreedomGPT, et sont capables d’exécuter des actions dangereuses telles que la programmation de virus informatiques, la rédaction d’e-mails de phishing, la création de faux sites Web, ou la détection des failles de sécurité d’un site en vue de le compromettre.
L’équipe de recherche a repéré 212 de ces applications malveillantes entre février et septembre 2023, et ce nombre est en augmentation constante. Ces services sont également plus abordables que les solutions existantes, avec des tarifs allant de 5 à 199 dollars, tout en étant rentables.
Ces agents ont par ailleurs été évalués pour leur fiabilité, et ont obtenu des résultats très satisfaisants lors de tests d’« efficacité », même si la qualité varie d’un service à l’autre.
Les criminels informatiques utilisent diverses méthodes pour concevoir ces agents conversationnels. Ils peuvent soit altérer des modèles de langage en code source ouvert, soit contourner les dispositifs de sécurité des services commerciaux.
Par exemple, Pygmallion-13B, dérivé de Llama-13b de Meta, a été entraîné à produire du contenu offensif et violent. De plus, des versions antérieures des modèles à l’origine de ChatGPT, Davinci-002 et Davinci-003 d’OpenAI, ont également été exploitées pour générer des virus et du phishing.
Cette nouvelle tendance soulève d’importantes préoccupations en matière de sécurité informatique, et met en lumière la nécessité pour les utilisateurs de demeurer prudents face à ces menaces émergentes.
Source : www.lemonde.fr