L’essor considérable de l’intelligence artificielle a suscité une inquiétude majeure concernant la validation des contenus en ligne. En effet, cette technologie permet dorénavant de produire des contenus numériques, y compris des images artificielles de personnes, de façon presque indiscernable de la réalité.
OpenAI, la jeune entreprise réputée pour ses outils d’intelligence artificielle génératrice comme ChatGPT et Dall-E, a récemment développé un dispositif de détection d’illustrations produites par l’IA. Selon des évaluations internes, cet outil parvient à reconnaître correctement environ 98% des images conçues par Dall-E 3, alors que moins de 0,5% des images non générées par de l’IA sont incorrectement associées à Dall-E 3.
Toutefois, OpenAI reconnaît que sa solution peut être moins efficace lorsque les illustrations produites subissent des retouches ultérieures ou proviennent d’autres modèles d’IA. Afin d’assurer l’origine et l’authenticité des contenus numériques, la start-up a choisi d’intégrer des marques en filigrane aux illustrations d’IA, conformément aux standards de la Coalition for Content Provenance and Authenticity (C2PA).
D’autres mastodontes de la technologie, comme Meta (Facebook, Instagram) et Google, se sont également engagés dans l’initiative de validation des contenus en ligne. Meta commencera bientôt à étiqueter les contenus générés par l’IA en respectant la norme C2PA, tandis que Google emboîtera le pas.
Pour conclure, la validation des contenus en ligne est devenue une priorité incontournable face à l’essor de l’IA génératrice, capable de produire différentes formes de contenus pouvant être exploités de façon malhonnête. Il est crucial de mettre en œuvre des dispositifs de contrôle et de validation pour garantir une expérience en ligne sécurisée pour l’ensemble des utilisateurs.
Publié le 08/05/2024 à 08h42 | Durée de lecture : 1 minute
Source : www.francetvinfo.fr