Un encadrement sans précédent pour l’intelligence artificielle en Europe
Les vingt-sept nations membres de l’Union européenne (UE) ont formellement validé, mardi 21 mai, une réglementation sans précédent à l’échelle internationale, afin de superviser les systèmes d’intelligence artificielle (IA) pour encourager l’innovation en Europe, tout en limitant les éventuelles dérives.
Les législateurs de l’UE étaient parvenus à un consensus début décembre, après des négociations ardues, certains pays comme la France craignant une réglementation excessive qui pourrait entraver l’évolution de ce domaine d’avenir. Le texte avait été approuvé le 13 mars par une large majorité des députés européens.
Avec « cette réglementation historique, la première du genre dans le monde », l’Europe « met en avant l’importance de la confiance, de la transparence et de la responsabilité (…), tout en veillant à ce que cette technologie en constante évolution puisse prospérer et stimuler l’innovation européenne », a déclaré dans un communiqué Mathieu Michel, secrétaire d’Etat au numérique belge, dont le pays assure la présidence du conseil de l’UE jusqu’à la fin de juin.
Une approche basée sur le risque
Cette réglementation entrera principalement en vigueur à partir de 2026. Elle adopte une approche « basée sur le risque » et impose aux divers systèmes d’intelligence artificielle des contraintes adaptées aux dangers qu’ils représentent pour la société.
Les interdictions seront exceptionnelles. Les systèmes d’IA présentant un risque limité seront soumis à des obligations de transparence très légères, tandis que les systèmes à haut risque, utilisés par exemple dans les infrastructures critiques, l’éducation, les ressources humaines ou le maintien de l’ordre, seront astreints à des exigences renforcées avant leur autorisation dans l’UE.
Ces exigences incluront, par exemple, la supervision humaine des machines, la rédaction d’une documentation technique, ou encore la mise en place d’un système de gestion des risques. Les interdictions toucheront les applications en contradiction avec les valeurs européennes, telles que les systèmes de notation citoyenne ou de surveillance de masse utilisés en Chine.
Directives spécifiques pour les IA génératives
Des directives spécifiques seront appliquées aux IA génératives, comme ChatGPT d’Open AI, pour garantir la qualité des données utilisées dans la conception des algorithmes et le respect des droits d’auteur. Les sons, images et textes générés artificiellement devront être clairement identifiés comme tels pour éviter toute manipulation de l’opinion.
Cette surveillance vise à promouvoir le développement responsable de l’intelligence artificielle en Europe, en encourageant l’innovation tout en protégeant les citoyens contre les éventuels abus de cette technologie en pleine expansion.
Source : www.lemonde.fr