Skip links

Déchiffrer la fiabilité des intelligences artificielles : une mission délicate

L’avancée des intelligences artificielles génératives

Ces dernières années ont été marquées par d’importants progrès dans le domaine des intelligences artificielles génératives. Les grandes avancées ont notamment été observées dans les modèles de langage (LLM), tels que o3 d’OpenAI, qui deviennent experts dans des domaines variés comme la biologie, les mathématiques, le code informatique ou encore la physique. Les benchmarks, outils permettant d’évaluer et de comparer les performances de ces modèles, peinent à suivre ce rythme effréné.

Le dernier benchmark en date, Humanity’s Last Exam, composé de 3 000 questions complexes, a été seulement complété à 10 % par les meilleurs modèles lors de sa sortie en mi-janvier. Quant à Deep Research, lancé le 3 février par OpenAI, il a déjà atteint un score de 26 %, et certaines prédictions envisagent un taux de réussite de 50 % d’ici la fin de l’année pour les modèles les plus performants.

Face à cette progression rapide, des voix s’élèvent pour mettre en garde contre les risques potentiels liés à ces technologies. Nicolas Miailhe, cofondateur de Prism Eval, une start-up française spécialisée dans l’évaluation des modèles avancés d’IA, souligne que ces intelligences artificielles sont comme des « boîtes noires », de plus en plus complexes et puissantes, et qu’il manque actuellement une méthodologie solide pour évaluer leurs implications. Avec les pressions économiques et sociales croissantes, il est essentiel de prendre en compte ces enjeux de manière proactive.

Pour en apprendre davantage sur ce sujet, n’hésitez pas à vous abonner pour lire la suite de cet article.

Source : www.lemonde.fr

>> Découvrez notre Générateur Image IA

Leave a comment

🍪 Ce site web utilise des cookies pour améliorer votre expérience en ligne.