Skip links

Meta mise sur l’IA pour évaluer les risques de ses innovations

Meta remplace les évaluations humaines par l’intelligence artificielle

Publié le 03/06/2025 à 10h21 | Mis à jour à 10h21

Intelligence Artificielle chez Meta

Une évolution significative

La maison-mère des géants des réseaux sociaux, Meta, a récemment annoncé une conversion radicale dans la gestion des risques associés à ses nouvelles fonctionnalités. En effet, elle envisage de confier le travail d’évaluation des risques, traditionnellement effectué par des employés, à une intelligence artificielle.

Contexte réglementaire

Cette décision fait suite à un accord signé en 2012 avec la commission fédérale du commerce américaine, obligeant Meta à examiner scrupuleusement les risques liés à chaque nouveau produit. Ces évaluations portent notamment sur des aspects cruciaux tels que l’impact sur les adolescents, la protection de la vie privée et la propagation de contenus toxiques.

L’IA au service de l’efficacité

D’après des sources, dont NPR, Meta planifie d’allouer jusqu’à 90 % de ces évaluations à un programme d’intelligence artificielle. Ainsi, un logiciel interne sera chargé de remplir un formulaire comportant des questions spécifiques sur de nouveaux projets. Ce processus permettra d’obtenir une validation quasi instantanée, facilitant ainsi le lancement rapide de nouveaux produits sur le marché.

Justifications de Meta

Meta défend cette stratégie en affirmant : « À mesure que les risques et nos programmes évoluent, nous améliorons nos procédés d’identification des risques et fluidifions les prises de décision. » Cependant, l’entreprise précise que cette technologie sera principalement appliquée aux décisions mineures, tandis que les problématiques plus complexes continueront d’être évaluées par des experts humains.

Répercussions et critiques

Cependant, ce choix n’est pas exempt de controverses. Un ancien salarié de Meta a exprimé des inquiétudes quant aux dangers de cette automatisation. Il souligne une différence essentielle entre « aller plus vite » et « aller trop vite ». L’accélération des mises sur le marché, selon lui, pourrait mener à des évaluations moins rigoureuses et augmenter les risques associés aux nouveaux produits.

Il met également en lumière le fait que les ingénieurs et développeurs, qui sont les principaux bénéficiaires de ces changements, ne sont pas toujours des spécialistes des questions de vie privée. Leur évaluation dépend principalement de l’efficacité et de la rapidité des développements, ce qui pourrait poser des problèmes à long terme pour la sécurité des utilisateurs.

Impact sur l’Union Européenne

Il est important de noter que cette nouvelle stratégie mise en place par Meta ne concernera pas immédiatement l’Union Européenne. La filiale européenne de l’entreprise en Irlande est soumise à des réglementations plus strictes imposées par Bruxelles, ce qui pourrait ralentir l’application de ces changements sur ce marché.

Pour en savoir plus sur les implications de l’utilisation de l’intelligence artificielle dans les entreprises, restez à l’écoute des nouvelles technologies et de leurs impacts sur nos vies quotidiennes.

Source : www.franceinfo.fr

>> Découvrez notre Générateur Image IA

Leave a comment

🍪 Ce site web utilise des cookies pour améliorer votre expérience en ligne.