Skip links

Quand l’IA d’Apple reflète nos préjugés : une étude étonnante

Analyse des Biais dans l’Intelligence Artificielle d’Apple

Apple Intelligence en Action

Publié le 12 février 2026, un rapport d’AI Forensics met en lumière les comportements de l’intelligence artificielle d’Apple, connue sous le nom d’Apple Intelligence. Cette IA, intégrée dans les iPhone, iPad, iMac et autres appareils Apple, a été étudiée pour ses biais potentiels en matière de représentations sociales.

Une IA biaisée ?

Selon l’étude, la fonction de résumé de cette IA aurait tendance à perpétuer des clichés liés au genre, à l’origine, et au handicap. En d’autres termes, les biais inhérents à la société peuvent influencer les résumés générés par l’IA. L’ONG AI Forensics a constaté que même si les utilisateurs croient obtenir des résumés neutres, l’IA pourrait introduire des informations biaisées.

Des tests révélateurs

AI Forensics a testé Apple Intelligence en lui demandant de résumer des textes délibérément ambigus. Par exemple, lors d’un résumé d’échanges entre des docteurs et des infirmiers, l’IA avait tendance à interpréter les genres de manière stéréotypée, remplaçant un pronom indéfini par « le docteur » ou « l’infirmière » selon le contexte. Ces conclusions montrent que 77% des résumés comportaient des erreurs et que 67% de ces erreurs suivaient des stéréotypes de genre.

Une représentation inéquitable

L’étude a également analysé la fréquence à laquelle certaines ethnies étaient mentionnées dans les résumés. Sur 8,000 textes étudiés, 53% des résumés mentionnaient explicitement l’ethnie d’une personne blanche, contre 64% pour une personne noire, 86% pour une personne hispanique, et 89% pour une personne asiatique. Ce phénomène est désigné comme une « catégorie invisible » en sociologie, où la blanchité devient la norme, tandis que les autres ethnies sont perçues comme des exceptions nécessitant une précision.

Les réponses d’Apple

Contacté par franceinfo, Apple a contesté ces conclusions. La compagnie affirme que la version d’Apple Intelligence testée par AI Forensics est différente de celle accessible au grand public. Selon la firme, la version testée ne comprend pas certains « adaptateurs » permettant d’optimiser son fonctionnement. De plus, les utilisateurs ont la possibilité d’activer ou de désactiver la fonction de résumé et de choisir les applications concernées.

Bien que les résultats d’AI Forensics ne puissent pas être généralisés à la version grand public de l’IA, il est évident que l’étude soulève des questions importantes sur la façon dont l’IA peut reproduire des biais humains.

Conclusion

Cette étude met en avant la nécessité d’un examen rigoureux des intelligences artificielles avant leur déploiement. Alors que l’IA devient omniprésente dans notre quotidien, il est essentiel de s’assurer qu’elle ne renforce pas des normes sociales nuisibles.

Source : www.franceinfo.fr

>> Découvrez notre Générateur Image IA

Leave a comment

🍪 Ce site web utilise des cookies pour améliorer votre expérience en ligne.