Analyse des Biais dans l’Intelligence Artificielle d’Apple
/2026/02/04/075-kokovlis-notitle260113-npkbg-698343892e243443973418.jpg)
Publié le 12 février 2026, un rapport d’AI Forensics met en lumière les comportements de l’intelligence artificielle d’Apple, connue sous le nom d’Apple Intelligence. Cette IA, intégrée dans les iPhone, iPad, iMac et autres appareils Apple, a été étudiée pour ses biais potentiels en matière de représentations sociales.
Une IA biaisée ?
Selon l’étude, la fonction de résumé de cette IA aurait tendance à perpétuer des clichés liés au genre, à l’origine, et au handicap. En d’autres termes, les biais inhérents à la société peuvent influencer les résumés générés par l’IA. L’ONG AI Forensics a constaté que même si les utilisateurs croient obtenir des résumés neutres, l’IA pourrait introduire des informations biaisées.
Des tests révélateurs
AI Forensics a testé Apple Intelligence en lui demandant de résumer des textes délibérément ambigus. Par exemple, lors d’un résumé d’échanges entre des docteurs et des infirmiers, l’IA avait tendance à interpréter les genres de manière stéréotypée, remplaçant un pronom indéfini par « le docteur » ou « l’infirmière » selon le contexte. Ces conclusions montrent que 77% des résumés comportaient des erreurs et que 67% de ces erreurs suivaient des stéréotypes de genre.
Une représentation inéquitable
L’étude a également analysé la fréquence à laquelle certaines ethnies étaient mentionnées dans les résumés. Sur 8,000 textes étudiés, 53% des résumés mentionnaient explicitement l’ethnie d’une personne blanche, contre 64% pour une personne noire, 86% pour une personne hispanique, et 89% pour une personne asiatique. Ce phénomène est désigné comme une « catégorie invisible » en sociologie, où la blanchité devient la norme, tandis que les autres ethnies sont perçues comme des exceptions nécessitant une précision.
Les réponses d’Apple
Contacté par franceinfo, Apple a contesté ces conclusions. La compagnie affirme que la version d’Apple Intelligence testée par AI Forensics est différente de celle accessible au grand public. Selon la firme, la version testée ne comprend pas certains « adaptateurs » permettant d’optimiser son fonctionnement. De plus, les utilisateurs ont la possibilité d’activer ou de désactiver la fonction de résumé et de choisir les applications concernées.
Bien que les résultats d’AI Forensics ne puissent pas être généralisés à la version grand public de l’IA, il est évident que l’étude soulève des questions importantes sur la façon dont l’IA peut reproduire des biais humains.
Conclusion
Cette étude met en avant la nécessité d’un examen rigoureux des intelligences artificielles avant leur déploiement. Alors que l’IA devient omniprésente dans notre quotidien, il est essentiel de s’assurer qu’elle ne renforce pas des normes sociales nuisibles.
Source : www.franceinfo.fr

