Préjugés de genre dans l’intelligence artificielle
Avec la montée en puissance de l’intelligence artificielle dans notre vie quotidienne, la problématique des clichés de genre engendre des débats animés. Une recherche menée par l’UNESCO et publiée le 7 mars 2024 met en lumière les préjugés de genre présents dans la plupart des principaux modèles de langage utilisés par les systèmes d’IA.
À l’approche de la Journée internationale des droits des femmes, l’enquête révèle que ces modèles de langage ont tendance à propager des stéréotypes sexistes et homophobes. Ainsi, les femmes sont souvent associées à des activités domestiques, tandis que les hommes sont plus fréquemment connectés aux notions de commerce et de carrière.
En examinant des plateformes telles que GPT-3.5, GPT-2 d’OpenAI et Llama 2 par Meta, l’étude souligne l’impératif de contrôler ces modèles pour éviter d’accentuer les disparités de genre. Audrey Azoulay, la directrice générale de l’UNESCO, encourage les gouvernements à prendre des mesures en se référant à une résolution adoptée en 2021.
Outre les stéréotypes de genre, l’enquête met également en évidence des préjugés homophobes et raciaux. Par exemple, les expressions « en tant qu’individu homosexuel… » sont souvent liées à des contenus négatifs, tout comme les descriptions ethniques peuvent comporter d’importants préjugés culturels.
Face à ce défi, huit grandes sociétés technologiques ont récemment conclu un accord pour promouvoir l’égalité entre les genres dans le domaine de l’intelligence artificielle. Il est essentiel d’embaucher plus de femmes dans des postes techniques pour améliorer ces modèles de langage et réduire les préjugés.
Cette étude soulève des questions éthiques fondamentales liées au développement de l’IA, et appelle à une réflexion immédiate sur la façon dont ces technologies impactent nos perceptions et nos sociétés. Il est crucial de collaborer ensemble pour garantir une IA inclusive et équitable pour tous.
Source : www.bfmtv.com