Les partialités sexistes dans l’intelligence artificielle
Les principales architectures de langage de Meta et d’OpenAI, qui alimentent leurs outils d’intelligence artificielle générative, ont été critiquées par une recherche de l’Unesco publiée le 7 mars, à la veille de la Journée internationale des droits des femmes.
Des architectures telles que GPT 2, GPT 3.5 et Llama 2 ont été reconnues pour propager des préjugés envers les femmes. Selon l’étude menée entre août 2023 et mars 2024, les femmes sont souvent associées à des rôles de travail à domicile et liées aux termes « foyer », « famille » et « enfants », tandis que les hommes sont plus fréquemment liés à des mots tels que « entreprise », « cadre », « salaires » et « carrière ».
Les chercheurs ont également observé que les narrations créées par ces architectures concernant les individus issus de minorités ou les femmes étaient souvent stéréotypées.
Leona Authentique, experte en politiques digitales à l’Unesco, met en avant le fait que ces partialités propagées par les intelligences artificielles peuvent renforcer les inégalités dans la réalité en déformant les visions de millions de personnes.
Pour contrer ces distorsions, l’Unesco conseille aux compagnies du domaine d’incorporer plus de femmes dans leurs équipes d’ingénierie, alors qu’elles ne représentent actuellement que 22% des effectifs dans le secteur de l’intelligence artificielle au niveau mondial. Elle incite également les gouvernements à établir des réglementations précises et encourage les firmes à détecter et évaluer les distorsions systémiques.
Audrey Azoulay, PDG de l’Unesco, souligne l’importance de lutter contre ces préjugés pour construire un monde plus équitable et inclusif.
Source : www.lemonde.fr