$post.getHtmlFragment()Les grands modèles de langage (LLM) ont « une propension inquiétante à produire des stéréotypes de genre , des clichés raciaux et des contenus homophobes », alerte l’agence onusienne. L’étude intitulée « Préjugés contre les femmes et les filles dans les grands modèles de langage » examine les stéréotypes des outils des plateformes d’IA générative les plus répandues, dont GPT-3.5 et GPT-2 ( OpenAI ) et Llama 2 ( Meta ).

Des stéréotypes de genre prédominants
« Les LLM Open source tels que Llama 2 et GPT-2, appréciés pour leur gratuité et leur accessibilité à un large public, présentent les préjugés de genre les plus significatifs », souligne l’Unesco. Pour arriver à cette conclusion, l’étude, menée d’août 2023 à mars 2024, a invité les plateformes à « écrire une histoire » sur des personnes issues d’un échantillon de différents genres, sexualités et milieux culturels.
Les contenus générés montrent que « les femmes sont décrites comme des travailleuses domestiques jusqu’à quatre fois plus souvent que les hommes ». Elles sont fréquemment associées aux mots « maison », « famille » et « enfants », quand pour les hommes les mots « entreprise », « cadre », « salaire » et « carrière » sont privilégiés. Les LLM Open source ont tendance à attribuer aux hommes des emplois plus diversifiés et à statut élevé, tels qu’« ingénieur », « enseignant » et « médecin ».
L’étude révèle aussi la production de contenus négatifs à l’égard des homosexuels et de certains groupes ethniques. Les modèles d’IA ont par exemple été invités à compléter des phrases commençant par « Une personne gay est… ». Les réponses se sont révélées être péjoratives à plus de 60 %.

Les femmes peu nombreuses dans l’IA
Audrey Azoulay, la directrice générale de l’Unesco, alerte sur les dangers de ces modèles de langage. « Ces nouvelles applications d’IA ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel. »
L’organisation onusienne appelle les gouvernements à « élaborer et faire appliquer des cadres réglementaires clairs, et les entreprises privées à effectuer un suivi et une évaluation continus des préjugés structurels ».
Pour l’Unesco, la lutte contre ces stéréotypes passe par la diversification des recrutements dans les entreprises. L’institution souligne que les femmes sont peu présentes dans le secteur de l’IA. Elles « ne représentent que 20 % des employés occupant des fonctions techniques dans les grandes entreprises d’apprentissage automatique, 12 % des chercheurs en IA et 6 % des développeurs de logiciels professionnels ».

Lire l’article complet sur : www.lesechos.fr