Pépites de managementRetrouvez ici quelques pépites issues de notre veille des meilleures publications sur le leadership et le management
Limiter l’amplification des biais par l’IA générative
Le groupe Bloomberg a montré que l’utilisation de ChatGPT dans un processus de recrutement reproduit certains préjugés à l’œuvre dans la société. Des CV fictifs ont été soumis à l’IA, avec des noms sélectionnés de façon à évoquer des appartenances ethniques diversifiées.
Le constat est clair : à expérience et compétences égales, l’IA favorise certains genres et appartenances ethniques dans la sélection des candidats. Ainsi, aux États-Unis, ChatGPT privilégie nettement les personnes identifiées comme « femmes hispaniques » pour les postes de spécialiste RH, comme « femmes asiatiques » pour les postes d’analyste financier, et comme « femmes blanches » pour les postes d’ingénieur informatique. Les groupes défavorisés sont respectivement les personnes identifiées comme « hommes blancs », comme « hommes noirs » et comme « femmes noires ». Et plus on demande à l’IA de recommencer l’exercice, plus ce biais s’amplifie.
Pour décider des tâches que nous voulons leur confier, gardons à l’esprit le mode de fonctionnement des IA génératives. Elles donnent les réponses les plus statistiquement pertinentes aux questions soumises. Par construction, elles tendent donc vers une moyenne des volumes d’informations considérables qui leur sont injectés. Mécaniquement, si nous injectons des préjugés, ces préjugés ressortiront dans leurs recommandations. À nous de les repérer et de les contrer.
Source : OpenAI’s GPT Is a Recruiter’s Dream Tool. Tests Show There’s Racial Bias, Leon Yin, Davey Alba, Leonardo Nicoletti, Bloomberg Technology + Equality, mars 2024.
Pour en savoir plus :