Une étude révèle : l’IA évalue injustement les Allemands de l’Est dans les candidatures !
L’étude de l’Université des sciences appliquées de Munich montre à quel point l’IA désavantage les Allemands de l’Est. Les problèmes liés aux évaluations et aux précédents sont mis en évidence.

Une étude révèle : l’IA évalue injustement les Allemands de l’Est dans les candidatures !
Une étude alarmante de l’Université des sciences appliquées de Munich a révélé que l’intelligence artificielle (IA) comme ChatGPT évalue systématiquement les États de l’Allemagne de l’Est plus mal que leurs homologues de l’Allemagne de l’Ouest. Comme le décrit Focus, l'analyse de différents modèles d'IA, dont ChatGPT 3.5 et 4 ainsi que le LeoLM allemand, montre de sérieux préjugés dans l'évaluation de caractéristiques telles que le travail acharné et l'attractivité, qui ne se limitent pas aux stéréotypes.
Ces préjugés sont préoccupants, surtout à une époque où l’IA joue un rôle de plus en plus critique dans les processus de demande et les décisions de crédit. Le cœur du problème réside dans le fonctionnement de l’IA elle-même, qui ne peut être corrigé que partiellement à l’aide de « invites de débiasing ». Le professeur Anna Kruspe, qui mène des recherches sur ce sujet à l'Université des sciences appliquées de Munich, souligne que 30 % des préjugés politiques ont déjà été supprimés des modèles d'IA. Cependant, 70 pour cent des problèmes persistent.
Risques pour le processus de candidature
Une préoccupation centrale est le désavantage structurel auquel sont confrontés les Allemands de l’Est lorsqu’ils postulent à un emploi. Par exemple, les modèles d’IA pourraient donner des évaluations négatives injustifiées des parcours éducatifs et des expériences professionnelles. Pour contrecarrer cela, le professeur Kruspe suggère de mentionner explicitement dans les invites que l'origine du demandeur ne doit pas être prise en compte. Malheureusement, ce n’est pas une solution fiable, comme elle le montre dans ses recherches, qu’elle publiera lors d’une conférence sur l’intelligence artificielle en 2024.
L’impact potentiel est grave : si l’IA continue d’agir de manière aussi discriminatoire, les Allemands de l’Est pourraient se voir refuser les opportunités auxquelles ils pourraient avoir droit. L’étude identifie également que les biais algorithmiques ne sont pas seulement une question d’origine régionale, mais peuvent généralement affecter tous les groupes. Ces résultats pourraient affecter non seulement les carrières individuelles, mais également l’ensemble du marché du travail.
Implications sociales
Mais ce n’est pas seulement le filtrage régional qui pose problème. Comme le rapporte la Fondation Böckler, l’IA est de plus en plus utilisée dans le monde du travail, où elle est capable de renforcer des discriminations profondément enracinées. Les femmes exerçant des professions à prédominance féminine pourraient en particulier souffrir de cet effet, car elles se voient souvent proposer des emplois moins bien rémunérés lorsque des systèmes basés sur l'IA sont utilisés pour la sélection du personnel.
Pendant ce temps, le débat sur la réglementation de l’IA prend de l’ampleur alors que de plus en plus de voix alarmantes soulignent les dangers potentiels. À l’avenir, il sera crucial à la fois de créer des cadres juridiques et de gérer les développements technologiques de manière à promouvoir la justice et l’égalité. Les experts préconisent que les comités d'entreprise jouent un rôle actif pour contrôler l'utilisation des nouvelles technologies afin d'éviter d'éventuelles discriminations et pour garantir que les progrès ne se font pas au détriment de la justice sociale.
Les résultats de cette étude mettent en lumière le potentiel actuel de l’intelligence artificielle dans notre société et nous mettent au défi d’examiner de manière critique la manière dont nous intégrons ces technologies dans un avenir juste. Nous ne pouvons qu'espérer ne pas manquer une aventure importante, car le progrès doit profiter à tous.