研究显示:人工智能在申请中对东德人的评估不公平!
慕尼黑应用科学大学的研究表明人工智能如何使东德人处于不利地位。评估和先例方面的问题被强调。

研究显示:人工智能在申请中对东德人的评估不公平!
慕尼黑应用科学大学的一项令人震惊的研究发现,像 ChatGPT 这样的人工智能 (AI) 系统性地对东德各州的评价比西德同行更差。正如Focus所述,对不同AI模型的分析,包括ChatGPT 3.5和4以及德国LeoLM在对努力工作和吸引力等特征的评估中表现出严重的偏见,这不仅仅局限于刻板印象。
这些偏见令人担忧,尤其是在人工智能在申请流程和信贷决策中发挥着越来越重要作用的时候。问题的核心在于AI本身的工作方式,只能使用“去偏提示”来部分纠正。慕尼黑应用科学大学对此主题进行研究的 Anna Kruspe 教授博士强调,人工智能模型已经消除了 30% 的政治偏见。然而,70% 的问题依然存在。
申请过程的风险
一个核心问题是东德人在申请工作时面临的结构性劣势。例如,人工智能模型可能会对教育路径和工作经验给出不合理的负面评估。为了解决这个问题,Kruspe 教授建议在提示中明确提及不应考虑申请人的来源。不幸的是,这并不是一个可靠的解决方案,正如她将在 2024 年人工智能会议上发表的研究结果所示。
潜在的影响是严重的:如果人工智能继续以这种歧视性的方式行事,这可能会导致东德人被剥夺他们可能有权获得的机会。该研究还发现,算法偏差不仅是地区起源的问题,而且通常会影响所有群体。这些发现不仅会影响个人职业生涯,还会影响整个劳动力市场。
社会影响
但这不仅仅是区域过滤的问题。正如 Böckler 基金会 报告的那样,人工智能越来越多地应用于工作领域,它能够强化根深蒂固的歧视。尤其是女性占主导地位的职业中的女性可能会受到这种影响,因为当使用基于人工智能的系统进行人员选拔时,她们往往会获得薪水较低的工作。
与此同时,随着越来越多的警告声音指出潜在的危险,有关监管人工智能的讨论正在升温。未来,以促进正义和平等的方式创建法律框架和管理技术发展将至关重要。专家主张,劳资委员会在检查新技术使用中可能存在的歧视方面发挥积极作用,并确保进步不会以牺牲社会正义为代价。
这项研究的结果揭示了人工智能当前在我们社会中的潜力,并挑战我们批判性地审视如何将这些技术整合到一个公正的未来。我们只能希望不要错过一次重要的冒险——因为进步应该让每个人受益。