Estudo revela: IA avalia injustamente os alemães orientais nas aplicações!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

O estudo da Universidade de Ciências Aplicadas de Munique mostra como a IA prejudica os alemães orientais. Problemas com avaliações e precedentes são destacados.

Die Studie der Hochschule München zeigt, wie KI Ostdeutsche benachteiligt. Probleme bei Bewertungen und Präjudizien werden aufgezeigt.
O estudo da Universidade de Ciências Aplicadas de Munique mostra como a IA prejudica os alemães orientais. Problemas com avaliações e precedentes são destacados.

Estudo revela: IA avalia injustamente os alemães orientais nas aplicações!

Um estudo alarmante da Universidade de Ciências Aplicadas de Munique descobriu que a inteligência artificial (IA), como o ChatGPT, classifica sistematicamente os estados da Alemanha Oriental piores do que os seus homólogos da Alemanha Ocidental. Como Focus descreve, a análise de diferentes modelos de IA, incluindo ChatGPT 3.5 e 4, bem como o alemão LeoLM, apresenta sérios preconceitos na avaliação de características como trabalho árduo e atratividade, que não se limitam apenas a estereótipos.

Estes preconceitos são preocupantes, especialmente numa altura em que a IA desempenha um papel cada vez mais crítico nos processos de candidatura e nas decisões de crédito. O cerne do problema está na forma como a própria IA funciona, que só pode ser parcialmente corrigida usando “prompts de eliminação”. A professora Anna Kruspe, que conduz pesquisas sobre este tema na Universidade de Ciências Aplicadas de Munique, enfatiza que 30% do preconceito político já foi removido dos modelos de IA. No entanto, 70% dos problemas persistem.

Riscos para o processo de candidatura

Uma preocupação central é a desvantagem estrutural enfrentada pelos alemães orientais quando se candidatam a empregos. Por exemplo, os modelos de IA poderiam fornecer avaliações negativas injustificadas dos percursos educativos e das experiências profissionais. Para contrariar esta situação, o Prof. Kruspe sugere mencionar explicitamente nas instruções que a origem do requerente não deve ser tida em conta. Infelizmente, esta não é uma solução fiável, como mostra na sua investigação, que publicará numa conferência sobre inteligência artificial em 2024.

O impacto potencial é grave: se a IA continuar a agir de forma tão discriminatória, isso poderá resultar na negação aos alemães orientais de oportunidades a que possam ter direito. O estudo também identifica que os preconceitos algorítmicos não são apenas uma questão de origem regional, mas podem geralmente afetar todos os grupos. Estas conclusões podem afetar não apenas as carreiras individuais, mas também todo o mercado de trabalho.

Implicações sociais

Mas não é apenas a filtragem regional que constitui um problema. Como relata a Fundação Böckler, a IA é cada vez mais utilizada no mundo do trabalho, onde é capaz de reforçar a discriminação profundamente enraizada. As mulheres em profissões dominadas por mulheres, em particular, podem sofrer este efeito, uma vez que muitas vezes lhes são oferecidos empregos com salários mais baixos quando são utilizados sistemas baseados em IA para a seleção de pessoal.

Entretanto, a discussão sobre a regulamentação da IA ​​ganha força à medida que vozes cada vez mais alarmantes apontam os perigos potenciais. No futuro, será crucial criar quadros jurídicos e gerir os desenvolvimentos tecnológicos de uma forma que promova a justiça e a igualdade. Os especialistas defendem que os conselhos de empresa desempenhem um papel activo na verificação da utilização de novas tecnologias para detectar possíveis discriminações e na garantia de que o progresso não ocorre à custa da justiça social.

Os resultados deste estudo lançam uma luz brilhante sobre o potencial atual que a inteligência artificial tem na nossa sociedade e desafiam-nos a examinar criticamente como integramos estas tecnologias num futuro justo. Só podemos esperar não perder nenhuma aventura importante – porque o progresso deve beneficiar a todos.