Проучване разкрива: AI несправедливо оценява източногерманците в приложенията!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Проучването на Мюнхенския университет за приложни науки показва как ИИ поставя в неравностойно положение източногерманците. Изтъкват се проблеми с оценките и прецедентите.

Die Studie der Hochschule München zeigt, wie KI Ostdeutsche benachteiligt. Probleme bei Bewertungen und Präjudizien werden aufgezeigt.
Проучването на Мюнхенския университет за приложни науки показва как ИИ поставя в неравностойно положение източногерманците. Изтъкват се проблеми с оценките и прецедентите.

Проучване разкрива: AI несправедливо оценява източногерманците в приложенията!

Тревожно проучване на Мюнхенския университет за приложни науки установи, че изкуственият интелект (AI) като ChatGPT систематично оценява източногерманските държави по-лошо от западногерманските им колеги. Както Focus описва, анализът на различни AI модели, включително ChatGPT 3.5 и 4 както и немският LeoLM, показва сериозни предразсъдъци в оценката на характеристики като трудолюбие и привлекателност, които не се ограничават само до стереотипи.

Тези пристрастия са тревожни, особено във време, когато AI играе все по-важна роля в процесите на кандидатстване и кредитните решения. Ядрото на проблема се крие в начина, по който работи самият AI, който може да бъде коригиран само частично с помощта на „подкани за отстраняване на предразсъдъците“. Проф. д-р Анна Круспе, която провежда изследвания по тази тема в Мюнхенския университет за приложни науки, подчертава, че 30 процента от политическите пристрастия вече са премахнати от моделите на AI. Въпреки това 70 процента от проблемите продължават.

Рискове за процеса на кандидатстване

Основно безпокойство е структурното неблагоприятно положение, пред което са изправени източногерманците, когато кандидатстват за работа. Например, AI моделите биха могли да дадат неоправдани отрицателни оценки на образователни пътеки и трудов опит. За да се противодейства на това, проф. Круспе предлага изрично да се упомене в подканите, че произходът на кандидата не трябва да се взема предвид. За съжаление това не е надеждно решение, както тя показва в изследването си, което ще публикува на конференция за изкуствен интелект през 2024 г.

Потенциалното въздействие е сериозно: ако изкуственият интелект продължи да действа по такъв дискриминационен начин, това може да доведе до отказ на източногерманците от възможности, на които може да имат право. Проучването също така идентифицира, че алгоритмичните отклонения не са само въпрос на регионален произход, но като цяло могат да засегнат всички групи. Тези констатации могат да засегнат не само индивидуалните кариери, но и целия пазар на труда.

Социални последици

Но не само регионалното филтриране е проблем. Както Фондация Böckler съобщава, AI се използва все повече в света на труда, където е в състояние да засили дълбоко вкоренената дискриминация. По-специално жените в доминирани от жени професии биха могли да пострадат от този ефект, тъй като често им се предлагат по-нископлатени работни места, когато системите, базирани на AI, се използват за подбор на персонал.

Междувременно дискусията относно регулирането на ИИ набира скорост, тъй като все повече тревожни гласове посочват потенциалните опасности. В бъдеще ще бъде от решаващо значение както създаването на правни рамки, така и управлението на технологичното развитие по начин, който насърчава справедливостта и равенството. Експертите се застъпват за това работническите съвети да играят активна роля в проверката на използването на нови технологии за възможна дискриминация и гарантирането, че напредъкът не идва за сметка на социалната справедливост.

Резултатите от това проучване хвърлят ярка светлина върху настоящия потенциал, който изкуственият интелект има в нашето общество, и ни предизвикват да разгледаме критично как интегрираме тези технологии в едно справедливо бъдеще. Можем само да се надяваме, че няма да пропуснем важно приключение - защото прогресът трябва да е от полза за всички.