Badanie pokazuje: sztuczna inteligencja niesprawiedliwie ocenia Niemców z NRD w aplikacjach!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Badanie przeprowadzone przez Uniwersytet Nauk Stosowanych w Monachium pokazuje, jak sztuczna inteligencja szkodzi Niemcom z NRD. Podkreślono problemy z ocenami i precedensami.

Die Studie der Hochschule München zeigt, wie KI Ostdeutsche benachteiligt. Probleme bei Bewertungen und Präjudizien werden aufgezeigt.
Badanie przeprowadzone przez Uniwersytet Nauk Stosowanych w Monachium pokazuje, jak sztuczna inteligencja szkodzi Niemcom z NRD. Podkreślono problemy z ocenami i precedensami.

Badanie pokazuje: sztuczna inteligencja niesprawiedliwie ocenia Niemców z NRD w aplikacjach!

Alarmujące badanie przeprowadzone przez Uniwersytet Nauk Stosowanych w Monachium wykazało, że sztuczna inteligencja (AI), taka jak ChatGPT, systematycznie ocenia państwa NRD gorzej niż ich odpowiedniki w Niemczech Zachodnich. Jak opisuje Focus analiza różnych modeli sztucznej inteligencji, w tym ChatGPT 3,5 i 4 oraz niemiecki LeoLM, poważne uprzedzenia w ocenie cech takich jak pracowitość i atrakcyjność, które nie ograniczają się tylko do stereotypów.

Te uprzedzenia są niepokojące, zwłaszcza w czasach, gdy sztuczna inteligencja odgrywa coraz bardziej krytyczną rolę w procesach składania wniosków i decyzjach kredytowych. Sedno problemu leży w sposobie działania samej sztucznej inteligencji, który można jedynie częściowo skorygować za pomocą „podpowiedzi demaskujących”. Prof. dr Anna Kruspe, która prowadzi badania na ten temat na Uniwersytecie Nauk Stosowanych w Monachium, podkreśla, że ​​z modeli AI usunięto już 30 proc. uprzedzeń politycznych. Jednak 70 procent problemów nadal występuje.

Zagrożenia dla procesu aplikacyjnego

Głównym problemem jest niekorzystna sytuacja strukturalna, z jaką borykają się Niemcy z NRD podczas ubiegania się o pracę. Na przykład modele sztucznej inteligencji mogą dawać nieuzasadnione negatywne oceny ścieżek edukacyjnych i doświadczeń zawodowych. Aby temu przeciwdziałać, prof. Kruspe sugeruje wyraźne zaznaczenie w podpowiedziach, że nie należy brać pod uwagę pochodzenia wnioskodawcy. Niestety nie jest to rozwiązanie pewne, co pokazuje w swoich badaniach, które opublikuje na konferencji poświęconej sztucznej inteligencji w 2024 roku.

Potencjalne skutki są poważne: jeśli sztuczna inteligencja będzie nadal działać w tak dyskryminujący sposób, może to skutkować pozbawieniem Niemców z NRD możliwości, do których mogą być uprawnieni. Badanie wykazało również, że błędy algorytmiczne nie są wyłącznie kwestią pochodzenia regionalnego, ale mogą ogólnie dotyczyć wszystkich grup. Ustalenia te mogą mieć wpływ nie tylko na poszczególne kariery, ale także na cały rynek pracy.

Implikacje społeczne

Ale nie tylko filtrowanie regionalne stanowi problem. Jak podaje Fundacja Böcklera, sztuczna inteligencja jest coraz częściej wykorzystywana w świecie pracy, gdzie może wzmacniać głęboko zakorzenioną dyskryminację. Skutki te mogą szczególnie odczuć kobiety pracujące w zawodach zdominowanych przez kobiety, ponieważ często oferuje się im niżej płatne stanowiska, gdy do selekcji personelu wykorzystuje się systemy oparte na sztucznej inteligencji.

Tymczasem dyskusja na temat regulacji AI nabiera tempa, w miarę jak coraz więcej niepokojących głosów wskazuje na potencjalne zagrożenia. W przyszłości kluczowe będzie zarówno tworzenie ram prawnych, jak i zarządzanie rozwojem technologicznym w sposób promujący sprawiedliwość i równość. Eksperci opowiadają się za tym, aby rady zakładowe odgrywały aktywną rolę w sprawdzaniu wykorzystania nowych technologii pod kątem możliwej dyskryminacji i dbaniu o to, aby postęp nie odbywał się kosztem sprawiedliwości społecznej.

Wyniki tego badania rzucają jasne światło na obecny potencjał sztucznej inteligencji w naszym społeczeństwie i rzucają nam wyzwanie, abyśmy krytycznie zbadali, w jaki sposób integrujemy te technologie w sprawiedliwą przyszłość. Możemy mieć tylko nadzieję, że nie przegapimy ważnej przygody – bo postęp powinien przynosić korzyści wszystkim.