Studija otkriva: AI nepravedno ocjenjuje istočne Nijemce u prijavama!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Studija Sveučilišta primijenjenih znanosti u Münchenu pokazuje kako umjetna inteligencija stavlja istočne Nijemce u nepovoljan položaj. Istaknuti su problemi s procjenama i presedani.

Die Studie der Hochschule München zeigt, wie KI Ostdeutsche benachteiligt. Probleme bei Bewertungen und Präjudizien werden aufgezeigt.
Studija Sveučilišta primijenjenih znanosti u Münchenu pokazuje kako umjetna inteligencija stavlja istočne Nijemce u nepovoljan položaj. Istaknuti su problemi s procjenama i presedani.

Studija otkriva: AI nepravedno ocjenjuje istočne Nijemce u prijavama!

Alarmantna studija Münchenskog sveučilišta primijenjenih znanosti otkrila je da umjetna inteligencija (AI) poput ChatGPT-a sustavno ocjenjuje istočnonjemačke države lošijima od njihovih zapadnonjemačkih kolega. Kao što Focus opisuje, analiza različitih AI modela, uključujući ChatGPT 3.5 i 4 kao i njemački LeoLM, pokazuje ozbiljne predrasude u procjeni osobina kao što su marljivost i privlačnost, koje nisu ograničene samo na stereotipe.

Ove pristranosti su zabrinjavajuće, posebno u vrijeme kada umjetna inteligencija igra sve kritičniju ulogu u procesima prijave i kreditnim odlukama. Srž problema leži u načinu rada same umjetne inteligencije, koji se može samo djelomično ispraviti korištenjem "uputa za uklanjanje predrasuda". Prof. dr. Anna Kruspe, koja provodi istraživanje na ovu temu na Sveučilištu primijenjenih znanosti u Münchenu, naglašava da je 30 posto političke pristranosti već uklonjeno iz AI modela. Međutim, 70 posto problema i dalje postoji.

Rizici za proces prijave

Središnji problem je strukturni nedostatak s kojim se istočni Nijemci suočavaju kada se prijavljuju za posao. Na primjer, modeli umjetne inteligencije mogli bi dati neopravdane negativne ocjene obrazovnih putova i radnih iskustava. Kako bi se tome suprotstavio, prof. Kruspe predlaže da se u upitima izričito navede da se podrijetlo podnositelja zahtjeva ne treba uzeti u obzir. Nažalost, to nije pouzdano rješenje, što pokazuje u svom istraživanju koje će objaviti na konferenciji o umjetnoj inteligenciji 2024. godine.

Potencijalni utjecaj je ozbiljan: ako umjetna inteligencija nastavi djelovati na takav diskriminirajući način, to bi moglo dovesti do toga da istočnim Nijemcima budu uskraćene mogućnosti na koje možda imaju pravo. Studija također utvrđuje da algoritamske pristranosti nisu samo stvar regionalnog podrijetla, već općenito mogu utjecati na sve skupine. Ovi nalazi ne bi mogli utjecati samo na individualne karijere, već i na cijelo tržište rada.

Društvene implikacije

No nije samo regionalno filtriranje problem. Kako izvješćuje Zaklada Böckler, umjetna inteligencija se sve više koristi u svijetu rada, gdje je sposobna osnažiti duboko ukorijenjenu diskriminaciju. Osobito bi žene u profesijama u kojima dominiraju žene mogle patiti od ovog učinka, jer im se često nude niže plaćeni poslovi kada se za odabir osoblja koriste sustavi temeljeni na umjetnoj inteligenciji.

U međuvremenu, rasprava o regulaciji umjetne inteligencije dobiva na zamahu jer sve više i više alarmantnih glasova ukazuje na potencijalne opasnosti. U budućnosti će biti ključno stvoriti pravne okvire i upravljati tehnološkim razvojem na način koji promiče pravdu i jednakost. Stručnjaci zagovaraju da radnička vijeća imaju aktivnu ulogu u provjeri korištenja novih tehnologija zbog moguće diskriminacije i osiguravanju da napredak ne dolazi nauštrb socijalne pravde.

Rezultati ove studije bacaju jarko svjetlo na trenutni potencijal koji umjetna inteligencija ima u našem društvu i izazivaju nas da kritički ispitamo kako integrirati ove tehnologije u pravednu budućnost. Možemo se samo nadati da nećemo propustiti važnu avanturu – jer napredak bi trebao biti od koristi svima.