Tutkimus paljastaa: tekoäly arvioi epäoikeudenmukaisesti itäsaksalaisia sovelluksissa!
Münchenin ammattikorkeakoulun tutkimus osoittaa, kuinka tekoäly haittaa itäsaksalaisia. Arviointiin ja ennakkotapauksiin liittyvät ongelmat tuodaan esille.

Tutkimus paljastaa: tekoäly arvioi epäoikeudenmukaisesti itäsaksalaisia sovelluksissa!
Münchenin ammattikorkeakoulun hälyttävässä tutkimuksessa havaittiin, että ChatGPT:n kaltaiset tekoälyt arvioivat järjestelmällisesti Itä-Saksan osavaltioita huonommin kuin Länsi-Saksan vastineet. Kuten Focus kuvaa, erilaisten tekoälymallien analyysi ChatGPT 3.5 ja 4 sekä saksalainen LeoLM, vakavia ennakkoluuloja arvioitaessa ominaisuuksia, kuten kovaa työtä ja houkuttelevuutta, jotka eivät rajoitu vain stereotypioihin.
Nämä ennakkoluulot ovat huolestuttavia, etenkin nyt, kun tekoälyllä on yhä tärkeämpi rooli hakuprosesseissa ja luottopäätöksissä. Ongelman ydin piilee itse tekoälyn toimintatavassa, joka voidaan korjata vain osittain "debiasing-kehotteilla". Professori tohtori Anna Kruspe, joka tekee tutkimusta tästä aiheesta Münchenin ammattikorkeakoulussa, korostaa, että 30 prosenttia poliittisesta puolueellisuudesta on jo poistettu tekoälymalleista. 70 prosenttia ongelmista kuitenkin jatkuu.
Hakuprosessiin liittyvät riskit
Keskeinen huolenaihe on rakenteellinen haitta, jota itäsaksalaiset kohtaavat hakiessaan töitä. Tekoälymallit voivat esimerkiksi antaa perusteettomia negatiivisia arvioita koulutuspoluista ja työkokemuksista. Tämän torjumiseksi professori Kruspe ehdottaa, että kehotuksissa mainitaan nimenomaisesti, että hakijan alkuperää ei tulisi ottaa huomioon. Valitettavasti tämä ei ole luotettava ratkaisu, kuten hän osoittaa tutkimuksessaan, jonka hän julkaisee tekoälyä käsittelevässä konferenssissa vuonna 2024.
Mahdolliset vaikutukset ovat vakavat: Jos tekoäly jatkaa toimintaansa näin syrjivällä tavalla, tämä voi johtaa siihen, että itäsaksalaisilta evätään mahdollisuudet, joihin heillä saattaa olla oikeus. Tutkimuksessa havaitaan myös, että algoritmiset harhat eivät ole vain alueellista alkuperää, vaan ne voivat koskea yleisesti kaikkia ryhmiä. Nämä havainnot eivät voi koskea vain yksittäisiä ammatteja, vaan myös koko työmarkkinoita.
Sosiaaliset vaikutukset
Mutta se ei ole vain alueellinen suodatus, joka on ongelma. Kuten Böckler Foundation raportoi, tekoälyä käytetään yhä enemmän työelämässä, jossa se pystyy vahvistamaan syvään juurtunutta syrjintää. Erityisesti naisvaltaisissa ammateissa työskentelevät naiset voivat kärsiä tästä vaikutuksesta, koska heille tarjotaan usein huonommin palkattuja töitä, kun tekoälypohjaisia järjestelmiä käytetään henkilöstövalinnassa.
Samaan aikaan keskustelu tekoälyn säätelystä kiihtyy, kun yhä useammat hälyttävät äänet osoittavat mahdollisia vaaroja. Tulevaisuudessa on ratkaisevan tärkeää sekä luoda oikeudellisia puitteita että hallita teknologista kehitystä oikeudenmukaisuutta ja tasa-arvoa edistävällä tavalla. Asiantuntijat puoltavat, että yritysneuvostot osallistuvat aktiivisesti uusien teknologioiden käytön mahdollisen syrjinnän varalta ja varmistavat, että edistyminen ei tapahdu sosiaalisen oikeudenmukaisuuden kustannuksella.
Tämän tutkimuksen tulokset valaisevat kirkkaasti tekoälyn mahdollisuuksia yhteiskunnassamme ja haastavat meidät tarkastelemaan kriittisesti, kuinka integroimme nämä teknologiat oikeudenmukaiseen tulevaisuuteen. Voimme vain toivoa, että emme jää paitsi tärkeästä seikkailusta - sillä edistyksen pitäisi hyödyttää kaikkia.