Tyrimas atskleidžia: AI nesąžiningai vertina Rytų vokiečius programose!
Miuncheno taikomųjų mokslų universiteto tyrimas rodo, kaip dirbtinis intelektas kenkia Rytų vokiečiams. Išryškinamos problemos, susijusios su vertinimais ir precedentais.

Tyrimas atskleidžia: AI nesąžiningai vertina Rytų vokiečius programose!
Nerimą keliantis Miuncheno taikomųjų mokslų universiteto tyrimas atskleidė, kad dirbtinis intelektas (AI), pvz., ChatGPT, sistemingai vertina Rytų Vokietijos valstybes prasčiau nei jų kolegos Vakarų Vokietijoje. Kaip aprašo Focus, taip pat Chat PT modelių PT4 ir 5 analizę. kaip vokiečių LeoLM, rodo rimtus išankstinius nusistatymus vertinant tokias savybes kaip sunkus darbas ir patrauklumas, kurios neapsiriboja vien stereotipais.
Šie šališkumas kelia nerimą, ypač tuo metu, kai AI vaidina vis svarbesnį vaidmenį paraiškų teikimo procesuose ir priimant sprendimus dėl kredito. Problemos esmė slypi paties AI veikimo būduose, kuriuos galima ištaisyti tik iš dalies naudojant „priešlinkes mažinančius raginimus“. Prof. dr. Anna Kruspe, atliekanti tyrimus šia tema Miuncheno taikomųjų mokslų universitete, pabrėžia, kad iš AI modelių jau buvo pašalinta 30 procentų politinio šališkumo. Tačiau 70 procentų problemų išlieka.
Paraiškų teikimo proceso rizika
Pagrindinis rūpestis yra struktūrinis trūkumas, su kuriuo susiduria Rytų Vokietijos gyventojai, teikdami paraiškas dėl darbo. Pavyzdžiui, dirbtinio intelekto modeliai gali nepagrįstai neigiamai įvertinti mokymosi kelią ir darbo patirtį. Norėdami tai neutralizuoti, prof. Kruspe siūlo raginimuose aiškiai nurodyti, kad į pareiškėjo kilmę neturėtų būti atsižvelgiama. Deja, tai nėra patikimas sprendimas, kaip ji rodo savo tyrime, kurį paskelbs dirbtinio intelekto konferencijoje 2024 m.
Galimas poveikis rimtas: jei dirbtinis intelektas ir toliau elgsis tokiu diskriminaciniu būdu, Rytų vokiečiai gali netekti galimybių, į kurias jie gali turėti teisę. Tyrime taip pat nustatyta, kad algoritminiai šališkumas nėra tik regioninės kilmės klausimas, bet apskritai gali turėti įtakos visoms grupėms. Šios išvados gali turėti įtakos ne tik individualiai karjerai, bet ir visai darbo rinkai.
Socialinės pasekmės
Tačiau problema yra ne tik regioninis filtravimas. Kaip praneša Böckler fondas, dirbtinis intelektas vis dažniau naudojamas darbo pasaulyje, kur jis gali sustiprinti giliai įsišaknijusią diskriminaciją. Moterys, dirbančios profesijose, kuriose dominuoja moterys, ypač gali nukentėti nuo šio poveikio, nes joms dažnai siūlomi mažiau apmokami darbai, kai personalo atrankai naudojamos dirbtinio intelekto sistemos.
Tuo tarpu diskusija apie AI reguliavimą įgauna pagreitį, nes vis daugiau nerimą keliančių balsų nurodo galimus pavojus. Ateityje bus labai svarbu sukurti teisinę bazę ir valdyti technologinę plėtrą taip, kad būtų skatinamas teisingumas ir lygybė. Ekspertai pasisako už tai, kad darbo tarybos atliktų aktyvų vaidmenį tikrindamos, ar naujos technologijos naudojamos dėl galimos diskriminacijos, ir užtikrinti, kad pažanga nebūtų socialinio teisingumo sąskaita.
Šio tyrimo rezultatai aiškiai parodo dabartinį dirbtinio intelekto potencialą mūsų visuomenėje ir verčia kritiškai išnagrinėti, kaip integruoti šias technologijas į teisingą ateitį. Belieka tikėtis, kad nepraleisime svarbaus nuotykio – juk pažanga turėtų būti naudinga visiems.