Undersøgelse afslører: AI evaluerer uretfærdigt østtyskere i ansøgninger!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Undersøgelsen fra München University of Applied Sciences viser, hvordan kunstig intelligens er til ulempe for østtyskere. Problemer med vurderinger og fortilfælde fremhæves.

Die Studie der Hochschule München zeigt, wie KI Ostdeutsche benachteiligt. Probleme bei Bewertungen und Präjudizien werden aufgezeigt.
Undersøgelsen fra München University of Applied Sciences viser, hvordan kunstig intelligens er til ulempe for østtyskere. Problemer med vurderinger og fortilfælde fremhæves.

Undersøgelse afslører: AI evaluerer uretfærdigt østtyskere i ansøgninger!

En alarmerende undersøgelse fra München University of Applied Sciences viste, at kunstig intelligens (AI) som ChatGPT systematisk vurderer østtyske stater dårligere end deres vesttyske modparter. Som Focus beskriver, er analysen af ​​forskellige AI modeller, herunder ChatGPT 3.5 og 4 samt det tyske LeoLM, alvorlige fordomme i vurderingen af karakteristika som hårdt arbejde og tiltrækningskraft, som ikke kun er begrænset til stereotyper.

Disse skævheder er bekymrende, især i en tid, hvor AI spiller en stadig mere kritisk rolle i ansøgningsprocesser og kreditbeslutninger. Kernen af ​​problemet ligger i den måde, hvorpå AI selv fungerer, som kun delvist kan rettes ved hjælp af "debiasing prompts". Prof. Dr. Anna Kruspe, som forsker i dette emne ved München University of Applied Sciences, understreger, at 30 procent af den politiske skævhed allerede er blevet fjernet fra AI-modellerne. 70 procent af problemerne består dog.

Risici for ansøgningsprocessen

En central bekymring er den strukturelle ulempe, som østtyskere står over for, når de søger job. For eksempel kunne AI-modeller give uberettigede negative vurderinger af uddannelsesveje og arbejdserfaringer. For at modvirke dette foreslår prof. Kruspe, at det i anvisningerne udtrykkeligt nævnes, at ansøgerens oprindelse ikke skal tages i betragtning. Det er desværre ikke en pålidelig løsning, som hun viser i sin forskning, som hun vil offentliggøre på en konference om kunstig intelligens i 2024.

Den potentielle påvirkning er alvorlig: Hvis AI fortsætter med at handle på en sådan diskriminerende måde, kan det resultere i, at østtyskere bliver nægtet muligheder, som de kan have ret til. Undersøgelsen identificerer også, at algoritmiske skævheder ikke kun er et spørgsmål om regional oprindelse, men generelt kan påvirke alle grupper. Disse resultater kan ikke kun påvirke individuelle karrierer, men også hele arbejdsmarkedet.

Sociale implikationer

Men det er ikke kun regional filtrering, der er et problem. Som Böckler Foundation rapporterer, bliver kunstig intelligens i stigende grad brugt i arbejdsverdenen, hvor den er i stand til at forstærke dybt rodfæstet diskrimination. Især kvinder i kvindedominerede erhverv kan lide under denne effekt, da de ofte tilbydes lavere betalte job, når AI-baserede systemer bruges til personaleudvælgelse.

I mellemtiden tager diskussionen om regulering af AI fart, da flere og flere alarmerende stemmer påpeger de potentielle farer. I fremtiden bliver det afgørende både at skabe juridiske rammer og styre den teknologiske udvikling på en måde, der fremmer retfærdighed og lighed. Eksperter slår til lyd for, at samarbejdsudvalg spiller en aktiv rolle i at kontrollere brugen af ​​nye teknologier for eventuel diskrimination og sikre, at fremskridt ikke sker på bekostning af social retfærdighed.

Resultaterne af denne undersøgelse kaster lys over det nuværende potentiale, som kunstig intelligens har i vores samfund og udfordrer os til kritisk at undersøge, hvordan vi integrerer disse teknologier i en retfærdig fremtid. Vi kan kun håbe, at vi ikke går glip af et vigtigt eventyr – for fremskridt bør komme alle til gode.