Studie odhaluje: AI nespravedlivě hodnotí východní Němce v aplikacích!

Transparenz: Redaktionell erstellt und geprüft.
Veröffentlicht am

Studie Mnichovské univerzity aplikovaných věd ukazuje, jak umělá inteligence znevýhodňuje východní Němce. Jsou zvýrazněny problémy s hodnocením a precedenty.

Die Studie der Hochschule München zeigt, wie KI Ostdeutsche benachteiligt. Probleme bei Bewertungen und Präjudizien werden aufgezeigt.
Studie Mnichovské univerzity aplikovaných věd ukazuje, jak umělá inteligence znevýhodňuje východní Němce. Jsou zvýrazněny problémy s hodnocením a precedenty.

Studie odhaluje: AI nespravedlivě hodnotí východní Němce v aplikacích!

Alarmující studie Mnichovské univerzity aplikovaných věd zjistila, že umělá inteligence (AI) jako ChatGPT systematicky hodnotí východoněmecké státy hůře než jejich západoněmecké protějšky. Jak popisuje Focus, analýza různých modelů PTAI 3,5 a 4 stejně jako německý LeoLM, vážné předsudky při hodnocení vlastností, jako je pracovitost a atraktivita, které se neomezují pouze na stereotypy.

Tyto předsudky jsou znepokojivé, zvláště v době, kdy umělá inteligence hraje stále důležitější roli v aplikačních procesech a úvěrových rozhodnutích. Jádro problému spočívá ve způsobu, jakým funguje samotná umělá inteligence, což lze pouze částečně opravit pomocí „výzev ke zkreslení“. Prof. Dr. Anna Kruspe, která provádí výzkum na toto téma na Mnichovské univerzitě aplikovaných věd, zdůrazňuje, že 30 procent politických předsudků již bylo z modelů AI odstraněno. 70 procent problémů však přetrvává.

Rizika pro proces aplikace

Ústředním problémem je strukturální nevýhoda, se kterou se východní Němci potýkají, když se ucházejí o zaměstnání. Modely umělé inteligence by například mohly poskytovat neopodstatněné negativní hodnocení vzdělávacích cest a pracovních zkušeností. Aby tomu zabránil, prof. Kruspe navrhuje ve výzvách výslovně uvést, že by se neměl brát v úvahu původ žadatele. Bohužel to není spolehlivé řešení, jak ukazuje ve svém výzkumu, který zveřejní na konferenci o umělé inteligenci v roce 2024.

Potenciální dopad je vážný: Pokud bude AI nadále jednat takovým diskriminačním způsobem, mohlo by to vést k tomu, že východním Němcům budou odepřeny příležitosti, na které by mohli mít nárok. Studie také uvádí, že algoritmické zkreslení není jen záležitostí regionálního původu, ale může obecně ovlivnit všechny skupiny. Tato zjištění by mohla ovlivnit nejen jednotlivé kariéry, ale i celý trh práce.

Sociální implikace

Problémem ale není jen regionální filtrování. Jak uvádí Böcklerova nadace, AI se stále více používá ve světě práce, kde je schopna posílit hluboko zakořeněnou diskriminaci. Tímto efektem by mohly trpět zejména ženy v profesích, kde dominují ženy, protože jim často nabízí méně placená místa, když se pro výběr personálu používají systémy založené na umělé inteligenci.

Mezitím diskuse o regulaci umělé inteligence nabírá na síle, protože stále více a více alarmujících hlasů poukazuje na potenciální nebezpečí. V budoucnu bude klíčové jak vytvořit právní rámce, tak řídit technologický rozvoj způsobem, který podporuje spravedlnost a rovnost. Odborníci zastávají názor, že podnikové rady hrají aktivní roli při kontrole používání nových technologií z hlediska možné diskriminace a zajišťují, aby pokrok nebyl na úkor sociální spravedlnosti.

Výsledky této studie vrhají jasné světlo na současný potenciál umělé inteligence v naší společnosti a vyzývají nás, abychom kriticky prozkoumali, jak tyto technologie integrujeme do spravedlivé budoucnosti. Nezbývá než doufat, že nám neunikne důležité dobrodružství – protože pokrok by měl prospět všem.