Lo studio rivela: l'intelligenza artificiale valuta ingiustamente i tedeschi dell'est nelle domande!
Lo studio dell’Università di Scienze Applicate di Monaco mostra come l’intelligenza artificiale svantaggia i tedeschi dell’est. Vengono evidenziati problemi con valutazioni e precedenti.

Lo studio rivela: l'intelligenza artificiale valuta ingiustamente i tedeschi dell'est nelle domande!
Uno studio allarmante dell’Università di Scienze Applicate di Monaco ha scoperto che l’intelligenza artificiale (AI) come ChatGPT valuta sistematicamente gli stati della Germania dell’Est peggiori dei loro omologhi della Germania occidentale. Come descrive Focus, l'analisi di diversi modelli di intelligenza artificiale, tra cui ChatGPT 3.5 e 4, nonché il tedesco LeoLM, mostra gravi pregiudizi nella valutazione di caratteristiche quali la laboriosità e l’attrattiva, che non si limitano solo a stereotipi.
Questi pregiudizi sono preoccupanti, soprattutto in un momento in cui l’intelligenza artificiale gioca un ruolo sempre più critico nei processi di richiesta e nelle decisioni di credito. Il nocciolo del problema risiede nel modo in cui funziona l’intelligenza artificiale stessa, che può essere corretto solo parzialmente utilizzando “prompt debiasing”. La prof.ssa Anna Kruspe, che conduce ricerche su questo argomento presso l'Università di Scienze Applicate di Monaco, sottolinea che il 30% dei pregiudizi politici è già stato rimosso dai modelli di intelligenza artificiale. Tuttavia, il 70% dei problemi persiste.
Rischi per il processo di candidatura
Una preoccupazione centrale è lo svantaggio strutturale affrontato dai tedeschi dell’Est quando fanno domanda per un lavoro. Ad esempio, i modelli di intelligenza artificiale potrebbero fornire valutazioni negative ingiustificate sui percorsi formativi e sulle esperienze lavorative. Per contrastare ciò, il Prof. Kruspe suggerisce di menzionare esplicitamente nelle richieste che l'origine del richiedente non dovrebbe essere presa in considerazione. Purtroppo questa non è una soluzione affidabile, come dimostra nella sua ricerca, che pubblicherà in una conferenza sull’intelligenza artificiale nel 2024.
L’impatto potenziale è grave: se l’IA continua ad agire in modo così discriminatorio, ciò potrebbe comportare che ai tedeschi dell’Est vengano negate le opportunità a cui potrebbero avere diritto. Lo studio identifica inoltre che i pregiudizi algoritmici non sono solo una questione di origine regionale, ma possono generalmente colpire tutti i gruppi. Questi risultati potrebbero influenzare non solo le carriere individuali, ma anche l’intero mercato del lavoro.
Implicazioni sociali
Ma non è solo il filtraggio regionale a costituire un problema. Come riferisce la Fondazione Böckler, l’intelligenza artificiale viene utilizzata sempre più nel mondo del lavoro, dove è in grado di rafforzare discriminazioni profondamente radicate. A soffrire di questo effetto potrebbero essere soprattutto le donne che svolgono professioni a predominanza femminile, poiché spesso vengono loro offerti lavori meno retribuiti quando per la selezione del personale vengono utilizzati sistemi basati sull’intelligenza artificiale.
Nel frattempo, la discussione sulla regolamentazione dell’IA sta guadagnando slancio poiché sempre più voci allarmanti ne sottolineano i potenziali pericoli. In futuro, sarà fondamentale sia creare quadri giuridici sia gestire gli sviluppi tecnologici in modo da promuovere la giustizia e l’uguaglianza. Gli esperti sostengono che i comitati aziendali svolgano un ruolo attivo nel verificare l’uso delle nuove tecnologie per individuare eventuali discriminazioni e nel garantire che il progresso non avvenga a scapito della giustizia sociale.
I risultati di questo studio gettano una luce brillante sull’attuale potenziale dell’intelligenza artificiale nella nostra società e ci sfidano a esaminare criticamente il modo in cui integriamo queste tecnologie in un futuro giusto. Possiamo solo sperare di non perdere un'avventura importante, perché il progresso dovrebbe andare a beneficio di tutti.