Μελέτη αποκαλύπτει: Η τεχνητή νοημοσύνη αξιολογεί άδικα τους Ανατολικογερμανούς στις εφαρμογές!
Η μελέτη του Πανεπιστημίου Εφαρμοσμένων Επιστημών του Μονάχου δείχνει πώς η τεχνητή νοημοσύνη βλάπτει τους Ανατολικογερμανούς. Επισημαίνονται προβλήματα με εκτιμήσεις και προηγούμενα.

Μελέτη αποκαλύπτει: Η τεχνητή νοημοσύνη αξιολογεί άδικα τους Ανατολικογερμανούς στις εφαρμογές!
Μια ανησυχητική μελέτη από το Πανεπιστήμιο Εφαρμοσμένων Επιστημών του Μονάχου διαπίστωσε ότι η τεχνητή νοημοσύνη (AI) όπως το ChatGPT βαθμολογεί συστηματικά τις πολιτείες της Ανατολικής Γερμανίας χειρότερα από τα αντίστοιχα της Δυτικής Γερμανίας. Όπως περιγράφει ο Focus, η ανάλυση μοντέλων AI, συμπεριλαμβανομένων διαφορετικών ChatGPT 3.5 και 4 καθώς και το γερμανικό LeoLM, σοβαρές προκαταλήψεις στην αξιολόγηση χαρακτηριστικών όπως η εργατικότητα και η ελκυστικότητα, που δεν περιορίζονται μόνο στα στερεότυπα.
Αυτές οι προκαταλήψεις είναι ανησυχητικές, ειδικά σε μια εποχή που η τεχνητή νοημοσύνη διαδραματίζει ολοένα και πιο κρίσιμο ρόλο στις διαδικασίες αιτήσεων και στις αποφάσεις πίστωσης. Ο πυρήνας του προβλήματος έγκειται στον τρόπο με τον οποίο λειτουργεί η ίδια η τεχνητή νοημοσύνη, η οποία μπορεί να διορθωθεί μόνο εν μέρει με τη χρήση "προτροπών εκτροπής". Η καθηγήτρια Δρ Anna Kruspe, η οποία διεξάγει έρευνα για αυτό το θέμα στο Πανεπιστήμιο Εφαρμοσμένων Επιστημών του Μονάχου, τονίζει ότι το 30 τοις εκατό της πολιτικής προκατάληψης έχει ήδη αφαιρεθεί από τα μοντέλα AI. Ωστόσο, το 70 τοις εκατό των προβλημάτων παραμένουν.
Κίνδυνοι για τη διαδικασία αίτησης
Κεντρική ανησυχία είναι το διαρθρωτικό μειονέκτημα που αντιμετωπίζουν οι Ανατολικογερμανοί όταν υποβάλλουν αίτηση για εργασία. Για παράδειγμα, τα μοντέλα τεχνητής νοημοσύνης θα μπορούσαν να δώσουν αδικαιολόγητες αρνητικές αξιολογήσεις για τις εκπαιδευτικές διαδρομές και τις εργασιακές εμπειρίες. Για να αντιμετωπιστεί αυτό, ο καθηγητής Kruspe προτείνει να αναφέρεται ρητά στις προτροπές ότι η καταγωγή του αιτούντος δεν πρέπει να λαμβάνεται υπόψη. Δυστυχώς, αυτή δεν είναι μια αξιόπιστη λύση, όπως δείχνει στην έρευνά της, την οποία θα δημοσιεύσει σε συνέδριο για την τεχνητή νοημοσύνη το 2024.
Ο πιθανός αντίκτυπος είναι σοβαρός: Εάν η τεχνητή νοημοσύνη συνεχίσει να ενεργεί με τέτοιο τρόπο που εισάγει διακρίσεις, αυτό θα μπορούσε να έχει ως αποτέλεσμα να στερηθούν οι Ανατολικογερμανοί ευκαιρίες που μπορεί να δικαιούνται. Η μελέτη προσδιορίζει επίσης ότι οι αλγοριθμικές προκαταλήψεις δεν είναι μόνο θέμα περιφερειακής προέλευσης, αλλά μπορούν γενικά να επηρεάσουν όλες τις ομάδες. Αυτά τα ευρήματα δεν θα μπορούσαν να επηρεάσουν μόνο τις ατομικές σταδιοδρομίες, αλλά και ολόκληρη την αγορά εργασίας.
Κοινωνικές προεκτάσεις
Αλλά δεν είναι μόνο το περιφερειακό φιλτράρισμα που είναι πρόβλημα. Όπως αναφέρει το Ίδρυμα Böckler, η τεχνητή νοημοσύνη χρησιμοποιείται ολοένα και περισσότερο στον κόσμο της εργασίας, όπου είναι ικανή να ενισχύσει τις βαθιές διακρίσεις. Ειδικά οι γυναίκες σε επαγγέλματα που κυριαρχούν οι γυναίκες θα μπορούσαν να υποφέρουν από αυτό το αποτέλεσμα, καθώς συχνά τους προσφέρονται θέσεις εργασίας χαμηλότερης αμοιβής όταν χρησιμοποιούνται συστήματα που βασίζονται σε τεχνητή νοημοσύνη για την επιλογή προσωπικού.
Εν τω μεταξύ, η συζήτηση για τη ρύθμιση της τεχνητής νοημοσύνης κερδίζει δυναμική καθώς όλο και περισσότερες ανησυχητικές φωνές επισημαίνουν τους πιθανούς κινδύνους. Στο μέλλον, θα είναι ζωτικής σημασίας τόσο η δημιουργία νομικών πλαισίων όσο και η διαχείριση των τεχνολογικών εξελίξεων με τρόπο που προάγει τη δικαιοσύνη και την ισότητα. Οι ειδικοί υποστηρίζουν ότι τα συμβούλια εργαζομένων διαδραματίζουν ενεργό ρόλο στον έλεγχο της χρήσης των νέων τεχνολογιών για πιθανές διακρίσεις και διασφαλίζοντας ότι η πρόοδος δεν θα γίνει σε βάρος της κοινωνικής δικαιοσύνης.
Τα αποτελέσματα αυτής της μελέτης ρίχνουν έντονο φως στις τρέχουσες δυνατότητες που έχει η τεχνητή νοημοσύνη στην κοινωνία μας και μας προκαλούν να εξετάσουμε κριτικά πώς ενσωματώνουμε αυτές τις τεχνολογίες σε ένα δίκαιο μέλλον. Μπορούμε μόνο να ελπίζουμε ότι δεν θα χάσουμε μια σημαντική περιπέτεια - γιατί η πρόοδος πρέπει να ωφελήσει όλους.