21 Ιουν 2021

Προσλήψεις μέσω τεχνητής νοημοσύνης και «αλγοριθμικός ρατσισμός»


Ευάγγελος Θεοδώρου

Εάν η συχνή χρησιμοποίηση της τεχνητής νοημοσύνης για την πρόσληψη εργαζομένων, αποτελούσε το «κοντινό μέλλον» μέχρι τις αρχές του 2020, πλέον, μετά την έλευση της πανδημίας του Covid-19, αποτελεί σχεδόν «το παρόν»


για πολλές επιχειρήσεις παγκοσμίως.

Η πανδημία και το παράδειγμα της Vodafone

«Μέσα σε οκτώ εβδομάδες, κάναμε ψηφιακό άλμα πέντε ετών», ανέφερε σχετικά η συμβουλευτική εταιρεία McKinsey, με το υψηλόβαθμο στέλεχος της Deloitte, Ivana Bartoletti, να σημειώνει στο ίδιο μήκος κύματος, μιλώντας στο Wired, πως, «η πανδημία συνέβαλε στο να αυξηθεί η χρήση της τεχνητής νοημοσύνης στις προσλήψεις, σε απίστευτα μεγάλη ταχύτητα».

Ένα χαρακτηριστικό παράδειγμα μεγάλης εταιρείας που ακολούθησε τη συγκεκριμένη μέθοδο πρόσληψης, είναι η Vodafone. Συγκεκριμένα, χρησιμοποίησε την εφαρμογή της HireVue, η οποία, αναλύει τόσο τη λεκτική όσο και τη μη λεκτική συμπεριφορά υποψηφίων για εργασία κατά τη διάρκεια των συνεντεύξεών τους, κατηγοριοποιώντας τους στη συνέχεια ανάλογα με την «καταλληλότητα» τους.

Η Vodafone ισχυρίζεται, ότι η εν λόγω εφαρμογή τεχνητής νοημοσύνης: α) μείωσε αισθητά τον χρόνο πρόσληψης ενός «κατάλληλου» εργαζομένου, από τις 23 ημέρες στις 11, β) μείωσε το κόστος της διαδικασίας σε πολύ μεγάλο βαθμό και γ) συνέβαλε στο να επιλεχθούν υποψήφιοι εργαζόμενοι, οι οποίοι είναι λιγότερο πιθανό να παραιτηθούν, όπως αναφέρει το personneltoday.

Αναπαράγοντας στερεότυπα και προκαταλήψεις

Βέβαια, η Hirevue, ήταν η εταιρεία, για την οποία, το businessinsider, έγραφε πως «οι εφαρμογές της, συνηθίζουν να προσλαμβάνουν ετεροφυλόφιλους λευκούς άνδρες, όταν όλα τα υπόλοιπα κριτήρια είναι ισοδύναμα».

Δεν ήταν όμως μόνο οι εφαρμογές της συγκεκριμένης εταιρείας, οι οποίες λειτουργούσαν με βάση τα υπάρχοντα στερεότυπα. Πριν σχεδόν έναν χρόνο, εφαρμογές τεχνητής νοημοσύνης χρησιμοποιήθηκαν ανεπιτυχώς, για να προβλέψουν τις βαθμολογίες Βρετανών μαθητών στις εξετάσεις.

Το πιο ενδιαφέρον στην αποτυχία τους, ήταν πως, είχαν υποτιμήσει τις δυνατότητες των μαθητών που προέρχονταν από φτωχές οικογένειες, ή από περιθωριοποιημένες κοινωνικές ομάδες, υπερτιμώντας παράλληλα τις δυνατότητες μαθητών ιδιωτικών σχολείων, που προέρχονταν από εύπορες οικογένειες, όπως γράφει το MIT Technology Review.

Παράλληλα, ακόμη πιο παλιά, το 2018, η Amazon, είχε αναγκαστεί να αποσύρει εφαρμογή τεχνητής νοημοσύνης, η οποία αξιολογούσε τα βιογραφικά υποψηφίων για δουλειά στην εταιρεία και «αποφάσιζε» για προσλήψεις, καθώς διαπιστώθηκε πως η εφαρμογή προσλάμβανε με πολύ μεγαλύτερη δυσκολία γυναίκες. Σαφώς, δεν έφταιγε η ίδια η εφαρμογή, αλλά τα δεδομένα με τα οποία είχε «τροφοδοτηθεί».

Όπως αναφέρει η αναπληρώτρια καθηγήτρια πολιτικής οικονομίας και τεχνολογίας στο Πανεπιστήμιο του Leicester, Phoebe V. Moore, στην έκθεση της για τον Ευρωπαϊκό Οργανισμό για την Ασφάλεια και την Υγεία στην Εργασία, «η μηχανική μάθηση των εφαρμογών τεχνητής νοημοσύνης λειτουργεί μόνο με βάση τα δεδομένα με τα οποία τροφοδοτείται. Εάν τα δεδομένα αυτά αντικατοπτρίζουν παλαιότερες πρακτικές προσλήψεων, που εμπεριέχουν διακρίσεις, τότε και τα αποτελέσματα της αλγοριθμικής διεργασίας είναι πιθανό να εισάγουν επίσης διακρίσεις».

Η καθηγήτρια συνεχίζει, παραθέτοντας ένα παράδειγμα: «Στο Ηνωμένο Βασίλειο, υπάρχει μισθολογική διαφορά μεταξύ των φύλων. Για πολλά χρόνια οι γυναίκες εργάζονταν με χαμηλότερους μισθούς, ενώ μάλιστα σε κάποιες περιπτώσεις έκαναν την ίδια εργασία με τους άνδρες αλλά με χαμηλότερη αμοιβή. Εάν τα δεδομένα που αποδεικνύουν αυτή την τάση, χρησιμοποιούνταν για να δημιουργήσουν έναν αλγόριθμο που θα λάμβανε αποφάσεις για την πρόσληψη προσωπικού, η μηχανή θα “μάθαινε”, ότι οι γυναίκες θα πρέπει να πληρώνονται λιγότερο».

Στο ίδιο μήκος κύματος, η νευροεπιστήμονας Frida Polli, μιλώντας στο Wired, σημειώνει, πως, «οι μηχανές τεχνητής νοημοσύνης κοιτούν τον Κόσμο μας και λένε, “τώρα θα μάθω από αυτόν”. Μαθαίνουν λοιπόν τον Κόσμο, απευθείας από την πηγή των στερεοτύπων: Τον ανθρώπινο νου». Η Polli, συνεχίζει, επισημαίνοντας τη ζωτική σημασία του ελέγχου των δεδομένων που εισάγονται σε εφαρμογές τεχνητής νοημοσύνης, αναφέροντας πως, «ίσως και το 90% των προγραμματιστών, δεν ελέγχουν καν τα δεδομένα που εισάγουν στις εφαρμογές και αυτό έχει ως αποτέλεσμα οι μηχανές να διαιωνίζουν αβάσιμες αντιλήψεις για κοινωνικές ομάδες».

Επιπλέον, η Bartoletti, υψηλόβαθμο στέλεχος της Deloitte, δηλώνει, πως, «η διαδικασία της μετάβασης στην εποχή των προσλήψεων μέσω της τεχνητής νοημοσύνης, απαιτεί έλεγχο, ισορροπία και συμμετοχή εργαζομένων και εργοδοτών, καθώς ελλοχεύει ο “αλγοριθμικός ρατσισμός” και η ανισότητα. Αυτός είναι και ο λόγος, που οι επιχειρήσεις πρέπει να αναρωτηθούν, εάν, πότε και κατά πόσο, χρειάζεται αυτή η μετάβαση», ενώ, παράλληλα, έρευνα του πανεπιστημίου της Μελβούρνης, που δημοσιεύτηκε πριν 6 μήνες, έδειξε το πώς αλγόριθμοι εφαρμογών τεχνητής νοημοσύνης «φορτωμένοι» από στερεοτυπικά δεδομένα, μπορούν να συμβάλλουν στην περαιτέρω διαιώνιση των έμφυλων στερεοτύπων.

Η πρόταση της Κομισιόν

Αξίζει να αναφερθεί στο σημείο αυτό, πως, η Κομισιόν, κατέθεσε τον Απρίλη πρόταση για νέα νομοθεσία σχετικά με τις «προκλήσεις της τεχνητής νοημοσύνης» σε ζητήματα «υψηλού ρίσκου», όπως οι προσλήψεις, αποβλέποντας, «στην προστασία θεμελιωδών δικαιωμάτων παράλληλα με την ανάπτυξη εμπιστοσύνης απέναντι στην τεχνητή νοημοσύνη», τονίζοντας μάλιστα ότι, η θέσπιση ενιαίας ευρωπαϊκής νομοθεσίας είναι απαραίτητη, καθότι «ξεχωριστές νομοθεσίες από κάθε κράτος-μέλος, θα αποτελούσαν σημαντικό ρίσκο».

Αναλυτικότερα, η πρόταση της Ευρωπαϊκής Επιτροπής, αναφέρει, πως «όλα τα συστήματα τεχνητής νοημοσύνης, πρέπει να είναι τεχνικά καταρτισμένα, για να εγγυηθούν, πως η εν λόγω τεχνολογία δεν θα επηρεάσει αρνητικά ορισμένες κοινωνικές ομάδες» και συνεχίζει:

«Όλα τα συστήματα αυτά, θα πρέπει: 1) να είναι δοκιμασμένα και ελεγμένα, με επαρκείς ποσότητες δεδομένων, με στόχο να ελαχιστοποιηθεί το ρίσκο να μεροληπτούν υπέρ κάποιων κοινωνικών ομάδων, 2) να είναι σε θέση να εγγυηθούν πως, ακόμη και στην περίπτωση σφαλμάτων, ο εντοπισμός και η διόρθωση τους, είναι εφικτή διαδικασία, 3) να εξασφαλίσουν πως όλα τα απαραίτητα δεδομένα που έχουν χρησιμοποιηθεί, κρατούνται σε αρχείο και έτσι μπορούν να ελεγχθούν ανά πάσα στιγμή».

Τέλος, στην πρόταση της Κομισιόν αναφέρεται, πως η επίβλεψη για την τήρηση (ή μη) της νομοθεσίας και η επιβολή προστίμων, τα οποία ενδέχεται να φτάνουν μέχρι και τα 30 εκατομμύρια ευρώ, θα πραγματοποιείται από ειδικές Αρχές των κρατών-μελών, οι οποίες, σε συνδυασμό με τον Ευρωπαίο Επόπτη Προστασίας Δεδομένων αλλά και την ίδια την Ευρωπαϊκή Επιτροπή, θα συναπαρτίζουν το European Artificial Intelligence Board.


ΠΗΓΗ: tvxs.gr