Η τεχνητή νοημοσύνη μπορεί να συμβάλει στη μείωση της ανισότητας στην πρόσβαση σε πίστωση, αλλά οι τράπεζες θα πρέπει να ανταλλάσσουν τη δικαιοσύνη για ακρίβεια – προς το παρόν

Διαφήμιση για το κόστος της ανισότητας


Skye Gould / Insider



Η άνιση πρόσβαση σε πίστωση αποτελεί εδώ και καιρό πρόβλημα στις ΗΠΑ. Και ενώ υπάρχουν νομικές προστασίες για την καταπολέμηση των διακρίσεων στον δανεισμό, εξακολουθούν να υφίστανται περιστατικά redlining και άλλες λιγότερο κατάφωρες προκαταλήψεις, οι οποίες έχουν κλειδώσει πολλούς από το βασικό πιστωτικό οικοσύστημα.

Ιστορικά, οι αιτήσεις δανείου υποβλήθηκαν σε επεξεργασία από ανθρώπους, εισάγοντας τον κίνδυνο προκατάληψης, τόσο εκ προθέσεως όσο και ακούσιας.

Καθώς ο δανεισμός γίνεται όλο και πιο ψηφιακός, οι εταιρείες αναζητούν υπολογιστές για να βοηθήσουν στη λήψη πιστωτικών αποφάσεων βάσει ιστορικών δεδομένων. Πέρα από την απλή ανάλυση δεδομένων, ορισμένοι ψηφιακοί δανειστές χρησιμοποιούν αλγόριθμους τεχνητής νοημοσύνης και μηχανικής μάθησης για τη λήψη ταχύτερων, πιο αποτελεσματικών πιστωτικών αποφάσεων.

Πολλοί υποστηρίζουν ότι ο δανεισμός βάσει τεχνητής νοημοσύνης μπορεί να βοηθήσει στην επίλυση της προκατάληψης, τόσο εκ προθέσεως όσο και ακούσιας, στη λήψη πιστώσεων. Με την εξάλειψη της ανθρώπινης προκατάληψης, την ενσωμάτωση εναλλακτικών δεδομένων και την εκπαίδευση των μοντέλων σε πραγματικό χρόνο, οι υποστηρικτές της AI υποστηρίζουν ότι είναι σε θέση να κάνουν ακριβέστερες προβλέψεις για την πιστοληπτική ικανότητα των καταναλωτών, ανεξάρτητα από παράγοντες όπως η φυλή και το φύλο.

Ωστόσο, ορισμένες περιπτώσεις υψηλού προφίλ προκάλεσαν συζητήσεις σχετικά με την αποτελεσματικότητα των λεγόμενων αλγορίθμων μαύρου κουτιού.

Το 2019, ο προγραμματιστής διαδικτύου και συγγραφέας David Heinemeier Hansson είπε στο Twitter ότι όταν υπέβαλε αίτηση για την Apple Card, του προσφέρθηκε 20 φορές το πιστωτικό όριο της συζύγου του, παρόλο που υποβάλλουν από κοινού φόρους.

Το tweet έγινε viral, και είχε ως αποτέλεσμα το Τμήμα Χρηματοοικονομικών Υπηρεσιών της Νέας Υόρκης να διεξαγάγει έρευνα για το κατά πόσον υπήρχε προκατάληψη στη διαδικασία ανάληψης πιστώσεων της Apple, την οποία διαχειρίζεται η Goldman Sachs.

Η κριτική βρέθηκε καμία απόδειξη σκόπιμης προκατάληψης στην αναδοχή της Goldman για την Apple Card Ωστόσο, το DFS σημείωσε ότι «ακόμη και όταν η βαθμολόγηση της πιστοληπτικής ικανότητας γίνεται σύμφωνα με το νόμο, μπορεί να αντικατοπτρίζει και να διαιωνίζει την κοινωνική ανισότητα».

Ενώ η λήψη πιστωτικών αποφάσεων με βάση το εισόδημα, τα περιουσιακά στοιχεία και το ιστορικό πιστώσεων είναι νόμιμη, αυτοί οι παράγοντες “αντικατοπτρίζουν συχνά τη μακρά ιστορία της φυλής και των διακρίσεων λόγω φύλου του έθνους”, το DFS είπε στην έκθεσή του.

Ενώ οι αλγόριθμοι πίσω από την κάρτα Apple δεν παρουσίαζαν εκ προθέσεως προκαταλήψεις, τα υποκείμενα δεδομένα λήψης αποφάσεων εξακολουθούν να ανησυχούν για τις ρυθμιστικές αρχές.

“Η χρήση της βαθμολόγησης πιστώσεων στην τρέχουσα μορφή της και οι νόμοι και οι κανονισμοί που απαγορεύουν τις διακρίσεις στον δανεισμό χρειάζονται ενίσχυση και εκσυγχρονισμό για τη βελτίωση της πρόσβασης στην πίστωση”, ανέφερε το DFS.

Ενώ ο δανεισμός που βασίζεται σε τεχνητή νοημοσύνη έχει τη δυνατότητα να μειώσει τις διακρίσεις στη λήψη αποφάσεων, οι εταιρείες πρέπει να εξετάσουν πώς εκπαιδεύουν τα μοντέλα τους. Εάν οι δανειστές δεν καθαρίσουν και αναλύσουν ιστορικά πιστωτικά δεδομένα για προκατάληψη, τα μοντέλα τους θα μπορούσαν να συνεχίσουν να λαμβάνουν άνισες πιστωτικές αποφάσεις με βάση τη φυλή και το φύλο.

«Ο ρατσισμός κωδικοποιείται στα δεδομένα», δήλωσε ο Mike de Vere, Διευθύνων Σύμβουλος της fintech Zest AI της μηχανικής μάθησης.

Πώς τα πιστωτικά αποτελέσματα μπορούν να οδηγήσουν σε διακρίσεις

Η λήψη πίστωσης είναι περίπλοκη και περιλαμβάνει όλο και περισσότερους παράγοντες πέρα ​​από το εισόδημα και το πιστωτικό ιστορικό του αιτούντος. Ωστόσο, τα πιστωτικά αποτελέσματα εξακολουθούν να αποτελούν το επίκεντρο της αγοράς καταναλωτικής-πιστωτικής.

Οι βαθμολογίες FICO και Vantage κυμαίνονται από 300 έως 850. Συνήθως, οι καταναλωτές με σκορ άνω των 660 θεωρούνται prime ή super-prime και μπορούν να έχουν πρόσβαση σε mainstream πίστωση με μέσες τιμές. Για τους δανειστές subprime και σχεδόν prime, με σκορ κάτω από 660, η πρόσβαση σε προσιτή πίστωση είναι περιορισμένη.

Όμως, οι μέσοι όροι πίστωσης δεν είναι συνεπείς μεταξύ των αγώνων. Περίπου το 54% των Μαύρων καταναλωτών ανέφεραν ότι δεν είχαν πιστωτικά ή πιστωτικά αποτελέσματα κάτω από το 640, σύμφωνα με τον Ιανουάριο έρευνα από την Credit Sesame. Εν τω μεταξύ, το 41% ​​των ισπανών καταναλωτών, το 37% των λευκών καταναλωτών και το 18% των ασιατικών καταναλωτών ανέφεραν το ίδιο.

Αυτές οι αποκλίσεις μπορούν να οδηγήσουν σε διαφορετικά αποτελέσματα όταν οι παραδοσιακοί δανειστές βασίζονται σε μεγάλο βαθμό στα πιστωτικά αποτελέσματα.

Για να είμαστε σίγουροι, αρκετές μεγάλες τράπεζες, όπως η JPMorgan Chase και η Wells Fargo, σύμφωνα με πληροφορίες σχεδιάζουν να προσφέρουν πιστωτικές κάρτες σε άτομα χωρίς πίστωση ως μέρος ενός κυβερνητικού προγράμματος για τη βελτίωση της πρόσβασης σε πιστώσεις.

Ωστόσο, ορισμένοι δανειστές με βάση την τεχνητή νοημοσύνη έχουν διαπιστώσει ότι τα μοντέλα τους, τα οποία συχνά ενσωματώνουν εναλλακτικά δεδομένα, όπως εκπαίδευση, εισόδημα και ιστορικό απασχόλησης, έχουν ως αποτέλεσμα περισσότερες εγκρίσεις. ΕΝΑ Μελέτη περίπτωσης 2017 από την CFPB με τον δανειστή AI, η Upstart διαπίστωσε ότι τα μοντέλα της αύξησαν την πιστωτική πρόσβαση για πολλούς.

Το μοντέλο της Upstart ενέκρινε 27% περισσότερους αιτούντες από ένα βασικό παραδοσιακό μοντέλο. Οι μέσες τιμές APR ήταν επίσης 16% χαμηλότερες, σύμφωνα με την ανάλυση. Αυτή η επέκταση της πιστωτικής πρόσβασης ήταν συνεπής μεταξύ των μεταβλητών, συμπεριλαμβανομένης της φυλής και του φύλου. Και οι καταναλωτές με βαθμολογία μεταξύ 620 και 660 εγκρίθηκαν δύο φορές περισσότερο από το μοντέλο της Upstart.

Διακρίσεις πληρεξούσιων

Ένα πιθανό μειονέκτημα της χρήσης μοντέλων δανεισμού που βασίζονται σε AI είναι ότι θα εντοπίσουν πληρεξούσια για τον αγώνα με τον ίδιο τρόπο που τα χρηματοπιστωτικά ιδρύματα σταμάτησαν να εξυπηρετούν κατά κύριο λόγο Μαύρες γειτονιές, μια διαδικασία γνωστή ως redlining.

Anya Prince, αναπληρωτής καθηγητής νομικής στο Πανεπιστήμιο της Αϊόβα και ένας από τους συγγραφείς του ένα έγγραφο του 2019 για τις διακρίσεις πληρεξουσίου, είπε στο Insider AI οι τεχνικές που διατρέχουν τον κίνδυνο «ακούσιας διάκρισης πληρεξούσιου» εάν δεν ελέγχονται σωστά.

“Αν πείτε,” Εδώ είναι όλα αυτά τα δεδομένα, απλώς μην χρησιμοποιείτε αγώνα. Αναπόφευκτα, για να βρούμε το καλύτερο κομμάτι δεδομένων, σε ορισμένες περιπτώσεις, θα βρούμε τον επόμενο καλύτερο πληρεξούσιο για τον αγώνα, γιατί αυτό είναι το πιο προβλέψιμο πράγμα, »Είπε ο Πρίγκιπας.

“Προσθέτετε το AI σε αυτό, και ξαφνικά μπορεί να έχουμε μια κατάσταση όπου είναι αποτελεσματικά πληρεξούσιος. Ίσως να μην είμαστε σε θέση να δούμε ακριβώς αυτήν τη σύνδεση εάν δεν πάμε και να το ψάξουμε”, συνέχισε.

Τούτου λεχθέντος, υπάρχουν τρόποι αντιμετώπισης του κινδύνου διαφορετικών επιπτώσεων μέσω διακριτικής μεταχείρισης. Το έγγραφο του Prince, για παράδειγμα, παραθέτει τέσσερα ευρεία θέματα που θα μπορούσαν να χρησιμεύσουν για την αντιμετώπιση του αποτελέσματος.

Μία προσέγγιση είναι η επέκταση του συνόλου των σχετικών δεδομένων που χρησιμοποιούνται στη λήψη αποφάσεων AI. Ένα άλλο θα ήταν να αναστρέψουμε την «προεπιλεγμένη προσέγγιση του νόμου κατά των διακρίσεων», επιτρέποντας στα μοντέλα να χρησιμοποιούν μόνο προ-εγκεκριμένες μεταβλητές κατά τη λήψη αποφάσεων, αντί να αποφασίζουν ποιες μεταβλητές θα αποκλείσουν.

Το AI μπορεί να βοηθήσει, αλλά υπάρχουν ανταλλαγές

Για τους δανειστές που επιθυμούν να αναπτύξουν δανεισμό με βάση το AI, έχουν δύο επιλογές: Τρίψτε ιστορικά δεδομένα ή σχεδιάστε το μοντέλο από το μηδέν.

Και οι δύο επιλογές, ωστόσο, έχουν τα μειονεκτήματά τους.

“Το πρόβλημα με τη διόρθωση των δεδομένων στο δρόμο είναι ότι πρέπει να εξηγήσετε πώς το κάνατε και γιατί το κάνατε”, δήλωσε ο de Vere. “Αυτό μπορεί να είναι προβληματικό για έναν δανειστή.”

Εν τω μεταξύ, η δεύτερη προσέγγιση, που εστιάζεται στο ίδιο το μοντέλο και όχι στα δεδομένα, είναι δαπανηρή.

“Τα εργαλεία που διαθέτουν τα περισσότερα χρηματοπιστωτικά ιδρύματα είναι απίστευτα ανεπαρκή”, δήλωσε ο de Vere. Και επιπλέον, εάν μια τράπεζα ρίξει μια μεταβλητή από το μοντέλο της που θα μπορούσε να εξαλείψει την προκατάληψη, αλλά αυτό οδηγεί σε χειρότερα οικονομικά για την τράπεζα, είναι πιθανό να διατηρήσουν αυτή τη μεταβλητή.

Το Zest AI, το οποίο παρέχει μοντέλα μηχανικής μάθησης για δανειστές, έχει αναπτύξει μοντέλα λήψης αποφάσεων που λειτουργούν ταυτόχρονα. Ο ένας μπορεί να είναι πρόβλεψη κινδύνου, ο άλλος πρόβλεψη αγώνα. Εάν το δεύτερο μοντέλο προσδιορίσει μια μεταβλητή που μπορεί να είναι πληρεξούσιος για τον αγώνα, το μοντέλο κινδύνου μπορεί να συντονίσει αυτήν τη μεταβλητή για να εξαλείψει την προκατάληψη μεσολάβησης.

Οι πελάτες της Zest AI περιλαμβάνουν μικρές κοινοτικές τράπεζες, καθώς και μεγάλα ιδρύματα όπως ο Freddie Mac και το Discover.

“Έχουμε τεχνητή νοημοσύνη που είναι σε θέση να δημιουργήσει δίκαια, προαιρετικά μοντέλα για αυτό το χρηματοπιστωτικό ίδρυμα, όπου μπορούν να κατανοήσουν την αντιστάθμιση μεταξύ της ακρίβειας του μοντέλου ή των οικονομικών, καθώς και της δικαιοσύνης του μοντέλου”, δήλωσε ο de Vere.

Για να είμαστε σίγουροι, πολλοί δανειστές βλέπουν οικονομικά αποτελέσματα κατά την προσαρμογή για αυτές τις προκαταλήψεις. Προς το παρόν, υπάρχει μια ανταλλαγή μεταξύ ελαφρώς λιγότερο ακριβών μοντέλων και ελαφρώς πιο περιεκτικών.

Αλλά καθώς αυτά τα μοντέλα γίνονται πιο δίκαια και πιο κοινά, τα οικονομικά μπορούν επίσης να βελτιωθούν.

“Θα μπορούσατε να είστε πολύ πιο περιεκτικοί και να παραδώσετε καλύτερα οικονομικά, αλλά αυτοί οι οργανισμοί πρέπει να έχουν σκοπό με αυτό”, δήλωσε ο de Vere. “Όταν σκέφτομαι την πελατειακή μας βάση ή τους ανθρώπους με τους οποίους μιλάμε στον κλάδο, υπάρχει ενδιαφέρον να κάνουμε αυτήν την αλλαγή.”

Related Posts

Leave a Reply

Your email address will not be published. Required fields are marked *