Το Facebook θα ζητήσει επιτέλους άδεια προτού χρησιμοποιήσει την αναγνώριση προσώπου σε εσάς

Besykje Ús Ynstrumint Foar It Eliminearjen Fan Problemen

Σας ζητείται να δηλώσετε συμμετοχή — χρόνια αφότου η τεχνολογία έγινε μέρος της εμπειρίας σας στα μέσα κοινωνικής δικτύωσης.

Ο διευθύνων σύμβουλος του Facebook, Mark Zuckerberg Τζος Έντελσον/AFP/Getty Images

Αυτή η ιστορία είναι μέρος μιας ομάδας ιστοριών που ονομάζεται Συντελεσμενος μελλοντας

Βρίσκοντας τους καλύτερους τρόπους για να κάνετε καλό.

Το Facebook αλλάζει τον τρόπο με τον οποίο χρησιμοποιεί την τεχνολογία αναγνώρισης προσώπου — τη δυνατότητα στην πλατφόρμα που επιτρέπει την προσθήκη ετικετών σε πρόσωπα στις φωτογραφίες. Από εδώ και στο εξής, εάν θέλετε αυτή η δυνατότητα να είναι μέρος της εμπειρίας σας στα μέσα κοινωνικής δικτύωσης, θα πρέπει να επιλέξετε να την ενεργοποιήσετε. Θα είναι απενεργοποιημένο από προεπιλογή για όλους τους νέους χρήστες και για τους τρέχοντες χρήστες που δεν κάνουν τίποτα όταν λάβουν μια επερχόμενη ειδοποίηση σχετικά με την αλλαγή, ανακοίνωσε το Facebook την Τρίτη ανάρτηση .

Είναι ένα σημάδι της αυξανόμενης επίγνωσης της εταιρείας ότι χρειάζεται να προβάλει μια εικόνα πιο συνειδητή για το απόρρητο — και της αυξανόμενης επιφυλακτικότητας του κοινού απέναντι στην τεχνολογία αναγνώρισης προσώπου, η οποία μπορεί να αναγνωρίσει ένα άτομο αναλύοντας τα χαρακτηριστικά του προσώπου του σε εικόνες, βίντεο ή σε πραγματικό χρόνος.

Το Facebook έκανε δημοφιλή την αναγνώριση προσώπου πριν από χρόνια σε ένα πλαίσιο που φαινόταν εντελώς αθώο: Προσέθεσε ετικέτες στα πρόσωπα των φίλων μας για εμάς σε φωτογραφίες που είχαμε δημοσιεύσει στο δίκτυο κοινωνικής δικτύωσης. Αυτή ήταν, για πολλούς από εμάς, η πρώτη εισαγωγή στην αναγνώριση προσώπου, και μετά βίας δώσαμε μια δεύτερη σκέψη στην βολική τεχνολογία.

Γρήγορα προς τα εμπρός για το 2019 και οι τίτλοι των εφημερίδων είναι κορεσμένοι από ανθρώπους που κατακρίνουν τις αρνητικές επιπτώσεις του. Η τεχνολογία παίζει πλέον ρόλο αστυνόμευση και επιτήρηση , και ειδικοί της τεχνητής νοημοσύνης επισημαίνουν στοιχεία που δείχνουν ότι μπορεί βλάπτουν δυσανάλογα τους έγχρωμους . Οι εταιρείες Behemoth όπως η Apple, η Amazon και η Microsoft έχουν βυθιστεί σε διαμάχες σχετικά με την τεχνολογία. Ορισμένες πόλεις, όπως το Σαν Φρανσίσκο, το Όκλαντ και το Σόμερβιλ , έχουν ήδη θεσπίσει τοπικές απαγορεύσεις σε αυτό.

Τον περασμένο μήνα, ο υποψήφιος των Δημοκρατικών για την προεδρία γερουσιαστής Μπέρνι Σάντερς ζήτησε την πλήρη απαγόρευση σε εθνικό επίπεδο της χρήσης λογισμικού αναγνώρισης προσώπου για αστυνόμευση. Γερουσιαστής Ελίζαμπεθ Γουόρεν είπε ότι θα δημιουργήσει μια ομάδα εργασίας για τη δημιουργία προστατευτικών κιγκλιδωμάτων και κατάλληλων μέτρων προστασίας της ιδιωτικής ζωής για την τεχνολογία επιτήρησης, συμπεριλαμβανομένης της αναγνώρισης προσώπου.

Και καθώς η τεχνολογία εμφανίζεται παντού, από τις πολυκατοικίες μας μέχρι τα αεροδρόμιά μας, προκαλεί ολοένα και μεγαλύτερη διαμάχη μεταξύ των πολιτών. Πάρτε, για παράδειγμα, τους μαύρους ενοικιαστές στο Μπρούκλιν που αντιτάχθηκαν στο σχέδιο του ιδιοκτήτη τους να εγκαταστήσει την τεχνολογία στο σταθεροποιημένο με ενοίκιο κτήριο τους . Ή ο ταξιδιώτης που παραπονέθηκε μέσω Twitter ότι Η JetBlue την είχε ελέγξει στην πτήση της χρησιμοποιώντας την αναγνώριση προσώπου χωρίς τη συγκατάθεσή της.

Σε αυτό το πλαίσιο, δεν είναι περίεργο που το Facebook κάνει ό,τι μπορεί για να είναι (ή τουλάχιστον να φαίνεται ότι είναι) πιο συνετό σχετικά με τη χρήση της αμφιλεγόμενης τεχνολογίας. Η εταιρεία έχει εμπλακεί σε ένα σειρά σκανδάλων προστασίας της ιδιωτικής ζωής — από τα οποία η Cambridge Analytica είναι μόνο η πιο κραυγαλέα — και το τελευταίο πράγμα που χρειάζεται είναι περισσότερες κατηγορίες ότι δεν παίρνει στα σοβαρά το απόρρητο των χρηστών.

Στην πραγματικότητα, μια από τις πρόσφατες κατηγορίες της Ομοσπονδιακής Επιτροπής Εμπορίου κατά του Facebook ήταν αυτή η εταιρεία παραπλάνησε τους χρήστες πριν από χρόνια, επειδή δεν εξηγούσε σωστά τη χρήση της αναγνώρισης προσώπου. Ο διακανονισμός 5 δισεκατομμυρίων δολαρίων που επιτεύχθηκε το Facebook με την FTC τον Ιούλιο απαιτεί από την εταιρεία να είναι πιο ξεκάθαρη σχετικά με τη χρήση αυτής της τεχνολογίας.

Στην ανάρτησή του την Τρίτη, κάτω από μια ενότητα με τίτλο Privacy Matters, το Facebook σημείωσε: Συνεχίσαμε να συνεργαζόμαστε με ειδικούς σε θέματα απορρήτου, ακαδημαϊκούς, ρυθμιστικούς φορείς και άτομα στο Facebook σχετικά με τον τρόπο χρήσης της αναγνώρισης προσώπου και τις επιλογές που έχετε για να το ελέγξετε.

Πώς το Facebook ειδοποιεί τους χρήστες για την επιλογή να συμμετέχουν στην αναγνώριση προσώπου

Facebook

Η εταιρεία συνέχισε να το εξηγεί ξανά Δεκέμβριος 2017 , είχε δώσει σε ορισμένους χρήστες μια νέα ρύθμιση παρέχοντας έναν εύκολο διακόπτη ενεργοποίησης ή απενεργοποίησης για ένα ευρύτερο σύνολο χρήσεων της αναγνώρισης προσώπου, όπως να σας βοηθήσει να προστατεύσετε την ταυτότητά σας στο Facebook ειδοποιώντας σας εάν κάποιος χρησιμοποιεί μια φωτογραφία του προσώπου σας ως φωτογραφία προφίλ .

Από τώρα, κάθε χρήστης —όχι μόνο ορισμένοι— θα λάβει αυτήν τη ρύθμιση, προτρέποντάς μας να επιλέξουμε όλες τις χρήσεις της τεχνολογίας αναγνώρισης προσώπου στο Facebook ή να μείνουμε έξω.

Η ειδοποίηση του Facebook τονίζει τα πλεονεκτήματα της συμμετοχής. Λέει ότι η λήψη αυτής της απόφασης σημαίνει ότι μπορούμε να προστατεύσουμε από κάποιον που χρησιμοποιεί τη φωτογραφία σας για να σας μιμηθεί και μπορούμε να πούμε σε άτομα με προβλήματα όρασης όταν βρίσκεστε σε μια φωτογραφία ή ένα βίντεο μέσω ενός προγράμματος ανάγνωσης οθόνης. Αλλά στο βαθμό που η συμμετοχή σε αυτήν την τεχνολογία σημαίνει περαιτέρω εξομάλυνσή της, υπάρχουν ορισμένα πολύ σοβαρά μειονεκτήματα που πρέπει να ληφθούν υπόψη.

Τι κάνει την τεχνολογία αναγνώρισης προσώπου τόσο αμφιλεγόμενη;

Πρώτα απ 'όλα, δεν πιστεύουν όλοι ότι η τεχνολογία αναγνώρισης προσώπου είναι απαραιτήτως προβληματική. Συνήγοροι ας πούμε ότι το λογισμικό μπορεί να βοηθήσει με αξιόλογους στόχους, όπως η εύρεση αγνοουμένων παιδιών και ηλικιωμένων ενηλίκων ή η σύλληψη εγκληματιών και τρομοκρατών. Ο Πρόεδρος της Microsoft Μπραντ Σμιθ είπε ότι θα ήταν σκληρός να σταματήσει εντελώς η πώληση του λογισμικού σε κυβερνητικές υπηρεσίες. Αυτό το στρατόπεδο θέλει να δει την τεχνολογία να ρυθμίζεται, αλλά όχι να απαγορεύεται.

Αλλά σκεφτείτε το καλά τεκμηριωμένο γεγονός ότι η ανθρώπινη προκατάληψη μπορεί να εισχωρήσει στην τεχνητή νοημοσύνη. Συχνά, αυτό εκδηλώνεται ως πρόβλημα με τα δεδομένα εκπαίδευσης που πηγαίνουν στα AI: Εάν οι σχεδιαστές τροφοδοτούν κυρίως τα συστήματα με παραδείγματα λευκών ανδρικών προσώπων και δεν σκέφτονται να διαφοροποιήσουν τα δεδομένα τους, τα συστήματα δεν θα μάθουν να αναγνωρίζουν σωστά τις γυναίκες και τους ανθρώπους του χρώματος. Και πράγματι, έχουμε διαπιστώσει ότι τα συστήματα αναγνώρισης προσώπου συχνά λανθασμένη αναγνώριση αυτές οι ομάδες, που θα μπορούσαν να οδηγήσουν σε δυσανάλογα κράτησή τους για ανάκριση όταν οι υπηρεσίες επιβολής του νόμου χρησιμοποιούν την τεχνολογία.

Το 2015, το σύστημα αναγνώρισης εικόνων της Google χαρακτήρισε τους Αφροαμερικανούς ως γορίλες. Τρία χρόνια αργότερα, το σύστημα αναγνώρισης της Amazon λανθασμένα ταίριαξε 28 μέλη του Κογκρέσου με εγκληματικούς πυροβολισμούς κούπας . Μια άλλη μελέτη διαπίστωσε ότι τρία συστήματα αναγνώρισης προσώπου - η IBM, η Microsoft και το Megvii της Κίνας - ήταν πιο πιθανό να προσδιορίσουν εσφαλμένα το φύλο των μελαχρινών ατόμων (ιδιαίτερα των γυναικών) παρά των ανοιχτόχρωμων ατόμων.

Ακόμα κι αν όλα τα τεχνικά ζητήματα έπρεπε να διορθωθούν και η τεχνολογία αναγνώρισης προσώπου τελείως μεροληπτική, θα εμπόδιζε αυτό το λογισμικό να βλάψει την κοινωνία μας όταν θα αναπτυχθεί στον πραγματικό κόσμο; Όχι απαραίτητα, όπως μια πρόσφατη έκθεση από το Ινστιτούτο AI Now εξηγεί.

Ας υποθέσουμε ότι η τεχνολογία είναι εξίσου καλή στην αναγνώριση των μαύρων όσο και στην αναγνώριση των λευκών. Αυτό μπορεί στην πραγματικότητα να μην είναι μια θετική αλλαγή. Δεδομένου ότι η μαύρη κοινότητα είναι ήδη υπό αστυνόμευση στις ΗΠΑ, το να γίνουν τα μαύρα πρόσωπα πιο ευανάγνωστα σε αυτήν την τεχνολογία και στη συνέχεια να δοθεί η τεχνολογία στην αστυνομία θα μπορούσε απλώς να επιδεινώσει τις διακρίσεις. Οπως και Η Zoé Samudzi έγραψε στο Daily Beast , Δεν είναι κοινωνική πρόοδος να κάνουμε τους μαύρους εξίσου ορατούς σε λογισμικό που αναπόφευκτα θα οπλιστεί περαιτέρω εναντίον μας.

Ο Woodrow Hartzog και ο Evan Selinger, καθηγητής νομικής και καθηγητής φιλοσοφίας, αντίστοιχα, υποστήριξε πέρυσι αυτή η τεχνολογία αναγνώρισης προσώπου είναι εγγενώς επιζήμια για τον κοινωνικό μας ιστό. Η απλή ύπαρξη συστημάτων αναγνώρισης προσώπου, τα οποία είναι συχνά αόρατα, βλάπτει τις πολιτικές ελευθερίες, επειδή οι άνθρωποι θα ενεργήσουν διαφορετικά εάν υποψιαστούν ότι παρακολουθούνται, έγραψαν. Η ανησυχία είναι ότι θα υπάρξει μια ανατριχιαστική επίδραση στην ελευθερία του λόγου, του συνέρχεσθαι και της θρησκείας.

Ο Luke Stark, ένας μελετητής ψηφιακών μέσων που εργάζεται για τη Microsoft Research Montreal, προέβαλε ένα άλλο επιχείρημα σε ένα πρόσφατο άρθρο με τίτλο Η αναγνώριση προσώπου είναι το πλουτώνιο του AI. Η σύγκριση λογισμικού με ένα ραδιενεργό στοιχείο μπορεί να φαίνεται υπερβολική, αλλά ο Stark επιμένει ότι η αναλογία είναι κατάλληλη. Το πλουτώνιο είναι το βιολογικά τοξικό στοιχείο που χρησιμοποιείται για την κατασκευή ατομικών βομβών και όπως η τοξικότητά του προέρχεται από τη χημική του δομή, έτσι και ο κίνδυνος της αναγνώρισης προσώπου είναι αναπόφευκτα, δομικά ενσωματωμένος μέσα του, επειδή προσδίδει αριθμητικές τιμές στο ανθρώπινο πρόσωπο. Εξηγεί:

Οι τεχνολογίες αναγνώρισης προσώπου και άλλα συστήματα για την οπτική ταξινόμηση των ανθρώπινων σωμάτων μέσω δεδομένων είναι αναπόφευκτα και πάντα μέσα με τα οποία η φυλή, ως κατασκευασμένη κατηγορία, ορίζεται και καθίσταται ορατή. Η ανάταξη των ανθρώπων σε σύνολα ευανάγνωστων, χειραγώγιμων πινακίδων είναι χαρακτηριστικό γνώρισμα της φυλετικής φυλετικής επιστημονικής και διοικητικής τεχνικής που χρονολογείται αρκετές εκατοντάδες χρόνια πριν.

Το γεγονός και μόνο της αριθμητικής ταξινόμησης και σχηματοποίησης των ανθρώπινων χαρακτηριστικών του προσώπου είναι επικίνδυνο, λέει, επειδή επιτρέπει στις κυβερνήσεις και τις εταιρείες να μας χωρίζουν σε διαφορετικές φυλές. Είναι ένα σύντομο άλμα από την κατοχή αυτής της ικανότητας στην εύρεση αριθμητικών λόγων για την ερμηνεία ορισμένων ομάδων ως δευτερευουσών και, στη συνέχεια, την πραγματοποίηση αυτής της υποταγής χρησιμοποιώντας το «χάρισμα των αριθμών» για να ισχυριστεί κανείς ότι η υποταγή είναι ένα «φυσικό» γεγονός.

Με άλλα λόγια, η φυλετική κατηγοριοποίηση πολύ συχνά τροφοδοτεί τις φυλετικές διακρίσεις. Αυτό δεν είναι μια μακρινή υποθετική αλλά μια τρέχουσα πραγματικότητα: η Κίνα χρησιμοποιεί ήδη την αναγνώριση προσώπου για να παρακολουθεί τους Ουιγούρους μουσουλμάνους με βάση την εμφάνισή τους, σε ένα σύστημα Οι Νιου Γιορκ Ταιμς έχει βαφτίσει αυτοματοποιημένο ρατσισμό. Αυτό το σύστημα διευκολύνει την Κίνα να συγκεντρώσει τους Ουιγούρους και να τους κρατήσει σε στρατόπεδα εγκλεισμού.

Μπορεί να φαίνεται παράξενο να μιλάμε για την καταστολή μιας μειοψηφίας από μια αυταρχική κυβέρνηση με την ίδια ανάσα με τη βολική λειτουργία προσθήκης ετικετών φωτογραφιών του Facebook. Αλλά αυτό είναι ακριβώς το νόημα: Η ίδια τεχνολογία βρίσκεται στη βάση και των δύο, και ο κίνδυνος άκριτης ομαλοποίησης του ενός είναι να πλησιάζουμε προς έναν κόσμο όπου ο άλλος γίνεται πιο διαδεδομένος.

Εγγραφείτε στο ενημερωτικό δελτίο Future Perfect. Δύο φορές την εβδομάδα, θα λαμβάνετε μια συλλογή ιδεών και λύσεων για την αντιμετώπιση των μεγαλύτερων προκλήσεων μας: βελτίωση της δημόσιας υγείας, μείωση του πόνου των ανθρώπων και των ζώων, μείωση των καταστροφικών κινδύνων και —για να το θέσω απλά— βελτίωση στο να κάνουμε καλό.