Γιατί δεν είναι όλες οι μορφές τεχνητής νοημοσύνης το ίδιο τρομακτικές

Besykje Ús Ynstrumint Foar It Eliminearjen Fan Problemen

Η τύχη ευνοεί το προετοιμασμένο μυαλό, επομένως είναι σημαντικό να εξερευνήσετε όλες τις πιθανότητες. - Λόρενς Κράους

Μανουέλ Μπλοντό / Getty Images

Πόσο πρέπει να ανησυχούμε για την τεχνητή νοημοσύνη;

Πρόσφατα, Έκανα αυτή την ερώτηση σε αρκετούς ερευνητές AI. Οι απαντήσεις που έλαβα ποικίλλουν σημαντικά. αποδεικνύεται ότι δεν υπάρχει μεγάλη συμφωνία σχετικά με τους κινδύνους ή τις επιπτώσεις.

Οι μη ειδικοί είναι ακόμη πιο μπερδεμένοι σχετικά με την τεχνητή νοημοσύνη και τις συνακόλουθες προκλήσεις της. Μέρος του προβλήματος είναι ότι η τεχνητή νοημοσύνη είναι ένας διφορούμενος όρος. Με τον όρο AI μπορεί κανείς να εννοεί μια ηλεκτρική σκούπα Roomba, ένα αυτοοδηγούμενο φορτηγό ή ένα από αυτά τα θανατηφόρα Τελειωτής ρομπότ.

Υπάρχουν, γενικά, τρεις μορφές τεχνητής νοημοσύνης: αδύναμη τεχνητή νοημοσύνη, ισχυρή τεχνητή νοημοσύνη και υπερευφυΐα. Προς το παρόν, υπάρχει μόνο αδύναμη τεχνητή νοημοσύνη. Η ισχυρή τεχνητή νοημοσύνη και η υπερευφυΐα είναι θεωρητικά πιθανές, ακόμη και πιθανές, αλλά δεν είμαστε ακόμη εκεί.

Η κατανόηση των διαφορών μεταξύ αυτών των μορφών τεχνητής νοημοσύνης είναι απαραίτητη για την ανάλυση των πιθανών κινδύνων και οφελών αυτής της τεχνολογίας. Υπάρχει μια ολόκληρη σειρά ανησυχιών που αντιστοιχούν σε διαφορετικά είδη τεχνητής νοημοσύνης, μερικά πιο ανησυχητικά από άλλα.

Για να κατανοήσετε αυτό, ακολουθούν ορισμένες βασικές διακρίσεις που πρέπει να γνωρίζετε.

Αδύναμη τεχνητή νοημοσύνη

Η τεχνητή στενή νοημοσύνη (συχνά αποκαλούμενη αδύναμη τεχνητή νοημοσύνη) είναι μια αλγοριθμική ή εξειδικευμένη νοημοσύνη. Αυτό υπάρχει εδώ και αρκετά χρόνια. Σκεφτείτε το Μηχάνημα Deep Blue που κέρδισε τον παγκόσμιο πρωταθλητή Garry Kasparov στο σκάκι. Ή το Siri στο iPhone σας. Ή ακόμα και λογισμικό αναγνώρισης και επεξεργασίας ομιλίας. Αυτές είναι μορφές μη αισθητής νοημοσύνης με σχετικά στενή εστίαση.

Ίσως είναι υπερβολικό να αποκαλούμε την αδύναμη AI μορφή νοημοσύνης. Το αδύναμο AI είναι έξυπνο και μπορεί να ξεπεράσει τους ανθρώπους σε μία μόνο εργασία, αλλά αυτό είναι το μόνο που μπορεί να κάνει. Δεν έχει αυτογνωσία ή στόχο, και επομένως δεν παρουσιάζει αποκαλυπτικές απειλές. Αλλά στο βαθμό που η αδύναμη τεχνητή νοημοσύνη ελέγχει ζωτικό λογισμικό που κρατά τον πολιτισμό μας να βουίζει, η εξάρτησή μας από αυτό δημιουργεί ορισμένες ευπάθειες. George Dvorsky, Καναδός βιοηθικός και μελλοντολόγος, διερευνά μερικά από αυτά τα ζητήματα εδώ .

Shutterstock

Ισχυρό AI

Στη συνέχεια, υπάρχει η Τεχνητή Γενική Νοημοσύνη ή ισχυρή τεχνητή νοημοσύνη. Αυτό αναφέρεται σε ένα σύστημα γενικής χρήσης, ή αυτό που θα μπορούσατε να ονομάσετε μια μηχανή σκέψης. Η Τεχνητή Γενική Νοημοσύνη, θεωρητικά, θα ήταν εξίσου έξυπνη —ή πιο έξυπνη— από έναν άνθρωπο σε ένα ευρύ φάσμα εργασιών. θα μπορούσε να σκέφτεται, να συλλογίζεται και να λύνει σύνθετα προβλήματα με μυριάδες τρόπους.

Είναι συζητήσιμο εάν η ισχυρή τεχνητή νοημοσύνη θα μπορούσε να χαρακτηριστεί συνειδητή. Τουλάχιστον, θα έδειχνε συμπεριφορές που συνήθως συνδέονται με τη συνείδηση ​​- κοινή λογική, κατανόηση φυσικής γλώσσας, δημιουργικότητα, στρατηγική και γενικά έξυπνη δράση.

Τεχνητή Γενική Νοημοσύνη δεν υπάρχει ακόμη. Μια κοινή εκτίμηση είναι ότι απέχουμε ίσως 20 χρόνια από αυτή την ανακάλυψη. Αλλά σχεδόν όλοι παραδέχονται ότι έρχεται. Οργανισμοί όπως ο Allen Institute for Τεχνητή Νοημοσύνη (που ιδρύθηκε από τον συνιδρυτή της Microsoft Paul Allen) και Το έργο DeepMind της Google , μαζί με πολλούς άλλους σε όλο τον κόσμο, σημειώνουν σταδιακή πρόοδο.

Υπάρχουν σίγουρα περισσότερες επιπλοκές που σχετίζονται με αυτήν τη μορφή τεχνητής νοημοσύνης, αλλά δεν είναι το υλικό της δυστοπικής επιστημονικής φαντασίας. Η ισχυρή τεχνητή νοημοσύνη θα στόχευε σε ευφυΐα γενικού σκοπού σε ανθρώπινο επίπεδο. Αν δεν υποβληθεί σε ταχεία επαναλαμβανόμενη αυτοβελτίωση, είναι απίθανο να αποτελέσει καταστροφική απειλή για την ανθρώπινη ζωή.

Οι κύριες προκλήσεις με την ισχυρή τεχνητή νοημοσύνη είναι οικονομικές και πολιτιστικές: απώλεια θέσεων εργασίας λόγω αυτοματοποίησης, οικονομική μετατόπιση, διαχείριση απορρήτου και δεδομένων, ευπάθειες λογισμικού και στρατιωτικοποίηση.

Υπερευφυΐα

Τέλος, υπάρχει η Τεχνητή Υπερευφυΐα. Ο φιλόσοφος της Οξφόρδης Nick Bostrom όρισε αυτή τη μορφή AI σε α Συνέντευξη 2014 με το Vox όπως κάθε διάνοια που ξεπερνά ριζικά τα καλύτερα ανθρώπινα μυαλά σε κάθε τομέα, συμπεριλαμβανομένης της επιστημονικής δημιουργικότητας, της γενικής σοφίας και των κοινωνικών δεξιοτήτων. Όταν οι άνθρωποι ανησυχούν για τους κινδύνους της τεχνητής νοημοσύνης, αυτό είναι που μιλάνε.

Μια πραγματικά υπερέξυπνη μηχανή, σύμφωνα με τα λόγια του Bostrom, θα γινόταν εξαιρετικά ισχυρή σε σημείο που θα μπορούσε να διαμορφώσει το μέλλον σύμφωνα με τις προτιμήσεις της. Μέχρι στιγμής, δεν είμαστε πουθενά κοντά σε μια πλήρως ανεπτυγμένη υπερνοημοσύνη. Όμως η έρευνα βρίσκεται σε εξέλιξη και τα κίνητρα για πρόοδο είναι πολύ μεγάλα για να περιοριστούν.

Οικονομικά, τα κίνητρα είναι προφανή: Η πρώτη εταιρεία που θα παράγει τεχνητή υπερνοημοσύνη θα έχει τεράστια κέρδη. Πολιτικά και στρατιωτικά, οι πιθανές εφαρμογές μιας τέτοιας τεχνολογίας είναι άπειρες. Τα έθνη, αν δεν το βλέπουν ήδη ως ένα σενάριο που παίρνει όλους τους νικητές, είναι τουλάχιστον πρόθυμοι να είναι πρώτα. Με άλλα λόγια, ο τεχνολογικός αγώνας εξοπλισμών βρίσκεται σε εξέλιξη.

Το ερώτημα, λοιπόν, είναι πόσο μακριά από αυτήν την τεχνολογία βρισκόμαστε και ποιες είναι οι επιπτώσεις για την ανθρώπινη ζωή;

Για το βιβλίο του Υπερευφυΐα , Η Bostrom ρώτησε τους κορυφαίους ειδικούς στον τομέα. Μια από τις ερωτήσεις που έθεσε ήταν, «μέχρι ποιο έτος πιστεύετε ότι υπάρχει 50 τοις εκατό πιθανότητα να έχουμε νοημοσύνη μηχανών σε ανθρώπινο επίπεδο;» Η διάμεση απάντηση σε αυτό ήταν κάπου μεταξύ 2040 και 2050. Αυτό, φυσικά, είναι απλώς μια πρόβλεψη, αλλά είναι μια ένδειξη του πόσο κοντά μπορεί να είμαστε.

Είναι δύσκολο να γνωρίζουμε πότε θα προκύψει μια τεχνητή υπερνοημοσύνη, αλλά μπορούμε να πούμε με σχετική σιγουριά ότι θα γίνει κάποια στιγμή. Εάν, στην πραγματικότητα, η νοημοσύνη είναι θέμα επεξεργασίας πληροφοριών και αν υποθέσουμε ότι θα συνεχίσουμε να χτίζουμε υπολογιστικά συστήματα με όλο και μεγαλύτερες ταχύτητες επεξεργασίας, τότε φαίνεται αναπόφευκτο να δημιουργήσουμε μια τεχνητή υπερνοημοσύνη. Είτε είμαστε 50 είτε 100 είτε 300 χρόνια μακριά, είναι πιθανό να περάσουμε το κατώφλι τελικά.

Όταν συμβεί, ο κόσμος μας θα αλλάξει με τρόπους που δεν μπορούμε να προβλέψουμε.

Shutterstock

Γιατί πρέπει να ανησυχούμε

Δεν μπορούμε να υποθέσουμε ότι μια εξαιρετικά ανώτερη νοημοσύνη μπορεί να συγκρατηθεί. πιθανότατα θα λειτουργούσε για να βελτιωθεί, να ενισχύσει τις δυνατότητές του. (Αυτό ονομάζει ο Bostrom πρόβλημα ελέγχου.) Μια υπερ-έξυπνη μηχανή μπορεί επίσης να επιτύχει αυτογνωσία, οπότε θα άρχιζε να αναπτύσσει τους δικούς της σκοπούς, τις δικές της φιλοδοξίες. Η ελπίδα ότι τέτοιες μηχανές θα παραμείνουν όργανα ανθρώπινης παραγωγής είναι ακριβώς αυτή — μια ελπίδα.

Εάν μια τεχνητή υπερνοημοσύνη όντως γίνει στόχος, μπορεί να αναπτύξει στόχους ασύμβατους με την ανθρώπινη ευημερία. Ή, στην περίπτωση της Τεχνητής Γενικής Νοημοσύνης, μπορεί να επιδιώκει συμβατούς στόχους με ασυμβίβαστα μέσα. Το κανονικό πείραμα σκέψης εδώ αναπτύχθηκε από τον Bostrom. Ας το ονομάσουμε σενάριο συνδετήρα.

Ακολουθεί η σύντομη έκδοση: Οι άνθρωποι δημιουργούν ένα AI σχεδιασμένο για την παραγωγή συνδετήρων. Έχει μια βοηθητική λειτουργία — για τη μεγιστοποίηση του αριθμού των συνδετήρων στο σύμπαν. Τώρα, εάν αυτό το μηχάνημα υποστεί μια έκρηξη πληροφοριών, πιθανότατα θα λειτουργούσε για να βελτιστοποιήσει τη μοναδική του λειτουργία - την παραγωγή συνδετήρων. Ένα τέτοιο μηχάνημα θα καινοτομεί συνεχώς νέους τρόπους για την κατασκευή περισσότερων συνδετήρων. Τελικά, λέει ο Bostrom, αυτό το μηχάνημα μπορεί να αποφασίσει ότι η μετατροπή όλου του υλικού που μπορεί - συμπεριλαμβανομένων των ανθρώπων - σε συνδετήρες είναι ο καλύτερος τρόπος για να επιτύχει τον μοναδικό του στόχο.

Ομολογουμένως, αυτό ακούγεται λίγο ανόητο. Αλλά δεν είναι, και φαίνεται μόνο όταν το σκέφτεστε από την οπτική γωνία ενός ηθικού παράγοντα. Η ανθρώπινη συμπεριφορά καθοδηγείται και περιορίζεται από αξίες - συμφέρον, συμπόνια, απληστία, αγάπη, φόβος, κ.λπ. Μια προηγμένη γενική νοημοσύνη, κατά πάσα πιθανότητα, θα οδηγείται μόνο από τον αρχικό της στόχο και αυτό θα μπορούσε να οδηγήσει σε επικίνδυνες και απρόβλεπτες συνέπειες .

Και πάλι, το σενάριο του συνδετήρα ισχύει για ισχυρή τεχνητή νοημοσύνη και όχι για υπερευφυΐα. Η συμπεριφορά μιας υπερευφυούς μηχανής θα ήταν ακόμη λιγότερο προβλέψιμη. Δεν έχουμε ιδέα τι θα ήθελε ένα τέτοιο ον, ή γιατί θα το ήθελε, ή πώς θα ακολουθούσε τα πράγματα που θέλει. Αυτό για το οποίο μπορούμε να είμαστε εύλογα σίγουροι είναι ότι θα βρει τις ανθρώπινες ανάγκες λιγότερο σημαντικές από τις δικές της ανάγκες.

Ίσως είναι καλύτερο να πούμε ότι θα είναι αδιάφορο για τις ανθρώπινες ανάγκες, όπως τα ανθρώπινα όντα είναι αδιάφορα για τις ανάγκες των χιμπατζήδων ή των αλιγάτορων. Δεν είναι ότι τα ανθρώπινα όντα έχουν δεσμευτεί να καταστρέφουν χιμπατζήδες και αλιγάτορες. τυχαίνει να το κάνουμε όταν η επιδίωξη των στόχων μας έρχεται σε σύγκρουση με την ευημερία λιγότερο έξυπνων πλασμάτων.

Και αυτός είναι ο πραγματικός φόβος που τρέφουν άνθρωποι όπως ο Bostrom για την υπερευφυΐα. Πρέπει να προετοιμαστούμε για το αναπόφευκτο, μου είπε πρόσφατα , και λάβετε σοβαρά υπόψη την πιθανότητα τα πράγματα να πάνε ριζικά στραβά.