Return to Video

Μπορούμε να φτιάξουμε τεχνητή νοημοσύνη χωρίς να χάσουμε τον έλεγχό της;

  • 0:01 - 0:03
    Θα σας μιλήσω για ένα σφάλμα στη λογική
  • 0:03 - 0:05
    που έχουν πολλοί από εμάς.
  • 0:05 - 0:09
    Στην ουσία είναι αδυναμία να δούμε
    ένα ορισμένο είδος κινδύνου.
  • 0:09 - 0:11
    Θα περιγράψω ένα σενάριο
  • 0:11 - 0:14
    που θεωρώ ταυτόχρονα τρομακτικό,
  • 0:14 - 0:16
    αλλά και πιθανό να συμβεί,
  • 0:17 - 0:18
    και δεν είναι καλός συνδυασμός,
  • 0:18 - 0:20
    όπως τελικά αποδεικνύεται.
  • 0:20 - 0:23
    Αλλά αντί να τρομοκρατείστε,
    οι περισσότεροι πιστεύετε
  • 0:23 - 0:25
    ότι αυτό που σας λέω είναι μάλλον ωραίο.
  • 0:25 - 0:27
    Θα σας περιγράψω
  • 0:27 - 0:30
    πώς τα οφέλη που θα δρέψουμε
    από την τεχνητή νοημοσύνη
  • 0:30 - 0:32
    μπορούν εν τέλει να μας καταστρέψουν.
  • 0:32 - 0:35
    Και μάλιστα το θεωρώ απίθανο
    είτε να μην μας καταστρέψουν
  • 0:35 - 0:37
    ή να μας εμπνεύσουν
    να καταστραφούμε μόνοι μας.
  • 0:37 - 0:39
    Αν όμως σκέφτεστε όπως εγώ,
  • 0:39 - 0:42
    θα το απολαμβάνετε
    να σκέφτεστε αυτά τα πράγματα.
  • 0:42 - 0:45
    Κι αυτή η αντίδραση
    είναι μέρος του προβλήματος.
  • 0:45 - 0:48
    Εντάξει; Αυτή η αντίδραση
    θα πρέπει να σας ανησυχεί.
  • 0:48 - 0:51
    Κι αν επρόκειτο να σας πείσω
    με αυτή την ομιλία
  • 0:51 - 0:54
    ότι είναι πιθανόν
    να αντιμετωπίσουμε παγκόσμιο λιμό,
  • 0:54 - 0:57
    είτε λόγω κλιματικής αλλαγής
    ή κάποιας άλλης καταστροφής,
  • 0:57 - 1:00
    και ότι τα εγγόνια σας,
    ή τα δικά τους εγγόνια,
  • 1:00 - 1:03
    είναι πολύ πιθανόν να ζήσουν κάπως έτσι,
  • 1:03 - 1:04
    δεν θα σκεφτόσασταν,
  • 1:05 - 1:07
    «Ενδιαφέρον.
  • 1:07 - 1:09
    Μου αρέσει αυτή η ομιλία TED».
  • 1:09 - 1:11
    Ο λιμός δεν είναι κάτι διασκεδαστικό.
  • 1:12 - 1:15
    Από την άλλη, ο θάνατος μέσω επιστημονικής
    φαντασίας είναι διασκεδαστικός,
  • 1:15 - 1:19
    και κάτι που με ανησυχεί σε αυτό το στάδιο
    της εξέλιξης της τεχνητής νοημοσύνης
  • 1:19 - 1:23
    είναι ότι αδυνατούμε να επιδείξουμε
    μια κατάλληλη συναισθηματική αντίδραση
  • 1:23 - 1:25
    στους επικείμενους κινδύνους.
  • 1:25 - 1:29
    Ούτε εγώ μπορώ να έχω αυτή την αντίδραση
    και κάνω αυτή την ομιλία.
  • 1:30 - 1:32
    Είναι σαν να στεκόμαστε
    μπροστά σε δύο πόρτες.
  • 1:33 - 1:34
    Πίσω από την πρώτη πόρτα,
  • 1:34 - 1:37
    παύουμε να κάνουμε πρόοδο
    στην παραγωγή ευφυών μηχανών.
  • 1:37 - 1:41
    Για κάποιον λόγο παύουμε να βελτιώνουμε
    υλισμικό και λογισμικό στους υπολογιστές.
  • 1:41 - 1:45
    Τώρα σκεφτείτε για λίγο
    γιατί μπορεί να συμβεί αυτό.
  • 1:45 - 1:49
    Εννοώ ότι, δεδομένης της μεγάλης αξίας
    της ευφυίας και των αυτοματισμών,
  • 1:49 - 1:53
    εφόσον μπορούμε, θα συνεχίσουμε
    να βελτιώνουμε την τεχνολογία μας.
  • 1:53 - 1:55
    Τι μπορεί να μας αποτρέψει;
  • 1:56 - 1:58
    Ένας πυρηνικός πόλεμος πλήρους κλίμακας;
  • 1:59 - 2:01
    Μια παγκόσμια πανδημία;
  • 2:02 - 2:04
    Μια σύγκρουση με αστεροειδή;
  • 2:06 - 2:08
    Να γίνει ο Τζάστιν Μπίμπερ
    πρόεδρος των ΗΠΑ;
  • 2:08 - 2:11
    (Γέλια)
  • 2:13 - 2:17
    Το θέμα είναι ότι κάτι θα πρέπει
    να καταστρέψει τον σύγχρονο πολιτισμό.
  • 2:17 - 2:22
    Θα πρέπει να φανταστείτε
    πόσο οδυνηρό πρέπει να είναι
  • 2:22 - 2:25
    για να μας αποτρέψει
    από το να βελτιώσουμε την τεχνολογία μας
  • 2:25 - 2:26
    σε μόνιμη βάση,
  • 2:26 - 2:28
    στις επόμενες γενεές.
  • 2:28 - 2:30
    Αυτό είναι σχεδόν εξ ορισμού
  • 2:30 - 2:32
    ό,τι χειρότερο έχει ποτέ συμβεί
    στην ανθρώπινη ιστορία.
  • 2:33 - 2:34
    Έτσι η μόνη εναλλακτική
  • 2:34 - 2:36
    -κι αυτή βρίσκεται
    πίσω από τη δεύτερη πόρτα-
  • 2:36 - 2:39
    είναι να συνεχίσουμε να βελτιώνουμε
    τις έξυπνες μηχανές μας
  • 2:39 - 2:41
    χρόνο με τον χρόνο.
  • 2:42 - 2:46
    Σε κάποιο σημείο, θα φτιάξουμε μηχανές
    που θα είναι πιο έξυπνες από εμάς,
  • 2:46 - 2:48
    κι όταν θα έχουμε μηχανές
    εξυπνότερες από εμάς,
  • 2:48 - 2:50
    θα αρχίσουν να βελτιώνονται μόνες τους.
  • 2:51 - 2:52
    Τότε διακινδυνεύουμε να έχουμε κάτι
  • 2:52 - 2:55
    που ο μαθηματικός Ι. Τζ. Γκουντ
    αποκάλεσε «έκρηξη ευφυίας»,
  • 2:55 - 2:58
    όπου η διαδικασία μπορεί
    να φύγει από τον έλεγχό μας.
  • 2:58 - 3:01
    Αυτό συχνά απεικονίζεται,
    όπως σας δείχνω εδώ,
  • 3:01 - 3:04
    ως ένας φόβος ότι στρατιές
    από κακόβουλα ρομπότ
  • 3:04 - 3:05
    θα μας επιτεθούν.
  • 3:05 - 3:08
    Αλλά αυτό δεν είναι το πιο πιθανό σενάριο.
  • 3:08 - 3:13
    Δεν είναι ότι οι μηχανές μας
    θα γίνουν αυθόρμητα κακόβουλες.
  • 3:13 - 3:16
    Η πραγματική ανησυχία είναι
    ότι θα φτιάξουμε μηχανές
  • 3:16 - 3:18
    που θα είναι τόσο πιο ικανές από εμάς
  • 3:18 - 3:22
    που η ελάχιστη απόκλιση μεταξύ
    των δικών τους στόχων και των δικών μας
  • 3:22 - 3:23
    θα μπορούσε να μας καταστρέψει.
  • 3:24 - 3:26
    Σκεφτείτε τη σχέση μας με τα μυρμήγκια.
  • 3:27 - 3:28
    Δεν τα μισούμε.
  • 3:28 - 3:30
    Δεν τα βλάπτουμε εκουσίως.
  • 3:30 - 3:33
    Συχνά μάλιστα κάνουμε προσπάθεια
    να μην τα βλάψουμε.
  • 3:33 - 3:35
    Αποφεύγουμε να τα πατήσουμε
    στο πεζοδρόμιο.
  • 3:35 - 3:37
    Αλλά όταν η παρουσία τους
  • 3:37 - 3:39
    αντιτίθεται σοβαρά με τους στόχους μας,
  • 3:39 - 3:42
    ας πούμε, όταν φτιάχνουμε
    ένα τέτοιο κτήριο,
  • 3:42 - 3:44
    τα εκμηδενίζουμε χωρίς δεύτερη σκέψη.
  • 3:44 - 3:47
    Η ανησυχία είναι ότι μια μέρα
    θα φτιάξουμε μηχανές που,
  • 3:47 - 3:50
    είτε ενσυνείδητα ή όχι,
  • 3:50 - 3:53
    θα μας μεταχειριστούν
    με παρόμοια αδιαφορία.
  • 3:54 - 3:57
    Υποψιάζομαι ότι οι περισσότεροι
    το θεωρείτε παρατραβηγμένο.
  • 3:57 - 4:02
    Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν
    αν η υπερευφυής τεχνητή νοημοσύνη
  • 4:02 - 4:05
    είναι εφικτή,
    πολύ δε λιγότερο αναπόφευκτη.
  • 4:05 - 4:09
    Τότε όμως πρέπει να βρείτε κάποιο λάθος
    στις ακόλουθες υποθέσεις.
  • 4:09 - 4:11
    Και είναι μόνο τρεις υποθέσεις.
  • 4:12 - 4:17
    Η ευφυΐα είναι θέμα επεξεργασίας
    της πληροφορίας σε υλικά συστήματα.
  • 4:17 - 4:20
    Βασικά, αυτό είναι
    κάτι παραπάνω από μια υπόθεση.
  • 4:20 - 4:23
    Έχουμε ήδη ενσωματώσει
    περιορισμένη ευφυΐα στις μηχανές μας,
  • 4:23 - 4:25
    και πολλές από αυτές ήδη αποδίδουν
  • 4:25 - 4:29
    σε επίπεδο υπεράνθρωπης ευφυΐας.
  • 4:29 - 4:31
    Και ξέρουμε πως η απλή ύλη
  • 4:31 - 4:34
    μπορεί να δημιουργήσει
    αυτό που λέγεται «γενική ευφυΐα»,
  • 4:34 - 4:38
    μια ικανότητα να σκεφτούμε ευέλικτα
    σε πολλαπλά επίπεδα,
  • 4:38 - 4:41
    επειδή τα μυαλά μας
    τα έχουν καταφέρει, σωστά;
  • 4:41 - 4:45
    Εξάλλου μόνο άτομα υπάρχουν εκεί,
  • 4:45 - 4:49
    και όσο συνεχίζουμε να φτιάχνουμε
    συστήματα από άτομα
  • 4:49 - 4:52
    που επιδεικνύουν όλο και
    περισσότερο ευφυή συμπεριφορά,
  • 4:52 - 4:55
    αν δεν μας σταματήσει κάποιος,
  • 4:55 - 4:58
    τελικά θα βάλουμε τη γενική ευφυΐα
  • 4:58 - 4:59
    μέσα στις μηχανές μας.
  • 4:59 - 5:03
    Είναι σημαντικό να καταλάβουμε
    ότι δεν έχει σημασία ο ρυθμός της προόδου,
  • 5:03 - 5:06
    γιατί κάθε πρόοδος είναι αρκετή
    για να οδηγήσει σε αυτή την κατάληξη.
  • 5:06 - 5:10
    Δεν χρειάζεται ο Νόμος του Μουρ,
    ούτε κάποια εκθετική πρόοδος.
  • 5:10 - 5:12
    Χρειάζεται απλώς να συνεχίσουμε.
  • 5:13 - 5:17
    Η δεύτερη υπόθεση είναι
    ότι θα συνεχίσουμε.
  • 5:17 - 5:20
    Θα συνεχίσουμε να βελτιώνουμε
    τις έξυπνες μηχανές μας.
  • 5:21 - 5:25
    Και σύμφωνα με την αξία της ευφυΐας -
  • 5:25 - 5:29
    εννοώ ότι είτε η ευφυΐα
    είναι η πηγή για ό,τι θεωρούμε άξιο,
  • 5:29 - 5:32
    ή χρειάζεται να περιφρουρήσουμε
    οτιδήποτε θεωρούμε άξιο.
  • 5:32 - 5:34
    Είναι ο πιο πολύτιμος πόρος που έχουμε.
  • 5:34 - 5:36
    Έτσι, θέλουμε να το κάνουμε.
  • 5:36 - 5:39
    Έχουμε προβλήματα και πρέπει
    να τα λύσουμε επειγόντως.
  • 5:39 - 5:42
    Θέλουμε να θεραπεύσουμε νόσους
    όπως τον καρκίνο και την Αλτσχάιμερ,
  • 5:43 - 5:47
    να καταλάβουμε οικονομικά συστήματα,
    να βελτιώσουμε τη γνώση μας για το κλίμα.
  • 5:47 - 5:49
    Γι' αυτό θα το κάνουμε, αν μπορούμε.
  • 5:49 - 5:53
    Το τρένο έχει ήδη ξεκινήσει
    και δεν έχει φρένο.
  • 5:54 - 5:59
    Τέλος, δεν έχουμε φτάσει
    στην αποκορύφωση της ευφυΐας,
  • 5:59 - 6:01
    μάλλον ούτε που την πλησιάσαμε.
  • 6:02 - 6:04
    Και αυτή είναι η σημαντική διαπίστωση.
  • 6:04 - 6:06
    Αυτό κάνει τόσο επισφαλή
    την κατάστασή μας,
  • 6:06 - 6:10
    και τόσο αναξιόπιστα
    τα προαίσθήματά μας σχετικά με το ρίσκο.
  • 6:11 - 6:14
    Απλώς σκεφτείτε το πιο έξυπνο
    άτομο που έχει ποτέ ζήσει.
  • 6:15 - 6:18
    Κάποιον που όλοι σας θα έχετε κατά νου
    είναι ο Τζον φον Νόιμαν.
  • 6:18 - 6:21
    Η εντύπωση που έκανε
    στους τριγύρω του ο φον Νόιμαν,
  • 6:21 - 6:25
    συμπεριλαμβανομένων των πιο λαμπρών
    μαθηματικών και φυσικών της εποχής του,
  • 6:25 - 6:27
    έχει καταγραφεί επαρκώς.
  • 6:27 - 6:31
    Και μόνο οι μισές ιστορίες
    γι' αυτόν να αληθεύουν,
  • 6:31 - 6:32
    χωρίς αμφιβολία
  • 6:32 - 6:35
    είναι από τους πιο έξυπνους
    ανθρώπους που έχουν ζήσει.
  • 6:35 - 6:38
    Σκεφτείτε λοιπόν το φάσμα της ευφυΐας.
  • 6:38 - 6:40
    Εδώ είναι ο Τζον φον Νόιμαν.
  • 6:42 - 6:43
    Κι εδώ είμαστε εσείς κι εγώ.
  • 6:44 - 6:46
    Μετά είναι οι κότες.
  • 6:46 - 6:47
    (Γέλια)
  • 6:47 - 6:49
    Συγνώμη, μια κότα.
  • 6:49 - 6:50
    (Γέλια)
  • 6:50 - 6:53
    Δεν υπάρχει λόγος να κάνω την ομιλία
    πιο θλιβερή απ' όσο χρειάζεται.
  • 6:53 - 6:55
    (Γέλια)
  • 6:56 - 7:00
    Ωστόσο, φαίνεται εκπληκτικά πιθανόν
    ότι το φάσμα της ευφυΐας
  • 7:00 - 7:03
    εκτείνεται πολύ πιο πέρα
    από όσο τώρα αντιλαμβανόμαστε,
  • 7:04 - 7:07
    και αν φτιάξουμε μηχανές
    πιο έξυπνες από εμάς,
  • 7:07 - 7:09
    είναι πολύ πιθανόν
    να εξερευνήσουν αυτό το φάσμα
  • 7:09 - 7:12
    με τρόπους που δεν μπορούμε να φανταστούμε
  • 7:12 - 7:14
    και να μας ξεπεράσουν σε αφάνταστο βαθμό.
  • 7:15 - 7:19
    Και είναι σημαντικό να αναγνωρίσουμε
    ότι αυτό αληθεύει και μόνο λόγω ταχύτητας.
  • 7:19 - 7:24
    Σωστά; Φανταστείτε να φτιάχναμε
    μια υπερευφυή τεχνητή νοημοσύνη,
  • 7:24 - 7:28
    που δεν θα ήταν εξυπνότερη
    από μια μέση ομάδα ερευνητών
  • 7:28 - 7:30
    των πανεπιστημίων Στάνφορντ ή ΜΙΤ.
  • 7:30 - 7:32
    Τα ηλεκτρονικά κυκλώματα λειτουργούν
  • 7:32 - 7:35
    ένα εκατομμύριο φορές ταχύτερα
    από τα βιοχημικά,
  • 7:35 - 7:38
    έτσι αυτή η μηχανή θα σκεφτόταν
    ένα εκατομμύριο φορές πιο γρήγορα
  • 7:38 - 7:39
    από τους εγκεφάλους που την έφτιαξαν.
  • 7:40 - 7:41
    Με λειτουργία μίας εβδομάδας
  • 7:41 - 7:46
    θα παράξει έργο 20.000 ετών
    σε επίπεδο ανθρώπινης διάνοιας,
  • 7:46 - 7:49
    και το ίδιο θα κάνει
    κάθε επόμενη εβδομάδα.
  • 7:50 - 7:53
    Πώς μπορούμε να καταλάβουμε,
    πολύ δε περισσότερο να περιορίσουμε,
  • 7:53 - 7:56
    έναν εγκέφαλο που κάνει τέτοια πρόοδο;
  • 7:57 - 8:00
    Για να πω την αλήθεια,
    είναι επίσης ανησυχητικό
  • 8:00 - 8:04
    να φανταστούμε το καλύτερο δυνατό σενάριο.
  • 8:04 - 8:08
    Φανταστείτε να βρούμε ένα σχέδιο
    υπερεφυούς τεχνητής νοημοσύνης
  • 8:08 - 8:10
    που δεν έχει θέματα ασφάλειας.
  • 8:10 - 8:13
    Θα έχουμε βρει το τέλειο σχέδιο
    για πρώτη φορά.
  • 8:13 - 8:15
    Θα είναι σαν να μας έχει δοθεί ένα μαντείο
  • 8:15 - 8:17
    που λειτουργεί ακριβώς όπως πρέπει.
  • 8:17 - 8:21
    Αυτή θα ήταν η τέλεια μηχανή
    εξοικονόμησης έργου.
  • 8:22 - 8:24
    Θα σχεδιάσει τη μηχανή
    που θα κατασκευάσει τη μηχανή
  • 8:24 - 8:26
    που θα κάνει κάθε σωματική εργασία,
  • 8:26 - 8:27
    τροφοδοτούμενη από τον ήλιο,
  • 8:27 - 8:30
    με μόνο κόστος αυτό των πρώτων υλών.
  • 8:30 - 8:33
    Έτσι μιλάμε για το τέλος
    της ανθρώπινης αγγαρείας.
  • 8:33 - 8:37
    Επίσης μιλάμε για το τέλος
    της περισσότερης διανοητικής εργασίας.
  • 8:37 - 8:40
    Τι θα κάνουν οι πίθηκοι όπως εμείς
    σε αυτή την περίπτωση;
  • 8:40 - 8:45
    Θα έχουμε χρόνο να παίζουμε φρίσμπι
    και να κάνουμε μασάζ ο ένας στον άλλον.
  • 8:46 - 8:49
    Προσθέστε λίγο LSD και κάποιες
    αμφίβολες επιλογές ένδυσης,
  • 8:49 - 8:51
    κι όλος ο κόσμος θα μοιάζει
    με φεστιβάλ Burning Man.
  • 8:51 - 8:53
    (Γέλια)
  • 8:54 - 8:57
    Μπορεί βέβαια να ακούγεται αρκετά καλό,
  • 8:57 - 9:00
    αλλά αναρωτηθείτε τι θα συνέβαινε
  • 9:00 - 9:02
    με την τωρινή οικονομική
    και πολιτική κατάσταση;
  • 9:02 - 9:05
    Μοιάζει πιθανό ότι θα βιώσουμε
  • 9:05 - 9:09
    ένα επίπεδο ανισότητας
    πλούτου και ανεργίας
  • 9:09 - 9:11
    που δεν έχουμε ξαναδεί.
  • 9:11 - 9:13
    Αν απουσιάσει η θέληση
    να βάλουμε άμεσα αυτόν τον πλούτο
  • 9:13 - 9:15
    στην υπηρεσία όλης της ανθρωπότητας,
  • 9:15 - 9:19
    ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν
    τα εξώφυλλα των οικονομικών περιοδικών,
  • 9:19 - 9:22
    ενώ ο υπόλοιπος κόσμος
    θα είναι ελεύθερος να λιμοκτονήσει.
  • 9:22 - 9:25
    Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι
  • 9:25 - 9:27
    αν μάθουν ότι μια εταιρεία
    στη Σίλικον Βάλεϊ
  • 9:27 - 9:30
    πρόκειται να κυκλοφορήσει
    μια υπερευφυή τεχνητή νοημοσύνη;
  • 9:30 - 9:33
    Αυτή η μηχανή θα μπορούσε
    να κηρύξει πόλεμο,
  • 9:33 - 9:35
    είτε συμβατικό
    είτε σε επίπεδο υπολογιστών,
  • 9:35 - 9:37
    με ισχύ άνευ προηγουμένου.
  • 9:38 - 9:40
    Είναι ένα σενάριο όπου κερδίζει μόνο ένας.
  • 9:40 - 9:43
    Όταν προηγείσαι εδώ
    έξι μήνες από τον ανταγωνισμό,
  • 9:43 - 9:46
    είναι σαν να είσαι 500.000 χρόνια μπροστά
  • 9:46 - 9:47
    κατά το ελάχιστο.
  • 9:47 - 9:52
    Άρα φαίνεται ότι ακόμη και απλές φήμες
    για κάτι τόσο επαναστατικό
  • 9:52 - 9:54
    θα έκανε το είδος μας να τρελαθεί.
  • 9:55 - 9:58
    Ένα από τα πιο τρομακτικά πράγματα,
  • 9:58 - 10:00
    κατά την άποψή μου, αυτή τη στιγμή,
  • 10:00 - 10:04
    είναι αυτά που λένε οι ερευνητές
    της τεχνητής νοημοσύνης
  • 10:05 - 10:07
    όταν θέλουν να μας καθησυχάσουν.
  • 10:07 - 10:10
    Κι ο πιο κοινός λόγος που προβάλλουν
    για να μην ανησυχούμε είναι ο χρόνος.
  • 10:10 - 10:13
    Αυτό είναι πολύ μακριά, δεν το βλέπετε;
  • 10:13 - 10:15
    Είναι περίπου 50 ή 100 χρόνια μετά.
  • 10:16 - 10:17
    Ένας ερευνητής έχει πει,
  • 10:17 - 10:19
    «Ανησυχώντας για ασφάλεια
    στην τεχνητή νοημοσύνη
  • 10:19 - 10:22
    είναι σαν να ανησυχούμε
    για υπερπληθυσμό στον Άρη».
  • 10:22 - 10:24
    Αυτό είναι η έκδοση της Σίλικον Βάλεϊ
  • 10:24 - 10:26
    του «μην ζαλίζεις το όμορφο κεφαλάκι σου».
  • 10:26 - 10:27
    (Γέλια)
  • 10:27 - 10:29
    Κανείς δεν φαίνεται να βλέπει
  • 10:29 - 10:32
    ότι η αναφορά στον χρονικό ορίζοντα
  • 10:32 - 10:34
    είναι τελείως ανακόλουθη.
  • 10:35 - 10:38
    Αν η ευφυΐα είναι απλώς θέμα
    επεξεργασίας της πληροφορίας,
  • 10:38 - 10:40
    και συνεχίζουμε
    να βελτιώνουμε τις μηχανές μας,
  • 10:41 - 10:44
    σίγουρα θα δημιουργήσουμε
    κάποια μορφή υπερευφυΐας.
  • 10:44 - 10:48
    Και δεν ξέρουμε πόσο χρόνο θα μας πάρει
  • 10:48 - 10:51
    να δημιουργήσουμε τις συνθήκες
    ώστε να το κάνουμε με ασφάλεια.
  • 10:52 - 10:53
    Να το πω πάλι.
  • 10:54 - 10:57
    Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει
  • 10:57 - 11:00
    να δημιουργήσουμε τις συνθήκες
    ώστε να το κάνουμε με ασφάλεια.
  • 11:01 - 11:04
    Κι αν δεν το έχετε προσέξει,
    τα 50 χρόνια δεν είναι αυτό που ήταν.
  • 11:04 - 11:07
    Αυτό είναι 50 χρόνια σε μήνες.
  • 11:07 - 11:09
    Τόσον καιρό έχουμε το iPhone.
  • 11:09 - 11:12
    Τόσον καιρό παίζονται
    οι Σίμπσονς στην τηλεόραση.
  • 11:13 - 11:15
    Τα 50 χρόνια δεν είναι τόσο πολλά
  • 11:15 - 11:19
    για μια από τις μεγαλύτερες προκλήσεις
    που θα αντιμετωπίσει το είδος μας.
  • 11:20 - 11:24
    Και πάλι - αδυνατούμε να επιδείξουμε
    κατάλληλη συναισθηματική απόκριση
  • 11:24 - 11:26
    σε κάτι που έχουμε κάθε λόγο
    να πιστεύουμε ότι θα έρθει.
  • 11:26 - 11:30
    Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ
    έχει μια ωραία αναλογία γι' αυτό.
  • 11:30 - 11:35
    Είπε, φανταστείτε ότι λάβαμε μήνυμα
    από εξωγήινο πολιτισμό,
  • 11:35 - 11:36
    που έλεγε:
  • 11:37 - 11:38
    «Άνθρωποι της Γης,
  • 11:39 - 11:41
    θα φτάσουμε στον πλανήτη σας σε 50 χρόνια.
  • 11:42 - 11:43
    Ετοιμαστείτε».
  • 11:43 - 11:47
    Και τώρα απλώς μετράμε αντίστροφα
    τον χρόνο μέχρι να έρθει το διαστημόπλοιο.
  • 11:48 - 11:51
    Θα το νιώθαμε ως κάτι λίγο
    πιο επιτακτικό από ό,τι τώρα.
  • 11:52 - 11:54
    Μας λένε επίσης να μην ανησυχούμε,
  • 11:54 - 11:58
    γιατί οι μηχανές δεν μπορούν
    παρά να έχουν τις δικές μας αξίες,
  • 11:58 - 12:00
    καθώς κυριολεκτικά
    είναι προέκταση των εαυτών μας.
  • 12:00 - 12:02
    Θα συνδεθούν στον εγκέφαλό μας
  • 12:02 - 12:05
    και βασικά θα γίνουμε
    το μεταιχμιακό τους σύστημα.
  • 12:05 - 12:07
    Σκεφτείτε για ένα λεπτό
  • 12:07 - 12:10
    ότι ο ασφαλέστερος και ο μόνος
    συνετός δρόμος προς τα εμπρός
  • 12:10 - 12:11
    που προτείνεται,
  • 12:11 - 12:14
    είναι να εμφυτεύσουμε αυτή την τεχνολογία
    απευθείας στον εγκέφαλό μας.
  • 12:15 - 12:18
    Βέβαια, μπορεί να είναι ο ασφαλέστερος
    και ο μόνος συνετός δρόμος,
  • 12:18 - 12:21
    αλλά συνήθως οι ανησυχίες
    για την ασφάλεια μιας τεχνολογίας
  • 12:21 - 12:25
    πρέπει να έχουν επιλυθεί
    πριν την εμφυτεύσουμε στο κεφάλι μας.
  • 12:25 - 12:27
    (Γέλια)
  • 12:27 - 12:30
    Το βαθύτερο πρόβλημα είναι
    ότι φαίνεται ευκολότερο
  • 12:30 - 12:34
    να φτάξεις ένα μεμονωμένο
    σύστημα τεχνητής νοημοσύνης,
  • 12:34 - 12:36
    από το να φτιάξεις ένα σύστημα
  • 12:36 - 12:38
    και να έχεις και επαρκή νευροεπιστήμη
  • 12:38 - 12:40
    που να επιτρέπει την εύκολη
    ενσωμάτωσή του στον εγκέφαλό μας.
  • 12:41 - 12:44
    Και δεδομένου ότι οι κυβερνήσεις
    και εταιρείες που θα το κάνουν
  • 12:44 - 12:48
    είναι πιθανόν θα θεωρούν
    ότι ανταγωνίζονται όλους τους άλλους,
  • 12:48 - 12:51
    εφόσον όποιος το κάνει πρώτος
    θα κυριαρχήσει στον κόσμο,
  • 12:51 - 12:53
    με την προϋπόθεση
    ότι δεν θα τον καταστρέψει αμέσως μετά,
  • 12:53 - 12:55
    τότε μοιάζει πιθανό
  • 12:55 - 12:58
    ότι θα γίνει πρώτο
    οτιδήποτε γίνεται πιο εύκολα.
  • 12:59 - 13:01
    Δυστυχώς δεν έχω κάποια λύση
    γι' αυτό το πρόβλημα,
  • 13:01 - 13:04
    εκτός από το να συστήσω
    να το ξανασκεφτούμε οι περισσότεροι.
  • 13:04 - 13:07
    Νομίζω ότι χρειαζόμαστε
    κάτι σαν το Πρόγραμμα Μανχάταν
  • 13:07 - 13:09
    προσαρμοσμένο για την τεχνητή νοημοσύνη.
  • 13:09 - 13:11
    Όχι για να την φτιάξουμε,
    γιατί μάλλον είναι αναπόφευκτο,
  • 13:11 - 13:15
    αλλά να καταλάβουμε πώς να αποφύγουμε
    έναν αγώνα εξοπλισμών
  • 13:15 - 13:18
    και να την φτιάξουμε έτσι που
    να συμβαδίζει με τα συμφέροντά μας.
  • 13:18 - 13:20
    Όταν μιλάτε
    για υπερευφυή τεχνητή νοημοσύνη
  • 13:20 - 13:23
    που μπορεί να τροποποιήσει τον εαυτό της,
  • 13:23 - 13:27
    φαίνεται ότι έχουμε μόνο μία πιθανότητα
    να ορίσουμε τις σωστές προϋποθέσεις,
  • 13:27 - 13:30
    και ακόμη και τότε
    θα χρειαστεί να απορροφήσουμε
  • 13:30 - 13:33
    τις οικονομικές και πολιτικές συνέπειες
    της σωστής εφαρμογής.
  • 13:34 - 13:36
    Αλλά μόλις παραδεχθούμε
  • 13:36 - 13:40
    ότι η επεξεργασία πληροφοριών
    είναι η πηγή της ευφυΐας,
  • 13:41 - 13:46
    ότι η βάση της ευφυΐας είναι
    κάποιο κατάλληλο υπολογιστικό σύστημα,
  • 13:46 - 13:51
    και αποδεχθούμε να βελτιώνουμε
    αυτά τα συστήματα συνεχώς,
  • 13:51 - 13:56
    και παραδεχθούμε ότι ο γνωστικός ορίζοντας
    μάλλον ξεπερνά κατά πολύ
  • 13:56 - 13:58
    όσα ήδη γνωρίζουμε,
  • 13:58 - 13:59
    τότε πρέπει να παραδεχθούμε
  • 13:59 - 14:03
    ότι βρισκόμαστε σε διαδικασία κατασκευής
    κάποιου είδους θεού.
  • 14:03 - 14:05
    Τώρα είναι η σωστή ώρα
  • 14:05 - 14:08
    να εξασφαλίσουμε ότι είναι ένας θεός
    με τον οποίον μπορούμε να ζήσουμε.
  • 14:08 - 14:09
    Σας ευχαριστώ πολύ.
  • 14:09 - 14:11
    (Χειροκρότημα)
Title:
Μπορούμε να φτιάξουμε τεχνητή νοημοσύνη χωρίς να χάσουμε τον έλεγχό της;
Speaker:
Σαμ Χάρις
Description:

Φοβάστε την υπερευφυή τεχνητή νοημοσύνη; Έτσι πρέπει, μας λέει ο νευροεπιστήμων και φιλόσοφος Σαμ Χάρις - και όχι μόνο σε θεωρητικό επίπεδο. Πρόκειται να φτιάξουμε υπεράνθρωπες μηχανές, λέει ο Χάρις, αλλά ακόμα δεν έχουμε λύσει τα προβλήματα που σχετίζονται με τη δημιουργία κάποιου πράγματος που μπορεί να μας μεταχειριστεί όπως εμείς μεταχειριζόμαστε τα μυρμήγκια.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Greek subtitles

Revisions