[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.87,0:00:03.47,Default,,0000,0000,0000,,Θα σας μιλήσω για ένα σφάλμα στη λογική Dialogue: 0,0:00:03.47,0:00:05.15,Default,,0000,0000,0000,,που έχουν πολλοί από εμάς. Dialogue: 0,0:00:05.48,0:00:08.84,Default,,0000,0000,0000,,Στην ουσία είναι αδυναμία να δούμε\Nένα ορισμένο είδος κινδύνου. Dialogue: 0,0:00:09.38,0:00:11.12,Default,,0000,0000,0000,,Θα περιγράψω ένα σενάριο Dialogue: 0,0:00:11.12,0:00:14.38,Default,,0000,0000,0000,,που θεωρώ ταυτόχρονα τρομακτικό, Dialogue: 0,0:00:14.38,0:00:16.34,Default,,0000,0000,0000,,αλλά και πιθανό να συμβεί, Dialogue: 0,0:00:16.84,0:00:18.50,Default,,0000,0000,0000,,και δεν είναι καλός συνδυασμός, Dialogue: 0,0:00:18.50,0:00:19.90,Default,,0000,0000,0000,,όπως τελικά αποδεικνύεται. Dialogue: 0,0:00:20.08,0:00:22.68,Default,,0000,0000,0000,,Αλλά αντί να τρομοκρατείστε,\Nοι περισσότεροι πιστεύετε Dialogue: 0,0:00:22.68,0:00:24.86,Default,,0000,0000,0000,,ότι αυτό που σας λέω είναι μάλλον ωραίο. Dialogue: 0,0:00:25.20,0:00:26.58,Default,,0000,0000,0000,,Θα σας περιγράψω Dialogue: 0,0:00:26.58,0:00:29.98,Default,,0000,0000,0000,,πώς τα οφέλη που θα δρέψουμε\Nαπό την τεχνητή νοημοσύνη Dialogue: 0,0:00:29.98,0:00:31.75,Default,,0000,0000,0000,,μπορούν εν τέλει να μας καταστρέψουν. Dialogue: 0,0:00:31.80,0:00:34.58,Default,,0000,0000,0000,,Και μάλιστα το θεωρώ απίθανο\Nείτε να μην μας καταστρέψουν Dialogue: 0,0:00:34.58,0:00:36.96,Default,,0000,0000,0000,,ή να μας εμπνεύσουν\Nνα καταστραφούμε μόνοι μας. Dialogue: 0,0:00:37.40,0:00:39.26,Default,,0000,0000,0000,,Αν όμως σκέφτεστε όπως εγώ, Dialogue: 0,0:00:39.26,0:00:41.78,Default,,0000,0000,0000,,θα το απολαμβάνετε\Nνα σκέφτεστε αυτά τα πράγματα. Dialogue: 0,0:00:41.96,0:00:45.14,Default,,0000,0000,0000,,Κι αυτή η αντίδραση\Nείναι μέρος του προβλήματος. Dialogue: 0,0:00:45.14,0:00:47.60,Default,,0000,0000,0000,,Εντάξει; Αυτή η αντίδραση\Nθα πρέπει να σας ανησυχεί. Dialogue: 0,0:00:47.92,0:00:50.58,Default,,0000,0000,0000,,Κι αν επρόκειτο να σας πείσω\Nμε αυτή την ομιλία Dialogue: 0,0:00:50.58,0:00:53.99,Default,,0000,0000,0000,,ότι είναι πιθανόν\Nνα αντιμετωπίσουμε παγκόσμιο λιμό, Dialogue: 0,0:00:53.99,0:00:57.05,Default,,0000,0000,0000,,είτε λόγω κλιματικής αλλαγής\Nή κάποιας άλλης καταστροφής, Dialogue: 0,0:00:57.05,0:01:00.46,Default,,0000,0000,0000,,και ότι τα εγγόνια σας,\Nή τα δικά τους εγγόνια, Dialogue: 0,0:01:00.46,0:01:02.90,Default,,0000,0000,0000,,είναι πολύ πιθανόν να ζήσουν κάπως έτσι, Dialogue: 0,0:01:03.20,0:01:04.40,Default,,0000,0000,0000,,δεν θα σκεφτόσασταν, Dialogue: 0,0:01:05.44,0:01:06.78,Default,,0000,0000,0000,,«Ενδιαφέρον. Dialogue: 0,0:01:06.78,0:01:08.64,Default,,0000,0000,0000,,Μου αρέσει αυτή η ομιλία TED». Dialogue: 0,0:01:09.20,0:01:11.18,Default,,0000,0000,0000,,Ο λιμός δεν είναι κάτι διασκεδαστικό. Dialogue: 0,0:01:11.72,0:01:15.27,Default,,0000,0000,0000,,Από την άλλη, ο θάνατος μέσω επιστημονικής\Nφαντασίας είναι διασκεδαστικός, Dialogue: 0,0:01:15.27,0:01:19.18,Default,,0000,0000,0000,,και κάτι που με ανησυχεί σε αυτό το στάδιο\Nτης εξέλιξης της τεχνητής νοημοσύνης Dialogue: 0,0:01:19.18,0:01:23.27,Default,,0000,0000,0000,,είναι ότι αδυνατούμε να επιδείξουμε\Nμια κατάλληλη συναισθηματική αντίδραση Dialogue: 0,0:01:23.27,0:01:25.09,Default,,0000,0000,0000,,στους επικείμενους κινδύνους. Dialogue: 0,0:01:25.16,0:01:28.66,Default,,0000,0000,0000,,Ούτε εγώ μπορώ να έχω αυτή την αντίδραση\Nκαι κάνω αυτή την ομιλία. Dialogue: 0,0:01:30.12,0:01:32.50,Default,,0000,0000,0000,,Είναι σαν να στεκόμαστε\Nμπροστά σε δύο πόρτες. Dialogue: 0,0:01:32.84,0:01:34.10,Default,,0000,0000,0000,,Πίσω από την πρώτη πόρτα, Dialogue: 0,0:01:34.10,0:01:37.26,Default,,0000,0000,0000,,παύουμε να κάνουμε πρόοδο\Nστην παραγωγή ευφυών μηχανών. Dialogue: 0,0:01:37.44,0:01:41.32,Default,,0000,0000,0000,,Για κάποιον λόγο παύουμε να βελτιώνουμε\Nυλισμικό και λογισμικό στους υπολογιστές. Dialogue: 0,0:01:41.48,0:01:44.62,Default,,0000,0000,0000,,Τώρα σκεφτείτε για λίγο\Nγιατί μπορεί να συμβεί αυτό. Dialogue: 0,0:01:45.08,0:01:48.74,Default,,0000,0000,0000,,Εννοώ ότι, δεδομένης της μεγάλης αξίας\Nτης ευφυίας και των αυτοματισμών, Dialogue: 0,0:01:48.74,0:01:52.53,Default,,0000,0000,0000,,εφόσον μπορούμε, θα συνεχίσουμε\Nνα βελτιώνουμε την τεχνολογία μας. Dialogue: 0,0:01:53.20,0:01:54.99,Default,,0000,0000,0000,,Τι μπορεί να μας αποτρέψει; Dialogue: 0,0:01:55.80,0:01:57.91,Default,,0000,0000,0000,,Ένας πυρηνικός πόλεμος πλήρους κλίμακας; Dialogue: 0,0:01:59.00,0:02:00.92,Default,,0000,0000,0000,,Μια παγκόσμια πανδημία; Dialogue: 0,0:02:02.32,0:02:04.19,Default,,0000,0000,0000,,Μια σύγκρουση με αστεροειδή; Dialogue: 0,0:02:05.64,0:02:08.22,Default,,0000,0000,0000,,Να γίνει ο Τζάστιν Μπίμπερ\Nπρόεδρος των ΗΠΑ; Dialogue: 0,0:02:08.24,0:02:10.52,Default,,0000,0000,0000,,(Γέλια) Dialogue: 0,0:02:12.76,0:02:17.10,Default,,0000,0000,0000,,Το θέμα είναι ότι κάτι θα πρέπει\Nνα καταστρέψει τον σύγχρονο πολιτισμό. Dialogue: 0,0:02:17.36,0:02:21.58,Default,,0000,0000,0000,,Θα πρέπει να φανταστείτε\Nπόσο οδυνηρό πρέπει να είναι Dialogue: 0,0:02:21.58,0:02:24.81,Default,,0000,0000,0000,,για να μας αποτρέψει\Nαπό το να βελτιώσουμε την τεχνολογία μας Dialogue: 0,0:02:24.81,0:02:26.27,Default,,0000,0000,0000,,σε μόνιμη βάση, Dialogue: 0,0:02:26.27,0:02:28.17,Default,,0000,0000,0000,,στις επόμενες γενεές. Dialogue: 0,0:02:28.32,0:02:29.87,Default,,0000,0000,0000,,Αυτό είναι σχεδόν εξ ορισμού Dialogue: 0,0:02:29.87,0:02:32.50,Default,,0000,0000,0000,,ό,τι χειρότερο έχει ποτέ συμβεί\Nστην ανθρώπινη ιστορία. Dialogue: 0,0:02:32.52,0:02:33.82,Default,,0000,0000,0000,,Έτσι η μόνη εναλλακτική Dialogue: 0,0:02:33.82,0:02:36.15,Default,,0000,0000,0000,,-κι αυτή βρίσκεται\Nπίσω από τη δεύτερη πόρτα- Dialogue: 0,0:02:36.15,0:02:39.29,Default,,0000,0000,0000,,είναι να συνεχίσουμε να βελτιώνουμε\Nτις έξυπνες μηχανές μας Dialogue: 0,0:02:39.29,0:02:41.21,Default,,0000,0000,0000,,χρόνο με τον χρόνο. Dialogue: 0,0:02:41.72,0:02:45.59,Default,,0000,0000,0000,,Σε κάποιο σημείο, θα φτιάξουμε μηχανές\Nπου θα είναι πιο έξυπνες από εμάς, Dialogue: 0,0:02:46.08,0:02:48.47,Default,,0000,0000,0000,,κι όταν θα έχουμε μηχανές\Nεξυπνότερες από εμάς, Dialogue: 0,0:02:48.47,0:02:50.50,Default,,0000,0000,0000,,θα αρχίσουν να βελτιώνονται μόνες τους. Dialogue: 0,0:02:50.72,0:02:52.42,Default,,0000,0000,0000,,Τότε διακινδυνεύουμε να έχουμε κάτι Dialogue: 0,0:02:52.42,0:02:55.26,Default,,0000,0000,0000,,που ο μαθηματικός Ι. Τζ. Γκουντ\Nαποκάλεσε «έκρηξη ευφυίας», Dialogue: 0,0:02:55.26,0:02:57.76,Default,,0000,0000,0000,,όπου η διαδικασία μπορεί\Nνα φύγει από τον έλεγχό μας. Dialogue: 0,0:02:58.14,0:03:00.96,Default,,0000,0000,0000,,Αυτό συχνά απεικονίζεται,\Nόπως σας δείχνω εδώ, Dialogue: 0,0:03:00.96,0:03:04.18,Default,,0000,0000,0000,,ως ένας φόβος ότι στρατιές\Nαπό κακόβουλα ρομπότ Dialogue: 0,0:03:04.18,0:03:05.43,Default,,0000,0000,0000,,θα μας επιτεθούν. Dialogue: 0,0:03:05.48,0:03:07.100,Default,,0000,0000,0000,,Αλλά αυτό δεν είναι το πιο πιθανό σενάριο. Dialogue: 0,0:03:08.20,0:03:12.95,Default,,0000,0000,0000,,Δεν είναι ότι οι μηχανές μας\Nθα γίνουν αυθόρμητα κακόβουλες. Dialogue: 0,0:03:13.09,0:03:15.71,Default,,0000,0000,0000,,Η πραγματική ανησυχία είναι\Nότι θα φτιάξουμε μηχανές Dialogue: 0,0:03:15.71,0:03:17.81,Default,,0000,0000,0000,,που θα είναι τόσο πιο ικανές από εμάς Dialogue: 0,0:03:17.81,0:03:21.58,Default,,0000,0000,0000,,που η ελάχιστη απόκλιση μεταξύ\Nτων δικών τους στόχων και των δικών μας Dialogue: 0,0:03:21.58,0:03:23.26,Default,,0000,0000,0000,,θα μπορούσε να μας καταστρέψει. Dialogue: 0,0:03:23.96,0:03:26.20,Default,,0000,0000,0000,,Σκεφτείτε τη σχέση μας με τα μυρμήγκια. Dialogue: 0,0:03:26.60,0:03:27.95,Default,,0000,0000,0000,,Δεν τα μισούμε. Dialogue: 0,0:03:28.28,0:03:30.18,Default,,0000,0000,0000,,Δεν τα βλάπτουμε εκουσίως. Dialogue: 0,0:03:30.18,0:03:32.71,Default,,0000,0000,0000,,Συχνά μάλιστα κάνουμε προσπάθεια\Nνα μην τα βλάψουμε. Dialogue: 0,0:03:32.71,0:03:34.84,Default,,0000,0000,0000,,Αποφεύγουμε να τα πατήσουμε\Nστο πεζοδρόμιο. Dialogue: 0,0:03:34.84,0:03:36.94,Default,,0000,0000,0000,,Αλλά όταν η παρουσία τους Dialogue: 0,0:03:36.94,0:03:39.43,Default,,0000,0000,0000,,αντιτίθεται σοβαρά με τους στόχους μας, Dialogue: 0,0:03:39.43,0:03:41.91,Default,,0000,0000,0000,,ας πούμε, όταν φτιάχνουμε\Nένα τέτοιο κτήριο, Dialogue: 0,0:03:41.91,0:03:44.19,Default,,0000,0000,0000,,τα εκμηδενίζουμε χωρίς δεύτερη σκέψη. Dialogue: 0,0:03:44.48,0:03:47.42,Default,,0000,0000,0000,,Η ανησυχία είναι ότι μια μέρα\Nθα φτιάξουμε μηχανές που, Dialogue: 0,0:03:47.42,0:03:50.15,Default,,0000,0000,0000,,είτε ενσυνείδητα ή όχι, Dialogue: 0,0:03:50.15,0:03:52.58,Default,,0000,0000,0000,,θα μας μεταχειριστούν\Nμε παρόμοια αδιαφορία. Dialogue: 0,0:03:53.76,0:03:56.52,Default,,0000,0000,0000,,Υποψιάζομαι ότι οι περισσότεροι\Nτο θεωρείτε παρατραβηγμένο. Dialogue: 0,0:03:57.36,0:04:02.19,Default,,0000,0000,0000,,Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν\Nαν η υπερευφυής τεχνητή νοημοσύνη Dialogue: 0,0:04:02.19,0:04:05.09,Default,,0000,0000,0000,,είναι εφικτή,\Nπολύ δε λιγότερο αναπόφευκτη. Dialogue: 0,0:04:05.40,0:04:08.86,Default,,0000,0000,0000,,Τότε όμως πρέπει να βρείτε κάποιο λάθος\Nστις ακόλουθες υποθέσεις. Dialogue: 0,0:04:09.04,0:04:10.62,Default,,0000,0000,0000,,Και είναι μόνο τρεις υποθέσεις. Dialogue: 0,0:04:11.80,0:04:16.64,Default,,0000,0000,0000,,Η ευφυΐα είναι θέμα επεξεργασίας\Nτης πληροφορίας σε υλικά συστήματα. Dialogue: 0,0:04:17.32,0:04:19.82,Default,,0000,0000,0000,,Βασικά, αυτό είναι\Nκάτι παραπάνω από μια υπόθεση. Dialogue: 0,0:04:19.82,0:04:23.41,Default,,0000,0000,0000,,Έχουμε ήδη ενσωματώσει\Nπεριορισμένη ευφυΐα στις μηχανές μας, Dialogue: 0,0:04:23.41,0:04:25.43,Default,,0000,0000,0000,,και πολλές από αυτές ήδη αποδίδουν Dialogue: 0,0:04:25.43,0:04:28.52,Default,,0000,0000,0000,,σε επίπεδο υπεράνθρωπης ευφυΐας. Dialogue: 0,0:04:28.84,0:04:31.42,Default,,0000,0000,0000,,Και ξέρουμε πως η απλή ύλη Dialogue: 0,0:04:31.42,0:04:34.03,Default,,0000,0000,0000,,μπορεί να δημιουργήσει\Nαυτό που λέγεται «γενική ευφυΐα», Dialogue: 0,0:04:34.03,0:04:37.69,Default,,0000,0000,0000,,μια ικανότητα να σκεφτούμε ευέλικτα\Nσε πολλαπλά επίπεδα, Dialogue: 0,0:04:37.69,0:04:40.60,Default,,0000,0000,0000,,επειδή τα μυαλά μας\Nτα έχουν καταφέρει, σωστά; Dialogue: 0,0:04:40.92,0:04:44.86,Default,,0000,0000,0000,,Εξάλλου μόνο άτομα υπάρχουν εκεί, Dialogue: 0,0:04:44.88,0:04:49.38,Default,,0000,0000,0000,,και όσο συνεχίζουμε να φτιάχνουμε\Nσυστήματα από άτομα Dialogue: 0,0:04:49.38,0:04:52.07,Default,,0000,0000,0000,,που επιδεικνύουν όλο και\Nπερισσότερο ευφυή συμπεριφορά, Dialogue: 0,0:04:52.07,0:04:54.61,Default,,0000,0000,0000,,αν δεν μας σταματήσει κάποιος, Dialogue: 0,0:04:54.61,0:04:57.98,Default,,0000,0000,0000,,τελικά θα βάλουμε τη γενική ευφυΐα Dialogue: 0,0:04:57.98,0:04:59.28,Default,,0000,0000,0000,,μέσα στις μηχανές μας. Dialogue: 0,0:04:59.40,0:05:03.01,Default,,0000,0000,0000,,Είναι σημαντικό να καταλάβουμε\Nότι δεν έχει σημασία ο ρυθμός της προόδου, Dialogue: 0,0:05:03.01,0:05:06.41,Default,,0000,0000,0000,,γιατί κάθε πρόοδος είναι αρκετή\Nγια να οδηγήσει σε αυτή την κατάληξη. Dialogue: 0,0:05:06.41,0:05:09.96,Default,,0000,0000,0000,,Δεν χρειάζεται ο Νόμος του Μουρ,\Nούτε κάποια εκθετική πρόοδος. Dialogue: 0,0:05:09.96,0:05:12.03,Default,,0000,0000,0000,,Χρειάζεται απλώς να συνεχίσουμε. Dialogue: 0,0:05:13.48,0:05:16.61,Default,,0000,0000,0000,,Η δεύτερη υπόθεση είναι\Nότι θα συνεχίσουμε. Dialogue: 0,0:05:17.00,0:05:20.13,Default,,0000,0000,0000,,Θα συνεχίσουμε να βελτιώνουμε\Nτις έξυπνες μηχανές μας. Dialogue: 0,0:05:21.00,0:05:25.38,Default,,0000,0000,0000,,Και σύμφωνα με την αξία της ευφυΐας - Dialogue: 0,0:05:25.38,0:05:28.91,Default,,0000,0000,0000,,εννοώ ότι είτε η ευφυΐα\Nείναι η πηγή για ό,τι θεωρούμε άξιο, Dialogue: 0,0:05:28.91,0:05:31.82,Default,,0000,0000,0000,,ή χρειάζεται να περιφρουρήσουμε\Nοτιδήποτε θεωρούμε άξιο. Dialogue: 0,0:05:31.82,0:05:34.02,Default,,0000,0000,0000,,Είναι ο πιο πολύτιμος πόρος που έχουμε. Dialogue: 0,0:05:34.02,0:05:35.55,Default,,0000,0000,0000,,Έτσι, θέλουμε να το κάνουμε. Dialogue: 0,0:05:35.55,0:05:38.89,Default,,0000,0000,0000,,Έχουμε προβλήματα και πρέπει\Nνα τα λύσουμε επειγόντως. Dialogue: 0,0:05:38.96,0:05:42.31,Default,,0000,0000,0000,,Θέλουμε να θεραπεύσουμε νόσους\Nόπως τον καρκίνο και την Αλτσχάιμερ, Dialogue: 0,0:05:42.96,0:05:46.84,Default,,0000,0000,0000,,να καταλάβουμε οικονομικά συστήματα,\Nνα βελτιώσουμε τη γνώση μας για το κλίμα. Dialogue: 0,0:05:46.92,0:05:49.18,Default,,0000,0000,0000,,Γι' αυτό θα το κάνουμε, αν μπορούμε. Dialogue: 0,0:05:49.18,0:05:52.68,Default,,0000,0000,0000,,Το τρένο έχει ήδη ξεκινήσει\Nκαι δεν έχει φρένο. Dialogue: 0,0:05:53.88,0:05:59.34,Default,,0000,0000,0000,,Τέλος, δεν έχουμε φτάσει\Nστην αποκορύφωση της ευφυΐας, Dialogue: 0,0:05:59.34,0:06:01.36,Default,,0000,0000,0000,,μάλλον ούτε που την πλησιάσαμε. Dialogue: 0,0:06:01.64,0:06:03.54,Default,,0000,0000,0000,,Και αυτή είναι η σημαντική διαπίστωση. Dialogue: 0,0:06:03.54,0:06:05.95,Default,,0000,0000,0000,,Αυτό κάνει τόσο επισφαλή\Nτην κατάστασή μας, Dialogue: 0,0:06:05.95,0:06:10.13,Default,,0000,0000,0000,,και τόσο αναξιόπιστα\Nτα προαίσθήματά μας σχετικά με το ρίσκο. Dialogue: 0,0:06:11.12,0:06:14.05,Default,,0000,0000,0000,,Απλώς σκεφτείτε το πιο έξυπνο\Nάτομο που έχει ποτέ ζήσει. Dialogue: 0,0:06:14.64,0:06:18.06,Default,,0000,0000,0000,,Κάποιον που όλοι σας θα έχετε κατά νου\Nείναι ο Τζον φον Νόιμαν. Dialogue: 0,0:06:18.08,0:06:21.42,Default,,0000,0000,0000,,Η εντύπωση που έκανε\Nστους τριγύρω του ο φον Νόιμαν, Dialogue: 0,0:06:21.42,0:06:25.47,Default,,0000,0000,0000,,συμπεριλαμβανομένων των πιο λαμπρών\Nμαθηματικών και φυσικών της εποχής του, Dialogue: 0,0:06:25.47,0:06:27.41,Default,,0000,0000,0000,,έχει καταγραφεί επαρκώς. Dialogue: 0,0:06:27.48,0:06:30.88,Default,,0000,0000,0000,,Και μόνο οι μισές ιστορίες\Nγι' αυτόν να αληθεύουν, Dialogue: 0,0:06:30.88,0:06:32.29,Default,,0000,0000,0000,,χωρίς αμφιβολία Dialogue: 0,0:06:32.29,0:06:34.95,Default,,0000,0000,0000,,είναι από τους πιο έξυπνους\Nανθρώπους που έχουν ζήσει. Dialogue: 0,0:06:35.01,0:06:37.69,Default,,0000,0000,0000,,Σκεφτείτε λοιπόν το φάσμα της ευφυΐας. Dialogue: 0,0:06:38.32,0:06:40.02,Default,,0000,0000,0000,,Εδώ είναι ο Τζον φον Νόιμαν. Dialogue: 0,0:06:41.56,0:06:43.40,Default,,0000,0000,0000,,Κι εδώ είμαστε εσείς κι εγώ. Dialogue: 0,0:06:44.12,0:06:45.58,Default,,0000,0000,0000,,Μετά είναι οι κότες. Dialogue: 0,0:06:45.58,0:06:47.35,Default,,0000,0000,0000,,(Γέλια) Dialogue: 0,0:06:47.35,0:06:48.67,Default,,0000,0000,0000,,Συγνώμη, μια κότα. Dialogue: 0,0:06:48.67,0:06:49.90,Default,,0000,0000,0000,,(Γέλια) Dialogue: 0,0:06:49.92,0:06:53.36,Default,,0000,0000,0000,,Δεν υπάρχει λόγος να κάνω την ομιλία\Nπιο θλιβερή απ' όσο χρειάζεται. Dialogue: 0,0:06:53.36,0:06:55.28,Default,,0000,0000,0000,,(Γέλια) Dialogue: 0,0:06:56.34,0:06:59.82,Default,,0000,0000,0000,,Ωστόσο, φαίνεται εκπληκτικά πιθανόν\Nότι το φάσμα της ευφυΐας Dialogue: 0,0:06:59.82,0:07:03.45,Default,,0000,0000,0000,,εκτείνεται πολύ πιο πέρα\Nαπό όσο τώρα αντιλαμβανόμαστε, Dialogue: 0,0:07:03.88,0:07:06.82,Default,,0000,0000,0000,,και αν φτιάξουμε μηχανές\Nπιο έξυπνες από εμάς, Dialogue: 0,0:07:07.12,0:07:09.42,Default,,0000,0000,0000,,είναι πολύ πιθανόν\Nνα εξερευνήσουν αυτό το φάσμα Dialogue: 0,0:07:09.42,0:07:11.59,Default,,0000,0000,0000,,με τρόπους που δεν μπορούμε να φανταστούμε Dialogue: 0,0:07:11.59,0:07:14.11,Default,,0000,0000,0000,,και να μας ξεπεράσουν σε αφάνταστο βαθμό. Dialogue: 0,0:07:15.00,0:07:19.27,Default,,0000,0000,0000,,Και είναι σημαντικό να αναγνωρίσουμε\Nότι αυτό αληθεύει και μόνο λόγω ταχύτητας. Dialogue: 0,0:07:19.36,0:07:24.12,Default,,0000,0000,0000,,Σωστά; Φανταστείτε να φτιάχναμε\Nμια υπερευφυή τεχνητή νοημοσύνη, Dialogue: 0,0:07:24.44,0:07:27.90,Default,,0000,0000,0000,,που δεν θα ήταν εξυπνότερη\Nαπό μια μέση ομάδα ερευνητών Dialogue: 0,0:07:27.90,0:07:29.98,Default,,0000,0000,0000,,των πανεπιστημίων Στάνφορντ ή ΜΙΤ. Dialogue: 0,0:07:30.24,0:07:32.07,Default,,0000,0000,0000,,Τα ηλεκτρονικά κυκλώματα λειτουργούν Dialogue: 0,0:07:32.07,0:07:34.54,Default,,0000,0000,0000,,ένα εκατομμύριο φορές ταχύτερα\Nαπό τα βιοχημικά, Dialogue: 0,0:07:34.54,0:07:37.66,Default,,0000,0000,0000,,έτσι αυτή η μηχανή θα σκεφτόταν\Nένα εκατομμύριο φορές πιο γρήγορα Dialogue: 0,0:07:37.66,0:07:39.47,Default,,0000,0000,0000,,από τους εγκεφάλους που την έφτιαξαν. Dialogue: 0,0:07:39.54,0:07:41.20,Default,,0000,0000,0000,,Με λειτουργία μίας εβδομάδας Dialogue: 0,0:07:41.20,0:07:46.07,Default,,0000,0000,0000,,θα παράξει έργο 20.000 ετών\Nσε επίπεδο ανθρώπινης διάνοιας, Dialogue: 0,0:07:46.40,0:07:48.82,Default,,0000,0000,0000,,και το ίδιο θα κάνει\Nκάθε επόμενη εβδομάδα. Dialogue: 0,0:07:49.64,0:07:52.82,Default,,0000,0000,0000,,Πώς μπορούμε να καταλάβουμε,\Nπολύ δε περισσότερο να περιορίσουμε, Dialogue: 0,0:07:52.82,0:07:55.51,Default,,0000,0000,0000,,έναν εγκέφαλο που κάνει τέτοια πρόοδο; Dialogue: 0,0:07:56.84,0:08:00.06,Default,,0000,0000,0000,,Για να πω την αλήθεια,\Nείναι επίσης ανησυχητικό Dialogue: 0,0:08:00.06,0:08:03.98,Default,,0000,0000,0000,,να φανταστούμε το καλύτερο δυνατό σενάριο. Dialogue: 0,0:08:04.00,0:08:07.80,Default,,0000,0000,0000,,Φανταστείτε να βρούμε ένα σχέδιο\Nυπερεφυούς τεχνητής νοημοσύνης Dialogue: 0,0:08:07.80,0:08:09.63,Default,,0000,0000,0000,,που δεν έχει θέματα ασφάλειας. Dialogue: 0,0:08:09.63,0:08:12.67,Default,,0000,0000,0000,,Θα έχουμε βρει το τέλειο σχέδιο\Nγια πρώτη φορά. Dialogue: 0,0:08:12.88,0:08:15.10,Default,,0000,0000,0000,,Θα είναι σαν να μας έχει δοθεί ένα μαντείο Dialogue: 0,0:08:15.10,0:08:17.11,Default,,0000,0000,0000,,που λειτουργεί ακριβώς όπως πρέπει. Dialogue: 0,0:08:17.11,0:08:21.12,Default,,0000,0000,0000,,Αυτή θα ήταν η τέλεια μηχανή\Nεξοικονόμησης έργου. Dialogue: 0,0:08:21.59,0:08:24.11,Default,,0000,0000,0000,,Θα σχεδιάσει τη μηχανή\Nπου θα κατασκευάσει τη μηχανή Dialogue: 0,0:08:24.11,0:08:26.06,Default,,0000,0000,0000,,που θα κάνει κάθε σωματική εργασία, Dialogue: 0,0:08:26.06,0:08:27.40,Default,,0000,0000,0000,,τροφοδοτούμενη από τον ήλιο, Dialogue: 0,0:08:27.40,0:08:29.92,Default,,0000,0000,0000,,με μόνο κόστος αυτό των πρώτων υλών. Dialogue: 0,0:08:30.12,0:08:32.96,Default,,0000,0000,0000,,Έτσι μιλάμε για το τέλος\Nτης ανθρώπινης αγγαρείας. Dialogue: 0,0:08:33.40,0:08:36.52,Default,,0000,0000,0000,,Επίσης μιλάμε για το τέλος\Nτης περισσότερης διανοητικής εργασίας. Dialogue: 0,0:08:37.20,0:08:40.16,Default,,0000,0000,0000,,Τι θα κάνουν οι πίθηκοι όπως εμείς\Nσε αυτή την περίπτωση; Dialogue: 0,0:08:40.28,0:08:44.81,Default,,0000,0000,0000,,Θα έχουμε χρόνο να παίζουμε φρίσμπι\Nκαι να κάνουμε μασάζ ο ένας στον άλλον. Dialogue: 0,0:08:45.84,0:08:48.77,Default,,0000,0000,0000,,Προσθέστε λίγο LSD και κάποιες\Nαμφίβολες επιλογές ένδυσης, Dialogue: 0,0:08:48.77,0:08:51.43,Default,,0000,0000,0000,,κι όλος ο κόσμος θα μοιάζει\Nμε φεστιβάλ Burning Man. Dialogue: 0,0:08:51.43,0:08:52.91,Default,,0000,0000,0000,,(Γέλια) Dialogue: 0,0:08:54.32,0:08:56.76,Default,,0000,0000,0000,,Μπορεί βέβαια να ακούγεται αρκετά καλό, Dialogue: 0,0:08:57.28,0:08:59.66,Default,,0000,0000,0000,,αλλά αναρωτηθείτε τι θα συνέβαινε Dialogue: 0,0:08:59.66,0:09:02.24,Default,,0000,0000,0000,,με την τωρινή οικονομική\Nκαι πολιτική κατάσταση; Dialogue: 0,0:09:02.44,0:09:04.86,Default,,0000,0000,0000,,Μοιάζει πιθανό ότι θα βιώσουμε Dialogue: 0,0:09:04.86,0:09:08.99,Default,,0000,0000,0000,,ένα επίπεδο ανισότητας\Nπλούτου και ανεργίας Dialogue: 0,0:09:08.99,0:09:10.58,Default,,0000,0000,0000,,που δεν έχουμε ξαναδεί. Dialogue: 0,0:09:10.58,0:09:13.28,Default,,0000,0000,0000,,Αν απουσιάσει η θέληση\Nνα βάλουμε άμεσα αυτόν τον πλούτο Dialogue: 0,0:09:13.28,0:09:15.35,Default,,0000,0000,0000,,στην υπηρεσία όλης της ανθρωπότητας, Dialogue: 0,0:09:15.35,0:09:19.26,Default,,0000,0000,0000,,ελάχιστοι πολυεκατομμυριούχοι θα κοσμούν\Nτα εξώφυλλα των οικονομικών περιοδικών, Dialogue: 0,0:09:19.26,0:09:21.100,Default,,0000,0000,0000,,ενώ ο υπόλοιπος κόσμος\Nθα είναι ελεύθερος να λιμοκτονήσει. Dialogue: 0,0:09:22.32,0:09:24.62,Default,,0000,0000,0000,,Και τι θα κάνουν οι Ρώσοι ή οι Κινέζοι Dialogue: 0,0:09:24.62,0:09:27.23,Default,,0000,0000,0000,,αν μάθουν ότι μια εταιρεία\Nστη Σίλικον Βάλεϊ Dialogue: 0,0:09:27.23,0:09:29.97,Default,,0000,0000,0000,,πρόκειται να κυκλοφορήσει\Nμια υπερευφυή τεχνητή νοημοσύνη; Dialogue: 0,0:09:30.06,0:09:32.92,Default,,0000,0000,0000,,Αυτή η μηχανή θα μπορούσε\Nνα κηρύξει πόλεμο, Dialogue: 0,0:09:32.92,0:09:35.26,Default,,0000,0000,0000,,είτε συμβατικό\Nείτε σε επίπεδο υπολογιστών, Dialogue: 0,0:09:35.26,0:09:37.35,Default,,0000,0000,0000,,με ισχύ άνευ προηγουμένου. Dialogue: 0,0:09:38.12,0:09:40.16,Default,,0000,0000,0000,,Είναι ένα σενάριο όπου κερδίζει μόνο ένας. Dialogue: 0,0:09:40.16,0:09:43.14,Default,,0000,0000,0000,,Όταν προηγείσαι εδώ\Nέξι μήνες από τον ανταγωνισμό, Dialogue: 0,0:09:43.16,0:09:45.94,Default,,0000,0000,0000,,είναι σαν να είσαι 500.000 χρόνια μπροστά Dialogue: 0,0:09:45.94,0:09:47.15,Default,,0000,0000,0000,,κατά το ελάχιστο. Dialogue: 0,0:09:47.48,0:09:52.22,Default,,0000,0000,0000,,Άρα φαίνεται ότι ακόμη και απλές φήμες\Nγια κάτι τόσο επαναστατικό Dialogue: 0,0:09:52.22,0:09:54.40,Default,,0000,0000,0000,,θα έκανε το είδος μας να τρελαθεί. Dialogue: 0,0:09:54.64,0:09:57.54,Default,,0000,0000,0000,,Ένα από τα πιο τρομακτικά πράγματα, Dialogue: 0,0:09:57.54,0:10:00.09,Default,,0000,0000,0000,,κατά την άποψή μου, αυτή τη στιγμή, Dialogue: 0,0:10:00.36,0:10:04.40,Default,,0000,0000,0000,,είναι αυτά που λένε οι ερευνητές\Nτης τεχνητής νοημοσύνης Dialogue: 0,0:10:04.68,0:10:06.61,Default,,0000,0000,0000,,όταν θέλουν να μας καθησυχάσουν. Dialogue: 0,0:10:06.84,0:10:10.49,Default,,0000,0000,0000,,Κι ο πιο κοινός λόγος που προβάλλουν\Nγια να μην ανησυχούμε είναι ο χρόνος. Dialogue: 0,0:10:10.49,0:10:12.73,Default,,0000,0000,0000,,Αυτό είναι πολύ μακριά, δεν το βλέπετε; Dialogue: 0,0:10:12.73,0:10:15.28,Default,,0000,0000,0000,,Είναι περίπου 50 ή 100 χρόνια μετά. Dialogue: 0,0:10:15.64,0:10:16.88,Default,,0000,0000,0000,,Ένας ερευνητής έχει πει, Dialogue: 0,0:10:16.88,0:10:19.15,Default,,0000,0000,0000,,«Ανησυχώντας για ασφάλεια\Nστην τεχνητή νοημοσύνη Dialogue: 0,0:10:19.15,0:10:21.69,Default,,0000,0000,0000,,είναι σαν να ανησυχούμε\Nγια υπερπληθυσμό στον Άρη». Dialogue: 0,0:10:22.12,0:10:23.93,Default,,0000,0000,0000,,Αυτό είναι η έκδοση της Σίλικον Βάλεϊ Dialogue: 0,0:10:23.93,0:10:26.19,Default,,0000,0000,0000,,του «μην ζαλίζεις το όμορφο κεφαλάκι σου». Dialogue: 0,0:10:26.19,0:10:27.49,Default,,0000,0000,0000,,(Γέλια) Dialogue: 0,0:10:27.49,0:10:29.42,Default,,0000,0000,0000,,Κανείς δεν φαίνεται να βλέπει Dialogue: 0,0:10:29.42,0:10:32.27,Default,,0000,0000,0000,,ότι η αναφορά στον χρονικό ορίζοντα Dialogue: 0,0:10:32.27,0:10:34.40,Default,,0000,0000,0000,,είναι τελείως ανακόλουθη. Dialogue: 0,0:10:34.59,0:10:37.80,Default,,0000,0000,0000,,Αν η ευφυΐα είναι απλώς θέμα\Nεπεξεργασίας της πληροφορίας, Dialogue: 0,0:10:37.96,0:10:40.28,Default,,0000,0000,0000,,και συνεχίζουμε\Nνα βελτιώνουμε τις μηχανές μας, Dialogue: 0,0:10:40.64,0:10:43.77,Default,,0000,0000,0000,,σίγουρα θα δημιουργήσουμε\Nκάποια μορφή υπερευφυΐας. Dialogue: 0,0:10:44.32,0:10:47.98,Default,,0000,0000,0000,,Και δεν ξέρουμε πόσο χρόνο θα μας πάρει Dialogue: 0,0:10:47.98,0:10:51.15,Default,,0000,0000,0000,,να δημιουργήσουμε τις συνθήκες\Nώστε να το κάνουμε με ασφάλεια. Dialogue: 0,0:10:52.20,0:10:53.37,Default,,0000,0000,0000,,Να το πω πάλι. Dialogue: 0,0:10:53.52,0:10:57.34,Default,,0000,0000,0000,,Δεν έχουμε ιδέα πόσο χρόνο θα μας πάρει Dialogue: 0,0:10:57.34,0:11:00.33,Default,,0000,0000,0000,,να δημιουργήσουμε τις συνθήκες\Nώστε να το κάνουμε με ασφάλεια. Dialogue: 0,0:11:00.92,0:11:04.38,Default,,0000,0000,0000,,Κι αν δεν το έχετε προσέξει,\Nτα 50 χρόνια δεν είναι αυτό που ήταν. Dialogue: 0,0:11:04.38,0:11:06.56,Default,,0000,0000,0000,,Αυτό είναι 50 χρόνια σε μήνες. Dialogue: 0,0:11:06.88,0:11:08.72,Default,,0000,0000,0000,,Τόσον καιρό έχουμε το iPhone. Dialogue: 0,0:11:09.44,0:11:12.04,Default,,0000,0000,0000,,Τόσον καιρό παίζονται \Nοι Σίμπσονς στην τηλεόραση. Dialogue: 0,0:11:12.68,0:11:15.06,Default,,0000,0000,0000,,Τα 50 χρόνια δεν είναι τόσο πολλά Dialogue: 0,0:11:15.06,0:11:18.77,Default,,0000,0000,0000,,για μια από τις μεγαλύτερες προκλήσεις\Nπου θα αντιμετωπίσει το είδος μας. Dialogue: 0,0:11:19.64,0:11:23.66,Default,,0000,0000,0000,,Και πάλι - αδυνατούμε να επιδείξουμε\Nκατάλληλη συναισθηματική απόκριση Dialogue: 0,0:11:23.66,0:11:26.35,Default,,0000,0000,0000,,σε κάτι που έχουμε κάθε λόγο\Nνα πιστεύουμε ότι θα έρθει. Dialogue: 0,0:11:26.40,0:11:30.38,Default,,0000,0000,0000,,Ο επιστήμων υπολογιστών Στιούαρτ Ράσελ\Nέχει μια ωραία αναλογία γι' αυτό. Dialogue: 0,0:11:30.38,0:11:35.11,Default,,0000,0000,0000,,Είπε, φανταστείτε ότι λάβαμε μήνυμα\Nαπό εξωγήινο πολιτισμό, Dialogue: 0,0:11:35.32,0:11:36.35,Default,,0000,0000,0000,,που έλεγε: Dialogue: 0,0:11:37.04,0:11:38.37,Default,,0000,0000,0000,,«Άνθρωποι της Γης, Dialogue: 0,0:11:38.60,0:11:41.24,Default,,0000,0000,0000,,θα φτάσουμε στον πλανήτη σας σε 50 χρόνια. Dialogue: 0,0:11:41.80,0:11:43.01,Default,,0000,0000,0000,,Ετοιμαστείτε». Dialogue: 0,0:11:43.40,0:11:47.44,Default,,0000,0000,0000,,Και τώρα απλώς μετράμε αντίστροφα\Nτον χρόνο μέχρι να έρθει το διαστημόπλοιο. Dialogue: 0,0:11:47.68,0:11:51.35,Default,,0000,0000,0000,,Θα το νιώθαμε ως κάτι λίγο\Nπιο επιτακτικό από ό,τι τώρα. Dialogue: 0,0:11:52.37,0:11:54.43,Default,,0000,0000,0000,,Μας λένε επίσης να μην ανησυχούμε, Dialogue: 0,0:11:54.43,0:11:57.62,Default,,0000,0000,0000,,γιατί οι μηχανές δεν μπορούν\Nπαρά να έχουν τις δικές μας αξίες, Dialogue: 0,0:11:57.62,0:12:00.22,Default,,0000,0000,0000,,καθώς κυριολεκτικά\Nείναι προέκταση των εαυτών μας. Dialogue: 0,0:12:00.22,0:12:02.03,Default,,0000,0000,0000,,Θα συνδεθούν στον εγκέφαλό μας Dialogue: 0,0:12:02.03,0:12:04.75,Default,,0000,0000,0000,,και βασικά θα γίνουμε\Nτο μεταιχμιακό τους σύστημα. Dialogue: 0,0:12:05.12,0:12:06.54,Default,,0000,0000,0000,,Σκεφτείτε για ένα λεπτό Dialogue: 0,0:12:06.54,0:12:09.71,Default,,0000,0000,0000,,ότι ο ασφαλέστερος και ο μόνος\Nσυνετός δρόμος προς τα εμπρός Dialogue: 0,0:12:09.71,0:12:10.97,Default,,0000,0000,0000,,που προτείνεται, Dialogue: 0,0:12:10.97,0:12:14.33,Default,,0000,0000,0000,,είναι να εμφυτεύσουμε αυτή την τεχνολογία\Nαπευθείας στον εγκέφαλό μας. Dialogue: 0,0:12:14.60,0:12:17.98,Default,,0000,0000,0000,,Βέβαια, μπορεί να είναι ο ασφαλέστερος\Nκαι ο μόνος συνετός δρόμος, Dialogue: 0,0:12:17.98,0:12:21.03,Default,,0000,0000,0000,,αλλά συνήθως οι ανησυχίες\Nγια την ασφάλεια μιας τεχνολογίας Dialogue: 0,0:12:21.03,0:12:24.69,Default,,0000,0000,0000,,πρέπει να έχουν επιλυθεί\Nπριν την εμφυτεύσουμε στο κεφάλι μας. Dialogue: 0,0:12:24.69,0:12:26.70,Default,,0000,0000,0000,,(Γέλια) Dialogue: 0,0:12:26.80,0:12:30.19,Default,,0000,0000,0000,,Το βαθύτερο πρόβλημα είναι\Nότι φαίνεται ευκολότερο Dialogue: 0,0:12:30.19,0:12:33.60,Default,,0000,0000,0000,,να φτάξεις ένα μεμονωμένο\Nσύστημα τεχνητής νοημοσύνης, Dialogue: 0,0:12:33.60,0:12:35.78,Default,,0000,0000,0000,,από το να φτιάξεις ένα σύστημα Dialogue: 0,0:12:35.78,0:12:37.55,Default,,0000,0000,0000,,και να έχεις και επαρκή νευροεπιστήμη Dialogue: 0,0:12:37.55,0:12:40.47,Default,,0000,0000,0000,,που να επιτρέπει την εύκολη\Nενσωμάτωσή του στον εγκέφαλό μας. Dialogue: 0,0:12:40.80,0:12:43.98,Default,,0000,0000,0000,,Και δεδομένου ότι οι κυβερνήσεις\Nκαι εταιρείες που θα το κάνουν Dialogue: 0,0:12:43.98,0:12:47.63,Default,,0000,0000,0000,,είναι πιθανόν θα θεωρούν\Nότι ανταγωνίζονται όλους τους άλλους, Dialogue: 0,0:12:47.63,0:12:50.67,Default,,0000,0000,0000,,εφόσον όποιος το κάνει πρώτος\Nθα κυριαρχήσει στον κόσμο, Dialogue: 0,0:12:50.67,0:12:53.45,Default,,0000,0000,0000,,με την προϋπόθεση\Nότι δεν θα τον καταστρέψει αμέσως μετά, Dialogue: 0,0:12:53.45,0:12:54.59,Default,,0000,0000,0000,,τότε μοιάζει πιθανό Dialogue: 0,0:12:54.59,0:12:57.78,Default,,0000,0000,0000,,ότι θα γίνει πρώτο\Nοτιδήποτε γίνεται πιο εύκολα. Dialogue: 0,0:12:58.56,0:13:01.19,Default,,0000,0000,0000,,Δυστυχώς δεν έχω κάποια λύση\Nγι' αυτό το πρόβλημα, Dialogue: 0,0:13:01.19,0:13:04.05,Default,,0000,0000,0000,,εκτός από το να συστήσω\Nνα το ξανασκεφτούμε οι περισσότεροι. Dialogue: 0,0:13:04.05,0:13:06.63,Default,,0000,0000,0000,,Νομίζω ότι χρειαζόμαστε\Nκάτι σαν το Πρόγραμμα Μανχάταν Dialogue: 0,0:13:06.63,0:13:08.66,Default,,0000,0000,0000,,προσαρμοσμένο για την τεχνητή νοημοσύνη. Dialogue: 0,0:13:08.66,0:13:11.39,Default,,0000,0000,0000,,Όχι για να την φτιάξουμε,\Nγιατί μάλλον είναι αναπόφευκτο, Dialogue: 0,0:13:11.39,0:13:14.62,Default,,0000,0000,0000,,αλλά να καταλάβουμε πώς να αποφύγουμε\Nέναν αγώνα εξοπλισμών Dialogue: 0,0:13:14.62,0:13:17.99,Default,,0000,0000,0000,,και να την φτιάξουμε έτσι που\Nνα συμβαδίζει με τα συμφέροντά μας. Dialogue: 0,0:13:18.16,0:13:20.30,Default,,0000,0000,0000,,Όταν μιλάτε\Nγια υπερευφυή τεχνητή νοημοσύνη Dialogue: 0,0:13:20.30,0:13:22.55,Default,,0000,0000,0000,,που μπορεί να τροποποιήσει τον εαυτό της, Dialogue: 0,0:13:22.60,0:13:27.22,Default,,0000,0000,0000,,φαίνεται ότι έχουμε μόνο μία πιθανότητα\Nνα ορίσουμε τις σωστές προϋποθέσεις, Dialogue: 0,0:13:27.22,0:13:29.50,Default,,0000,0000,0000,,και ακόμη και τότε\Nθα χρειαστεί να απορροφήσουμε Dialogue: 0,0:13:29.50,0:13:32.75,Default,,0000,0000,0000,,τις οικονομικές και πολιτικές συνέπειες\Nτης σωστής εφαρμογής. Dialogue: 0,0:13:33.76,0:13:35.82,Default,,0000,0000,0000,,Αλλά μόλις παραδεχθούμε Dialogue: 0,0:13:35.82,0:13:40.25,Default,,0000,0000,0000,,ότι η επεξεργασία πληροφοριών\Nείναι η πηγή της ευφυΐας, Dialogue: 0,0:13:40.72,0:13:45.69,Default,,0000,0000,0000,,ότι η βάση της ευφυΐας είναι\Nκάποιο κατάλληλο υπολογιστικό σύστημα, Dialogue: 0,0:13:46.36,0:13:50.68,Default,,0000,0000,0000,,και αποδεχθούμε να βελτιώνουμε\Nαυτά τα συστήματα συνεχώς, Dialogue: 0,0:13:51.28,0:13:55.74,Default,,0000,0000,0000,,και παραδεχθούμε ότι ο γνωστικός ορίζοντας\Nμάλλον ξεπερνά κατά πολύ Dialogue: 0,0:13:55.74,0:13:57.52,Default,,0000,0000,0000,,όσα ήδη γνωρίζουμε, Dialogue: 0,0:13:58.12,0:13:59.42,Default,,0000,0000,0000,,τότε πρέπει να παραδεχθούμε Dialogue: 0,0:13:59.42,0:14:02.54,Default,,0000,0000,0000,,ότι βρισκόμαστε σε διαδικασία κατασκευής\Nκάποιου είδους θεού. Dialogue: 0,0:14:03.40,0:14:04.75,Default,,0000,0000,0000,,Τώρα είναι η σωστή ώρα Dialogue: 0,0:14:04.75,0:14:08.13,Default,,0000,0000,0000,,να εξασφαλίσουμε ότι είναι ένας θεός\Nμε τον οποίον μπορούμε να ζήσουμε. Dialogue: 0,0:14:08.13,0:14:09.36,Default,,0000,0000,0000,,Σας ευχαριστώ πολύ. Dialogue: 0,0:14:09.36,0:14:10.91,Default,,0000,0000,0000,,(Χειροκρότημα)