1 00:00:00,816 --> 00:00:04,403 Τα συναισθήματά μας επηρεάζουν κάθε πτυχή της ζωής μας, 2 00:00:04,403 --> 00:00:06,629 από την υγεία μας και τον τρόπο που μαθαίνουμε, 3 00:00:06,629 --> 00:00:09,922 έως το πώς εργαζόμαστε και παίρνουμε αποφάσεις, μικρές και μεγάλες. 4 00:00:10,672 --> 00:00:14,382 Τα συναισθήματά μας επίσης επηρεάζουν το πώς συνδεόμαστε μεταξύ μας. 5 00:00:15,132 --> 00:00:19,108 Έχουμε εξελιχθεί να ζούμε σε έναν κόσμο σαν αυτόν, 6 00:00:19,108 --> 00:00:23,557 αντ' αυτού όμως, ζούμε όλο και περισσότερο κάπως έτσι 7 00:00:23,557 --> 00:00:26,561 - αυτό είναι μήνυμα από την κόρη μου χθες βράδυ - 8 00:00:27,041 --> 00:00:29,301 σε έναν κόσμο στερημένο από συναίσθημα. 9 00:00:29,301 --> 00:00:31,432 Η αποστολή μου είναι να το αλλάξω αυτό. 10 00:00:31,432 --> 00:00:35,383 Θέλω να επαναφέρω το συναίσθημα στις ψηφιακές μας εμπειρίες. 11 00:00:36,523 --> 00:00:39,140 Πήρα αυτόν τον δρόμο πριν από 15 χρόνια. 12 00:00:39,140 --> 00:00:41,816 Ήμουν επιστήμων υπολογιστών στην Αίγυπτο, 13 00:00:41,816 --> 00:00:45,871 και μόλις είχα περάσει σε μεταπτυχιακό πρόγραμμα του Πανεπιστημίου του Κέμπριτζ. 14 00:00:45,871 --> 00:00:48,034 Έτσι έκανα κάτι αρκετά ασυνήθιστο 15 00:00:48,034 --> 00:00:52,209 για μια νεαρή νιόπαντρη μουσουλμάνα σύζυγο από την Αίγυπτο: 16 00:00:53,599 --> 00:00:56,698 Με τη στήριξη του συζύγου μου, που έπρεπε να μείνει στην Αίγυπτο, 17 00:00:56,698 --> 00:00:59,706 έφτιαξα τα πράγματά μου και μετακόμισα στην Αγγλία. 18 00:00:59,706 --> 00:01:02,844 Στο Κέμπριτζ, χιλιάδες μίλια μακριά από το σπίτι μου 19 00:01:02,844 --> 00:01:06,257 κατάλαβα ότι περνούσα περισσότερη ώρα με τον φορητό μου υπολογιστή 20 00:01:06,257 --> 00:01:08,486 παρά με οποιονδήποτε άλλον άνθρωπο. 21 00:01:08,726 --> 00:01:13,519 Παρόλη όμως αυτή την οικειότητα, ο φορητός μου δεν είχε ιδέα πώς ένιωθα. 22 00:01:13,519 --> 00:01:16,550 Αγνοούσε εάν ήμουν χαρούμενη, 23 00:01:16,550 --> 00:01:19,778 αν ήταν μια μέρα δύσκολη, με άγχος ή επιπλοκές, 24 00:01:19,778 --> 00:01:21,900 και αυτό με απογοήτευσε. 25 00:01:23,600 --> 00:01:28,401 Ακόμα χειρότερα, όταν επικοινωνούσα διαδικτυακά με την οικογένεια στο σπίτι, 26 00:01:29,421 --> 00:01:32,823 ένιωθα ότι όλα μου τα συναισθήματα εξαφανίζονταν στον κυβερνοχώρο. 27 00:01:32,823 --> 00:01:37,858 Μου έλειπε το σπίτι μου, ένιωθα μοναξιά, και κάποιες μέρες πραγματικά έκλαιγα, 28 00:01:37,858 --> 00:01:42,786 αλλά είχα μόνο αυτό για να μεταδώσω αυτά τα συναισθήματα. 29 00:01:42,786 --> 00:01:44,806 (Γέλια) 30 00:01:44,806 --> 00:01:49,140 Η σημερινή τεχνολογία έχει πολλή ευφυΐα αλλά καθόλου συναίσθημα, 31 00:01:49,140 --> 00:01:52,956 πάρα πολύ γνωστική ευφυΐα αλλά καθόλου συναισθηματική ευφυΐα. 32 00:01:53,236 --> 00:01:55,153 Αυτό με έβαλε να σκεφτώ 33 00:01:55,153 --> 00:01:59,157 τι θα γινόταν εάν η τεχνολογία μας μπορούσε να νιώσει τα συναισθήματά μας; 34 00:01:59,157 --> 00:02:03,013 Τι θα γινόταν εάν οι συσκευές ένιωθαν πώς αισθανόμαστε και αποκρίνονταν ανάλογα, 35 00:02:03,013 --> 00:02:05,986 ακριβώς όπως θα αντιδρούσε ένας φίλος με συναισθήματα; 36 00:02:06,666 --> 00:02:10,230 Αυτά τα ερωτήματα οδήγησαν εμένα και την ομάδα μου 37 00:02:10,230 --> 00:02:14,607 στη δημιουργία τεχνολογιών που διαβάζουν και αντιδρούν στα συναισθήματά μας, 38 00:02:14,607 --> 00:02:17,697 και το σημείο αφετηρίας μας ήταν το ανθρώπινο πρόσωπο. 39 00:02:18,577 --> 00:02:21,750 Το πρόσωπό μας τυγχάνει να είναι ένα από τα πιο ισχυρά κανάλια 40 00:02:21,750 --> 00:02:25,766 μέσω των οποίων εκφράζουμε κοινωνικές και συναισθηματικές μας καταστάσεις, 41 00:02:25,766 --> 00:02:31,976 τα πάντα, από διασκέδαση, έκπληξη, ενσυναίσθηση και περιέργεια. 42 00:02:32,979 --> 00:02:34,687 Στην επιστήμη των συναισθημάτων, 43 00:02:34,687 --> 00:02:37,907 κάθε κίνηση των μυών του προσώπου την αποκαλούμε μονάδα δράσης. 44 00:02:37,907 --> 00:02:40,632 Έτσι για παράδειγμα η μονάδα δράσης 12, 45 00:02:40,632 --> 00:02:42,490 δεν είναι μια επιτυχία του Χόλιγουντ, 46 00:02:42,490 --> 00:02:44,310 είναι σήκωμα της άκρης του χείλους, 47 00:02:44,310 --> 00:02:46,312 που είναι βασικό συστατικό του χαμόγελου. 48 00:02:46,312 --> 00:02:48,910 Δοκιμάστε το όλοι. Ας ρίξουμε μερικά χαμόγελα. 49 00:02:48,910 --> 00:02:51,954 Άλλο παράδειγμα είναι η μονάδα δράσης 4. Είναι η συνοφρύωση. 50 00:02:51,954 --> 00:02:55,739 Είναι όταν σμίγουν τα φρύδια και δημιουργούνται ρυτίδες και υφές. 51 00:02:55,739 --> 00:02:59,984 Δεν μας αρέσουν αλλά είναι έντονη ένδειξη αρνητικού συναισθήματος. 52 00:02:59,984 --> 00:03:02,610 Έτσι έχουμε περίπου 45 τέτοιες μονάδες δράσης, 53 00:03:02,610 --> 00:03:06,350 και οι συνδυασμοί τους εκφράζουν εκατοντάδες συναισθήματα. 54 00:03:06,350 --> 00:03:10,251 Το να μάθεις έναν υπολογιστή να διαβάζει τις εκφράσεις του προσώπου είναι δύσκολο, 55 00:03:10,251 --> 00:03:12,973 επειδή οι μονάδες δράσεις μπορεί να εναλλάσσονται γρήγορα, 56 00:03:12,973 --> 00:03:15,777 να είναι αδιόρατες, και να συνδυάζονται με πολλούς τρόπους. 57 00:03:15,777 --> 00:03:19,515 Πάρτε για παράδειγμα το χαμόγελο και το υπεροπτικό χαμόγελο. 58 00:03:19,515 --> 00:03:23,268 Μοιάζουν μεταξύ τους αλλά σημαίνουν διαφορετικά πράγματα. 59 00:03:23,268 --> 00:03:24,986 (Γέλια) 60 00:03:24,986 --> 00:03:26,940 Έτσι το χαμόγελο είναι θετικό, 61 00:03:26,940 --> 00:03:29,260 ενώ το προσποιητό χαμόγελο είναι συχνά αρνητικό. 62 00:03:29,260 --> 00:03:33,136 Καμιά φορά το προσποιητό χαμόγελο μπορεί να σε κάνει διάσημο. 63 00:03:33,136 --> 00:03:35,080 Αλλά είναι πολύ σημαντικό 64 00:03:35,080 --> 00:03:38,485 να μπορεί ο υπολογιστής να δει τη διαφορά των δυο εκφράσεων. 65 00:03:38,485 --> 00:03:40,447 Πώς το καταφέρνουμε λοιπόν αυτό; 66 00:03:40,447 --> 00:03:42,204 Δίνουμε στους αλγορίθμους μας 67 00:03:42,204 --> 00:03:46,524 δεκάδες χιλιάδες παραδείγματα ανθρώπων που ξέρουμε ότι χαμογελούν, 68 00:03:46,524 --> 00:03:49,589 από διάφορες εθνότητες, ηλικίες, γένη, 69 00:03:49,589 --> 00:03:52,030 και κάνουμε το ίδιο και για το υπεροπτικό χαμόγελο. 70 00:03:52,030 --> 00:03:53,994 Και μετά χρησιμοποιώντας τη βαθιά μάθηση 71 00:03:53,994 --> 00:03:57,200 ο αλγόριθμος ψάχνει για όλες αυτές τις υφές και τις ρυτίδες 72 00:03:57,200 --> 00:03:59,310 και τις αλλαγές σχήματος του προσώπου μας, 73 00:03:59,310 --> 00:04:02,642 και βασικά μαθαίνει ότι όλα τα χαμόγελα έχουν κοινά χαρακτηριστικά, 74 00:04:02,642 --> 00:04:05,863 ενώ τα υπεροπτικά χαμόγελα έχουν ελαφρώς διαφορετικά χαρακτηριστικά. 75 00:04:05,863 --> 00:04:08,141 Την επόμενη φορά που θα δει ένα νέο πρόσωπο 76 00:04:08,141 --> 00:04:11,390 ουσιαστικά μαθαίνει ότι αυτό το πρόσωπο 77 00:04:11,390 --> 00:04:13,473 έχει τα χαρακτηριστικά του χαμόγελου 78 00:04:13,473 --> 00:04:17,151 και λέει, «Ναι, το αναγνωρίζω. Είναι έκφραση χαμόγελου». 79 00:04:18,201 --> 00:04:21,541 Έτσι ο καλύτερος τρόπος για να δείξουμε πως λειτουργεί η τεχνολογία 80 00:04:21,541 --> 00:04:23,317 είναι μια ζωντανή παρουσίαση, 81 00:04:23,317 --> 00:04:27,230 γι' αυτό ζητάω έναν εθελοντή, κατά προτίμηση κάποιον με πρόσωπο. 82 00:04:27,230 --> 00:04:28,714 (Γέλια) 83 00:04:29,774 --> 00:04:32,095 Η Κλόη θα είναι η εθελόντριά μας σήμερα. 84 00:04:33,325 --> 00:04:37,783 Τα τελευταία πέντε χρόνια, από ερευνητικό πρόγραμμα του ΜΙΤ 85 00:04:37,783 --> 00:04:38,939 γίναμε εταιρεία, 86 00:04:38,939 --> 00:04:42,351 όπου η ομάδα μου έχει μοχθήσει για να λειτουργήσει αυτή η τεχνολογία, 87 00:04:42,351 --> 00:04:44,360 όπως αρεσκόμαστε να λέμε ακόμα. 88 00:04:44,360 --> 00:04:47,360 Την έχουμε συρρικνώσει ώστε η κεντρική μηχανή συναισθημάτων 89 00:04:47,360 --> 00:04:50,760 να λειτουργεί σε κάθε φορητή συσκευή με κάμερα, όπως αυτό το iPad. 90 00:04:50,770 --> 00:04:52,806 Ας την δοκιμάσουμε λοιπόν. 91 00:04:54,756 --> 00:04:58,680 Βλέπετε ότι ο αλγόριθμος βασικά έχει εντοπίσει το πρόσωπο της Κλόη, 92 00:04:58,680 --> 00:05:00,372 είναι αυτό το λευκό περίγραμμα, 93 00:05:00,372 --> 00:05:02,943 και παρακολουθεί τα κεντρικά σημεία του προσώπου της, 94 00:05:02,943 --> 00:05:05,799 ήτοι, τα φρύδια, τα μάτια και τη μύτη της. 95 00:05:05,799 --> 00:05:08,786 Το ερώτημα είναι, μπορεί να αναγνωρίσει την έκφρασή της; 96 00:05:08,786 --> 00:05:10,287 Άρα θα τεστάρουμε το μηχάνημα. 97 00:05:10,287 --> 00:05:13,173 Αρχικά, δείξε μου ένα ανέκφραστο πρόσωπο. Ναι, υπέροχα. 98 00:05:13,173 --> 00:05:14,643 (Γέλια) 99 00:05:14,873 --> 00:05:17,456 Κατόπιν καθώς χαμογελάει, είναι γνήσιο χαμόγελο, υπέροχο. 100 00:05:17,456 --> 00:05:19,616 Η πράσινη μπάρα μεγαλώνει καθώς χαμογελάει. 101 00:05:19,616 --> 00:05:21,068 Αυτό ήταν ένα μεγάλο χαμόγελο. 102 00:05:21,068 --> 00:05:23,731 Κι ένα υπεροπτικό χαμόγελο θα το καταλάβει ο υπολογιστής; 103 00:05:23,731 --> 00:05:27,577 Αναγνωρίζει και τα διακριτικά χαμόγελα. Εργαστήκαμε σκληρά για να το καταφέρουμε. 104 00:05:27,717 --> 00:05:31,449 Μετά σηκωμένα φρύδια ως ένδειξη έκπληξης. 105 00:05:31,559 --> 00:05:34,898 Συνοφρύωση ως ένδειξη απογοήτευσης. 106 00:05:35,938 --> 00:05:39,595 Κατσούφιασε. Ναι, τέλεια. 107 00:05:39,595 --> 00:05:41,768 Όλες αυτές είναι διαφορετικές μονάδες δράσης. 108 00:05:41,768 --> 00:05:45,180 Υπάρχουν πολύ περισσότερες. Αυτή είναι μια σύντομη παρουσίαση. 109 00:05:45,180 --> 00:05:48,368 Αλλά κάθε καταγραφή την αποκαλούμε σημείο συναισθηματικών δεδομένων, 110 00:05:48,368 --> 00:05:51,587 και μετά μπορούν να δράσουν μαζί για να δώσουν διάφορα συναισθήματα. 111 00:05:51,587 --> 00:05:55,350 Έτσι στη δεξιά πλευρά της δοκιμής - δείξε ότι είσαι χαρούμενη. 112 00:05:55,350 --> 00:05:57,444 Αυτό λοιπόν είναι χαρά. Η χαρά φωτίζεται. 113 00:05:57,444 --> 00:05:59,371 Και μετά δώσε μου μια έκφραση αηδίας. 114 00:05:59,371 --> 00:06:03,413 Θυμήσου πώς ήταν όταν ο Ζέιν έφυγε από τους Ουάν Νταϊρέξιον. 115 00:06:03,413 --> 00:06:04,593 (Γέλια) 116 00:06:04,593 --> 00:06:07,935 Ναι, ξύνισε τη μύτη σου. Φοβερό. 117 00:06:09,495 --> 00:06:13,036 Το σθένος είναι αρκετά αρνητικό, άρα πρέπει να ήσουν μεγάλη θαυμάστρια. 118 00:06:13,036 --> 00:06:15,926 Το σθένος δηλώνει πόσο θετική ή αρνητική είναι μια εμπειρία, 119 00:06:15,926 --> 00:06:18,572 και η εμπλοκή δηλώνει πόσο εκφραστική είναι επίσης. 120 00:06:18,572 --> 00:06:22,536 Φανταστείτε αν η Κλόη είχε πρόσβαση σ'αυτή τη ροή συναισθήματος σε πραγματικό χρόνο, 121 00:06:22,536 --> 00:06:25,055 και μπορούσε να τη μοιραστεί με όποιον ήθελε. 122 00:06:25,055 --> 00:06:26,528 Ευχαριστώ. 123 00:06:26,528 --> 00:06:28,189 (Χειροκρότημα) 124 00:06:33,749 --> 00:06:38,729 Έως τώρα έχουμε συγκεντρώσει 12 δις τέτοια σημεία συναισθηματικών δεδομένων. 125 00:06:38,729 --> 00:06:41,640 Είναι η μεγαλύτερη βάση δεδομένων από συναισθήματα στον κόσμο. 126 00:06:41,640 --> 00:06:44,803 Τα συλλέξαμε από 2,9 εκατομμύρια βίντεο από πρόσωπα ανθρώπων 127 00:06:44,803 --> 00:06:47,673 που συμφώνησαν να μοιραστούν τα συναισθήματά τους μαζί μας, 128 00:06:47,673 --> 00:06:50,398 και από 75 χώρες σε όλο τον κόσμο. 129 00:06:50,398 --> 00:06:52,113 Αυξάνεται κάθε μέρα. 130 00:06:52,603 --> 00:06:54,430 Με συνεπαίρνει η ιδέα 131 00:06:54,430 --> 00:06:57,865 ότι μπορούμε να ποσοτικοποιήσουμε κάτι τόσο προσωπικό όσο το συναίσθημα, 132 00:06:57,865 --> 00:07:00,100 και να το κάνουμε σε τέτοια κλίμακα. 133 00:07:00,100 --> 00:07:02,277 Τι μάθαμε λοιπόν έως τώρα; 134 00:07:03,057 --> 00:07:04,388 Φύλο. 135 00:07:05,388 --> 00:07:08,744 Τα δεδομένα μας επιβεβαιώνουν κάτι που ίσως υποψιαζόσαστε. 136 00:07:08,744 --> 00:07:11,111 Οι γυναίκες είναι πιο εκφραστικές από τους άνδρες. 137 00:07:11,111 --> 00:07:14,234 Χαμογελούν περισσότερο, και το χαμόγελό τους διαρκεί περισσότερο, 138 00:07:14,234 --> 00:07:16,098 και τώρα μπορούμε να ποσοτικοποιήσουμε 139 00:07:16,098 --> 00:07:18,444 σε τι άνδρες και γυναίκες αντιδρούν διαφορετικά. 140 00:07:18,814 --> 00:07:20,894 Ας δούμε την κουλτούρα: Έτσι στις ΗΠΑ 141 00:07:20,894 --> 00:07:25,468 οι γυναίκες είναι 40% πιο εκφραστικές από τους άνδρες, αλλά όλως περιέργως 142 00:07:25,468 --> 00:07:29,573 δεν υπάρχει διαφορά μεταξύ ανδρών και γυναικών στην Αγγλία. (Γέλια) 143 00:07:31,296 --> 00:07:35,503 Ηλικία: Οι άνθρωποι 50 ετών και άνω 144 00:07:35,503 --> 00:07:38,759 είναι 25% πιο συναισθηματικοί από τους νέους ανθρώπους. 145 00:07:39,609 --> 00:07:43,751 Οι γυναίκες των 20 χαμογελούν περισσότερο από τους άνδρες της ίδιας ηλικίας, 146 00:07:43,751 --> 00:07:46,340 ίσως μια αναγκαιότητα για την αναζήτηση σχέσης. 147 00:07:47,590 --> 00:07:50,207 Αλλά αυτό που μας εξέπληξε περισσότερο στα δεδομένα 148 00:07:50,207 --> 00:07:53,410 είναι ότι συμβαίνει να είμαστε εκφραστικοί συνέχεια, 149 00:07:53,410 --> 00:07:56,243 ακόμη και όταν είμαστε μόνοι μπροστά στη συσκευή μας, 150 00:07:56,243 --> 00:07:59,517 και όχι μόνο όταν βλέπουμε βίντεο με γάτες στο Facebook. 151 00:08:00,107 --> 00:08:02,357 Είμαστε εκφραστικοί όταν στέλνουμε email ή sms, 152 00:08:02,357 --> 00:08:05,717 ψωνίζουμε διαδικτυακά, ακόμη και όταν κάνουμε τη φορολογική μας δήλωση. 153 00:08:05,717 --> 00:08:07,919 Πού χρησιμοποιούνται αυτά τα δεδομένα σήμερα; 154 00:08:07,919 --> 00:08:10,172 Στο να καταλάβουμε πώς εμπλεκόμαστε με τα μέσα, 155 00:08:10,172 --> 00:08:13,166 έτσι κατανοώντας τη διαδικτυακή εξάπλωση και το πώς ψηφίζουμε. 156 00:08:13,166 --> 00:08:16,746 Επίσης την τεχνολογία που ενεργοποιεί συναισθήματα, 157 00:08:16,746 --> 00:08:20,527 και θέλω να μοιραστώ κάποια παραδείγματα στα οποία έχω ιδιαίτερη αδυναμία. 158 00:08:21,197 --> 00:08:23,315 Γυαλιά που ενεργοποιούνται από συναισθήματα 159 00:08:23,315 --> 00:08:27,493 θα βοηθήσουν άτομα με προβλήματα όρασης να διαβάσουν τα πρόσωπα των άλλων, 160 00:08:27,493 --> 00:08:30,080 και θα βοηθήσει άτομα στο φάσμα του αυτισμού 161 00:08:30,080 --> 00:08:33,478 να ερμηνεύσουν συναισθήματα, κάτι που πραγματικά τους ταλαιπωρεί. 162 00:08:35,528 --> 00:08:38,777 Στην εκπαίδευση, φανταστείτε εάν οι εφαρμογές που μαθαίνουν 163 00:08:38,777 --> 00:08:41,587 αισθανθούν ότι έχετε μπερδευτεί και μειώσουν ταχύτητα 164 00:08:41,587 --> 00:08:43,444 ή ότι βαριόσαστε έτσι να επιταχύνουν, 165 00:08:43,444 --> 00:08:46,413 ακριβώς όπως ένας καλός δάσκαλος θα έκανε στην τάξη. 166 00:08:47,043 --> 00:08:49,644 Εάν το ρολόι στο χέρι σας παρακολουθούσε τη διάθεσή σας 167 00:08:49,644 --> 00:08:52,337 ή το αυτοκινητό σας αισθανόταν ότι είστε κουρασμένος, 168 00:08:52,337 --> 00:08:55,165 ή ίσως το ψυγείο σας να αναγνωρίζει ότι είστε αγχωμένος 169 00:08:55,165 --> 00:08:59,511 και να κλειδώνει αυτόματα αποτρέποντας τη λαίμαργη επιδρομή σας. (Γέλια) 170 00:08:59,511 --> 00:09:01,118 Θα μου άρεσε αυτό, ναι. 171 00:09:03,398 --> 00:09:05,325 Τι εάν, όταν ήμουν στο Κέμπριτζ, 172 00:09:05,325 --> 00:09:08,118 είχα πρόσβαση στη ροή συναισθημάτων μου σε πραγματικό χρόνο 173 00:09:08,118 --> 00:09:11,597 και μπορούσα να τη μοιραστώ με την οικογένειά μου πολύ φυσικά 174 00:09:11,597 --> 00:09:15,408 ακριβώς όπως θα έκανα αν είμασταν όλοι μαζί στο ίδιο δωμάτιο; 175 00:09:15,408 --> 00:09:21,007 Νομίζω ότι σε πέντε χρόνια, όλες οι συσκευές θα έχουν τσιπ συναισθημάτων 176 00:09:21,007 --> 00:09:22,941 και δεν θα θυμόμαστε πώς ήταν 177 00:09:22,941 --> 00:09:25,541 όταν δεν μπορούσαμε να αγριοκοιτάξουμε τη συσκευή μας 178 00:09:25,541 --> 00:09:28,480 και αυτή να μας πει «Χμ, μάλλον δεν σου αρέσε αυτό, σωστά;» 179 00:09:29,130 --> 00:09:30,540 Η μεγαλύτερη πρόκληση είναι 180 00:09:30,540 --> 00:09:32,961 ότι υπάρχουν τόσες εφαρμογές αυτής της τεχνολογίας, 181 00:09:32,961 --> 00:09:35,864 που η ομάδα μας δεν μπορεί να τις κάνει όλες μόνη της 182 00:09:35,864 --> 00:09:38,120 έτσι κάναμε την τεχνολογία διαθέσιμη 183 00:09:38,120 --> 00:09:41,474 ώστε και άλλοι προγραμματιστές να χτίσουν και να γίνουν δημιουργικοί. 184 00:09:41,724 --> 00:09:47,457 Κατανοούμε ότι υπάρχουν πιθανοί κίνδυνοι και ενδεχόμενη κατάχρηση, 185 00:09:47,457 --> 00:09:50,576 αλλά προσωπικά, έχοντας περάσει τόσα χρόνια πάνω σε αυτό, 186 00:09:50,576 --> 00:09:53,038 πιστεύω ότι τα οφέλη για την ανθρωπότητα 187 00:09:53,038 --> 00:09:55,643 από το να έχουμε συναισθηματικά ευφυή τεχνολογία 188 00:09:55,643 --> 00:09:59,129 ξεπερνούν κατά πολύ την πιθανότητα κακής χρήσης. 189 00:09:59,129 --> 00:10:01,800 Σας προσκαλώ όλους να συμμετέχετε στη συζήτηση. 190 00:10:01,800 --> 00:10:04,534 Όσα περισσότερα γνωρίζει ο κόσμος γι' αυτή την τεχνολογία, 191 00:10:04,534 --> 00:10:07,821 τόσο περισσότερο μπορούμε όλοι να έχουμε άποψη για την χρήση της. 192 00:10:09,081 --> 00:10:13,655 'Ετσι, καθώς οι ζωές μας γίνονται όλο και πιο ψηφιακές, 193 00:10:13,655 --> 00:10:17,513 μάταια αγωνιζόμαστε να επιβραδύνουμε τη χρήση των συσκευών 194 00:10:17,513 --> 00:10:19,692 για να ανακτήσουμε τα συναισθήματά μας. 195 00:10:20,622 --> 00:10:24,586 Αυτό που προσπαθώ να κάνω είναι να φέρω το συναίσθημα στην τεχνολογία 196 00:10:24,586 --> 00:10:26,765 και να κάνω την τεχνολογία να αποκρίνεται. 197 00:10:26,765 --> 00:10:29,595 Θέλω λοιπόν εκείνες οι συσκευές που μας απομάκρυναν 198 00:10:29,595 --> 00:10:31,527 να μας ενώσουν και πάλι. 199 00:10:32,237 --> 00:10:36,715 Και εξανθρωπίζοντας την τεχνολογία έχουμε αυτή τη χρυσή ευκαιρία 200 00:10:36,715 --> 00:10:39,942 να αναδιατυπώσουμε τη σχέση μας με τις μηχανές 201 00:10:40,162 --> 00:10:44,263 και ως εκ τούτου, και το πώς εμείς ως ανθρώπινα όντα, 202 00:10:44,263 --> 00:10:46,167 συνδεόμαστε ο ένας με τον άλλον. 203 00:10:46,167 --> 00:10:47,487 Ευχαριστώ. 204 00:10:47,487 --> 00:10:48,810 (Χειροκρότημα)