0:00:00.816,0:00:04.403 Τα συναισθήματά μας επηρεάζουν [br]κάθε πτυχή της ζωής μας, 0:00:04.403,0:00:06.629 από την υγεία μας[br]και τον τρόπο που μαθαίνουμε, 0:00:06.629,0:00:09.922 έως το πώς εργαζόμαστε και[br]παίρνουμε αποφάσεις, μικρές και μεγάλες. 0:00:10.672,0:00:14.382 Τα συναισθήματά μας επίσης επηρεάζουν [br]το πώς συνδεόμαστε μεταξύ μας. 0:00:15.132,0:00:19.108 Έχουμε εξελιχθεί να ζούμε [br]σε έναν κόσμο σαν αυτόν, 0:00:19.108,0:00:23.557 αντ' αυτού όμως, ζούμε[br]όλο και περισσότερο κάπως έτσι 0:00:23.557,0:00:26.561 - αυτό είναι μήνυμα [br]από την κόρη μου χθες βράδυ - 0:00:27.041,0:00:29.301 σε έναν κόσμο στερημένο από συναίσθημα. 0:00:29.301,0:00:31.432 Η αποστολή μου είναι να το αλλάξω αυτό. 0:00:31.432,0:00:35.383 Θέλω να επαναφέρω το συναίσθημα [br]στις ψηφιακές μας εμπειρίες. 0:00:36.523,0:00:39.140 Πήρα αυτόν τον δρόμο πριν από 15 χρόνια. 0:00:39.140,0:00:41.816 Ήμουν επιστήμων υπολογιστών στην Αίγυπτο, 0:00:41.816,0:00:45.871 και μόλις είχα περάσει σε μεταπτυχιακό [br]πρόγραμμα του Πανεπιστημίου του Κέμπριτζ. 0:00:45.871,0:00:48.034 Έτσι έκανα κάτι αρκετά ασυνήθιστο 0:00:48.034,0:00:52.209 για μια νεαρή νιόπαντρη μουσουλμάνα[br]σύζυγο από την Αίγυπτο: 0:00:53.599,0:00:56.698 Με τη στήριξη του συζύγου μου,[br]που έπρεπε να μείνει στην Αίγυπτο, 0:00:56.698,0:00:59.706 έφτιαξα τα πράγματά μου [br]και μετακόμισα στην Αγγλία. 0:00:59.706,0:01:02.844 Στο Κέμπριτζ, χιλιάδες μίλια[br]μακριά από το σπίτι μου 0:01:02.844,0:01:06.257 κατάλαβα ότι περνούσα περισσότερη ώρα [br]με τον φορητό μου υπολογιστή 0:01:06.257,0:01:08.486 παρά με οποιονδήποτε άλλον άνθρωπο. 0:01:08.726,0:01:13.519 Παρόλη όμως αυτή την οικειότητα, [br]ο φορητός μου δεν είχε ιδέα πώς ένιωθα. 0:01:13.519,0:01:16.550 Αγνοούσε εάν ήμουν χαρούμενη, 0:01:16.550,0:01:19.778 αν ήταν μια μέρα δύσκολη, [br]με άγχος ή επιπλοκές, 0:01:19.778,0:01:21.900 και αυτό με απογοήτευσε. 0:01:23.600,0:01:28.401 Ακόμα χειρότερα, όταν επικοινωνούσα [br]διαδικτυακά με την οικογένεια στο σπίτι, 0:01:29.421,0:01:32.823 ένιωθα ότι όλα μου τα συναισθήματα[br]εξαφανίζονταν στον κυβερνοχώρο. 0:01:32.823,0:01:37.858 Μου έλειπε το σπίτι μου, ένιωθα μοναξιά,[br]και κάποιες μέρες πραγματικά έκλαιγα, 0:01:37.858,0:01:42.786 αλλά είχα μόνο αυτό για να μεταδώσω [br]αυτά τα συναισθήματα. 0:01:42.786,0:01:44.806 (Γέλια) 0:01:44.806,0:01:49.140 Η σημερινή τεχνολογία έχει πολλή ευφυΐα [br]αλλά καθόλου συναίσθημα, 0:01:49.140,0:01:52.956 πάρα πολύ γνωστική ευφυΐα [br]αλλά καθόλου συναισθηματική ευφυΐα. 0:01:53.236,0:01:55.153 Αυτό με έβαλε να σκεφτώ 0:01:55.153,0:01:59.157 τι θα γινόταν εάν η τεχνολογία μας[br]μπορούσε να νιώσει τα συναισθήματά μας; 0:01:59.157,0:02:03.013 Τι θα γινόταν εάν οι συσκευές ένιωθαν [br]πώς αισθανόμαστε και αποκρίνονταν ανάλογα, 0:02:03.013,0:02:05.986 ακριβώς όπως θα αντιδρούσε[br]ένας φίλος με συναισθήματα; 0:02:06.666,0:02:10.230 Αυτά τα ερωτήματα οδήγησαν [br]εμένα και την ομάδα μου 0:02:10.230,0:02:14.607 στη δημιουργία τεχνολογιών που διαβάζουν [br]και αντιδρούν στα συναισθήματά μας, 0:02:14.607,0:02:17.697 και το σημείο αφετηρίας μας [br]ήταν το ανθρώπινο πρόσωπο. 0:02:18.577,0:02:21.750 Το πρόσωπό μας τυγχάνει να είναι [br]ένα από τα πιο ισχυρά κανάλια 0:02:21.750,0:02:25.766 μέσω των οποίων εκφράζουμε κοινωνικές [br]και συναισθηματικές μας καταστάσεις, 0:02:25.766,0:02:31.976 τα πάντα, από διασκέδαση, έκπληξη,[br]ενσυναίσθηση και περιέργεια. 0:02:32.979,0:02:34.687 Στην επιστήμη των συναισθημάτων, 0:02:34.687,0:02:37.907 κάθε κίνηση των μυών του προσώπου[br]την αποκαλούμε μονάδα δράσης. 0:02:37.907,0:02:40.632 Έτσι για παράδειγμα η μονάδα δράσης 12, 0:02:40.632,0:02:42.490 δεν είναι μια επιτυχία του Χόλιγουντ, 0:02:42.490,0:02:44.310 είναι σήκωμα της άκρης του χείλους, 0:02:44.310,0:02:46.312 που είναι βασικό συστατικό του χαμόγελου. 0:02:46.312,0:02:48.910 Δοκιμάστε το όλοι. [br]Ας ρίξουμε μερικά χαμόγελα. 0:02:48.910,0:02:51.954 Άλλο παράδειγμα είναι η μονάδα δράσης 4. [br]Είναι η συνοφρύωση. 0:02:51.954,0:02:55.739 Είναι όταν σμίγουν τα φρύδια[br]και δημιουργούνται ρυτίδες και υφές. 0:02:55.739,0:02:59.984 Δεν μας αρέσουν αλλά είναι [br]έντονη ένδειξη αρνητικού συναισθήματος. 0:02:59.984,0:03:02.610 Έτσι έχουμε περίπου [br]45 τέτοιες μονάδες δράσης, 0:03:02.610,0:03:06.350 και οι συνδυασμοί τους εκφράζουν [br]εκατοντάδες συναισθήματα. 0:03:06.350,0:03:10.251 Το να μάθεις έναν υπολογιστή να διαβάζει[br]τις εκφράσεις του προσώπου είναι δύσκολο, 0:03:10.251,0:03:12.973 επειδή οι μονάδες δράσεις[br]μπορεί να εναλλάσσονται γρήγορα, 0:03:12.973,0:03:15.777 να είναι αδιόρατες, και να συνδυάζονται[br]με πολλούς τρόπους. 0:03:15.777,0:03:19.515 Πάρτε για παράδειγμα το χαμόγελο [br]και το υπεροπτικό χαμόγελο. 0:03:19.515,0:03:23.268 Μοιάζουν μεταξύ τους [br]αλλά σημαίνουν διαφορετικά πράγματα. 0:03:23.268,0:03:24.986 (Γέλια) 0:03:24.986,0:03:26.940 Έτσι το χαμόγελο είναι θετικό, 0:03:26.940,0:03:29.260 ενώ το προσποιητό χαμόγελο [br]είναι συχνά αρνητικό. 0:03:29.260,0:03:33.136 Καμιά φορά το προσποιητό χαμόγελο [br]μπορεί να σε κάνει διάσημο. 0:03:33.136,0:03:35.080 Αλλά είναι πολύ σημαντικό 0:03:35.080,0:03:38.485 να μπορεί ο υπολογιστής[br]να δει τη διαφορά των δυο εκφράσεων. 0:03:38.485,0:03:40.447 Πώς το καταφέρνουμε λοιπόν αυτό; 0:03:40.447,0:03:42.204 Δίνουμε στους αλγορίθμους μας 0:03:42.204,0:03:46.524 δεκάδες χιλιάδες παραδείγματα ανθρώπων [br]που ξέρουμε ότι χαμογελούν, 0:03:46.524,0:03:49.589 από διάφορες εθνότητες, ηλικίες, γένη, 0:03:49.589,0:03:52.030 και κάνουμε το ίδιο [br]και για το υπεροπτικό χαμόγελο. 0:03:52.030,0:03:53.994 Και μετά χρησιμοποιώντας τη βαθιά μάθηση 0:03:53.994,0:03:57.200 ο αλγόριθμος ψάχνει [br]για όλες αυτές τις υφές και τις ρυτίδες 0:03:57.200,0:03:59.310 και τις αλλαγές σχήματος του προσώπου μας, 0:03:59.310,0:04:02.642 και βασικά μαθαίνει ότι όλα τα χαμόγελα [br]έχουν κοινά χαρακτηριστικά, 0:04:02.642,0:04:05.863 ενώ τα υπεροπτικά χαμόγελα έχουν[br]ελαφρώς διαφορετικά χαρακτηριστικά. 0:04:05.863,0:04:08.141 Την επόμενη φορά[br]που θα δει ένα νέο πρόσωπο 0:04:08.141,0:04:11.390 ουσιαστικά μαθαίνει ότι αυτό το πρόσωπο 0:04:11.390,0:04:13.473 έχει τα χαρακτηριστικά του χαμόγελου 0:04:13.473,0:04:17.151 και λέει, «Ναι, το αναγνωρίζω. [br]Είναι έκφραση χαμόγελου». 0:04:18.201,0:04:21.541 Έτσι ο καλύτερος τρόπος για να δείξουμε[br]πως λειτουργεί η τεχνολογία 0:04:21.541,0:04:23.317 είναι μια ζωντανή παρουσίαση, 0:04:23.317,0:04:27.230 γι' αυτό ζητάω έναν εθελοντή,[br]κατά προτίμηση κάποιον με πρόσωπο. 0:04:27.230,0:04:28.714 (Γέλια) 0:04:29.774,0:04:32.095 Η Κλόη θα είναι η εθελόντριά μας σήμερα. 0:04:33.325,0:04:37.783 Τα τελευταία πέντε χρόνια, [br]από ερευνητικό πρόγραμμα του ΜΙΤ 0:04:37.783,0:04:38.939 γίναμε εταιρεία, 0:04:38.939,0:04:42.351 όπου η ομάδα μου έχει μοχθήσει[br]για να λειτουργήσει αυτή η τεχνολογία, 0:04:42.351,0:04:44.360 όπως αρεσκόμαστε να λέμε ακόμα. 0:04:44.360,0:04:47.360 Την έχουμε συρρικνώσει [br]ώστε η κεντρική μηχανή συναισθημάτων 0:04:47.360,0:04:50.760 να λειτουργεί σε κάθε φορητή συσκευή[br]με κάμερα, όπως αυτό το iPad. 0:04:50.770,0:04:52.806 Ας την δοκιμάσουμε λοιπόν. 0:04:54.756,0:04:58.680 Βλέπετε ότι ο αλγόριθμος βασικά[br]έχει εντοπίσει το πρόσωπο της Κλόη, 0:04:58.680,0:05:00.372 είναι αυτό το λευκό περίγραμμα, 0:05:00.372,0:05:02.943 και παρακολουθεί τα κεντρικά[br]σημεία του προσώπου της, 0:05:02.943,0:05:05.799 ήτοι, τα φρύδια, τα μάτια και τη μύτη της. 0:05:05.799,0:05:08.786 Το ερώτημα είναι, μπορεί[br]να αναγνωρίσει την έκφρασή της; 0:05:08.786,0:05:10.287 Άρα θα τεστάρουμε το μηχάνημα. 0:05:10.287,0:05:13.173 Αρχικά, δείξε μου ένα ανέκφραστο πρόσωπο. [br]Ναι, υπέροχα. 0:05:13.173,0:05:14.643 (Γέλια) 0:05:14.873,0:05:17.456 Κατόπιν καθώς χαμογελάει,[br]είναι γνήσιο χαμόγελο, υπέροχο. 0:05:17.456,0:05:19.616 Η πράσινη μπάρα μεγαλώνει[br]καθώς χαμογελάει. 0:05:19.616,0:05:21.068 Αυτό ήταν ένα μεγάλο χαμόγελο. 0:05:21.068,0:05:23.731 Κι ένα υπεροπτικό χαμόγελο[br]θα το καταλάβει ο υπολογιστής; 0:05:23.731,0:05:27.577 Αναγνωρίζει και τα διακριτικά χαμόγελα.[br]Εργαστήκαμε σκληρά για να το καταφέρουμε. 0:05:27.717,0:05:31.449 Μετά σηκωμένα φρύδια ως ένδειξη έκπληξης. 0:05:31.559,0:05:34.898 Συνοφρύωση ως ένδειξη απογοήτευσης. 0:05:35.938,0:05:39.595 Κατσούφιασε. Ναι, τέλεια. 0:05:39.595,0:05:41.768 Όλες αυτές είναι διαφορετικές[br]μονάδες δράσης. 0:05:41.768,0:05:45.180 Υπάρχουν πολύ περισσότερες.[br]Αυτή είναι μια σύντομη παρουσίαση. 0:05:45.180,0:05:48.368 Αλλά κάθε καταγραφή την αποκαλούμε[br]σημείο συναισθηματικών δεδομένων, 0:05:48.368,0:05:51.587 και μετά μπορούν να δράσουν μαζί[br]για να δώσουν διάφορα συναισθήματα. 0:05:51.587,0:05:55.350 Έτσι στη δεξιά πλευρά της δοκιμής -[br]δείξε ότι είσαι χαρούμενη. 0:05:55.350,0:05:57.444 Αυτό λοιπόν είναι χαρά. Η χαρά φωτίζεται. 0:05:57.444,0:05:59.371 Και μετά δώσε μου μια έκφραση αηδίας. 0:05:59.371,0:06:03.413 Θυμήσου πώς ήταν όταν ο Ζέιν έφυγε [br]από τους Ουάν Νταϊρέξιον. 0:06:03.413,0:06:04.593 (Γέλια) 0:06:04.593,0:06:07.935 Ναι, ξύνισε τη μύτη σου. Φοβερό. 0:06:09.495,0:06:13.036 Το σθένος είναι αρκετά αρνητικό,[br]άρα πρέπει να ήσουν μεγάλη θαυμάστρια. 0:06:13.036,0:06:15.926 Το σθένος δηλώνει πόσο θετική ή αρνητική[br]είναι μια εμπειρία, 0:06:15.926,0:06:18.572 και η εμπλοκή δηλώνει[br]πόσο εκφραστική είναι επίσης. 0:06:18.572,0:06:22.536 Φανταστείτε αν η Κλόη είχε πρόσβαση σ'αυτή[br]τη ροή συναισθήματος σε πραγματικό χρόνο, 0:06:22.536,0:06:25.055 και μπορούσε να τη μοιραστεί[br]με όποιον ήθελε. 0:06:25.055,0:06:26.528 Ευχαριστώ. 0:06:26.528,0:06:28.189 (Χειροκρότημα) 0:06:33.749,0:06:38.729 Έως τώρα έχουμε συγκεντρώσει 12 δις[br]τέτοια σημεία συναισθηματικών δεδομένων. 0:06:38.729,0:06:41.640 Είναι η μεγαλύτερη βάση δεδομένων[br]από συναισθήματα στον κόσμο. 0:06:41.640,0:06:44.803 Τα συλλέξαμε από 2,9 εκατομμύρια βίντεο[br]από πρόσωπα ανθρώπων 0:06:44.803,0:06:47.673 που συμφώνησαν να μοιραστούν [br]τα συναισθήματά τους μαζί μας, 0:06:47.673,0:06:50.398 και από 75 χώρες σε όλο τον κόσμο. 0:06:50.398,0:06:52.113 Αυξάνεται κάθε μέρα. 0:06:52.603,0:06:54.430 Με συνεπαίρνει η ιδέα 0:06:54.430,0:06:57.865 ότι μπορούμε να ποσοτικοποιήσουμε [br]κάτι τόσο προσωπικό όσο το συναίσθημα, 0:06:57.865,0:07:00.100 και να το κάνουμε σε τέτοια κλίμακα. 0:07:00.100,0:07:02.277 Τι μάθαμε λοιπόν έως τώρα; 0:07:03.057,0:07:04.388 Φύλο. 0:07:05.388,0:07:08.744 Τα δεδομένα μας επιβεβαιώνουν[br]κάτι που ίσως υποψιαζόσαστε. 0:07:08.744,0:07:11.111 Οι γυναίκες είναι πιο εκφραστικές[br]από τους άνδρες. 0:07:11.111,0:07:14.234 Χαμογελούν περισσότερο,[br]και το χαμόγελό τους διαρκεί περισσότερο, 0:07:14.234,0:07:16.098 και τώρα μπορούμε να ποσοτικοποιήσουμε 0:07:16.098,0:07:18.444 σε τι άνδρες και γυναίκες[br]αντιδρούν διαφορετικά. 0:07:18.814,0:07:20.894 Ας δούμε την κουλτούρα: Έτσι στις ΗΠΑ 0:07:20.894,0:07:25.468 οι γυναίκες είναι 40% πιο εκφραστικές [br]από τους άνδρες, αλλά όλως περιέργως 0:07:25.468,0:07:29.573 δεν υπάρχει διαφορά μεταξύ ανδρών [br]και γυναικών στην Αγγλία. (Γέλια) 0:07:31.296,0:07:35.503 Ηλικία: Οι άνθρωποι 50 ετών και άνω 0:07:35.503,0:07:38.759 είναι 25% πιο συναισθηματικοί [br]από τους νέους ανθρώπους. 0:07:39.609,0:07:43.751 Οι γυναίκες των 20 χαμογελούν περισσότερο[br]από τους άνδρες της ίδιας ηλικίας, 0:07:43.751,0:07:46.340 ίσως μια αναγκαιότητα [br]για την αναζήτηση σχέσης. 0:07:47.590,0:07:50.207 Αλλά αυτό που μας εξέπληξε[br]περισσότερο στα δεδομένα 0:07:50.207,0:07:53.410 είναι ότι συμβαίνει [br]να είμαστε εκφραστικοί συνέχεια, 0:07:53.410,0:07:56.243 ακόμη και όταν είμαστε μόνοι [br]μπροστά στη συσκευή μας, 0:07:56.243,0:07:59.517 και όχι μόνο όταν βλέπουμε[br]βίντεο με γάτες στο Facebook. 0:08:00.107,0:08:02.357 Είμαστε εκφραστικοί[br]όταν στέλνουμε email ή sms, 0:08:02.357,0:08:05.717 ψωνίζουμε διαδικτυακά, ακόμη και[br]όταν κάνουμε τη φορολογική μας δήλωση. 0:08:05.717,0:08:07.919 Πού χρησιμοποιούνται[br]αυτά τα δεδομένα σήμερα; 0:08:07.919,0:08:10.172 Στο να καταλάβουμε[br]πώς εμπλεκόμαστε με τα μέσα, 0:08:10.172,0:08:13.166 έτσι κατανοώντας τη διαδικτυακή[br]εξάπλωση και το πώς ψηφίζουμε. 0:08:13.166,0:08:16.746 Επίσης την τεχνολογία[br]που ενεργοποιεί συναισθήματα, 0:08:16.746,0:08:20.527 και θέλω να μοιραστώ κάποια παραδείγματα [br]στα οποία έχω ιδιαίτερη αδυναμία. 0:08:21.197,0:08:23.315 Γυαλιά που ενεργοποιούνται[br]από συναισθήματα 0:08:23.315,0:08:27.493 θα βοηθήσουν άτομα με προβλήματα όρασης[br]να διαβάσουν τα πρόσωπα των άλλων, 0:08:27.493,0:08:30.080 και θα βοηθήσει[br]άτομα στο φάσμα του αυτισμού 0:08:30.080,0:08:33.478 να ερμηνεύσουν συναισθήματα,[br]κάτι που πραγματικά τους ταλαιπωρεί. 0:08:35.528,0:08:38.777 Στην εκπαίδευση, φανταστείτε[br]εάν οι εφαρμογές που μαθαίνουν 0:08:38.777,0:08:41.587 αισθανθούν ότι έχετε μπερδευτεί[br]και μειώσουν ταχύτητα 0:08:41.587,0:08:43.444 ή ότι βαριόσαστε έτσι να επιταχύνουν, 0:08:43.444,0:08:46.413 ακριβώς όπως ένας καλός δάσκαλος [br]θα έκανε στην τάξη. 0:08:47.043,0:08:49.644 Εάν το ρολόι στο χέρι σας[br]παρακολουθούσε τη διάθεσή σας 0:08:49.644,0:08:52.337 ή το αυτοκινητό σας αισθανόταν[br]ότι είστε κουρασμένος, 0:08:52.337,0:08:55.165 ή ίσως το ψυγείο σας να αναγνωρίζει[br]ότι είστε αγχωμένος 0:08:55.165,0:08:59.511 και να κλειδώνει αυτόματα αποτρέποντας[br]τη λαίμαργη επιδρομή σας. (Γέλια) 0:08:59.511,0:09:01.118 Θα μου άρεσε αυτό, ναι. 0:09:03.398,0:09:05.325 Τι εάν, όταν ήμουν στο Κέμπριτζ, 0:09:05.325,0:09:08.118 είχα πρόσβαση στη ροή συναισθημάτων μου[br]σε πραγματικό χρόνο 0:09:08.118,0:09:11.597 και μπορούσα να τη μοιραστώ[br]με την οικογένειά μου πολύ φυσικά 0:09:11.597,0:09:15.408 ακριβώς όπως θα έκανα[br]αν είμασταν όλοι μαζί στο ίδιο δωμάτιο; 0:09:15.408,0:09:21.007 Νομίζω ότι σε πέντε χρόνια, όλες [br]οι συσκευές θα έχουν τσιπ συναισθημάτων 0:09:21.007,0:09:22.941 και δεν θα θυμόμαστε πώς ήταν 0:09:22.941,0:09:25.541 όταν δεν μπορούσαμε [br]να αγριοκοιτάξουμε τη συσκευή μας 0:09:25.541,0:09:28.480 και αυτή να μας πει [br]«Χμ, μάλλον δεν σου αρέσε αυτό, σωστά;» 0:09:29.130,0:09:30.540 Η μεγαλύτερη πρόκληση είναι 0:09:30.540,0:09:32.961 ότι υπάρχουν τόσες εφαρμογές[br]αυτής της τεχνολογίας, 0:09:32.961,0:09:35.864 που η ομάδα μας δεν μπορεί[br]να τις κάνει όλες μόνη της 0:09:35.864,0:09:38.120 έτσι κάναμε την τεχνολογία διαθέσιμη 0:09:38.120,0:09:41.474 ώστε και άλλοι προγραμματιστές[br]να χτίσουν και να γίνουν δημιουργικοί. 0:09:41.724,0:09:47.457 Κατανοούμε ότι υπάρχουν πιθανοί κίνδυνοι[br]και ενδεχόμενη κατάχρηση, 0:09:47.457,0:09:50.576 αλλά προσωπικά, έχοντας περάσει[br]τόσα χρόνια πάνω σε αυτό, 0:09:50.576,0:09:53.038 πιστεύω ότι τα οφέλη για την ανθρωπότητα 0:09:53.038,0:09:55.643 από το να έχουμε[br]συναισθηματικά ευφυή τεχνολογία 0:09:55.643,0:09:59.129 ξεπερνούν κατά πολύ[br]την πιθανότητα κακής χρήσης. 0:09:59.129,0:10:01.800 Σας προσκαλώ όλους[br]να συμμετέχετε στη συζήτηση. 0:10:01.800,0:10:04.534 Όσα περισσότερα γνωρίζει ο κόσμος[br]γι' αυτή την τεχνολογία, 0:10:04.534,0:10:07.821 τόσο περισσότερο μπορούμε όλοι [br]να έχουμε άποψη για την χρήση της. 0:10:09.081,0:10:13.655 'Ετσι, καθώς οι ζωές μας γίνονται[br]όλο και πιο ψηφιακές, 0:10:13.655,0:10:17.513 μάταια αγωνιζόμαστε [br]να επιβραδύνουμε τη χρήση των συσκευών 0:10:17.513,0:10:19.692 για να ανακτήσουμε τα συναισθήματά μας. 0:10:20.622,0:10:24.586 Αυτό που προσπαθώ να κάνω είναι[br]να φέρω το συναίσθημα στην τεχνολογία 0:10:24.586,0:10:26.765 και να κάνω την τεχνολογία να αποκρίνεται. 0:10:26.765,0:10:29.595 Θέλω λοιπόν εκείνες οι συσκευές [br]που μας απομάκρυναν 0:10:29.595,0:10:31.527 να μας ενώσουν και πάλι. 0:10:32.237,0:10:36.715 Και εξανθρωπίζοντας την τεχνολογία [br]έχουμε αυτή τη χρυσή ευκαιρία 0:10:36.715,0:10:39.942 να αναδιατυπώσουμε [br]τη σχέση μας με τις μηχανές 0:10:40.162,0:10:44.263 και ως εκ τούτου, [br]και το πώς εμείς ως ανθρώπινα όντα, 0:10:44.263,0:10:46.167 συνδεόμαστε ο ένας με τον άλλον. 0:10:46.167,0:10:47.487 Ευχαριστώ. 0:10:47.487,0:10:48.810 (Χειροκρότημα)