1 00:00:07,052 --> 00:00:11,642 Κάθε χρόνο, οι μηχανές ξεπερνούν τους ανθρώπους σε περισσότερες δραστηριότητες, 2 00:00:11,642 --> 00:00:14,598 για τις οποίες θεωρούσαμε ότι μόνο εμείς ήμασταν ικανοί. 3 00:00:14,848 --> 00:00:18,423 Οι σημερινοί υπολογιστές μπορούν να μας νικήσουν σε πολύπλοκα επιτραπέζια, 4 00:00:18,423 --> 00:00:21,294 να μεταγράψουν ομιλία σε πολυάριθμες γλώσσες, 5 00:00:21,294 --> 00:00:24,486 και να αναγνωρίσουν ακαριαία σχεδόν οποιοδήποτε αντικείμενο. 6 00:00:24,746 --> 00:00:27,112 Αλλά τα αυριανά ρομπότ μπορεί να πάνε πιο μακριά 7 00:00:27,112 --> 00:00:30,083 μαθαίνοντας να καταλαβαίνουν τι αισθανόμαστε. 8 00:00:30,693 --> 00:00:32,381 Και γιατί αυτό είναι σημαντικό; 9 00:00:32,381 --> 00:00:34,673 Γιατί, αν οι μηχανές και όσοι τις διαχειρίζονται 10 00:00:34,673 --> 00:00:37,223 μπορούν να διακρίνουν τη συναισθηματική μας κατάσταση, 11 00:00:37,223 --> 00:00:40,193 θα μπορούν να μας βοηθήσουν ή να μας χειραγωγήσουν 12 00:00:40,193 --> 00:00:42,622 πιο εύκολα από ποτέ. 13 00:00:42,802 --> 00:00:44,354 Αλλά πριν φτάσουμε εκεί, 14 00:00:44,354 --> 00:00:49,653 πώς είναι δυνατόν κάτι τόσο πολύπλοκο σαν το συναίσθημα να μετατραπεί σε αριθμούς, 15 00:00:49,653 --> 00:00:52,263 τη μόνη γλώσσα που καταλαβαίνουν οι μηχανές; 16 00:00:53,253 --> 00:00:56,843 Πρακτικά, με τον ίδιο τρόπο που ο εγκέφαλός μας ερμηνεύει τα συναισθήματα, 17 00:00:56,843 --> 00:00:58,614 μαθαίνοντας πώς να τα διακρίνει. 18 00:00:58,994 --> 00:01:04,120 Ο Αμερικανός ψυχολόγος Πωλ Έκμαν ξεχώρισε κάποια συγκεκριμένα καθολικά συναισθήματα, 19 00:01:04,120 --> 00:01:08,654 τα οποία αναγνωρίζονται οπτικά με τον ίδιο τρόπο ανεξάρτητα από πολιτισμικό υπόβαθρο. 20 00:01:09,174 --> 00:01:14,193 Για παράδειγμα, η εικόνα ενός χαμόγελου δείχνει χαρά σε έναν σύγχρονο αστό, 21 00:01:14,193 --> 00:01:16,965 όπως και σε έναν ιθαγενή κάποιας φυλής. 22 00:01:16,965 --> 00:01:18,094 Σύμφωνα με τον Έκμαν, 23 00:01:18,094 --> 00:01:18,823 ο θυμός, 24 00:01:18,823 --> 00:01:19,533 η αηδία, 25 00:01:19,533 --> 00:01:20,275 ο φόβος, 26 00:01:20,275 --> 00:01:21,092 η χαρά, 27 00:01:21,092 --> 00:01:21,848 η λύπη, 28 00:01:21,848 --> 00:01:25,433 και η έκπληξη γίνονται αντιληπτά με αντίστοιχο τρόπο. 29 00:01:25,433 --> 00:01:29,836 Όπως φαίνεται, οι υπολογιστές βελτιώνονται γρήγορα στην αναγνώριση εικόνων, 30 00:01:29,836 --> 00:01:33,575 χάρη σε αλγορίθμους μηχανικής μάθησης, όπως τα νευρωνικά δίκτυα. 31 00:01:34,015 --> 00:01:38,205 Αυτά αποτελούνται από τεχνητούς νευρώνες που μιμούνται τους βιολογικούς, 32 00:01:38,205 --> 00:01:41,474 διαμορφώνοντας συνδέσεις και ανταλλάσσοντας πληροφορίες. 33 00:01:41,784 --> 00:01:46,285 Για να εκπαιδευτεί το δίκτυο, δείγματα ταξινομημένα από πριν σε κατηγορίες, 34 00:01:46,285 --> 00:01:49,175 όπως φωτογραφίες επισημειωμένες σαν χαρά ή λύπη, 35 00:01:49,175 --> 00:01:51,285 τροφοδοτούνται στο σύστημα. 36 00:01:51,285 --> 00:01:53,745 Το δίκτυο μαθαίνει να ταξινομεί αυτά τα δείγματα 37 00:01:53,745 --> 00:01:57,965 μεταβάλλοντας τα σχετικά βάρη που έχουν συγκεκριμένα χαρακτηριστικά. 38 00:01:58,405 --> 00:02:00,025 Όσο πιο πολλά δεδομένα δίνονται, 39 00:02:00,025 --> 00:02:04,365 τόσο καλύτερος γίνεται ο αλγόριθμος στο να διακρίνει σωστά νέες εικόνες. 40 00:02:04,575 --> 00:02:06,527 Αυτό μοιάζει με τον εγκέφαλό μας, 41 00:02:06,527 --> 00:02:11,115 που μαθαίνει από πρότερες εμπειρίες για να ορίσει πώς θα επεξεργαστεί νέα ερεθίσματα. 42 00:02:11,555 --> 00:02:15,126 Οι αλγόριθμοι αναγνώρισης δεν περιορίζονται σε εκφράσεις του προσώπου. 43 00:02:15,126 --> 00:02:17,886 Τα συναισθήματα εκφράζονται με διάφορους τρόπους. 44 00:02:17,886 --> 00:02:20,116 Με τη γλώσσα του σώματος και τον τόνο της φωνής 45 00:02:20,116 --> 00:02:23,417 αλλαγές στον ρυθμό της καρδιάς, το χρώμα ή τη θερμοκρασία στο δέρμα, 46 00:02:23,417 --> 00:02:27,656 ή ακόμα και στην ταχύτητα που μιλάμε και τη δομή των προτάσεων που γράφουμε. 47 00:02:28,046 --> 00:02:31,205 Θα σκεφτόσασταν ότι η εκπαίδευση των δικτύων για όλα αυτά 48 00:02:31,205 --> 00:02:33,637 θα ήταν μια χρονοβόρα και πολύπλοκη εργασία 49 00:02:33,637 --> 00:02:36,966 μέχρι να αναλογιστείτε πόσα δεδομένα είναι διαθέσιμα 50 00:02:36,966 --> 00:02:40,035 και πόσο γρήγορα τα επεξεργάζονται οι σύγχρονοι υπολογιστές. 51 00:02:40,375 --> 00:02:41,917 Δημοσιεύσεις κοινωνικών δικτύων, 52 00:02:41,917 --> 00:02:43,586 ψηφιακές φωτογραφίες και βίντεο, 53 00:02:43,586 --> 00:02:44,987 και τηλεφωνικές συνομιλίες, 54 00:02:44,987 --> 00:02:46,767 μέχρι θερμικές κάμερες ασφαλείας 55 00:02:46,767 --> 00:02:50,437 και φορετές συσκευές που παρακολουθούν τα βιοσήματά μας, 56 00:02:50,437 --> 00:02:52,947 το ερώτημα δεν είναι πώς θα μαζέψουμε αρκετά δεδομένα 57 00:02:52,947 --> 00:02:55,255 αλλά τι θα κάνουμε με αυτά. 58 00:02:55,255 --> 00:02:59,706 Υπάρχουν πολλές ευεργετικές χρήσεις της αναγνώρισης συναισθημάτων από υπολογιστές. 59 00:02:59,706 --> 00:03:02,067 Τα ρομπότ που διακρίνουν εκφράσεις στο πρόσωπο 60 00:03:02,067 --> 00:03:04,246 μπορούν να βοηθήσουν τα παιδιά να μάθουν 61 00:03:04,246 --> 00:03:07,636 ή να παρέχουν σε μοναχικούς ανθρώπους την αίσθηση της συντροφικότητας. 62 00:03:07,636 --> 00:03:10,637 Οι εταιρίες κοινωνικής δικτύωσης μελετούν τη χρήση αλγορίθμων 63 00:03:10,637 --> 00:03:17,047 για να αποτρέψουν αυτοκτονίες εντοπίζοντας ορισμένες λέξεις ή φράσεις σε αναρτήσεις. 64 00:03:17,047 --> 00:03:21,287 Και το λογισμικό αναγνώρισης συναισθημάτων μπορεί να θεραπεύσει ψυχικές διαταραχές 65 00:03:21,287 --> 00:03:25,138 ή να παρέχει αυτοματοποιημένη ψυχοθεραπεία χαμηλού κόστους. 66 00:03:25,358 --> 00:03:27,188 Πέρα από τις πιθανές ωφέλειες, 67 00:03:27,188 --> 00:03:30,869 η προοπτική ενός τεράστιου δικτύου που επεξεργάζεται αυτόματα φωτογραφίες, 68 00:03:30,869 --> 00:03:31,958 επικοινωνίες, 69 00:03:31,958 --> 00:03:36,447 και τα βιοσήματά μας είναι ανησυχητική. 70 00:03:36,877 --> 00:03:40,796 Ποια επίπτωση θα έχουμε στην ιδιωτικότητα όταν τέτοια απρόσωπα συστήματα 71 00:03:40,796 --> 00:03:45,208 χρησιμοποιούνται από εταιρίες για να μας επηρεάσουν συναισθηματικά με διαφημίσεις; 72 00:03:45,208 --> 00:03:46,718 Τι θα συμβεί στα δικαιώματά μας 73 00:03:46,718 --> 00:03:50,737 αν οι αρχές θεωρήσουν ότι μπορούν να εντοπίσουν τους πιθανούς κακοποιούς 74 00:03:50,737 --> 00:03:54,357 πριν αυτοί αποφασίσουν συνειδητά να δράσουν; 75 00:03:54,667 --> 00:03:57,150 Τα ρομπότ έχουν να διανύσουν μεγάλη απόσταση 76 00:03:57,150 --> 00:04:00,398 μέχρι να αναγνωρίσουν συναισθηματικές αποχρώσεις, όπως την ειρωνεία, 77 00:04:00,398 --> 00:04:04,758 και την ένταση ενός συναισθήματος, πόσο χαρούμενος ή λυπημένος είναι κάποιος. 78 00:04:04,758 --> 00:04:09,288 Παρ' όλα αυτά, μπορεί τελικά να διαβάσουν με ακρίβεια τα συναισθήματά μας 79 00:04:09,288 --> 00:04:10,908 και να ανταποκριθούν σε αυτά. 80 00:04:11,138 --> 00:04:15,389 Το αν θα συμπάσχουν με τον φόβο μιας ανεπιθύμητης εισβολής, πάντως, 81 00:04:15,389 --> 00:04:17,047 είναι άλλη ιστορία.