1 00:00:00,706 --> 00:00:04,353 Le emozioni influenzano ogni aspetto delle nostre vite, 2 00:00:04,523 --> 00:00:07,963 dalla salute, da come impariamo, al fare affari e a prendere decisioni, 3 00:00:08,149 --> 00:00:09,442 grandi e piccole. 4 00:00:10,452 --> 00:00:14,072 Le nostre emozioni influenzano anche il modo di relazionarci l'un l'altro. 5 00:00:15,102 --> 00:00:18,418 Ci siamo evoluti per vivere in un mondo così. 6 00:00:19,088 --> 00:00:23,317 Ma invece viviamo sempre più le nostre vite così, 7 00:00:23,347 --> 00:00:26,571 - questo è il messaggio di mia figlia la notte scorsa (risate) - 8 00:00:26,971 --> 00:00:29,141 in un mondo privo di emozioni. 9 00:00:29,251 --> 00:00:31,202 Perciò la mia missione è cambiare le cose. 10 00:00:31,202 --> 00:00:34,933 Voglio riportare le emozioni nelle nostre esperienze digitali. 11 00:00:36,223 --> 00:00:38,960 Ho intrapreso questo percorso 15 anni fa. 12 00:00:38,960 --> 00:00:41,526 Ero un'esperta di informatica in Egitto, 13 00:00:41,526 --> 00:00:45,661 da poco ammessa a un Dottorato di Ricerca alla Cambridge University. 14 00:00:45,871 --> 00:00:47,984 Avevo fatto qualcosa di alquanto inusuale 15 00:00:47,984 --> 00:00:51,779 per una giovane moglie Musulmana Egiziana appena sposata. 16 00:00:51,949 --> 00:00:53,599 (Risate) 17 00:00:53,599 --> 00:00:56,538 Con il sostegno di mio marito, che dovette restare in Egitto, 18 00:00:56,538 --> 00:00:58,986 feci i bagagli e mi trasferii in Inghilterra. 19 00:00:59,616 --> 00:01:02,694 A Cambridge, lontana migliaia di chilometri da casa, 20 00:01:02,844 --> 00:01:05,937 capii che trascorrevo molte più ore col mio computer 21 00:01:05,937 --> 00:01:07,916 che con altri esseri umani. 22 00:01:08,376 --> 00:01:09,939 Eppure, nonostante l'intimità, 23 00:01:09,939 --> 00:01:13,209 il mio computer non aveva assolutamente idea di come mi sentissi. 24 00:01:13,339 --> 00:01:15,490 Non sapeva se ero felice, 25 00:01:16,550 --> 00:01:19,628 se passavo una brutta giornata, o ero stressata, confusa, 26 00:01:19,628 --> 00:01:21,320 e questo era frustrante. 27 00:01:23,550 --> 00:01:27,431 Ancora peggio, dato che comunicavo online con la mia famiglia a casa, 28 00:01:29,281 --> 00:01:32,303 sentivo le mie emozioni scomparire nello cyberspazio. 29 00:01:32,703 --> 00:01:37,498 Mi mancava casa, ero sola, e alcuni giorni piangevo proprio, 30 00:01:37,838 --> 00:01:41,076 Ma tutto ciò che avevo per comunicare queste emozioni 31 00:01:41,676 --> 00:01:44,596 era questo. (Risate) 32 00:01:44,806 --> 00:01:48,990 La tecnologia oggigiorno ha tanto QI ma non IE. 33 00:01:48,990 --> 00:01:52,476 Tanta intelligenza cognitiva, ma nessuna Intelligenza Emotiva. 34 00:01:52,956 --> 00:01:54,843 E questo mi ha fatto pensare: 35 00:01:54,853 --> 00:01:59,057 e se la tecnologia potesse sentire le nostre emozioni? 36 00:01:59,057 --> 00:02:01,317 Se i dispositivi sapessero cosa proviamo 37 00:02:01,317 --> 00:02:02,853 e come reagiamo di conseguenza, 38 00:02:02,853 --> 00:02:05,776 come solo un amico emotivamente intelligente farebbe? 39 00:02:06,666 --> 00:02:09,840 Queste domande hanno portato me e il mio team 40 00:02:10,000 --> 00:02:13,897 a creare tecnologie che possono leggere e reagire alle nostre emozioni. 41 00:02:14,607 --> 00:02:17,227 E il nostro punto di partenza è stato il volto umano. 42 00:02:18,487 --> 00:02:21,840 Il nostro volto pare sia uno dei più potenti canali 43 00:02:21,840 --> 00:02:25,496 che usiamo per comunicare stati sociali ed emotivi. 44 00:02:25,706 --> 00:02:28,776 Qualsiasi cosa, dal piacere alla sorpresa, 45 00:02:29,256 --> 00:02:31,879 dall'empatia alla curiosità. 46 00:02:32,979 --> 00:02:37,637 In scienza delle emozioni ogni movimento muscolare è detto "unità d'azione". 47 00:02:37,907 --> 00:02:40,242 Per esempio, l'unità d'azione 12, 48 00:02:40,272 --> 00:02:42,620 non è un film di successo di Hollywood, 49 00:02:42,620 --> 00:02:46,022 ma è il tirare l'angolo della bocca, che è la base per un sorriso. 50 00:02:46,022 --> 00:02:48,380 Provateci tutti. Fate partire qualche sorriso. 51 00:02:48,900 --> 00:02:50,814 Un altro esempio è l'unità d'azione 4, 52 00:02:50,814 --> 00:02:53,782 è il solco tra le sopracciglia, quando le ravvicinate 53 00:02:53,782 --> 00:02:55,809 e create tutte quelle linee e quelle rughette. 54 00:02:55,809 --> 00:02:59,664 Non ci piacciono, ma è un forte segnale di un'emozione negativa. 55 00:02:59,944 --> 00:03:02,380 Ne abbiamo circa 45, di queste unità d'azione, 56 00:03:02,410 --> 00:03:05,510 che si combinano per esprimere centinaia di emozioni. 57 00:03:06,340 --> 00:03:09,831 Insegnare a un computer a leggere queste espressioni facciali è difficile, 58 00:03:10,211 --> 00:03:13,213 perché le unità d'azione possono essere veloci, impercettibili, 59 00:03:13,223 --> 00:03:15,247 e si combinano in tanti modi diversi. 60 00:03:15,627 --> 00:03:18,305 Prendiamo per esempio un sorriso e una smorfia. 61 00:03:19,525 --> 00:03:21,198 Sembrano in qualche modo simili, 62 00:03:21,498 --> 00:03:24,526 ma hanno significati molto diversi. (Risate) 63 00:03:24,986 --> 00:03:26,810 Il sorriso è positivo, 64 00:03:27,100 --> 00:03:28,920 una smorfia è spesso negativa. 65 00:03:28,920 --> 00:03:32,456 Qualche volta una smorfia può farti diventare famoso. (Risate) 66 00:03:33,136 --> 00:03:35,900 Ma seriamente, è importante per un computer essere in grado 67 00:03:35,900 --> 00:03:38,355 di distinguere la differenza tra le due espressioni. 68 00:03:38,475 --> 00:03:40,097 Perciò come possiamo farlo? 69 00:03:40,197 --> 00:03:41,994 Diamo ai nostri algoritmi 70 00:03:42,044 --> 00:03:45,794 decine di migliaia di esempi di persone che sappiamo sorridono, 71 00:03:46,524 --> 00:03:49,339 di diverse etnie, età, genere, 72 00:03:49,529 --> 00:03:51,460 e facciamo lo stesso per le smorfie. 73 00:03:52,090 --> 00:03:53,704 E poi, usando il Deep Learning, 74 00:03:53,894 --> 00:03:56,870 l'algoritmo cerca tutte queste trame, queste rughe, 75 00:03:56,870 --> 00:03:59,090 e i mutamenti di forma sul nostro viso, 76 00:03:59,090 --> 00:04:02,442 e in pratica apprende che tutti i sorrisi hanno caratteristiche comuni, 77 00:04:02,592 --> 00:04:05,443 tutte le smorfie hanno caratteristiche leggermente diverse. 78 00:04:05,673 --> 00:04:07,781 E la prossima volta che vede un viso nuovo, 79 00:04:08,001 --> 00:04:13,020 capisce che quel viso ha le stesse caratteristiche di un sorriso, 80 00:04:13,093 --> 00:04:16,581 e dice: "La riconosco. È un'espressione sorridente". 81 00:04:18,271 --> 00:04:21,351 E il miglior modo per dimostrare come funziona questa tecnologia 82 00:04:21,351 --> 00:04:23,197 è una dimostrazione dal vivo, 83 00:04:23,317 --> 00:04:26,820 perciò mi serve un volontario, possibilmente qualcuno con una faccia. 84 00:04:26,820 --> 00:04:28,864 (Risate) 85 00:04:29,564 --> 00:04:31,785 Chloe sarà la nostra volontaria oggi. 86 00:04:33,325 --> 00:04:37,783 Negli ultimi cinque anni siamo passati dall'essere un progetto di ricerca al MIT 87 00:04:37,783 --> 00:04:40,709 ad essere una società, in cui il mio team ha lavorato sodo 88 00:04:40,709 --> 00:04:43,801 per far funzionare questa tecnologia, noi diciamo, come bestie. 89 00:04:44,120 --> 00:04:47,210 E l'abbiamo anche compressa così che il sistema emotivo centrale 90 00:04:47,210 --> 00:04:50,410 funzioni su tutti i dispositivi con videocamera, come questo Ipad. 91 00:04:50,530 --> 00:04:52,146 Facciamo una prova. 92 00:04:54,756 --> 00:04:58,680 Come potete vedere, l'algoritmo ha praticamente trovato il viso di Chloe, 93 00:04:58,680 --> 00:05:00,372 è questo riquadro bianco ai bordi, 94 00:05:00,372 --> 00:05:02,903 e sta tracciando i lineamenti principali del suo viso, 95 00:05:02,903 --> 00:05:05,059 cioè sopracciglia, occhi, bocca e naso. 96 00:05:05,779 --> 00:05:08,556 La domanda è: riconosce le sue espressioni? 97 00:05:08,556 --> 00:05:10,007 Testiamo la macchina. 98 00:05:10,007 --> 00:05:12,133 Prima di tutto, fai una faccia impassibile. 99 00:05:12,133 --> 00:05:14,643 Fantastico. (Risate) 100 00:05:14,643 --> 00:05:17,576 Poi se lei sorride, è un sorriso sincero, va benissimo, 101 00:05:17,576 --> 00:05:19,646 vedete la linea verde salire se sorride. 102 00:05:19,646 --> 00:05:22,188 Quello era un gran sorriso, puoi provare un sorrisetto 103 00:05:22,188 --> 00:05:25,221 per vedere se il computer lo riconosce? Riconosce anche quelli. 104 00:05:25,221 --> 00:05:27,267 Abbiamo lavorato duramente per riuscirci. 105 00:05:27,607 --> 00:05:31,239 E ora sopracciglia alzate, indice di sorpresa. (Risate) 106 00:05:31,439 --> 00:05:35,688 Accigliata, che è indice di confusione. (Risate) 107 00:05:35,688 --> 00:05:39,695 Corrucciata, perfetto. (Risate) 108 00:05:39,695 --> 00:05:42,668 Sono tutte unità d'azione diverse, e ce ne sono tante altre. 109 00:05:42,668 --> 00:05:44,710 Questa è solo una demo compressa. 110 00:05:44,910 --> 00:05:48,048 Ma chiamiamo ogni interpretazione "punto dati dell'emozione", 111 00:05:48,368 --> 00:05:51,367 e possono accendersi insieme e descrivere emozioni differenti, 112 00:05:51,367 --> 00:05:54,910 sul lato destro della demo. Sembri felice. 113 00:05:55,220 --> 00:05:57,144 C'è gioia. E "Joy" si accende. 114 00:05:57,444 --> 00:05:59,241 Poi fai una faccia disgustata. 115 00:05:59,241 --> 00:06:02,763 Prova a ricordare com'è stato quando Zayn ha lasciato i One Direction. 116 00:06:02,763 --> 00:06:04,573 (Risate) 117 00:06:04,573 --> 00:06:08,035 Arriccia il naso. Fantastico. (Risate) 118 00:06:09,495 --> 00:06:13,046 La valenza è abbastanza negativa, devi essere stata una grande fan. 119 00:06:13,046 --> 00:06:15,926 "Valence" è quanto positiva o negativa sia un'esperienza, 120 00:06:15,926 --> 00:06:18,452 ed "engagement" indica quanto lei è espressiva. 121 00:06:18,712 --> 00:06:22,256 Immaginate se Chloe entrasse in questo flusso emotivo in tempo reale 122 00:06:22,256 --> 00:06:24,755 e potesse condividerlo con chiunque volesse. 123 00:06:24,855 --> 00:06:26,238 Grazie. 124 00:06:26,268 --> 00:06:30,889 (Applausi) 125 00:06:33,749 --> 00:06:38,809 Ad oggi abbiamo accumulato 12 miliardi di questi punti dati dell'emozione. 126 00:06:38,819 --> 00:06:41,140 È il più vasto database di emozioni al mondo. 127 00:06:41,170 --> 00:06:44,383 Lo abbiamo messo insieme da 2,9 milioni di video facciali, 128 00:06:44,593 --> 00:06:47,193 persone che hanno condiviso le loro emozioni con noi, 129 00:06:47,193 --> 00:06:50,228 e da 75 Paesi di tutto il mondo. 130 00:06:50,268 --> 00:06:51,783 E si arricchisce ogni giorno. 131 00:06:52,593 --> 00:06:56,270 Mi sbalordisce che oggi possiamo misurare qualcosa 132 00:06:56,270 --> 00:06:57,985 di così personale come le emozioni, 133 00:06:57,985 --> 00:06:59,850 e possiamo farlo così ampiamente. 134 00:06:59,970 --> 00:07:02,137 Cosa abbiamo quindi imparato a determinare? 135 00:07:03,057 --> 00:07:04,248 Il genere. 136 00:07:05,328 --> 00:07:08,934 I nostri dati confermano qualcosa di cui potete sospettare. (Risate) 137 00:07:08,934 --> 00:07:10,891 Le donne sono più espressive degli uomini. 138 00:07:10,891 --> 00:07:13,574 Non solo sorridono di più ma i loro sorrisi durano di più 139 00:07:13,574 --> 00:07:16,478 e possiamo davvero determinare a cosa uomini e donne 140 00:07:16,478 --> 00:07:18,094 reagiscono in modo differente. 141 00:07:18,614 --> 00:07:20,904 Vediamo culturalmente. Negli Stati Uniti 142 00:07:20,904 --> 00:07:23,828 le donne sono per il 40 % più espressive degli uomini, 143 00:07:23,988 --> 00:07:27,753 ma -strano- non c'è alcuna differenza nel Regno Unito tra uomini e donne. 144 00:07:27,753 --> 00:07:30,019 (Risate) 145 00:07:31,296 --> 00:07:35,323 Età: le persone dai 50 anni in su 146 00:07:35,323 --> 00:07:38,269 sono per il 25 % più emotive dei più giovani. 147 00:07:39,519 --> 00:07:43,541 Le donne ventenni sorridono molto più degli uomini della stessa età, 148 00:07:43,621 --> 00:07:45,960 forse per necessità relazionali. 149 00:07:47,510 --> 00:07:50,007 Ma forse ciò che ci ha sorpresi di più in questi dati 150 00:07:50,007 --> 00:07:53,260 è che ci ritroviamo a essere espressivi in ogni momento, 151 00:07:53,260 --> 00:07:55,973 anche quando siamo seduti da soli coi nostri dispositivi, 152 00:07:56,163 --> 00:07:59,307 non solo quando stiamo guardando video di gatti su Facebook. 153 00:07:59,987 --> 00:08:03,077 Siamo espressivi quando inviamo email, messaggi, compriamo online, 154 00:08:03,077 --> 00:08:04,757 o anche calcolando le tasse. 155 00:08:05,627 --> 00:08:07,659 Per cosa sono usati questi dati oggi? 156 00:08:07,919 --> 00:08:10,312 Per capire come ci relazioniamo coi media, 157 00:08:10,312 --> 00:08:12,846 cioè comprendere la viralità e la modalità di scelta; 158 00:08:13,166 --> 00:08:16,606 e anche per dare potere o attivare emotivamente la tecnologia. 159 00:08:16,606 --> 00:08:20,067 Voglio condividere alcuni esempi particolarmente vicini al mio cuore. 160 00:08:21,197 --> 00:08:24,265 Occhiali abilitati all'emozione possono aiutare gli individui 161 00:08:24,265 --> 00:08:27,263 con problemi di vista a leggere i volti degli altri, 162 00:08:27,463 --> 00:08:31,050 e possono aiutare individui con tendenza autistica a interpretare emozioni 163 00:08:31,050 --> 00:08:33,148 qualcosa con cui combattono realmente. 164 00:08:35,508 --> 00:08:38,897 Nell'istruzione, immaginate se la vostra app per l'apprendimento 165 00:08:38,897 --> 00:08:41,347 capisse che siete confusi e rallentasse, 166 00:08:41,347 --> 00:08:43,444 o che siete annoiati, così da accelerare, 167 00:08:43,444 --> 00:08:45,853 proprio come farebbe un bravo insegnante in classe. 168 00:08:46,873 --> 00:08:49,644 Se il vostro orologio tracciasse il vostro umore, 169 00:08:49,644 --> 00:08:51,947 o se l'auto sentisse che siete stanchi, 170 00:08:52,257 --> 00:08:54,885 o magari il vostro frigo sapesse che siete stressati, 171 00:08:54,885 --> 00:08:59,001 così da bloccarsi automaticamente per evitarvi un'abbuffata. (Risate) 172 00:08:59,001 --> 00:09:01,718 A me piacerebbe. (Risate) 173 00:09:03,668 --> 00:09:05,515 E se, quando ero a Cambridge, 174 00:09:05,515 --> 00:09:07,908 fossi entrata nel mio flusso emotivo in tempo reale 175 00:09:07,908 --> 00:09:11,437 e avessi potuto condividerlo con la mia famiglia in modo spontaneo, 176 00:09:11,437 --> 00:09:14,708 come avrei fatto se fossimo stati insieme nella stessa stanza? 177 00:09:15,408 --> 00:09:18,140 Credo che nel giro di cinque anni 178 00:09:18,160 --> 00:09:20,797 tutti i dispositivi avranno un chip per le emozioni, 179 00:09:20,887 --> 00:09:23,951 e non ricorderemo com'era quando non potevamo guardar male 180 00:09:23,951 --> 00:09:28,120 il nostro dispositivosenza che dicesse: "Non ti piaceva, vero? 181 00:09:29,140 --> 00:09:32,751 La grande sfida è che ci sono così tante applicazioni di questa tecnologia 182 00:09:32,751 --> 00:09:35,804 che io e il mio team sappiamo di non poter realizzare da soli. 183 00:09:35,804 --> 00:09:39,110 Perciò l'abbiamo resa disponibile così che altri sviluppatori 184 00:09:39,110 --> 00:09:41,194 possano svilupparla ed essere creativi. 185 00:09:41,474 --> 00:09:45,560 Ammettiamo che ci sono rischi potenziali 186 00:09:45,560 --> 00:09:47,247 e la possibilità di abuso, 187 00:09:47,627 --> 00:09:50,266 ma personalmente, avendo passato tanti anni a farlo, 188 00:09:50,326 --> 00:09:53,078 credo che i benefici per l'uomo 189 00:09:53,078 --> 00:09:55,463 nell'avere una tecnologia emotivamente intelligente 190 00:09:55,573 --> 00:09:58,959 siano di gran lunga maggiori del potenziale uso improprio. 191 00:09:59,179 --> 00:10:01,800 E vi invito a essere tutti parte della conversazione. 192 00:10:01,800 --> 00:10:04,244 Più persone conoscono questa tecnologia, 193 00:10:04,314 --> 00:10:07,351 più possiamo tutti avere voce su come va usata. 194 00:10:09,081 --> 00:10:13,155 Dato che sempre più le nostre vite diventano digitali, 195 00:10:13,655 --> 00:10:17,153 combattiamo una battaglia persa cercando di frenare l'uso dei dispositivi 196 00:10:17,153 --> 00:10:19,382 per ritrovare le nostre emozioni. 197 00:10:20,532 --> 00:10:24,566 Quello che invece cerco di fare è portare le emozioni nella nostra tecnologia 198 00:10:24,566 --> 00:10:26,585 e renderla più reattiva. 199 00:10:26,585 --> 00:10:29,195 Voglio che quei dispositivi che ci hanno divisi 200 00:10:29,345 --> 00:10:31,047 ci uniscano di nuovo. 201 00:10:32,207 --> 00:10:36,275 E umanizzando la tecnologia abbiamo un'opportunità d'oro 202 00:10:36,485 --> 00:10:39,632 per ripensare a come siamo connessi con le macchine, 203 00:10:39,992 --> 00:10:43,943 e quindi a come, in quanto esseri umani, 204 00:10:44,163 --> 00:10:45,887 siamo connessi agli altri. 205 00:10:46,037 --> 00:10:47,047 Grazie. 206 00:10:47,047 --> 00:10:50,750 (Applausi)