WEBVTT 00:00:00.706 --> 00:00:04.353 Le emozioni influenzano ogni aspetto delle nostre vite, 00:00:04.523 --> 00:00:07.963 dalla salute, da come impariamo, al fare affari e a prendere decisioni, 00:00:08.149 --> 00:00:09.442 grandi e piccole. 00:00:10.452 --> 00:00:14.072 Le nostre emozioni influenzano anche il modo di relazionarci l'un l'altro. 00:00:15.102 --> 00:00:18.418 Ci siamo evoluti per vivere in un mondo così. 00:00:19.088 --> 00:00:23.317 Ma invece viviamo sempre più le nostre vite così, 00:00:23.347 --> 00:00:26.571 - questo è il messaggio di mia figlia la notte scorsa (risate) - 00:00:26.971 --> 00:00:29.141 in un mondo privo di emozioni. 00:00:29.251 --> 00:00:31.202 Perciò la mia missione è cambiare le cose. 00:00:31.202 --> 00:00:34.933 Voglio riportare le emozioni nelle nostre esperienze digitali. NOTE Paragraph 00:00:36.223 --> 00:00:38.960 Ho intrapreso questo percorso 15 anni fa. 00:00:38.960 --> 00:00:41.526 Ero un'esperta di informatica in Egitto, 00:00:41.526 --> 00:00:45.661 da poco ammessa a un Dottorato di Ricerca alla Cambridge University. 00:00:45.871 --> 00:00:47.984 Avevo fatto qualcosa di alquanto inusuale 00:00:47.984 --> 00:00:51.779 per una giovane moglie Musulmana Egiziana appena sposata. 00:00:51.949 --> 00:00:53.599 (Risate) 00:00:53.599 --> 00:00:56.538 Con il sostegno di mio marito, che dovette restare in Egitto, 00:00:56.538 --> 00:00:58.986 feci i bagagli e mi trasferii in Inghilterra. 00:00:59.616 --> 00:01:02.694 A Cambridge, lontana migliaia di chilometri da casa, 00:01:02.844 --> 00:01:05.937 capii che trascorrevo molte più ore col mio computer 00:01:05.937 --> 00:01:07.916 che con altri esseri umani. 00:01:08.376 --> 00:01:09.939 Eppure, nonostante l'intimità, 00:01:09.939 --> 00:01:13.209 il mio computer non aveva assolutamente idea di come mi sentissi. 00:01:13.339 --> 00:01:15.490 Non sapeva se ero felice, 00:01:16.550 --> 00:01:19.628 se passavo una brutta giornata, o ero stressata, confusa, 00:01:19.628 --> 00:01:21.320 e questo era frustrante. 00:01:23.550 --> 00:01:27.431 Ancora peggio, dato che comunicavo online con la mia famiglia a casa, 00:01:29.281 --> 00:01:32.303 sentivo le mie emozioni scomparire nello cyberspazio. 00:01:32.703 --> 00:01:37.498 Mi mancava casa, ero sola, e alcuni giorni piangevo proprio, 00:01:37.838 --> 00:01:41.076 Ma tutto ciò che avevo per comunicare queste emozioni 00:01:41.676 --> 00:01:44.596 era questo. (Risate) 00:01:44.806 --> 00:01:48.990 La tecnologia oggigiorno ha tanto QI ma non IE. 00:01:48.990 --> 00:01:52.476 Tanta intelligenza cognitiva, ma nessuna Intelligenza Emotiva. 00:01:52.956 --> 00:01:54.843 E questo mi ha fatto pensare: 00:01:54.853 --> 00:01:59.057 e se la tecnologia potesse sentire le nostre emozioni? 00:01:59.057 --> 00:02:01.317 Se i dispositivi sapessero cosa proviamo 00:02:01.317 --> 00:02:02.853 e come reagiamo di conseguenza, 00:02:02.853 --> 00:02:05.776 come solo un amico emotivamente intelligente farebbe? 00:02:06.666 --> 00:02:09.840 Queste domande hanno portato me e il mio team 00:02:10.000 --> 00:02:13.897 a creare tecnologie che possono leggere e reagire alle nostre emozioni. 00:02:14.607 --> 00:02:17.227 E il nostro punto di partenza è stato il volto umano. NOTE Paragraph 00:02:18.487 --> 00:02:21.840 Il nostro volto pare sia uno dei più potenti canali 00:02:21.840 --> 00:02:25.496 che usiamo per comunicare stati sociali ed emotivi. 00:02:25.706 --> 00:02:28.776 Qualsiasi cosa, dal piacere alla sorpresa, 00:02:29.256 --> 00:02:31.879 dall'empatia alla curiosità. 00:02:32.979 --> 00:02:37.637 In scienza delle emozioni ogni movimento muscolare è detto "unità d'azione". 00:02:37.907 --> 00:02:40.242 Per esempio, l'unità d'azione 12, 00:02:40.272 --> 00:02:42.620 non è un film di successo di Hollywood, 00:02:42.620 --> 00:02:46.022 ma è il tirare l'angolo della bocca, che è la base per un sorriso. 00:02:46.022 --> 00:02:48.380 Provateci tutti. Fate partire qualche sorriso. 00:02:48.900 --> 00:02:50.814 Un altro esempio è l'unità d'azione 4, 00:02:50.814 --> 00:02:53.782 è il solco tra le sopracciglia, quando le ravvicinate 00:02:53.782 --> 00:02:55.809 e create tutte quelle linee e quelle rughette. 00:02:55.809 --> 00:02:59.664 Non ci piacciono, ma è un forte segnale di un'emozione negativa. 00:02:59.944 --> 00:03:02.380 Ne abbiamo circa 45, di queste unità d'azione, 00:03:02.410 --> 00:03:05.510 che si combinano per esprimere centinaia di emozioni. NOTE Paragraph 00:03:06.340 --> 00:03:09.831 Insegnare a un computer a leggere queste espressioni facciali è difficile, 00:03:10.211 --> 00:03:13.213 perché le unità d'azione possono essere veloci, impercettibili, 00:03:13.223 --> 00:03:15.247 e si combinano in tanti modi diversi. 00:03:15.627 --> 00:03:18.305 Prendiamo per esempio un sorriso e una smorfia. 00:03:19.525 --> 00:03:21.198 Sembrano in qualche modo simili, 00:03:21.498 --> 00:03:24.526 ma hanno significati molto diversi. (Risate) 00:03:24.986 --> 00:03:26.810 Il sorriso è positivo, 00:03:27.100 --> 00:03:28.920 una smorfia è spesso negativa. 00:03:28.920 --> 00:03:32.456 Qualche volta una smorfia può farti diventare famoso. (Risate) 00:03:33.136 --> 00:03:35.900 Ma seriamente, è importante per un computer essere in grado 00:03:35.900 --> 00:03:38.355 di distinguere la differenza tra le due espressioni. NOTE Paragraph 00:03:38.475 --> 00:03:40.097 Perciò come possiamo farlo? 00:03:40.197 --> 00:03:41.994 Diamo ai nostri algoritmi 00:03:42.044 --> 00:03:45.794 decine di migliaia di esempi di persone che sappiamo sorridono, 00:03:46.524 --> 00:03:49.339 di diverse etnie, età, genere, 00:03:49.529 --> 00:03:51.460 e facciamo lo stesso per le smorfie. 00:03:52.090 --> 00:03:53.704 E poi, usando il Deep Learning, 00:03:53.894 --> 00:03:56.870 l'algoritmo cerca tutte queste trame, queste rughe, 00:03:56.870 --> 00:03:59.090 e i mutamenti di forma sul nostro viso, 00:03:59.090 --> 00:04:02.442 e in pratica apprende che tutti i sorrisi hanno caratteristiche comuni, 00:04:02.592 --> 00:04:05.443 tutte le smorfie hanno caratteristiche leggermente diverse. 00:04:05.673 --> 00:04:07.781 E la prossima volta che vede un viso nuovo, 00:04:08.001 --> 00:04:13.020 capisce che quel viso ha le stesse caratteristiche di un sorriso, 00:04:13.093 --> 00:04:16.581 e dice: "La riconosco. È un'espressione sorridente". NOTE Paragraph 00:04:18.271 --> 00:04:21.351 E il miglior modo per dimostrare come funziona questa tecnologia 00:04:21.351 --> 00:04:23.197 è una dimostrazione dal vivo, 00:04:23.317 --> 00:04:26.820 perciò mi serve un volontario, possibilmente qualcuno con una faccia. 00:04:26.820 --> 00:04:28.864 (Risate) 00:04:29.564 --> 00:04:31.785 Chloe sarà la nostra volontaria oggi. NOTE Paragraph 00:04:33.325 --> 00:04:37.783 Negli ultimi cinque anni siamo passati dall'essere un progetto di ricerca al MIT 00:04:37.783 --> 00:04:40.709 ad essere una società, in cui il mio team ha lavorato sodo 00:04:40.709 --> 00:04:43.801 per far funzionare questa tecnologia, noi diciamo, come bestie. 00:04:44.120 --> 00:04:47.210 E l'abbiamo anche compressa così che il sistema emotivo centrale 00:04:47.210 --> 00:04:50.410 funzioni su tutti i dispositivi con videocamera, come questo Ipad. 00:04:50.530 --> 00:04:52.146 Facciamo una prova. NOTE Paragraph 00:04:54.756 --> 00:04:58.680 Come potete vedere, l'algoritmo ha praticamente trovato il viso di Chloe, 00:04:58.680 --> 00:05:00.372 è questo riquadro bianco ai bordi, 00:05:00.372 --> 00:05:02.903 e sta tracciando i lineamenti principali del suo viso, 00:05:02.903 --> 00:05:05.059 cioè sopracciglia, occhi, bocca e naso. 00:05:05.779 --> 00:05:08.556 La domanda è: riconosce le sue espressioni? 00:05:08.556 --> 00:05:10.007 Testiamo la macchina. 00:05:10.007 --> 00:05:12.133 Prima di tutto, fai una faccia impassibile. 00:05:12.133 --> 00:05:14.643 Fantastico. (Risate) 00:05:14.643 --> 00:05:17.576 Poi se lei sorride, è un sorriso sincero, va benissimo, 00:05:17.576 --> 00:05:19.646 vedete la linea verde salire se sorride. 00:05:19.646 --> 00:05:22.188 Quello era un gran sorriso, puoi provare un sorrisetto 00:05:22.188 --> 00:05:25.221 per vedere se il computer lo riconosce? Riconosce anche quelli. 00:05:25.221 --> 00:05:27.267 Abbiamo lavorato duramente per riuscirci. 00:05:27.607 --> 00:05:31.239 E ora sopracciglia alzate, indice di sorpresa. (Risate) 00:05:31.439 --> 00:05:35.688 Accigliata, che è indice di confusione. (Risate) 00:05:35.688 --> 00:05:39.695 Corrucciata, perfetto. (Risate) 00:05:39.695 --> 00:05:42.668 Sono tutte unità d'azione diverse, e ce ne sono tante altre. 00:05:42.668 --> 00:05:44.710 Questa è solo una demo compressa. 00:05:44.910 --> 00:05:48.048 Ma chiamiamo ogni interpretazione "punto dati dell'emozione", 00:05:48.368 --> 00:05:51.367 e possono accendersi insieme e descrivere emozioni differenti, 00:05:51.367 --> 00:05:54.910 sul lato destro della demo. Sembri felice. 00:05:55.220 --> 00:05:57.144 C'è gioia. E "Joy" si accende. 00:05:57.444 --> 00:05:59.241 Poi fai una faccia disgustata. 00:05:59.241 --> 00:06:02.763 Prova a ricordare com'è stato quando Zayn ha lasciato i One Direction. 00:06:02.763 --> 00:06:04.573 (Risate) 00:06:04.573 --> 00:06:08.035 Arriccia il naso. Fantastico. (Risate) 00:06:09.495 --> 00:06:13.046 La valenza è abbastanza negativa, devi essere stata una grande fan. 00:06:13.046 --> 00:06:15.926 "Valence" è quanto positiva o negativa sia un'esperienza, 00:06:15.926 --> 00:06:18.452 ed "engagement" indica quanto lei è espressiva. 00:06:18.712 --> 00:06:22.256 Immaginate se Chloe entrasse in questo flusso emotivo in tempo reale 00:06:22.256 --> 00:06:24.755 e potesse condividerlo con chiunque volesse. 00:06:24.855 --> 00:06:26.238 Grazie. 00:06:26.268 --> 00:06:30.889 (Applausi) NOTE Paragraph 00:06:33.749 --> 00:06:38.809 Ad oggi abbiamo accumulato 12 miliardi di questi punti dati dell'emozione. 00:06:38.819 --> 00:06:41.140 È il più vasto database di emozioni al mondo. 00:06:41.170 --> 00:06:44.383 Lo abbiamo messo insieme da 2,9 milioni di video facciali, 00:06:44.593 --> 00:06:47.193 persone che hanno condiviso le loro emozioni con noi, 00:06:47.193 --> 00:06:50.228 e da 75 Paesi di tutto il mondo. 00:06:50.268 --> 00:06:51.783 E si arricchisce ogni giorno. 00:06:52.593 --> 00:06:56.270 Mi sbalordisce che oggi possiamo misurare qualcosa 00:06:56.270 --> 00:06:57.985 di così personale come le emozioni, 00:06:57.985 --> 00:06:59.850 e possiamo farlo così ampiamente. NOTE Paragraph 00:06:59.970 --> 00:07:02.137 Cosa abbiamo quindi imparato a determinare? 00:07:03.057 --> 00:07:04.248 Il genere. 00:07:05.328 --> 00:07:08.934 I nostri dati confermano qualcosa di cui potete sospettare. (Risate) 00:07:08.934 --> 00:07:10.891 Le donne sono più espressive degli uomini. 00:07:10.891 --> 00:07:13.574 Non solo sorridono di più ma i loro sorrisi durano di più 00:07:13.574 --> 00:07:16.478 e possiamo davvero determinare a cosa uomini e donne 00:07:16.478 --> 00:07:18.094 reagiscono in modo differente. 00:07:18.614 --> 00:07:20.904 Vediamo culturalmente. Negli Stati Uniti 00:07:20.904 --> 00:07:23.828 le donne sono per il 40 % più espressive degli uomini, 00:07:23.988 --> 00:07:27.753 ma -strano- non c'è alcuna differenza nel Regno Unito tra uomini e donne. 00:07:27.753 --> 00:07:30.019 (Risate) 00:07:31.296 --> 00:07:35.323 Età: le persone dai 50 anni in su 00:07:35.323 --> 00:07:38.269 sono per il 25 % più emotive dei più giovani. 00:07:39.519 --> 00:07:43.541 Le donne ventenni sorridono molto più degli uomini della stessa età, 00:07:43.621 --> 00:07:45.960 forse per necessità relazionali. 00:07:47.510 --> 00:07:50.007 Ma forse ciò che ci ha sorpresi di più in questi dati 00:07:50.007 --> 00:07:53.260 è che ci ritroviamo a essere espressivi in ogni momento, 00:07:53.260 --> 00:07:55.973 anche quando siamo seduti da soli coi nostri dispositivi, 00:07:56.163 --> 00:07:59.307 non solo quando stiamo guardando video di gatti su Facebook. 00:07:59.987 --> 00:08:03.077 Siamo espressivi quando inviamo email, messaggi, compriamo online, 00:08:03.077 --> 00:08:04.757 o anche calcolando le tasse. NOTE Paragraph 00:08:05.627 --> 00:08:07.659 Per cosa sono usati questi dati oggi? 00:08:07.919 --> 00:08:10.312 Per capire come ci relazioniamo coi media, 00:08:10.312 --> 00:08:12.846 cioè comprendere la viralità e la modalità di scelta; 00:08:13.166 --> 00:08:16.606 e anche per dare potere o attivare emotivamente la tecnologia. 00:08:16.606 --> 00:08:20.067 Voglio condividere alcuni esempi particolarmente vicini al mio cuore. 00:08:21.197 --> 00:08:24.265 Occhiali abilitati all'emozione possono aiutare gli individui 00:08:24.265 --> 00:08:27.263 con problemi di vista a leggere i volti degli altri, 00:08:27.463 --> 00:08:31.050 e possono aiutare individui con tendenza autistica a interpretare emozioni 00:08:31.050 --> 00:08:33.148 qualcosa con cui combattono realmente. 00:08:35.508 --> 00:08:38.897 Nell'istruzione, immaginate se la vostra app per l'apprendimento 00:08:38.897 --> 00:08:41.347 capisse che siete confusi e rallentasse, 00:08:41.347 --> 00:08:43.444 o che siete annoiati, così da accelerare, 00:08:43.444 --> 00:08:45.853 proprio come farebbe un bravo insegnante in classe. 00:08:46.873 --> 00:08:49.644 Se il vostro orologio tracciasse il vostro umore, 00:08:49.644 --> 00:08:51.947 o se l'auto sentisse che siete stanchi, 00:08:52.257 --> 00:08:54.885 o magari il vostro frigo sapesse che siete stressati, 00:08:54.885 --> 00:08:59.001 così da bloccarsi automaticamente per evitarvi un'abbuffata. (Risate) 00:08:59.001 --> 00:09:01.718 A me piacerebbe. (Risate) 00:09:03.668 --> 00:09:05.515 E se, quando ero a Cambridge, 00:09:05.515 --> 00:09:07.908 fossi entrata nel mio flusso emotivo in tempo reale 00:09:07.908 --> 00:09:11.437 e avessi potuto condividerlo con la mia famiglia in modo spontaneo, 00:09:11.437 --> 00:09:14.708 come avrei fatto se fossimo stati insieme nella stessa stanza? NOTE Paragraph 00:09:15.408 --> 00:09:18.140 Credo che nel giro di cinque anni 00:09:18.160 --> 00:09:20.797 tutti i dispositivi avranno un chip per le emozioni, 00:09:20.887 --> 00:09:23.951 e non ricorderemo com'era quando non potevamo guardar male 00:09:23.951 --> 00:09:28.120 il nostro dispositivosenza che dicesse: "Non ti piaceva, vero? 00:09:29.140 --> 00:09:32.751 La grande sfida è che ci sono così tante applicazioni di questa tecnologia 00:09:32.751 --> 00:09:35.804 che io e il mio team sappiamo di non poter realizzare da soli. 00:09:35.804 --> 00:09:39.110 Perciò l'abbiamo resa disponibile così che altri sviluppatori 00:09:39.110 --> 00:09:41.194 possano svilupparla ed essere creativi. 00:09:41.474 --> 00:09:45.560 Ammettiamo che ci sono rischi potenziali 00:09:45.560 --> 00:09:47.247 e la possibilità di abuso, 00:09:47.627 --> 00:09:50.266 ma personalmente, avendo passato tanti anni a farlo, 00:09:50.326 --> 00:09:53.078 credo che i benefici per l'uomo 00:09:53.078 --> 00:09:55.463 nell'avere una tecnologia emotivamente intelligente 00:09:55.573 --> 00:09:58.959 siano di gran lunga maggiori del potenziale uso improprio. 00:09:59.179 --> 00:10:01.800 E vi invito a essere tutti parte della conversazione. 00:10:01.800 --> 00:10:04.244 Più persone conoscono questa tecnologia, 00:10:04.314 --> 00:10:07.351 più possiamo tutti avere voce su come va usata. 00:10:09.081 --> 00:10:13.155 Dato che sempre più le nostre vite diventano digitali, 00:10:13.655 --> 00:10:17.153 combattiamo una battaglia persa cercando di frenare l'uso dei dispositivi 00:10:17.153 --> 00:10:19.382 per ritrovare le nostre emozioni. 00:10:20.532 --> 00:10:24.566 Quello che invece cerco di fare è portare le emozioni nella nostra tecnologia 00:10:24.566 --> 00:10:26.585 e renderla più reattiva. 00:10:26.585 --> 00:10:29.195 Voglio che quei dispositivi che ci hanno divisi 00:10:29.345 --> 00:10:31.047 ci uniscano di nuovo. 00:10:32.207 --> 00:10:36.275 E umanizzando la tecnologia abbiamo un'opportunità d'oro 00:10:36.485 --> 00:10:39.632 per ripensare a come siamo connessi con le macchine, 00:10:39.992 --> 00:10:43.943 e quindi a come, in quanto esseri umani, 00:10:44.163 --> 00:10:45.887 siamo connessi agli altri. NOTE Paragraph 00:10:46.037 --> 00:10:47.047 Grazie. NOTE Paragraph 00:10:47.047 --> 00:10:50.750 (Applausi)