0:00:00.706,0:00:04.353 Le emozioni influenzano[br]ogni aspetto delle nostre vite, 0:00:04.523,0:00:07.963 dalla salute, da come impariamo,[br]al fare affari e a prendere decisioni, 0:00:08.149,0:00:09.442 grandi e piccole. 0:00:10.452,0:00:14.072 Le nostre emozioni influenzano anche[br]il modo di relazionarci l'un l'altro. 0:00:15.102,0:00:18.418 Ci siamo evoluti per vivere[br]in un mondo così. 0:00:19.088,0:00:23.317 Ma invece viviamo sempre più[br]le nostre vite così, 0:00:23.347,0:00:26.571 - questo è il messaggio[br]di mia figlia la notte scorsa (risate) - 0:00:26.971,0:00:29.141 in un mondo privo di emozioni. 0:00:29.251,0:00:31.202 Perciò la mia missione[br]è cambiare le cose. 0:00:31.202,0:00:34.933 Voglio riportare le emozioni[br]nelle nostre esperienze digitali. 0:00:36.223,0:00:38.960 Ho intrapreso questo percorso[br]15 anni fa. 0:00:38.960,0:00:41.526 Ero un'esperta di informatica in Egitto, 0:00:41.526,0:00:45.661 da poco ammessa a un Dottorato[br]di Ricerca alla Cambridge University. 0:00:45.871,0:00:47.984 Avevo fatto qualcosa [br]di alquanto inusuale 0:00:47.984,0:00:51.779 per una giovane moglie [br]Musulmana Egiziana appena sposata. 0:00:51.949,0:00:53.599 (Risate) 0:00:53.599,0:00:56.538 Con il sostegno di mio marito,[br]che dovette restare in Egitto, 0:00:56.538,0:00:58.986 feci i bagagli e mi trasferii[br]in Inghilterra. 0:00:59.616,0:01:02.694 A Cambridge,[br]lontana migliaia di chilometri da casa, 0:01:02.844,0:01:05.937 capii che trascorrevo[br]molte più ore col mio computer 0:01:05.937,0:01:07.916 che con altri esseri umani. 0:01:08.376,0:01:09.939 Eppure, nonostante l'intimità, 0:01:09.939,0:01:13.209 il mio computer non aveva[br]assolutamente idea di come mi sentissi. 0:01:13.339,0:01:15.490 Non sapeva se ero felice, 0:01:16.550,0:01:19.628 se passavo una brutta giornata,[br]o ero stressata, confusa, 0:01:19.628,0:01:21.320 e questo era frustrante. 0:01:23.550,0:01:27.431 Ancora peggio, dato che comunicavo[br]online con la mia famiglia a casa, 0:01:29.281,0:01:32.303 sentivo le mie emozioni[br]scomparire nello cyberspazio. 0:01:32.703,0:01:37.498 Mi mancava casa, ero sola,[br]e alcuni giorni piangevo proprio, 0:01:37.838,0:01:41.076 Ma tutto ciò che avevo per comunicare[br]queste emozioni 0:01:41.676,0:01:44.596 era questo.[br](Risate) 0:01:44.806,0:01:48.990 La tecnologia oggigiorno ha tanto QI[br]ma non IE. 0:01:48.990,0:01:52.476 Tanta intelligenza cognitiva,[br]ma nessuna Intelligenza Emotiva. 0:01:52.956,0:01:54.843 E questo mi ha fatto pensare: 0:01:54.853,0:01:59.057 e se la tecnologia potesse sentire[br]le nostre emozioni? 0:01:59.057,0:02:01.317 Se i dispositivi sapessero[br]cosa proviamo 0:02:01.317,0:02:02.853 e come reagiamo di conseguenza, 0:02:02.853,0:02:05.776 come solo un amico[br]emotivamente intelligente farebbe? 0:02:06.666,0:02:09.840 Queste domande[br]hanno portato me e il mio team 0:02:10.000,0:02:13.897 a creare tecnologie che possono leggere[br]e reagire alle nostre emozioni. 0:02:14.607,0:02:17.227 E il nostro punto di partenza[br]è stato il volto umano. 0:02:18.487,0:02:21.840 Il nostro volto pare sia[br]uno dei più potenti canali 0:02:21.840,0:02:25.496 che usiamo per comunicare[br]stati sociali ed emotivi. 0:02:25.706,0:02:28.776 Qualsiasi cosa, dal piacere alla sorpresa, 0:02:29.256,0:02:31.879 dall'empatia alla curiosità. 0:02:32.979,0:02:37.637 In scienza delle emozioni ogni movimento muscolare è detto[br]"unità d'azione". 0:02:37.907,0:02:40.242 Per esempio, l'unità d'azione 12, 0:02:40.272,0:02:42.620 non è un film di successo di Hollywood, 0:02:42.620,0:02:46.022 ma è il tirare l'angolo della bocca,[br]che è la base per un sorriso. 0:02:46.022,0:02:48.380 Provateci tutti.[br]Fate partire qualche sorriso. 0:02:48.900,0:02:50.814 Un altro esempio è l'unità d'azione 4, 0:02:50.814,0:02:53.782 è il solco tra le sopracciglia,[br]quando le ravvicinate 0:02:53.782,0:02:55.809 e create tutte quelle linee[br]e quelle rughette. 0:02:55.809,0:02:59.664 Non ci piacciono, ma è un forte[br]segnale di un'emozione negativa. 0:02:59.944,0:03:02.380 Ne abbiamo circa 45,[br]di queste unità d'azione, 0:03:02.410,0:03:05.510 che si combinano per esprimere[br]centinaia di emozioni. 0:03:06.340,0:03:09.831 Insegnare a un computer a leggere[br]queste espressioni facciali è difficile, 0:03:10.211,0:03:13.213 perché le unità d'azione[br]possono essere veloci, impercettibili, 0:03:13.223,0:03:15.247 e si combinano in tanti modi diversi. 0:03:15.627,0:03:18.305 Prendiamo per esempio[br]un sorriso e una smorfia. 0:03:19.525,0:03:21.198 Sembrano in qualche modo simili, 0:03:21.498,0:03:24.526 ma hanno significati molto diversi.[br](Risate) 0:03:24.986,0:03:26.810 Il sorriso è positivo, 0:03:27.100,0:03:28.920 una smorfia è spesso negativa. 0:03:28.920,0:03:32.456 Qualche volta una smorfia[br]può farti diventare famoso. (Risate) 0:03:33.136,0:03:35.900 Ma seriamente, è importante[br]per un computer essere in grado 0:03:35.900,0:03:38.355 di distinguere la differenza[br]tra le due espressioni. 0:03:38.475,0:03:40.097 Perciò come possiamo farlo? 0:03:40.197,0:03:41.994 Diamo ai nostri algoritmi 0:03:42.044,0:03:45.794 decine di migliaia di esempi[br]di persone che sappiamo sorridono, 0:03:46.524,0:03:49.339 di diverse etnie, età, genere, 0:03:49.529,0:03:51.460 e facciamo lo stesso per le smorfie. 0:03:52.090,0:03:53.704 E poi, usando il Deep Learning, 0:03:53.894,0:03:56.870 l'algoritmo cerca tutte queste[br]trame, queste rughe, 0:03:56.870,0:03:59.090 e i mutamenti di forma sul nostro viso, 0:03:59.090,0:04:02.442 e in pratica apprende che tutti i sorrisi[br]hanno caratteristiche comuni, 0:04:02.592,0:04:05.443 tutte le smorfie hanno caratteristiche[br]leggermente diverse. 0:04:05.673,0:04:07.781 E la prossima volta[br]che vede un viso nuovo, 0:04:08.001,0:04:13.020 capisce che quel viso ha le stesse [br]caratteristiche di un sorriso, 0:04:13.093,0:04:16.581 e dice: "La riconosco.[br]È un'espressione sorridente". 0:04:18.271,0:04:21.351 E il miglior modo per dimostrare[br]come funziona questa tecnologia 0:04:21.351,0:04:23.197 è una dimostrazione dal vivo, 0:04:23.317,0:04:26.820 perciò mi serve un volontario,[br]possibilmente qualcuno con una faccia. 0:04:26.820,0:04:28.864 (Risate) 0:04:29.564,0:04:31.785 Chloe sarà la nostra volontaria oggi. 0:04:33.325,0:04:37.783 Negli ultimi cinque anni siamo passati[br]dall'essere un progetto di ricerca al MIT 0:04:37.783,0:04:40.709 ad essere una società,[br]in cui il mio team ha lavorato sodo 0:04:40.709,0:04:43.801 per far funzionare questa tecnologia,[br]noi diciamo, come bestie. 0:04:44.120,0:04:47.210 E l'abbiamo anche compressa[br]così che il sistema emotivo centrale 0:04:47.210,0:04:50.410 funzioni su tutti i dispositivi[br]con videocamera, come questo Ipad. 0:04:50.530,0:04:52.146 Facciamo una prova. 0:04:54.756,0:04:58.680 Come potete vedere, l'algoritmo[br]ha praticamente trovato il viso di Chloe, 0:04:58.680,0:05:00.372 è questo riquadro bianco ai bordi, 0:05:00.372,0:05:02.903 e sta tracciando i lineamenti[br]principali del suo viso, 0:05:02.903,0:05:05.059 cioè sopracciglia, occhi,[br]bocca e naso. 0:05:05.779,0:05:08.556 La domanda è:[br]riconosce le sue espressioni? 0:05:08.556,0:05:10.007 Testiamo la macchina. 0:05:10.007,0:05:12.133 Prima di tutto,[br]fai una faccia impassibile. 0:05:12.133,0:05:14.643 Fantastico. (Risate) 0:05:14.643,0:05:17.576 Poi se lei sorride,[br]è un sorriso sincero, va benissimo, 0:05:17.576,0:05:19.646 vedete la linea verde salire se sorride. 0:05:19.646,0:05:22.188 Quello era un gran sorriso,[br]puoi provare un sorrisetto 0:05:22.188,0:05:25.221 per vedere se il computer lo riconosce?[br]Riconosce anche quelli. 0:05:25.221,0:05:27.267 Abbiamo lavorato duramente[br]per riuscirci. 0:05:27.607,0:05:31.239 E ora sopracciglia alzate,[br]indice di sorpresa. (Risate) 0:05:31.439,0:05:35.688 Accigliata, [br]che è indice di confusione. (Risate) 0:05:35.688,0:05:39.695 Corrucciata, perfetto.[br](Risate) 0:05:39.695,0:05:42.668 Sono tutte unità d'azione[br]diverse, e ce ne sono tante altre. 0:05:42.668,0:05:44.710 Questa è solo una demo compressa. 0:05:44.910,0:05:48.048 Ma chiamiamo ogni interpretazione[br]"punto dati dell'emozione", 0:05:48.368,0:05:51.367 e possono accendersi insieme[br]e descrivere emozioni differenti, 0:05:51.367,0:05:54.910 sul lato destro della demo.[br]Sembri felice. 0:05:55.220,0:05:57.144 C'è gioia. E "Joy" si accende. 0:05:57.444,0:05:59.241 Poi fai una faccia disgustata. 0:05:59.241,0:06:02.763 Prova a ricordare com'è stato[br]quando Zayn ha lasciato i One Direction. 0:06:02.763,0:06:04.573 (Risate) 0:06:04.573,0:06:08.035 Arriccia il naso. Fantastico.[br](Risate) 0:06:09.495,0:06:13.046 La valenza è abbastanza negativa,[br]devi essere stata una grande fan. 0:06:13.046,0:06:15.926 "Valence" è quanto positiva[br]o negativa sia un'esperienza, 0:06:15.926,0:06:18.452 ed "engagement" indica[br]quanto lei è espressiva. 0:06:18.712,0:06:22.256 Immaginate se Chloe entrasse[br]in questo flusso emotivo in tempo reale 0:06:22.256,0:06:24.755 e potesse condividerlo[br]con chiunque volesse. 0:06:24.855,0:06:26.238 Grazie. 0:06:26.268,0:06:30.889 (Applausi) 0:06:33.749,0:06:38.809 Ad oggi abbiamo accumulato 12 miliardi[br]di questi punti dati dell'emozione. 0:06:38.819,0:06:41.140 È il più vasto database di emozioni[br]al mondo. 0:06:41.170,0:06:44.383 Lo abbiamo messo insieme[br]da 2,9 milioni di video facciali, 0:06:44.593,0:06:47.193 persone che hanno condiviso[br]le loro emozioni con noi, 0:06:47.193,0:06:50.228 e da 75 Paesi di tutto il mondo. 0:06:50.268,0:06:51.783 E si arricchisce ogni giorno. 0:06:52.593,0:06:56.270 Mi sbalordisce che oggi[br]possiamo misurare qualcosa 0:06:56.270,0:06:57.985 di così personale come le emozioni, 0:06:57.985,0:06:59.850 e possiamo farlo così ampiamente. 0:06:59.970,0:07:02.137 Cosa abbiamo quindi imparato[br]a determinare? 0:07:03.057,0:07:04.248 Il genere. 0:07:05.328,0:07:08.934 I nostri dati confermano qualcosa[br]di cui potete sospettare. (Risate) 0:07:08.934,0:07:10.891 Le donne sono più espressive[br]degli uomini. 0:07:10.891,0:07:13.574 Non solo sorridono di più[br]ma i loro sorrisi durano di più 0:07:13.574,0:07:16.478 e possiamo davvero determinare[br]a cosa uomini e donne 0:07:16.478,0:07:18.094 reagiscono in modo differente. 0:07:18.614,0:07:20.904 Vediamo culturalmente.[br]Negli Stati Uniti 0:07:20.904,0:07:23.828 le donne sono per il 40 %[br]più espressive degli uomini, 0:07:23.988,0:07:27.753 ma -strano- non c'è alcuna differenza[br]nel Regno Unito tra uomini e donne. 0:07:27.753,0:07:30.019 (Risate) 0:07:31.296,0:07:35.323 Età: le persone dai 50 anni in su 0:07:35.323,0:07:38.269 sono per il 25 % più emotive[br]dei più giovani. 0:07:39.519,0:07:43.541 Le donne ventenni sorridono[br]molto più degli uomini della stessa età, 0:07:43.621,0:07:45.960 forse per necessità relazionali. 0:07:47.510,0:07:50.007 Ma forse ciò che ci ha sorpresi di più[br]in questi dati 0:07:50.007,0:07:53.260 è che ci ritroviamo a essere[br]espressivi in ogni momento, 0:07:53.260,0:07:55.973 anche quando siamo seduti[br]da soli coi nostri dispositivi, 0:07:56.163,0:07:59.307 non solo quando stiamo guardando[br]video di gatti su Facebook. 0:07:59.987,0:08:03.077 Siamo espressivi quando inviamo email,[br]messaggi, compriamo online, 0:08:03.077,0:08:04.757 o anche calcolando le tasse. 0:08:05.627,0:08:07.659 Per cosa sono usati questi dati oggi? 0:08:07.919,0:08:10.312 Per capire come ci relazioniamo[br]coi media, 0:08:10.312,0:08:12.846 cioè comprendere la viralità[br]e la modalità di scelta; 0:08:13.166,0:08:16.606 e anche per dare potere[br]o attivare emotivamente la tecnologia. 0:08:16.606,0:08:20.067 Voglio condividere alcuni esempi[br]particolarmente vicini al mio cuore. 0:08:21.197,0:08:24.265 Occhiali abilitati all'emozione[br]possono aiutare gli individui 0:08:24.265,0:08:27.263 con problemi di vista[br]a leggere i volti degli altri, 0:08:27.463,0:08:31.050 e possono aiutare individui con tendenza[br]autistica a interpretare emozioni 0:08:31.050,0:08:33.148 qualcosa con cui combattono realmente. 0:08:35.508,0:08:38.897 Nell'istruzione, immaginate[br]se la vostra app per l'apprendimento 0:08:38.897,0:08:41.347 capisse che siete confusi[br]e rallentasse, 0:08:41.347,0:08:43.444 o che siete annoiati,[br]così da accelerare, 0:08:43.444,0:08:45.853 proprio come farebbe[br]un bravo insegnante in classe. 0:08:46.873,0:08:49.644 Se il vostro orologio tracciasse[br]il vostro umore, 0:08:49.644,0:08:51.947 o se l'auto sentisse che siete stanchi, 0:08:52.257,0:08:54.885 o magari il vostro frigo[br]sapesse che siete stressati, 0:08:54.885,0:08:59.001 così da bloccarsi automaticamente[br]per evitarvi un'abbuffata. (Risate) 0:08:59.001,0:09:01.718 A me piacerebbe. (Risate) 0:09:03.668,0:09:05.515 E se, quando ero a Cambridge, 0:09:05.515,0:09:07.908 fossi entrata nel mio flusso[br]emotivo in tempo reale 0:09:07.908,0:09:11.437 e avessi potuto condividerlo[br]con la mia famiglia in modo spontaneo, 0:09:11.437,0:09:14.708 come avrei fatto se fossimo stati insieme[br]nella stessa stanza? 0:09:15.408,0:09:18.140 Credo che nel giro di cinque anni 0:09:18.160,0:09:20.797 tutti i dispositivi avranno[br]un chip per le emozioni, 0:09:20.887,0:09:23.951 e non ricorderemo com'era quando[br]non potevamo guardar male 0:09:23.951,0:09:28.120 il nostro dispositivosenza che dicesse:[br]"Non ti piaceva, vero? 0:09:29.140,0:09:32.751 La grande sfida è che ci sono così tante[br]applicazioni di questa tecnologia 0:09:32.751,0:09:35.804 che io e il mio team sappiamo[br]di non poter realizzare da soli. 0:09:35.804,0:09:39.110 Perciò l'abbiamo resa disponibile[br]così che altri sviluppatori 0:09:39.110,0:09:41.194 possano svilupparla ed essere creativi. 0:09:41.474,0:09:45.560 Ammettiamo che ci sono[br]rischi potenziali 0:09:45.560,0:09:47.247 e la possibilità di abuso, 0:09:47.627,0:09:50.266 ma personalmente, avendo passato[br]tanti anni a farlo, 0:09:50.326,0:09:53.078 credo che i benefici per l'uomo 0:09:53.078,0:09:55.463 nell'avere una tecnologia[br]emotivamente intelligente 0:09:55.573,0:09:58.959 siano di gran lunga maggiori[br]del potenziale uso improprio. 0:09:59.179,0:10:01.800 E vi invito a essere tutti[br]parte della conversazione. 0:10:01.800,0:10:04.244 Più persone conoscono[br]questa tecnologia, 0:10:04.314,0:10:07.351 più possiamo tutti avere voce [br]su come va usata. 0:10:09.081,0:10:13.155 Dato che sempre più le nostre vite[br]diventano digitali, 0:10:13.655,0:10:17.153 combattiamo una battaglia persa[br]cercando di frenare l'uso dei dispositivi 0:10:17.153,0:10:19.382 per ritrovare le nostre emozioni. 0:10:20.532,0:10:24.566 Quello che invece cerco di fare è portare[br]le emozioni nella nostra tecnologia 0:10:24.566,0:10:26.585 e renderla più reattiva. 0:10:26.585,0:10:29.195 Voglio che quei dispositivi[br]che ci hanno divisi 0:10:29.345,0:10:31.047 ci uniscano di nuovo. 0:10:32.207,0:10:36.275 E umanizzando la tecnologia[br]abbiamo un'opportunità d'oro 0:10:36.485,0:10:39.632 per ripensare a come siamo connessi[br]con le macchine, 0:10:39.992,0:10:43.943 e quindi a come, in quanto esseri umani, 0:10:44.163,0:10:45.887 siamo connessi agli altri. 0:10:46.037,0:10:47.047 Grazie. 0:10:47.047,0:10:50.750 (Applausi)