Le emozioni influenzano ogni aspetto delle nostre vite, dalla salute, da come impariamo, al fare affari e a prendere decisioni, grandi e piccole. Le nostre emozioni influenzano anche il modo di relazionarci l'un l'altro. Ci siamo evoluti per vivere in un mondo così. Ma invece viviamo sempre più le nostre vite così, - questo è il messaggio di mia figlia la notte scorsa (risate) - in un mondo privo di emozioni. Perciò la mia missione è cambiare le cose. Voglio riportare le emozioni nelle nostre esperienze digitali. Ho intrapreso questo percorso 15 anni fa. Ero un'esperta di informatica in Egitto, da poco ammessa a un Dottorato di Ricerca alla Cambridge University. Avevo fatto qualcosa di alquanto inusuale per una giovane moglie Musulmana Egiziana appena sposata. (Risate) Con il sostegno di mio marito, che dovette restare in Egitto, feci i bagagli e mi trasferii in Inghilterra. A Cambridge, lontana migliaia di chilometri da casa, capii che trascorrevo molte più ore col mio computer che con altri esseri umani. Eppure, nonostante l'intimità, il mio computer non aveva assolutamente idea di come mi sentissi. Non sapeva se ero felice, se passavo una brutta giornata, o ero stressata, confusa, e questo era frustrante. Ancora peggio, dato che comunicavo online con la mia famiglia a casa, sentivo le mie emozioni scomparire nello cyberspazio. Mi mancava casa, ero sola, e alcuni giorni piangevo proprio, Ma tutto ciò che avevo per comunicare queste emozioni era questo. (Risate) La tecnologia oggigiorno ha tanto QI ma non IE. Tanta intelligenza cognitiva, ma nessuna Intelligenza Emotiva. E questo mi ha fatto pensare: e se la tecnologia potesse sentire le nostre emozioni? Se i dispositivi sapessero cosa proviamo e come reagiamo di conseguenza, come solo un amico emotivamente intelligente farebbe? Queste domande hanno portato me e il mio team a creare tecnologie che possono leggere e reagire alle nostre emozioni. E il nostro punto di partenza è stato il volto umano. Il nostro volto pare sia uno dei più potenti canali che usiamo per comunicare stati sociali ed emotivi. Qualsiasi cosa, dal piacere alla sorpresa, dall'empatia alla curiosità. In scienza delle emozioni ogni movimento muscolare è detto "unità d'azione". Per esempio, l'unità d'azione 12, non è un film di successo di Hollywood, ma è il tirare l'angolo della bocca, che è la base per un sorriso. Provateci tutti. Fate partire qualche sorriso. Un altro esempio è l'unità d'azione 4, è il solco tra le sopracciglia, quando le ravvicinate e create tutte quelle linee e quelle rughette. Non ci piacciono, ma è un forte segnale di un'emozione negativa. Ne abbiamo circa 45, di queste unità d'azione, che si combinano per esprimere centinaia di emozioni. Insegnare a un computer a leggere queste espressioni facciali è difficile, perché le unità d'azione possono essere veloci, impercettibili, e si combinano in tanti modi diversi. Prendiamo per esempio un sorriso e una smorfia. Sembrano in qualche modo simili, ma hanno significati molto diversi. (Risate) Il sorriso è positivo, una smorfia è spesso negativa. Qualche volta una smorfia può farti diventare famoso. (Risate) Ma seriamente, è importante per un computer essere in grado di distinguere la differenza tra le due espressioni. Perciò come possiamo farlo? Diamo ai nostri algoritmi decine di migliaia di esempi di persone che sappiamo sorridono, di diverse etnie, età, genere, e facciamo lo stesso per le smorfie. E poi, usando il Deep Learning, l'algoritmo cerca tutte queste trame, queste rughe, e i mutamenti di forma sul nostro viso, e in pratica apprende che tutti i sorrisi hanno caratteristiche comuni, tutte le smorfie hanno caratteristiche leggermente diverse. E la prossima volta che vede un viso nuovo, capisce che quel viso ha le stesse caratteristiche di un sorriso, e dice: "La riconosco. È un'espressione sorridente". E il miglior modo per dimostrare come funziona questa tecnologia è una dimostrazione dal vivo, perciò mi serve un volontario, possibilmente qualcuno con una faccia. (Risate) Chloe sarà la nostra volontaria oggi. Negli ultimi cinque anni siamo passati dall'essere un progetto di ricerca al MIT ad essere una società, in cui il mio team ha lavorato sodo per far funzionare questa tecnologia, noi diciamo, come bestie. E l'abbiamo anche compressa così che il sistema emotivo centrale funzioni su tutti i dispositivi con videocamera, come questo Ipad. Facciamo una prova. Come potete vedere, l'algoritmo ha praticamente trovato il viso di Chloe, è questo riquadro bianco ai bordi, e sta tracciando i lineamenti principali del suo viso, cioè sopracciglia, occhi, bocca e naso. La domanda è: riconosce le sue espressioni? Testiamo la macchina. Prima di tutto, fai una faccia impassibile. Fantastico. (Risate) Poi se lei sorride, è un sorriso sincero, va benissimo, vedete la linea verde salire se sorride. Quello era un gran sorriso, puoi provare un sorrisetto per vedere se il computer lo riconosce? Riconosce anche quelli. Abbiamo lavorato duramente per riuscirci. E ora sopracciglia alzate, indice di sorpresa. (Risate) Accigliata, che è indice di confusione. (Risate) Corrucciata, perfetto. (Risate) Sono tutte unità d'azione diverse, e ce ne sono tante altre. Questa è solo una demo compressa. Ma chiamiamo ogni interpretazione "punto dati dell'emozione", e possono accendersi insieme e descrivere emozioni differenti, sul lato destro della demo. Sembri felice. C'è gioia. E "Joy" si accende. Poi fai una faccia disgustata. Prova a ricordare com'è stato quando Zayn ha lasciato i One Direction. (Risate) Arriccia il naso. Fantastico. (Risate) La valenza è abbastanza negativa, devi essere stata una grande fan. "Valence" è quanto positiva o negativa sia un'esperienza, ed "engagement" indica quanto lei è espressiva. Immaginate se Chloe entrasse in questo flusso emotivo in tempo reale e potesse condividerlo con chiunque volesse. Grazie. (Applausi) Ad oggi abbiamo accumulato 12 miliardi di questi punti dati dell'emozione. È il più vasto database di emozioni al mondo. Lo abbiamo messo insieme da 2,9 milioni di video facciali, persone che hanno condiviso le loro emozioni con noi, e da 75 Paesi di tutto il mondo. E si arricchisce ogni giorno. Mi sbalordisce che oggi possiamo misurare qualcosa di così personale come le emozioni, e possiamo farlo così ampiamente. Cosa abbiamo quindi imparato a determinare? Il genere. I nostri dati confermano qualcosa di cui potete sospettare. (Risate) Le donne sono più espressive degli uomini. Non solo sorridono di più ma i loro sorrisi durano di più e possiamo davvero determinare a cosa uomini e donne reagiscono in modo differente. Vediamo culturalmente. Negli Stati Uniti le donne sono per il 40 % più espressive degli uomini, ma -strano- non c'è alcuna differenza nel Regno Unito tra uomini e donne. (Risate) Età: le persone dai 50 anni in su sono per il 25 % più emotive dei più giovani. Le donne ventenni sorridono molto più degli uomini della stessa età, forse per necessità relazionali. Ma forse ciò che ci ha sorpresi di più in questi dati è che ci ritroviamo a essere espressivi in ogni momento, anche quando siamo seduti da soli coi nostri dispositivi, non solo quando stiamo guardando video di gatti su Facebook. Siamo espressivi quando inviamo email, messaggi, compriamo online, o anche calcolando le tasse. Per cosa sono usati questi dati oggi? Per capire come ci relazioniamo coi media, cioè comprendere la viralità e la modalità di scelta; e anche per dare potere o attivare emotivamente la tecnologia. Voglio condividere alcuni esempi particolarmente vicini al mio cuore. Occhiali abilitati all'emozione possono aiutare gli individui con problemi di vista a leggere i volti degli altri, e possono aiutare individui con tendenza autistica a interpretare emozioni qualcosa con cui combattono realmente. Nell'istruzione, immaginate se la vostra app per l'apprendimento capisse che siete confusi e rallentasse, o che siete annoiati, così da accelerare, proprio come farebbe un bravo insegnante in classe. Se il vostro orologio tracciasse il vostro umore, o se l'auto sentisse che siete stanchi, o magari il vostro frigo sapesse che siete stressati, così da bloccarsi automaticamente per evitarvi un'abbuffata. (Risate) A me piacerebbe. (Risate) E se, quando ero a Cambridge, fossi entrata nel mio flusso emotivo in tempo reale e avessi potuto condividerlo con la mia famiglia in modo spontaneo, come avrei fatto se fossimo stati insieme nella stessa stanza? Credo che nel giro di cinque anni tutti i dispositivi avranno un chip per le emozioni, e non ricorderemo com'era quando non potevamo guardar male il nostro dispositivosenza che dicesse: "Non ti piaceva, vero? La grande sfida è che ci sono così tante applicazioni di questa tecnologia che io e il mio team sappiamo di non poter realizzare da soli. Perciò l'abbiamo resa disponibile così che altri sviluppatori possano svilupparla ed essere creativi. Ammettiamo che ci sono rischi potenziali e la possibilità di abuso, ma personalmente, avendo passato tanti anni a farlo, credo che i benefici per l'uomo nell'avere una tecnologia emotivamente intelligente siano di gran lunga maggiori del potenziale uso improprio. E vi invito a essere tutti parte della conversazione. Più persone conoscono questa tecnologia, più possiamo tutti avere voce su come va usata. Dato che sempre più le nostre vite diventano digitali, combattiamo una battaglia persa cercando di frenare l'uso dei dispositivi per ritrovare le nostre emozioni. Quello che invece cerco di fare è portare le emozioni nella nostra tecnologia e renderla più reattiva. Voglio che quei dispositivi che ci hanno divisi ci uniscano di nuovo. E umanizzando la tecnologia abbiamo un'opportunità d'oro per ripensare a come siamo connessi con le macchine, e quindi a come, in quanto esseri umani, siamo connessi agli altri. Grazie. (Applausi)