Le emozioni influenzano
ogni aspetto delle nostre vite,
dalla salute, da come impariamo,
al fare affari e a prendere decisioni,
grandi e piccole.
Le nostre emozioni influenzano anche
il modo di relazionarci l'un l'altro.
Ci siamo evoluti per vivere
in un mondo così.
Ma invece viviamo sempre più
le nostre vite così,
- questo è il messaggio
di mia figlia la notte scorsa (risate) -
in un mondo privo di emozioni.
Perciò la mia missione
è cambiare le cose.
Voglio riportare le emozioni
nelle nostre esperienze digitali.
Ho intrapreso questo percorso
15 anni fa.
Ero un'esperta di informatica in Egitto,
da poco ammessa a un Dottorato
di Ricerca alla Cambridge University.
Avevo fatto qualcosa
di alquanto inusuale
per una giovane moglie
Musulmana Egiziana appena sposata.
(Risate)
Con il sostegno di mio marito,
che dovette restare in Egitto,
feci i bagagli e mi trasferii
in Inghilterra.
A Cambridge,
lontana migliaia di chilometri da casa,
capii che trascorrevo
molte più ore col mio computer
che con altri esseri umani.
Eppure, nonostante l'intimità,
il mio computer non aveva
assolutamente idea di come mi sentissi.
Non sapeva se ero felice,
se passavo una brutta giornata,
o ero stressata, confusa,
e questo era frustrante.
Ancora peggio, dato che comunicavo
online con la mia famiglia a casa,
sentivo le mie emozioni
scomparire nello cyberspazio.
Mi mancava casa, ero sola,
e alcuni giorni piangevo proprio,
Ma tutto ciò che avevo per comunicare
queste emozioni
era questo.
(Risate)
La tecnologia oggigiorno ha tanto QI
ma non IE.
Tanta intelligenza cognitiva,
ma nessuna Intelligenza Emotiva.
E questo mi ha fatto pensare:
e se la tecnologia potesse sentire
le nostre emozioni?
Se i dispositivi sapessero
cosa proviamo
e come reagiamo di conseguenza,
come solo un amico
emotivamente intelligente farebbe?
Queste domande
hanno portato me e il mio team
a creare tecnologie che possono leggere
e reagire alle nostre emozioni.
E il nostro punto di partenza
è stato il volto umano.
Il nostro volto pare sia
uno dei più potenti canali
che usiamo per comunicare
stati sociali ed emotivi.
Qualsiasi cosa, dal piacere alla sorpresa,
dall'empatia alla curiosità.
In scienza delle emozioni ogni movimento muscolare è detto
"unità d'azione".
Per esempio, l'unità d'azione 12,
non è un film di successo di Hollywood,
ma è il tirare l'angolo della bocca,
che è la base per un sorriso.
Provateci tutti.
Fate partire qualche sorriso.
Un altro esempio è l'unità d'azione 4,
è il solco tra le sopracciglia,
quando le ravvicinate
e create tutte quelle linee
e quelle rughette.
Non ci piacciono, ma è un forte
segnale di un'emozione negativa.
Ne abbiamo circa 45,
di queste unità d'azione,
che si combinano per esprimere
centinaia di emozioni.
Insegnare a un computer a leggere
queste espressioni facciali è difficile,
perché le unità d'azione
possono essere veloci, impercettibili,
e si combinano in tanti modi diversi.
Prendiamo per esempio
un sorriso e una smorfia.
Sembrano in qualche modo simili,
ma hanno significati molto diversi.
(Risate)
Il sorriso è positivo,
una smorfia è spesso negativa.
Qualche volta una smorfia
può farti diventare famoso. (Risate)
Ma seriamente, è importante
per un computer essere in grado
di distinguere la differenza
tra le due espressioni.
Perciò come possiamo farlo?
Diamo ai nostri algoritmi
decine di migliaia di esempi
di persone che sappiamo sorridono,
di diverse etnie, età, genere,
e facciamo lo stesso per le smorfie.
E poi, usando il Deep Learning,
l'algoritmo cerca tutte queste
trame, queste rughe,
e i mutamenti di forma sul nostro viso,
e in pratica apprende che tutti i sorrisi
hanno caratteristiche comuni,
tutte le smorfie hanno caratteristiche
leggermente diverse.
E la prossima volta
che vede un viso nuovo,
capisce che quel viso ha le stesse
caratteristiche di un sorriso,
e dice: "La riconosco.
È un'espressione sorridente".
E il miglior modo per dimostrare
come funziona questa tecnologia
è una dimostrazione dal vivo,
perciò mi serve un volontario,
possibilmente qualcuno con una faccia.
(Risate)
Chloe sarà la nostra volontaria oggi.
Negli ultimi cinque anni siamo passati
dall'essere un progetto di ricerca al MIT
ad essere una società,
in cui il mio team ha lavorato sodo
per far funzionare questa tecnologia,
noi diciamo, come bestie.
E l'abbiamo anche compressa
così che il sistema emotivo centrale
funzioni su tutti i dispositivi
con videocamera, come questo Ipad.
Facciamo una prova.
Come potete vedere, l'algoritmo
ha praticamente trovato il viso di Chloe,
è questo riquadro bianco ai bordi,
e sta tracciando i lineamenti
principali del suo viso,
cioè sopracciglia, occhi,
bocca e naso.
La domanda è:
riconosce le sue espressioni?
Testiamo la macchina.
Prima di tutto,
fai una faccia impassibile.
Fantastico. (Risate)
Poi se lei sorride,
è un sorriso sincero, va benissimo,
vedete la linea verde salire se sorride.
Quello era un gran sorriso,
puoi provare un sorrisetto
per vedere se il computer lo riconosce?
Riconosce anche quelli.
Abbiamo lavorato duramente
per riuscirci.
E ora sopracciglia alzate,
indice di sorpresa. (Risate)
Accigliata,
che è indice di confusione. (Risate)
Corrucciata, perfetto.
(Risate)
Sono tutte unità d'azione
diverse, e ce ne sono tante altre.
Questa è solo una demo compressa.
Ma chiamiamo ogni interpretazione
"punto dati dell'emozione",
e possono accendersi insieme
e descrivere emozioni differenti,
sul lato destro della demo.
Sembri felice.
C'è gioia. E "Joy" si accende.
Poi fai una faccia disgustata.
Prova a ricordare com'è stato
quando Zayn ha lasciato i One Direction.
(Risate)
Arriccia il naso. Fantastico.
(Risate)
La valenza è abbastanza negativa,
devi essere stata una grande fan.
"Valence" è quanto positiva
o negativa sia un'esperienza,
ed "engagement" indica
quanto lei è espressiva.
Immaginate se Chloe entrasse
in questo flusso emotivo in tempo reale
e potesse condividerlo
con chiunque volesse.
Grazie.
(Applausi)
Ad oggi abbiamo accumulato 12 miliardi
di questi punti dati dell'emozione.
È il più vasto database di emozioni
al mondo.
Lo abbiamo messo insieme
da 2,9 milioni di video facciali,
persone che hanno condiviso
le loro emozioni con noi,
e da 75 Paesi di tutto il mondo.
E si arricchisce ogni giorno.
Mi sbalordisce che oggi
possiamo misurare qualcosa
di così personale come le emozioni,
e possiamo farlo così ampiamente.
Cosa abbiamo quindi imparato
a determinare?
Il genere.
I nostri dati confermano qualcosa
di cui potete sospettare. (Risate)
Le donne sono più espressive
degli uomini.
Non solo sorridono di più
ma i loro sorrisi durano di più
e possiamo davvero determinare
a cosa uomini e donne
reagiscono in modo differente.
Vediamo culturalmente.
Negli Stati Uniti
le donne sono per il 40 %
più espressive degli uomini,
ma -strano- non c'è alcuna differenza
nel Regno Unito tra uomini e donne.
(Risate)
Età: le persone dai 50 anni in su
sono per il 25 % più emotive
dei più giovani.
Le donne ventenni sorridono
molto più degli uomini della stessa età,
forse per necessità relazionali.
Ma forse ciò che ci ha sorpresi di più
in questi dati
è che ci ritroviamo a essere
espressivi in ogni momento,
anche quando siamo seduti
da soli coi nostri dispositivi,
non solo quando stiamo guardando
video di gatti su Facebook.
Siamo espressivi quando inviamo email,
messaggi, compriamo online,
o anche calcolando le tasse.
Per cosa sono usati questi dati oggi?
Per capire come ci relazioniamo
coi media,
cioè comprendere la viralità
e la modalità di scelta;
e anche per dare potere
o attivare emotivamente la tecnologia.
Voglio condividere alcuni esempi
particolarmente vicini al mio cuore.
Occhiali abilitati all'emozione
possono aiutare gli individui
con problemi di vista
a leggere i volti degli altri,
e possono aiutare individui con tendenza
autistica a interpretare emozioni
qualcosa con cui combattono realmente.
Nell'istruzione, immaginate
se la vostra app per l'apprendimento
capisse che siete confusi
e rallentasse,
o che siete annoiati,
così da accelerare,
proprio come farebbe
un bravo insegnante in classe.
Se il vostro orologio tracciasse
il vostro umore,
o se l'auto sentisse che siete stanchi,
o magari il vostro frigo
sapesse che siete stressati,
così da bloccarsi automaticamente
per evitarvi un'abbuffata. (Risate)
A me piacerebbe. (Risate)
E se, quando ero a Cambridge,
fossi entrata nel mio flusso
emotivo in tempo reale
e avessi potuto condividerlo
con la mia famiglia in modo spontaneo,
come avrei fatto se fossimo stati insieme
nella stessa stanza?
Credo che nel giro di cinque anni
tutti i dispositivi avranno
un chip per le emozioni,
e non ricorderemo com'era quando
non potevamo guardar male
il nostro dispositivosenza che dicesse:
"Non ti piaceva, vero?
La grande sfida è che ci sono così tante
applicazioni di questa tecnologia
che io e il mio team sappiamo
di non poter realizzare da soli.
Perciò l'abbiamo resa disponibile
così che altri sviluppatori
possano svilupparla ed essere creativi.
Ammettiamo che ci sono
rischi potenziali
e la possibilità di abuso,
ma personalmente, avendo passato
tanti anni a farlo,
credo che i benefici per l'uomo
nell'avere una tecnologia
emotivamente intelligente
siano di gran lunga maggiori
del potenziale uso improprio.
E vi invito a essere tutti
parte della conversazione.
Più persone conoscono
questa tecnologia,
più possiamo tutti avere voce
su come va usata.
Dato che sempre più le nostre vite
diventano digitali,
combattiamo una battaglia persa
cercando di frenare l'uso dei dispositivi
per ritrovare le nostre emozioni.
Quello che invece cerco di fare è portare
le emozioni nella nostra tecnologia
e renderla più reattiva.
Voglio che quei dispositivi
che ci hanno divisi
ci uniscano di nuovo.
E umanizzando la tecnologia
abbiamo un'opportunità d'oro
per ripensare a come siamo connessi
con le macchine,
e quindi a come, in quanto esseri umani,
siamo connessi agli altri.
Grazie.
(Applausi)