Return to Video

Questa app sa cosa provi — te lo legge in faccia

  • 0:01 - 0:04
    Le emozioni influenzano
    ogni aspetto delle nostre vite,
  • 0:05 - 0:08
    dalla salute, da come impariamo,
    al fare affari e a prendere decisioni,
  • 0:08 - 0:09
    grandi e piccole.
  • 0:10 - 0:14
    Le nostre emozioni influenzano anche
    il modo di relazionarci l'un l'altro.
  • 0:15 - 0:18
    Ci siamo evoluti per vivere
    in un mondo così.
  • 0:19 - 0:23
    Ma invece viviamo sempre più
    le nostre vite così,
  • 0:23 - 0:27
    - questo è il messaggio
    di mia figlia la notte scorsa (risate) -
  • 0:27 - 0:29
    in un mondo privo di emozioni.
  • 0:29 - 0:31
    Perciò la mia missione
    è cambiare le cose.
  • 0:31 - 0:35
    Voglio riportare le emozioni
    nelle nostre esperienze digitali.
  • 0:36 - 0:39
    Ho intrapreso questo percorso
    15 anni fa.
  • 0:39 - 0:42
    Ero un'esperta di informatica in Egitto,
  • 0:42 - 0:46
    da poco ammessa a un Dottorato
    di Ricerca alla Cambridge University.
  • 0:46 - 0:48
    Avevo fatto qualcosa
    di alquanto inusuale
  • 0:48 - 0:52
    per una giovane moglie
    Musulmana Egiziana appena sposata.
  • 0:52 - 0:54
    (Risate)
  • 0:54 - 0:57
    Con il sostegno di mio marito,
    che dovette restare in Egitto,
  • 0:57 - 0:59
    feci i bagagli e mi trasferii
    in Inghilterra.
  • 1:00 - 1:03
    A Cambridge,
    lontana migliaia di chilometri da casa,
  • 1:03 - 1:06
    capii che trascorrevo
    molte più ore col mio computer
  • 1:06 - 1:08
    che con altri esseri umani.
  • 1:08 - 1:10
    Eppure, nonostante l'intimità,
  • 1:10 - 1:13
    il mio computer non aveva
    assolutamente idea di come mi sentissi.
  • 1:13 - 1:15
    Non sapeva se ero felice,
  • 1:17 - 1:20
    se passavo una brutta giornata,
    o ero stressata, confusa,
  • 1:20 - 1:21
    e questo era frustrante.
  • 1:24 - 1:27
    Ancora peggio, dato che comunicavo
    online con la mia famiglia a casa,
  • 1:29 - 1:32
    sentivo le mie emozioni
    scomparire nello cyberspazio.
  • 1:33 - 1:37
    Mi mancava casa, ero sola,
    e alcuni giorni piangevo proprio,
  • 1:38 - 1:41
    Ma tutto ciò che avevo per comunicare
    queste emozioni
  • 1:42 - 1:45
    era questo.
    (Risate)
  • 1:45 - 1:49
    La tecnologia oggigiorno ha tanto QI
    ma non IE.
  • 1:49 - 1:52
    Tanta intelligenza cognitiva,
    ma nessuna Intelligenza Emotiva.
  • 1:53 - 1:55
    E questo mi ha fatto pensare:
  • 1:55 - 1:59
    e se la tecnologia potesse sentire
    le nostre emozioni?
  • 1:59 - 2:01
    Se i dispositivi sapessero
    cosa proviamo
  • 2:01 - 2:03
    e come reagiamo di conseguenza,
  • 2:03 - 2:06
    come solo un amico
    emotivamente intelligente farebbe?
  • 2:07 - 2:10
    Queste domande
    hanno portato me e il mio team
  • 2:10 - 2:14
    a creare tecnologie che possono leggere
    e reagire alle nostre emozioni.
  • 2:15 - 2:17
    E il nostro punto di partenza
    è stato il volto umano.
  • 2:18 - 2:22
    Il nostro volto pare sia
    uno dei più potenti canali
  • 2:22 - 2:25
    che usiamo per comunicare
    stati sociali ed emotivi.
  • 2:26 - 2:29
    Qualsiasi cosa, dal piacere alla sorpresa,
  • 2:29 - 2:32
    dall'empatia alla curiosità.
  • 2:33 - 2:38
    In scienza delle emozioni ogni movimento muscolare è detto
    "unità d'azione".
  • 2:38 - 2:40
    Per esempio, l'unità d'azione 12,
  • 2:40 - 2:43
    non è un film di successo di Hollywood,
  • 2:43 - 2:46
    ma è il tirare l'angolo della bocca,
    che è la base per un sorriso.
  • 2:46 - 2:48
    Provateci tutti.
    Fate partire qualche sorriso.
  • 2:49 - 2:51
    Un altro esempio è l'unità d'azione 4,
  • 2:51 - 2:54
    è il solco tra le sopracciglia,
    quando le ravvicinate
  • 2:54 - 2:56
    e create tutte quelle linee
    e quelle rughette.
  • 2:56 - 3:00
    Non ci piacciono, ma è un forte
    segnale di un'emozione negativa.
  • 3:00 - 3:02
    Ne abbiamo circa 45,
    di queste unità d'azione,
  • 3:02 - 3:06
    che si combinano per esprimere
    centinaia di emozioni.
  • 3:06 - 3:10
    Insegnare a un computer a leggere
    queste espressioni facciali è difficile,
  • 3:10 - 3:13
    perché le unità d'azione
    possono essere veloci, impercettibili,
  • 3:13 - 3:15
    e si combinano in tanti modi diversi.
  • 3:16 - 3:18
    Prendiamo per esempio
    un sorriso e una smorfia.
  • 3:20 - 3:21
    Sembrano in qualche modo simili,
  • 3:21 - 3:25
    ma hanno significati molto diversi.
    (Risate)
  • 3:25 - 3:27
    Il sorriso è positivo,
  • 3:27 - 3:29
    una smorfia è spesso negativa.
  • 3:29 - 3:32
    Qualche volta una smorfia
    può farti diventare famoso. (Risate)
  • 3:33 - 3:36
    Ma seriamente, è importante
    per un computer essere in grado
  • 3:36 - 3:38
    di distinguere la differenza
    tra le due espressioni.
  • 3:38 - 3:40
    Perciò come possiamo farlo?
  • 3:40 - 3:42
    Diamo ai nostri algoritmi
  • 3:42 - 3:46
    decine di migliaia di esempi
    di persone che sappiamo sorridono,
  • 3:47 - 3:49
    di diverse etnie, età, genere,
  • 3:50 - 3:51
    e facciamo lo stesso per le smorfie.
  • 3:52 - 3:54
    E poi, usando il Deep Learning,
  • 3:54 - 3:57
    l'algoritmo cerca tutte queste
    trame, queste rughe,
  • 3:57 - 3:59
    e i mutamenti di forma sul nostro viso,
  • 3:59 - 4:02
    e in pratica apprende che tutti i sorrisi
    hanno caratteristiche comuni,
  • 4:03 - 4:05
    tutte le smorfie hanno caratteristiche
    leggermente diverse.
  • 4:06 - 4:08
    E la prossima volta
    che vede un viso nuovo,
  • 4:08 - 4:13
    capisce che quel viso ha le stesse
    caratteristiche di un sorriso,
  • 4:13 - 4:17
    e dice: "La riconosco.
    È un'espressione sorridente".
  • 4:18 - 4:21
    E il miglior modo per dimostrare
    come funziona questa tecnologia
  • 4:21 - 4:23
    è una dimostrazione dal vivo,
  • 4:23 - 4:27
    perciò mi serve un volontario,
    possibilmente qualcuno con una faccia.
  • 4:27 - 4:29
    (Risate)
  • 4:30 - 4:32
    Chloe sarà la nostra volontaria oggi.
  • 4:33 - 4:38
    Negli ultimi cinque anni siamo passati
    dall'essere un progetto di ricerca al MIT
  • 4:38 - 4:41
    ad essere una società,
    in cui il mio team ha lavorato sodo
  • 4:41 - 4:44
    per far funzionare questa tecnologia,
    noi diciamo, come bestie.
  • 4:44 - 4:47
    E l'abbiamo anche compressa
    così che il sistema emotivo centrale
  • 4:47 - 4:50
    funzioni su tutti i dispositivi
    con videocamera, come questo Ipad.
  • 4:51 - 4:52
    Facciamo una prova.
  • 4:55 - 4:59
    Come potete vedere, l'algoritmo
    ha praticamente trovato il viso di Chloe,
  • 4:59 - 5:00
    è questo riquadro bianco ai bordi,
  • 5:00 - 5:03
    e sta tracciando i lineamenti
    principali del suo viso,
  • 5:03 - 5:05
    cioè sopracciglia, occhi,
    bocca e naso.
  • 5:06 - 5:09
    La domanda è:
    riconosce le sue espressioni?
  • 5:09 - 5:10
    Testiamo la macchina.
  • 5:10 - 5:12
    Prima di tutto,
    fai una faccia impassibile.
  • 5:12 - 5:15
    Fantastico. (Risate)
  • 5:15 - 5:18
    Poi se lei sorride,
    è un sorriso sincero, va benissimo,
  • 5:18 - 5:20
    vedete la linea verde salire se sorride.
  • 5:20 - 5:22
    Quello era un gran sorriso,
    puoi provare un sorrisetto
  • 5:22 - 5:25
    per vedere se il computer lo riconosce?
    Riconosce anche quelli.
  • 5:25 - 5:27
    Abbiamo lavorato duramente
    per riuscirci.
  • 5:28 - 5:31
    E ora sopracciglia alzate,
    indice di sorpresa. (Risate)
  • 5:31 - 5:36
    Accigliata,
    che è indice di confusione. (Risate)
  • 5:36 - 5:40
    Corrucciata, perfetto.
    (Risate)
  • 5:40 - 5:43
    Sono tutte unità d'azione
    diverse, e ce ne sono tante altre.
  • 5:43 - 5:45
    Questa è solo una demo compressa.
  • 5:45 - 5:48
    Ma chiamiamo ogni interpretazione
    "punto dati dell'emozione",
  • 5:48 - 5:51
    e possono accendersi insieme
    e descrivere emozioni differenti,
  • 5:51 - 5:55
    sul lato destro della demo.
    Sembri felice.
  • 5:55 - 5:57
    C'è gioia. E "Joy" si accende.
  • 5:57 - 5:59
    Poi fai una faccia disgustata.
  • 5:59 - 6:03
    Prova a ricordare com'è stato
    quando Zayn ha lasciato i One Direction.
  • 6:03 - 6:05
    (Risate)
  • 6:05 - 6:08
    Arriccia il naso. Fantastico.
    (Risate)
  • 6:09 - 6:13
    La valenza è abbastanza negativa,
    devi essere stata una grande fan.
  • 6:13 - 6:16
    "Valence" è quanto positiva
    o negativa sia un'esperienza,
  • 6:16 - 6:18
    ed "engagement" indica
    quanto lei è espressiva.
  • 6:19 - 6:22
    Immaginate se Chloe entrasse
    in questo flusso emotivo in tempo reale
  • 6:22 - 6:25
    e potesse condividerlo
    con chiunque volesse.
  • 6:25 - 6:26
    Grazie.
  • 6:26 - 6:31
    (Applausi)
  • 6:34 - 6:39
    Ad oggi abbiamo accumulato 12 miliardi
    di questi punti dati dell'emozione.
  • 6:39 - 6:41
    È il più vasto database di emozioni
    al mondo.
  • 6:41 - 6:44
    Lo abbiamo messo insieme
    da 2,9 milioni di video facciali,
  • 6:45 - 6:47
    persone che hanno condiviso
    le loro emozioni con noi,
  • 6:47 - 6:50
    e da 75 Paesi di tutto il mondo.
  • 6:50 - 6:52
    E si arricchisce ogni giorno.
  • 6:53 - 6:56
    Mi sbalordisce che oggi
    possiamo misurare qualcosa
  • 6:56 - 6:58
    di così personale come le emozioni,
  • 6:58 - 7:00
    e possiamo farlo così ampiamente.
  • 7:00 - 7:02
    Cosa abbiamo quindi imparato
    a determinare?
  • 7:03 - 7:04
    Il genere.
  • 7:05 - 7:09
    I nostri dati confermano qualcosa
    di cui potete sospettare. (Risate)
  • 7:09 - 7:11
    Le donne sono più espressive
    degli uomini.
  • 7:11 - 7:14
    Non solo sorridono di più
    ma i loro sorrisi durano di più
  • 7:14 - 7:16
    e possiamo davvero determinare
    a cosa uomini e donne
  • 7:16 - 7:18
    reagiscono in modo differente.
  • 7:19 - 7:21
    Vediamo culturalmente.
    Negli Stati Uniti
  • 7:21 - 7:24
    le donne sono per il 40 %
    più espressive degli uomini,
  • 7:24 - 7:28
    ma -strano- non c'è alcuna differenza
    nel Regno Unito tra uomini e donne.
  • 7:28 - 7:30
    (Risate)
  • 7:31 - 7:35
    Età: le persone dai 50 anni in su
  • 7:35 - 7:38
    sono per il 25 % più emotive
    dei più giovani.
  • 7:40 - 7:44
    Le donne ventenni sorridono
    molto più degli uomini della stessa età,
  • 7:44 - 7:46
    forse per necessità relazionali.
  • 7:48 - 7:50
    Ma forse ciò che ci ha sorpresi di più
    in questi dati
  • 7:50 - 7:53
    è che ci ritroviamo a essere
    espressivi in ogni momento,
  • 7:53 - 7:56
    anche quando siamo seduti
    da soli coi nostri dispositivi,
  • 7:56 - 7:59
    non solo quando stiamo guardando
    video di gatti su Facebook.
  • 8:00 - 8:03
    Siamo espressivi quando inviamo email,
    messaggi, compriamo online,
  • 8:03 - 8:05
    o anche calcolando le tasse.
  • 8:06 - 8:08
    Per cosa sono usati questi dati oggi?
  • 8:08 - 8:10
    Per capire come ci relazioniamo
    coi media,
  • 8:10 - 8:13
    cioè comprendere la viralità
    e la modalità di scelta;
  • 8:13 - 8:17
    e anche per dare potere
    o attivare emotivamente la tecnologia.
  • 8:17 - 8:20
    Voglio condividere alcuni esempi
    particolarmente vicini al mio cuore.
  • 8:21 - 8:24
    Occhiali abilitati all'emozione
    possono aiutare gli individui
  • 8:24 - 8:27
    con problemi di vista
    a leggere i volti degli altri,
  • 8:27 - 8:31
    e possono aiutare individui con tendenza
    autistica a interpretare emozioni
  • 8:31 - 8:33
    qualcosa con cui combattono realmente.
  • 8:36 - 8:39
    Nell'istruzione, immaginate
    se la vostra app per l'apprendimento
  • 8:39 - 8:41
    capisse che siete confusi
    e rallentasse,
  • 8:41 - 8:43
    o che siete annoiati,
    così da accelerare,
  • 8:43 - 8:46
    proprio come farebbe
    un bravo insegnante in classe.
  • 8:47 - 8:50
    Se il vostro orologio tracciasse
    il vostro umore,
  • 8:50 - 8:52
    o se l'auto sentisse che siete stanchi,
  • 8:52 - 8:55
    o magari il vostro frigo
    sapesse che siete stressati,
  • 8:55 - 8:59
    così da bloccarsi automaticamente
    per evitarvi un'abbuffata. (Risate)
  • 8:59 - 9:02
    A me piacerebbe. (Risate)
  • 9:04 - 9:06
    E se, quando ero a Cambridge,
  • 9:06 - 9:08
    fossi entrata nel mio flusso
    emotivo in tempo reale
  • 9:08 - 9:11
    e avessi potuto condividerlo
    con la mia famiglia in modo spontaneo,
  • 9:11 - 9:15
    come avrei fatto se fossimo stati insieme
    nella stessa stanza?
  • 9:15 - 9:18
    Credo che nel giro di cinque anni
  • 9:18 - 9:21
    tutti i dispositivi avranno
    un chip per le emozioni,
  • 9:21 - 9:24
    e non ricorderemo com'era quando
    non potevamo guardar male
  • 9:24 - 9:28
    il nostro dispositivosenza che dicesse:
    "Non ti piaceva, vero?
  • 9:29 - 9:33
    La grande sfida è che ci sono così tante
    applicazioni di questa tecnologia
  • 9:33 - 9:36
    che io e il mio team sappiamo
    di non poter realizzare da soli.
  • 9:36 - 9:39
    Perciò l'abbiamo resa disponibile
    così che altri sviluppatori
  • 9:39 - 9:41
    possano svilupparla ed essere creativi.
  • 9:41 - 9:46
    Ammettiamo che ci sono
    rischi potenziali
  • 9:46 - 9:47
    e la possibilità di abuso,
  • 9:48 - 9:50
    ma personalmente, avendo passato
    tanti anni a farlo,
  • 9:50 - 9:53
    credo che i benefici per l'uomo
  • 9:53 - 9:55
    nell'avere una tecnologia
    emotivamente intelligente
  • 9:56 - 9:59
    siano di gran lunga maggiori
    del potenziale uso improprio.
  • 9:59 - 10:02
    E vi invito a essere tutti
    parte della conversazione.
  • 10:02 - 10:04
    Più persone conoscono
    questa tecnologia,
  • 10:04 - 10:07
    più possiamo tutti avere voce
    su come va usata.
  • 10:09 - 10:13
    Dato che sempre più le nostre vite
    diventano digitali,
  • 10:14 - 10:17
    combattiamo una battaglia persa
    cercando di frenare l'uso dei dispositivi
  • 10:17 - 10:19
    per ritrovare le nostre emozioni.
  • 10:21 - 10:25
    Quello che invece cerco di fare è portare
    le emozioni nella nostra tecnologia
  • 10:25 - 10:27
    e renderla più reattiva.
  • 10:27 - 10:29
    Voglio che quei dispositivi
    che ci hanno divisi
  • 10:29 - 10:31
    ci uniscano di nuovo.
  • 10:32 - 10:36
    E umanizzando la tecnologia
    abbiamo un'opportunità d'oro
  • 10:36 - 10:40
    per ripensare a come siamo connessi
    con le macchine,
  • 10:40 - 10:44
    e quindi a come, in quanto esseri umani,
  • 10:44 - 10:46
    siamo connessi agli altri.
  • 10:46 - 10:47
    Grazie.
  • 10:47 - 10:51
    (Applausi)
Title:
Questa app sa cosa provi — te lo legge in faccia
Speaker:
Rana el Kaliouby
Description:

Le emozioni influenzano ogni aspetto della nostra vita ­­: come impariamo, comunichiamo, prendiamo decisioni. Eppure queste mancano dalle nostre vite digitali; strumenti e app con cui interagiamo non hanno modo di sapere come ci sentiamo. La scienziata Rana el Kaliouby intende cambiare le cose e presenta una nuova e potente tecnologia che legge le espressioni facciali e le combina con le emozioni corrispondenti. Questo "sistema delle emozioni" porta a grandi cose, dice, e può cambiare non solo il modo di interagire con le macchine — ma anche con gli altri.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Italian subtitles

Revisions