Return to Video

O aplicație care știe cum te simți analizându-ți fața

  • 0:01 - 0:05
    Emoțiile influențează fiecare
    aspect al vieții noastre,
  • 0:05 - 0:08
    de la sănătate și învățătură,
    la cum facem afaceri și cum luăm decizii,
  • 0:08 - 0:10
    mari sau mici.
  • 0:11 - 0:14
    Emoțiile influențează modul în care
    relaționăm unii cu ceilalți.
  • 0:15 - 0:18
    Am evoluat pentru a trăi
    într-o lume ca aceasta.
  • 0:19 - 0:23
    Dar în loc viețile noastre
    arată tot mai mult așa
  • 0:23 - 0:27
    – e un mesaj primit
    de la fiica mea aseară –
  • 0:27 - 0:29
    o lume lipsită de emoții.
  • 0:29 - 0:31
    Misiunea mea e să schimb asta.
  • 0:31 - 0:36
    Vreau să aduc emoțiile înapoi
    în lumea digitală.
  • 0:36 - 0:39
    Am început acest drum acum 15 ani.
  • 0:39 - 0:42
    Lucram în informatică, în Egipt,
  • 0:42 - 0:46
    și tocmai fusesem acceptată la un doctorat
    la Universitatea Cambridge.
  • 0:46 - 0:48
    Așa că am făcut ceva neobișnuit
  • 0:48 - 0:52
    pentru o proaspăt căsătorită
    tânără musulmană din Egipt:
  • 0:52 - 0:54
    (Râsete)
  • 0:54 - 0:57
    cu ajutorul soțului meu,
    care a trebuit să rămână în Egipt,
  • 0:57 - 1:00
    mi-am făcut bagajele
    și m-am mutat în Anglia.
  • 1:00 - 1:03
    La Cambridge,
    mii de kilometri departe de casă,
  • 1:03 - 1:06
    am observat că petrec
    mai multe ore cu laptopul meu
  • 1:06 - 1:08
    decât cu alți oameni.
  • 1:08 - 1:13
    Dar în ciuda acestei intimități,
    laptopul n-avea idee cum mă simt.
  • 1:13 - 1:17
    Nu știa dacă sunt fericită,
  • 1:17 - 1:20
    dacă am o zi proastă,
    dacă sunt stresată sau dezorientată,
  • 1:20 - 1:22
    iar asta era enervant.
  • 1:24 - 1:29
    Mai rău, când comunicam pe internet
    cu familia mea rămasă acasă
  • 1:29 - 1:33
    simțeam că toate emoțiile mele
    dispar în spațiul virtual.
  • 1:33 - 1:38
    Îmi era dor de casă, mă simțeam singură
    și în unele zile chiar plângeam,
  • 1:38 - 1:43
    dar tot ce puteam folosi pentru a-mi
    comunica emoțiile era... asta.
  • 1:43 - 1:45
    (Râsete)
  • 1:45 - 1:49
    Tehnologia de azi e foarte inteligentă,
    dar nu și emoțională;
  • 1:49 - 1:53
    multă inteligență cognitivă,
    dar nu și inteligență emoțională.
  • 1:53 - 1:55
    Asta m-a pus pe gânduri:
  • 1:55 - 1:59
    ce-ar fi dacă tehnologia
    ne-ar putea simți emoțiile?
  • 1:59 - 2:03
    Ce-ar fi dacă dispozitivele ar ști ce simțim
    și ar reacționa în concordanță,
  • 2:03 - 2:06
    la fel ca un prieten
    cu inteligență emoțională?
  • 2:07 - 2:10
    Aceste întrebări ne-au impulsionat
    pe mine și echipa mea
  • 2:10 - 2:15
    să creăm tehnologii care să citească
    și să răspundă la emoțiile noastre.
  • 2:15 - 2:18
    Iar punctul nostru de start
    a fost chipul uman.
  • 2:19 - 2:22
    Chipul nostru e cel mai bun canal
  • 2:22 - 2:26
    cu care transmitem
    stări sociale și emoționale,
  • 2:26 - 2:29
    totul: bucurie, surpriză,
  • 2:29 - 2:33
    empatie și curiozitate.
  • 2:33 - 2:38
    În știința emoțiilor, fiecare mișcare
    a mușchilor feței e o unitate de acțiune.
  • 2:38 - 2:40
    De exemplu, unitatea de acțiune 12
  • 2:40 - 2:43
    – nu garantează succesul la Hollywood –
  • 2:43 - 2:46
    e o ridicare a colțului buzei,
    componenta principală a zâmbetului.
  • 2:46 - 2:49
    Încercați. Hai să vedem niște zâmbete.
  • 2:49 - 2:52
    Un alt exemplu e unitatea 4:
    ridurile frunții.
  • 2:52 - 2:56
    E atunci când îți apropii sprâncenele
    și creezi textura aceea ridată.
  • 2:56 - 3:00
    Nu ne place, dar este un indicator
    puternic a unei emoții negative.
  • 3:00 - 3:03
    Avem vreo 45 de astfel de unități,
  • 3:03 - 3:06
    care se combină pentru a exprima
    sute de emoții.
  • 3:06 - 3:10
    E greu să înveți un calculator
    să recunoască emoțiile,
  • 3:10 - 3:13
    deoarece aceste unități
    pot fi rapide, subtile,
  • 3:13 - 3:16
    și se combină în multe moduri.
  • 3:16 - 3:20
    Spre exemplu, zâmbetul și strâmbătura.
  • 3:20 - 3:23
    Seamănă cumva, dar reprezintă
    lucruri foarte diferite.
  • 3:23 - 3:25
    (Râsete)
  • 3:25 - 3:27
    Zâmbetul e pozitiv,
  • 3:27 - 3:29
    strâmbătura e adesea negativă.
  • 3:29 - 3:33
    Uneori strâmbătura te poate face celebru.
  • 3:33 - 3:38
    Dar e important pentru un calculator
    să poată face diferența între cele două.
  • 3:38 - 3:40
    Cum facem asta?
  • 3:40 - 3:42
    Oferim algoritmilor noștri
  • 3:42 - 3:47
    zeci de mii de exemple de oameni
    despre care știm că zâmbesc,
  • 3:47 - 3:50
    din diferite etnii, vârste, sexe,
  • 3:50 - 3:52
    și la fel pentru strâmbături.
  • 3:52 - 3:54
    Apoi, folosind învățarea profundă,
  • 3:54 - 3:57
    algoritmul caută aceste texturi și riduri
  • 3:57 - 3:59
    și schimbările de formă
    de pe fața noastră,
  • 3:59 - 4:03
    învățând astfel că toate zâmbetele
    au caracteristici comune
  • 4:03 - 4:06
    și că strâmbăturile
    au caracteristici ușor diferite.
  • 4:06 - 4:08
    Iar data următoare când vede o față
  • 4:08 - 4:11
    învață că
  • 4:11 - 4:13
    această față are aceleași
    caracteristici ale unui zâmbet
  • 4:13 - 4:17
    și spune: „Aha, recunosc asta,
    e expresia unui zâmbet.”
  • 4:19 - 4:23
    Cel mai bun mod de a ilustra tehnologia
    e să încercăm o demonstrație în direct.
  • 4:23 - 4:27
    Am nevoie de un voluntar,
    preferabil cineva cu o față.
  • 4:27 - 4:30
    (Râsete)
  • 4:30 - 4:32
    Cloe va fi voluntarul nostru azi.
  • 4:33 - 4:39
    În ultimii cinci ani, dintr-un proiect
    de cercetare la MIT am devenit o firmă,
  • 4:39 - 4:42
    unde echipa mea s-a străduit să facă
    tehnologia să meargă,
  • 4:42 - 4:44
    cum spunem noi, în „sălbăticie”.
  • 4:44 - 4:49
    În plus am comprimat-o încât nucleul ei
    să meargă pe orice dispozitiv cu o cameră,
  • 4:49 - 4:51
    ca acest iPad.
  • 4:51 - 4:53
    Hai să încercăm.
  • 4:55 - 4:59
    După cum puteți vedea,
    algoritmul a găsit fața lui Cloe,
  • 4:59 - 5:00
    acest dreptunghi alb,
  • 5:00 - 5:03
    și urmărește punctele
    reprezentative ale feței:
  • 5:03 - 5:06
    sprâncenele, ochii, gura și nasul.
  • 5:06 - 5:08
    Întrebarea este:
    îi poate recunoaște expresia?
  • 5:08 - 5:10
    Hai să testăm mașina.
  • 5:10 - 5:12
    Mai întâi arată-mi o față neutră.
  • 5:12 - 5:13
    Da, super.
  • 5:13 - 5:15
    (Râsete)
  • 5:15 - 5:18
    Pe măsură ce zâmbește
    – un zâmbet autentic, super –
  • 5:18 - 5:20
    vedeți cum crește bara verde.
  • 5:20 - 5:22
    A fost un zâmbet mare,
    poți încerca unul subtil
  • 5:22 - 5:24
    să vedem dacă îl recunoaște?
  • 5:24 - 5:28
    Recunoaște și zâmbete subtile,
    ne-am străduit mult să iasă asta.
  • 5:28 - 5:31
    Și acum sprâncenele ridicate,
    indicatorul surprizei.
  • 5:31 - 5:36
    Acum riduri pe frunte,
    indicatorul confuziei.
  • 5:36 - 5:38
    Încruntă-te.
  • 5:38 - 5:40
    Da, perfect.
  • 5:40 - 5:43
    Ați văzut diferite unități de acțiune,
    mai sunt multe,
  • 5:43 - 5:45
    acesta e doar un demo redus.
  • 5:45 - 5:49
    Fiecare citire o numim
    „valoare măsurată a emoției”;
  • 5:49 - 5:51
    ele pot acționa împreună,
    creând diferite emoții.
  • 5:51 - 5:53
    Pe dreapta...
  • 5:53 - 5:55
    Mimează fericirea.
  • 5:55 - 5:57
    Asta e bucuria, se aprinde.
  • 5:57 - 5:59
    Acum arată-mi o față dezgustată.
  • 5:59 - 6:04
    Gândește-te cum a fost
    când a plecat Zayn de la One Direction.
  • 6:04 - 6:05
    (Râsete)
  • 6:05 - 6:09
    Da, încrețește-ți nasul. Super.
  • 6:09 - 6:13
    Valența e destul de negativă,
    deci probabil i-ai fost mare fan.
  • 6:13 - 6:16
    Valența arată cât de pozitivă
    sau negativă e o experiență,
  • 6:16 - 6:19
    iar angajamentul arată
    cât e de expresivă.
  • 6:19 - 6:22
    Imaginați-vă că Cloe ar avea acces
    în timp real la fluxul de emoții
  • 6:22 - 6:25
    și că ar putea trimite
    emoții oricui.
  • 6:25 - 6:27
    Mulțumesc.
  • 6:27 - 6:30
    (Aplauze)
  • 6:34 - 6:39
    Până acum am strâns 12 miliarde
    de valori măsurate ale emoției;
  • 6:39 - 6:41
    e cea mai mare bază de date
    de emoții din lume.
  • 6:41 - 6:45
    Am colectat-o din 2,9 milioane
    de videoclipuri cu fețe,
  • 6:45 - 6:48
    oameni care au fost de acord
    să ne transmită emoțiile,
  • 6:48 - 6:50
    din 75 de țări din toată lumea.
  • 6:50 - 6:52
    Și crește în fiecare zi.
  • 6:53 - 6:58
    Sunt uimită că am reușit să cuantificăm
    ceva atât de personal cum sunt emoțiile,
  • 6:58 - 7:00
    la o scară atât de mare.
  • 7:00 - 7:02
    Ce am învățat până acum?
  • 7:03 - 7:05
    Sexul.
  • 7:05 - 7:09
    Datele noastre confirmă ceva
    ce ați putea bănui:
  • 7:09 - 7:11
    femeile sunt mai expresive decât bărbații:
  • 7:11 - 7:14
    zâmbetele lor sunt mai intense
    și durează mai mult,
  • 7:14 - 7:19
    iar acum putem cuantifica la ce anume
    reacționează diferit bărbații și femeile.
  • 7:19 - 7:21
    Să vorbim puțin de cultură: în SUA
  • 7:21 - 7:24
    femeile sunt cu 40% mai expresive
    decât bărbații,
  • 7:24 - 7:28
    dar, surprinzător,
    diferența asta nu există în Regatul Unit.
  • 7:28 - 7:30
    (Râsete)
  • 7:31 - 7:35
    Vârstă: oamenii peste 50 de ani
  • 7:35 - 7:39
    sunt cu 25% mai emotivi
    decât cei mai tineri.
  • 7:39 - 7:44
    La 20–30 de ani femeile zâmbesc
    mult mai mult decât bărbații,
  • 7:44 - 7:47
    poate din nevoia de a-și găsi pe cineva.
  • 7:48 - 7:51
    Dar ce ne-a surprins cel mai mult
    în aceste date
  • 7:51 - 7:53
    e faptul că suntem expresivi mereu,
  • 7:53 - 7:56
    chiar și când stăm singuri
    în fața dispozitivelor
  • 7:56 - 8:00
    și nu doar când ne uităm la
    filmulețe cu pisici pe Facebook.
  • 8:00 - 8:03
    Suntem expresivi când scriem
    mesaje, când cumpărăm online,
  • 8:03 - 8:06
    chiar și când ne plătim impozitele.
  • 8:06 - 8:08
    La ce sunt folosite azi aceste date?
  • 8:08 - 8:10
    La a înțelege cum interacționăm cu media,
  • 8:10 - 8:13
    cu conținutul viral și
    comportamentul votanților,
  • 8:13 - 8:16
    dar și la a dezvolta
    planul emotiv al tehnologiei.
  • 8:16 - 8:20
    Și aș vrea să vă arăt câteva exemple
    la care țin foarte mult.
  • 8:21 - 8:24
    Ochelarii cu funcții emotive
    pot ajuta indivizii
  • 8:24 - 8:27
    care au probleme cu vederea
    să citească fețele celorlalți
  • 8:27 - 8:31
    și-i poate ajuta pe autiștii
    de diverse grade să interpreteze emoția,
  • 8:31 - 8:34
    lucru care pentru ei e complicat.
  • 8:36 - 8:39
    În educație, imaginați-vă
    că aplicațiile de învățare
  • 8:39 - 8:41
    vă percep confuzia,
    și atunci încetinesc,
  • 8:41 - 8:43
    sau plictiseala,
    și atunci grăbesc pasul,
  • 8:43 - 8:46
    cum ar face un profesor bun în clasă.
  • 8:47 - 8:50
    Ce ar fi dacă ceasul v-ar simți starea
  • 8:50 - 8:52
    sau dacă mașina ar simți
    că sunteți obosiți,
  • 8:52 - 8:55
    sau poate frigiderul simte
    că sunteți stresat
  • 8:55 - 8:59
    și se încuie ca să nu mâncați frenetic?
    (Râsete)
  • 8:59 - 9:02
    Mi-ar plăcea asta, da!
  • 9:04 - 9:08
    Cum ar fi fost dacă la Cambridge
    aș fi avut acces la acest sistem
  • 9:08 - 9:12
    și aș fi putut să le transmit rudelor
    emoțiile, într-un mod natural,
  • 9:12 - 9:15
    ca și când aș fi fost în
    aceeași cameră cu ei?
  • 9:15 - 9:18
    Cred că în viitorii cinci ani
  • 9:18 - 9:21
    toate dispozitivele vor avea
    un cip al emoțiilor
  • 9:21 - 9:25
    și nici nu ne vom aduce aminte cum era
    când nu te puteai încrunta la dispozitiv
  • 9:25 - 9:29
    ca să-și dea seama dintr-o privire:
    „Hmm, nu ți-a plăcut, nu?”
  • 9:29 - 9:33
    Cea mai mare dificultate e
    că tehnologia are așa multe aplicații
  • 9:33 - 9:36
    încât eu și echipa mea înțelegem
    că nu putem face noi totul,
  • 9:36 - 9:38
    așa că am făcut tehnologia disponibilă,
  • 9:38 - 9:42
    pentru ca dezvoltatorii să înceapă
    să construiască și să creeze.
  • 9:42 - 9:46
    Ne dăm seama că există riscuri
  • 9:46 - 9:48
    și potențial pentru abuzuri,
  • 9:48 - 9:50
    dar personal, după ce am petrecut
    mulți ani făcând asta,
  • 9:50 - 9:53
    cred că beneficiile pe care
    le poate avea omenirea
  • 9:53 - 9:56
    din tehnologiile cu inteligență emoțională
  • 9:56 - 9:59
    depășesc cu mult riscurile de abuz.
  • 9:59 - 10:02
    Așa că vă invit să participați.
  • 10:02 - 10:04
    Cu cât știe mai multă lume
    de această tehnologie,
  • 10:04 - 10:08
    cu atât avem un cuvânt mai greu
    în cum e ea folosită.
  • 10:09 - 10:14
    Pe măsură ce viața noastră
    devine digitală
  • 10:14 - 10:17
    ne chinuim inutil să ne folosim
    mai puțin dispozitivele
  • 10:17 - 10:20
    pentru a ne revendica emoțiile.
  • 10:20 - 10:25
    Ceea ce încerc eu e să aduc
    emoțiile înapoi în tehnologie,
  • 10:25 - 10:27
    să ameliorez reacțiile tehnologiilor.
  • 10:27 - 10:29
    Visez ca aceste dispozitive
    care ne-au despărțit
  • 10:29 - 10:31
    să ne reunească.
  • 10:32 - 10:36
    Umanizând tehnologia avem imensa șansă
  • 10:36 - 10:40
    de a reimagina modul în care
    ne conectăm cu mașinile,
  • 10:40 - 10:44
    și prin asta și modul în care noi,
    ca ființe umane,
  • 10:44 - 10:46
    ne conectăm între noi.
  • 10:46 - 10:47
    Mulțumesc.
  • 10:47 - 10:50
    (Aplauze)
Title:
O aplicație care știe cum te simți analizându-ți fața
Speaker:
Rana el Kaliouby
Description:

Emoțiile ne influențează fiecare aspect al vieții – cum învățăm, cum comunicăm, cum luăm decizii. Totuși emoțiile sunt absente din lumea digitală. Aplicațiile și dispozitivele cu care interacționăm nu au cum să știe ce simțim. Cercetătoarea Rana el Kaliouby și-a propus să schimbe lucrurile. Ea prezintă o nouă tehnologie care citește expresiile faciale și le transpune în emoții. Acest sistem are implicații mari și poate schimba atât modul în care interacționăm cu mașinile, cât și unii cu alții.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Romanian subtitles

Revisions