Return to Video

Ova aplikacija zna kako se osećate - po vašem izrazu lica

  • 0:01 - 0:04
    Naše emocije utiču
    na svaki aspekt naših života,
  • 0:04 - 0:06
    od našeg zdravlja i načina učenja
  • 0:06 - 0:08
    do načina obavljanja posla
    i donošenja odluka,
  • 0:08 - 0:10
    bile one velike ili male.
  • 0:10 - 0:14
    Naše emocije takođe utiču na to
    kako se povezujemo jedni sa drugima.
  • 0:15 - 0:19
    Razvili smo se za život
    u svetu kao što je ovaj,
  • 0:19 - 0:23
    ali umesto toga,
    živimo sve više naše živote ovako -
  • 0:23 - 0:27
    ovo je SMS poruka
    koju mi je ćerka poslala sinoć -
  • 0:27 - 0:29
    u svetu koji je lišen emocija.
  • 0:29 - 0:31
    Tako sam na misiji to da promenim.
  • 0:31 - 0:35
    Želim da vratim emocije
    u naše digitalno iskustvo.
  • 0:36 - 0:39
    Krenula sam ovim putem pre 15 godina.
  • 0:39 - 0:42
    Bila sam kompjuterski naučnik u Egiptu
  • 0:42 - 0:43
    i samo što su me primili
  • 0:43 - 0:46
    na doktorski program
    na univerzitetu u Kembridžu.
  • 0:46 - 0:48
    Tako sam uradila nešto prilično neobično
  • 0:48 - 0:51
    za jednu mladu, tek venčanu ženu
    koja je muslimanska Egipćanka:
  • 0:51 - 0:54
    (Smeh)
  • 0:54 - 0:57
    uz podršku mog muža
    koji je morao da ostane u Egiptu,
  • 0:57 - 1:00
    spakovala sam kofere
    i preselila se u Englesku.
  • 1:00 - 1:03
    Na Kembridžu, kilometrima daleko od kuće,
  • 1:03 - 1:06
    shvatila sam da više vremena
    provodim sa laptopom
  • 1:06 - 1:08
    nego sa bilo kojim drugim ljudskim bićem.
  • 1:08 - 1:13
    Ipak, i pored ove prisnosti, moj laptop
    nije imao pojma kako se osećam.
  • 1:13 - 1:17
    Nije imao pojma da li sam srećna,
  • 1:17 - 1:20
    da li sam imala loš dan,
    da li sam pod stresom, zbunjena,
  • 1:20 - 1:22
    tako da je to postalo frustrirajuće.
  • 1:24 - 1:28
    Još gore, dok sam komunicirala
    sa porodicom kod kuće preko mreže,
  • 1:29 - 1:33
    osećala sam da sve moje emocije
    nestaju u sajber prostoru.
  • 1:33 - 1:38
    Nedostajala mi je kuća, bila sam usamljena
    i nekih dana sam zapravo i plakala,
  • 1:38 - 1:43
    ali sve što sam imala
    da iskažem ove emocije bilo je ovo.
  • 1:43 - 1:45
    (Smeh)
  • 1:45 - 1:49
    Današnja tehnologija ima
    mnogo IQ-a, ali nema EQ;
  • 1:49 - 1:53
    mnogo kognitivne inteligencije,
    ali nimalo emocionalne inteligencije,
  • 1:53 - 1:55
    te me je to nagnalo na razmišljanje.
  • 1:55 - 1:59
    Šta ako bi naša tehnologija mogla
    da oseti naše emocije?
  • 1:59 - 2:03
    Šta ako bi uređaji mogli
    da prepoznaju i reaguju na naša osećanja,
  • 2:03 - 2:07
    baš kao što bi reagovao
    i emocionalno inteligentan prijatelj?
  • 2:07 - 2:11
    Ta pitanja su navela mene i moj tim
    da napravimo tehnologiju
  • 2:11 - 2:15
    koja može da čita
    i reaguje na naše emocije,
  • 2:15 - 2:18
    a naša početna tačka bilo je ljudsko lice.
  • 2:19 - 2:22
    Dakle, ljudsko lice
    je jedno od najmoćnijih kanala
  • 2:22 - 2:26
    koje koristimo da prenesemo
    društvena i emocionalna stanja,
  • 2:26 - 2:29
    sve od zadovoljstva, iznenađenja,
  • 2:29 - 2:33
    empatije do radoznalosti.
  • 2:33 - 2:34
    U nauci o emocijama,
  • 2:34 - 2:38
    sve pokrete facijalnih mišića
    nazivamo akcijskim jedinicama.
  • 2:38 - 2:43
    Tako, na primer, akcijska jedinica 12
    nije holivudski blokbaster,
  • 2:43 - 2:46
    nego se radi o podizanju ugla usana,
    što je glavna komponenta osmeha.
  • 2:46 - 2:49
    Probajte to. Hajde da svi nabacimo osmehe.
  • 2:49 - 2:52
    Još jedan primer je akcijska jedinica 4.
    To je boranje obrve.
  • 2:52 - 2:56
    To je kada skupite obrve
    i stvorite sve ove teksture i bore.
  • 2:56 - 3:00
    Ne volimo ih, ali one su jasan pokazatelj
    neke negativne emocije.
  • 3:00 - 3:02
    Tako imamo oko 45 ovih akcijskih jedinica
  • 3:02 - 3:06
    i one se kombinuju
    da izraze stotine emocija.
  • 3:06 - 3:10
    Podučavanje kompjutera
    da čita ove facijalne emocije je teško
  • 3:10 - 3:13
    zato što ove akcijske jedinice
    mogu biti brze, suptilne
  • 3:13 - 3:16
    i kombinuju se na mnogo različitih načina.
  • 3:16 - 3:20
    Uzmite tako, na primer,
    osmeh i zloban osmeh.
  • 3:20 - 3:23
    Izgledaju pomalo slično
    ali imaju veoma različita značenja.
  • 3:23 - 3:25
    (Smeh)
  • 3:25 - 3:27
    Dakle, osmeh je pozitivan,
  • 3:27 - 3:29
    a zloban osmeh je često negativan.
  • 3:29 - 3:33
    Ponekad jedan zloban osmeh može
    da vas napravi poznatim.
  • 3:33 - 3:36
    Ozbiljno, važno je
    da kompjuter bude u stanju
  • 3:36 - 3:39
    da prepozna razliku između
    ova dva izraza.
  • 3:39 - 3:40
    Dakle, kako to postižemo?
  • 3:40 - 3:42
    Obezbeđujemo svojim algoritmima
  • 3:42 - 3:47
    desetine hiljada primera ljudi
    za koje znamo da se osmehuju,
  • 3:47 - 3:50
    ljudi različitih etničkih pripadnosti,
    godina, različitog pola,
  • 3:50 - 3:52
    a to isto činimo za podsmehe.
  • 3:52 - 3:54
    Onda, uz dubinski pristup učenju,
  • 3:54 - 3:57
    algoritam traži sve ove teksture i bore
  • 3:57 - 3:59
    i promene oblika na našim licima,
  • 3:59 - 4:03
    i u suštini uči da svi osmesi imaju
    zajedničke osobine,
  • 4:03 - 4:06
    da se svi zlobni osmesi suptilno razlikuju
    od osmeha po osobinama.
  • 4:06 - 4:08
    I sledeći put kada vidi novo lice,
  • 4:08 - 4:13
    u suštini uči da ovo lice ima
    iste osobine osmeha
  • 4:13 - 4:17
    i kaže „Aha, prepoznajem ovo.
    Ovo je izraz osmeha.”
  • 4:18 - 4:21
    Najbolji način da pokažemo
    kako ova tehnologija funkcioniše
  • 4:21 - 4:25
    jeste da probamo demo-verziju uživo,
    tako da mi treba dobrovoljac.
  • 4:25 - 4:27
    Poželjno je da taj neko ima lice.
  • 4:27 - 4:30
    (Smeh)
  • 4:30 - 4:32
    Kloi će nam danas biti dobrovoljac.
  • 4:33 - 4:38
    Dakle, u zadnjih pet godina,
    od istraživačkog projekta na MIT-u
  • 4:38 - 4:39
    postali smo kompanija,
  • 4:39 - 4:42
    u kojoj je moj tim vredno radio
    da ova tehnologija uspe,
  • 4:42 - 4:44
    kako mi volimo da kažemo, u divljini.
  • 4:44 - 4:47
    Takođe smo je smanjili
    tako da osnovni emotivni motor
  • 4:47 - 4:51
    radi na bilo kom mobilnom uređaju
    koji ima kameru, kao što je ovaj Ajped.
  • 4:51 - 4:53
    Dakle, hajde da probamo.
  • 4:55 - 4:59
    Kao što možete da vidite,
    algoritam je pronašao Kloino lice.
  • 4:59 - 5:00
    To je ovaj beli granični okvir,
  • 5:00 - 5:03
    koji prati glavne tačke odlika
    na njenom licu,
  • 5:03 - 5:06
    dakle, njene obrve, njene oči,
    njena usta i njen nos.
  • 5:06 - 5:08
    Pitanje je, da li može prepoznati
    njen izraz lica?
  • 5:08 - 5:10
    Dakle, testiraćemo mašinu.
  • 5:10 - 5:13
    Pre svega, da vidimo tvoje
    pokeraško lice. Da, super.
  • 5:13 - 5:15
    (Smeh)
  • 5:15 - 5:17
    Onda, kada se osmehne,
    ovo je iskren osmeh, odlično.
  • 5:17 - 5:20
    Vidite da se zelena traka
    puni kada se osmehuje.
  • 5:20 - 5:21
    To je bio širok osmeh.
  • 5:21 - 5:24
    A jedan suptilan osmeh da vidimo
    da li kompjuter ume da prepozna?
  • 5:24 - 5:25
    Prepoznaje i suptilne osmehe.
  • 5:25 - 5:28
    Vredno smo radili da ovo ostvarimo.
  • 5:28 - 5:31
    Zatim podignute obrve,
    pokazatelj iznenađenja.
  • 5:31 - 5:36
    Boranje obrva,
    što je pokazatelj zbunjenosti.
  • 5:36 - 5:40
    Mrštenje. Da, savršeno.
  • 5:40 - 5:43
    Ovo su različite akcijske jedinice.
    Postoji ih još mnogo više.
  • 5:43 - 5:45
    Ovo je samo skraćena demo verzija.
  • 5:45 - 5:48
    Svako čitanje nazivamo
    tačkom emotivnih podataka
  • 5:48 - 5:51
    i one mogu zajedno da rade
    da iskažu različite emocije.
  • 5:51 - 5:55
    Dakle, na desnoj strani demo verzije -
    izgledaj kao da si srećna.
  • 5:55 - 5:57
    Dakle, to je radost. Radost se povećava.
  • 5:57 - 5:59
    Sad mi pokaži izraz gađenja.
  • 5:59 - 6:03
    Pokušaj da se setiš kako si se osećala
    kada je Zejn napustio „One Direction".
  • 6:03 - 6:04
    (Smeh)
  • 6:04 - 6:08
    Da, naboraj nos. Super.
  • 6:09 - 6:13
    Valenca je stvarno krajnje negativna,
    tako da mora da si bila veliki fan.
  • 6:13 - 6:16
    Valenca označava koliko je
    iskustvo pozitivno ili negativno,
  • 6:16 - 6:19
    a angažman je taj koji označava
    koliko je ona ekspresivna.
  • 6:19 - 6:22
    Zamislite da Kloi ima pristup
    ovom emotivnom prenosu u realnom vremenu
  • 6:22 - 6:25
    i da može da ga podeli sa kim god želi.
  • 6:25 - 6:26
    Hvala ti.
  • 6:26 - 6:30
    (Aplauz)
  • 6:34 - 6:39
    Dakle, do sada smo nagomilali 12 milijardi
    ovih tačaka emotivnih podataka.
  • 6:39 - 6:41
    To je najveća baza emocija u svetu.
  • 6:41 - 6:45
    Sakupili smo je
    kroz 2,9 miliona klipova lica,
  • 6:45 - 6:47
    ljudi koji su pristali da podele
    svoje emocije sa nama,
  • 6:47 - 6:50
    a to iz 75 zemalja širom sveta.
  • 6:50 - 6:52
    Broj svaki dan raste.
  • 6:53 - 6:54
    Raspamećuje me
  • 6:54 - 6:58
    to da sada možemo odrediti količinu
    nečega tako ličnog kao što su emocije
  • 6:58 - 7:00
    i da to možemo obaviti na ovom nivou.
  • 7:00 - 7:02
    Dakle, šta smo naučili do sada?
  • 7:03 - 7:04
    Pol.
  • 7:05 - 7:09
    Naši podaci potvrđuju ono
    što možda pretpostavljate.
  • 7:09 - 7:11
    Žene su eskpresivnije od muškaraca.
  • 7:11 - 7:14
    Ne samo da se više osmehuju,
    njihovi osmesi traju duže.
  • 7:14 - 7:16
    Sada stvarno možemo odrediti
    šta je to na šta muškarci i žene
  • 7:16 - 7:19
    reaguju drugačije.
  • 7:19 - 7:21
    Pozabavimo se kulturom.
    U Sjedinjenim Državama,
  • 7:21 - 7:24
    žene su 40% ekspresivnije od muškaraca,
  • 7:24 - 7:28
    ali neobično je to da nema razlike
    u UK između muškaraca i žena.
  • 7:28 - 7:30
    (Smeh)
  • 7:31 - 7:35
    Godine. Ljudi koji imaju
    50 godina ili stariji od toga
  • 7:35 - 7:39
    su 25% emotivniji od mlađih ljudi.
  • 7:39 - 7:44
    Žene u dvadesetima osmehuju se
    mnogo više od muškaraca istih godina,
  • 7:44 - 7:47
    što je možda neophodno pri zabavljanju.
  • 7:48 - 7:50
    Ipak, možda najveće iznenađenje
    u vezi ovih podataka
  • 7:50 - 7:53
    je to da smo stalno izražajni,
  • 7:53 - 7:56
    čak i kada sedimo sami
    ispred naših uređaja,
  • 7:56 - 8:00
    i to ne samo kada gledamo
    klipove sa mačkama na Fejbuku.
  • 8:00 - 8:03
    Izražajni smo kada šaljemo i-mejlove,
    SMS-ove, kupujemo onlajn,
  • 8:03 - 8:06
    čak i kada obrađujemo porez.
  • 8:06 - 8:08
    Gde se ovi podaci koriste danas?
  • 8:08 - 8:11
    Kada treba da razumemo
    kako da se angažujemo na mrežama,
  • 8:11 - 8:13
    da razumemo viralnost
    i ponašanja pri glasanju,
  • 8:13 - 8:16
    kao i da razumemo tehnologije
    koje osnažuju i omogućuju emocije.
  • 8:16 - 8:21
    Želim takođe da podelim
    i primere koji su mi posebno dragi.
  • 8:21 - 8:24
    Naočare koje omogućuju emocije
    mogu da pomognu pojedincima
  • 8:24 - 8:27
    koji imaju oštećen vid
    da čitaju lica drugih ljudi
  • 8:27 - 8:31
    i mogu da pomognu pojedincima
    sa autizmom da protumače emocije,
  • 8:31 - 8:34
    nešto sa čim stvarno imaju problema.
  • 8:36 - 8:39
    U obrazovanju, zamislite
    kada bi vaše aplikacije za učenje
  • 8:39 - 8:42
    mogle da osete kada ste zbunjeni i uspore,
  • 8:42 - 8:43
    ili kada vam je dosadno i ubrzaju,
  • 8:43 - 8:46
    kao što bi dobar profesor
    uradio u učionici.
  • 8:47 - 8:50
    Šta bi bilo ako bi vaš ručni sat
    mogao da prati vaše raspoloženje,
  • 8:50 - 8:52
    ili kada bi vaš auto mogao
    da oseti kada ste umorni,
  • 8:52 - 8:55
    ili kada bi vaš frižider
    znao kada ste pod stresom,
  • 8:55 - 8:59
    pa se automatski zatvori
    da vas spreči da se opsesivno prejedate?
  • 8:59 - 9:00
    Da, i ja bih to volela.
  • 9:00 - 9:02
    (Smeh)
  • 9:04 - 9:05
    Šta bi bilo da sam na Kembridžu
  • 9:05 - 9:08
    imala pristup svom emotivnom prenosu
    u realnom vremenu,
  • 9:08 - 9:11
    da sam mogla da ga podelim to
    sa porodicom kod kuće na prirodan način,
  • 9:11 - 9:15
    kao što bih uradila
    da smo svi u istoj sobi zajedno?
  • 9:15 - 9:18
    Mislim da će kroz pet godina,
  • 9:18 - 9:21
    svi naši uređaji imati emotivni čip
  • 9:21 - 9:23
    i nećemo se sećati kako je bilo
  • 9:23 - 9:25
    kada nismo mogli
    samo da se namrštimo uređajima,
  • 9:25 - 9:28
    a da oni ne kažu:
    „Hmm, to ti se nije baš svidelo, zar ne?”
  • 9:29 - 9:33
    Naš najveći izazov je
    veliki broj korisnika ove tehnologije.
  • 9:33 - 9:36
    Moj tim i ja smo shvatili
    da je ne možemo napraviti sami,
  • 9:36 - 9:39
    pa smo ovu tehnologiju učinili dostupnom
    tako da i drugi programeri
  • 9:39 - 9:42
    mogu da počnu sa građenjem
    i iskažu kreativnost.
  • 9:42 - 9:46
    Razumemo da su mogući i rizici
  • 9:46 - 9:48
    i da je moguća zloupotreba,
  • 9:48 - 9:50
    ali, budući da sam mnogo godina
    provela u radu na ovome,
  • 9:50 - 9:53
    verujem da su prednosti čovečanstva
  • 9:53 - 9:56
    sa emocionalno inteligentnom tehnologijom
  • 9:56 - 9:59
    važnije od moguće zloupotrebe.
  • 9:59 - 10:02
    Pozivam vas sve da budete deo te rasprave.
  • 10:02 - 10:04
    Što više ljudi zna za ovu tehnologiju,
  • 10:04 - 10:08
    to će više nas imati pravo
    da odlučuje kako će se ona koristiti.
  • 10:09 - 10:14
    Dakle, kako naši životi postaju
    sve više i više digitalni,
  • 10:14 - 10:17
    sve više gubimo bitku u pokušaju
    da smanjimo korišćenje ovih uređaja
  • 10:17 - 10:19
    da bismo povratili naše emocije.
  • 10:20 - 10:25
    Dakle, ono što ja pokušavam umesto toga
    je da uvedem emocije u našu tehnologiju
  • 10:25 - 10:27
    da bi tehnologija bila prijemčivija.
  • 10:27 - 10:31
    Dakle, želim da nas ovi uređaji
    koji su nas rastavili ponovo spoje.
  • 10:32 - 10:36
    Kada damo ljudska svojstva tehnologiji,
    dobijamo zlatnu priliku
  • 10:36 - 10:40
    da obnovimo način
    na koji se povezujemo sa mašinama
  • 10:40 - 10:44
    i stoga, kako se mi, kao ljudska bića,
  • 10:44 - 10:46
    povezujemo jedni sa drugima.
  • 10:46 - 10:47
    Hvala vam.
  • 10:47 - 10:50
    (Aplauz)
Title:
Ova aplikacija zna kako se osećate - po vašem izrazu lica
Speaker:
Rana el Kalioubi (Rana el Kaliouby)
Description:

Naše emocije utiču na svaki aspekt naših života - kako učimo, kako komuniciramo, kako donosimo odluke. Ipak, odsutne su iz naših digitalnih života; uređaji i aplikacije koje koristimo ne mogu znati kako se mi osećamo. Naučnik Rana el Kalioubi teži da promeni to. Ona predstavlja demo verziju moćne tehnologije koja čita izraze na vašem licu i povezuje ih sa odgovarajućim emocijama. Ovaj „emotivni motor” nosi sa sobom bitne implikacije, kaže ona, i mogao bi da promeni ne samo način na koji komuniciramo sa mašinama - već i jedni sa drugima.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Serbian subtitles

Revisions