Ova aplikacija zna kako se osećate - po vašem izrazu lica
-
0:01 - 0:04Naše emocije utiču
na svaki aspekt naših života, -
0:04 - 0:06od našeg zdravlja i načina učenja
-
0:06 - 0:08do načina obavljanja posla
i donošenja odluka, -
0:08 - 0:10bile one velike ili male.
-
0:10 - 0:14Naše emocije takođe utiču na to
kako se povezujemo jedni sa drugima. -
0:15 - 0:19Razvili smo se za život
u svetu kao što je ovaj, -
0:19 - 0:23ali umesto toga,
živimo sve više naše živote ovako - -
0:23 - 0:27ovo je SMS poruka
koju mi je ćerka poslala sinoć - -
0:27 - 0:29u svetu koji je lišen emocija.
-
0:29 - 0:31Tako sam na misiji to da promenim.
-
0:31 - 0:35Želim da vratim emocije
u naše digitalno iskustvo. -
0:36 - 0:39Krenula sam ovim putem pre 15 godina.
-
0:39 - 0:42Bila sam kompjuterski naučnik u Egiptu
-
0:42 - 0:43i samo što su me primili
-
0:43 - 0:46na doktorski program
na univerzitetu u Kembridžu. -
0:46 - 0:48Tako sam uradila nešto prilično neobično
-
0:48 - 0:51za jednu mladu, tek venčanu ženu
koja je muslimanska Egipćanka: -
0:51 - 0:54(Smeh)
-
0:54 - 0:57uz podršku mog muža
koji je morao da ostane u Egiptu, -
0:57 - 1:00spakovala sam kofere
i preselila se u Englesku. -
1:00 - 1:03Na Kembridžu, kilometrima daleko od kuće,
-
1:03 - 1:06shvatila sam da više vremena
provodim sa laptopom -
1:06 - 1:08nego sa bilo kojim drugim ljudskim bićem.
-
1:08 - 1:13Ipak, i pored ove prisnosti, moj laptop
nije imao pojma kako se osećam. -
1:13 - 1:17Nije imao pojma da li sam srećna,
-
1:17 - 1:20da li sam imala loš dan,
da li sam pod stresom, zbunjena, -
1:20 - 1:22tako da je to postalo frustrirajuće.
-
1:24 - 1:28Još gore, dok sam komunicirala
sa porodicom kod kuće preko mreže, -
1:29 - 1:33osećala sam da sve moje emocije
nestaju u sajber prostoru. -
1:33 - 1:38Nedostajala mi je kuća, bila sam usamljena
i nekih dana sam zapravo i plakala, -
1:38 - 1:43ali sve što sam imala
da iskažem ove emocije bilo je ovo. -
1:43 - 1:45(Smeh)
-
1:45 - 1:49Današnja tehnologija ima
mnogo IQ-a, ali nema EQ; -
1:49 - 1:53mnogo kognitivne inteligencije,
ali nimalo emocionalne inteligencije, -
1:53 - 1:55te me je to nagnalo na razmišljanje.
-
1:55 - 1:59Šta ako bi naša tehnologija mogla
da oseti naše emocije? -
1:59 - 2:03Šta ako bi uređaji mogli
da prepoznaju i reaguju na naša osećanja, -
2:03 - 2:07baš kao što bi reagovao
i emocionalno inteligentan prijatelj? -
2:07 - 2:11Ta pitanja su navela mene i moj tim
da napravimo tehnologiju -
2:11 - 2:15koja može da čita
i reaguje na naše emocije, -
2:15 - 2:18a naša početna tačka bilo je ljudsko lice.
-
2:19 - 2:22Dakle, ljudsko lice
je jedno od najmoćnijih kanala -
2:22 - 2:26koje koristimo da prenesemo
društvena i emocionalna stanja, -
2:26 - 2:29sve od zadovoljstva, iznenađenja,
-
2:29 - 2:33empatije do radoznalosti.
-
2:33 - 2:34U nauci o emocijama,
-
2:34 - 2:38sve pokrete facijalnih mišića
nazivamo akcijskim jedinicama. -
2:38 - 2:43Tako, na primer, akcijska jedinica 12
nije holivudski blokbaster, -
2:43 - 2:46nego se radi o podizanju ugla usana,
što je glavna komponenta osmeha. -
2:46 - 2:49Probajte to. Hajde da svi nabacimo osmehe.
-
2:49 - 2:52Još jedan primer je akcijska jedinica 4.
To je boranje obrve. -
2:52 - 2:56To je kada skupite obrve
i stvorite sve ove teksture i bore. -
2:56 - 3:00Ne volimo ih, ali one su jasan pokazatelj
neke negativne emocije. -
3:00 - 3:02Tako imamo oko 45 ovih akcijskih jedinica
-
3:02 - 3:06i one se kombinuju
da izraze stotine emocija. -
3:06 - 3:10Podučavanje kompjutera
da čita ove facijalne emocije je teško -
3:10 - 3:13zato što ove akcijske jedinice
mogu biti brze, suptilne -
3:13 - 3:16i kombinuju se na mnogo različitih načina.
-
3:16 - 3:20Uzmite tako, na primer,
osmeh i zloban osmeh. -
3:20 - 3:23Izgledaju pomalo slično
ali imaju veoma različita značenja. -
3:23 - 3:25(Smeh)
-
3:25 - 3:27Dakle, osmeh je pozitivan,
-
3:27 - 3:29a zloban osmeh je često negativan.
-
3:29 - 3:33Ponekad jedan zloban osmeh može
da vas napravi poznatim. -
3:33 - 3:36Ozbiljno, važno je
da kompjuter bude u stanju -
3:36 - 3:39da prepozna razliku između
ova dva izraza. -
3:39 - 3:40Dakle, kako to postižemo?
-
3:40 - 3:42Obezbeđujemo svojim algoritmima
-
3:42 - 3:47desetine hiljada primera ljudi
za koje znamo da se osmehuju, -
3:47 - 3:50ljudi različitih etničkih pripadnosti,
godina, različitog pola, -
3:50 - 3:52a to isto činimo za podsmehe.
-
3:52 - 3:54Onda, uz dubinski pristup učenju,
-
3:54 - 3:57algoritam traži sve ove teksture i bore
-
3:57 - 3:59i promene oblika na našim licima,
-
3:59 - 4:03i u suštini uči da svi osmesi imaju
zajedničke osobine, -
4:03 - 4:06da se svi zlobni osmesi suptilno razlikuju
od osmeha po osobinama. -
4:06 - 4:08I sledeći put kada vidi novo lice,
-
4:08 - 4:13u suštini uči da ovo lice ima
iste osobine osmeha -
4:13 - 4:17i kaže „Aha, prepoznajem ovo.
Ovo je izraz osmeha.” -
4:18 - 4:21Najbolji način da pokažemo
kako ova tehnologija funkcioniše -
4:21 - 4:25jeste da probamo demo-verziju uživo,
tako da mi treba dobrovoljac. -
4:25 - 4:27Poželjno je da taj neko ima lice.
-
4:27 - 4:30(Smeh)
-
4:30 - 4:32Kloi će nam danas biti dobrovoljac.
-
4:33 - 4:38Dakle, u zadnjih pet godina,
od istraživačkog projekta na MIT-u -
4:38 - 4:39postali smo kompanija,
-
4:39 - 4:42u kojoj je moj tim vredno radio
da ova tehnologija uspe, -
4:42 - 4:44kako mi volimo da kažemo, u divljini.
-
4:44 - 4:47Takođe smo je smanjili
tako da osnovni emotivni motor -
4:47 - 4:51radi na bilo kom mobilnom uređaju
koji ima kameru, kao što je ovaj Ajped. -
4:51 - 4:53Dakle, hajde da probamo.
-
4:55 - 4:59Kao što možete da vidite,
algoritam je pronašao Kloino lice. -
4:59 - 5:00To je ovaj beli granični okvir,
-
5:00 - 5:03koji prati glavne tačke odlika
na njenom licu, -
5:03 - 5:06dakle, njene obrve, njene oči,
njena usta i njen nos. -
5:06 - 5:08Pitanje je, da li može prepoznati
njen izraz lica? -
5:08 - 5:10Dakle, testiraćemo mašinu.
-
5:10 - 5:13Pre svega, da vidimo tvoje
pokeraško lice. Da, super. -
5:13 - 5:15(Smeh)
-
5:15 - 5:17Onda, kada se osmehne,
ovo je iskren osmeh, odlično. -
5:17 - 5:20Vidite da se zelena traka
puni kada se osmehuje. -
5:20 - 5:21To je bio širok osmeh.
-
5:21 - 5:24A jedan suptilan osmeh da vidimo
da li kompjuter ume da prepozna? -
5:24 - 5:25Prepoznaje i suptilne osmehe.
-
5:25 - 5:28Vredno smo radili da ovo ostvarimo.
-
5:28 - 5:31Zatim podignute obrve,
pokazatelj iznenađenja. -
5:31 - 5:36Boranje obrva,
što je pokazatelj zbunjenosti. -
5:36 - 5:40Mrštenje. Da, savršeno.
-
5:40 - 5:43Ovo su različite akcijske jedinice.
Postoji ih još mnogo više. -
5:43 - 5:45Ovo je samo skraćena demo verzija.
-
5:45 - 5:48Svako čitanje nazivamo
tačkom emotivnih podataka -
5:48 - 5:51i one mogu zajedno da rade
da iskažu različite emocije. -
5:51 - 5:55Dakle, na desnoj strani demo verzije -
izgledaj kao da si srećna. -
5:55 - 5:57Dakle, to je radost. Radost se povećava.
-
5:57 - 5:59Sad mi pokaži izraz gađenja.
-
5:59 - 6:03Pokušaj da se setiš kako si se osećala
kada je Zejn napustio „One Direction". -
6:03 - 6:04(Smeh)
-
6:04 - 6:08Da, naboraj nos. Super.
-
6:09 - 6:13Valenca je stvarno krajnje negativna,
tako da mora da si bila veliki fan. -
6:13 - 6:16Valenca označava koliko je
iskustvo pozitivno ili negativno, -
6:16 - 6:19a angažman je taj koji označava
koliko je ona ekspresivna. -
6:19 - 6:22Zamislite da Kloi ima pristup
ovom emotivnom prenosu u realnom vremenu -
6:22 - 6:25i da može da ga podeli sa kim god želi.
-
6:25 - 6:26Hvala ti.
-
6:26 - 6:30(Aplauz)
-
6:34 - 6:39Dakle, do sada smo nagomilali 12 milijardi
ovih tačaka emotivnih podataka. -
6:39 - 6:41To je najveća baza emocija u svetu.
-
6:41 - 6:45Sakupili smo je
kroz 2,9 miliona klipova lica, -
6:45 - 6:47ljudi koji su pristali da podele
svoje emocije sa nama, -
6:47 - 6:50a to iz 75 zemalja širom sveta.
-
6:50 - 6:52Broj svaki dan raste.
-
6:53 - 6:54Raspamećuje me
-
6:54 - 6:58to da sada možemo odrediti količinu
nečega tako ličnog kao što su emocije -
6:58 - 7:00i da to možemo obaviti na ovom nivou.
-
7:00 - 7:02Dakle, šta smo naučili do sada?
-
7:03 - 7:04Pol.
-
7:05 - 7:09Naši podaci potvrđuju ono
što možda pretpostavljate. -
7:09 - 7:11Žene su eskpresivnije od muškaraca.
-
7:11 - 7:14Ne samo da se više osmehuju,
njihovi osmesi traju duže. -
7:14 - 7:16Sada stvarno možemo odrediti
šta je to na šta muškarci i žene -
7:16 - 7:19reaguju drugačije.
-
7:19 - 7:21Pozabavimo se kulturom.
U Sjedinjenim Državama, -
7:21 - 7:24žene su 40% ekspresivnije od muškaraca,
-
7:24 - 7:28ali neobično je to da nema razlike
u UK između muškaraca i žena. -
7:28 - 7:30(Smeh)
-
7:31 - 7:35Godine. Ljudi koji imaju
50 godina ili stariji od toga -
7:35 - 7:39su 25% emotivniji od mlađih ljudi.
-
7:39 - 7:44Žene u dvadesetima osmehuju se
mnogo više od muškaraca istih godina, -
7:44 - 7:47što je možda neophodno pri zabavljanju.
-
7:48 - 7:50Ipak, možda najveće iznenađenje
u vezi ovih podataka -
7:50 - 7:53je to da smo stalno izražajni,
-
7:53 - 7:56čak i kada sedimo sami
ispred naših uređaja, -
7:56 - 8:00i to ne samo kada gledamo
klipove sa mačkama na Fejbuku. -
8:00 - 8:03Izražajni smo kada šaljemo i-mejlove,
SMS-ove, kupujemo onlajn, -
8:03 - 8:06čak i kada obrađujemo porez.
-
8:06 - 8:08Gde se ovi podaci koriste danas?
-
8:08 - 8:11Kada treba da razumemo
kako da se angažujemo na mrežama, -
8:11 - 8:13da razumemo viralnost
i ponašanja pri glasanju, -
8:13 - 8:16kao i da razumemo tehnologije
koje osnažuju i omogućuju emocije. -
8:16 - 8:21Želim takođe da podelim
i primere koji su mi posebno dragi. -
8:21 - 8:24Naočare koje omogućuju emocije
mogu da pomognu pojedincima -
8:24 - 8:27koji imaju oštećen vid
da čitaju lica drugih ljudi -
8:27 - 8:31i mogu da pomognu pojedincima
sa autizmom da protumače emocije, -
8:31 - 8:34nešto sa čim stvarno imaju problema.
-
8:36 - 8:39U obrazovanju, zamislite
kada bi vaše aplikacije za učenje -
8:39 - 8:42mogle da osete kada ste zbunjeni i uspore,
-
8:42 - 8:43ili kada vam je dosadno i ubrzaju,
-
8:43 - 8:46kao što bi dobar profesor
uradio u učionici. -
8:47 - 8:50Šta bi bilo ako bi vaš ručni sat
mogao da prati vaše raspoloženje, -
8:50 - 8:52ili kada bi vaš auto mogao
da oseti kada ste umorni, -
8:52 - 8:55ili kada bi vaš frižider
znao kada ste pod stresom, -
8:55 - 8:59pa se automatski zatvori
da vas spreči da se opsesivno prejedate? -
8:59 - 9:00Da, i ja bih to volela.
-
9:00 - 9:02(Smeh)
-
9:04 - 9:05Šta bi bilo da sam na Kembridžu
-
9:05 - 9:08imala pristup svom emotivnom prenosu
u realnom vremenu, -
9:08 - 9:11da sam mogla da ga podelim to
sa porodicom kod kuće na prirodan način, -
9:11 - 9:15kao što bih uradila
da smo svi u istoj sobi zajedno? -
9:15 - 9:18Mislim da će kroz pet godina,
-
9:18 - 9:21svi naši uređaji imati emotivni čip
-
9:21 - 9:23i nećemo se sećati kako je bilo
-
9:23 - 9:25kada nismo mogli
samo da se namrštimo uređajima, -
9:25 - 9:28a da oni ne kažu:
„Hmm, to ti se nije baš svidelo, zar ne?” -
9:29 - 9:33Naš najveći izazov je
veliki broj korisnika ove tehnologije. -
9:33 - 9:36Moj tim i ja smo shvatili
da je ne možemo napraviti sami, -
9:36 - 9:39pa smo ovu tehnologiju učinili dostupnom
tako da i drugi programeri -
9:39 - 9:42mogu da počnu sa građenjem
i iskažu kreativnost. -
9:42 - 9:46Razumemo da su mogući i rizici
-
9:46 - 9:48i da je moguća zloupotreba,
-
9:48 - 9:50ali, budući da sam mnogo godina
provela u radu na ovome, -
9:50 - 9:53verujem da su prednosti čovečanstva
-
9:53 - 9:56sa emocionalno inteligentnom tehnologijom
-
9:56 - 9:59važnije od moguće zloupotrebe.
-
9:59 - 10:02Pozivam vas sve da budete deo te rasprave.
-
10:02 - 10:04Što više ljudi zna za ovu tehnologiju,
-
10:04 - 10:08to će više nas imati pravo
da odlučuje kako će se ona koristiti. -
10:09 - 10:14Dakle, kako naši životi postaju
sve više i više digitalni, -
10:14 - 10:17sve više gubimo bitku u pokušaju
da smanjimo korišćenje ovih uređaja -
10:17 - 10:19da bismo povratili naše emocije.
-
10:20 - 10:25Dakle, ono što ja pokušavam umesto toga
je da uvedem emocije u našu tehnologiju -
10:25 - 10:27da bi tehnologija bila prijemčivija.
-
10:27 - 10:31Dakle, želim da nas ovi uređaji
koji su nas rastavili ponovo spoje. -
10:32 - 10:36Kada damo ljudska svojstva tehnologiji,
dobijamo zlatnu priliku -
10:36 - 10:40da obnovimo način
na koji se povezujemo sa mašinama -
10:40 - 10:44i stoga, kako se mi, kao ljudska bića,
-
10:44 - 10:46povezujemo jedni sa drugima.
-
10:46 - 10:47Hvala vam.
-
10:47 - 10:50(Aplauz)
- Title:
- Ova aplikacija zna kako se osećate - po vašem izrazu lica
- Speaker:
- Rana el Kalioubi (Rana el Kaliouby)
- Description:
-
Naše emocije utiču na svaki aspekt naših života - kako učimo, kako komuniciramo, kako donosimo odluke. Ipak, odsutne su iz naših digitalnih života; uređaji i aplikacije koje koristimo ne mogu znati kako se mi osećamo. Naučnik Rana el Kalioubi teži da promeni to. Ona predstavlja demo verziju moćne tehnologije koja čita izraze na vašem licu i povezuje ih sa odgovarajućim emocijama. Ovaj „emotivni motor” nosi sa sobom bitne implikacije, kaže ona, i mogao bi da promeni ne samo način na koji komuniciramo sa mašinama - već i jedni sa drugima.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:04
Ivana Korom approved Serbian subtitles for This app knows how you feel -- from the look on your face | ||
Ivana Korom edited Serbian subtitles for This app knows how you feel -- from the look on your face | ||
Ivana Korom edited Serbian subtitles for This app knows how you feel -- from the look on your face | ||
Ivana Korom edited Serbian subtitles for This app knows how you feel -- from the look on your face | ||
Ivana Korom edited Serbian subtitles for This app knows how you feel -- from the look on your face | ||
Ivana Korom edited Serbian subtitles for This app knows how you feel -- from the look on your face | ||
Tijana Mihajlović accepted Serbian subtitles for This app knows how you feel -- from the look on your face | ||
Tijana Mihajlović edited Serbian subtitles for This app knows how you feel -- from the look on your face |