1 00:00:00,556 --> 00:00:04,463 Naše emocije utiču na svaki aspekt naših života, 2 00:00:04,463 --> 00:00:06,053 od našeg zdravlja i načina učenja 3 00:00:06,053 --> 00:00:08,229 do načina obavljanja posla i donošenja odluka, 4 00:00:08,229 --> 00:00:10,462 bile one velike ili male. 5 00:00:10,462 --> 00:00:14,262 Naše emocije takođe utiču na to kako se povezujemo jedni sa drugima. 6 00:00:15,192 --> 00:00:19,108 Razvili smo se za život u svetu kao što je ovaj, 7 00:00:19,108 --> 00:00:23,267 ali umesto toga, živimo sve više naše živote ovako - 8 00:00:23,267 --> 00:00:27,011 ovo je SMS poruka koju mi je ćerka poslala sinoć - 9 00:00:27,011 --> 00:00:29,301 u svetu koji je lišen emocija. 10 00:00:29,301 --> 00:00:31,252 Tako sam na misiji to da promenim. 11 00:00:31,252 --> 00:00:34,783 Želim da vratim emocije u naše digitalno iskustvo. 12 00:00:36,223 --> 00:00:38,970 Krenula sam ovim putem pre 15 godina. 13 00:00:38,970 --> 00:00:41,516 Bila sam kompjuterski naučnik u Egiptu 14 00:00:41,516 --> 00:00:43,031 i samo što su me primili 15 00:00:43,031 --> 00:00:45,751 na doktorski program na univerzitetu u Kembridžu. 16 00:00:45,751 --> 00:00:47,984 Tako sam uradila nešto prilično neobično 17 00:00:47,984 --> 00:00:51,489 za jednu mladu, tek venčanu ženu koja je muslimanska Egipćanka: 18 00:00:51,489 --> 00:00:53,779 (Smeh) 19 00:00:53,779 --> 00:00:56,598 uz podršku mog muža koji je morao da ostane u Egiptu, 20 00:00:56,598 --> 00:00:59,616 spakovala sam kofere i preselila se u Englesku. 21 00:00:59,616 --> 00:01:02,764 Na Kembridžu, kilometrima daleko od kuće, 22 00:01:02,764 --> 00:01:05,837 shvatila sam da više vremena provodim sa laptopom 23 00:01:05,837 --> 00:01:08,486 nego sa bilo kojim drugim ljudskim bićem. 24 00:01:08,486 --> 00:01:13,339 Ipak, i pored ove prisnosti, moj laptop nije imao pojma kako se osećam. 25 00:01:13,339 --> 00:01:16,550 Nije imao pojma da li sam srećna, 26 00:01:16,550 --> 00:01:19,538 da li sam imala loš dan, da li sam pod stresom, zbunjena, 27 00:01:19,538 --> 00:01:22,460 tako da je to postalo frustrirajuće. 28 00:01:23,520 --> 00:01:27,811 Još gore, dok sam komunicirala sa porodicom kod kuće preko mreže, 29 00:01:29,001 --> 00:01:32,703 osećala sam da sve moje emocije nestaju u sajber prostoru. 30 00:01:32,703 --> 00:01:37,858 Nedostajala mi je kuća, bila sam usamljena i nekih dana sam zapravo i plakala, 31 00:01:37,858 --> 00:01:42,786 ali sve što sam imala da iskažem ove emocije bilo je ovo. 32 00:01:42,786 --> 00:01:44,806 (Smeh) 33 00:01:44,806 --> 00:01:48,980 Današnja tehnologija ima mnogo IQ-a, ali nema EQ; 34 00:01:48,980 --> 00:01:52,956 mnogo kognitivne inteligencije, ali nimalo emocionalne inteligencije, 35 00:01:52,956 --> 00:01:55,153 te me je to nagnalo na razmišljanje. 36 00:01:55,153 --> 00:01:58,887 Šta ako bi naša tehnologija mogla da oseti naše emocije? 37 00:01:58,887 --> 00:02:02,823 Šta ako bi uređaji mogli da prepoznaju i reaguju na naša osećanja, 38 00:02:02,823 --> 00:02:06,666 baš kao što bi reagovao i emocionalno inteligentan prijatelj? 39 00:02:06,666 --> 00:02:11,470 Ta pitanja su navela mene i moj tim da napravimo tehnologiju 40 00:02:11,470 --> 00:02:14,607 koja može da čita i reaguje na naše emocije, 41 00:02:14,607 --> 00:02:17,697 a naša početna tačka bilo je ljudsko lice. 42 00:02:18,577 --> 00:02:21,750 Dakle, ljudsko lice je jedno od najmoćnijih kanala 43 00:02:21,750 --> 00:02:25,766 koje koristimo da prenesemo društvena i emocionalna stanja, 44 00:02:25,766 --> 00:02:29,256 sve od zadovoljstva, iznenađenja, 45 00:02:29,256 --> 00:02:32,979 empatije do radoznalosti. 46 00:02:32,979 --> 00:02:34,107 U nauci o emocijama, 47 00:02:34,107 --> 00:02:37,907 sve pokrete facijalnih mišića nazivamo akcijskim jedinicama. 48 00:02:37,907 --> 00:02:42,722 Tako, na primer, akcijska jedinica 12 nije holivudski blokbaster, 49 00:02:42,722 --> 00:02:46,122 nego se radi o podizanju ugla usana, što je glavna komponenta osmeha. 50 00:02:46,122 --> 00:02:49,010 Probajte to. Hajde da svi nabacimo osmehe. 51 00:02:49,010 --> 00:02:51,884 Još jedan primer je akcijska jedinica 4. To je boranje obrve. 52 00:02:51,884 --> 00:02:55,762 To je kada skupite obrve i stvorite sve ove teksture i bore. 53 00:02:55,762 --> 00:02:59,774 Ne volimo ih, ali one su jasan pokazatelj neke negativne emocije. 54 00:02:59,774 --> 00:03:02,250 Tako imamo oko 45 ovih akcijskih jedinica 55 00:03:02,250 --> 00:03:06,240 i one se kombinuju da izraze stotine emocija. 56 00:03:06,240 --> 00:03:10,251 Podučavanje kompjutera da čita ove facijalne emocije je teško 57 00:03:10,251 --> 00:03:13,223 zato što ove akcijske jedinice mogu biti brze, suptilne 58 00:03:13,223 --> 00:03:15,587 i kombinuju se na mnogo različitih načina. 59 00:03:15,587 --> 00:03:19,515 Uzmite tako, na primer, osmeh i zloban osmeh. 60 00:03:19,515 --> 00:03:23,048 Izgledaju pomalo slično ali imaju veoma različita značenja. 61 00:03:23,048 --> 00:03:24,986 (Smeh) 62 00:03:24,986 --> 00:03:27,250 Dakle, osmeh je pozitivan, 63 00:03:27,250 --> 00:03:28,920 a zloban osmeh je često negativan. 64 00:03:28,920 --> 00:03:33,136 Ponekad jedan zloban osmeh može da vas napravi poznatim. 65 00:03:33,136 --> 00:03:35,960 Ozbiljno, važno je da kompjuter bude u stanju 66 00:03:35,960 --> 00:03:38,505 da prepozna razliku između ova dva izraza. 67 00:03:38,505 --> 00:03:40,297 Dakle, kako to postižemo? 68 00:03:40,297 --> 00:03:42,154 Obezbeđujemo svojim algoritmima 69 00:03:42,154 --> 00:03:46,524 desetine hiljada primera ljudi za koje znamo da se osmehuju, 70 00:03:46,524 --> 00:03:49,589 ljudi različitih etničkih pripadnosti, godina, različitog pola, 71 00:03:49,589 --> 00:03:52,040 a to isto činimo za podsmehe. 72 00:03:52,040 --> 00:03:53,954 Onda, uz dubinski pristup učenju, 73 00:03:53,954 --> 00:03:56,810 algoritam traži sve ove teksture i bore 74 00:03:56,810 --> 00:03:59,270 i promene oblika na našim licima, 75 00:03:59,270 --> 00:04:02,592 i u suštini uči da svi osmesi imaju zajedničke osobine, 76 00:04:02,592 --> 00:04:05,773 da se svi zlobni osmesi suptilno razlikuju od osmeha po osobinama. 77 00:04:05,773 --> 00:04:08,141 I sledeći put kada vidi novo lice, 78 00:04:08,141 --> 00:04:13,490 u suštini uči da ovo lice ima iste osobine osmeha 79 00:04:13,490 --> 00:04:16,891 i kaže „Aha, prepoznajem ovo. Ovo je izraz osmeha.” 80 00:04:18,381 --> 00:04:21,181 Najbolji način da pokažemo kako ova tehnologija funkcioniše 81 00:04:21,181 --> 00:04:24,747 jeste da probamo demo-verziju uživo, tako da mi treba dobrovoljac. 82 00:04:24,747 --> 00:04:26,650 Poželjno je da taj neko ima lice. 83 00:04:26,650 --> 00:04:29,564 (Smeh) 84 00:04:29,564 --> 00:04:32,335 Kloi će nam danas biti dobrovoljac. 85 00:04:33,325 --> 00:04:37,783 Dakle, u zadnjih pet godina, od istraživačkog projekta na MIT-u 86 00:04:37,783 --> 00:04:38,891 postali smo kompanija, 87 00:04:38,891 --> 00:04:41,970 u kojoj je moj tim vredno radio da ova tehnologija uspe, 88 00:04:41,970 --> 00:04:44,030 kako mi volimo da kažemo, u divljini. 89 00:04:44,030 --> 00:04:46,920 Takođe smo je smanjili tako da osnovni emotivni motor 90 00:04:46,920 --> 00:04:50,520 radi na bilo kom mobilnom uređaju koji ima kameru, kao što je ovaj Ajped. 91 00:04:50,520 --> 00:04:53,236 Dakle, hajde da probamo. 92 00:04:54,746 --> 00:04:58,730 Kao što možete da vidite, algoritam je pronašao Kloino lice. 93 00:04:58,730 --> 00:05:00,372 To je ovaj beli granični okvir, 94 00:05:00,372 --> 00:05:02,943 koji prati glavne tačke odlika na njenom licu, 95 00:05:02,943 --> 00:05:05,799 dakle, njene obrve, njene oči, njena usta i njen nos. 96 00:05:05,799 --> 00:05:08,366 Pitanje je, da li može prepoznati njen izraz lica? 97 00:05:08,366 --> 00:05:09,827 Dakle, testiraćemo mašinu. 98 00:05:09,827 --> 00:05:12,933 Pre svega, da vidimo tvoje pokeraško lice. Da, super. 99 00:05:12,933 --> 00:05:14,843 (Smeh) 100 00:05:14,843 --> 00:05:17,296 Onda, kada se osmehne, ovo je iskren osmeh, odlično. 101 00:05:17,296 --> 00:05:19,586 Vidite da se zelena traka puni kada se osmehuje. 102 00:05:19,586 --> 00:05:20,638 To je bio širok osmeh. 103 00:05:20,638 --> 00:05:23,681 A jedan suptilan osmeh da vidimo da li kompjuter ume da prepozna? 104 00:05:23,681 --> 00:05:25,342 Prepoznaje i suptilne osmehe. 105 00:05:25,342 --> 00:05:27,707 Vredno smo radili da ovo ostvarimo. 106 00:05:27,707 --> 00:05:31,299 Zatim podignute obrve, pokazatelj iznenađenja. 107 00:05:31,299 --> 00:05:35,688 Boranje obrva, što je pokazatelj zbunjenosti. 108 00:05:35,688 --> 00:05:39,695 Mrštenje. Da, savršeno. 109 00:05:39,695 --> 00:05:42,648 Ovo su različite akcijske jedinice. Postoji ih još mnogo više. 110 00:05:42,648 --> 00:05:45,050 Ovo je samo skraćena demo verzija. 111 00:05:45,050 --> 00:05:48,368 Svako čitanje nazivamo tačkom emotivnih podataka 112 00:05:48,368 --> 00:05:51,337 i one mogu zajedno da rade da iskažu različite emocije. 113 00:05:51,337 --> 00:05:55,230 Dakle, na desnoj strani demo verzije - izgledaj kao da si srećna. 114 00:05:55,230 --> 00:05:57,444 Dakle, to je radost. Radost se povećava. 115 00:05:57,444 --> 00:05:59,251 Sad mi pokaži izraz gađenja. 116 00:05:59,251 --> 00:06:02,973 Pokušaj da se setiš kako si se osećala kada je Zejn napustio „One Direction". 117 00:06:02,973 --> 00:06:04,003 (Smeh) 118 00:06:04,003 --> 00:06:07,511 Da, naboraj nos. Super. 119 00:06:09,495 --> 00:06:13,016 Valenca je stvarno krajnje negativna, tako da mora da si bila veliki fan. 120 00:06:13,016 --> 00:06:15,926 Valenca označava koliko je iskustvo pozitivno ili negativno, 121 00:06:15,926 --> 00:06:18,712 a angažman je taj koji označava koliko je ona ekspresivna. 122 00:06:18,712 --> 00:06:22,126 Zamislite da Kloi ima pristup ovom emotivnom prenosu u realnom vremenu 123 00:06:22,126 --> 00:06:24,935 i da može da ga podeli sa kim god želi. 124 00:06:24,935 --> 00:06:26,208 Hvala ti. 125 00:06:26,208 --> 00:06:29,599 (Aplauz) 126 00:06:33,749 --> 00:06:38,739 Dakle, do sada smo nagomilali 12 milijardi ovih tačaka emotivnih podataka. 127 00:06:38,739 --> 00:06:41,440 To je najveća baza emocija u svetu. 128 00:06:41,440 --> 00:06:44,593 Sakupili smo je kroz 2,9 miliona klipova lica, 129 00:06:44,593 --> 00:06:47,193 ljudi koji su pristali da podele svoje emocije sa nama, 130 00:06:47,193 --> 00:06:50,398 a to iz 75 zemalja širom sveta. 131 00:06:50,398 --> 00:06:52,113 Broj svaki dan raste. 132 00:06:52,603 --> 00:06:54,330 Raspamećuje me 133 00:06:54,330 --> 00:06:57,865 to da sada možemo odrediti količinu nečega tako ličnog kao što su emocije 134 00:06:57,865 --> 00:07:00,100 i da to možemo obaviti na ovom nivou. 135 00:07:00,100 --> 00:07:02,277 Dakle, šta smo naučili do sada? 136 00:07:03,057 --> 00:07:04,268 Pol. 137 00:07:05,248 --> 00:07:09,034 Naši podaci potvrđuju ono što možda pretpostavljate. 138 00:07:09,034 --> 00:07:10,891 Žene su eskpresivnije od muškaraca. 139 00:07:10,891 --> 00:07:13,574 Ne samo da se više osmehuju, njihovi osmesi traju duže. 140 00:07:13,574 --> 00:07:16,478 Sada stvarno možemo odrediti šta je to na šta muškarci i žene 141 00:07:16,478 --> 00:07:18,614 reaguju drugačije. 142 00:07:18,614 --> 00:07:20,954 Pozabavimo se kulturom. U Sjedinjenim Državama, 143 00:07:20,954 --> 00:07:24,108 žene su 40% ekspresivnije od muškaraca, 144 00:07:24,108 --> 00:07:27,753 ali neobično je to da nema razlike u UK između muškaraca i žena. 145 00:07:27,753 --> 00:07:30,259 (Smeh) 146 00:07:31,296 --> 00:07:35,323 Godine. Ljudi koji imaju 50 godina ili stariji od toga 147 00:07:35,323 --> 00:07:38,759 su 25% emotivniji od mlađih ljudi. 148 00:07:39,469 --> 00:07:43,681 Žene u dvadesetima osmehuju se mnogo više od muškaraca istih godina, 149 00:07:43,681 --> 00:07:46,560 što je možda neophodno pri zabavljanju. 150 00:07:47,590 --> 00:07:50,077 Ipak, možda najveće iznenađenje u vezi ovih podataka 151 00:07:50,077 --> 00:07:53,230 je to da smo stalno izražajni, 152 00:07:53,230 --> 00:07:56,243 čak i kada sedimo sami ispred naših uređaja, 153 00:07:56,243 --> 00:07:59,517 i to ne samo kada gledamo klipove sa mačkama na Fejbuku. 154 00:08:00,217 --> 00:08:03,227 Izražajni smo kada šaljemo i-mejlove, SMS-ove, kupujemo onlajn, 155 00:08:03,227 --> 00:08:05,527 čak i kada obrađujemo porez. 156 00:08:05,527 --> 00:08:07,919 Gde se ovi podaci koriste danas? 157 00:08:07,919 --> 00:08:10,682 Kada treba da razumemo kako da se angažujemo na mrežama, 158 00:08:10,682 --> 00:08:13,166 da razumemo viralnost i ponašanja pri glasanju, 159 00:08:13,166 --> 00:08:16,436 kao i da razumemo tehnologije koje osnažuju i omogućuju emocije. 160 00:08:16,436 --> 00:08:20,527 Želim takođe da podelim i primere koji su mi posebno dragi. 161 00:08:21,197 --> 00:08:24,265 Naočare koje omogućuju emocije mogu da pomognu pojedincima 162 00:08:24,265 --> 00:08:27,493 koji imaju oštećen vid da čitaju lica drugih ljudi 163 00:08:27,493 --> 00:08:31,030 i mogu da pomognu pojedincima sa autizmom da protumače emocije, 164 00:08:31,030 --> 00:08:33,658 nešto sa čim stvarno imaju problema. 165 00:08:35,678 --> 00:08:38,777 U obrazovanju, zamislite kada bi vaše aplikacije za učenje 166 00:08:38,777 --> 00:08:41,587 mogle da osete kada ste zbunjeni i uspore, 167 00:08:41,587 --> 00:08:43,324 ili kada vam je dosadno i ubrzaju, 168 00:08:43,324 --> 00:08:45,793 kao što bi dobar profesor uradio u učionici. 169 00:08:46,673 --> 00:08:49,784 Šta bi bilo ako bi vaš ručni sat mogao da prati vaše raspoloženje, 170 00:08:49,784 --> 00:08:52,337 ili kada bi vaš auto mogao da oseti kada ste umorni, 171 00:08:52,337 --> 00:08:54,885 ili kada bi vaš frižider znao kada ste pod stresom, 172 00:08:54,885 --> 00:08:59,071 pa se automatski zatvori da vas spreči da se opsesivno prejedate? 173 00:08:59,071 --> 00:09:00,498 Da, i ja bih to volela. 174 00:09:00,498 --> 00:09:01,858 (Smeh) 175 00:09:03,668 --> 00:09:05,385 Šta bi bilo da sam na Kembridžu 176 00:09:05,385 --> 00:09:07,968 imala pristup svom emotivnom prenosu u realnom vremenu, 177 00:09:07,968 --> 00:09:11,487 da sam mogla da ga podelim to sa porodicom kod kuće na prirodan način, 178 00:09:11,497 --> 00:09:15,408 kao što bih uradila da smo svi u istoj sobi zajedno? 179 00:09:15,408 --> 00:09:18,230 Mislim da će kroz pet godina, 180 00:09:18,230 --> 00:09:20,887 svi naši uređaji imati emotivni čip 181 00:09:20,887 --> 00:09:22,741 i nećemo se sećati kako je bilo 182 00:09:22,741 --> 00:09:25,091 kada nismo mogli samo da se namrštimo uređajima, 183 00:09:25,091 --> 00:09:28,370 a da oni ne kažu: „Hmm, to ti se nije baš svidelo, zar ne?” 184 00:09:29,200 --> 00:09:32,801 Naš najveći izazov je veliki broj korisnika ove tehnologije. 185 00:09:32,801 --> 00:09:35,864 Moj tim i ja smo shvatili da je ne možemo napraviti sami, 186 00:09:35,864 --> 00:09:39,190 pa smo ovu tehnologiju učinili dostupnom tako da i drugi programeri 187 00:09:39,190 --> 00:09:41,594 mogu da počnu sa građenjem i iskažu kreativnost. 188 00:09:41,594 --> 00:09:45,560 Razumemo da su mogući i rizici 189 00:09:45,560 --> 00:09:47,627 i da je moguća zloupotreba, 190 00:09:47,627 --> 00:09:50,476 ali, budući da sam mnogo godina provela u radu na ovome, 191 00:09:50,476 --> 00:09:52,758 verujem da su prednosti čovečanstva 192 00:09:52,758 --> 00:09:55,503 sa emocionalno inteligentnom tehnologijom 193 00:09:55,503 --> 00:09:59,079 važnije od moguće zloupotrebe. 194 00:09:59,079 --> 00:10:01,930 Pozivam vas sve da budete deo te rasprave. 195 00:10:01,930 --> 00:10:04,484 Što više ljudi zna za ovu tehnologiju, 196 00:10:04,484 --> 00:10:07,661 to će više nas imati pravo da odlučuje kako će se ona koristiti. 197 00:10:09,081 --> 00:10:13,655 Dakle, kako naši životi postaju sve više i više digitalni, 198 00:10:13,655 --> 00:10:17,153 sve više gubimo bitku u pokušaju da smanjimo korišćenje ovih uređaja 199 00:10:17,153 --> 00:10:19,382 da bismo povratili naše emocije. 200 00:10:20,482 --> 00:10:24,536 Dakle, ono što ja pokušavam umesto toga je da uvedem emocije u našu tehnologiju 201 00:10:24,536 --> 00:10:26,765 da bi tehnologija bila prijemčivija. 202 00:10:26,765 --> 00:10:31,045 Dakle, želim da nas ovi uređaji koji su nas rastavili ponovo spoje. 203 00:10:32,137 --> 00:10:36,485 Kada damo ljudska svojstva tehnologiji, dobijamo zlatnu priliku 204 00:10:36,485 --> 00:10:40,062 da obnovimo način na koji se povezujemo sa mašinama 205 00:10:40,062 --> 00:10:44,013 i stoga, kako se mi, kao ljudska bića, 206 00:10:44,013 --> 00:10:46,167 povezujemo jedni sa drugima. 207 00:10:46,167 --> 00:10:46,887 Hvala vam. 208 00:10:46,887 --> 00:10:50,074 (Aplauz)