1 00:00:00,556 --> 00:00:04,573 Naše emocije utječu na svako područje naših života, 2 00:00:04,573 --> 00:00:08,149 od zdravlja i načina na koji učimo do toga kako radimo i donosimo odluke, 3 00:00:08,149 --> 00:00:09,922 bile one velike ili male. 4 00:00:10,672 --> 00:00:14,162 Naše emocije također utječu na način na koji se povezujemo s drugima. 5 00:00:15,132 --> 00:00:19,108 Razvili smo se za život u ovakvom svijetu, 6 00:00:19,108 --> 00:00:23,427 no umjesto toga sve više i više živimo ovako - 7 00:00:23,427 --> 00:00:26,561 ovo je sinoćnji SMS moje kćeri - 8 00:00:26,561 --> 00:00:29,301 u svijetu lišenom emocija. 9 00:00:29,301 --> 00:00:31,252 Ja to želim promijeniti. 10 00:00:31,252 --> 00:00:35,343 Želim vratiti emocije u digitalni svijet. 11 00:00:36,223 --> 00:00:39,300 U to sam se upustila prije 15 godina. 12 00:00:39,300 --> 00:00:41,366 Bila sam računalna znanstvenica u Egiptu 13 00:00:41,366 --> 00:00:45,871 i bila sam primljena na doktorski studij na sveučilištu u Cambridgeu. 14 00:00:45,871 --> 00:00:47,984 Učinila sam nešto prilično neuobičajeno 15 00:00:47,984 --> 00:00:52,209 za egipatsku muslimansku mladenku: 16 00:00:53,599 --> 00:00:56,598 uz potporu supruga koji je ostao u Egiptu, 17 00:00:56,598 --> 00:00:59,616 spakirala sam kofere i preselila u Englesku. 18 00:00:59,616 --> 00:01:02,844 Na Cambridgeu, kilometrima daleko od kuće, 19 00:01:02,844 --> 00:01:06,257 shvatila sam da više vremena provodim s laptopom 20 00:01:06,257 --> 00:01:08,486 nego s bilo kojim drugim ljudskim bićem. 21 00:01:08,486 --> 00:01:13,339 Unatoč ovoj intimnosti moj laptop nije imao pojma kako se ja osjećam. 22 00:01:13,339 --> 00:01:16,550 Nije znao jesam li sretna, 23 00:01:16,550 --> 00:01:19,538 tužna, pod stresom, zbunjena, 24 00:01:19,538 --> 00:01:22,460 što je postalo frustrirajuće. 25 00:01:23,600 --> 00:01:28,831 Tim više, dok sam online kontaktirala s obitelji, 26 00:01:29,421 --> 00:01:32,703 osjećala sam kako sve moje emocije nestaju u cyber-prostoru. 27 00:01:32,703 --> 00:01:37,858 Nedostajala mi je kuća, bila sam usamljena, a nekada sam znala čak i zaplakati, 28 00:01:37,858 --> 00:01:42,786 ali svoje sam emocije mogla prenijeti samo ovako. 29 00:01:42,786 --> 00:01:44,806 (Smijeh) 30 00:01:44,806 --> 00:01:49,780 Suvremena tehnologija ima puno IQ-a, a ništa EQ-a, 31 00:01:49,780 --> 00:01:52,956 puno kognitivne inteligencije, ništa emocionalne inteligencije, 32 00:01:52,956 --> 00:01:55,153 što mi je dalo na razmišljanje - 33 00:01:55,153 --> 00:01:58,777 što kad bi naša tehnologija mogla osjetiti naše emocije? 34 00:01:58,777 --> 00:02:02,853 Što kad bi sve naprave mogle osjetiti naše raspoloženje i reagirati na njih 35 00:02:02,853 --> 00:02:05,866 onako kako bi to napravio emocionalno inteligentan prijatelj. 36 00:02:06,666 --> 00:02:10,230 Ta su pitanja mene i moj tim naveli 37 00:02:10,230 --> 00:02:14,607 na razvijanje tehnologije koja očitava i odgovara na naše emocije, 38 00:02:14,607 --> 00:02:17,697 a početna točka bilo nam je ljudsko lice. 39 00:02:18,577 --> 00:02:21,750 Ljudsko lice jedno je od najmoćnijih kanala 40 00:02:21,750 --> 00:02:25,766 za prijenos društvenih i emocionalnih stanja, 41 00:02:25,766 --> 00:02:28,776 sve od užitka, iznenađenja, 42 00:02:28,776 --> 00:02:32,979 empatije i znatiželje. 43 00:02:32,979 --> 00:02:37,907 U znanosti emocija svaki je pokret facijalnih mišića akcijska jedinica. 44 00:02:37,907 --> 00:02:40,832 Npr. akcijska jedinica 12, 45 00:02:40,832 --> 00:02:42,870 nije to holivudski blockbuster, 46 00:02:42,870 --> 00:02:46,312 nego se radi o podizanju kuta usnice, što je osnovna sastavnica osmijeha. 47 00:02:46,312 --> 00:02:49,300 Probajte. Da vidimo te osmijehe. 48 00:02:49,300 --> 00:02:51,954 Drugi je primjer akcijska jedinica 4: boranje obrva. 49 00:02:51,954 --> 00:02:54,192 To je kada skupite obrve 50 00:02:54,192 --> 00:02:56,459 čime stvarate ovakve teksture i bore. 51 00:02:56,459 --> 00:03:00,754 Ne volimo ih, ali snažan su pokazatelj negativnih emocija. 52 00:03:00,754 --> 00:03:02,960 Imamo oko 45 ovakvih akcijskih jedinica 53 00:03:02,960 --> 00:03:06,350 koje se kombiniraju kako bi izrazile stotine emocija. 54 00:03:06,350 --> 00:03:10,251 Teško je naučiti računalo da ih očitava 55 00:03:10,251 --> 00:03:13,223 jer mogu biti brze, suptilne su 56 00:03:13,223 --> 00:03:15,777 i mogu se kombinirati na različite načine. 57 00:03:15,777 --> 00:03:19,515 Npr. smijeh i podsmijeh. 58 00:03:19,515 --> 00:03:23,268 Izgledaju koliko-toliko slično, ali znače različite stvari. 59 00:03:23,268 --> 00:03:24,986 (Smijeh) 60 00:03:24,986 --> 00:03:27,990 Osmijeh je pozitivan, 61 00:03:27,990 --> 00:03:29,260 a podsmijeh negativan. 62 00:03:29,260 --> 00:03:33,136 Nekad vas podsmijeh može proslaviti. 63 00:03:33,136 --> 00:03:35,960 No ozbiljno, za računalo je važno da može 64 00:03:35,960 --> 00:03:38,815 razlikovati ova dva izraza. 65 00:03:38,815 --> 00:03:40,627 Kako da to izvedemo? 66 00:03:40,627 --> 00:03:42,414 Tako da algoritmima damo 67 00:03:42,414 --> 00:03:46,524 desetke tisuća primjera osmijeha ljudi 68 00:03:46,524 --> 00:03:49,589 različitih nacionalnosti, dobi, spolova, 69 00:03:49,589 --> 00:03:52,400 a isto to učinimo i za podsmijehe. 70 00:03:52,400 --> 00:03:53,954 Zatim koristeći dubinsko učenje, 71 00:03:53,954 --> 00:03:56,810 algoritam traži sve te teksture i bore 72 00:03:56,810 --> 00:03:59,390 i promjene oblika lica 73 00:03:59,390 --> 00:04:02,592 te nauči da svi osmjesi imaju zajedničke karakteristike, 74 00:04:02,592 --> 00:04:05,773 a svi podsmjesi neznatno različite karakteristike. 75 00:04:05,773 --> 00:04:08,141 Sljedeći put kad ugleda novo lice, 76 00:04:08,141 --> 00:04:10,440 nauči da 77 00:04:10,440 --> 00:04:13,473 to lice ima iste karakteristike osmijeha 78 00:04:13,473 --> 00:04:17,751 pa kaže: "Aha, znam što je to - osmijeh." 79 00:04:18,381 --> 00:04:21,181 Najbolji način demonstracije funkcioniranja ove tehnologije 80 00:04:21,181 --> 00:04:23,317 jest demonstracija uživo. 81 00:04:23,317 --> 00:04:27,230 Trebat će mi dobrovoljac, po mogućnosti netko s licem. 82 00:04:27,230 --> 00:04:29,564 (Smijeh) 83 00:04:29,564 --> 00:04:32,335 Cloe će biti naša dobrovoljka. 84 00:04:33,325 --> 00:04:37,783 Tijekom zadnjih pet godina iz istraživačkog projekta na MIT-u 85 00:04:37,783 --> 00:04:38,939 prerasli smo u tvrtku 86 00:04:38,939 --> 00:04:42,131 koja naporno radi da omogući funkcioniranje ove tehnologije, 87 00:04:42,131 --> 00:04:44,540 kako mi to nazivamo, u divljini. 88 00:04:44,540 --> 00:04:47,210 Smanjili smo je tako da ključni motor za emocije 89 00:04:47,210 --> 00:04:50,530 radi na bilo kakvom uređaju s kamerom, poput ovog iPada. 90 00:04:50,530 --> 00:04:53,316 Isprobajmo ga. 91 00:04:54,756 --> 00:04:58,680 Kao što možete vidjeti, algoritam je prepoznao Chloeino lice 92 00:04:58,680 --> 00:05:00,372 vidljivo u ovoj bijeloj kutijici 93 00:05:00,372 --> 00:05:02,943 i prati njezine glavne crte lica, 94 00:05:02,943 --> 00:05:05,799 dakle obrve, oči, usta i nos. 95 00:05:05,799 --> 00:05:08,786 Pitanje glasi: prepoznaje li izraz lica? 96 00:05:08,786 --> 00:05:10,457 Testirat ćemo uređaj. 97 00:05:10,457 --> 00:05:14,643 Prvo mi pokaži pokerašku facu. Odlično. (Smijeh) 98 00:05:14,643 --> 00:05:17,456 I onda kako se smije, ovo je iskren osmijeh, sjajno. 99 00:05:17,456 --> 00:05:19,756 Zelena se pokazatelj povećava kako se smije. 100 00:05:19,756 --> 00:05:20,978 To je bio veliki osmijeh. 101 00:05:20,978 --> 00:05:24,021 Sad probaj nešto manje očito da vidimo hoće li ga prepoznati. 102 00:05:24,021 --> 00:05:26,352 Prepoznaje i manje očite osmjehe. 103 00:05:26,352 --> 00:05:28,477 Naporno smo radili da to postignemo. 104 00:05:28,477 --> 00:05:31,439 Zatim podignute obrve, pokazatelj iznenađenja. 105 00:05:31,439 --> 00:05:35,688 Naborane obrve, pokazatelj zbunjenosti. 106 00:05:35,688 --> 00:05:39,695 Namrgodi se. Tako, savršeno. 107 00:05:39,695 --> 00:05:43,188 To su sve različite akcijske jedinice, a ima ih još jako puno. 108 00:05:43,188 --> 00:05:45,220 Ovo je samo osnovna demonstracija. 109 00:05:45,220 --> 00:05:48,368 Svako očitanje nazivamo točkom emocionalnih podataka 110 00:05:48,368 --> 00:05:51,337 i zajedno mogu izraziti različite emocije. 111 00:05:51,337 --> 00:05:55,990 Na desnoj strani izgledaj sretno. 112 00:05:55,990 --> 00:05:57,444 To je sreća, povećava se. 113 00:05:57,444 --> 00:05:59,371 Sad nam pokaži gađenje. 114 00:05:59,371 --> 00:06:03,643 Sjeti se kako si se osjećala kad je Zayn napustio One Direction. 115 00:06:03,643 --> 00:06:05,153 (Smijeh) 116 00:06:05,153 --> 00:06:09,495 Da, naboraj nos. Odlično. 117 00:06:09,495 --> 00:06:13,226 Valencija je prilično negativna, mora da si bila njegov veliki fan. 118 00:06:13,226 --> 00:06:15,926 Valencija pokazuje pozitivnost, tj. negativnost iskustva, 119 00:06:15,926 --> 00:06:18,712 a angažman pokazuje koliko je ekspresivna. 120 00:06:18,712 --> 00:06:22,126 Zamislite da Cloe ima pristup ovom emocionalnom prijenosu uživo 121 00:06:22,126 --> 00:06:24,935 i da ga može podijeliti s bilo kime s kime želi. 122 00:06:24,935 --> 00:06:27,858 Hvala. 123 00:06:27,858 --> 00:06:32,479 (Pljesak) 124 00:06:33,749 --> 00:06:39,019 Dosad smo prikupili 12 milijardi ovih jedinica emocionalnih podataka. 125 00:06:39,019 --> 00:06:41,630 To je najveća baza podataka za emocije u svijetu. 126 00:06:41,630 --> 00:06:44,593 Prikupili smo ih iz 2,9 milijuna snimaka lica 127 00:06:44,593 --> 00:06:47,193 ljudi koji su pristali podijeliti svoje emocije s nama 128 00:06:47,193 --> 00:06:50,398 iz 75 zemalja diljem svijeta. 129 00:06:50,398 --> 00:06:52,113 Svakim je danom sve veća. 130 00:06:52,603 --> 00:06:54,670 Svakim me danom sve više oduševljava 131 00:06:54,670 --> 00:06:57,865 kako možemo kvantificirati nešto tako osobno poput emocija, 132 00:06:57,865 --> 00:07:00,100 i to možemo prikazati na ovoj skali. 133 00:07:00,100 --> 00:07:02,277 Što smo dosad naučili? 134 00:07:03,057 --> 00:07:05,388 Spol. 135 00:07:05,388 --> 00:07:09,034 Prikupljeni podatci potvrđuju nešto na što ste vjerojatno sumnjali. 136 00:07:09,034 --> 00:07:10,891 Žene su ekspresivnije od muškaraca. 137 00:07:10,891 --> 00:07:13,574 Žene se više smiješe, a i osmjesi im dulje traju 138 00:07:13,574 --> 00:07:16,478 te sada možemo zaista kvantificirati na što to muškarci i žene 139 00:07:16,478 --> 00:07:18,614 drugačije reagiraju. 140 00:07:18,614 --> 00:07:20,904 Prijeđimo na kulturu. U SAD-u 141 00:07:20,904 --> 00:07:24,108 žene su 40% eskspresivnije od muškaraca, 142 00:07:24,108 --> 00:07:27,753 ali zanimljivo je da tu razliku ne vidlmo u UK-u između muškaraca i žena. 143 00:07:27,753 --> 00:07:30,259 (Smijeh) 144 00:07:31,296 --> 00:07:35,323 Dob: ljudi od pedeset godina i više 145 00:07:35,323 --> 00:07:38,759 25% su emotivniji od mlađih ljudi. 146 00:07:39,899 --> 00:07:43,751 Žene u dvadesetima smiju se više nego muškarci iste dobi, 147 00:07:43,751 --> 00:07:47,590 što je vjerojatno nužno za romantične veze. 148 00:07:47,590 --> 00:07:50,207 Vjerojatno najnevjerojatnija spoznaja 149 00:07:50,207 --> 00:07:53,410 jest da da smo ekspresivni cijelo vrijeme, 150 00:07:53,410 --> 00:07:56,243 čak i kad sami sjedimo ispred uređaja, 151 00:07:56,243 --> 00:07:59,517 a ne samo kad gledamo snimke mačaka na Facebooku. 152 00:08:00,217 --> 00:08:03,227 Ekspresivni smo dok pišemo mejlove, poruke, kupujemo online 153 00:08:03,227 --> 00:08:05,527 ili pak računamo porez. 154 00:08:05,527 --> 00:08:07,919 Gdje se ovi podatci danas koriste? 155 00:08:07,919 --> 00:08:10,682 U razumijevanju toga kako funkcioniramo s medijima, 156 00:08:10,682 --> 00:08:13,166 dakle razumijevanje marketinga i glasačkog ponašanja, 157 00:08:13,166 --> 00:08:15,906 ali i u osnaživanju ili tehnologiji u službi emocija. 158 00:08:15,906 --> 00:08:20,527 Željela bih vam pokazati neke meni drage primjere. 159 00:08:21,197 --> 00:08:24,265 Naočale za očitavanje emocija pomažu osobama 160 00:08:24,265 --> 00:08:27,493 oštećenog vida da čitaju emocije drugih, 161 00:08:27,493 --> 00:08:31,680 a mogu pomoći i autistima da prepoznaju emocije, 162 00:08:31,680 --> 00:08:34,458 nešto što je njima zaista teško. 163 00:08:35,918 --> 00:08:38,777 Zamislite kad bi aplikacije za učenje u obrazovanju 164 00:08:38,777 --> 00:08:41,587 mogle osjetiti da ste zbunjeni i usporiti 165 00:08:41,587 --> 00:08:43,444 ili da vam je dosadno, pa ubrzati, 166 00:08:43,444 --> 00:08:46,413 baš poput odličnog učitelja u učionici. 167 00:08:47,043 --> 00:08:49,644 Što kad bi vam ručni sat mogao pratiti raspoloženje 168 00:08:49,644 --> 00:08:52,337 ili kad bi automobil osjetio da ste umorni 169 00:08:52,337 --> 00:08:54,885 ili da hladnjak zna da ste pod stresom, 170 00:08:54,885 --> 00:08:59,241 pa se automatski zaključa da se ne bi prejedali. (Smijeh) 171 00:08:59,631 --> 00:09:02,348 Meni bi to bilo super. 172 00:09:03,668 --> 00:09:05,595 Što da sam, dok sam bila na Cambridgeu, 173 00:09:05,595 --> 00:09:07,908 imala pristup emocionalnom prijenosu uživo 174 00:09:07,908 --> 00:09:11,437 i da sam to mogla podijeliti sa svojom obitelji na prirodan način, 175 00:09:11,437 --> 00:09:15,408 kao što bih to učinila da smo zajedno u istoj prostoriji? 176 00:09:15,408 --> 00:09:18,550 Mislim da će za pet godina 177 00:09:18,550 --> 00:09:20,887 svi naši uređaji imati emocionalni čip 178 00:09:20,887 --> 00:09:24,951 i bit će nam teško zamisliti kako je bilo kad se nismo mogli samo namrštiti uređaju, 179 00:09:24,951 --> 00:09:29,200 a da nam on ne kaže: "Hmm, to ti se nije svidjelo, zar ne?" 180 00:09:29,200 --> 00:09:32,961 Izazov je u tome što ovu tehnologiju možemo primijeniti na razne načine, 181 00:09:32,961 --> 00:09:35,864 a moj tim i ja shvaćamo da ne možemo sve to napraviti sami. 182 00:09:35,864 --> 00:09:39,360 Stoga smo tu tehnologiju podijelili s drugim razvojnim inženjerima 183 00:09:39,360 --> 00:09:41,474 da je nastave razvijati i biti kreativni. 184 00:09:41,474 --> 00:09:45,560 Shvaćamo potencijalne rizike, 185 00:09:45,560 --> 00:09:47,627 kao i potencijal za zloupotrebu, 186 00:09:47,627 --> 00:09:50,576 ali osobno, nakon što sam tolike godine provela radeći na tome, 187 00:09:50,576 --> 00:09:53,548 vjerujem da su koristi za čovječanstvo 188 00:09:53,548 --> 00:09:55,823 od emocionalno inteligentne tehnologije 189 00:09:55,823 --> 00:09:59,399 puno veće od potencijalne zloupotrebe. 190 00:09:59,399 --> 00:10:01,930 Sve vas pozivam da budete dio rasprave. 191 00:10:01,930 --> 00:10:04,484 Što je više ljudi upoznato s tom tehnologijom, 192 00:10:04,484 --> 00:10:07,661 to će više nas imati pravo izabrati kako će se koristiti. 193 00:10:09,081 --> 00:10:13,655 Što se naši životi sve više digitaliziraju, 194 00:10:13,655 --> 00:10:17,153 to smo više osuđeni na propast u pokušaju da smanjimo upotrebu uređaja 195 00:10:17,153 --> 00:10:19,382 kako bismo povratili emocije. 196 00:10:20,622 --> 00:10:24,536 Ono što ja želim napraviti jest donijeti emocije u tehnologiju 197 00:10:24,536 --> 00:10:26,765 te je učiniti osjetljivijom na nas. 198 00:10:26,765 --> 00:10:29,435 Želim da nas ti uređaji koji su nas razdvajali 199 00:10:29,435 --> 00:10:31,897 ponovno spoje. 200 00:10:31,897 --> 00:10:36,485 Humaniziranjem tehnologije dobivamo jedinstvenu priliku 201 00:10:36,485 --> 00:10:39,782 ponovnog interpretiranja načina na koji se povezujemo sa strojevima 202 00:10:39,782 --> 00:10:44,263 te samim time i kako se mi kao ljudska bića 203 00:10:44,263 --> 00:10:46,167 povezujemo jedni s drugima. 204 00:10:46,167 --> 00:10:47,367 Hvala vam. 205 00:10:47,367 --> 00:10:50,680 (Pljesak)