1 00:00:00,556 --> 00:00:04,573 Az érzelmeink életünk minden aspektusát befolyásolják, 2 00:00:04,573 --> 00:00:08,149 az egészségtől kezdve a tanulásig, az üzleteléstől a döntéshozatalig, 3 00:00:08,149 --> 00:00:09,922 nagyokat és kicsiket egyaránt. 4 00:00:10,672 --> 00:00:14,162 Az érzelmeink befolyásolják azt is, hogyan kötődünk másokhoz. 5 00:00:15,132 --> 00:00:19,108 Ilyen világra lettünk teremtve, 6 00:00:19,108 --> 00:00:23,427 de ehelyett egyre inkább egy másmilyen, -- 7 00:00:23,427 --> 00:00:26,561 ezt az üzenetet a lányomtól kaptam múlt éjszaka - 8 00:00:26,561 --> 00:00:29,301 érzelemmentes világban kezdünk élni. 9 00:00:29,301 --> 00:00:31,252 Az a küldetésem, hogy ezen változtassak. 10 00:00:31,252 --> 00:00:35,343 Vissza akarom hozni az érzelmeket digitális élményeinkbe. 11 00:00:36,223 --> 00:00:39,300 Tizenöt éve indultam el ezen az úton. 12 00:00:39,300 --> 00:00:41,366 Számítógép-szakértő voltam Egyiptomban, 13 00:00:41,366 --> 00:00:45,871 és épp akkor vettek fel a Cambridge Egyetem doktori programjára. 14 00:00:45,871 --> 00:00:47,984 Tehát valami egészen szokatlant csináltam 15 00:00:47,984 --> 00:00:52,209 fiatal, frissen házasodott muszlim egyiptomi feleségként: 16 00:00:53,599 --> 00:00:56,598 Férjem támogatásával, akinek Egyiptomban kellett maradnia, 17 00:00:56,598 --> 00:00:59,616 összecsomagoltam és Angliába költöztem. 18 00:00:59,616 --> 00:01:02,844 Cambridge-ben, több ezer mérföldre az otthonomtól, 19 00:01:02,844 --> 00:01:06,257 rájöttem, hogy több órát töltök a laptopommal, 20 00:01:06,257 --> 00:01:08,486 mint bármelyik embertársammal. 21 00:01:08,486 --> 00:01:13,339 De az intimitás ellenére a laptopomnak fogalma sem volt az érzéseimről. 22 00:01:13,339 --> 00:01:16,550 Nem tudta, ha vidám voltam, 23 00:01:16,550 --> 00:01:19,538 ha rossz napom volt, ha stresszes vagy zavart voltam, 24 00:01:19,538 --> 00:01:22,460 és ez frusztrált. 25 00:01:23,600 --> 00:01:28,831 Még rosszabb: ahogyan online beszélgettem az otthon maradt családommal, 26 00:01:29,421 --> 00:01:32,703 úgy éreztem, hogy minden érzelmem elvész a kibertérben. 27 00:01:32,703 --> 00:01:37,858 Honvágyam volt, magányos voltam, és néhanapján igazából is sírtam, 28 00:01:37,858 --> 00:01:42,786 de ennyi volt mindaz, amivel kifejezhettem ezeket az érzéseket. 29 00:01:42,786 --> 00:01:44,806 (Nevetés) 30 00:01:44,806 --> 00:01:49,780 A mai technológiának magas az IQ-ja, viszont az EQ-ja nem; 31 00:01:49,780 --> 00:01:52,956 rengeteg kognitív intelligencia, de semmi érzelmi intelligencia. 32 00:01:52,956 --> 00:01:55,153 Ez elgondolkodtatott: 33 00:01:55,153 --> 00:01:58,777 mi lenne, ha a technológia érzékelné érzelmeinket? 34 00:01:58,777 --> 00:02:02,853 Mi lenne, ha eszközeink érzékelnék, mit érzünk, és annak megfelelően reagálnának, 35 00:02:02,853 --> 00:02:05,866 ahogyan azt egy érzelmileg intelligens barátunk tenné? 36 00:02:06,666 --> 00:02:10,230 Ezek a kérdések vezettek engem és a csapatomat 37 00:02:10,230 --> 00:02:14,607 olyan technológiák megalkotására, amelyek olvassák az érzéseinket, és válaszolnak. 38 00:02:14,607 --> 00:02:17,697 Kiindulópontunk az emberi arc volt. 39 00:02:18,577 --> 00:02:21,750 Emberi arcunk történetesen az egyik legerősebb csatorna, 40 00:02:21,750 --> 00:02:25,766 amelynek révén közösségi és érzelmi állapotainkat közöljük, 41 00:02:25,766 --> 00:02:28,776 mindent, beleértve az élvezetet, meglepetést, 42 00:02:28,776 --> 00:02:32,979 empátiát és kíváncsiságot is. 43 00:02:32,979 --> 00:02:37,907 Az érzelmek tudományában minden arcizom-mozgást egy egységnek nevezünk. 44 00:02:37,907 --> 00:02:40,832 A 12-es mozgásegység például 45 00:02:40,832 --> 00:02:42,870 nem egy hollywoodi kasszasiker, 46 00:02:42,870 --> 00:02:46,312 ez valójában a száj sarkának felhúzása, ami egy mosoly fő alkotóeleme. 47 00:02:46,312 --> 00:02:49,300 Mindenki kipróbálhatja. Lássunk néhány mosolyt. 48 00:02:49,300 --> 00:02:51,954 Egy másik példa a 4-es egység. Ez a szemöldök ráncolása. 49 00:02:51,954 --> 00:02:54,192 Ilyenkor összevonjuk a szemöldökünket, 50 00:02:54,192 --> 00:02:56,459 és létrehozzuk ezeket a formákat meg ráncokat. 51 00:02:56,459 --> 00:03:00,754 Nem szeretjük, de erős negatív érzést jelez. 52 00:03:00,754 --> 00:03:02,960 Van kb. 45 ilyen mozgásegységünk, 53 00:03:02,960 --> 00:03:06,350 ezek kombinálva több száz érzelmet fejeznek ki. 54 00:03:06,350 --> 00:03:10,251 Nehéz megtanítani egy számítógépnek, hogy ezeket az érzelmeket olvassa, 55 00:03:10,251 --> 00:03:13,223 mert lehetnek ezek gyorsak, rejtettek, 56 00:03:13,223 --> 00:03:15,777 és különböző módon keverednek. 57 00:03:15,777 --> 00:03:19,515 Vegyük például a mosolyt és a grimaszt. 58 00:03:19,515 --> 00:03:23,268 Valamennyire hasonlónak tűnnek, ám nagyon különbözik a jelentésük. 59 00:03:23,268 --> 00:03:24,986 (Nevetés) 60 00:03:24,986 --> 00:03:27,990 A mosoly pozitív, 61 00:03:27,990 --> 00:03:29,260 a grimasz gyakran negatív. 62 00:03:29,260 --> 00:03:33,136 Néha egy grimasz híressé tehet. 63 00:03:33,136 --> 00:03:35,960 De komolyan, fontos, hogy egy számítógép képes legyen 64 00:03:35,960 --> 00:03:38,815 megkülönböztetni egymástól a két érzelmet. 65 00:03:38,815 --> 00:03:40,627 Mindezt hogyan csináljuk? 66 00:03:40,627 --> 00:03:42,414 Adunk az algortimusainknak 67 00:03:42,414 --> 00:03:46,524 több tízezer példát emberekről, akikről tudjuk, hogy mosolyognak, 68 00:03:46,524 --> 00:03:49,589 ezek különböző etnikumúak, korúak, neműek, 69 00:03:49,589 --> 00:03:52,400 és ugyanígy teszünk a grimasszal is. 70 00:03:52,400 --> 00:03:53,954 Aztán deep learninget használva 71 00:03:53,954 --> 00:03:56,810 az algoritmus megkeresi ezeket a a struktúrákat és ráncokat, 72 00:03:56,810 --> 00:03:59,390 az arcunk változásait, 73 00:03:59,390 --> 00:04:02,592 lényegében megtanulja, hogy minden mosolynak van közös jellemzője, 74 00:04:02,592 --> 00:04:05,773 és minden grimasznak élesen különböző jellemzői vannak. 75 00:04:05,773 --> 00:04:08,141 A következő alkalommal, mikor meglát egy új arcot, 76 00:04:08,141 --> 00:04:10,440 lényegében rájön, hogy 77 00:04:10,440 --> 00:04:13,473 ennek az arcnak ugyanolyan jellemzői vannak, mint a mosolynak, 78 00:04:13,473 --> 00:04:17,751 és azt mondja: "Jé, felismerem ezt. Ez egy mosoly kifejezése." 79 00:04:18,381 --> 00:04:21,181 A technológia működésének bizonyítására a legjobb mód 80 00:04:21,181 --> 00:04:23,317 egy élő demo kipróbálása, 81 00:04:23,317 --> 00:04:27,230 tehát szükségem van egy önkéntesre, lehetőleg valakire, akinek van arca. 82 00:04:27,230 --> 00:04:29,564 (Nevetés) 83 00:04:29,564 --> 00:04:32,335 Cloe lesz a mai önkéntesünk, 84 00:04:33,325 --> 00:04:37,783 Az elmúlt öt év során egy MIT-s kutatási projektből vállalattá 85 00:04:37,783 --> 00:04:38,939 nőttük ki magunkat, 86 00:04:38,939 --> 00:04:42,131 és a csapatom igen sokat dolgozott azon, hogy ez a technológia 87 00:04:42,131 --> 00:04:44,540 működjön, ahogy mondani szokás, a vadonban is. 88 00:04:44,540 --> 00:04:47,210 Úgy összezsugorítottuk, hogy a fő érzelem-motor 89 00:04:47,210 --> 00:04:50,530 bármelyik kamerás mobil eszközön működik, mint ezen az iPad-en is. 90 00:04:50,530 --> 00:04:53,316 Tehát próbáljuk ki! 91 00:04:54,756 --> 00:04:58,680 Ahogy láthatják, az algoritmus megtalálta Cloe arcát, 92 00:04:58,680 --> 00:05:00,372 ez az a fehér határolókeret, 93 00:05:00,372 --> 00:05:02,943 és követi a fő jellemző pontokat az arcán, 94 00:05:02,943 --> 00:05:05,799 vagyis a szemöldökét, a szemét, a száját és az orrát. 95 00:05:05,799 --> 00:05:08,786 Az a kérdés, hogy fel tudja-e ismerni, mit fejez ki? 96 00:05:08,786 --> 00:05:10,457 Most leteszteljük a gépet. 97 00:05:10,457 --> 00:05:14,643 Legelőször mutasd a pókerarcod. Igen, nagyszerű. (Nevetés) 98 00:05:14,643 --> 00:05:17,456 Aztán ahogy mosolyog, ez egy valódi mosoly, nagyszerű. 99 00:05:17,456 --> 00:05:19,756 A zöld sáv láthatóan növekszik, mikor mosolyog. 100 00:05:19,756 --> 00:05:20,978 Ez egy nagy mosoly volt. 101 00:05:20,978 --> 00:05:24,021 Megpróbálsz egy enyhébb mosolyt, hogy lássuk, felismeri-e a gép? 102 00:05:24,021 --> 00:05:26,352 Felismeri az enyhébb mosolyt is. 103 00:05:26,352 --> 00:05:28,477 Nagyon sokat dolgoztunk, hogy ez sikerüljön. 104 00:05:28,477 --> 00:05:31,439 Aztán felemelt szemöldök, a meglepetés jelzője. 105 00:05:31,439 --> 00:05:35,688 Szemöldökráncolás, a zavartság jelzője. 106 00:05:35,688 --> 00:05:39,695 Homlokráncolás. Tökéletes. 107 00:05:39,695 --> 00:05:43,188 Ezek mind különböző mozgásegységek. Sokkal több van belőlük. 108 00:05:43,188 --> 00:05:45,220 Ez csak egy karcsúsított demo. 109 00:05:45,220 --> 00:05:48,368 Minden leolvasást érzelmi adatpontnak nevezünk, 110 00:05:48,368 --> 00:05:51,337 majd ezek ötvözése ábrázolja a különböző érzelmeket. 111 00:05:51,337 --> 00:05:55,990 A demo jobb oldalán -- tégy úgy, mintha boldog lennél. 112 00:05:55,990 --> 00:05:57,444 Ez az öröm. Kigyúl az öröm. 113 00:05:57,444 --> 00:05:59,371 Most vágj utálkozó arcot. 114 00:05:59,371 --> 00:06:03,643 Gondolj arra, milyen volt, amikor Zayn kilépett a One Direction-ből. 115 00:06:03,643 --> 00:06:05,153 (Nevetés) 116 00:06:05,153 --> 00:06:09,495 Úgy, ráncold az orrod. Klassz. 117 00:06:09,495 --> 00:06:13,226 A kötődés eléggé negatív, biztos nagy rajongója voltál. 118 00:06:13,226 --> 00:06:15,926 A kötődés a tapasztalat pozitív vagy negatív jellege, 119 00:06:15,926 --> 00:06:18,712 az elkötelezettség pedig azt jelzi, mennyire kifejező. 120 00:06:18,712 --> 00:06:22,126 Képzeljék el, ha Cloe hozzáférne egy valós idejű érzelem-csatornához, 121 00:06:22,126 --> 00:06:24,935 és megoszthatná azt mindenkivel, akivel csak akarná. 122 00:06:24,935 --> 00:06:27,858 Köszönöm. 123 00:06:27,858 --> 00:06:32,479 (Taps) 124 00:06:33,749 --> 00:06:39,019 Az eddigiekben 12 milliárd ilyen érzelmi adatpontot gyűjtöttünk. 125 00:06:39,019 --> 00:06:41,630 Ez a legnagyobb érzelem-adatbázis a világon. 126 00:06:41,630 --> 00:06:44,593 2,9 millió arcot ábrázoló videóról gyűjtöttük ezeket, 127 00:06:44,593 --> 00:06:47,193 olyanoktól, akik beleegyeztek érzelmeik megosztásába, 128 00:06:47,193 --> 00:06:50,398 világszerte, 75 országban. 129 00:06:50,398 --> 00:06:52,113 Naponta növekszik. 130 00:06:52,603 --> 00:06:54,670 Lélegzetelállító, hogy tudunk 131 00:06:54,670 --> 00:06:57,865 számszerűsíteni egy ennyire személyes dolgot, mint az érzelmeink, 132 00:06:57,865 --> 00:07:00,100 és ilyen nagyságrendben tudjuk. 133 00:07:00,100 --> 00:07:02,277 Mit tanultunk tehát eddig? 134 00:07:03,057 --> 00:07:05,388 A nemek. 135 00:07:05,388 --> 00:07:09,034 Adataink igazolják, amit valószínűleg sejtenek. 136 00:07:09,034 --> 00:07:10,891 A nők kifejezőbbek, mint a férfiak. 137 00:07:10,891 --> 00:07:13,574 Nemcsak többet mosolyognak, de a mosolyuk tovább tart, 138 00:07:13,574 --> 00:07:16,478 és most tényleg számszerűsíteni tudjuk, mi az, amire 139 00:07:16,478 --> 00:07:18,614 a nők és a férfiak eltérően válaszolnak. 140 00:07:18,614 --> 00:07:20,904 Nézzük a kultúrát: az Egyesült Államokban 141 00:07:20,904 --> 00:07:24,108 a nők 40%-kal kifejezőbbek, mint a férfiak, 142 00:07:24,108 --> 00:07:27,753 de érdekes módon az Egyesült Királyságban nem látunk közöttük különbséget. 143 00:07:27,753 --> 00:07:30,259 (Nevetés) 144 00:07:31,296 --> 00:07:35,323 Életkor: az 50 év felettiek 145 00:07:35,323 --> 00:07:38,759 25%-kal érzelmesebbek a fiataloknál. 146 00:07:39,899 --> 00:07:43,751 A huszonéves nők sokkal többet mosolyognak, mint az azonos korú férfiak, 147 00:07:43,751 --> 00:07:47,590 lehet, hogy ez szükséges a randizáshoz. 148 00:07:47,590 --> 00:07:50,207 De az adatokban talán az lepett meg a legjobban, 149 00:07:50,207 --> 00:07:53,410 hogy úgy tűnik, mindig kifejezőek vagyunk, 150 00:07:53,410 --> 00:07:56,243 még akkor is, amikor egyedül ülünk a készülékeink előtt, 151 00:07:56,243 --> 00:07:59,517 és nemcsak amikor cicás videókat nézünk a Facebookon. 152 00:08:00,217 --> 00:08:03,227 Kifejezőek vagyunk e-mail és SMS írásakor, online vásárláskor, 153 00:08:03,227 --> 00:08:05,527 még az adóbevallás kitöltésekor is. 154 00:08:05,527 --> 00:08:07,919 Hol használják ma ezeket az adatokat? 155 00:08:07,919 --> 00:08:10,422 Annak megértésére, mennyire köt le a média, 156 00:08:10,422 --> 00:08:13,156 hogy mi és miért terjed a neten, hogy hogyan választunk, 157 00:08:13,156 --> 00:08:16,256 és arra, hogyan építsük be a gesztus értelmezését a technológiába. 158 00:08:16,256 --> 00:08:20,527 Bemutatok néhány, a szívemhez különösen közel álló példát. 159 00:08:21,197 --> 00:08:24,265 A gesztus-értelmező szemüvegek segítenek 160 00:08:24,265 --> 00:08:27,493 a gyengénlátó embereknek leolvasni mások arcát, 161 00:08:27,493 --> 00:08:31,680 és segítenek az autista embereknek az érzelmek értelmezésében, 162 00:08:31,680 --> 00:08:34,458 ők ezzel nagyon küszködnek. 163 00:08:35,918 --> 00:08:38,777 Oktatás: képzeljék el, hogy az online tanulásban az app 164 00:08:38,777 --> 00:08:41,587 érzékeli, ha összezavarodtunk, és lelassít; 165 00:08:41,587 --> 00:08:43,444 ha unatkozunk, akkor felgyorsít, 166 00:08:43,444 --> 00:08:46,413 ahogyan egy jó tanár tenné az osztályteremben. 167 00:08:47,043 --> 00:08:49,644 Mi lenne, ha a karóránk figyelné kedélyünket, 168 00:08:49,644 --> 00:08:52,337 az autónk észlelné, ha fáradtak vagyunk, 169 00:08:52,337 --> 00:08:54,885 vagy akár: a hűtőnk tudná, hogy feszültek vagyunk, 170 00:08:54,885 --> 00:09:00,951 és lezárná magát, hogy megakadályozza, hogy túlzabáljuk magunkat. (Nevetés) 171 00:09:00,951 --> 00:09:03,668 Igen, ezt szeretném. 172 00:09:03,668 --> 00:09:05,595 Mi lett volna, ha a cambridge-i időkben 173 00:09:05,595 --> 00:09:07,908 hozzáfértem volna az érzelem-csatornámhoz, 174 00:09:07,908 --> 00:09:11,437 és természetes módon meg tudtam volna azt osztani otthonmaradt családommal, 175 00:09:11,437 --> 00:09:15,408 mintha mindannyian együtt lennénk, ugyanabban a szobában? 176 00:09:15,408 --> 00:09:18,550 Azt gondolom, öt év múlva 177 00:09:18,550 --> 00:09:20,887 minden eszközünkben lesz érzelem-csip, 178 00:09:20,887 --> 00:09:24,951 és már nem fogunk emlékezni arra, amikor hiába néztünk homlokráncolva, 179 00:09:24,951 --> 00:09:29,200 készülékünk nem mondta: "Ez ugye nem tetszett?" 180 00:09:29,200 --> 00:09:32,961 A nagy kihívás az, hogy a technológiának olyan sok alkalmazási területe van, 181 00:09:32,961 --> 00:09:35,864 hogy a csapatommal rájöttünk: nem tudjuk mindet mi megépíteni, 182 00:09:35,864 --> 00:09:39,360 ezért közzétettük a technológiát, hogy más fejlesztők is 183 00:09:39,360 --> 00:09:41,474 tudjanak építeni rá és alkotni. 184 00:09:41,474 --> 00:09:45,560 Elismerjük, hogy vannak potenciális kockázatok, 185 00:09:45,560 --> 00:09:47,627 és vissza lehet élni ezzel, 186 00:09:47,627 --> 00:09:50,576 de személy szerint, miután oly sok éve dolgozom rajta, 187 00:09:50,576 --> 00:09:53,548 hiszem, hogy az érzelmileg intelligens technológia léte 188 00:09:53,548 --> 00:09:55,823 olyan nagy haszon az emberiségnek, 189 00:09:55,823 --> 00:09:59,399 hogy az jócskán ellensúlyozza a visszaélés lehetőségét. 190 00:09:59,399 --> 00:10:01,930 Meghívom Önöket is, vegyenek részt a beszélgetésben. 191 00:10:01,930 --> 00:10:04,484 Minél többen tudnak a technológiáról, 192 00:10:04,484 --> 00:10:07,661 annál többen mondhatnak véleményt használatáról. 193 00:10:09,081 --> 00:10:13,655 Ahogy tehát egyre inkább digitálissá válik életünk, 194 00:10:13,655 --> 00:10:17,153 vesztésre állunk a csatában, amelyben korlátozni próbáljuk eszközeink 195 00:10:17,153 --> 00:10:19,382 használatát, hogy visszakérjük érzelmeinket. 196 00:10:20,622 --> 00:10:24,536 Ehelyett próbálok érzelmeket vinni technológiánkba, 197 00:10:24,536 --> 00:10:26,765 és fogékonyabbá tenni azt. 198 00:10:26,765 --> 00:10:29,435 Azt akarom, hogy az eszközök, amelyek elválasztottak, 199 00:10:29,435 --> 00:10:31,897 újra összekössenek minket. 200 00:10:31,897 --> 00:10:36,485 A technológia emberiessé tételével kitűnő lehetőségünk nyílik arra, 201 00:10:36,485 --> 00:10:39,782 hogy újragondoljuk, hogyan viszonyulunk a gépekhez, 202 00:10:39,782 --> 00:10:44,263 és ennek folytán mi, emberi lények, 203 00:10:44,263 --> 00:10:46,167 hogyan viszonyulunk egymáshoz. 204 00:10:46,167 --> 00:10:48,327 Köszönöm. 205 00:10:48,327 --> 00:10:51,640 (Taps)