WEBVTT 00:00:00.556 --> 00:00:04.573 Az érzelmeink életünk minden aspektusát befolyásolják, 00:00:04.573 --> 00:00:08.149 az egészségtől kezdve a tanulásig, az üzleteléstől a döntéshozatalig, 00:00:08.149 --> 00:00:09.922 nagyokat és kicsiket egyaránt. 00:00:10.672 --> 00:00:14.162 Az érzelmeink befolyásolják azt is, hogyan kötődünk másokhoz. 00:00:15.132 --> 00:00:19.108 Ilyen világra lettünk teremtve, 00:00:19.108 --> 00:00:23.427 de ehelyett egyre inkább egy másmilyen, -- 00:00:23.427 --> 00:00:26.561 ezt az üzenetet a lányomtól kaptam múlt éjszaka - 00:00:26.561 --> 00:00:29.301 érzelemmentes világban kezdünk élni. 00:00:29.301 --> 00:00:31.252 Az a küldetésem, hogy ezen változtassak. 00:00:31.252 --> 00:00:35.343 Vissza akarom hozni az érzelmeket digitális élményeinkbe. NOTE Paragraph 00:00:36.223 --> 00:00:39.300 Tizenöt éve indultam el ezen az úton. 00:00:39.300 --> 00:00:41.366 Számítógép-szakértő voltam Egyiptomban, 00:00:41.366 --> 00:00:45.871 és épp akkor vettek fel a Cambridge Egyetem doktori programjára. 00:00:45.871 --> 00:00:47.984 Tehát valami egészen szokatlant csináltam 00:00:47.984 --> 00:00:52.209 fiatal, frissen házasodott muszlim egyiptomi feleségként: 00:00:53.599 --> 00:00:56.598 Férjem támogatásával, akinek Egyiptomban kellett maradnia, 00:00:56.598 --> 00:00:59.616 összecsomagoltam és Angliába költöztem. 00:00:59.616 --> 00:01:02.844 Cambridge-ben, több ezer mérföldre az otthonomtól, 00:01:02.844 --> 00:01:06.257 rájöttem, hogy több órát töltök a laptopommal, 00:01:06.257 --> 00:01:08.486 mint bármelyik embertársammal. 00:01:08.486 --> 00:01:13.339 De az intimitás ellenére a laptopomnak fogalma sem volt az érzéseimről. 00:01:13.339 --> 00:01:16.550 Nem tudta, ha vidám voltam, 00:01:16.550 --> 00:01:19.538 ha rossz napom volt, ha stresszes vagy zavart voltam, 00:01:19.538 --> 00:01:22.460 és ez frusztrált. 00:01:23.600 --> 00:01:28.831 Még rosszabb: ahogyan online beszélgettem az otthon maradt családommal, 00:01:29.421 --> 00:01:32.703 úgy éreztem, hogy minden érzelmem elvész a kibertérben. 00:01:32.703 --> 00:01:37.858 Honvágyam volt, magányos voltam, és néhanapján igazából is sírtam, 00:01:37.858 --> 00:01:42.786 de ennyi volt mindaz, amivel kifejezhettem ezeket az érzéseket. 00:01:42.786 --> 00:01:44.806 (Nevetés) 00:01:44.806 --> 00:01:49.780 A mai technológiának magas az IQ-ja, viszont az EQ-ja nem; 00:01:49.780 --> 00:01:52.956 rengeteg kognitív intelligencia, de semmi érzelmi intelligencia. 00:01:52.956 --> 00:01:55.153 Ez elgondolkodtatott: 00:01:55.153 --> 00:01:58.777 mi lenne, ha a technológia érzékelné érzelmeinket? 00:01:58.777 --> 00:02:02.853 Mi lenne, ha eszközeink érzékelnék, mit érzünk, és annak megfelelően reagálnának, 00:02:02.853 --> 00:02:05.866 ahogyan azt egy érzelmileg intelligens barátunk tenné? 00:02:06.666 --> 00:02:10.230 Ezek a kérdések vezettek engem és a csapatomat 00:02:10.230 --> 00:02:14.607 olyan technológiák megalkotására, amelyek olvassák az érzéseinket, és válaszolnak. 00:02:14.607 --> 00:02:17.697 Kiindulópontunk az emberi arc volt. NOTE Paragraph 00:02:18.577 --> 00:02:21.750 Emberi arcunk történetesen az egyik legerősebb csatorna, 00:02:21.750 --> 00:02:25.766 amelynek révén közösségi és érzelmi állapotainkat közöljük, 00:02:25.766 --> 00:02:28.776 mindent, beleértve az élvezetet, meglepetést, 00:02:28.776 --> 00:02:32.979 empátiát és kíváncsiságot is. 00:02:32.979 --> 00:02:37.907 Az érzelmek tudományában minden arcizom-mozgást egy egységnek nevezünk. 00:02:37.907 --> 00:02:40.832 A 12-es mozgásegység például 00:02:40.832 --> 00:02:42.870 nem egy hollywoodi kasszasiker, 00:02:42.870 --> 00:02:46.312 ez valójában a száj sarkának felhúzása, ami egy mosoly fő alkotóeleme. 00:02:46.312 --> 00:02:49.300 Mindenki kipróbálhatja. Lássunk néhány mosolyt. 00:02:49.300 --> 00:02:51.954 Egy másik példa a 4-es egység. Ez a szemöldök ráncolása. 00:02:51.954 --> 00:02:54.192 Ilyenkor összevonjuk a szemöldökünket, 00:02:54.192 --> 00:02:56.459 és létrehozzuk ezeket a formákat meg ráncokat. 00:02:56.459 --> 00:03:00.754 Nem szeretjük, de erős negatív érzést jelez. 00:03:00.754 --> 00:03:02.960 Van kb. 45 ilyen mozgásegységünk, 00:03:02.960 --> 00:03:06.350 ezek kombinálva több száz érzelmet fejeznek ki. NOTE Paragraph 00:03:06.350 --> 00:03:10.251 Nehéz megtanítani egy számítógépnek, hogy ezeket az érzelmeket olvassa, 00:03:10.251 --> 00:03:13.223 mert lehetnek ezek gyorsak, rejtettek, 00:03:13.223 --> 00:03:15.777 és különböző módon keverednek. 00:03:15.777 --> 00:03:19.515 Vegyük például a mosolyt és a grimaszt. 00:03:19.515 --> 00:03:23.268 Valamennyire hasonlónak tűnnek, ám nagyon különbözik a jelentésük. 00:03:23.268 --> 00:03:24.986 (Nevetés) 00:03:24.986 --> 00:03:27.990 A mosoly pozitív, 00:03:27.990 --> 00:03:29.260 a grimasz gyakran negatív. 00:03:29.260 --> 00:03:33.136 Néha egy grimasz híressé tehet. 00:03:33.136 --> 00:03:35.960 De komolyan, fontos, hogy egy számítógép képes legyen 00:03:35.960 --> 00:03:38.815 megkülönböztetni egymástól a két érzelmet. NOTE Paragraph 00:03:38.815 --> 00:03:40.627 Mindezt hogyan csináljuk? 00:03:40.627 --> 00:03:42.414 Adunk az algortimusainknak 00:03:42.414 --> 00:03:46.524 több tízezer példát emberekről, akikről tudjuk, hogy mosolyognak, 00:03:46.524 --> 00:03:49.589 ezek különböző etnikumúak, korúak, neműek, 00:03:49.589 --> 00:03:52.400 és ugyanígy teszünk a grimasszal is. 00:03:52.400 --> 00:03:53.954 Aztán deep learninget használva 00:03:53.954 --> 00:03:56.810 az algoritmus megkeresi ezeket a a struktúrákat és ráncokat, 00:03:56.810 --> 00:03:59.390 az arcunk változásait, 00:03:59.390 --> 00:04:02.592 lényegében megtanulja, hogy minden mosolynak van közös jellemzője, 00:04:02.592 --> 00:04:05.773 és minden grimasznak élesen különböző jellemzői vannak. 00:04:05.773 --> 00:04:08.141 A következő alkalommal, mikor meglát egy új arcot, 00:04:08.141 --> 00:04:10.440 lényegében rájön, hogy 00:04:10.440 --> 00:04:13.473 ennek az arcnak ugyanolyan jellemzői vannak, mint a mosolynak, 00:04:13.473 --> 00:04:17.751 és azt mondja: "Jé, felismerem ezt. Ez egy mosoly kifejezése." NOTE Paragraph 00:04:18.381 --> 00:04:21.181 A technológia működésének bizonyítására a legjobb mód 00:04:21.181 --> 00:04:23.317 egy élő demo kipróbálása, 00:04:23.317 --> 00:04:27.230 tehát szükségem van egy önkéntesre, lehetőleg valakire, akinek van arca. 00:04:27.230 --> 00:04:29.564 (Nevetés) 00:04:29.564 --> 00:04:32.335 Cloe lesz a mai önkéntesünk, NOTE Paragraph 00:04:33.325 --> 00:04:37.783 Az elmúlt öt év során egy MIT-s kutatási projektből vállalattá 00:04:37.783 --> 00:04:38.939 nőttük ki magunkat, 00:04:38.939 --> 00:04:42.131 és a csapatom igen sokat dolgozott azon, hogy ez a technológia 00:04:42.131 --> 00:04:44.540 működjön, ahogy mondani szokás, a vadonban is. 00:04:44.540 --> 00:04:47.210 Úgy összezsugorítottuk, hogy a fő érzelem-motor 00:04:47.210 --> 00:04:50.530 bármelyik kamerás mobil eszközön működik, mint ezen az iPad-en is. 00:04:50.530 --> 00:04:53.316 Tehát próbáljuk ki! NOTE Paragraph 00:04:54.756 --> 00:04:58.680 Ahogy láthatják, az algoritmus megtalálta Cloe arcát, 00:04:58.680 --> 00:05:00.372 ez az a fehér határolókeret, 00:05:00.372 --> 00:05:02.943 és követi a fő jellemző pontokat az arcán, 00:05:02.943 --> 00:05:05.799 vagyis a szemöldökét, a szemét, a száját és az orrát. 00:05:05.799 --> 00:05:08.786 Az a kérdés, hogy fel tudja-e ismerni, mit fejez ki? 00:05:08.786 --> 00:05:10.457 Most leteszteljük a gépet. 00:05:10.457 --> 00:05:14.643 Legelőször mutasd a pókerarcod. Igen, nagyszerű. (Nevetés) 00:05:14.643 --> 00:05:17.456 Aztán ahogy mosolyog, ez egy valódi mosoly, nagyszerű. 00:05:17.456 --> 00:05:19.756 A zöld sáv láthatóan növekszik, mikor mosolyog. 00:05:19.756 --> 00:05:20.978 Ez egy nagy mosoly volt. 00:05:20.978 --> 00:05:24.021 Megpróbálsz egy enyhébb mosolyt, hogy lássuk, felismeri-e a gép? 00:05:24.021 --> 00:05:26.352 Felismeri az enyhébb mosolyt is. 00:05:26.352 --> 00:05:28.477 Nagyon sokat dolgoztunk, hogy ez sikerüljön. 00:05:28.477 --> 00:05:31.439 Aztán felemelt szemöldök, a meglepetés jelzője. 00:05:31.439 --> 00:05:35.688 Szemöldökráncolás, a zavartság jelzője. 00:05:35.688 --> 00:05:39.695 Homlokráncolás. Tökéletes. 00:05:39.695 --> 00:05:43.188 Ezek mind különböző mozgásegységek. Sokkal több van belőlük. 00:05:43.188 --> 00:05:45.220 Ez csak egy karcsúsított demo. 00:05:45.220 --> 00:05:48.368 Minden leolvasást érzelmi adatpontnak nevezünk, 00:05:48.368 --> 00:05:51.337 majd ezek ötvözése ábrázolja a különböző érzelmeket. 00:05:51.337 --> 00:05:55.990 A demo jobb oldalán -- tégy úgy, mintha boldog lennél. 00:05:55.990 --> 00:05:57.444 Ez az öröm. Kigyúl az öröm. 00:05:57.444 --> 00:05:59.371 Most vágj utálkozó arcot. 00:05:59.371 --> 00:06:03.643 Gondolj arra, milyen volt, amikor Zayn kilépett a One Direction-ből. 00:06:03.643 --> 00:06:05.153 (Nevetés) 00:06:05.153 --> 00:06:09.495 Úgy, ráncold az orrod. Klassz. 00:06:09.495 --> 00:06:13.226 A kötődés eléggé negatív, biztos nagy rajongója voltál. 00:06:13.226 --> 00:06:15.926 A kötődés a tapasztalat pozitív vagy negatív jellege, 00:06:15.926 --> 00:06:18.712 az elkötelezettség pedig azt jelzi, mennyire kifejező. 00:06:18.712 --> 00:06:22.126 Képzeljék el, ha Cloe hozzáférne egy valós idejű érzelem-csatornához, 00:06:22.126 --> 00:06:24.935 és megoszthatná azt mindenkivel, akivel csak akarná. 00:06:24.935 --> 00:06:27.858 Köszönöm. 00:06:27.858 --> 00:06:32.479 (Taps) NOTE Paragraph 00:06:33.749 --> 00:06:39.019 Az eddigiekben 12 milliárd ilyen érzelmi adatpontot gyűjtöttünk. 00:06:39.019 --> 00:06:41.630 Ez a legnagyobb érzelem-adatbázis a világon. 00:06:41.630 --> 00:06:44.593 2,9 millió arcot ábrázoló videóról gyűjtöttük ezeket, 00:06:44.593 --> 00:06:47.193 olyanoktól, akik beleegyeztek érzelmeik megosztásába, 00:06:47.193 --> 00:06:50.398 világszerte, 75 országban. 00:06:50.398 --> 00:06:52.113 Naponta növekszik. 00:06:52.603 --> 00:06:54.670 Lélegzetelállító, hogy tudunk 00:06:54.670 --> 00:06:57.865 számszerűsíteni egy ennyire személyes dolgot, mint az érzelmeink, 00:06:57.865 --> 00:07:00.100 és ilyen nagyságrendben tudjuk. NOTE Paragraph 00:07:00.100 --> 00:07:02.277 Mit tanultunk tehát eddig? 00:07:03.057 --> 00:07:05.388 A nemek. 00:07:05.388 --> 00:07:09.034 Adataink igazolják, amit valószínűleg sejtenek. 00:07:09.034 --> 00:07:10.891 A nők kifejezőbbek, mint a férfiak. 00:07:10.891 --> 00:07:13.574 Nemcsak többet mosolyognak, de a mosolyuk tovább tart, 00:07:13.574 --> 00:07:16.478 és most tényleg számszerűsíteni tudjuk, mi az, amire 00:07:16.478 --> 00:07:18.614 a nők és a férfiak eltérően válaszolnak. 00:07:18.614 --> 00:07:20.904 Nézzük a kultúrát: az Egyesült Államokban 00:07:20.904 --> 00:07:24.108 a nők 40%-kal kifejezőbbek, mint a férfiak, 00:07:24.108 --> 00:07:27.753 de érdekes módon az Egyesült Királyságban nem látunk közöttük különbséget. 00:07:27.753 --> 00:07:30.259 (Nevetés) 00:07:31.296 --> 00:07:35.323 Életkor: az 50 év felettiek 00:07:35.323 --> 00:07:38.759 25%-kal érzelmesebbek a fiataloknál. 00:07:39.899 --> 00:07:43.751 A huszonéves nők sokkal többet mosolyognak, mint az azonos korú férfiak, 00:07:43.751 --> 00:07:47.590 lehet, hogy ez szükséges a randizáshoz. 00:07:47.590 --> 00:07:50.207 De az adatokban talán az lepett meg a legjobban, 00:07:50.207 --> 00:07:53.410 hogy úgy tűnik, mindig kifejezőek vagyunk, 00:07:53.410 --> 00:07:56.243 még akkor is, amikor egyedül ülünk a készülékeink előtt, 00:07:56.243 --> 00:07:59.517 és nemcsak amikor cicás videókat nézünk a Facebookon. 00:08:00.217 --> 00:08:03.227 Kifejezőek vagyunk e-mail és SMS írásakor, online vásárláskor, 00:08:03.227 --> 00:08:05.527 még az adóbevallás kitöltésekor is. NOTE Paragraph 00:08:05.527 --> 00:08:07.919 Hol használják ma ezeket az adatokat? 00:08:07.919 --> 00:08:10.422 Annak megértésére, mennyire köt le a média, 00:08:10.422 --> 00:08:13.156 hogy mi és miért terjed a neten, hogy hogyan választunk, 00:08:13.156 --> 00:08:16.256 és arra, hogyan építsük be a gesztus értelmezését a technológiába. 00:08:16.256 --> 00:08:20.527 Bemutatok néhány, a szívemhez különösen közel álló példát. 00:08:21.197 --> 00:08:24.265 A gesztus-értelmező szemüvegek segítenek 00:08:24.265 --> 00:08:27.493 a gyengénlátó embereknek leolvasni mások arcát, 00:08:27.493 --> 00:08:31.680 és segítenek az autista embereknek az érzelmek értelmezésében, 00:08:31.680 --> 00:08:34.458 ők ezzel nagyon küszködnek. 00:08:35.918 --> 00:08:38.777 Oktatás: képzeljék el, hogy az online tanulásban az app 00:08:38.777 --> 00:08:41.587 érzékeli, ha összezavarodtunk, és lelassít; 00:08:41.587 --> 00:08:43.444 ha unatkozunk, akkor felgyorsít, 00:08:43.444 --> 00:08:46.413 ahogyan egy jó tanár tenné az osztályteremben. 00:08:47.043 --> 00:08:49.644 Mi lenne, ha a karóránk figyelné kedélyünket, 00:08:49.644 --> 00:08:52.337 az autónk észlelné, ha fáradtak vagyunk, 00:08:52.337 --> 00:08:54.885 vagy akár: a hűtőnk tudná, hogy feszültek vagyunk, 00:08:54.885 --> 00:09:00.951 és lezárná magát, hogy megakadályozza, hogy túlzabáljuk magunkat. (Nevetés) 00:09:00.951 --> 00:09:03.668 Igen, ezt szeretném. 00:09:03.668 --> 00:09:05.595 Mi lett volna, ha a cambridge-i időkben 00:09:05.595 --> 00:09:07.908 hozzáfértem volna az érzelem-csatornámhoz, 00:09:07.908 --> 00:09:11.437 és természetes módon meg tudtam volna azt osztani otthonmaradt családommal, 00:09:11.437 --> 00:09:15.408 mintha mindannyian együtt lennénk, ugyanabban a szobában? NOTE Paragraph 00:09:15.408 --> 00:09:18.550 Azt gondolom, öt év múlva 00:09:18.550 --> 00:09:20.887 minden eszközünkben lesz érzelem-csip, 00:09:20.887 --> 00:09:24.951 és már nem fogunk emlékezni arra, amikor hiába néztünk homlokráncolva, 00:09:24.951 --> 00:09:29.200 készülékünk nem mondta: "Ez ugye nem tetszett?" 00:09:29.200 --> 00:09:32.961 A nagy kihívás az, hogy a technológiának olyan sok alkalmazási területe van, 00:09:32.961 --> 00:09:35.864 hogy a csapatommal rájöttünk: nem tudjuk mindet mi megépíteni, 00:09:35.864 --> 00:09:39.360 ezért közzétettük a technológiát, hogy más fejlesztők is 00:09:39.360 --> 00:09:41.474 tudjanak építeni rá és alkotni. 00:09:41.474 --> 00:09:45.560 Elismerjük, hogy vannak potenciális kockázatok, 00:09:45.560 --> 00:09:47.627 és vissza lehet élni ezzel, 00:09:47.627 --> 00:09:50.576 de személy szerint, miután oly sok éve dolgozom rajta, 00:09:50.576 --> 00:09:53.548 hiszem, hogy az érzelmileg intelligens technológia léte 00:09:53.548 --> 00:09:55.823 olyan nagy haszon az emberiségnek, 00:09:55.823 --> 00:09:59.399 hogy az jócskán ellensúlyozza a visszaélés lehetőségét. 00:09:59.399 --> 00:10:01.930 Meghívom Önöket is, vegyenek részt a beszélgetésben. 00:10:01.930 --> 00:10:04.484 Minél többen tudnak a technológiáról, 00:10:04.484 --> 00:10:07.661 annál többen mondhatnak véleményt használatáról. 00:10:09.081 --> 00:10:13.655 Ahogy tehát egyre inkább digitálissá válik életünk, 00:10:13.655 --> 00:10:17.153 vesztésre állunk a csatában, amelyben korlátozni próbáljuk eszközeink 00:10:17.153 --> 00:10:19.382 használatát, hogy visszakérjük érzelmeinket. 00:10:20.622 --> 00:10:24.536 Ehelyett próbálok érzelmeket vinni technológiánkba, 00:10:24.536 --> 00:10:26.765 és fogékonyabbá tenni azt. 00:10:26.765 --> 00:10:29.435 Azt akarom, hogy az eszközök, amelyek elválasztottak, 00:10:29.435 --> 00:10:31.897 újra összekössenek minket. 00:10:31.897 --> 00:10:36.485 A technológia emberiessé tételével kitűnő lehetőségünk nyílik arra, 00:10:36.485 --> 00:10:39.782 hogy újragondoljuk, hogyan viszonyulunk a gépekhez, 00:10:39.782 --> 00:10:44.263 és ennek folytán mi, emberi lények, 00:10:44.263 --> 00:10:46.167 hogyan viszonyulunk egymáshoz. NOTE Paragraph 00:10:46.167 --> 00:10:48.327 Köszönöm. NOTE Paragraph 00:10:48.327 --> 00:10:51.640 (Taps)