0:00:00.556,0:00:04.573 Az érzelmeink életünk[br]minden aspektusát befolyásolják, 0:00:04.573,0:00:08.149 az egészségtől kezdve a tanulásig,[br]az üzleteléstől a döntéshozatalig, 0:00:08.149,0:00:09.922 nagyokat és kicsiket egyaránt. 0:00:10.672,0:00:14.162 Az érzelmeink befolyásolják azt is,[br]hogyan kötődünk másokhoz. 0:00:15.132,0:00:19.108 Ilyen világra lettünk teremtve, 0:00:19.108,0:00:23.427 de ehelyett egyre inkább[br]egy másmilyen, -- 0:00:23.427,0:00:26.561 ezt az üzenetet a lányomtól[br]kaptam múlt éjszaka - 0:00:26.561,0:00:29.301 érzelemmentes világban kezdünk élni. 0:00:29.301,0:00:31.252 Az a küldetésem, hogy ezen változtassak. 0:00:31.252,0:00:35.343 Vissza akarom hozni az érzelmeket[br]digitális élményeinkbe. 0:00:36.223,0:00:39.300 Tizenöt éve indultam el ezen az úton. 0:00:39.300,0:00:41.366 Számítógép-szakértő voltam Egyiptomban, 0:00:41.366,0:00:45.871 és épp akkor vettek fel a Cambridge[br]Egyetem doktori programjára. 0:00:45.871,0:00:47.984 Tehát valami egészen szokatlant csináltam 0:00:47.984,0:00:52.209 fiatal, frissen házasodott[br]muszlim egyiptomi feleségként: 0:00:53.599,0:00:56.598 Férjem támogatásával, akinek[br]Egyiptomban kellett maradnia, 0:00:56.598,0:00:59.616 összecsomagoltam és Angliába költöztem. 0:00:59.616,0:01:02.844 Cambridge-ben, több ezer mérföldre[br]az otthonomtól, 0:01:02.844,0:01:06.257 rájöttem, hogy több órát töltök[br]a laptopommal, 0:01:06.257,0:01:08.486 mint bármelyik embertársammal. 0:01:08.486,0:01:13.339 De az intimitás ellenére a laptopomnak[br]fogalma sem volt az érzéseimről. 0:01:13.339,0:01:16.550 Nem tudta, ha vidám voltam, 0:01:16.550,0:01:19.538 ha rossz napom volt, ha stresszes[br]vagy zavart voltam, 0:01:19.538,0:01:22.460 és ez frusztrált. 0:01:23.600,0:01:28.831 Még rosszabb: ahogyan online beszélgettem[br]az otthon maradt családommal, 0:01:29.421,0:01:32.703 úgy éreztem, hogy minden érzelmem[br]elvész a kibertérben. 0:01:32.703,0:01:37.858 Honvágyam volt, magányos voltam,[br]és néhanapján igazából is sírtam, 0:01:37.858,0:01:42.786 de ennyi volt mindaz, amivel kifejezhettem[br]ezeket az érzéseket. 0:01:42.786,0:01:44.806 (Nevetés) 0:01:44.806,0:01:49.780 A mai technológiának magas az IQ-ja,[br]viszont az EQ-ja nem; 0:01:49.780,0:01:52.956 rengeteg kognitív intelligencia,[br]de semmi érzelmi intelligencia. 0:01:52.956,0:01:55.153 Ez elgondolkodtatott: 0:01:55.153,0:01:58.777 mi lenne, ha a technológia [br]érzékelné érzelmeinket? 0:01:58.777,0:02:02.853 Mi lenne, ha eszközeink érzékelnék, mit[br]érzünk, és annak megfelelően reagálnának, 0:02:02.853,0:02:05.866 ahogyan azt egy érzelmileg[br]intelligens barátunk tenné? 0:02:06.666,0:02:10.230 Ezek a kérdések vezettek[br]engem és a csapatomat 0:02:10.230,0:02:14.607 olyan technológiák megalkotására, amelyek[br]olvassák az érzéseinket, és válaszolnak. 0:02:14.607,0:02:17.697 Kiindulópontunk az emberi arc volt. 0:02:18.577,0:02:21.750 Emberi arcunk történetesen[br]az egyik legerősebb csatorna, 0:02:21.750,0:02:25.766 amelynek révén közösségi és érzelmi[br]állapotainkat közöljük, 0:02:25.766,0:02:28.776 mindent, beleértve az élvezetet,[br]meglepetést, 0:02:28.776,0:02:32.979 empátiát és kíváncsiságot is. 0:02:32.979,0:02:37.907 Az érzelmek tudományában minden [br]arcizom-mozgást egy egységnek nevezünk. 0:02:37.907,0:02:40.832 A 12-es mozgásegység például 0:02:40.832,0:02:42.870 nem egy hollywoodi kasszasiker, 0:02:42.870,0:02:46.312 ez valójában a száj sarkának felhúzása,[br]ami egy mosoly fő alkotóeleme. 0:02:46.312,0:02:49.300 Mindenki kipróbálhatja.[br]Lássunk néhány mosolyt. 0:02:49.300,0:02:51.954 Egy másik példa a 4-es egység.[br]Ez a szemöldök ráncolása. 0:02:51.954,0:02:54.192 Ilyenkor összevonjuk a szemöldökünket, 0:02:54.192,0:02:56.459 és létrehozzuk ezeket a[br]formákat meg ráncokat. 0:02:56.459,0:03:00.754 Nem szeretjük, de erős [br]negatív érzést jelez. 0:03:00.754,0:03:02.960 Van kb. 45 ilyen mozgásegységünk, 0:03:02.960,0:03:06.350 ezek kombinálva több száz[br]érzelmet fejeznek ki. 0:03:06.350,0:03:10.251 Nehéz megtanítani egy számítógépnek,[br]hogy ezeket az érzelmeket olvassa, 0:03:10.251,0:03:13.223 mert lehetnek ezek gyorsak, rejtettek, 0:03:13.223,0:03:15.777 és különböző módon keverednek. 0:03:15.777,0:03:19.515 Vegyük például a mosolyt és a grimaszt. 0:03:19.515,0:03:23.268 Valamennyire hasonlónak tűnnek,[br]ám nagyon különbözik a jelentésük. 0:03:23.268,0:03:24.986 (Nevetés) 0:03:24.986,0:03:27.990 A mosoly pozitív, 0:03:27.990,0:03:29.260 a grimasz gyakran negatív. 0:03:29.260,0:03:33.136 Néha egy grimasz híressé tehet. 0:03:33.136,0:03:35.960 De komolyan, fontos, hogy egy [br]számítógép képes legyen 0:03:35.960,0:03:38.815 megkülönböztetni egymástól a két érzelmet. 0:03:38.815,0:03:40.627 Mindezt hogyan csináljuk? 0:03:40.627,0:03:42.414 Adunk az algortimusainknak 0:03:42.414,0:03:46.524 több tízezer példát emberekről,[br]akikről tudjuk, hogy mosolyognak, 0:03:46.524,0:03:49.589 ezek különböző etnikumúak, korúak, neműek, 0:03:49.589,0:03:52.400 és ugyanígy teszünk a grimasszal is. 0:03:52.400,0:03:53.954 Aztán deep learninget használva 0:03:53.954,0:03:56.810 az algoritmus megkeresi ezeket a[br]a struktúrákat és ráncokat, 0:03:56.810,0:03:59.390 az arcunk változásait, 0:03:59.390,0:04:02.592 lényegében megtanulja, hogy minden[br]mosolynak van közös jellemzője, 0:04:02.592,0:04:05.773 és minden grimasznak élesen[br]különböző jellemzői vannak. 0:04:05.773,0:04:08.141 A következő alkalommal,[br]mikor meglát egy új arcot, 0:04:08.141,0:04:10.440 lényegében rájön, hogy 0:04:10.440,0:04:13.473 ennek az arcnak ugyanolyan[br]jellemzői vannak, mint a mosolynak, 0:04:13.473,0:04:17.751 és azt mondja: "Jé, felismerem ezt.[br]Ez egy mosoly kifejezése." 0:04:18.381,0:04:21.181 A technológia működésének[br]bizonyítására a legjobb mód 0:04:21.181,0:04:23.317 egy élő demo kipróbálása, 0:04:23.317,0:04:27.230 tehát szükségem van egy önkéntesre,[br]lehetőleg valakire, akinek van arca. 0:04:27.230,0:04:29.564 (Nevetés) 0:04:29.564,0:04:32.335 Cloe lesz a mai önkéntesünk, 0:04:33.325,0:04:37.783 Az elmúlt öt év során egy MIT-s[br]kutatási projektből vállalattá 0:04:37.783,0:04:38.939 nőttük ki magunkat, 0:04:38.939,0:04:42.131 és a csapatom igen sokat dolgozott azon,[br]hogy ez a technológia 0:04:42.131,0:04:44.540 működjön, ahogy mondani szokás,[br]a vadonban is. 0:04:44.540,0:04:47.210 Úgy összezsugorítottuk, hogy[br]a fő érzelem-motor 0:04:47.210,0:04:50.530 bármelyik kamerás mobil eszközön[br]működik, mint ezen az iPad-en is. 0:04:50.530,0:04:53.316 Tehát próbáljuk ki! 0:04:54.756,0:04:58.680 Ahogy láthatják, az algoritmus [br]megtalálta Cloe arcát, 0:04:58.680,0:05:00.372 ez az a fehér határolókeret, 0:05:00.372,0:05:02.943 és követi a fő jellemző pontokat az arcán, 0:05:02.943,0:05:05.799 vagyis a szemöldökét, a szemét,[br]a száját és az orrát. 0:05:05.799,0:05:08.786 Az a kérdés,[br]hogy fel tudja-e ismerni, mit fejez ki? 0:05:08.786,0:05:10.457 Most leteszteljük a gépet. 0:05:10.457,0:05:14.643 Legelőször mutasd a pókerarcod.[br]Igen, nagyszerű. (Nevetés) 0:05:14.643,0:05:17.456 Aztán ahogy mosolyog,[br]ez egy valódi mosoly, nagyszerű. 0:05:17.456,0:05:19.756 A zöld sáv láthatóan növekszik,[br]mikor mosolyog. 0:05:19.756,0:05:20.978 Ez egy nagy mosoly volt. 0:05:20.978,0:05:24.021 Megpróbálsz egy enyhébb mosolyt,[br]hogy lássuk, felismeri-e a gép? 0:05:24.021,0:05:26.352 Felismeri az enyhébb mosolyt is. 0:05:26.352,0:05:28.477 Nagyon sokat dolgoztunk,[br]hogy ez sikerüljön. 0:05:28.477,0:05:31.439 Aztán felemelt szemöldök,[br]a meglepetés jelzője. 0:05:31.439,0:05:35.688 Szemöldökráncolás,[br]a zavartság jelzője. 0:05:35.688,0:05:39.695 Homlokráncolás. Tökéletes. 0:05:39.695,0:05:43.188 Ezek mind különböző mozgásegységek.[br]Sokkal több van belőlük. 0:05:43.188,0:05:45.220 Ez csak egy karcsúsított demo. 0:05:45.220,0:05:48.368 Minden leolvasást[br]érzelmi adatpontnak nevezünk, 0:05:48.368,0:05:51.337 majd ezek ötvözése ábrázolja[br]a különböző érzelmeket. 0:05:51.337,0:05:55.990 A demo jobb oldalán -- tégy úgy, [br]mintha boldog lennél. 0:05:55.990,0:05:57.444 Ez az öröm. Kigyúl az öröm. 0:05:57.444,0:05:59.371 Most vágj utálkozó arcot. 0:05:59.371,0:06:03.643 Gondolj arra, milyen volt, amikor Zayn[br]kilépett a One Direction-ből. 0:06:03.643,0:06:05.153 (Nevetés) 0:06:05.153,0:06:09.495 Úgy, ráncold az orrod. Klassz. 0:06:09.495,0:06:13.226 A kötődés eléggé negatív,[br]biztos nagy rajongója voltál. 0:06:13.226,0:06:15.926 A kötődés a tapasztalat[br]pozitív vagy negatív jellege, 0:06:15.926,0:06:18.712 az elkötelezettség pedig[br]azt jelzi, mennyire kifejező. 0:06:18.712,0:06:22.126 Képzeljék el, ha Cloe hozzáférne[br]egy valós idejű érzelem-csatornához, 0:06:22.126,0:06:24.935 és megoszthatná azt mindenkivel,[br]akivel csak akarná. 0:06:24.935,0:06:27.858 Köszönöm. 0:06:27.858,0:06:32.479 (Taps) 0:06:33.749,0:06:39.019 Az eddigiekben 12 milliárd ilyen[br]érzelmi adatpontot gyűjtöttünk. 0:06:39.019,0:06:41.630 Ez a legnagyobb érzelem-adatbázis[br]a világon. 0:06:41.630,0:06:44.593 2,9 millió arcot ábrázoló[br]videóról gyűjtöttük ezeket, 0:06:44.593,0:06:47.193 olyanoktól, akik beleegyeztek[br]érzelmeik megosztásába, 0:06:47.193,0:06:50.398 világszerte, 75 országban. 0:06:50.398,0:06:52.113 Naponta növekszik. 0:06:52.603,0:06:54.670 Lélegzetelállító, hogy tudunk 0:06:54.670,0:06:57.865 számszerűsíteni egy ennyire[br]személyes dolgot, mint az érzelmeink, 0:06:57.865,0:07:00.100 és ilyen nagyságrendben tudjuk. 0:07:00.100,0:07:02.277 Mit tanultunk tehát eddig? 0:07:03.057,0:07:05.388 A nemek. 0:07:05.388,0:07:09.034 Adataink igazolják,[br]amit valószínűleg sejtenek. 0:07:09.034,0:07:10.891 A nők kifejezőbbek, mint a férfiak. 0:07:10.891,0:07:13.574 Nemcsak többet mosolyognak,[br]de a mosolyuk tovább tart, 0:07:13.574,0:07:16.478 és most tényleg számszerűsíteni tudjuk,[br]mi az, amire 0:07:16.478,0:07:18.614 a nők és a férfiak eltérően válaszolnak. 0:07:18.614,0:07:20.904 Nézzük a kultúrát: az Egyesült Államokban 0:07:20.904,0:07:24.108 a nők 40%-kal kifejezőbbek, [br]mint a férfiak, 0:07:24.108,0:07:27.753 de érdekes módon az Egyesült Királyságban[br]nem látunk közöttük különbséget. 0:07:27.753,0:07:30.259 (Nevetés) 0:07:31.296,0:07:35.323 Életkor: az 50 év felettiek 0:07:35.323,0:07:38.759 25%-kal érzelmesebbek a fiataloknál. 0:07:39.899,0:07:43.751 A huszonéves nők sokkal többet[br]mosolyognak, mint az azonos korú férfiak, 0:07:43.751,0:07:47.590 lehet, hogy ez szükséges a randizáshoz. 0:07:47.590,0:07:50.207 De az adatokban talán az[br]lepett meg a legjobban, 0:07:50.207,0:07:53.410 hogy úgy tűnik, mindig kifejezőek vagyunk, 0:07:53.410,0:07:56.243 még akkor is, amikor egyedül ülünk[br]a készülékeink előtt, 0:07:56.243,0:07:59.517 és nemcsak amikor cicás videókat[br]nézünk a Facebookon. 0:08:00.217,0:08:03.227 Kifejezőek vagyunk e-mail és SMS írásakor,[br]online vásárláskor, 0:08:03.227,0:08:05.527 még az adóbevallás kitöltésekor is. 0:08:05.527,0:08:07.919 Hol használják ma ezeket az adatokat? 0:08:07.919,0:08:10.422 Annak megértésére, [br]mennyire köt le a média, 0:08:10.422,0:08:13.156 hogy mi és miért terjed a neten, [br]hogy hogyan választunk, 0:08:13.156,0:08:16.256 és arra, hogyan építsük be[br]a gesztus értelmezését a technológiába. 0:08:16.256,0:08:20.527 Bemutatok néhány, a szívemhez [br]különösen közel álló példát. 0:08:21.197,0:08:24.265 A gesztus-értelmező szemüvegek segítenek 0:08:24.265,0:08:27.493 a gyengénlátó embereknek[br]leolvasni mások arcát, 0:08:27.493,0:08:31.680 és segítenek az autista embereknek[br]az érzelmek értelmezésében, 0:08:31.680,0:08:34.458 ők ezzel nagyon küszködnek. 0:08:35.918,0:08:38.777 Oktatás: képzeljék el,[br]hogy az online tanulásban az app 0:08:38.777,0:08:41.587 érzékeli, ha összezavarodtunk, [br]és lelassít; 0:08:41.587,0:08:43.444 ha unatkozunk, akkor felgyorsít, 0:08:43.444,0:08:46.413 ahogyan egy jó tanár tenné[br]az osztályteremben. 0:08:47.043,0:08:49.644 Mi lenne, ha a karóránk figyelné[br]kedélyünket, 0:08:49.644,0:08:52.337 az autónk észlelné, ha fáradtak vagyunk, 0:08:52.337,0:08:54.885 vagy akár: a hűtőnk tudná,[br]hogy feszültek vagyunk, 0:08:54.885,0:09:00.951 és lezárná magát, hogy megakadályozza,[br]hogy túlzabáljuk magunkat. (Nevetés) 0:09:00.951,0:09:03.668 Igen, ezt szeretném. 0:09:03.668,0:09:05.595 Mi lett volna, ha a cambridge-i időkben 0:09:05.595,0:09:07.908 hozzáfértem volna az érzelem-csatornámhoz, 0:09:07.908,0:09:11.437 és természetes módon meg tudtam volna[br]azt osztani otthonmaradt családommal, 0:09:11.437,0:09:15.408 mintha mindannyian együtt [br]lennénk, ugyanabban a szobában? 0:09:15.408,0:09:18.550 Azt gondolom, öt év múlva 0:09:18.550,0:09:20.887 minden eszközünkben lesz érzelem-csip, 0:09:20.887,0:09:24.951 és már nem fogunk emlékezni arra, [br]amikor hiába néztünk homlokráncolva, 0:09:24.951,0:09:29.200 készülékünk nem mondta: [br]"Ez ugye nem tetszett?" 0:09:29.200,0:09:32.961 A nagy kihívás az, hogy a technológiának[br]olyan sok alkalmazási területe van, 0:09:32.961,0:09:35.864 hogy a csapatommal rájöttünk:[br]nem tudjuk mindet mi megépíteni, 0:09:35.864,0:09:39.360 ezért közzétettük a technológiát,[br]hogy más fejlesztők is 0:09:39.360,0:09:41.474 tudjanak építeni rá és alkotni. 0:09:41.474,0:09:45.560 Elismerjük, hogy vannak[br]potenciális kockázatok, 0:09:45.560,0:09:47.627 és vissza lehet élni ezzel, 0:09:47.627,0:09:50.576 de személy szerint, miután[br]oly sok éve dolgozom rajta, 0:09:50.576,0:09:53.548 hiszem, hogy az érzelmileg[br]intelligens technológia léte 0:09:53.548,0:09:55.823 olyan nagy haszon az emberiségnek, 0:09:55.823,0:09:59.399 hogy az jócskán ellensúlyozza[br]a visszaélés lehetőségét. 0:09:59.399,0:10:01.930 Meghívom Önöket is,[br]vegyenek részt a beszélgetésben. 0:10:01.930,0:10:04.484 Minél többen tudnak a technológiáról, 0:10:04.484,0:10:07.661 annál többen mondhatnak [br]véleményt használatáról. 0:10:09.081,0:10:13.655 Ahogy tehát egyre inkább digitálissá[br]válik életünk, 0:10:13.655,0:10:17.153 vesztésre állunk a csatában,[br]amelyben korlátozni próbáljuk eszközeink 0:10:17.153,0:10:19.382 használatát, hogy [br]visszakérjük érzelmeinket. 0:10:20.622,0:10:24.536 Ehelyett próbálok érzelmeket[br]vinni technológiánkba, 0:10:24.536,0:10:26.765 és fogékonyabbá tenni azt. 0:10:26.765,0:10:29.435 Azt akarom, hogy az eszközök,[br]amelyek elválasztottak, 0:10:29.435,0:10:31.897 újra összekössenek minket. 0:10:31.897,0:10:36.485 A technológia emberiessé tételével[br]kitűnő lehetőségünk nyílik arra, 0:10:36.485,0:10:39.782 hogy újragondoljuk,[br]hogyan viszonyulunk a gépekhez, 0:10:39.782,0:10:44.263 és ennek folytán mi, emberi lények, 0:10:44.263,0:10:46.167 hogyan viszonyulunk egymáshoz. 0:10:46.167,0:10:48.327 Köszönöm. 0:10:48.327,0:10:51.640 (Taps)