0:00:00.786,0:00:04.533 Onze emoties beïnvloeden[br]alle aspecten van ons leven, 0:00:04.533,0:00:06.249 van onze gezondheid en hoe we leren, 0:00:06.249,0:00:08.262 tot hoe we zakendoen[br]en beslissingen nemen, 0:00:08.262,0:00:09.942 grote en kleine. 0:00:10.692,0:00:14.252 Onze emoties hebben ook invloed[br]op hoe we met elkaar omgaan. 0:00:15.202,0:00:19.218 We zijn geëvolueerd om te leven[br]in een wereld die er zo uitziet, 0:00:19.218,0:00:23.427 maar in plaats daarvan leven we[br]ons leven steeds vaker zo 0:00:23.427,0:00:27.031 -- dit is het berichtje [br]dat mijn dochter gisteravond stuurde -- 0:00:27.031,0:00:29.491 in een wereld zonder emotie. 0:00:29.491,0:00:31.252 Mijn missie is om dat te veranderen. 0:00:31.252,0:00:35.243 Ik wil emoties terugbrengen[br]in onze digitale ervaringen. 0:00:36.533,0:00:38.980 15 jaar geleden ben ik hiermee begonnen. 0:00:38.980,0:00:41.686 Ik was computerwetenschapper in Egypte, 0:00:41.686,0:00:46.051 en ik was net toegelaten [br]tot een PhD-programma in Cambridge. 0:00:46.051,0:00:48.154 Ik deed iets behoorlijk ongewoons 0:00:48.154,0:00:52.049 voor een jonge, pasgetrouwde[br]Egyptische moslima. 0:00:52.049,0:00:53.699 (Gelach) 0:00:53.699,0:00:56.568 Met de steun van mijn man,[br]die in Egypte moest blijven, 0:00:56.568,0:00:59.576 pakte ik mijn koffers[br]en verhuisde ik naar Engeland. 0:00:59.576,0:01:02.904 Daar in Cambridge, [br]duizenden kilometers van huis, 0:01:02.904,0:01:06.117 besefte ik dat ik meer uren [br]met mijn laptop doorbracht 0:01:06.117,0:01:08.576 dan met andere mensen. 0:01:08.576,0:01:10.009 Ondanks deze vertrouwdheid[br] 0:01:10.009,0:01:13.469 had mijn laptop geen flauw idee [br]hoe ik me voelde. 0:01:13.469,0:01:16.550 Hij wist totaal niet of ik blij was, 0:01:16.550,0:01:19.958 een slechte dag had,[br]gestrest of verward was, 0:01:19.958,0:01:22.460 en dat werd frustrerend. 0:01:23.680,0:01:28.801 Erger nog, bij het online communiceren[br]met mijn familie thuis 0:01:28.801,0:01:32.813 had ik het gevoel dat al mijn emoties[br]verdwenen in de cyberspace. 0:01:32.813,0:01:37.908 Ik had heimwee, ik was eenzaam,[br]op sommige dagen zat ik echt te huilen, 0:01:37.908,0:01:41.836 maar het enige wat ik had[br]om deze emoties over te brengen 0:01:41.836,0:01:42.946 was dit. 0:01:42.946,0:01:45.036 (Gelach) 0:01:45.036,0:01:49.120 De technologie van vandaag[br]heeft veel IQ, maar geen EQ: 0:01:49.120,0:01:53.286 veel cognitieve intelligentie,[br]maar geen emotionele intelligentie. 0:01:53.286,0:01:55.153 Dat zette me aan het denken. 0:01:55.153,0:01:58.967 Wat als onze technologie[br]onze emoties kon waarnemen? 0:01:58.967,0:02:03.003 Wat als onze apparaten konden aanvoelen[br]hoe we ons voelden en daarop reageerden, 0:02:03.003,0:02:05.866 zoals emotioneel intelligente vrienden [br]dat ook zouden doen? 0:02:06.776,0:02:11.700 Die vragen zetten mij en mijn team [br]ertoe aan technologieën te maken 0:02:11.700,0:02:14.587 die onze emoties kunnen lezen[br]en erop reageren 0:02:14.587,0:02:17.697 en ons uitgangspunt [br]was het menselijk gezicht. 0:02:18.757,0:02:21.960 Het menselijk gezicht[br]is een van de sterkste kanalen 0:02:21.960,0:02:25.766 waarmee we onze sociale [br]en emotionele toestand overbrengen. 0:02:25.766,0:02:27.756 Alles van vreugde 0:02:27.756,0:02:29.396 tot verrassing, 0:02:29.396,0:02:30.576 empathie 0:02:30.576,0:02:33.129 en nieuwsgierigheid. 0:02:33.129,0:02:36.647 In de emotiewetenschap noemen we [br]elke beweging van de gelaatsspieren 0:02:36.647,0:02:38.157 een actie-eenheid. 0:02:38.157,0:02:40.472 Actie-eenheid 12 bijvoorbeeld, 0:02:40.472,0:02:42.760 dat is geen blockbuster uit Hollywood, 0:02:42.760,0:02:46.392 maar het optrekken van de mondhoeken,[br]het hoofdonderdeel van een glimlach. 0:02:46.392,0:02:48.990 Laten we dat allemaal even proberen. 0:02:48.990,0:02:50.940 Een ander voorbeeld is actie-eenheid 4,[br] 0:02:50.940,0:02:51.954 de wenkbrauwfrons: 0:02:51.954,0:02:54.082 als je je wenkbrauwen [br]tegen elkaar duwt 0:02:54.082,0:02:55.832 en allemaal rimpels maakt. 0:02:55.832,0:02:57.429 We vinden ze niet leuk, 0:02:57.429,0:03:00.184 maar ze zijn een goed signaal[br]voor een negatieve emotie. 0:03:00.184,0:03:03.430 We hebben ongeveer 45 [br]van die actie-eenheden 0:03:03.430,0:03:06.350 en samen drukken ze honderden emoties uit. 0:03:06.350,0:03:10.411 Het is moeilijk om een computer te leren[br]om deze gelaatsuitdrukkingen te lezen, 0:03:10.411,0:03:13.423 want deze actie-eenheden [br]kunnen snel zijn, ze zijn subtiel, 0:03:13.423,0:03:15.777 en ze komen voor in allerlei combinaties. 0:03:15.777,0:03:19.665 Neem bijvoorbeeld een glimlach[br]en een minachtende blik. 0:03:19.665,0:03:23.268 Ze lijken een beetje op elkaar,[br]maar ze betekenen iets heel anders. 0:03:23.268,0:03:25.176 (Gelach) 0:03:25.176,0:03:27.200 De een is positief, 0:03:27.200,0:03:29.010 de ander vaak negatief. 0:03:29.010,0:03:33.236 Soms kun je er beroemd door worden. 0:03:33.236,0:03:36.800 Maar het is belangrijk[br]dat een computer het verschil kan zien 0:03:36.800,0:03:38.635 tussen de twee gelaatsexpressies. 0:03:38.635,0:03:40.407 Hoe doen we dat? 0:03:40.407,0:03:42.284 We geven onze algoritmen 0:03:42.284,0:03:46.694 tienduizenden voorbeelden van mensen[br]waarvan we weten dat ze glimlachen, 0:03:46.694,0:03:49.659 van verschillende etniciteiten,[br]leeftijden, geslachten, 0:03:49.659,0:03:52.190 en dan doen we hetzelfde [br]voor de andere uitdrukking. 0:03:52.190,0:03:55.004 Door middel van deep learning[br]zoekt het algoritme 0:03:55.004,0:03:57.160 naar alle structuren en rimpels 0:03:57.160,0:03:59.380 en vormveranderingen in ons gezicht. 0:03:59.380,0:04:02.992 Zo leert het dat alle glimlachen[br]gemeenschappelijke eigenschappen hebben 0:04:02.992,0:04:05.873 die subtiel verschillen [br]van minachtende uitdrukkingen. 0:04:05.873,0:04:08.141 De volgende keer [br]dat het een nieuw gezicht ziet 0:04:08.141,0:04:13.120 leert het dat dit gezicht ook[br]de eigenschappen van een glimlach heeft 0:04:13.120,0:04:17.301 en zegt het: "Aha, dit herken ik.[br]Deze uitdrukking is een glimlach." 0:04:18.291,0:04:21.561 De beste manier om te laten zien [br]hoe deze technologie werkt 0:04:21.561,0:04:23.557 is een live-demonstratie, 0:04:23.557,0:04:27.230 dus ik heb een vrijwilliger nodig,[br]liefst iemand met een gezicht. 0:04:27.230,0:04:29.694 (Gelach) 0:04:29.694,0:04:32.335 Cloe is vandaag onze vrijwilliger. 0:04:33.475,0:04:35.183 In de afgelopen vijf jaar 0:04:35.183,0:04:38.939 zijn we van een onderzoeksproject bij MIT[br]overgegaan in een bedrijf, 0:04:38.939,0:04:42.371 waar mijn team keihard heeft gewerkt[br]om deze technologie te laten werken, 0:04:42.371,0:04:44.250 zoals wij dat zeggen, in het wild. 0:04:44.250,0:04:45.900 We hebben hem ook kleiner gemaakt 0:04:45.900,0:04:49.200 zodat de emotiemachine werkt[br]op elk mobiel apparaat met een camera, 0:04:49.200,0:04:50.760 zoals deze iPad. 0:04:50.760,0:04:53.316 Laten we het eens proberen. 0:04:54.876,0:04:58.770 Zoals je ziet heeft het algoritme[br]Cloe's gezicht gevonden, 0:04:58.770,0:05:00.252 dat is die witte rechthoek, 0:05:00.252,0:05:02.943 en het volgt de belangrijkste [br]punten van haar gezicht, 0:05:02.943,0:05:05.799 dus de wenkbrauwen, ogen,[br]mond en neus. 0:05:05.799,0:05:08.646 De vraag is: kan het [br]haar uitdrukking herkennen? 0:05:08.646,0:05:10.077 We gaan de machine testen. 0:05:10.077,0:05:14.913 Laat eerst eens je pokerface zien.[br]Ja, goed zo. (Gelach) 0:05:14.913,0:05:17.816 En terwijl ze glimlacht,[br]dit is een oprechte glimlach, 0:05:17.816,0:05:19.616 zie je de groene balken omhooggaan. 0:05:19.616,0:05:20.908 Dat was een brede glimlach. 0:05:20.908,0:05:23.951 Kun je proberen of de computer[br]ook een subtiele glimlach herkent? 0:05:23.951,0:05:25.712 De subtiele glimlach herkent hij ook. 0:05:25.712,0:05:27.717 Daar hebben we hard aan gewerkt. 0:05:27.717,0:05:31.439 En dan je wenkbrauwen omhoog,[br]een teken van verrassing. 0:05:31.439,0:05:36.038 Wenkbrauwen fronsen, [br]een teken van verwarring. 0:05:36.038,0:05:39.755 Boos kijken. Ja, perfect. 0:05:39.755,0:05:41.565 Dit zijn verschillende actie-eenheden. 0:05:41.565,0:05:42.758 Er zijn er nog veel meer. 0:05:42.758,0:05:45.220 Dit is maar een beperkte demo. 0:05:45.220,0:05:48.608 We noemen elke meting[br]een emotiegegevenspunt, 0:05:48.608,0:05:51.377 en in combinatie kunnen ze[br]verschillende emoties weergeven. 0:05:51.377,0:05:55.240 Aan de rechterkant van de demo --[br]trek eens een vrolijk gezicht. 0:05:55.240,0:05:57.594 Dat is vreugde. Vreugde gaat aan. 0:05:57.594,0:05:59.371 Laat nu eens afkeer zien. 0:05:59.371,0:06:03.523 Denk aan hoe je je voelde[br]toen Zayn wegging bij One Direction. 0:06:03.523,0:06:04.943 (Gelach) 0:06:04.943,0:06:10.055 Ja, maak rimpels bij je neus. Goed zo. 0:06:10.055,0:06:13.166 De valentie is behoorlijk negatief,[br]dus je was vast een groot fan. 0:06:13.166,0:06:15.926 Valentie is hoe positief [br]of negatief een ervaring is, 0:06:15.926,0:06:18.892 en betrokkenheid is hoe expressief ze is. 0:06:18.892,0:06:22.186 Stel je voor dat Cloe toegang had[br]tot deze rechtstreekse emotiestream 0:06:22.186,0:06:24.935 en ze die kon delen[br]met we ze maar wilde. 0:06:24.935,0:06:27.028 Dankjewel. 0:06:27.028,0:06:32.479 (Applaus) 0:06:33.959,0:06:39.019 Tot nu toe hebben we 12 miljard[br]van deze emotiegegevens vergaard. 0:06:39.019,0:06:41.470 Het is de grootste [br]emotiedatabase ter wereld. 0:06:41.470,0:06:44.913 We hebben hem verzameld[br]uit 2,9 miljoen filmpjes van gezichten, 0:06:44.913,0:06:48.083 mensen die hun emoties [br]met ons hebben willen delen, 0:06:48.083,0:06:50.398 uit 75 landen over de hele wereld. 0:06:50.398,0:06:52.113 Hij groeit elke dag. 0:06:52.643,0:06:54.630 Ik sta ervan versteld 0:06:54.630,0:06:58.195 dat we iets persoonlijks als emoties[br]nu kunnen kwantificeren 0:06:58.195,0:07:00.290 en dat we het op deze schaal kunnen doen. 0:07:00.290,0:07:02.277 Wat hebben we tot nu toe geleerd? 0:07:03.207,0:07:05.388 Geslacht: 0:07:05.388,0:07:09.094 onze data bevestigen iets[br]dat je misschien al vermoedde. 0:07:09.094,0:07:10.891 Vrouwen zijn expressiever dan mannen. 0:07:10.891,0:07:13.604 Ze glimlachen niet alleen meer,[br]maar ook langduriger, 0:07:13.604,0:07:16.278 en we kunnen nu echt vaststellen[br]wat het precies is 0:07:16.278,0:07:18.614 waarop mannen en vrouwen anders reageren. 0:07:18.614,0:07:19.614 Nu cultuur: 0:07:19.614,0:07:21.004 in de Verenigde Staten 0:07:21.004,0:07:24.108 zijn vrouwen 40 procent [br]expressiever dan mannen, 0:07:24.108,0:07:27.753 maar vreemd genoeg zien we in het VK[br]geen verschil tussen mannen en vrouwen. 0:07:27.753,0:07:30.259 (Gelach) 0:07:31.576,0:07:33.356 Leeftijd: 0:07:33.356,0:07:35.323 mensen van 50 jaar en ouder 0:07:35.323,0:07:38.759 tonen 25 procent meer emotie[br]dan jongere mensen. 0:07:39.559,0:07:43.741 Vrouwen in de twintig glimlachen veel meer[br]dan mannen van dezelfde leeftijd, 0:07:43.741,0:07:47.530 misschien moet dat wel tijdens dates. 0:07:47.530,0:07:50.207 Maar wat ons misschien[br]het meest heeft verrast 0:07:50.207,0:07:53.250 is dat we altijd expressief zijn, 0:07:53.250,0:07:56.283 zelfs als we alleen [br]achter een apparaat zitten, 0:07:56.283,0:07:59.517 en niet alleen als we kattenfilmpjes [br]kijken op Facebook. 0:08:00.217,0:08:03.227 We zijn expressief als we emailen,[br]sms'en, online winkelen 0:08:03.227,0:08:05.937 en zelfs als we[br]onze belastingaangifte doen. 0:08:05.937,0:08:08.139 Waar worden deze data momenteel gebruikt? 0:08:08.139,0:08:10.382 Bij het begrijpen van [br]hoe we met media omgaan, 0:08:10.382,0:08:13.166 het begrijpen van viraliteit[br]en stemgedrag, 0:08:13.166,0:08:16.766 en ook voor technologie[br]die emoties toegankelijker maakt. 0:08:16.766,0:08:20.527 Ik wil een paar voorbeelden delen[br]die me bijzonder nauw aan het hart liggen. 0:08:21.197,0:08:22.977 Brillen met emotietechnologie 0:08:22.977,0:08:25.465 kunnen mensen met [br]een visuele handicap helpen 0:08:25.465,0:08:27.553 om de gezichten van anderen te lezen, 0:08:27.553,0:08:31.240 en mensen binnen het autismespectrum[br]helpen om emoties te interpreteren, 0:08:31.240,0:08:34.458 iets waar ze echt moeite mee hebben. 0:08:35.548,0:08:36.998 In het onderwijs: 0:08:36.998,0:08:38.597 stel je voor dat je studeer-apps 0:08:38.597,0:08:41.227 aanvoelen wat je niet begrijpt[br]en het tempo verlagen, 0:08:41.227,0:08:43.484 of dat je je verveelt,[br]en dus sneller gaan, 0:08:43.484,0:08:46.413 net als een goede leraar op school. 0:08:47.003,0:08:49.644 Wat als je horloge je stemming bijhield 0:08:49.644,0:08:52.407 of je auto kon merken dat je moe was, 0:08:52.407,0:08:55.165 of je koelkast het wist[br]als je gestrest was, 0:08:55.165,0:08:59.281 en automatisch op slot ging[br]zodat je niet te veel kon eten. (Gelach) 0:08:59.281,0:09:01.798 Dat zou ik wel willen, ja. 0:09:03.728,0:09:05.675 Wat als ik in Cambridge 0:09:05.675,0:09:07.608 toegang had gehad tot mijn emotiestream 0:09:07.608,0:09:09.818 en die had kunnen delen [br]met mijn familie thuis 0:09:09.818,0:09:11.847 op een heel natuurlijke manier, 0:09:11.847,0:09:15.608 alsof we samen in één kamer zaten? 0:09:15.608,0:09:18.190 Ik denk dat over vijf jaar 0:09:18.190,0:09:21.237 al onze apparaten [br]een emotie-chip zullen hebben 0:09:21.237,0:09:25.011 en we niet meer weten hoe het was[br]om naar je apparaat te fronsen 0:09:25.011,0:09:29.330 zonder dat het terugzei:[br]"Hmm, dat vond je blijkbaar niet leuk." 0:09:29.330,0:09:32.991 De grootste uitdaging van deze technologie[br]is dat er zoveel toepassingen zijn, 0:09:32.991,0:09:35.864 dat mijn team en ik ze niet allemaal [br]zelf kunnen bouwen. 0:09:35.864,0:09:38.310 Daarom hebben we de technologie[br]beschikbaar gemaakt 0:09:38.310,0:09:41.794 zodat andere ontwikkelaars[br]er creatief mee aan de slag kunnen. 0:09:41.794,0:09:45.550 We zien in dat er potentiële risico's zijn 0:09:45.550,0:09:48.087 en de mogelijkheid dat er misbruik[br]van wordt gemaakt, 0:09:48.087,0:09:50.466 maar nu ik hier vele jaren [br]mee bezig ben geweest 0:09:50.466,0:09:53.148 geloof ik persoonlijk[br]dat de voordelen voor de mensheid 0:09:53.148,0:09:55.703 van emotioneel intelligente technologie 0:09:55.703,0:09:59.269 veel zwaarder wegen[br]dan het mogelijke misbruik.[br] 0:09:59.269,0:10:02.030 Ik nodig jullie allemaal uit[br]deel te nemen aan het gesprek. 0:10:02.030,0:10:04.394 Hoe meer mensen[br]van deze technologie afweten, 0:10:04.394,0:10:07.801 hoe meer we allemaal inspraak hebben[br]in hoe het wordt gebruikt. 0:10:09.621,0:10:13.835 Nu ons leven steeds digitaler wordt, 0:10:13.835,0:10:15.395 voeren we een hopeloze strijd 0:10:15.395,0:10:17.953 als we ons gebruik van apparaten [br]proberen te beperken 0:10:17.953,0:10:19.722 om zo onze emoties terug te winnen. 0:10:20.622,0:10:24.576 In plaats daarvan probeer ik[br]emoties in onze technologie op te nemen 0:10:24.576,0:10:26.765 en onze technologieën [br]beter te laten reageren. 0:10:26.765,0:10:29.515 Ik wil dat de apparaten[br]die ons hebben gescheiden 0:10:29.515,0:10:32.507 ons weer bij elkaar brengen. 0:10:32.507,0:10:36.735 Door technologie te vermenselijken[br]hebben we een gouden kans 0:10:36.735,0:10:40.452 om opnieuw te bedenken[br]hoe we met onze machines omgaan 0:10:40.452,0:10:44.033 en daarmee ook hoe wij, als mensen, 0:10:44.033,0:10:46.087 omgaan met elkaar. 0:10:46.087,0:10:47.217 Dankjewel. 0:10:47.217,0:10:51.640 (Applaus)