WEBVTT 00:00:00.786 --> 00:00:04.533 Onze emoties beïnvloeden alle aspecten van ons leven, 00:00:04.533 --> 00:00:06.249 van onze gezondheid en hoe we leren, 00:00:06.249 --> 00:00:08.262 tot hoe we zakendoen en beslissingen nemen, 00:00:08.262 --> 00:00:09.942 grote en kleine. 00:00:10.692 --> 00:00:14.252 Onze emoties hebben ook invloed op hoe we met elkaar omgaan. 00:00:15.202 --> 00:00:19.218 We zijn geëvolueerd om te leven in een wereld die er zo uitziet, 00:00:19.218 --> 00:00:23.427 maar in plaats daarvan leven we ons leven steeds vaker zo 00:00:23.427 --> 00:00:27.031 -- dit is het berichtje dat mijn dochter gisteravond stuurde -- 00:00:27.031 --> 00:00:29.491 in een wereld zonder emotie. 00:00:29.491 --> 00:00:31.252 Mijn missie is om dat te veranderen. 00:00:31.252 --> 00:00:35.243 Ik wil emoties terugbrengen in onze digitale ervaringen. NOTE Paragraph 00:00:36.533 --> 00:00:38.980 15 jaar geleden ben ik hiermee begonnen. 00:00:38.980 --> 00:00:41.686 Ik was computerwetenschapper in Egypte, 00:00:41.686 --> 00:00:46.051 en ik was net toegelaten tot een PhD-programma in Cambridge. 00:00:46.051 --> 00:00:48.154 Ik deed iets behoorlijk ongewoons 00:00:48.154 --> 00:00:52.049 voor een jonge, pasgetrouwde Egyptische moslima. 00:00:52.049 --> 00:00:53.699 (Gelach) 00:00:53.699 --> 00:00:56.568 Met de steun van mijn man, die in Egypte moest blijven, 00:00:56.568 --> 00:00:59.576 pakte ik mijn koffers en verhuisde ik naar Engeland. 00:00:59.576 --> 00:01:02.904 Daar in Cambridge, duizenden kilometers van huis, 00:01:02.904 --> 00:01:06.117 besefte ik dat ik meer uren met mijn laptop doorbracht 00:01:06.117 --> 00:01:08.576 dan met andere mensen. 00:01:08.576 --> 00:01:10.009 Ondanks deze vertrouwdheid 00:01:10.009 --> 00:01:13.469 had mijn laptop geen flauw idee hoe ik me voelde. 00:01:13.469 --> 00:01:16.550 Hij wist totaal niet of ik blij was, 00:01:16.550 --> 00:01:19.958 een slechte dag had, gestrest of verward was, 00:01:19.958 --> 00:01:22.460 en dat werd frustrerend. 00:01:23.680 --> 00:01:28.801 Erger nog, bij het online communiceren met mijn familie thuis 00:01:28.801 --> 00:01:32.813 had ik het gevoel dat al mijn emoties verdwenen in de cyberspace. 00:01:32.813 --> 00:01:37.908 Ik had heimwee, ik was eenzaam, op sommige dagen zat ik echt te huilen, 00:01:37.908 --> 00:01:41.836 maar het enige wat ik had om deze emoties over te brengen 00:01:41.836 --> 00:01:42.946 was dit. 00:01:42.946 --> 00:01:45.036 (Gelach) 00:01:45.036 --> 00:01:49.120 De technologie van vandaag heeft veel IQ, maar geen EQ: 00:01:49.120 --> 00:01:53.286 veel cognitieve intelligentie, maar geen emotionele intelligentie. 00:01:53.286 --> 00:01:55.153 Dat zette me aan het denken. 00:01:55.153 --> 00:01:58.967 Wat als onze technologie onze emoties kon waarnemen? 00:01:58.967 --> 00:02:03.003 Wat als onze apparaten konden aanvoelen hoe we ons voelden en daarop reageerden, 00:02:03.003 --> 00:02:05.866 zoals emotioneel intelligente vrienden dat ook zouden doen? 00:02:06.776 --> 00:02:11.700 Die vragen zetten mij en mijn team ertoe aan technologieën te maken 00:02:11.700 --> 00:02:14.587 die onze emoties kunnen lezen en erop reageren 00:02:14.587 --> 00:02:17.697 en ons uitgangspunt was het menselijk gezicht. NOTE Paragraph 00:02:18.757 --> 00:02:21.960 Het menselijk gezicht is een van de sterkste kanalen 00:02:21.960 --> 00:02:25.766 waarmee we onze sociale en emotionele toestand overbrengen. 00:02:25.766 --> 00:02:27.756 Alles van vreugde 00:02:27.756 --> 00:02:29.396 tot verrassing, 00:02:29.396 --> 00:02:30.576 empathie 00:02:30.576 --> 00:02:33.129 en nieuwsgierigheid. 00:02:33.129 --> 00:02:36.647 In de emotiewetenschap noemen we elke beweging van de gelaatsspieren 00:02:36.647 --> 00:02:38.157 een actie-eenheid. 00:02:38.157 --> 00:02:40.472 Actie-eenheid 12 bijvoorbeeld, 00:02:40.472 --> 00:02:42.760 dat is geen blockbuster uit Hollywood, 00:02:42.760 --> 00:02:46.392 maar het optrekken van de mondhoeken, het hoofdonderdeel van een glimlach. 00:02:46.392 --> 00:02:48.990 Laten we dat allemaal even proberen. 00:02:48.990 --> 00:02:50.940 Een ander voorbeeld is actie-eenheid 4, 00:02:50.940 --> 00:02:51.954 de wenkbrauwfrons: 00:02:51.954 --> 00:02:54.082 als je je wenkbrauwen tegen elkaar duwt 00:02:54.082 --> 00:02:55.832 en allemaal rimpels maakt. 00:02:55.832 --> 00:02:57.429 We vinden ze niet leuk, 00:02:57.429 --> 00:03:00.184 maar ze zijn een goed signaal voor een negatieve emotie. 00:03:00.184 --> 00:03:03.430 We hebben ongeveer 45 van die actie-eenheden 00:03:03.430 --> 00:03:06.350 en samen drukken ze honderden emoties uit. NOTE Paragraph 00:03:06.350 --> 00:03:10.411 Het is moeilijk om een computer te leren om deze gelaatsuitdrukkingen te lezen, 00:03:10.411 --> 00:03:13.423 want deze actie-eenheden kunnen snel zijn, ze zijn subtiel, 00:03:13.423 --> 00:03:15.777 en ze komen voor in allerlei combinaties. 00:03:15.777 --> 00:03:19.665 Neem bijvoorbeeld een glimlach en een minachtende blik. 00:03:19.665 --> 00:03:23.268 Ze lijken een beetje op elkaar, maar ze betekenen iets heel anders. 00:03:23.268 --> 00:03:25.176 (Gelach) 00:03:25.176 --> 00:03:27.200 De een is positief, 00:03:27.200 --> 00:03:29.010 de ander vaak negatief. 00:03:29.010 --> 00:03:33.236 Soms kun je er beroemd door worden. 00:03:33.236 --> 00:03:36.800 Maar het is belangrijk dat een computer het verschil kan zien 00:03:36.800 --> 00:03:38.635 tussen de twee gelaatsexpressies. NOTE Paragraph 00:03:38.635 --> 00:03:40.407 Hoe doen we dat? 00:03:40.407 --> 00:03:42.284 We geven onze algoritmen 00:03:42.284 --> 00:03:46.694 tienduizenden voorbeelden van mensen waarvan we weten dat ze glimlachen, 00:03:46.694 --> 00:03:49.659 van verschillende etniciteiten, leeftijden, geslachten, 00:03:49.659 --> 00:03:52.190 en dan doen we hetzelfde voor de andere uitdrukking. 00:03:52.190 --> 00:03:55.004 Door middel van deep learning zoekt het algoritme 00:03:55.004 --> 00:03:57.160 naar alle structuren en rimpels 00:03:57.160 --> 00:03:59.380 en vormveranderingen in ons gezicht. 00:03:59.380 --> 00:04:02.992 Zo leert het dat alle glimlachen gemeenschappelijke eigenschappen hebben 00:04:02.992 --> 00:04:05.873 die subtiel verschillen van minachtende uitdrukkingen. 00:04:05.873 --> 00:04:08.141 De volgende keer dat het een nieuw gezicht ziet 00:04:08.141 --> 00:04:13.120 leert het dat dit gezicht ook de eigenschappen van een glimlach heeft 00:04:13.120 --> 00:04:17.301 en zegt het: "Aha, dit herken ik. Deze uitdrukking is een glimlach." NOTE Paragraph 00:04:18.291 --> 00:04:21.561 De beste manier om te laten zien hoe deze technologie werkt 00:04:21.561 --> 00:04:23.557 is een live-demonstratie, 00:04:23.557 --> 00:04:27.230 dus ik heb een vrijwilliger nodig, liefst iemand met een gezicht. 00:04:27.230 --> 00:04:29.694 (Gelach) 00:04:29.694 --> 00:04:32.335 Cloe is vandaag onze vrijwilliger. NOTE Paragraph 00:04:33.475 --> 00:04:35.183 In de afgelopen vijf jaar 00:04:35.183 --> 00:04:38.939 zijn we van een onderzoeksproject bij MIT overgegaan in een bedrijf, 00:04:38.939 --> 00:04:42.371 waar mijn team keihard heeft gewerkt om deze technologie te laten werken, 00:04:42.371 --> 00:04:44.250 zoals wij dat zeggen, in het wild. 00:04:44.250 --> 00:04:45.900 We hebben hem ook kleiner gemaakt 00:04:45.900 --> 00:04:49.200 zodat de emotiemachine werkt op elk mobiel apparaat met een camera, 00:04:49.200 --> 00:04:50.760 zoals deze iPad. 00:04:50.760 --> 00:04:53.316 Laten we het eens proberen. NOTE Paragraph 00:04:54.876 --> 00:04:58.770 Zoals je ziet heeft het algoritme Cloe's gezicht gevonden, 00:04:58.770 --> 00:05:00.252 dat is die witte rechthoek, 00:05:00.252 --> 00:05:02.943 en het volgt de belangrijkste punten van haar gezicht, 00:05:02.943 --> 00:05:05.799 dus de wenkbrauwen, ogen, mond en neus. 00:05:05.799 --> 00:05:08.646 De vraag is: kan het haar uitdrukking herkennen? 00:05:08.646 --> 00:05:10.077 We gaan de machine testen. 00:05:10.077 --> 00:05:14.913 Laat eerst eens je pokerface zien. Ja, goed zo. (Gelach) 00:05:14.913 --> 00:05:17.816 En terwijl ze glimlacht, dit is een oprechte glimlach, 00:05:17.816 --> 00:05:19.616 zie je de groene balken omhooggaan. 00:05:19.616 --> 00:05:20.908 Dat was een brede glimlach. 00:05:20.908 --> 00:05:23.951 Kun je proberen of de computer ook een subtiele glimlach herkent? 00:05:23.951 --> 00:05:25.712 De subtiele glimlach herkent hij ook. 00:05:25.712 --> 00:05:27.717 Daar hebben we hard aan gewerkt. 00:05:27.717 --> 00:05:31.439 En dan je wenkbrauwen omhoog, een teken van verrassing. 00:05:31.439 --> 00:05:36.038 Wenkbrauwen fronsen, een teken van verwarring. 00:05:36.038 --> 00:05:39.755 Boos kijken. Ja, perfect. 00:05:39.755 --> 00:05:41.565 Dit zijn verschillende actie-eenheden. 00:05:41.565 --> 00:05:42.758 Er zijn er nog veel meer. 00:05:42.758 --> 00:05:45.220 Dit is maar een beperkte demo. 00:05:45.220 --> 00:05:48.608 We noemen elke meting een emotiegegevenspunt, 00:05:48.608 --> 00:05:51.377 en in combinatie kunnen ze verschillende emoties weergeven. 00:05:51.377 --> 00:05:55.240 Aan de rechterkant van de demo -- trek eens een vrolijk gezicht. 00:05:55.240 --> 00:05:57.594 Dat is vreugde. Vreugde gaat aan. 00:05:57.594 --> 00:05:59.371 Laat nu eens afkeer zien. 00:05:59.371 --> 00:06:03.523 Denk aan hoe je je voelde toen Zayn wegging bij One Direction. 00:06:03.523 --> 00:06:04.943 (Gelach) 00:06:04.943 --> 00:06:10.055 Ja, maak rimpels bij je neus. Goed zo. 00:06:10.055 --> 00:06:13.166 De valentie is behoorlijk negatief, dus je was vast een groot fan. 00:06:13.166 --> 00:06:15.926 Valentie is hoe positief of negatief een ervaring is, 00:06:15.926 --> 00:06:18.892 en betrokkenheid is hoe expressief ze is. 00:06:18.892 --> 00:06:22.186 Stel je voor dat Cloe toegang had tot deze rechtstreekse emotiestream 00:06:22.186 --> 00:06:24.935 en ze die kon delen met we ze maar wilde. 00:06:24.935 --> 00:06:27.028 Dankjewel. 00:06:27.028 --> 00:06:32.479 (Applaus) NOTE Paragraph 00:06:33.959 --> 00:06:39.019 Tot nu toe hebben we 12 miljard van deze emotiegegevens vergaard. 00:06:39.019 --> 00:06:41.470 Het is de grootste emotiedatabase ter wereld. 00:06:41.470 --> 00:06:44.913 We hebben hem verzameld uit 2,9 miljoen filmpjes van gezichten, 00:06:44.913 --> 00:06:48.083 mensen die hun emoties met ons hebben willen delen, 00:06:48.083 --> 00:06:50.398 uit 75 landen over de hele wereld. 00:06:50.398 --> 00:06:52.113 Hij groeit elke dag. 00:06:52.643 --> 00:06:54.630 Ik sta ervan versteld 00:06:54.630 --> 00:06:58.195 dat we iets persoonlijks als emoties nu kunnen kwantificeren 00:06:58.195 --> 00:07:00.290 en dat we het op deze schaal kunnen doen. NOTE Paragraph 00:07:00.290 --> 00:07:02.277 Wat hebben we tot nu toe geleerd? 00:07:03.207 --> 00:07:05.388 Geslacht: 00:07:05.388 --> 00:07:09.094 onze data bevestigen iets dat je misschien al vermoedde. 00:07:09.094 --> 00:07:10.891 Vrouwen zijn expressiever dan mannen. 00:07:10.891 --> 00:07:13.604 Ze glimlachen niet alleen meer, maar ook langduriger, 00:07:13.604 --> 00:07:16.278 en we kunnen nu echt vaststellen wat het precies is 00:07:16.278 --> 00:07:18.614 waarop mannen en vrouwen anders reageren. 00:07:18.614 --> 00:07:19.614 Nu cultuur: 00:07:19.614 --> 00:07:21.004 in de Verenigde Staten 00:07:21.004 --> 00:07:24.108 zijn vrouwen 40 procent expressiever dan mannen, 00:07:24.108 --> 00:07:27.753 maar vreemd genoeg zien we in het VK geen verschil tussen mannen en vrouwen. 00:07:27.753 --> 00:07:30.259 (Gelach) 00:07:31.576 --> 00:07:33.356 Leeftijd: 00:07:33.356 --> 00:07:35.323 mensen van 50 jaar en ouder 00:07:35.323 --> 00:07:38.759 tonen 25 procent meer emotie dan jongere mensen. 00:07:39.559 --> 00:07:43.741 Vrouwen in de twintig glimlachen veel meer dan mannen van dezelfde leeftijd, 00:07:43.741 --> 00:07:47.530 misschien moet dat wel tijdens dates. 00:07:47.530 --> 00:07:50.207 Maar wat ons misschien het meest heeft verrast 00:07:50.207 --> 00:07:53.250 is dat we altijd expressief zijn, 00:07:53.250 --> 00:07:56.283 zelfs als we alleen achter een apparaat zitten, 00:07:56.283 --> 00:07:59.517 en niet alleen als we kattenfilmpjes kijken op Facebook. 00:08:00.217 --> 00:08:03.227 We zijn expressief als we emailen, sms'en, online winkelen 00:08:03.227 --> 00:08:05.937 en zelfs als we onze belastingaangifte doen. NOTE Paragraph 00:08:05.937 --> 00:08:08.139 Waar worden deze data momenteel gebruikt? 00:08:08.139 --> 00:08:10.382 Bij het begrijpen van hoe we met media omgaan, 00:08:10.382 --> 00:08:13.166 het begrijpen van viraliteit en stemgedrag, 00:08:13.166 --> 00:08:16.766 en ook voor technologie die emoties toegankelijker maakt. 00:08:16.766 --> 00:08:20.527 Ik wil een paar voorbeelden delen die me bijzonder nauw aan het hart liggen. 00:08:21.197 --> 00:08:22.977 Brillen met emotietechnologie 00:08:22.977 --> 00:08:25.465 kunnen mensen met een visuele handicap helpen 00:08:25.465 --> 00:08:27.553 om de gezichten van anderen te lezen, 00:08:27.553 --> 00:08:31.240 en mensen binnen het autismespectrum helpen om emoties te interpreteren, 00:08:31.240 --> 00:08:34.458 iets waar ze echt moeite mee hebben. 00:08:35.548 --> 00:08:36.998 In het onderwijs: 00:08:36.998 --> 00:08:38.597 stel je voor dat je studeer-apps 00:08:38.597 --> 00:08:41.227 aanvoelen wat je niet begrijpt en het tempo verlagen, 00:08:41.227 --> 00:08:43.484 of dat je je verveelt, en dus sneller gaan, 00:08:43.484 --> 00:08:46.413 net als een goede leraar op school. 00:08:47.003 --> 00:08:49.644 Wat als je horloge je stemming bijhield 00:08:49.644 --> 00:08:52.407 of je auto kon merken dat je moe was, 00:08:52.407 --> 00:08:55.165 of je koelkast het wist als je gestrest was, 00:08:55.165 --> 00:08:59.281 en automatisch op slot ging zodat je niet te veel kon eten. (Gelach) 00:08:59.281 --> 00:09:01.798 Dat zou ik wel willen, ja. 00:09:03.728 --> 00:09:05.675 Wat als ik in Cambridge 00:09:05.675 --> 00:09:07.608 toegang had gehad tot mijn emotiestream 00:09:07.608 --> 00:09:09.818 en die had kunnen delen met mijn familie thuis 00:09:09.818 --> 00:09:11.847 op een heel natuurlijke manier, 00:09:11.847 --> 00:09:15.608 alsof we samen in één kamer zaten? NOTE Paragraph 00:09:15.608 --> 00:09:18.190 Ik denk dat over vijf jaar 00:09:18.190 --> 00:09:21.237 al onze apparaten een emotie-chip zullen hebben 00:09:21.237 --> 00:09:25.011 en we niet meer weten hoe het was om naar je apparaat te fronsen 00:09:25.011 --> 00:09:29.330 zonder dat het terugzei: "Hmm, dat vond je blijkbaar niet leuk." 00:09:29.330 --> 00:09:32.991 De grootste uitdaging van deze technologie is dat er zoveel toepassingen zijn, 00:09:32.991 --> 00:09:35.864 dat mijn team en ik ze niet allemaal zelf kunnen bouwen. 00:09:35.864 --> 00:09:38.310 Daarom hebben we de technologie beschikbaar gemaakt 00:09:38.310 --> 00:09:41.794 zodat andere ontwikkelaars er creatief mee aan de slag kunnen. 00:09:41.794 --> 00:09:45.550 We zien in dat er potentiële risico's zijn 00:09:45.550 --> 00:09:48.087 en de mogelijkheid dat er misbruik van wordt gemaakt, 00:09:48.087 --> 00:09:50.466 maar nu ik hier vele jaren mee bezig ben geweest 00:09:50.466 --> 00:09:53.148 geloof ik persoonlijk dat de voordelen voor de mensheid 00:09:53.148 --> 00:09:55.703 van emotioneel intelligente technologie 00:09:55.703 --> 00:09:59.269 veel zwaarder wegen dan het mogelijke misbruik. 00:09:59.269 --> 00:10:02.030 Ik nodig jullie allemaal uit deel te nemen aan het gesprek. 00:10:02.030 --> 00:10:04.394 Hoe meer mensen van deze technologie afweten, 00:10:04.394 --> 00:10:07.801 hoe meer we allemaal inspraak hebben in hoe het wordt gebruikt. 00:10:09.621 --> 00:10:13.835 Nu ons leven steeds digitaler wordt, 00:10:13.835 --> 00:10:15.395 voeren we een hopeloze strijd 00:10:15.395 --> 00:10:17.953 als we ons gebruik van apparaten proberen te beperken 00:10:17.953 --> 00:10:19.722 om zo onze emoties terug te winnen. 00:10:20.622 --> 00:10:24.576 In plaats daarvan probeer ik emoties in onze technologie op te nemen 00:10:24.576 --> 00:10:26.765 en onze technologieën beter te laten reageren. 00:10:26.765 --> 00:10:29.515 Ik wil dat de apparaten die ons hebben gescheiden 00:10:29.515 --> 00:10:32.507 ons weer bij elkaar brengen. 00:10:32.507 --> 00:10:36.735 Door technologie te vermenselijken hebben we een gouden kans 00:10:36.735 --> 00:10:40.452 om opnieuw te bedenken hoe we met onze machines omgaan 00:10:40.452 --> 00:10:44.033 en daarmee ook hoe wij, als mensen, 00:10:44.033 --> 00:10:46.087 omgaan met elkaar. NOTE Paragraph 00:10:46.087 --> 00:10:47.217 Dankjewel. NOTE Paragraph 00:10:47.217 --> 00:10:51.640 (Applaus)