1 00:00:00,786 --> 00:00:04,533 Onze emoties beïnvloeden alle aspecten van ons leven, 2 00:00:04,533 --> 00:00:06,249 van onze gezondheid en hoe we leren, 3 00:00:06,249 --> 00:00:08,262 tot hoe we zakendoen en beslissingen nemen, 4 00:00:08,262 --> 00:00:09,942 grote en kleine. 5 00:00:10,692 --> 00:00:14,252 Onze emoties hebben ook invloed op hoe we met elkaar omgaan. 6 00:00:15,202 --> 00:00:19,218 We zijn geëvolueerd om te leven in een wereld die er zo uitziet, 7 00:00:19,218 --> 00:00:23,427 maar in plaats daarvan leven we ons leven steeds vaker zo 8 00:00:23,427 --> 00:00:27,031 -- dit is het berichtje dat mijn dochter gisteravond stuurde -- 9 00:00:27,031 --> 00:00:29,491 in een wereld zonder emotie. 10 00:00:29,491 --> 00:00:31,252 Mijn missie is om dat te veranderen. 11 00:00:31,252 --> 00:00:35,243 Ik wil emoties terugbrengen in onze digitale ervaringen. 12 00:00:36,533 --> 00:00:38,980 15 jaar geleden ben ik hiermee begonnen. 13 00:00:38,980 --> 00:00:41,686 Ik was computerwetenschapper in Egypte, 14 00:00:41,686 --> 00:00:46,051 en ik was net toegelaten tot een PhD-programma in Cambridge. 15 00:00:46,051 --> 00:00:48,154 Ik deed iets behoorlijk ongewoons 16 00:00:48,154 --> 00:00:52,049 voor een jonge, pasgetrouwde Egyptische moslima. 17 00:00:52,049 --> 00:00:53,699 (Gelach) 18 00:00:53,699 --> 00:00:56,568 Met de steun van mijn man, die in Egypte moest blijven, 19 00:00:56,568 --> 00:00:59,576 pakte ik mijn koffers en verhuisde ik naar Engeland. 20 00:00:59,576 --> 00:01:02,904 Daar in Cambridge, duizenden kilometers van huis, 21 00:01:02,904 --> 00:01:06,117 besefte ik dat ik meer uren met mijn laptop doorbracht 22 00:01:06,117 --> 00:01:08,576 dan met andere mensen. 23 00:01:08,576 --> 00:01:10,009 Ondanks deze vertrouwdheid 24 00:01:10,009 --> 00:01:13,469 had mijn laptop geen flauw idee hoe ik me voelde. 25 00:01:13,469 --> 00:01:16,550 Hij wist totaal niet of ik blij was, 26 00:01:16,550 --> 00:01:19,958 een slechte dag had, gestrest of verward was, 27 00:01:19,958 --> 00:01:22,460 en dat werd frustrerend. 28 00:01:23,680 --> 00:01:28,801 Erger nog, bij het online communiceren met mijn familie thuis 29 00:01:28,801 --> 00:01:32,813 had ik het gevoel dat al mijn emoties verdwenen in de cyberspace. 30 00:01:32,813 --> 00:01:37,908 Ik had heimwee, ik was eenzaam, op sommige dagen zat ik echt te huilen, 31 00:01:37,908 --> 00:01:41,836 maar het enige wat ik had om deze emoties over te brengen 32 00:01:41,836 --> 00:01:42,946 was dit. 33 00:01:42,946 --> 00:01:45,036 (Gelach) 34 00:01:45,036 --> 00:01:49,120 De technologie van vandaag heeft veel IQ, maar geen EQ: 35 00:01:49,120 --> 00:01:53,286 veel cognitieve intelligentie, maar geen emotionele intelligentie. 36 00:01:53,286 --> 00:01:55,153 Dat zette me aan het denken. 37 00:01:55,153 --> 00:01:58,967 Wat als onze technologie onze emoties kon waarnemen? 38 00:01:58,967 --> 00:02:03,003 Wat als onze apparaten konden aanvoelen hoe we ons voelden en daarop reageerden, 39 00:02:03,003 --> 00:02:05,866 zoals emotioneel intelligente vrienden dat ook zouden doen? 40 00:02:06,776 --> 00:02:11,700 Die vragen zetten mij en mijn team ertoe aan technologieën te maken 41 00:02:11,700 --> 00:02:14,587 die onze emoties kunnen lezen en erop reageren 42 00:02:14,587 --> 00:02:17,697 en ons uitgangspunt was het menselijk gezicht. 43 00:02:18,757 --> 00:02:21,960 Het menselijk gezicht is een van de sterkste kanalen 44 00:02:21,960 --> 00:02:25,766 waarmee we onze sociale en emotionele toestand overbrengen. 45 00:02:25,766 --> 00:02:27,756 Alles van vreugde 46 00:02:27,756 --> 00:02:29,396 tot verrassing, 47 00:02:29,396 --> 00:02:30,576 empathie 48 00:02:30,576 --> 00:02:33,129 en nieuwsgierigheid. 49 00:02:33,129 --> 00:02:36,647 In de emotiewetenschap noemen we elke beweging van de gelaatsspieren 50 00:02:36,647 --> 00:02:38,157 een actie-eenheid. 51 00:02:38,157 --> 00:02:40,472 Actie-eenheid 12 bijvoorbeeld, 52 00:02:40,472 --> 00:02:42,760 dat is geen blockbuster uit Hollywood, 53 00:02:42,760 --> 00:02:46,392 maar het optrekken van de mondhoeken, het hoofdonderdeel van een glimlach. 54 00:02:46,392 --> 00:02:48,990 Laten we dat allemaal even proberen. 55 00:02:48,990 --> 00:02:50,940 Een ander voorbeeld is actie-eenheid 4, 56 00:02:50,940 --> 00:02:51,954 de wenkbrauwfrons: 57 00:02:51,954 --> 00:02:54,082 als je je wenkbrauwen tegen elkaar duwt 58 00:02:54,082 --> 00:02:55,832 en allemaal rimpels maakt. 59 00:02:55,832 --> 00:02:57,429 We vinden ze niet leuk, 60 00:02:57,429 --> 00:03:00,184 maar ze zijn een goed signaal voor een negatieve emotie. 61 00:03:00,184 --> 00:03:03,430 We hebben ongeveer 45 van die actie-eenheden 62 00:03:03,430 --> 00:03:06,350 en samen drukken ze honderden emoties uit. 63 00:03:06,350 --> 00:03:10,411 Het is moeilijk om een computer te leren om deze gelaatsuitdrukkingen te lezen, 64 00:03:10,411 --> 00:03:13,423 want deze actie-eenheden kunnen snel zijn, ze zijn subtiel, 65 00:03:13,423 --> 00:03:15,777 en ze komen voor in allerlei combinaties. 66 00:03:15,777 --> 00:03:19,665 Neem bijvoorbeeld een glimlach en een minachtende blik. 67 00:03:19,665 --> 00:03:23,268 Ze lijken een beetje op elkaar, maar ze betekenen iets heel anders. 68 00:03:23,268 --> 00:03:25,176 (Gelach) 69 00:03:25,176 --> 00:03:27,200 De een is positief, 70 00:03:27,200 --> 00:03:29,010 de ander vaak negatief. 71 00:03:29,010 --> 00:03:33,236 Soms kun je er beroemd door worden. 72 00:03:33,236 --> 00:03:36,800 Maar het is belangrijk dat een computer het verschil kan zien 73 00:03:36,800 --> 00:03:38,635 tussen de twee gelaatsexpressies. 74 00:03:38,635 --> 00:03:40,407 Hoe doen we dat? 75 00:03:40,407 --> 00:03:42,284 We geven onze algoritmen 76 00:03:42,284 --> 00:03:46,694 tienduizenden voorbeelden van mensen waarvan we weten dat ze glimlachen, 77 00:03:46,694 --> 00:03:49,659 van verschillende etniciteiten, leeftijden, geslachten, 78 00:03:49,659 --> 00:03:52,190 en dan doen we hetzelfde voor de andere uitdrukking. 79 00:03:52,190 --> 00:03:55,004 Door middel van deep learning zoekt het algoritme 80 00:03:55,004 --> 00:03:57,160 naar alle structuren en rimpels 81 00:03:57,160 --> 00:03:59,380 en vormveranderingen in ons gezicht. 82 00:03:59,380 --> 00:04:02,992 Zo leert het dat alle glimlachen gemeenschappelijke eigenschappen hebben 83 00:04:02,992 --> 00:04:05,873 die subtiel verschillen van minachtende uitdrukkingen. 84 00:04:05,873 --> 00:04:08,141 De volgende keer dat het een nieuw gezicht ziet 85 00:04:08,141 --> 00:04:13,120 leert het dat dit gezicht ook de eigenschappen van een glimlach heeft 86 00:04:13,120 --> 00:04:17,301 en zegt het: "Aha, dit herken ik. Deze uitdrukking is een glimlach." 87 00:04:18,291 --> 00:04:21,561 De beste manier om te laten zien hoe deze technologie werkt 88 00:04:21,561 --> 00:04:23,557 is een live-demonstratie, 89 00:04:23,557 --> 00:04:27,230 dus ik heb een vrijwilliger nodig, liefst iemand met een gezicht. 90 00:04:27,230 --> 00:04:29,694 (Gelach) 91 00:04:29,694 --> 00:04:32,335 Cloe is vandaag onze vrijwilliger. 92 00:04:33,475 --> 00:04:35,183 In de afgelopen vijf jaar 93 00:04:35,183 --> 00:04:38,939 zijn we van een onderzoeksproject bij MIT overgegaan in een bedrijf, 94 00:04:38,939 --> 00:04:42,371 waar mijn team keihard heeft gewerkt om deze technologie te laten werken, 95 00:04:42,371 --> 00:04:44,250 zoals wij dat zeggen, in het wild. 96 00:04:44,250 --> 00:04:45,900 We hebben hem ook kleiner gemaakt 97 00:04:45,900 --> 00:04:49,200 zodat de emotiemachine werkt op elk mobiel apparaat met een camera, 98 00:04:49,200 --> 00:04:50,760 zoals deze iPad. 99 00:04:50,760 --> 00:04:53,316 Laten we het eens proberen. 100 00:04:54,876 --> 00:04:58,770 Zoals je ziet heeft het algoritme Cloe's gezicht gevonden, 101 00:04:58,770 --> 00:05:00,252 dat is die witte rechthoek, 102 00:05:00,252 --> 00:05:02,943 en het volgt de belangrijkste punten van haar gezicht, 103 00:05:02,943 --> 00:05:05,799 dus de wenkbrauwen, ogen, mond en neus. 104 00:05:05,799 --> 00:05:08,646 De vraag is: kan het haar uitdrukking herkennen? 105 00:05:08,646 --> 00:05:10,077 We gaan de machine testen. 106 00:05:10,077 --> 00:05:14,913 Laat eerst eens je pokerface zien. Ja, goed zo. (Gelach) 107 00:05:14,913 --> 00:05:17,816 En terwijl ze glimlacht, dit is een oprechte glimlach, 108 00:05:17,816 --> 00:05:19,616 zie je de groene balken omhooggaan. 109 00:05:19,616 --> 00:05:20,908 Dat was een brede glimlach. 110 00:05:20,908 --> 00:05:23,951 Kun je proberen of de computer ook een subtiele glimlach herkent? 111 00:05:23,951 --> 00:05:25,712 De subtiele glimlach herkent hij ook. 112 00:05:25,712 --> 00:05:27,717 Daar hebben we hard aan gewerkt. 113 00:05:27,717 --> 00:05:31,439 En dan je wenkbrauwen omhoog, een teken van verrassing. 114 00:05:31,439 --> 00:05:36,038 Wenkbrauwen fronsen, een teken van verwarring. 115 00:05:36,038 --> 00:05:39,755 Boos kijken. Ja, perfect. 116 00:05:39,755 --> 00:05:41,565 Dit zijn verschillende actie-eenheden. 117 00:05:41,565 --> 00:05:42,758 Er zijn er nog veel meer. 118 00:05:42,758 --> 00:05:45,220 Dit is maar een beperkte demo. 119 00:05:45,220 --> 00:05:48,608 We noemen elke meting een emotiegegevenspunt, 120 00:05:48,608 --> 00:05:51,377 en in combinatie kunnen ze verschillende emoties weergeven. 121 00:05:51,377 --> 00:05:55,240 Aan de rechterkant van de demo -- trek eens een vrolijk gezicht. 122 00:05:55,240 --> 00:05:57,594 Dat is vreugde. Vreugde gaat aan. 123 00:05:57,594 --> 00:05:59,371 Laat nu eens afkeer zien. 124 00:05:59,371 --> 00:06:03,523 Denk aan hoe je je voelde toen Zayn wegging bij One Direction. 125 00:06:03,523 --> 00:06:04,943 (Gelach) 126 00:06:04,943 --> 00:06:10,055 Ja, maak rimpels bij je neus. Goed zo. 127 00:06:10,055 --> 00:06:13,166 De valentie is behoorlijk negatief, dus je was vast een groot fan. 128 00:06:13,166 --> 00:06:15,926 Valentie is hoe positief of negatief een ervaring is, 129 00:06:15,926 --> 00:06:18,892 en betrokkenheid is hoe expressief ze is. 130 00:06:18,892 --> 00:06:22,186 Stel je voor dat Cloe toegang had tot deze rechtstreekse emotiestream 131 00:06:22,186 --> 00:06:24,935 en ze die kon delen met we ze maar wilde. 132 00:06:24,935 --> 00:06:27,028 Dankjewel. 133 00:06:27,028 --> 00:06:32,479 (Applaus) 134 00:06:33,959 --> 00:06:39,019 Tot nu toe hebben we 12 miljard van deze emotiegegevens vergaard. 135 00:06:39,019 --> 00:06:41,470 Het is de grootste emotiedatabase ter wereld. 136 00:06:41,470 --> 00:06:44,913 We hebben hem verzameld uit 2,9 miljoen filmpjes van gezichten, 137 00:06:44,913 --> 00:06:48,083 mensen die hun emoties met ons hebben willen delen, 138 00:06:48,083 --> 00:06:50,398 uit 75 landen over de hele wereld. 139 00:06:50,398 --> 00:06:52,113 Hij groeit elke dag. 140 00:06:52,643 --> 00:06:54,630 Ik sta ervan versteld 141 00:06:54,630 --> 00:06:58,195 dat we iets persoonlijks als emoties nu kunnen kwantificeren 142 00:06:58,195 --> 00:07:00,290 en dat we het op deze schaal kunnen doen. 143 00:07:00,290 --> 00:07:02,277 Wat hebben we tot nu toe geleerd? 144 00:07:03,207 --> 00:07:05,388 Geslacht: 145 00:07:05,388 --> 00:07:09,094 onze data bevestigen iets dat je misschien al vermoedde. 146 00:07:09,094 --> 00:07:10,891 Vrouwen zijn expressiever dan mannen. 147 00:07:10,891 --> 00:07:13,604 Ze glimlachen niet alleen meer, maar ook langduriger, 148 00:07:13,604 --> 00:07:16,278 en we kunnen nu echt vaststellen wat het precies is 149 00:07:16,278 --> 00:07:18,614 waarop mannen en vrouwen anders reageren. 150 00:07:18,614 --> 00:07:19,614 Nu cultuur: 151 00:07:19,614 --> 00:07:21,004 in de Verenigde Staten 152 00:07:21,004 --> 00:07:24,108 zijn vrouwen 40 procent expressiever dan mannen, 153 00:07:24,108 --> 00:07:27,753 maar vreemd genoeg zien we in het VK geen verschil tussen mannen en vrouwen. 154 00:07:27,753 --> 00:07:30,259 (Gelach) 155 00:07:31,576 --> 00:07:33,356 Leeftijd: 156 00:07:33,356 --> 00:07:35,323 mensen van 50 jaar en ouder 157 00:07:35,323 --> 00:07:38,759 tonen 25 procent meer emotie dan jongere mensen. 158 00:07:39,559 --> 00:07:43,741 Vrouwen in de twintig glimlachen veel meer dan mannen van dezelfde leeftijd, 159 00:07:43,741 --> 00:07:47,530 misschien moet dat wel tijdens dates. 160 00:07:47,530 --> 00:07:50,207 Maar wat ons misschien het meest heeft verrast 161 00:07:50,207 --> 00:07:53,250 is dat we altijd expressief zijn, 162 00:07:53,250 --> 00:07:56,283 zelfs als we alleen achter een apparaat zitten, 163 00:07:56,283 --> 00:07:59,517 en niet alleen als we kattenfilmpjes kijken op Facebook. 164 00:08:00,217 --> 00:08:03,227 We zijn expressief als we emailen, sms'en, online winkelen 165 00:08:03,227 --> 00:08:05,937 en zelfs als we onze belastingaangifte doen. 166 00:08:05,937 --> 00:08:08,139 Waar worden deze data momenteel gebruikt? 167 00:08:08,139 --> 00:08:10,382 Bij het begrijpen van hoe we met media omgaan, 168 00:08:10,382 --> 00:08:13,166 het begrijpen van viraliteit en stemgedrag, 169 00:08:13,166 --> 00:08:16,766 en ook voor technologie die emoties toegankelijker maakt. 170 00:08:16,766 --> 00:08:20,527 Ik wil een paar voorbeelden delen die me bijzonder nauw aan het hart liggen. 171 00:08:21,197 --> 00:08:22,977 Brillen met emotietechnologie 172 00:08:22,977 --> 00:08:25,465 kunnen mensen met een visuele handicap helpen 173 00:08:25,465 --> 00:08:27,553 om de gezichten van anderen te lezen, 174 00:08:27,553 --> 00:08:31,240 en mensen binnen het autismespectrum helpen om emoties te interpreteren, 175 00:08:31,240 --> 00:08:34,458 iets waar ze echt moeite mee hebben. 176 00:08:35,548 --> 00:08:36,998 In het onderwijs: 177 00:08:36,998 --> 00:08:38,597 stel je voor dat je studeer-apps 178 00:08:38,597 --> 00:08:41,227 aanvoelen wat je niet begrijpt en het tempo verlagen, 179 00:08:41,227 --> 00:08:43,484 of dat je je verveelt, en dus sneller gaan, 180 00:08:43,484 --> 00:08:46,413 net als een goede leraar op school. 181 00:08:47,003 --> 00:08:49,644 Wat als je horloge je stemming bijhield 182 00:08:49,644 --> 00:08:52,407 of je auto kon merken dat je moe was, 183 00:08:52,407 --> 00:08:55,165 of je koelkast het wist als je gestrest was, 184 00:08:55,165 --> 00:08:59,281 en automatisch op slot ging zodat je niet te veel kon eten. (Gelach) 185 00:08:59,281 --> 00:09:01,798 Dat zou ik wel willen, ja. 186 00:09:03,728 --> 00:09:05,675 Wat als ik in Cambridge 187 00:09:05,675 --> 00:09:07,608 toegang had gehad tot mijn emotiestream 188 00:09:07,608 --> 00:09:09,818 en die had kunnen delen met mijn familie thuis 189 00:09:09,818 --> 00:09:11,847 op een heel natuurlijke manier, 190 00:09:11,847 --> 00:09:15,608 alsof we samen in één kamer zaten? 191 00:09:15,608 --> 00:09:18,190 Ik denk dat over vijf jaar 192 00:09:18,190 --> 00:09:21,237 al onze apparaten een emotie-chip zullen hebben 193 00:09:21,237 --> 00:09:25,011 en we niet meer weten hoe het was om naar je apparaat te fronsen 194 00:09:25,011 --> 00:09:29,330 zonder dat het terugzei: "Hmm, dat vond je blijkbaar niet leuk." 195 00:09:29,330 --> 00:09:32,991 De grootste uitdaging van deze technologie is dat er zoveel toepassingen zijn, 196 00:09:32,991 --> 00:09:35,864 dat mijn team en ik ze niet allemaal zelf kunnen bouwen. 197 00:09:35,864 --> 00:09:38,310 Daarom hebben we de technologie beschikbaar gemaakt 198 00:09:38,310 --> 00:09:41,794 zodat andere ontwikkelaars er creatief mee aan de slag kunnen. 199 00:09:41,794 --> 00:09:45,550 We zien in dat er potentiële risico's zijn 200 00:09:45,550 --> 00:09:48,087 en de mogelijkheid dat er misbruik van wordt gemaakt, 201 00:09:48,087 --> 00:09:50,466 maar nu ik hier vele jaren mee bezig ben geweest 202 00:09:50,466 --> 00:09:53,148 geloof ik persoonlijk dat de voordelen voor de mensheid 203 00:09:53,148 --> 00:09:55,703 van emotioneel intelligente technologie 204 00:09:55,703 --> 00:09:59,269 veel zwaarder wegen dan het mogelijke misbruik. 205 00:09:59,269 --> 00:10:02,030 Ik nodig jullie allemaal uit deel te nemen aan het gesprek. 206 00:10:02,030 --> 00:10:04,394 Hoe meer mensen van deze technologie afweten, 207 00:10:04,394 --> 00:10:07,801 hoe meer we allemaal inspraak hebben in hoe het wordt gebruikt. 208 00:10:09,621 --> 00:10:13,835 Nu ons leven steeds digitaler wordt, 209 00:10:13,835 --> 00:10:15,395 voeren we een hopeloze strijd 210 00:10:15,395 --> 00:10:17,953 als we ons gebruik van apparaten proberen te beperken 211 00:10:17,953 --> 00:10:19,722 om zo onze emoties terug te winnen. 212 00:10:20,622 --> 00:10:24,576 In plaats daarvan probeer ik emoties in onze technologie op te nemen 213 00:10:24,576 --> 00:10:26,765 en onze technologieën beter te laten reageren. 214 00:10:26,765 --> 00:10:29,515 Ik wil dat de apparaten die ons hebben gescheiden 215 00:10:29,515 --> 00:10:32,507 ons weer bij elkaar brengen. 216 00:10:32,507 --> 00:10:36,735 Door technologie te vermenselijken hebben we een gouden kans 217 00:10:36,735 --> 00:10:40,452 om opnieuw te bedenken hoe we met onze machines omgaan 218 00:10:40,452 --> 00:10:44,033 en daarmee ook hoe wij, als mensen, 219 00:10:44,033 --> 00:10:46,087 omgaan met elkaar. 220 00:10:46,087 --> 00:10:47,217 Dankjewel. 221 00:10:47,217 --> 00:10:51,640 (Applaus)