Deze app ziet hoe je je voelt -- aan de uitdrukking op je gezicht
-
0:01 - 0:05Onze emoties beïnvloeden
alle aspecten van ons leven, -
0:05 - 0:06van onze gezondheid en hoe we leren,
-
0:06 - 0:08tot hoe we zakendoen
en beslissingen nemen, -
0:08 - 0:10grote en kleine.
-
0:11 - 0:14Onze emoties hebben ook invloed
op hoe we met elkaar omgaan. -
0:15 - 0:19We zijn geëvolueerd om te leven
in een wereld die er zo uitziet, -
0:19 - 0:23maar in plaats daarvan leven we
ons leven steeds vaker zo -
0:23 - 0:27-- dit is het berichtje
dat mijn dochter gisteravond stuurde -- -
0:27 - 0:29in een wereld zonder emotie.
-
0:29 - 0:31Mijn missie is om dat te veranderen.
-
0:31 - 0:35Ik wil emoties terugbrengen
in onze digitale ervaringen. -
0:37 - 0:3915 jaar geleden ben ik hiermee begonnen.
-
0:39 - 0:42Ik was computerwetenschapper in Egypte,
-
0:42 - 0:46en ik was net toegelaten
tot een PhD-programma in Cambridge. -
0:46 - 0:48Ik deed iets behoorlijk ongewoons
-
0:48 - 0:52voor een jonge, pasgetrouwde
Egyptische moslima. -
0:52 - 0:54(Gelach)
-
0:54 - 0:57Met de steun van mijn man,
die in Egypte moest blijven, -
0:57 - 1:00pakte ik mijn koffers
en verhuisde ik naar Engeland. -
1:00 - 1:03Daar in Cambridge,
duizenden kilometers van huis, -
1:03 - 1:06besefte ik dat ik meer uren
met mijn laptop doorbracht -
1:06 - 1:09dan met andere mensen.
-
1:09 - 1:10Ondanks deze vertrouwdheid
-
1:10 - 1:13had mijn laptop geen flauw idee
hoe ik me voelde. -
1:13 - 1:17Hij wist totaal niet of ik blij was,
-
1:17 - 1:20een slechte dag had,
gestrest of verward was, -
1:20 - 1:22en dat werd frustrerend.
-
1:24 - 1:29Erger nog, bij het online communiceren
met mijn familie thuis -
1:29 - 1:33had ik het gevoel dat al mijn emoties
verdwenen in de cyberspace. -
1:33 - 1:38Ik had heimwee, ik was eenzaam,
op sommige dagen zat ik echt te huilen, -
1:38 - 1:42maar het enige wat ik had
om deze emoties over te brengen -
1:42 - 1:43was dit.
-
1:43 - 1:45(Gelach)
-
1:45 - 1:49De technologie van vandaag
heeft veel IQ, maar geen EQ: -
1:49 - 1:53veel cognitieve intelligentie,
maar geen emotionele intelligentie. -
1:53 - 1:55Dat zette me aan het denken.
-
1:55 - 1:59Wat als onze technologie
onze emoties kon waarnemen? -
1:59 - 2:03Wat als onze apparaten konden aanvoelen
hoe we ons voelden en daarop reageerden, -
2:03 - 2:06zoals emotioneel intelligente vrienden
dat ook zouden doen? -
2:07 - 2:12Die vragen zetten mij en mijn team
ertoe aan technologieën te maken -
2:12 - 2:15die onze emoties kunnen lezen
en erop reageren -
2:15 - 2:18en ons uitgangspunt
was het menselijk gezicht. -
2:19 - 2:22Het menselijk gezicht
is een van de sterkste kanalen -
2:22 - 2:26waarmee we onze sociale
en emotionele toestand overbrengen. -
2:26 - 2:28Alles van vreugde
-
2:28 - 2:29tot verrassing,
-
2:29 - 2:31empathie
-
2:31 - 2:33en nieuwsgierigheid.
-
2:33 - 2:37In de emotiewetenschap noemen we
elke beweging van de gelaatsspieren -
2:37 - 2:38een actie-eenheid.
-
2:38 - 2:40Actie-eenheid 12 bijvoorbeeld,
-
2:40 - 2:43dat is geen blockbuster uit Hollywood,
-
2:43 - 2:46maar het optrekken van de mondhoeken,
het hoofdonderdeel van een glimlach. -
2:46 - 2:49Laten we dat allemaal even proberen.
-
2:49 - 2:51Een ander voorbeeld is actie-eenheid 4,
-
2:51 - 2:52de wenkbrauwfrons:
-
2:52 - 2:54als je je wenkbrauwen
tegen elkaar duwt -
2:54 - 2:56en allemaal rimpels maakt.
-
2:56 - 2:57We vinden ze niet leuk,
-
2:57 - 3:00maar ze zijn een goed signaal
voor een negatieve emotie. -
3:00 - 3:03We hebben ongeveer 45
van die actie-eenheden -
3:03 - 3:06en samen drukken ze honderden emoties uit.
-
3:06 - 3:10Het is moeilijk om een computer te leren
om deze gelaatsuitdrukkingen te lezen, -
3:10 - 3:13want deze actie-eenheden
kunnen snel zijn, ze zijn subtiel, -
3:13 - 3:16en ze komen voor in allerlei combinaties.
-
3:16 - 3:20Neem bijvoorbeeld een glimlach
en een minachtende blik. -
3:20 - 3:23Ze lijken een beetje op elkaar,
maar ze betekenen iets heel anders. -
3:23 - 3:25(Gelach)
-
3:25 - 3:27De een is positief,
-
3:27 - 3:29de ander vaak negatief.
-
3:29 - 3:33Soms kun je er beroemd door worden.
-
3:33 - 3:37Maar het is belangrijk
dat een computer het verschil kan zien -
3:37 - 3:39tussen de twee gelaatsexpressies.
-
3:39 - 3:40Hoe doen we dat?
-
3:40 - 3:42We geven onze algoritmen
-
3:42 - 3:47tienduizenden voorbeelden van mensen
waarvan we weten dat ze glimlachen, -
3:47 - 3:50van verschillende etniciteiten,
leeftijden, geslachten, -
3:50 - 3:52en dan doen we hetzelfde
voor de andere uitdrukking. -
3:52 - 3:55Door middel van deep learning
zoekt het algoritme -
3:55 - 3:57naar alle structuren en rimpels
-
3:57 - 3:59en vormveranderingen in ons gezicht.
-
3:59 - 4:03Zo leert het dat alle glimlachen
gemeenschappelijke eigenschappen hebben -
4:03 - 4:06die subtiel verschillen
van minachtende uitdrukkingen. -
4:06 - 4:08De volgende keer
dat het een nieuw gezicht ziet -
4:08 - 4:13leert het dat dit gezicht ook
de eigenschappen van een glimlach heeft -
4:13 - 4:17en zegt het: "Aha, dit herken ik.
Deze uitdrukking is een glimlach." -
4:18 - 4:22De beste manier om te laten zien
hoe deze technologie werkt -
4:22 - 4:24is een live-demonstratie,
-
4:24 - 4:27dus ik heb een vrijwilliger nodig,
liefst iemand met een gezicht. -
4:27 - 4:30(Gelach)
-
4:30 - 4:32Cloe is vandaag onze vrijwilliger.
-
4:33 - 4:35In de afgelopen vijf jaar
-
4:35 - 4:39zijn we van een onderzoeksproject bij MIT
overgegaan in een bedrijf, -
4:39 - 4:42waar mijn team keihard heeft gewerkt
om deze technologie te laten werken, -
4:42 - 4:44zoals wij dat zeggen, in het wild.
-
4:44 - 4:46We hebben hem ook kleiner gemaakt
-
4:46 - 4:49zodat de emotiemachine werkt
op elk mobiel apparaat met een camera, -
4:49 - 4:51zoals deze iPad.
-
4:51 - 4:53Laten we het eens proberen.
-
4:55 - 4:59Zoals je ziet heeft het algoritme
Cloe's gezicht gevonden, -
4:59 - 5:00dat is die witte rechthoek,
-
5:00 - 5:03en het volgt de belangrijkste
punten van haar gezicht, -
5:03 - 5:06dus de wenkbrauwen, ogen,
mond en neus. -
5:06 - 5:09De vraag is: kan het
haar uitdrukking herkennen? -
5:09 - 5:10We gaan de machine testen.
-
5:10 - 5:15Laat eerst eens je pokerface zien.
Ja, goed zo. (Gelach) -
5:15 - 5:18En terwijl ze glimlacht,
dit is een oprechte glimlach, -
5:18 - 5:20zie je de groene balken omhooggaan.
-
5:20 - 5:21Dat was een brede glimlach.
-
5:21 - 5:24Kun je proberen of de computer
ook een subtiele glimlach herkent? -
5:24 - 5:26De subtiele glimlach herkent hij ook.
-
5:26 - 5:28Daar hebben we hard aan gewerkt.
-
5:28 - 5:31En dan je wenkbrauwen omhoog,
een teken van verrassing. -
5:31 - 5:36Wenkbrauwen fronsen,
een teken van verwarring. -
5:36 - 5:40Boos kijken. Ja, perfect.
-
5:40 - 5:42Dit zijn verschillende actie-eenheden.
-
5:42 - 5:43Er zijn er nog veel meer.
-
5:43 - 5:45Dit is maar een beperkte demo.
-
5:45 - 5:49We noemen elke meting
een emotiegegevenspunt, -
5:49 - 5:51en in combinatie kunnen ze
verschillende emoties weergeven. -
5:51 - 5:55Aan de rechterkant van de demo --
trek eens een vrolijk gezicht. -
5:55 - 5:58Dat is vreugde. Vreugde gaat aan.
-
5:58 - 5:59Laat nu eens afkeer zien.
-
5:59 - 6:04Denk aan hoe je je voelde
toen Zayn wegging bij One Direction. -
6:04 - 6:05(Gelach)
-
6:05 - 6:10Ja, maak rimpels bij je neus. Goed zo.
-
6:10 - 6:13De valentie is behoorlijk negatief,
dus je was vast een groot fan. -
6:13 - 6:16Valentie is hoe positief
of negatief een ervaring is, -
6:16 - 6:19en betrokkenheid is hoe expressief ze is.
-
6:19 - 6:22Stel je voor dat Cloe toegang had
tot deze rechtstreekse emotiestream -
6:22 - 6:25en ze die kon delen
met we ze maar wilde. -
6:25 - 6:27Dankjewel.
-
6:27 - 6:32(Applaus)
-
6:34 - 6:39Tot nu toe hebben we 12 miljard
van deze emotiegegevens vergaard. -
6:39 - 6:41Het is de grootste
emotiedatabase ter wereld. -
6:41 - 6:45We hebben hem verzameld
uit 2,9 miljoen filmpjes van gezichten, -
6:45 - 6:48mensen die hun emoties
met ons hebben willen delen, -
6:48 - 6:50uit 75 landen over de hele wereld.
-
6:50 - 6:52Hij groeit elke dag.
-
6:53 - 6:55Ik sta ervan versteld
-
6:55 - 6:58dat we iets persoonlijks als emoties
nu kunnen kwantificeren -
6:58 - 7:00en dat we het op deze schaal kunnen doen.
-
7:00 - 7:02Wat hebben we tot nu toe geleerd?
-
7:03 - 7:05Geslacht:
-
7:05 - 7:09onze data bevestigen iets
dat je misschien al vermoedde. -
7:09 - 7:11Vrouwen zijn expressiever dan mannen.
-
7:11 - 7:14Ze glimlachen niet alleen meer,
maar ook langduriger, -
7:14 - 7:16en we kunnen nu echt vaststellen
wat het precies is -
7:16 - 7:19waarop mannen en vrouwen anders reageren.
-
7:19 - 7:20Nu cultuur:
-
7:20 - 7:21in de Verenigde Staten
-
7:21 - 7:24zijn vrouwen 40 procent
expressiever dan mannen, -
7:24 - 7:28maar vreemd genoeg zien we in het VK
geen verschil tussen mannen en vrouwen. -
7:28 - 7:30(Gelach)
-
7:32 - 7:33Leeftijd:
-
7:33 - 7:35mensen van 50 jaar en ouder
-
7:35 - 7:39tonen 25 procent meer emotie
dan jongere mensen. -
7:40 - 7:44Vrouwen in de twintig glimlachen veel meer
dan mannen van dezelfde leeftijd, -
7:44 - 7:48misschien moet dat wel tijdens dates.
-
7:48 - 7:50Maar wat ons misschien
het meest heeft verrast -
7:50 - 7:53is dat we altijd expressief zijn,
-
7:53 - 7:56zelfs als we alleen
achter een apparaat zitten, -
7:56 - 8:00en niet alleen als we kattenfilmpjes
kijken op Facebook. -
8:00 - 8:03We zijn expressief als we emailen,
sms'en, online winkelen -
8:03 - 8:06en zelfs als we
onze belastingaangifte doen. -
8:06 - 8:08Waar worden deze data momenteel gebruikt?
-
8:08 - 8:10Bij het begrijpen van
hoe we met media omgaan, -
8:10 - 8:13het begrijpen van viraliteit
en stemgedrag, -
8:13 - 8:17en ook voor technologie
die emoties toegankelijker maakt. -
8:17 - 8:21Ik wil een paar voorbeelden delen
die me bijzonder nauw aan het hart liggen. -
8:21 - 8:23Brillen met emotietechnologie
-
8:23 - 8:25kunnen mensen met
een visuele handicap helpen -
8:25 - 8:28om de gezichten van anderen te lezen,
-
8:28 - 8:31en mensen binnen het autismespectrum
helpen om emoties te interpreteren, -
8:31 - 8:34iets waar ze echt moeite mee hebben.
-
8:36 - 8:37In het onderwijs:
-
8:37 - 8:39stel je voor dat je studeer-apps
-
8:39 - 8:41aanvoelen wat je niet begrijpt
en het tempo verlagen, -
8:41 - 8:43of dat je je verveelt,
en dus sneller gaan, -
8:43 - 8:46net als een goede leraar op school.
-
8:47 - 8:50Wat als je horloge je stemming bijhield
-
8:50 - 8:52of je auto kon merken dat je moe was,
-
8:52 - 8:55of je koelkast het wist
als je gestrest was, -
8:55 - 8:59en automatisch op slot ging
zodat je niet te veel kon eten. (Gelach) -
8:59 - 9:02Dat zou ik wel willen, ja.
-
9:04 - 9:06Wat als ik in Cambridge
-
9:06 - 9:08toegang had gehad tot mijn emotiestream
-
9:08 - 9:10en die had kunnen delen
met mijn familie thuis -
9:10 - 9:12op een heel natuurlijke manier,
-
9:12 - 9:16alsof we samen in één kamer zaten?
-
9:16 - 9:18Ik denk dat over vijf jaar
-
9:18 - 9:21al onze apparaten
een emotie-chip zullen hebben -
9:21 - 9:25en we niet meer weten hoe het was
om naar je apparaat te fronsen -
9:25 - 9:29zonder dat het terugzei:
"Hmm, dat vond je blijkbaar niet leuk." -
9:29 - 9:33De grootste uitdaging van deze technologie
is dat er zoveel toepassingen zijn, -
9:33 - 9:36dat mijn team en ik ze niet allemaal
zelf kunnen bouwen. -
9:36 - 9:38Daarom hebben we de technologie
beschikbaar gemaakt -
9:38 - 9:42zodat andere ontwikkelaars
er creatief mee aan de slag kunnen. -
9:42 - 9:46We zien in dat er potentiële risico's zijn
-
9:46 - 9:48en de mogelijkheid dat er misbruik
van wordt gemaakt, -
9:48 - 9:50maar nu ik hier vele jaren
mee bezig ben geweest -
9:50 - 9:53geloof ik persoonlijk
dat de voordelen voor de mensheid -
9:53 - 9:56van emotioneel intelligente technologie
-
9:56 - 9:59veel zwaarder wegen
dan het mogelijke misbruik. -
9:59 - 10:02Ik nodig jullie allemaal uit
deel te nemen aan het gesprek. -
10:02 - 10:04Hoe meer mensen
van deze technologie afweten, -
10:04 - 10:08hoe meer we allemaal inspraak hebben
in hoe het wordt gebruikt. -
10:10 - 10:14Nu ons leven steeds digitaler wordt,
-
10:14 - 10:15voeren we een hopeloze strijd
-
10:15 - 10:18als we ons gebruik van apparaten
proberen te beperken -
10:18 - 10:20om zo onze emoties terug te winnen.
-
10:21 - 10:25In plaats daarvan probeer ik
emoties in onze technologie op te nemen -
10:25 - 10:27en onze technologieën
beter te laten reageren. -
10:27 - 10:30Ik wil dat de apparaten
die ons hebben gescheiden -
10:30 - 10:33ons weer bij elkaar brengen.
-
10:33 - 10:37Door technologie te vermenselijken
hebben we een gouden kans -
10:37 - 10:40om opnieuw te bedenken
hoe we met onze machines omgaan -
10:40 - 10:44en daarmee ook hoe wij, als mensen,
-
10:44 - 10:46omgaan met elkaar.
-
10:46 - 10:47Dankjewel.
-
10:47 - 10:52(Applaus)
- Title:
- Deze app ziet hoe je je voelt -- aan de uitdrukking op je gezicht
- Speaker:
- Rana el Kaliouby
- Description:
-
Onze emoties beïnvloeden alle aspecten van ons leven -- hoe we leren, hoe we communiceren, hoe we beslissingen nemen. Toch ontbreken ze in ons digitale leven; de apparaten en apps die we gebruiken kunnen niet weten hoe we ons voelen. Wetenschapper Rana el Kaliouby wil daar verandering in brengen. Ze geeft een demonstratie van een indrukwekkende nieuwe technologie die je gelaatsuitdrukkingen leest en ze koppelt aan de overeenkomende emoties. Deze "emotiemachine" heeft belangrijke implicaties en kan niet alleen veranderen hoe we omgaan met machines -- maar ook hoe we omgaan met elkaar.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 11:04
Axel Saffran edited Dutch subtitles for This app knows how you feel -- from the look on your face | ||
Axel Saffran approved Dutch subtitles for This app knows how you feel -- from the look on your face | ||
Axel Saffran edited Dutch subtitles for This app knows how you feel -- from the look on your face | ||
Axel Saffran edited Dutch subtitles for This app knows how you feel -- from the look on your face | ||
Axel Saffran edited Dutch subtitles for This app knows how you feel -- from the look on your face | ||
Axel Saffran edited Dutch subtitles for This app knows how you feel -- from the look on your face | ||
Axel Saffran edited Dutch subtitles for This app knows how you feel -- from the look on your face | ||
Axel Saffran edited Dutch subtitles for This app knows how you feel -- from the look on your face |