Onze emoties beïnvloeden
alle aspecten van ons leven,
van onze gezondheid en hoe we leren,
tot hoe we zakendoen
en beslissingen nemen,
grote en kleine.
Onze emoties hebben ook invloed
op hoe we met elkaar omgaan.
We zijn geëvolueerd om te leven
in een wereld die er zo uitziet,
maar in plaats daarvan leven we
ons leven steeds vaker zo
-- dit is het berichtje
dat mijn dochter gisteravond stuurde --
in een wereld zonder emotie.
Mijn missie is om dat te veranderen.
Ik wil emoties terugbrengen
in onze digitale ervaringen.
15 jaar geleden ben ik hiermee begonnen.
Ik was computerwetenschapper in Egypte,
en ik was net toegelaten
tot een PhD-programma in Cambridge.
Ik deed iets behoorlijk ongewoons
voor een jonge, pasgetrouwde
Egyptische moslima.
(Gelach)
Met de steun van mijn man,
die in Egypte moest blijven,
pakte ik mijn koffers
en verhuisde ik naar Engeland.
Daar in Cambridge,
duizenden kilometers van huis,
besefte ik dat ik meer uren
met mijn laptop doorbracht
dan met andere mensen.
Ondanks deze vertrouwdheid
had mijn laptop geen flauw idee
hoe ik me voelde.
Hij wist totaal niet of ik blij was,
een slechte dag had,
gestrest of verward was,
en dat werd frustrerend.
Erger nog, bij het online communiceren
met mijn familie thuis
had ik het gevoel dat al mijn emoties
verdwenen in de cyberspace.
Ik had heimwee, ik was eenzaam,
op sommige dagen zat ik echt te huilen,
maar het enige wat ik had
om deze emoties over te brengen
was dit.
(Gelach)
De technologie van vandaag
heeft veel IQ, maar geen EQ:
veel cognitieve intelligentie,
maar geen emotionele intelligentie.
Dat zette me aan het denken.
Wat als onze technologie
onze emoties kon waarnemen?
Wat als onze apparaten konden aanvoelen
hoe we ons voelden en daarop reageerden,
zoals emotioneel intelligente vrienden
dat ook zouden doen?
Die vragen zetten mij en mijn team
ertoe aan technologieën te maken
die onze emoties kunnen lezen
en erop reageren
en ons uitgangspunt
was het menselijk gezicht.
Het menselijk gezicht
is een van de sterkste kanalen
waarmee we onze sociale
en emotionele toestand overbrengen.
Alles van vreugde
tot verrassing,
empathie
en nieuwsgierigheid.
In de emotiewetenschap noemen we
elke beweging van de gelaatsspieren
een actie-eenheid.
Actie-eenheid 12 bijvoorbeeld,
dat is geen blockbuster uit Hollywood,
maar het optrekken van de mondhoeken,
het hoofdonderdeel van een glimlach.
Laten we dat allemaal even proberen.
Een ander voorbeeld is actie-eenheid 4,
de wenkbrauwfrons:
als je je wenkbrauwen
tegen elkaar duwt
en allemaal rimpels maakt.
We vinden ze niet leuk,
maar ze zijn een goed signaal
voor een negatieve emotie.
We hebben ongeveer 45
van die actie-eenheden
en samen drukken ze honderden emoties uit.
Het is moeilijk om een computer te leren
om deze gelaatsuitdrukkingen te lezen,
want deze actie-eenheden
kunnen snel zijn, ze zijn subtiel,
en ze komen voor in allerlei combinaties.
Neem bijvoorbeeld een glimlach
en een minachtende blik.
Ze lijken een beetje op elkaar,
maar ze betekenen iets heel anders.
(Gelach)
De een is positief,
de ander vaak negatief.
Soms kun je er beroemd door worden.
Maar het is belangrijk
dat een computer het verschil kan zien
tussen de twee gelaatsexpressies.
Hoe doen we dat?
We geven onze algoritmen
tienduizenden voorbeelden van mensen
waarvan we weten dat ze glimlachen,
van verschillende etniciteiten,
leeftijden, geslachten,
en dan doen we hetzelfde
voor de andere uitdrukking.
Door middel van deep learning
zoekt het algoritme
naar alle structuren en rimpels
en vormveranderingen in ons gezicht.
Zo leert het dat alle glimlachen
gemeenschappelijke eigenschappen hebben
die subtiel verschillen
van minachtende uitdrukkingen.
De volgende keer
dat het een nieuw gezicht ziet
leert het dat dit gezicht ook
de eigenschappen van een glimlach heeft
en zegt het: "Aha, dit herken ik.
Deze uitdrukking is een glimlach."
De beste manier om te laten zien
hoe deze technologie werkt
is een live-demonstratie,
dus ik heb een vrijwilliger nodig,
liefst iemand met een gezicht.
(Gelach)
Cloe is vandaag onze vrijwilliger.
In de afgelopen vijf jaar
zijn we van een onderzoeksproject bij MIT
overgegaan in een bedrijf,
waar mijn team keihard heeft gewerkt
om deze technologie te laten werken,
zoals wij dat zeggen, in het wild.
We hebben hem ook kleiner gemaakt
zodat de emotiemachine werkt
op elk mobiel apparaat met een camera,
zoals deze iPad.
Laten we het eens proberen.
Zoals je ziet heeft het algoritme
Cloe's gezicht gevonden,
dat is die witte rechthoek,
en het volgt de belangrijkste
punten van haar gezicht,
dus de wenkbrauwen, ogen,
mond en neus.
De vraag is: kan het
haar uitdrukking herkennen?
We gaan de machine testen.
Laat eerst eens je pokerface zien.
Ja, goed zo. (Gelach)
En terwijl ze glimlacht,
dit is een oprechte glimlach,
zie je de groene balken omhooggaan.
Dat was een brede glimlach.
Kun je proberen of de computer
ook een subtiele glimlach herkent?
De subtiele glimlach herkent hij ook.
Daar hebben we hard aan gewerkt.
En dan je wenkbrauwen omhoog,
een teken van verrassing.
Wenkbrauwen fronsen,
een teken van verwarring.
Boos kijken. Ja, perfect.
Dit zijn verschillende actie-eenheden.
Er zijn er nog veel meer.
Dit is maar een beperkte demo.
We noemen elke meting
een emotiegegevenspunt,
en in combinatie kunnen ze
verschillende emoties weergeven.
Aan de rechterkant van de demo --
trek eens een vrolijk gezicht.
Dat is vreugde. Vreugde gaat aan.
Laat nu eens afkeer zien.
Denk aan hoe je je voelde
toen Zayn wegging bij One Direction.
(Gelach)
Ja, maak rimpels bij je neus. Goed zo.
De valentie is behoorlijk negatief,
dus je was vast een groot fan.
Valentie is hoe positief
of negatief een ervaring is,
en betrokkenheid is hoe expressief ze is.
Stel je voor dat Cloe toegang had
tot deze rechtstreekse emotiestream
en ze die kon delen
met we ze maar wilde.
Dankjewel.
(Applaus)
Tot nu toe hebben we 12 miljard
van deze emotiegegevens vergaard.
Het is de grootste
emotiedatabase ter wereld.
We hebben hem verzameld
uit 2,9 miljoen filmpjes van gezichten,
mensen die hun emoties
met ons hebben willen delen,
uit 75 landen over de hele wereld.
Hij groeit elke dag.
Ik sta ervan versteld
dat we iets persoonlijks als emoties
nu kunnen kwantificeren
en dat we het op deze schaal kunnen doen.
Wat hebben we tot nu toe geleerd?
Geslacht:
onze data bevestigen iets
dat je misschien al vermoedde.
Vrouwen zijn expressiever dan mannen.
Ze glimlachen niet alleen meer,
maar ook langduriger,
en we kunnen nu echt vaststellen
wat het precies is
waarop mannen en vrouwen anders reageren.
Nu cultuur:
in de Verenigde Staten
zijn vrouwen 40 procent
expressiever dan mannen,
maar vreemd genoeg zien we in het VK
geen verschil tussen mannen en vrouwen.
(Gelach)
Leeftijd:
mensen van 50 jaar en ouder
tonen 25 procent meer emotie
dan jongere mensen.
Vrouwen in de twintig glimlachen veel meer
dan mannen van dezelfde leeftijd,
misschien moet dat wel tijdens dates.
Maar wat ons misschien
het meest heeft verrast
is dat we altijd expressief zijn,
zelfs als we alleen
achter een apparaat zitten,
en niet alleen als we kattenfilmpjes
kijken op Facebook.
We zijn expressief als we emailen,
sms'en, online winkelen
en zelfs als we
onze belastingaangifte doen.
Waar worden deze data momenteel gebruikt?
Bij het begrijpen van
hoe we met media omgaan,
het begrijpen van viraliteit
en stemgedrag,
en ook voor technologie
die emoties toegankelijker maakt.
Ik wil een paar voorbeelden delen
die me bijzonder nauw aan het hart liggen.
Brillen met emotietechnologie
kunnen mensen met
een visuele handicap helpen
om de gezichten van anderen te lezen,
en mensen binnen het autismespectrum
helpen om emoties te interpreteren,
iets waar ze echt moeite mee hebben.
In het onderwijs:
stel je voor dat je studeer-apps
aanvoelen wat je niet begrijpt
en het tempo verlagen,
of dat je je verveelt,
en dus sneller gaan,
net als een goede leraar op school.
Wat als je horloge je stemming bijhield
of je auto kon merken dat je moe was,
of je koelkast het wist
als je gestrest was,
en automatisch op slot ging
zodat je niet te veel kon eten. (Gelach)
Dat zou ik wel willen, ja.
Wat als ik in Cambridge
toegang had gehad tot mijn emotiestream
en die had kunnen delen
met mijn familie thuis
op een heel natuurlijke manier,
alsof we samen in één kamer zaten?
Ik denk dat over vijf jaar
al onze apparaten
een emotie-chip zullen hebben
en we niet meer weten hoe het was
om naar je apparaat te fronsen
zonder dat het terugzei:
"Hmm, dat vond je blijkbaar niet leuk."
De grootste uitdaging van deze technologie
is dat er zoveel toepassingen zijn,
dat mijn team en ik ze niet allemaal
zelf kunnen bouwen.
Daarom hebben we de technologie
beschikbaar gemaakt
zodat andere ontwikkelaars
er creatief mee aan de slag kunnen.
We zien in dat er potentiële risico's zijn
en de mogelijkheid dat er misbruik
van wordt gemaakt,
maar nu ik hier vele jaren
mee bezig ben geweest
geloof ik persoonlijk
dat de voordelen voor de mensheid
van emotioneel intelligente technologie
veel zwaarder wegen
dan het mogelijke misbruik.
Ik nodig jullie allemaal uit
deel te nemen aan het gesprek.
Hoe meer mensen
van deze technologie afweten,
hoe meer we allemaal inspraak hebben
in hoe het wordt gebruikt.
Nu ons leven steeds digitaler wordt,
voeren we een hopeloze strijd
als we ons gebruik van apparaten
proberen te beperken
om zo onze emoties terug te winnen.
In plaats daarvan probeer ik
emoties in onze technologie op te nemen
en onze technologieën
beter te laten reageren.
Ik wil dat de apparaten
die ons hebben gescheiden
ons weer bij elkaar brengen.
Door technologie te vermenselijken
hebben we een gouden kans
om opnieuw te bedenken
hoe we met onze machines omgaan
en daarmee ook hoe wij, als mensen,
omgaan met elkaar.
Dankjewel.
(Applaus)