Våra känslor påverkar
varje del av våra liv
från vår hälsa och hur vi lär oss,
till hur vi gör affärer och fattar beslut,
stora som små.
Våra känslor påverkar också
hur vi knyter an till varandra.
Vi har utvecklats för att leva
i en sån här värld,
men nu lever vi istället
mer och mer såna här liv -
det här är ett sms som jag fick
från min dotter igår kväll -
i en värld som är tömd på känslor.
Jag ser som mitt uppdrag att förändra det.
Jag vill föra tillbaka känslorna
i våra digitala upplevelser.
Jag började med det för 15 år sen.
Jag var dataingenjör i Egypten
och hade just blivit antagen
till en forskarutbildning
vid Cambridge University.
Jag gjorde något ganska ovanligt
för att vara en ung nygift
muslimsk egyptisk fru:
Med stöd från min man
som blev tvungen att stanna i Egypten
packade jag mina väskor
och flyttade till England.
I Cambridge, tusentals kilometer hemifrån,
insåg jag att jag tillbringade
fler timmar med min laptop
än jag gjorde med någon människa.
Trots detta nära band visste inte datorn
något om hur jag kände mig.
Den visste inte om jag var glad,
om jag hade en dålig dag,
eller var stressad, förvirrad,
och det blev frustrerande.
Ännu värre var det när jag kommunicerade
med min familj därhemma, och kände
att mina känslor försvann i cyberrymden.
Jag längtade hem, jag kände mig ensam,
och vissa dagar grät jag,
men allt jag kunde använda
för att kommunicera känslorna var den här.
(Skratt)
Dagens teknik har mycket IQ, men ingen EQ;
hög kognitiv intelligens
men ingen emotionell intelligens.
Det fick mig att börja fundera på
hur det skulle bli om vår teknik
skulle kunna känna av våra känslor?
Om våra maskiner kunde känna av vårt humör
och bete sig i enlighet med det,
som en emotionellt intelligent vän?
De här frågorna gjorde
att jag och mitt team
började skapa teknik som kan läsa av
och reagera på våra känslor,
och vi började med det mänskliga ansiktet.
Det mänskliga ansiktet råkar vara
en av de bästa kanaler
som vi använder för att kommunicera
sociala och känslomässiga tillstånd,
allt från njutning, överraskning,
empati och nyfikenhet.
Inom känslovetenskap kallas en rörelse
hos en ansiktsmuskel för "aktiv enhet".
Den tolfte aktiva enheten
är inte en toppfilm från Hollywood
utan en uppdragen mungipa,
vilket är huvudkomponenten i ett leende.
Prova det allihop. Nu ler vi lite.
Ett annat exempel
är fjärde aktiva enheten.
Det är när man drar ihop ögonbrynen
och får den här ytan och rynkorna.
Vi tycker inte om dem, men det är
en stark indikator på en negativ känsla.
Vi har ungefär 45 aktiva enheter,
och de kan kombineras
för att uttrycka hundratals känslor.
Att lära en dator att läsa av
känslouttryck i ansiktet är svårt,
för de aktiva enheterna
kan vara snabba och subtila
och de går att kombinera
på många olika sätt.
Ta till exempel leendet och hånflinet.
De ser ganska lika ut,
men de betyder helt olika saker.
(Skratt)
Ett leende är positivt,
ett flin är ofta negativt.
Ibland kan ett flin göra en känd.
Men trots allt är det viktigt
för en dator att kunna
se skillnad mellan de här två uttrycken.
Hur gör vi det?
Vi ger våra algoritmer
tiotusentals exempel
av människor som vi vet ler,
med olika etnisk bakgrund, ålder, kön,
och vi gör samma sak för flin.
Och genom maskininlärning
letar algoritmen
efter såna här ytor och rynkor
och formändringar i vårt ansikte
och lär sig helt enkelt att alla leenden
har egenskaper gemensamt,
medan alla flin har
något annorlunda egenskaper.
Och nästa gång den ser ett nytt ansikte
märker den att
det här ansiktet har samma egenskaper
som ett leende ansikte och den säger:
"Aha, jag känner igen det här.
Det är ett leende uttryck."
Det bästa sättet att visa
hur tekniken fungerar
är genom en livedemo,
så jag behöver en frivillig,
helst någon med ett ansikte.
(Skratt)
Cloe blir vår frivilliga idag.
De senaste fem åren har vi utvecklats
från att vara ett projekt på MIT
till att bli ett företag,
där mitt team har jobbat mycket hårt
för att få tekniken att fungera,
som vi säger, i naturen.
Vi har också krympt den
så att känslomotorn
fungerar i alla mobila enheter
med kamera, som den här iPaden.
Vi testar.
Som ni kan se har algoritmen
hittat Cloes ansikte,
det är den här vita inramande rutan,
och den spårar
huvudpunkterna i hennes ansikte,
hennes ögonbryn, ögon, mun och näsa.
Frågan är, kan den läsa av hennes uttryck?
Vi ska testa maskinen.
Först av allt, ge mig ett pokerfejs.
Ja, jättebra. (Skratt)
Och när hon sen ler
är det ett riktigt leende, det är fint.
Ni kan se att den gröna stapeln
går upp när hon ler.
Det var ett stort leende.
Kan du prova ett litet leende
och se om datorn kan känna igen det?
Den känner igen småleenden också.
Vi har jobbat hårt
för att det ska fungera.
Och sen höjda ögonbryn,
ett tecken på förvåning.
Rynkade ögonbryn, vilket är
ett tecken på förvirring.
Rynka pannan. Ja, perfekt.
Det är de olika aktiva enheterna.
Det finns många fler.
Det här är bara en förenklad demo.
Vi kallar varje avläsning
för en emotionell datapunkt,
och de kan aktiveras tillsammans
för att visa olika känslor.
Så på högra sidan - se glad ut.
Det är lycka. Lycka lyser upp.
Ge mig sen en min av avsmak.
Försök minnas hur det var
när Zayn lämnade One Direction.
(Skratt)
Ja, rynka näsan. Perfekt.
Och uttrycket är starkt negativt,
så du måste ha varit ett stort fan.
Värde är hur positiv
eller negativ en upplevelse är,
och engagemang är hur uttrycksfull hon är.
Tänk er att Cloe hade tillgång
till den här känsloströmmen i realtid,
och kunde dela den med vem hon ville.
Tack.
(Applåder)
Så här långt har vi samlat in
12 miljarder såna här datapunkter.
Det är den största databasen
för känslor i världen.
Vi har samlat in den
från 2,9 miljoner filmer på ansikten,
människor som har gått med på
att dela sina känslor med oss,
från 75 länder i världen.
Det blir fler och fler varje dag.
Det känns fantastiskt
att vi nu kan kvantifiera
något så personligt som våra känslor,
och vi kan göra det i den här skalan.
Vad har vi då lärt oss så här långt?
Kön.
Vår data bekräftar något
som du kanske misstänker.
Kvinnor är mer uttrycksfulla än män.
De inte bara ler mer,
deras leenden pågår längre,
och vi kan nu verkligen mäta
vad det är som män och kvinnor
reagerar olika på.
Om vi tittar på kultur:
I USA är kvinnor 40 procent
mer uttrycksfulla än män,
men lustigt nog ser vi ingen skillnad
mellan män och kvinnor i Storbritannien.
(Skratt)
Ålder: Människor som är 50 år och äldre
är 25 procent mer emotionella
än unga människor.
Kvinnor i 20-årsåldern ler mycket mer
än män i samma ålder,
kanske är det nödvändigt vid dejter.
Men det som förvånade oss mest
är att vi uttrycker oss hela tiden,
även när vi sitter ensamma
framför våra skärmar,
och det är inte bara
när vi tittar på kattvideos på Facebook.
Vi är uttycksfulla när vi skickar e-post,
textmeddelanden, handlar online,
till och med när vi deklarerar.
Var används den här informationen idag?
Genom att förstå hur vi interagerar
med medier kan vi förstå
viral budskapsspridning och röstbeteenden
och även föra in möjligheten
till känslouttryck i tekniken,
och jag vill dela med mig av några exempel
som ligger mig speciellt varmt om hjärtat.
Känslostyrda glasögon kan hjälpa människor
med synnedsättning
att läsa av andras ansikten,
och det kan hjälpa individer
med autism att tolka känslor,
något som de verkligen kämpar med.
Inom utbildning,
tänk dig att dina läroappar
känner av att du är förvirrad
och saktar ner,
eller om du är uttråkad kan de öka tempot,
precis som en riktigt bra lärare
skulle göra i klassrummet.
Tänk om din armbandsklocka
kunde mäta hur du mår,
eller om din bil kunde veta
att du var trött,
eller kanske din kyl vet om
att du är stressad,
så att den låser sig automatiskt
för att undvika att du proppar i dig.
Det skulle jag vilja ha.
(Skratt)
Tänk om jag hade hade haft tillgång
till mina känslor i realtid i Cambridge,
och jag hade kunnat dela den
med min familj på ett naturligt sätt,
på samma sätt som om vi
hade varit i samma rum tillsammans?
Jag tror att om fem år
kommer våra enheter att ha ett känslochip
och vi kommer inte att minnas hur det var
när vi inte kunde rynka pannan åt maskinen
och den sa "Hmm,
det där gillade du inte va?"
Vår största utmaning är att det finns
så många tillämpningar för tekniken,
så jag och mitt team inser
att vi inte kan bygga alla själva,
så vi har gjort tekniken tillgänglig
så att andra utvecklare
kan börja skapa på ett kreativt sätt.
Vi inser att det finns potientiella risker
och möjligheter till missbruk,
men jag tror, efter att ha
använt detta i många år,
att fördelarna för mänskligheten
av att ha emotionellt intelligent teknik
mer än väl uppväger konsekvenserna
av felaktig användning.
Och jag bjuder in er alla
att ta del i diskussionen.
Ju fler människor
som känner till den här tekniken,
desto mer kan vi uttrycka åsikter
om hur den ska användas.
Så när allt fler delar
av våra liv blir digitala
utkämpar vi en ojämn kamp för att begränsa
användningen av digitala enheter
och kunna återta våra känslor.
Vad jag istället försöker göra
är att föra in känslorna i tekniken
och göra vår teknik mer lyhörd.
Jag vill att maskinerna
som har separerat oss
ska föra oss samman igen.
Och genom att göra tekniken mer human
har vi ett gyllene tillfälle
att tänka om hur vi umgås med maskiner,
och därmed hur vi som människor
umgås med varandra.
Tack.
(Applåder)