Våra känslor påverkar varje del av våra liv från vår hälsa och hur vi lär oss, till hur vi gör affärer och fattar beslut, stora som små. Våra känslor påverkar också hur vi knyter an till varandra. Vi har utvecklats för att leva i en sån här värld, men nu lever vi istället mer och mer såna här liv - det här är ett sms som jag fick från min dotter igår kväll - i en värld som är tömd på känslor. Jag ser som mitt uppdrag att förändra det. Jag vill föra tillbaka känslorna i våra digitala upplevelser. Jag började med det för 15 år sen. Jag var dataingenjör i Egypten och hade just blivit antagen till en forskarutbildning vid Cambridge University. Jag gjorde något ganska ovanligt för att vara en ung nygift muslimsk egyptisk fru: Med stöd från min man som blev tvungen att stanna i Egypten packade jag mina väskor och flyttade till England. I Cambridge, tusentals kilometer hemifrån, insåg jag att jag tillbringade fler timmar med min laptop än jag gjorde med någon människa. Trots detta nära band visste inte datorn något om hur jag kände mig. Den visste inte om jag var glad, om jag hade en dålig dag, eller var stressad, förvirrad, och det blev frustrerande. Ännu värre var det när jag kommunicerade med min familj därhemma, och kände att mina känslor försvann i cyberrymden. Jag längtade hem, jag kände mig ensam, och vissa dagar grät jag, men allt jag kunde använda för att kommunicera känslorna var den här. (Skratt) Dagens teknik har mycket IQ, men ingen EQ; hög kognitiv intelligens men ingen emotionell intelligens. Det fick mig att börja fundera på hur det skulle bli om vår teknik skulle kunna känna av våra känslor? Om våra maskiner kunde känna av vårt humör och bete sig i enlighet med det, som en emotionellt intelligent vän? De här frågorna gjorde att jag och mitt team började skapa teknik som kan läsa av och reagera på våra känslor, och vi började med det mänskliga ansiktet. Det mänskliga ansiktet råkar vara en av de bästa kanaler som vi använder för att kommunicera sociala och känslomässiga tillstånd, allt från njutning, överraskning, empati och nyfikenhet. Inom känslovetenskap kallas en rörelse hos en ansiktsmuskel för "aktiv enhet". Den tolfte aktiva enheten är inte en toppfilm från Hollywood utan en uppdragen mungipa, vilket är huvudkomponenten i ett leende. Prova det allihop. Nu ler vi lite. Ett annat exempel är fjärde aktiva enheten. Det är när man drar ihop ögonbrynen och får den här ytan och rynkorna. Vi tycker inte om dem, men det är en stark indikator på en negativ känsla. Vi har ungefär 45 aktiva enheter, och de kan kombineras för att uttrycka hundratals känslor. Att lära en dator att läsa av känslouttryck i ansiktet är svårt, för de aktiva enheterna kan vara snabba och subtila och de går att kombinera på många olika sätt. Ta till exempel leendet och hånflinet. De ser ganska lika ut, men de betyder helt olika saker. (Skratt) Ett leende är positivt, ett flin är ofta negativt. Ibland kan ett flin göra en känd. Men trots allt är det viktigt för en dator att kunna se skillnad mellan de här två uttrycken. Hur gör vi det? Vi ger våra algoritmer tiotusentals exempel av människor som vi vet ler, med olika etnisk bakgrund, ålder, kön, och vi gör samma sak för flin. Och genom maskininlärning letar algoritmen efter såna här ytor och rynkor och formändringar i vårt ansikte och lär sig helt enkelt att alla leenden har egenskaper gemensamt, medan alla flin har något annorlunda egenskaper. Och nästa gång den ser ett nytt ansikte märker den att det här ansiktet har samma egenskaper som ett leende ansikte och den säger: "Aha, jag känner igen det här. Det är ett leende uttryck." Det bästa sättet att visa hur tekniken fungerar är genom en livedemo, så jag behöver en frivillig, helst någon med ett ansikte. (Skratt) Cloe blir vår frivilliga idag. De senaste fem åren har vi utvecklats från att vara ett projekt på MIT till att bli ett företag, där mitt team har jobbat mycket hårt för att få tekniken att fungera, som vi säger, i naturen. Vi har också krympt den så att känslomotorn fungerar i alla mobila enheter med kamera, som den här iPaden. Vi testar. Som ni kan se har algoritmen hittat Cloes ansikte, det är den här vita inramande rutan, och den spårar huvudpunkterna i hennes ansikte, hennes ögonbryn, ögon, mun och näsa. Frågan är, kan den läsa av hennes uttryck? Vi ska testa maskinen. Först av allt, ge mig ett pokerfejs. Ja, jättebra. (Skratt) Och när hon sen ler är det ett riktigt leende, det är fint. Ni kan se att den gröna stapeln går upp när hon ler. Det var ett stort leende. Kan du prova ett litet leende och se om datorn kan känna igen det? Den känner igen småleenden också. Vi har jobbat hårt för att det ska fungera. Och sen höjda ögonbryn, ett tecken på förvåning. Rynkade ögonbryn, vilket är ett tecken på förvirring. Rynka pannan. Ja, perfekt. Det är de olika aktiva enheterna. Det finns många fler. Det här är bara en förenklad demo. Vi kallar varje avläsning för en emotionell datapunkt, och de kan aktiveras tillsammans för att visa olika känslor. Så på högra sidan - se glad ut. Det är lycka. Lycka lyser upp. Ge mig sen en min av avsmak. Försök minnas hur det var när Zayn lämnade One Direction. (Skratt) Ja, rynka näsan. Perfekt. Och uttrycket är starkt negativt, så du måste ha varit ett stort fan. Värde är hur positiv eller negativ en upplevelse är, och engagemang är hur uttrycksfull hon är. Tänk er att Cloe hade tillgång till den här känsloströmmen i realtid, och kunde dela den med vem hon ville. Tack. (Applåder) Så här långt har vi samlat in 12 miljarder såna här datapunkter. Det är den största databasen för känslor i världen. Vi har samlat in den från 2,9 miljoner filmer på ansikten, människor som har gått med på att dela sina känslor med oss, från 75 länder i världen. Det blir fler och fler varje dag. Det känns fantastiskt att vi nu kan kvantifiera något så personligt som våra känslor, och vi kan göra det i den här skalan. Vad har vi då lärt oss så här långt? Kön. Vår data bekräftar något som du kanske misstänker. Kvinnor är mer uttrycksfulla än män. De inte bara ler mer, deras leenden pågår längre, och vi kan nu verkligen mäta vad det är som män och kvinnor reagerar olika på. Om vi tittar på kultur: I USA är kvinnor 40 procent mer uttrycksfulla än män, men lustigt nog ser vi ingen skillnad mellan män och kvinnor i Storbritannien. (Skratt) Ålder: Människor som är 50 år och äldre är 25 procent mer emotionella än unga människor. Kvinnor i 20-årsåldern ler mycket mer än män i samma ålder, kanske är det nödvändigt vid dejter. Men det som förvånade oss mest är att vi uttrycker oss hela tiden, även när vi sitter ensamma framför våra skärmar, och det är inte bara när vi tittar på kattvideos på Facebook. Vi är uttycksfulla när vi skickar e-post, textmeddelanden, handlar online, till och med när vi deklarerar. Var används den här informationen idag? Genom att förstå hur vi interagerar med medier kan vi förstå viral budskapsspridning och röstbeteenden och även föra in möjligheten till känslouttryck i tekniken, och jag vill dela med mig av några exempel som ligger mig speciellt varmt om hjärtat. Känslostyrda glasögon kan hjälpa människor med synnedsättning att läsa av andras ansikten, och det kan hjälpa individer med autism att tolka känslor, något som de verkligen kämpar med. Inom utbildning, tänk dig att dina läroappar känner av att du är förvirrad och saktar ner, eller om du är uttråkad kan de öka tempot, precis som en riktigt bra lärare skulle göra i klassrummet. Tänk om din armbandsklocka kunde mäta hur du mår, eller om din bil kunde veta att du var trött, eller kanske din kyl vet om att du är stressad, så att den låser sig automatiskt för att undvika att du proppar i dig. Det skulle jag vilja ha. (Skratt) Tänk om jag hade hade haft tillgång till mina känslor i realtid i Cambridge, och jag hade kunnat dela den med min familj på ett naturligt sätt, på samma sätt som om vi hade varit i samma rum tillsammans? Jag tror att om fem år kommer våra enheter att ha ett känslochip och vi kommer inte att minnas hur det var när vi inte kunde rynka pannan åt maskinen och den sa "Hmm, det där gillade du inte va?" Vår största utmaning är att det finns så många tillämpningar för tekniken, så jag och mitt team inser att vi inte kan bygga alla själva, så vi har gjort tekniken tillgänglig så att andra utvecklare kan börja skapa på ett kreativt sätt. Vi inser att det finns potientiella risker och möjligheter till missbruk, men jag tror, efter att ha använt detta i många år, att fördelarna för mänskligheten av att ha emotionellt intelligent teknik mer än väl uppväger konsekvenserna av felaktig användning. Och jag bjuder in er alla att ta del i diskussionen. Ju fler människor som känner till den här tekniken, desto mer kan vi uttrycka åsikter om hur den ska användas. Så när allt fler delar av våra liv blir digitala utkämpar vi en ojämn kamp för att begränsa användningen av digitala enheter och kunna återta våra känslor. Vad jag istället försöker göra är att föra in känslorna i tekniken och göra vår teknik mer lyhörd. Jag vill att maskinerna som har separerat oss ska föra oss samman igen. Och genom att göra tekniken mer human har vi ett gyllene tillfälle att tänka om hur vi umgås med maskiner, och därmed hur vi som människor umgås med varandra. Tack. (Applåder)