1 00:00:00,556 --> 00:00:04,433 Våra känslor påverkar varje del av våra liv 2 00:00:04,433 --> 00:00:08,149 från vår hälsa och hur vi lär oss, till hur vi gör affärer och fattar beslut, 3 00:00:08,149 --> 00:00:09,922 stora som små. 4 00:00:10,672 --> 00:00:14,162 Våra känslor påverkar också hur vi knyter an till varandra. 5 00:00:15,132 --> 00:00:19,108 Vi har utvecklats för att leva i en sån här värld, 6 00:00:19,108 --> 00:00:23,427 men nu lever vi istället mer och mer såna här liv - 7 00:00:23,427 --> 00:00:26,561 det här är ett sms som jag fick från min dotter igår kväll - 8 00:00:26,561 --> 00:00:29,151 i en värld som är tömd på känslor. 9 00:00:29,151 --> 00:00:31,252 Jag ser som mitt uppdrag att förändra det. 10 00:00:31,252 --> 00:00:35,343 Jag vill föra tillbaka känslorna i våra digitala upplevelser. 11 00:00:36,223 --> 00:00:39,070 Jag började med det för 15 år sen. 12 00:00:39,070 --> 00:00:41,486 Jag var dataingenjör i Egypten 13 00:00:41,486 --> 00:00:43,011 och hade just blivit antagen 14 00:00:43,011 --> 00:00:45,541 till en forskarutbildning vid Cambridge University. 15 00:00:45,871 --> 00:00:47,984 Jag gjorde något ganska ovanligt 16 00:00:47,984 --> 00:00:52,209 för att vara en ung nygift muslimsk egyptisk fru: 17 00:00:53,599 --> 00:00:56,598 Med stöd från min man som blev tvungen att stanna i Egypten 18 00:00:56,598 --> 00:00:59,616 packade jag mina väskor och flyttade till England. 19 00:00:59,616 --> 00:01:02,844 I Cambridge, tusentals kilometer hemifrån, 20 00:01:02,844 --> 00:01:05,847 insåg jag att jag tillbringade fler timmar med min laptop 21 00:01:05,847 --> 00:01:08,486 än jag gjorde med någon människa. 22 00:01:08,486 --> 00:01:13,339 Trots detta nära band visste inte datorn något om hur jag kände mig. 23 00:01:13,339 --> 00:01:16,190 Den visste inte om jag var glad, 24 00:01:16,190 --> 00:01:19,538 om jag hade en dålig dag, eller var stressad, förvirrad, 25 00:01:19,538 --> 00:01:22,460 och det blev frustrerande. 26 00:01:23,600 --> 00:01:29,421 Ännu värre var det när jag kommunicerade med min familj därhemma, och kände 27 00:01:29,431 --> 00:01:32,703 att mina känslor försvann i cyberrymden. 28 00:01:32,703 --> 00:01:37,858 Jag längtade hem, jag kände mig ensam, och vissa dagar grät jag, 29 00:01:37,858 --> 00:01:42,786 men allt jag kunde använda för att kommunicera känslorna var den här. 30 00:01:42,786 --> 00:01:44,806 (Skratt) 31 00:01:44,806 --> 00:01:49,780 Dagens teknik har mycket IQ, men ingen EQ; 32 00:01:49,780 --> 00:01:52,956 hög kognitiv intelligens men ingen emotionell intelligens. 33 00:01:52,956 --> 00:01:55,153 Det fick mig att börja fundera på 34 00:01:55,153 --> 00:01:58,927 hur det skulle bli om vår teknik skulle kunna känna av våra känslor? 35 00:01:58,927 --> 00:02:02,853 Om våra maskiner kunde känna av vårt humör och bete sig i enlighet med det, 36 00:02:02,853 --> 00:02:05,866 som en emotionellt intelligent vän? 37 00:02:06,666 --> 00:02:09,970 De här frågorna gjorde att jag och mitt team 38 00:02:09,970 --> 00:02:14,607 började skapa teknik som kan läsa av och reagera på våra känslor, 39 00:02:14,607 --> 00:02:17,697 och vi började med det mänskliga ansiktet. 40 00:02:18,577 --> 00:02:21,750 Det mänskliga ansiktet råkar vara en av de bästa kanaler 41 00:02:21,750 --> 00:02:25,766 som vi använder för att kommunicera sociala och känslomässiga tillstånd, 42 00:02:25,766 --> 00:02:28,776 allt från njutning, överraskning, 43 00:02:28,776 --> 00:02:32,662 empati och nyfikenhet. 44 00:02:32,979 --> 00:02:37,907 Inom känslovetenskap kallas en rörelse hos en ansiktsmuskel för "aktiv enhet". 45 00:02:37,907 --> 00:02:40,562 Den tolfte aktiva enheten 46 00:02:40,562 --> 00:02:42,870 är inte en toppfilm från Hollywood 47 00:02:42,870 --> 00:02:46,312 utan en uppdragen mungipa, vilket är huvudkomponenten i ett leende. 48 00:02:46,312 --> 00:02:49,300 Prova det allihop. Nu ler vi lite. 49 00:02:49,300 --> 00:02:51,334 Ett annat exempel är fjärde aktiva enheten. 50 00:02:51,334 --> 00:02:54,192 Det är när man drar ihop ögonbrynen 51 00:02:54,192 --> 00:02:56,129 och får den här ytan och rynkorna. 52 00:02:56,129 --> 00:03:00,141 Vi tycker inte om dem, men det är en stark indikator på en negativ känsla. 53 00:03:00,164 --> 00:03:02,630 Vi har ungefär 45 aktiva enheter, 54 00:03:02,630 --> 00:03:06,350 och de kan kombineras för att uttrycka hundratals känslor. 55 00:03:06,350 --> 00:03:10,251 Att lära en dator att läsa av känslouttryck i ansiktet är svårt, 56 00:03:10,251 --> 00:03:13,223 för de aktiva enheterna kan vara snabba och subtila 57 00:03:13,223 --> 00:03:15,487 och de går att kombinera på många olika sätt. 58 00:03:15,487 --> 00:03:19,515 Ta till exempel leendet och hånflinet. 59 00:03:19,515 --> 00:03:23,268 De ser ganska lika ut, men de betyder helt olika saker. 60 00:03:23,268 --> 00:03:24,986 (Skratt) 61 00:03:24,986 --> 00:03:27,430 Ett leende är positivt, 62 00:03:27,430 --> 00:03:29,260 ett flin är ofta negativt. 63 00:03:29,260 --> 00:03:33,136 Ibland kan ett flin göra en känd. 64 00:03:33,136 --> 00:03:35,960 Men trots allt är det viktigt för en dator att kunna 65 00:03:35,960 --> 00:03:38,455 se skillnad mellan de här två uttrycken. 66 00:03:38,455 --> 00:03:40,337 Hur gör vi det? 67 00:03:40,337 --> 00:03:41,984 Vi ger våra algoritmer 68 00:03:41,984 --> 00:03:46,524 tiotusentals exempel av människor som vi vet ler, 69 00:03:46,524 --> 00:03:49,589 med olika etnisk bakgrund, ålder, kön, 70 00:03:49,589 --> 00:03:51,631 och vi gör samma sak för flin. 71 00:03:51,950 --> 00:03:53,954 Och genom maskininlärning 72 00:03:53,954 --> 00:03:56,810 letar algoritmen efter såna här ytor och rynkor 73 00:03:56,810 --> 00:03:59,070 och formändringar i vårt ansikte 74 00:03:59,070 --> 00:04:02,592 och lär sig helt enkelt att alla leenden har egenskaper gemensamt, 75 00:04:02,592 --> 00:04:05,623 medan alla flin har något annorlunda egenskaper. 76 00:04:05,623 --> 00:04:08,141 Och nästa gång den ser ett nytt ansikte 77 00:04:08,141 --> 00:04:10,440 märker den att 78 00:04:10,440 --> 00:04:13,993 det här ansiktet har samma egenskaper som ett leende ansikte och den säger: 79 00:04:13,993 --> 00:04:17,208 "Aha, jag känner igen det här. Det är ett leende uttryck." 80 00:04:18,381 --> 00:04:21,181 Det bästa sättet att visa hur tekniken fungerar 81 00:04:21,181 --> 00:04:23,317 är genom en livedemo, 82 00:04:23,317 --> 00:04:27,230 så jag behöver en frivillig, helst någon med ett ansikte. 83 00:04:27,230 --> 00:04:29,564 (Skratt) 84 00:04:29,564 --> 00:04:32,335 Cloe blir vår frivilliga idag. 85 00:04:33,325 --> 00:04:37,593 De senaste fem åren har vi utvecklats från att vara ett projekt på MIT 86 00:04:37,593 --> 00:04:38,849 till att bli ett företag, 87 00:04:38,849 --> 00:04:42,131 där mitt team har jobbat mycket hårt för att få tekniken att fungera, 88 00:04:42,131 --> 00:04:44,540 som vi säger, i naturen. 89 00:04:44,540 --> 00:04:47,210 Vi har också krympt den så att känslomotorn 90 00:04:47,210 --> 00:04:50,530 fungerar i alla mobila enheter med kamera, som den här iPaden. 91 00:04:50,530 --> 00:04:53,316 Vi testar. 92 00:04:54,756 --> 00:04:58,520 Som ni kan se har algoritmen hittat Cloes ansikte, 93 00:04:58,520 --> 00:05:00,372 det är den här vita inramande rutan, 94 00:05:00,372 --> 00:05:02,943 och den spårar huvudpunkterna i hennes ansikte, 95 00:05:02,943 --> 00:05:05,799 hennes ögonbryn, ögon, mun och näsa. 96 00:05:05,799 --> 00:05:08,526 Frågan är, kan den läsa av hennes uttryck? 97 00:05:08,526 --> 00:05:10,067 Vi ska testa maskinen. 98 00:05:10,067 --> 00:05:14,252 Först av allt, ge mig ett pokerfejs. Ja, jättebra. (Skratt) 99 00:05:14,493 --> 00:05:17,316 Och när hon sen ler är det ett riktigt leende, det är fint. 100 00:05:17,316 --> 00:05:19,766 Ni kan se att den gröna stapeln går upp när hon ler. 101 00:05:19,766 --> 00:05:20,978 Det var ett stort leende. 102 00:05:20,978 --> 00:05:24,071 Kan du prova ett litet leende och se om datorn kan känna igen det? 103 00:05:24,071 --> 00:05:25,682 Den känner igen småleenden också. 104 00:05:25,682 --> 00:05:27,968 Vi har jobbat hårt för att det ska fungera. 105 00:05:27,968 --> 00:05:31,439 Och sen höjda ögonbryn, ett tecken på förvåning. 106 00:05:31,439 --> 00:05:35,098 Rynkade ögonbryn, vilket är ett tecken på förvirring. 107 00:05:35,688 --> 00:05:39,695 Rynka pannan. Ja, perfekt. 108 00:05:39,695 --> 00:05:43,188 Det är de olika aktiva enheterna. Det finns många fler. 109 00:05:43,188 --> 00:05:45,220 Det här är bara en förenklad demo. 110 00:05:45,220 --> 00:05:48,368 Vi kallar varje avläsning för en emotionell datapunkt, 111 00:05:48,368 --> 00:05:51,337 och de kan aktiveras tillsammans för att visa olika känslor. 112 00:05:51,337 --> 00:05:55,990 Så på högra sidan - se glad ut. 113 00:05:55,990 --> 00:05:57,444 Det är lycka. Lycka lyser upp. 114 00:05:57,444 --> 00:05:59,371 Ge mig sen en min av avsmak. 115 00:05:59,371 --> 00:06:03,643 Försök minnas hur det var när Zayn lämnade One Direction. 116 00:06:03,643 --> 00:06:05,153 (Skratt) 117 00:06:05,153 --> 00:06:09,495 Ja, rynka näsan. Perfekt. 118 00:06:09,495 --> 00:06:13,226 Och uttrycket är starkt negativt, så du måste ha varit ett stort fan. 119 00:06:13,226 --> 00:06:15,926 Värde är hur positiv eller negativ en upplevelse är, 120 00:06:15,926 --> 00:06:18,712 och engagemang är hur uttrycksfull hon är. 121 00:06:18,712 --> 00:06:22,126 Tänk er att Cloe hade tillgång till den här känsloströmmen i realtid, 122 00:06:22,126 --> 00:06:24,935 och kunde dela den med vem hon ville. 123 00:06:24,935 --> 00:06:26,695 Tack. 124 00:06:26,695 --> 00:06:29,655 (Applåder) 125 00:06:33,749 --> 00:06:38,809 Så här långt har vi samlat in 12 miljarder såna här datapunkter. 126 00:06:38,809 --> 00:06:41,360 Det är den största databasen för känslor i världen. 127 00:06:41,360 --> 00:06:44,343 Vi har samlat in den från 2,9 miljoner filmer på ansikten, 128 00:06:44,343 --> 00:06:47,193 människor som har gått med på att dela sina känslor med oss, 129 00:06:47,193 --> 00:06:50,398 från 75 länder i världen. 130 00:06:50,398 --> 00:06:52,113 Det blir fler och fler varje dag. 131 00:06:52,603 --> 00:06:54,670 Det känns fantastiskt 132 00:06:54,670 --> 00:06:57,865 att vi nu kan kvantifiera något så personligt som våra känslor, 133 00:06:57,865 --> 00:07:00,100 och vi kan göra det i den här skalan. 134 00:07:00,100 --> 00:07:02,277 Vad har vi då lärt oss så här långt? 135 00:07:03,057 --> 00:07:05,388 Kön. 136 00:07:05,388 --> 00:07:09,034 Vår data bekräftar något som du kanske misstänker. 137 00:07:09,034 --> 00:07:10,891 Kvinnor är mer uttrycksfulla än män. 138 00:07:10,891 --> 00:07:13,574 De inte bara ler mer, deras leenden pågår längre, 139 00:07:13,574 --> 00:07:16,478 och vi kan nu verkligen mäta vad det är som män och kvinnor 140 00:07:16,478 --> 00:07:18,614 reagerar olika på. 141 00:07:18,614 --> 00:07:19,794 Om vi tittar på kultur: 142 00:07:19,794 --> 00:07:23,888 I USA är kvinnor 40 procent mer uttrycksfulla än män, 143 00:07:23,888 --> 00:07:27,753 men lustigt nog ser vi ingen skillnad mellan män och kvinnor i Storbritannien. 144 00:07:27,753 --> 00:07:30,549 (Skratt) 145 00:07:31,296 --> 00:07:35,323 Ålder: Människor som är 50 år och äldre 146 00:07:35,323 --> 00:07:38,759 är 25 procent mer emotionella än unga människor. 147 00:07:39,539 --> 00:07:43,751 Kvinnor i 20-årsåldern ler mycket mer än män i samma ålder, 148 00:07:43,751 --> 00:07:47,590 kanske är det nödvändigt vid dejter. 149 00:07:47,590 --> 00:07:50,207 Men det som förvånade oss mest 150 00:07:50,207 --> 00:07:53,410 är att vi uttrycker oss hela tiden, 151 00:07:53,410 --> 00:07:56,243 även när vi sitter ensamma framför våra skärmar, 152 00:07:56,243 --> 00:07:59,517 och det är inte bara när vi tittar på kattvideos på Facebook. 153 00:07:59,757 --> 00:08:03,227 Vi är uttycksfulla när vi skickar e-post, textmeddelanden, handlar online, 154 00:08:03,227 --> 00:08:05,527 till och med när vi deklarerar. 155 00:08:05,527 --> 00:08:07,919 Var används den här informationen idag? 156 00:08:07,919 --> 00:08:10,892 Genom att förstå hur vi interagerar med medier kan vi förstå 157 00:08:10,892 --> 00:08:13,166 viral budskapsspridning och röstbeteenden 158 00:08:13,166 --> 00:08:16,456 och även föra in möjligheten till känslouttryck i tekniken, 159 00:08:16,456 --> 00:08:20,527 och jag vill dela med mig av några exempel som ligger mig speciellt varmt om hjärtat. 160 00:08:21,197 --> 00:08:24,265 Känslostyrda glasögon kan hjälpa människor 161 00:08:24,265 --> 00:08:27,493 med synnedsättning att läsa av andras ansikten, 162 00:08:27,493 --> 00:08:31,110 och det kan hjälpa individer med autism att tolka känslor, 163 00:08:31,110 --> 00:08:33,825 något som de verkligen kämpar med. 164 00:08:35,418 --> 00:08:38,777 Inom utbildning, tänk dig att dina läroappar 165 00:08:38,777 --> 00:08:41,377 känner av att du är förvirrad och saktar ner, 166 00:08:41,377 --> 00:08:43,444 eller om du är uttråkad kan de öka tempot, 167 00:08:43,444 --> 00:08:46,413 precis som en riktigt bra lärare skulle göra i klassrummet. 168 00:08:47,043 --> 00:08:49,644 Tänk om din armbandsklocka kunde mäta hur du mår, 169 00:08:49,644 --> 00:08:52,337 eller om din bil kunde veta att du var trött, 170 00:08:52,337 --> 00:08:54,885 eller kanske din kyl vet om att du är stressad, 171 00:08:54,885 --> 00:08:59,291 så att den låser sig automatiskt för att undvika att du proppar i dig. 172 00:08:59,291 --> 00:09:01,158 Det skulle jag vilja ha. 173 00:09:01,158 --> 00:09:03,223 (Skratt) 174 00:09:03,668 --> 00:09:05,595 Tänk om jag hade hade haft tillgång 175 00:09:05,595 --> 00:09:07,908 till mina känslor i realtid i Cambridge, 176 00:09:07,908 --> 00:09:11,437 och jag hade kunnat dela den med min familj på ett naturligt sätt, 177 00:09:11,437 --> 00:09:15,408 på samma sätt som om vi hade varit i samma rum tillsammans? 178 00:09:15,408 --> 00:09:18,100 Jag tror att om fem år 179 00:09:18,100 --> 00:09:20,887 kommer våra enheter att ha ett känslochip 180 00:09:20,887 --> 00:09:24,951 och vi kommer inte att minnas hur det var när vi inte kunde rynka pannan åt maskinen 181 00:09:24,951 --> 00:09:28,529 och den sa "Hmm, det där gillade du inte va?" 182 00:09:29,200 --> 00:09:32,791 Vår största utmaning är att det finns så många tillämpningar för tekniken, 183 00:09:32,791 --> 00:09:35,864 så jag och mitt team inser att vi inte kan bygga alla själva, 184 00:09:35,864 --> 00:09:38,920 så vi har gjort tekniken tillgänglig så att andra utvecklare 185 00:09:38,920 --> 00:09:41,474 kan börja skapa på ett kreativt sätt. 186 00:09:41,474 --> 00:09:45,560 Vi inser att det finns potientiella risker 187 00:09:45,560 --> 00:09:47,627 och möjligheter till missbruk, 188 00:09:47,627 --> 00:09:50,576 men jag tror, efter att ha använt detta i många år, 189 00:09:50,576 --> 00:09:52,828 att fördelarna för mänskligheten 190 00:09:52,828 --> 00:09:55,453 av att ha emotionellt intelligent teknik 191 00:09:55,453 --> 00:09:59,169 mer än väl uppväger konsekvenserna av felaktig användning. 192 00:09:59,169 --> 00:10:01,700 Och jag bjuder in er alla att ta del i diskussionen. 193 00:10:01,700 --> 00:10:04,154 Ju fler människor som känner till den här tekniken, 194 00:10:04,154 --> 00:10:07,661 desto mer kan vi uttrycka åsikter om hur den ska användas. 195 00:10:09,081 --> 00:10:13,655 Så när allt fler delar av våra liv blir digitala 196 00:10:13,655 --> 00:10:17,323 utkämpar vi en ojämn kamp för att begränsa användningen av digitala enheter 197 00:10:17,323 --> 00:10:19,952 och kunna återta våra känslor. 198 00:10:20,622 --> 00:10:24,536 Vad jag istället försöker göra är att föra in känslorna i tekniken 199 00:10:24,536 --> 00:10:26,765 och göra vår teknik mer lyhörd. 200 00:10:26,765 --> 00:10:29,435 Jag vill att maskinerna som har separerat oss 201 00:10:29,435 --> 00:10:32,147 ska föra oss samman igen. 202 00:10:32,147 --> 00:10:36,485 Och genom att göra tekniken mer human har vi ett gyllene tillfälle 203 00:10:36,485 --> 00:10:39,782 att tänka om hur vi umgås med maskiner, 204 00:10:39,782 --> 00:10:44,263 och därmed hur vi som människor 205 00:10:44,263 --> 00:10:46,167 umgås med varandra. 206 00:10:46,167 --> 00:10:48,013 Tack. 207 00:10:48,013 --> 00:10:51,010 (Applåder)