WEBVTT 00:00:00.556 --> 00:00:04.433 Våra känslor påverkar varje del av våra liv 00:00:04.433 --> 00:00:08.149 från vår hälsa och hur vi lär oss, till hur vi gör affärer och fattar beslut, 00:00:08.149 --> 00:00:09.922 stora som små. 00:00:10.672 --> 00:00:14.162 Våra känslor påverkar också hur vi knyter an till varandra. 00:00:15.132 --> 00:00:19.108 Vi har utvecklats för att leva i en sån här värld, 00:00:19.108 --> 00:00:23.427 men nu lever vi istället mer och mer såna här liv - 00:00:23.427 --> 00:00:26.561 det här är ett sms som jag fick från min dotter igår kväll - 00:00:26.561 --> 00:00:29.151 i en värld som är tömd på känslor. 00:00:29.151 --> 00:00:31.252 Jag ser som mitt uppdrag att förändra det. 00:00:31.252 --> 00:00:35.343 Jag vill föra tillbaka känslorna i våra digitala upplevelser. NOTE Paragraph 00:00:36.223 --> 00:00:39.070 Jag började med det för 15 år sen. 00:00:39.070 --> 00:00:41.486 Jag var dataingenjör i Egypten 00:00:41.486 --> 00:00:43.011 och hade just blivit antagen 00:00:43.011 --> 00:00:45.541 till en forskarutbildning vid Cambridge University. 00:00:45.871 --> 00:00:47.984 Jag gjorde något ganska ovanligt 00:00:47.984 --> 00:00:52.209 för att vara en ung nygift muslimsk egyptisk fru: 00:00:53.599 --> 00:00:56.598 Med stöd från min man som blev tvungen att stanna i Egypten 00:00:56.598 --> 00:00:59.616 packade jag mina väskor och flyttade till England. 00:00:59.616 --> 00:01:02.844 I Cambridge, tusentals kilometer hemifrån, 00:01:02.844 --> 00:01:05.847 insåg jag att jag tillbringade fler timmar med min laptop 00:01:05.847 --> 00:01:08.486 än jag gjorde med någon människa. 00:01:08.486 --> 00:01:13.339 Trots detta nära band visste inte datorn något om hur jag kände mig. 00:01:13.339 --> 00:01:16.190 Den visste inte om jag var glad, 00:01:16.190 --> 00:01:19.538 om jag hade en dålig dag, eller var stressad, förvirrad, 00:01:19.538 --> 00:01:22.460 och det blev frustrerande. 00:01:23.600 --> 00:01:29.421 Ännu värre var det när jag kommunicerade med min familj därhemma, och kände 00:01:29.431 --> 00:01:32.703 att mina känslor försvann i cyberrymden. 00:01:32.703 --> 00:01:37.858 Jag längtade hem, jag kände mig ensam, och vissa dagar grät jag, 00:01:37.858 --> 00:01:42.786 men allt jag kunde använda för att kommunicera känslorna var den här. 00:01:42.786 --> 00:01:44.806 (Skratt) 00:01:44.806 --> 00:01:49.780 Dagens teknik har mycket IQ, men ingen EQ; 00:01:49.780 --> 00:01:52.956 hög kognitiv intelligens men ingen emotionell intelligens. 00:01:52.956 --> 00:01:55.153 Det fick mig att börja fundera på 00:01:55.153 --> 00:01:58.927 hur det skulle bli om vår teknik skulle kunna känna av våra känslor? 00:01:58.927 --> 00:02:02.853 Om våra maskiner kunde känna av vårt humör och bete sig i enlighet med det, 00:02:02.853 --> 00:02:05.866 som en emotionellt intelligent vän? 00:02:06.666 --> 00:02:09.970 De här frågorna gjorde att jag och mitt team 00:02:09.970 --> 00:02:14.607 började skapa teknik som kan läsa av och reagera på våra känslor, 00:02:14.607 --> 00:02:17.697 och vi började med det mänskliga ansiktet. NOTE Paragraph 00:02:18.577 --> 00:02:21.750 Det mänskliga ansiktet råkar vara en av de bästa kanaler 00:02:21.750 --> 00:02:25.766 som vi använder för att kommunicera sociala och känslomässiga tillstånd, 00:02:25.766 --> 00:02:28.776 allt från njutning, överraskning, 00:02:28.776 --> 00:02:32.662 empati och nyfikenhet. 00:02:32.979 --> 00:02:37.907 Inom känslovetenskap kallas en rörelse hos en ansiktsmuskel för "aktiv enhet". 00:02:37.907 --> 00:02:40.562 Den tolfte aktiva enheten 00:02:40.562 --> 00:02:42.870 är inte en toppfilm från Hollywood 00:02:42.870 --> 00:02:46.312 utan en uppdragen mungipa, vilket är huvudkomponenten i ett leende. 00:02:46.312 --> 00:02:49.300 Prova det allihop. Nu ler vi lite. 00:02:49.300 --> 00:02:51.334 Ett annat exempel är fjärde aktiva enheten. 00:02:51.334 --> 00:02:54.192 Det är när man drar ihop ögonbrynen 00:02:54.192 --> 00:02:56.129 och får den här ytan och rynkorna. 00:02:56.129 --> 00:03:00.141 Vi tycker inte om dem, men det är en stark indikator på en negativ känsla. 00:03:00.164 --> 00:03:02.630 Vi har ungefär 45 aktiva enheter, 00:03:02.630 --> 00:03:06.350 och de kan kombineras för att uttrycka hundratals känslor. NOTE Paragraph 00:03:06.350 --> 00:03:10.251 Att lära en dator att läsa av känslouttryck i ansiktet är svårt, 00:03:10.251 --> 00:03:13.223 för de aktiva enheterna kan vara snabba och subtila 00:03:13.223 --> 00:03:15.487 och de går att kombinera på många olika sätt. 00:03:15.487 --> 00:03:19.515 Ta till exempel leendet och hånflinet. 00:03:19.515 --> 00:03:23.268 De ser ganska lika ut, men de betyder helt olika saker. 00:03:23.268 --> 00:03:24.986 (Skratt) 00:03:24.986 --> 00:03:27.430 Ett leende är positivt, 00:03:27.430 --> 00:03:29.260 ett flin är ofta negativt. 00:03:29.260 --> 00:03:33.136 Ibland kan ett flin göra en känd. 00:03:33.136 --> 00:03:35.960 Men trots allt är det viktigt för en dator att kunna 00:03:35.960 --> 00:03:38.455 se skillnad mellan de här två uttrycken. NOTE Paragraph 00:03:38.455 --> 00:03:40.337 Hur gör vi det? 00:03:40.337 --> 00:03:41.984 Vi ger våra algoritmer 00:03:41.984 --> 00:03:46.524 tiotusentals exempel av människor som vi vet ler, 00:03:46.524 --> 00:03:49.589 med olika etnisk bakgrund, ålder, kön, 00:03:49.589 --> 00:03:51.631 och vi gör samma sak för flin. 00:03:51.950 --> 00:03:53.954 Och genom maskininlärning 00:03:53.954 --> 00:03:56.810 letar algoritmen efter såna här ytor och rynkor 00:03:56.810 --> 00:03:59.070 och formändringar i vårt ansikte 00:03:59.070 --> 00:04:02.592 och lär sig helt enkelt att alla leenden har egenskaper gemensamt, 00:04:02.592 --> 00:04:05.623 medan alla flin har något annorlunda egenskaper. 00:04:05.623 --> 00:04:08.141 Och nästa gång den ser ett nytt ansikte 00:04:08.141 --> 00:04:10.440 märker den att 00:04:10.440 --> 00:04:13.993 det här ansiktet har samma egenskaper som ett leende ansikte och den säger: 00:04:13.993 --> 00:04:17.208 "Aha, jag känner igen det här. Det är ett leende uttryck." NOTE Paragraph 00:04:18.381 --> 00:04:21.181 Det bästa sättet att visa hur tekniken fungerar 00:04:21.181 --> 00:04:23.317 är genom en livedemo, 00:04:23.317 --> 00:04:27.230 så jag behöver en frivillig, helst någon med ett ansikte. 00:04:27.230 --> 00:04:29.564 (Skratt) 00:04:29.564 --> 00:04:32.335 Cloe blir vår frivilliga idag. NOTE Paragraph 00:04:33.325 --> 00:04:37.593 De senaste fem åren har vi utvecklats från att vara ett projekt på MIT 00:04:37.593 --> 00:04:38.849 till att bli ett företag, 00:04:38.849 --> 00:04:42.131 där mitt team har jobbat mycket hårt för att få tekniken att fungera, 00:04:42.131 --> 00:04:44.540 som vi säger, i naturen. 00:04:44.540 --> 00:04:47.210 Vi har också krympt den så att känslomotorn 00:04:47.210 --> 00:04:50.530 fungerar i alla mobila enheter med kamera, som den här iPaden. 00:04:50.530 --> 00:04:53.316 Vi testar. NOTE Paragraph 00:04:54.756 --> 00:04:58.520 Som ni kan se har algoritmen hittat Cloes ansikte, 00:04:58.520 --> 00:05:00.372 det är den här vita inramande rutan, 00:05:00.372 --> 00:05:02.943 och den spårar huvudpunkterna i hennes ansikte, 00:05:02.943 --> 00:05:05.799 hennes ögonbryn, ögon, mun och näsa. 00:05:05.799 --> 00:05:08.526 Frågan är, kan den läsa av hennes uttryck? 00:05:08.526 --> 00:05:10.067 Vi ska testa maskinen. 00:05:10.067 --> 00:05:14.252 Först av allt, ge mig ett pokerfejs. Ja, jättebra. (Skratt) 00:05:14.493 --> 00:05:17.316 Och när hon sen ler är det ett riktigt leende, det är fint. 00:05:17.316 --> 00:05:19.766 Ni kan se att den gröna stapeln går upp när hon ler. 00:05:19.766 --> 00:05:20.978 Det var ett stort leende. 00:05:20.978 --> 00:05:24.071 Kan du prova ett litet leende och se om datorn kan känna igen det? 00:05:24.071 --> 00:05:25.682 Den känner igen småleenden också. 00:05:25.682 --> 00:05:27.968 Vi har jobbat hårt för att det ska fungera. 00:05:27.968 --> 00:05:31.439 Och sen höjda ögonbryn, ett tecken på förvåning. 00:05:31.439 --> 00:05:35.098 Rynkade ögonbryn, vilket är ett tecken på förvirring. 00:05:35.688 --> 00:05:39.695 Rynka pannan. Ja, perfekt. 00:05:39.695 --> 00:05:43.188 Det är de olika aktiva enheterna. Det finns många fler. 00:05:43.188 --> 00:05:45.220 Det här är bara en förenklad demo. 00:05:45.220 --> 00:05:48.368 Vi kallar varje avläsning för en emotionell datapunkt, 00:05:48.368 --> 00:05:51.337 och de kan aktiveras tillsammans för att visa olika känslor. 00:05:51.337 --> 00:05:55.990 Så på högra sidan - se glad ut. 00:05:55.990 --> 00:05:57.444 Det är lycka. Lycka lyser upp. 00:05:57.444 --> 00:05:59.371 Ge mig sen en min av avsmak. 00:05:59.371 --> 00:06:03.643 Försök minnas hur det var när Zayn lämnade One Direction. 00:06:03.643 --> 00:06:05.153 (Skratt) 00:06:05.153 --> 00:06:09.495 Ja, rynka näsan. Perfekt. 00:06:09.495 --> 00:06:13.226 Och uttrycket är starkt negativt, så du måste ha varit ett stort fan. 00:06:13.226 --> 00:06:15.926 Värde är hur positiv eller negativ en upplevelse är, 00:06:15.926 --> 00:06:18.712 och engagemang är hur uttrycksfull hon är. 00:06:18.712 --> 00:06:22.126 Tänk er att Cloe hade tillgång till den här känsloströmmen i realtid, 00:06:22.126 --> 00:06:24.935 och kunde dela den med vem hon ville. 00:06:24.935 --> 00:06:26.695 Tack. 00:06:26.695 --> 00:06:29.655 (Applåder) NOTE Paragraph 00:06:33.749 --> 00:06:38.809 Så här långt har vi samlat in 12 miljarder såna här datapunkter. 00:06:38.809 --> 00:06:41.360 Det är den största databasen för känslor i världen. 00:06:41.360 --> 00:06:44.343 Vi har samlat in den från 2,9 miljoner filmer på ansikten, 00:06:44.343 --> 00:06:47.193 människor som har gått med på att dela sina känslor med oss, 00:06:47.193 --> 00:06:50.398 från 75 länder i världen. 00:06:50.398 --> 00:06:52.113 Det blir fler och fler varje dag. 00:06:52.603 --> 00:06:54.670 Det känns fantastiskt 00:06:54.670 --> 00:06:57.865 att vi nu kan kvantifiera något så personligt som våra känslor, 00:06:57.865 --> 00:07:00.100 och vi kan göra det i den här skalan. NOTE Paragraph 00:07:00.100 --> 00:07:02.277 Vad har vi då lärt oss så här långt? 00:07:03.057 --> 00:07:05.388 Kön. 00:07:05.388 --> 00:07:09.034 Vår data bekräftar något som du kanske misstänker. 00:07:09.034 --> 00:07:10.891 Kvinnor är mer uttrycksfulla än män. 00:07:10.891 --> 00:07:13.574 De inte bara ler mer, deras leenden pågår längre, 00:07:13.574 --> 00:07:16.478 och vi kan nu verkligen mäta vad det är som män och kvinnor 00:07:16.478 --> 00:07:18.614 reagerar olika på. 00:07:18.614 --> 00:07:19.794 Om vi tittar på kultur: 00:07:19.794 --> 00:07:23.888 I USA är kvinnor 40 procent mer uttrycksfulla än män, 00:07:23.888 --> 00:07:27.753 men lustigt nog ser vi ingen skillnad mellan män och kvinnor i Storbritannien. 00:07:27.753 --> 00:07:30.549 (Skratt) 00:07:31.296 --> 00:07:35.323 Ålder: Människor som är 50 år och äldre 00:07:35.323 --> 00:07:38.759 är 25 procent mer emotionella än unga människor. 00:07:39.539 --> 00:07:43.751 Kvinnor i 20-årsåldern ler mycket mer än män i samma ålder, 00:07:43.751 --> 00:07:47.590 kanske är det nödvändigt vid dejter. 00:07:47.590 --> 00:07:50.207 Men det som förvånade oss mest 00:07:50.207 --> 00:07:53.410 är att vi uttrycker oss hela tiden, 00:07:53.410 --> 00:07:56.243 även när vi sitter ensamma framför våra skärmar, 00:07:56.243 --> 00:07:59.517 och det är inte bara när vi tittar på kattvideos på Facebook. 00:07:59.757 --> 00:08:03.227 Vi är uttycksfulla när vi skickar e-post, textmeddelanden, handlar online, 00:08:03.227 --> 00:08:05.527 till och med när vi deklarerar. NOTE Paragraph 00:08:05.527 --> 00:08:07.919 Var används den här informationen idag? 00:08:07.919 --> 00:08:10.892 Genom att förstå hur vi interagerar med medier kan vi förstå 00:08:10.892 --> 00:08:13.166 viral budskapsspridning och röstbeteenden 00:08:13.166 --> 00:08:16.456 och även föra in möjligheten till känslouttryck i tekniken, 00:08:16.456 --> 00:08:20.527 och jag vill dela med mig av några exempel som ligger mig speciellt varmt om hjärtat. 00:08:21.197 --> 00:08:24.265 Känslostyrda glasögon kan hjälpa människor 00:08:24.265 --> 00:08:27.493 med synnedsättning att läsa av andras ansikten, 00:08:27.493 --> 00:08:31.110 och det kan hjälpa individer med autism att tolka känslor, 00:08:31.110 --> 00:08:33.825 något som de verkligen kämpar med. 00:08:35.418 --> 00:08:38.777 Inom utbildning, tänk dig att dina läroappar 00:08:38.777 --> 00:08:41.377 känner av att du är förvirrad och saktar ner, 00:08:41.377 --> 00:08:43.444 eller om du är uttråkad kan de öka tempot, 00:08:43.444 --> 00:08:46.413 precis som en riktigt bra lärare skulle göra i klassrummet. 00:08:47.043 --> 00:08:49.644 Tänk om din armbandsklocka kunde mäta hur du mår, 00:08:49.644 --> 00:08:52.337 eller om din bil kunde veta att du var trött, 00:08:52.337 --> 00:08:54.885 eller kanske din kyl vet om att du är stressad, 00:08:54.885 --> 00:08:59.291 så att den låser sig automatiskt för att undvika att du proppar i dig. 00:08:59.291 --> 00:09:01.158 Det skulle jag vilja ha. 00:09:01.158 --> 00:09:03.223 (Skratt) 00:09:03.668 --> 00:09:05.595 Tänk om jag hade hade haft tillgång 00:09:05.595 --> 00:09:07.908 till mina känslor i realtid i Cambridge, 00:09:07.908 --> 00:09:11.437 och jag hade kunnat dela den med min familj på ett naturligt sätt, 00:09:11.437 --> 00:09:15.408 på samma sätt som om vi hade varit i samma rum tillsammans? NOTE Paragraph 00:09:15.408 --> 00:09:18.100 Jag tror att om fem år 00:09:18.100 --> 00:09:20.887 kommer våra enheter att ha ett känslochip 00:09:20.887 --> 00:09:24.951 och vi kommer inte att minnas hur det var när vi inte kunde rynka pannan åt maskinen 00:09:24.951 --> 00:09:28.529 och den sa "Hmm, det där gillade du inte va?" 00:09:29.200 --> 00:09:32.791 Vår största utmaning är att det finns så många tillämpningar för tekniken, 00:09:32.791 --> 00:09:35.864 så jag och mitt team inser att vi inte kan bygga alla själva, 00:09:35.864 --> 00:09:38.920 så vi har gjort tekniken tillgänglig så att andra utvecklare 00:09:38.920 --> 00:09:41.474 kan börja skapa på ett kreativt sätt. 00:09:41.474 --> 00:09:45.560 Vi inser att det finns potientiella risker 00:09:45.560 --> 00:09:47.627 och möjligheter till missbruk, 00:09:47.627 --> 00:09:50.576 men jag tror, efter att ha använt detta i många år, 00:09:50.576 --> 00:09:52.828 att fördelarna för mänskligheten 00:09:52.828 --> 00:09:55.453 av att ha emotionellt intelligent teknik 00:09:55.453 --> 00:09:59.169 mer än väl uppväger konsekvenserna av felaktig användning. 00:09:59.169 --> 00:10:01.700 Och jag bjuder in er alla att ta del i diskussionen. 00:10:01.700 --> 00:10:04.154 Ju fler människor som känner till den här tekniken, 00:10:04.154 --> 00:10:07.661 desto mer kan vi uttrycka åsikter om hur den ska användas. 00:10:09.081 --> 00:10:13.655 Så när allt fler delar av våra liv blir digitala 00:10:13.655 --> 00:10:17.323 utkämpar vi en ojämn kamp för att begränsa användningen av digitala enheter 00:10:17.323 --> 00:10:19.952 och kunna återta våra känslor. 00:10:20.622 --> 00:10:24.536 Vad jag istället försöker göra är att föra in känslorna i tekniken 00:10:24.536 --> 00:10:26.765 och göra vår teknik mer lyhörd. 00:10:26.765 --> 00:10:29.435 Jag vill att maskinerna som har separerat oss 00:10:29.435 --> 00:10:32.147 ska föra oss samman igen. 00:10:32.147 --> 00:10:36.485 Och genom att göra tekniken mer human har vi ett gyllene tillfälle 00:10:36.485 --> 00:10:39.782 att tänka om hur vi umgås med maskiner, 00:10:39.782 --> 00:10:44.263 och därmed hur vi som människor 00:10:44.263 --> 00:10:46.167 umgås med varandra. NOTE Paragraph 00:10:46.167 --> 00:10:48.013 Tack. NOTE Paragraph 00:10:48.013 --> 00:10:51.010 (Applåder)