0:00:00.556,0:00:04.433 Våra känslor påverkar[br]varje del av våra liv 0:00:04.433,0:00:08.149 från vår hälsa och hur vi lär oss,[br]till hur vi gör affärer och fattar beslut, 0:00:08.149,0:00:09.922 stora som små. 0:00:10.672,0:00:14.162 Våra känslor påverkar också[br]hur vi knyter an till varandra. 0:00:15.132,0:00:19.108 Vi har utvecklats för att leva[br]i en sån här värld, 0:00:19.108,0:00:23.427 men nu lever vi istället[br]mer och mer såna här liv - 0:00:23.427,0:00:26.561 det här är ett sms som jag fick[br]från min dotter igår kväll - 0:00:26.561,0:00:29.151 i en värld som är tömd på känslor. 0:00:29.151,0:00:31.252 Jag ser som mitt uppdrag att förändra det. 0:00:31.252,0:00:35.343 Jag vill föra tillbaka känslorna[br]i våra digitala upplevelser. 0:00:36.223,0:00:39.070 Jag började med det för 15 år sen. 0:00:39.070,0:00:41.486 Jag var dataingenjör i Egypten 0:00:41.486,0:00:43.011 och hade just blivit antagen 0:00:43.011,0:00:45.541 till en forskarutbildning[br]vid Cambridge University. 0:00:45.871,0:00:47.984 Jag gjorde något ganska ovanligt 0:00:47.984,0:00:52.209 för att vara en ung nygift[br]muslimsk egyptisk fru: 0:00:53.599,0:00:56.598 Med stöd från min man[br]som blev tvungen att stanna i Egypten 0:00:56.598,0:00:59.616 packade jag mina väskor[br]och flyttade till England. 0:00:59.616,0:01:02.844 I Cambridge, tusentals kilometer hemifrån, 0:01:02.844,0:01:05.847 insåg jag att jag tillbringade[br]fler timmar med min laptop 0:01:05.847,0:01:08.486 än jag gjorde med någon människa. 0:01:08.486,0:01:13.339 Trots detta nära band visste inte datorn[br]något om hur jag kände mig. 0:01:13.339,0:01:16.190 Den visste inte om jag var glad, 0:01:16.190,0:01:19.538 om jag hade en dålig dag,[br]eller var stressad, förvirrad, 0:01:19.538,0:01:22.460 och det blev frustrerande. 0:01:23.600,0:01:29.421 Ännu värre var det när jag kommunicerade[br]med min familj därhemma, och kände 0:01:29.431,0:01:32.703 att mina känslor försvann i cyberrymden. 0:01:32.703,0:01:37.858 Jag längtade hem, jag kände mig ensam,[br]och vissa dagar grät jag, 0:01:37.858,0:01:42.786 men allt jag kunde använda[br]för att kommunicera känslorna var den här. 0:01:42.786,0:01:44.806 (Skratt) 0:01:44.806,0:01:49.780 Dagens teknik har mycket IQ, men ingen EQ; 0:01:49.780,0:01:52.956 hög kognitiv intelligens[br]men ingen emotionell intelligens. 0:01:52.956,0:01:55.153 Det fick mig att börja fundera på 0:01:55.153,0:01:58.927 hur det skulle bli om vår teknik[br]skulle kunna känna av våra känslor? 0:01:58.927,0:02:02.853 Om våra maskiner kunde känna av vårt humör[br]och bete sig i enlighet med det, 0:02:02.853,0:02:05.866 som en emotionellt intelligent vän? 0:02:06.666,0:02:09.970 De här frågorna gjorde[br]att jag och mitt team 0:02:09.970,0:02:14.607 började skapa teknik som kan läsa av[br]och reagera på våra känslor, 0:02:14.607,0:02:17.697 och vi började med det mänskliga ansiktet. 0:02:18.577,0:02:21.750 Det mänskliga ansiktet råkar vara[br]en av de bästa kanaler 0:02:21.750,0:02:25.766 som vi använder för att kommunicera[br]sociala och känslomässiga tillstånd, 0:02:25.766,0:02:28.776 allt från njutning, överraskning, 0:02:28.776,0:02:32.662 empati och nyfikenhet. 0:02:32.979,0:02:37.907 Inom känslovetenskap kallas en rörelse[br]hos en ansiktsmuskel för "aktiv enhet". 0:02:37.907,0:02:40.562 Den tolfte aktiva enheten 0:02:40.562,0:02:42.870 är inte en toppfilm från Hollywood 0:02:42.870,0:02:46.312 utan en uppdragen mungipa,[br]vilket är huvudkomponenten i ett leende. 0:02:46.312,0:02:49.300 Prova det allihop. Nu ler vi lite. 0:02:49.300,0:02:51.334 Ett annat exempel[br]är fjärde aktiva enheten. 0:02:51.334,0:02:54.192 Det är när man drar ihop ögonbrynen 0:02:54.192,0:02:56.129 och får den här ytan och rynkorna. 0:02:56.129,0:03:00.141 Vi tycker inte om dem, men det är[br]en stark indikator på en negativ känsla. 0:03:00.164,0:03:02.630 Vi har ungefär 45 aktiva enheter, 0:03:02.630,0:03:06.350 och de kan kombineras[br]för att uttrycka hundratals känslor. 0:03:06.350,0:03:10.251 Att lära en dator att läsa av[br]känslouttryck i ansiktet är svårt, 0:03:10.251,0:03:13.223 för de aktiva enheterna[br]kan vara snabba och subtila 0:03:13.223,0:03:15.487 och de går att kombinera[br]på många olika sätt. 0:03:15.487,0:03:19.515 Ta till exempel leendet och hånflinet. 0:03:19.515,0:03:23.268 De ser ganska lika ut,[br]men de betyder helt olika saker. 0:03:23.268,0:03:24.986 (Skratt) 0:03:24.986,0:03:27.430 Ett leende är positivt, 0:03:27.430,0:03:29.260 ett flin är ofta negativt. 0:03:29.260,0:03:33.136 Ibland kan ett flin göra en känd. 0:03:33.136,0:03:35.960 Men trots allt är det viktigt[br]för en dator att kunna 0:03:35.960,0:03:38.455 se skillnad mellan de här två uttrycken. 0:03:38.455,0:03:40.337 Hur gör vi det? 0:03:40.337,0:03:41.984 Vi ger våra algoritmer 0:03:41.984,0:03:46.524 tiotusentals exempel[br]av människor som vi vet ler, 0:03:46.524,0:03:49.589 med olika etnisk bakgrund, ålder, kön, 0:03:49.589,0:03:51.631 och vi gör samma sak för flin. 0:03:51.950,0:03:53.954 Och genom maskininlärning 0:03:53.954,0:03:56.810 letar algoritmen[br]efter såna här ytor och rynkor 0:03:56.810,0:03:59.070 och formändringar i vårt ansikte 0:03:59.070,0:04:02.592 och lär sig helt enkelt att alla leenden[br]har egenskaper gemensamt, 0:04:02.592,0:04:05.623 medan alla flin har[br]något annorlunda egenskaper. 0:04:05.623,0:04:08.141 Och nästa gång den ser ett nytt ansikte 0:04:08.141,0:04:10.440 märker den att 0:04:10.440,0:04:13.993 det här ansiktet har samma egenskaper[br]som ett leende ansikte och den säger: 0:04:13.993,0:04:17.208 "Aha, jag känner igen det här.[br]Det är ett leende uttryck." 0:04:18.381,0:04:21.181 Det bästa sättet att visa[br]hur tekniken fungerar 0:04:21.181,0:04:23.317 är genom en livedemo, 0:04:23.317,0:04:27.230 så jag behöver en frivillig,[br]helst någon med ett ansikte. 0:04:27.230,0:04:29.564 (Skratt) 0:04:29.564,0:04:32.335 Cloe blir vår frivilliga idag. 0:04:33.325,0:04:37.593 De senaste fem åren har vi utvecklats[br]från att vara ett projekt på MIT 0:04:37.593,0:04:38.849 till att bli ett företag, 0:04:38.849,0:04:42.131 där mitt team har jobbat mycket hårt[br]för att få tekniken att fungera, 0:04:42.131,0:04:44.540 som vi säger, i naturen. 0:04:44.540,0:04:47.210 Vi har också krympt den[br]så att känslomotorn 0:04:47.210,0:04:50.530 fungerar i alla mobila enheter[br]med kamera, som den här iPaden. 0:04:50.530,0:04:53.316 Vi testar. 0:04:54.756,0:04:58.520 Som ni kan se har algoritmen[br]hittat Cloes ansikte, 0:04:58.520,0:05:00.372 det är den här vita inramande rutan, 0:05:00.372,0:05:02.943 och den spårar[br]huvudpunkterna i hennes ansikte, 0:05:02.943,0:05:05.799 hennes ögonbryn, ögon, mun och näsa. 0:05:05.799,0:05:08.526 Frågan är, kan den läsa av hennes uttryck? 0:05:08.526,0:05:10.067 Vi ska testa maskinen. 0:05:10.067,0:05:14.252 Först av allt, ge mig ett pokerfejs.[br]Ja, jättebra. (Skratt) 0:05:14.493,0:05:17.316 Och när hon sen ler[br]är det ett riktigt leende, det är fint. 0:05:17.316,0:05:19.766 Ni kan se att den gröna stapeln[br]går upp när hon ler. 0:05:19.766,0:05:20.978 Det var ett stort leende. 0:05:20.978,0:05:24.071 Kan du prova ett litet leende[br]och se om datorn kan känna igen det? 0:05:24.071,0:05:25.682 Den känner igen småleenden också. 0:05:25.682,0:05:27.968 Vi har jobbat hårt[br]för att det ska fungera. 0:05:27.968,0:05:31.439 Och sen höjda ögonbryn,[br]ett tecken på förvåning. 0:05:31.439,0:05:35.098 Rynkade ögonbryn, vilket är[br]ett tecken på förvirring. 0:05:35.688,0:05:39.695 Rynka pannan. Ja, perfekt. 0:05:39.695,0:05:43.188 Det är de olika aktiva enheterna.[br]Det finns många fler. 0:05:43.188,0:05:45.220 Det här är bara en förenklad demo. 0:05:45.220,0:05:48.368 Vi kallar varje avläsning[br]för en emotionell datapunkt, 0:05:48.368,0:05:51.337 och de kan aktiveras tillsammans[br]för att visa olika känslor.[br] 0:05:51.337,0:05:55.990 Så på högra sidan - se glad ut. 0:05:55.990,0:05:57.444 Det är lycka. Lycka lyser upp. 0:05:57.444,0:05:59.371 Ge mig sen en min av avsmak. 0:05:59.371,0:06:03.643 Försök minnas hur det var[br]när Zayn lämnade One Direction. 0:06:03.643,0:06:05.153 (Skratt) 0:06:05.153,0:06:09.495 Ja, rynka näsan. Perfekt. 0:06:09.495,0:06:13.226 Och uttrycket är starkt negativt,[br]så du måste ha varit ett stort fan. 0:06:13.226,0:06:15.926 Värde är hur positiv[br]eller negativ en upplevelse är, 0:06:15.926,0:06:18.712 och engagemang är hur uttrycksfull hon är. 0:06:18.712,0:06:22.126 Tänk er att Cloe hade tillgång[br]till den här känsloströmmen i realtid, 0:06:22.126,0:06:24.935 och kunde dela den med vem hon ville. 0:06:24.935,0:06:26.695 Tack. 0:06:26.695,0:06:29.655 (Applåder) 0:06:33.749,0:06:38.809 Så här långt har vi samlat in[br]12 miljarder såna här datapunkter. 0:06:38.809,0:06:41.360 Det är den största databasen[br]för känslor i världen. 0:06:41.360,0:06:44.343 Vi har samlat in den[br]från 2,9 miljoner filmer på ansikten, 0:06:44.343,0:06:47.193 människor som har gått med på[br]att dela sina känslor med oss, 0:06:47.193,0:06:50.398 från 75 länder i världen. 0:06:50.398,0:06:52.113 Det blir fler och fler varje dag. 0:06:52.603,0:06:54.670 Det känns fantastiskt 0:06:54.670,0:06:57.865 att vi nu kan kvantifiera[br]något så personligt som våra känslor, 0:06:57.865,0:07:00.100 och vi kan göra det i den här skalan. 0:07:00.100,0:07:02.277 Vad har vi då lärt oss så här långt? 0:07:03.057,0:07:05.388 Kön. 0:07:05.388,0:07:09.034 Vår data bekräftar något[br]som du kanske misstänker. 0:07:09.034,0:07:10.891 Kvinnor är mer uttrycksfulla än män. 0:07:10.891,0:07:13.574 De inte bara ler mer,[br]deras leenden pågår längre, 0:07:13.574,0:07:16.478 och vi kan nu verkligen mäta[br]vad det är som män och kvinnor 0:07:16.478,0:07:18.614 reagerar olika på. 0:07:18.614,0:07:19.794 Om vi tittar på kultur: 0:07:19.794,0:07:23.888 I USA är kvinnor 40 procent[br]mer uttrycksfulla än män, 0:07:23.888,0:07:27.753 men lustigt nog ser vi ingen skillnad[br]mellan män och kvinnor i Storbritannien. 0:07:27.753,0:07:30.549 (Skratt) 0:07:31.296,0:07:35.323 Ålder: Människor som är 50 år och äldre 0:07:35.323,0:07:38.759 är 25 procent mer emotionella[br]än unga människor. 0:07:39.539,0:07:43.751 Kvinnor i 20-årsåldern ler mycket mer[br]än män i samma ålder, 0:07:43.751,0:07:47.590 kanske är det nödvändigt vid dejter. 0:07:47.590,0:07:50.207 Men det som förvånade oss mest 0:07:50.207,0:07:53.410 är att vi uttrycker oss hela tiden, 0:07:53.410,0:07:56.243 även när vi sitter ensamma[br]framför våra skärmar, 0:07:56.243,0:07:59.517 och det är inte bara[br]när vi tittar på kattvideos på Facebook. 0:07:59.757,0:08:03.227 Vi är uttycksfulla när vi skickar e-post,[br]textmeddelanden, handlar online, 0:08:03.227,0:08:05.527 till och med när vi deklarerar. 0:08:05.527,0:08:07.919 Var används den här informationen idag? 0:08:07.919,0:08:10.892 Genom att förstå hur vi interagerar[br]med medier kan vi förstå 0:08:10.892,0:08:13.166 viral budskapsspridning och röstbeteenden 0:08:13.166,0:08:16.456 och även föra in möjligheten[br]till känslouttryck i tekniken, 0:08:16.456,0:08:20.527 och jag vill dela med mig av några exempel[br]som ligger mig speciellt varmt om hjärtat. 0:08:21.197,0:08:24.265 Känslostyrda glasögon kan hjälpa människor 0:08:24.265,0:08:27.493 med synnedsättning[br]att läsa av andras ansikten, 0:08:27.493,0:08:31.110 och det kan hjälpa individer[br]med autism att tolka känslor, 0:08:31.110,0:08:33.825 något som de verkligen kämpar med. 0:08:35.418,0:08:38.777 Inom utbildning,[br]tänk dig att dina läroappar 0:08:38.777,0:08:41.377 känner av att du är förvirrad[br]och saktar ner, 0:08:41.377,0:08:43.444 eller om du är uttråkad kan de öka tempot, 0:08:43.444,0:08:46.413 precis som en riktigt bra lärare[br]skulle göra i klassrummet. 0:08:47.043,0:08:49.644 Tänk om din armbandsklocka[br]kunde mäta hur du mår, 0:08:49.644,0:08:52.337 eller om din bil kunde veta[br]att du var trött, 0:08:52.337,0:08:54.885 eller kanske din kyl vet om[br]att du är stressad, 0:08:54.885,0:08:59.291 så att den låser sig automatiskt[br]för att undvika att du proppar i dig. 0:08:59.291,0:09:01.158 Det skulle jag vilja ha. 0:09:01.158,0:09:03.223 (Skratt) 0:09:03.668,0:09:05.595 Tänk om jag hade hade haft tillgång 0:09:05.595,0:09:07.908 till mina känslor i realtid i Cambridge, 0:09:07.908,0:09:11.437 och jag hade kunnat dela den[br]med min familj på ett naturligt sätt, 0:09:11.437,0:09:15.408 på samma sätt som om vi[br]hade varit i samma rum tillsammans? 0:09:15.408,0:09:18.100 Jag tror att om fem år 0:09:18.100,0:09:20.887 kommer våra enheter att ha ett känslochip 0:09:20.887,0:09:24.951 och vi kommer inte att minnas hur det var[br]när vi inte kunde rynka pannan åt maskinen 0:09:24.951,0:09:28.529 och den sa "Hmm,[br]det där gillade du inte va?" 0:09:29.200,0:09:32.791 Vår största utmaning är att det finns[br]så många tillämpningar för tekniken, 0:09:32.791,0:09:35.864 så jag och mitt team inser[br]att vi inte kan bygga alla själva, 0:09:35.864,0:09:38.920 så vi har gjort tekniken tillgänglig[br]så att andra utvecklare 0:09:38.920,0:09:41.474 kan börja skapa på ett kreativt sätt. 0:09:41.474,0:09:45.560 Vi inser att det finns potientiella risker 0:09:45.560,0:09:47.627 och möjligheter till missbruk, 0:09:47.627,0:09:50.576 men jag tror, efter att ha[br]använt detta i många år, 0:09:50.576,0:09:52.828 att fördelarna för mänskligheten 0:09:52.828,0:09:55.453 av att ha emotionellt intelligent teknik 0:09:55.453,0:09:59.169 mer än väl uppväger konsekvenserna[br]av felaktig användning. 0:09:59.169,0:10:01.700 Och jag bjuder in er alla[br]att ta del i diskussionen. 0:10:01.700,0:10:04.154 Ju fler människor[br]som känner till den här tekniken, 0:10:04.154,0:10:07.661 desto mer kan vi uttrycka åsikter[br]om hur den ska användas. 0:10:09.081,0:10:13.655 Så när allt fler delar[br]av våra liv blir digitala 0:10:13.655,0:10:17.323 utkämpar vi en ojämn kamp för att begränsa[br]användningen av digitala enheter 0:10:17.323,0:10:19.952 och kunna återta våra känslor. 0:10:20.622,0:10:24.536 Vad jag istället försöker göra[br]är att föra in känslorna i tekniken 0:10:24.536,0:10:26.765 och göra vår teknik mer lyhörd. 0:10:26.765,0:10:29.435 Jag vill att maskinerna[br]som har separerat oss 0:10:29.435,0:10:32.147 ska föra oss samman igen. 0:10:32.147,0:10:36.485 Och genom att göra tekniken mer human[br]har vi ett gyllene tillfälle 0:10:36.485,0:10:39.782 att tänka om hur vi umgås med maskiner, 0:10:39.782,0:10:44.263 och därmed hur vi som människor 0:10:44.263,0:10:46.167 umgås med varandra. 0:10:46.167,0:10:48.013 Tack. 0:10:48.013,0:10:51.010 (Applåder)