Return to Video

Appen som vet hur du mår genom att tolka ditt ansikte

  • 0:01 - 0:04
    Våra känslor påverkar
    varje del av våra liv
  • 0:04 - 0:08
    från vår hälsa och hur vi lär oss,
    till hur vi gör affärer och fattar beslut,
  • 0:08 - 0:10
    stora som små.
  • 0:11 - 0:14
    Våra känslor påverkar också
    hur vi knyter an till varandra.
  • 0:15 - 0:19
    Vi har utvecklats för att leva
    i en sån här värld,
  • 0:19 - 0:23
    men nu lever vi istället
    mer och mer såna här liv -
  • 0:23 - 0:27
    det här är ett sms som jag fick
    från min dotter igår kväll -
  • 0:27 - 0:29
    i en värld som är tömd på känslor.
  • 0:29 - 0:31
    Jag ser som mitt uppdrag att förändra det.
  • 0:31 - 0:35
    Jag vill föra tillbaka känslorna
    i våra digitala upplevelser.
  • 0:36 - 0:39
    Jag började med det för 15 år sen.
  • 0:39 - 0:41
    Jag var dataingenjör i Egypten
  • 0:41 - 0:43
    och hade just blivit antagen
  • 0:43 - 0:46
    till en forskarutbildning
    vid Cambridge University.
  • 0:46 - 0:48
    Jag gjorde något ganska ovanligt
  • 0:48 - 0:52
    för att vara en ung nygift
    muslimsk egyptisk fru:
  • 0:54 - 0:57
    Med stöd från min man
    som blev tvungen att stanna i Egypten
  • 0:57 - 1:00
    packade jag mina väskor
    och flyttade till England.
  • 1:00 - 1:03
    I Cambridge, tusentals kilometer hemifrån,
  • 1:03 - 1:06
    insåg jag att jag tillbringade
    fler timmar med min laptop
  • 1:06 - 1:08
    än jag gjorde med någon människa.
  • 1:08 - 1:13
    Trots detta nära band visste inte datorn
    något om hur jag kände mig.
  • 1:13 - 1:16
    Den visste inte om jag var glad,
  • 1:16 - 1:20
    om jag hade en dålig dag,
    eller var stressad, förvirrad,
  • 1:20 - 1:22
    och det blev frustrerande.
  • 1:24 - 1:29
    Ännu värre var det när jag kommunicerade
    med min familj därhemma, och kände
  • 1:29 - 1:33
    att mina känslor försvann i cyberrymden.
  • 1:33 - 1:38
    Jag längtade hem, jag kände mig ensam,
    och vissa dagar grät jag,
  • 1:38 - 1:43
    men allt jag kunde använda
    för att kommunicera känslorna var den här.
  • 1:43 - 1:45
    (Skratt)
  • 1:45 - 1:50
    Dagens teknik har mycket IQ, men ingen EQ;
  • 1:50 - 1:53
    hög kognitiv intelligens
    men ingen emotionell intelligens.
  • 1:53 - 1:55
    Det fick mig att börja fundera på
  • 1:55 - 1:59
    hur det skulle bli om vår teknik
    skulle kunna känna av våra känslor?
  • 1:59 - 2:03
    Om våra maskiner kunde känna av vårt humör
    och bete sig i enlighet med det,
  • 2:03 - 2:06
    som en emotionellt intelligent vän?
  • 2:07 - 2:10
    De här frågorna gjorde
    att jag och mitt team
  • 2:10 - 2:15
    började skapa teknik som kan läsa av
    och reagera på våra känslor,
  • 2:15 - 2:18
    och vi började med det mänskliga ansiktet.
  • 2:19 - 2:22
    Det mänskliga ansiktet råkar vara
    en av de bästa kanaler
  • 2:22 - 2:26
    som vi använder för att kommunicera
    sociala och känslomässiga tillstånd,
  • 2:26 - 2:29
    allt från njutning, överraskning,
  • 2:29 - 2:33
    empati och nyfikenhet.
  • 2:33 - 2:38
    Inom känslovetenskap kallas en rörelse
    hos en ansiktsmuskel för "aktiv enhet".
  • 2:38 - 2:41
    Den tolfte aktiva enheten
  • 2:41 - 2:43
    är inte en toppfilm från Hollywood
  • 2:43 - 2:46
    utan en uppdragen mungipa,
    vilket är huvudkomponenten i ett leende.
  • 2:46 - 2:49
    Prova det allihop. Nu ler vi lite.
  • 2:49 - 2:51
    Ett annat exempel
    är fjärde aktiva enheten.
  • 2:51 - 2:54
    Det är när man drar ihop ögonbrynen
  • 2:54 - 2:56
    och får den här ytan och rynkorna.
  • 2:56 - 3:00
    Vi tycker inte om dem, men det är
    en stark indikator på en negativ känsla.
  • 3:00 - 3:03
    Vi har ungefär 45 aktiva enheter,
  • 3:03 - 3:06
    och de kan kombineras
    för att uttrycka hundratals känslor.
  • 3:06 - 3:10
    Att lära en dator att läsa av
    känslouttryck i ansiktet är svårt,
  • 3:10 - 3:13
    för de aktiva enheterna
    kan vara snabba och subtila
  • 3:13 - 3:15
    och de går att kombinera
    på många olika sätt.
  • 3:15 - 3:20
    Ta till exempel leendet och hånflinet.
  • 3:20 - 3:23
    De ser ganska lika ut,
    men de betyder helt olika saker.
  • 3:23 - 3:25
    (Skratt)
  • 3:25 - 3:27
    Ett leende är positivt,
  • 3:27 - 3:29
    ett flin är ofta negativt.
  • 3:29 - 3:33
    Ibland kan ett flin göra en känd.
  • 3:33 - 3:36
    Men trots allt är det viktigt
    för en dator att kunna
  • 3:36 - 3:38
    se skillnad mellan de här två uttrycken.
  • 3:38 - 3:40
    Hur gör vi det?
  • 3:40 - 3:42
    Vi ger våra algoritmer
  • 3:42 - 3:47
    tiotusentals exempel
    av människor som vi vet ler,
  • 3:47 - 3:50
    med olika etnisk bakgrund, ålder, kön,
  • 3:50 - 3:52
    och vi gör samma sak för flin.
  • 3:52 - 3:54
    Och genom maskininlärning
  • 3:54 - 3:57
    letar algoritmen
    efter såna här ytor och rynkor
  • 3:57 - 3:59
    och formändringar i vårt ansikte
  • 3:59 - 4:03
    och lär sig helt enkelt att alla leenden
    har egenskaper gemensamt,
  • 4:03 - 4:06
    medan alla flin har
    något annorlunda egenskaper.
  • 4:06 - 4:08
    Och nästa gång den ser ett nytt ansikte
  • 4:08 - 4:10
    märker den att
  • 4:10 - 4:14
    det här ansiktet har samma egenskaper
    som ett leende ansikte och den säger:
  • 4:14 - 4:17
    "Aha, jag känner igen det här.
    Det är ett leende uttryck."
  • 4:18 - 4:21
    Det bästa sättet att visa
    hur tekniken fungerar
  • 4:21 - 4:23
    är genom en livedemo,
  • 4:23 - 4:27
    så jag behöver en frivillig,
    helst någon med ett ansikte.
  • 4:27 - 4:30
    (Skratt)
  • 4:30 - 4:32
    Cloe blir vår frivilliga idag.
  • 4:33 - 4:38
    De senaste fem åren har vi utvecklats
    från att vara ett projekt på MIT
  • 4:38 - 4:39
    till att bli ett företag,
  • 4:39 - 4:42
    där mitt team har jobbat mycket hårt
    för att få tekniken att fungera,
  • 4:42 - 4:45
    som vi säger, i naturen.
  • 4:45 - 4:47
    Vi har också krympt den
    så att känslomotorn
  • 4:47 - 4:51
    fungerar i alla mobila enheter
    med kamera, som den här iPaden.
  • 4:51 - 4:53
    Vi testar.
  • 4:55 - 4:59
    Som ni kan se har algoritmen
    hittat Cloes ansikte,
  • 4:59 - 5:00
    det är den här vita inramande rutan,
  • 5:00 - 5:03
    och den spårar
    huvudpunkterna i hennes ansikte,
  • 5:03 - 5:06
    hennes ögonbryn, ögon, mun och näsa.
  • 5:06 - 5:09
    Frågan är, kan den läsa av hennes uttryck?
  • 5:09 - 5:10
    Vi ska testa maskinen.
  • 5:10 - 5:14
    Först av allt, ge mig ett pokerfejs.
    Ja, jättebra. (Skratt)
  • 5:14 - 5:17
    Och när hon sen ler
    är det ett riktigt leende, det är fint.
  • 5:17 - 5:20
    Ni kan se att den gröna stapeln
    går upp när hon ler.
  • 5:20 - 5:21
    Det var ett stort leende.
  • 5:21 - 5:24
    Kan du prova ett litet leende
    och se om datorn kan känna igen det?
  • 5:24 - 5:26
    Den känner igen småleenden också.
  • 5:26 - 5:28
    Vi har jobbat hårt
    för att det ska fungera.
  • 5:28 - 5:31
    Och sen höjda ögonbryn,
    ett tecken på förvåning.
  • 5:31 - 5:35
    Rynkade ögonbryn, vilket är
    ett tecken på förvirring.
  • 5:36 - 5:40
    Rynka pannan. Ja, perfekt.
  • 5:40 - 5:43
    Det är de olika aktiva enheterna.
    Det finns många fler.
  • 5:43 - 5:45
    Det här är bara en förenklad demo.
  • 5:45 - 5:48
    Vi kallar varje avläsning
    för en emotionell datapunkt,
  • 5:48 - 5:51
    och de kan aktiveras tillsammans
    för att visa olika känslor.
  • 5:51 - 5:56
    Så på högra sidan - se glad ut.
  • 5:56 - 5:57
    Det är lycka. Lycka lyser upp.
  • 5:57 - 5:59
    Ge mig sen en min av avsmak.
  • 5:59 - 6:04
    Försök minnas hur det var
    när Zayn lämnade One Direction.
  • 6:04 - 6:05
    (Skratt)
  • 6:05 - 6:09
    Ja, rynka näsan. Perfekt.
  • 6:09 - 6:13
    Och uttrycket är starkt negativt,
    så du måste ha varit ett stort fan.
  • 6:13 - 6:16
    Värde är hur positiv
    eller negativ en upplevelse är,
  • 6:16 - 6:19
    och engagemang är hur uttrycksfull hon är.
  • 6:19 - 6:22
    Tänk er att Cloe hade tillgång
    till den här känsloströmmen i realtid,
  • 6:22 - 6:25
    och kunde dela den med vem hon ville.
  • 6:25 - 6:27
    Tack.
  • 6:27 - 6:30
    (Applåder)
  • 6:34 - 6:39
    Så här långt har vi samlat in
    12 miljarder såna här datapunkter.
  • 6:39 - 6:41
    Det är den största databasen
    för känslor i världen.
  • 6:41 - 6:44
    Vi har samlat in den
    från 2,9 miljoner filmer på ansikten,
  • 6:44 - 6:47
    människor som har gått med på
    att dela sina känslor med oss,
  • 6:47 - 6:50
    från 75 länder i världen.
  • 6:50 - 6:52
    Det blir fler och fler varje dag.
  • 6:53 - 6:55
    Det känns fantastiskt
  • 6:55 - 6:58
    att vi nu kan kvantifiera
    något så personligt som våra känslor,
  • 6:58 - 7:00
    och vi kan göra det i den här skalan.
  • 7:00 - 7:02
    Vad har vi då lärt oss så här långt?
  • 7:03 - 7:05
    Kön.
  • 7:05 - 7:09
    Vår data bekräftar något
    som du kanske misstänker.
  • 7:09 - 7:11
    Kvinnor är mer uttrycksfulla än män.
  • 7:11 - 7:14
    De inte bara ler mer,
    deras leenden pågår längre,
  • 7:14 - 7:16
    och vi kan nu verkligen mäta
    vad det är som män och kvinnor
  • 7:16 - 7:19
    reagerar olika på.
  • 7:19 - 7:20
    Om vi tittar på kultur:
  • 7:20 - 7:24
    I USA är kvinnor 40 procent
    mer uttrycksfulla än män,
  • 7:24 - 7:28
    men lustigt nog ser vi ingen skillnad
    mellan män och kvinnor i Storbritannien.
  • 7:28 - 7:31
    (Skratt)
  • 7:31 - 7:35
    Ålder: Människor som är 50 år och äldre
  • 7:35 - 7:39
    är 25 procent mer emotionella
    än unga människor.
  • 7:40 - 7:44
    Kvinnor i 20-årsåldern ler mycket mer
    än män i samma ålder,
  • 7:44 - 7:48
    kanske är det nödvändigt vid dejter.
  • 7:48 - 7:50
    Men det som förvånade oss mest
  • 7:50 - 7:53
    är att vi uttrycker oss hela tiden,
  • 7:53 - 7:56
    även när vi sitter ensamma
    framför våra skärmar,
  • 7:56 - 8:00
    och det är inte bara
    när vi tittar på kattvideos på Facebook.
  • 8:00 - 8:03
    Vi är uttycksfulla när vi skickar e-post,
    textmeddelanden, handlar online,
  • 8:03 - 8:06
    till och med när vi deklarerar.
  • 8:06 - 8:08
    Var används den här informationen idag?
  • 8:08 - 8:11
    Genom att förstå hur vi interagerar
    med medier kan vi förstå
  • 8:11 - 8:13
    viral budskapsspridning och röstbeteenden
  • 8:13 - 8:16
    och även föra in möjligheten
    till känslouttryck i tekniken,
  • 8:16 - 8:21
    och jag vill dela med mig av några exempel
    som ligger mig speciellt varmt om hjärtat.
  • 8:21 - 8:24
    Känslostyrda glasögon kan hjälpa människor
  • 8:24 - 8:27
    med synnedsättning
    att läsa av andras ansikten,
  • 8:27 - 8:31
    och det kan hjälpa individer
    med autism att tolka känslor,
  • 8:31 - 8:34
    något som de verkligen kämpar med.
  • 8:35 - 8:39
    Inom utbildning,
    tänk dig att dina läroappar
  • 8:39 - 8:41
    känner av att du är förvirrad
    och saktar ner,
  • 8:41 - 8:43
    eller om du är uttråkad kan de öka tempot,
  • 8:43 - 8:46
    precis som en riktigt bra lärare
    skulle göra i klassrummet.
  • 8:47 - 8:50
    Tänk om din armbandsklocka
    kunde mäta hur du mår,
  • 8:50 - 8:52
    eller om din bil kunde veta
    att du var trött,
  • 8:52 - 8:55
    eller kanske din kyl vet om
    att du är stressad,
  • 8:55 - 8:59
    så att den låser sig automatiskt
    för att undvika att du proppar i dig.
  • 8:59 - 9:01
    Det skulle jag vilja ha.
  • 9:01 - 9:03
    (Skratt)
  • 9:04 - 9:06
    Tänk om jag hade hade haft tillgång
  • 9:06 - 9:08
    till mina känslor i realtid i Cambridge,
  • 9:08 - 9:11
    och jag hade kunnat dela den
    med min familj på ett naturligt sätt,
  • 9:11 - 9:15
    på samma sätt som om vi
    hade varit i samma rum tillsammans?
  • 9:15 - 9:18
    Jag tror att om fem år
  • 9:18 - 9:21
    kommer våra enheter att ha ett känslochip
  • 9:21 - 9:25
    och vi kommer inte att minnas hur det var
    när vi inte kunde rynka pannan åt maskinen
  • 9:25 - 9:29
    och den sa "Hmm,
    det där gillade du inte va?"
  • 9:29 - 9:33
    Vår största utmaning är att det finns
    så många tillämpningar för tekniken,
  • 9:33 - 9:36
    så jag och mitt team inser
    att vi inte kan bygga alla själva,
  • 9:36 - 9:39
    så vi har gjort tekniken tillgänglig
    så att andra utvecklare
  • 9:39 - 9:41
    kan börja skapa på ett kreativt sätt.
  • 9:41 - 9:46
    Vi inser att det finns potientiella risker
  • 9:46 - 9:48
    och möjligheter till missbruk,
  • 9:48 - 9:51
    men jag tror, efter att ha
    använt detta i många år,
  • 9:51 - 9:53
    att fördelarna för mänskligheten
  • 9:53 - 9:55
    av att ha emotionellt intelligent teknik
  • 9:55 - 9:59
    mer än väl uppväger konsekvenserna
    av felaktig användning.
  • 9:59 - 10:02
    Och jag bjuder in er alla
    att ta del i diskussionen.
  • 10:02 - 10:04
    Ju fler människor
    som känner till den här tekniken,
  • 10:04 - 10:08
    desto mer kan vi uttrycka åsikter
    om hur den ska användas.
  • 10:09 - 10:14
    Så när allt fler delar
    av våra liv blir digitala
  • 10:14 - 10:17
    utkämpar vi en ojämn kamp för att begränsa
    användningen av digitala enheter
  • 10:17 - 10:20
    och kunna återta våra känslor.
  • 10:21 - 10:25
    Vad jag istället försöker göra
    är att föra in känslorna i tekniken
  • 10:25 - 10:27
    och göra vår teknik mer lyhörd.
  • 10:27 - 10:29
    Jag vill att maskinerna
    som har separerat oss
  • 10:29 - 10:32
    ska föra oss samman igen.
  • 10:32 - 10:36
    Och genom att göra tekniken mer human
    har vi ett gyllene tillfälle
  • 10:36 - 10:40
    att tänka om hur vi umgås med maskiner,
  • 10:40 - 10:44
    och därmed hur vi som människor
  • 10:44 - 10:46
    umgås med varandra.
  • 10:46 - 10:48
    Tack.
  • 10:48 - 10:51
    (Applåder)
Title:
Appen som vet hur du mår genom att tolka ditt ansikte
Speaker:
Rana el Kaliouby
Description:

Våra känslor påverkar varje del av våra liv – hur vi lär oss saker, hur vi kommunicerar, hur vi fattar beslut. Ändå finns de inte i våra digitala liv; de enheter och appar vi interagerar med vet inte hur vi känner oss. Forskaren Rana el Kaliouby vill ändra på det. Hon visar en kraftfull ny teknik som läser av ansiktuttryck och kopplar dem mot motsvarande känslor. Den här "känslomotorn" får stora konsekvenser, säger hon, och skulle kunna ändra inte bara hur vi interagerar med maskiner, utan också med varandra.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
11:04

Swedish subtitles

Revisions