Return to Video

Curly fries gåta: Varför "gillningar" på sociala medier säger mer än vad du tror

  • 0:01 - 0:03
    Om du minns internets första decennium,
  • 0:03 - 0:05
    så var det ett väldigt stelt ställe.
  • 0:05 - 0:07
    Man kunde koppla upp sig,
    besöka webbsidor,
  • 0:07 - 0:10
    och dessa sattes upp
    av antingen organisationer
  • 0:10 - 0:11
    som hade folk som gjorde det
  • 0:11 - 0:13
    eller av teknikkunniga individer
  • 0:13 - 0:15
    vid den tiden.
  • 0:15 - 0:17
    Och med sociala mediers ökning
  • 0:17 - 0:19
    och sociala nätverk under tidigt 2000-tal,
  • 0:19 - 0:22
    förändrades internet
    helt och hållet till en plats
  • 0:22 - 0:26
    där majoriteten av innehållet
    som vi använder
  • 0:26 - 0:28
    läggs upp av vanliga användare,
  • 0:28 - 0:31
    antingen med Youtube-videor
    eller blogginlägg
  • 0:31 - 0:34
    eller produktrecensioner
    eller inlägg på sociala medier.
  • 0:34 - 0:37
    Det har också blivit
    en mycket mer interaktiv plats,
  • 0:37 - 0:39
    där folk interagerar med varandra,
  • 0:39 - 0:41
    de kommenterar, de delar,
  • 0:41 - 0:43
    de läser inte bara.
  • 0:43 - 0:45
    Facebook är inte den enda plats
    där man gör detta
  • 0:45 - 0:46
    men den är störst
  • 0:46 - 0:47
    och kan illustrera siffrorna.
  • 0:47 - 0:51
    Facebook har 1,2 miljarder
    användare per månad.
  • 0:51 - 0:53
    Så halva jordens internetbefolkning
  • 0:53 - 0:54
    använder Facebook.
  • 0:54 - 0:56
    De är en webbplats
    som tillsammans med andra
  • 0:56 - 1:00
    har möjliggjort för folk
    att skapa sig en onlineidentitet
  • 1:00 - 1:02
    med väldigt begränsade teknikkunskaper,
  • 1:02 - 1:04
    och folk svarade med att lägga upp enormt
  • 1:04 - 1:06
    mycket personlig information online.
  • 1:06 - 1:08
    Så resultatet är att vi har behovsmässig,
  • 1:08 - 1:10
    preferensmässig och demografisk data
  • 1:10 - 1:12
    för hundratals miljoner människor,
  • 1:12 - 1:14
    vilket inte tidigare funnits i historien.
  • 1:14 - 1:17
    För en datorforskare som mig
    betyder detta att
  • 1:17 - 1:19
    jag har kunnat bygga modeller
  • 1:19 - 1:21
    som kan förutse många gömda attribut
  • 1:21 - 1:23
    om alla er som ni inte ens visste
  • 1:23 - 1:25
    att ni delar mer er information om.
  • 1:25 - 1:28
    Som forskare använder vi det för
    att förbättra sättet
  • 1:28 - 1:30
    som folk interagerar på nätet,
  • 1:30 - 1:32
    men det finns applikationer
    som är mindre osjälviska
  • 1:32 - 1:35
    och det är ett problem
    att användarna inte riktigt
  • 1:35 - 1:37
    förstår dessa tekniker
    och hur de fungerar,
  • 1:37 - 1:40
    och även om de gjorde det,
    har de inte så stor kontroll över det.
  • 1:40 - 1:42
    Det jag vill prata med er om idag
  • 1:42 - 1:45
    handlar om de saker
    vi har en möjlighet att göra,
  • 1:45 - 1:47
    och sen ge oss några idéer
    om hur vi kan röra oss mot
  • 1:47 - 1:50
    att ge tillbaka kontrollen
    till användarna.
  • 1:50 - 1:52
    Detta är Target, ett företag.
  • 1:52 - 1:53
    Jag satte inte det emblemet
  • 1:53 - 1:55
    på denna stackars gravida kvinnans mage.
  • 1:55 - 1:58
    Du kanske har sett anekdoten
    som publicerades i Forbes
  • 1:58 - 2:00
    där Target skickade ett flygblad
  • 2:00 - 2:02
    till en 15-årig flicka
  • 2:02 - 2:03
    med reklam och kuponger
  • 2:03 - 2:06
    för nappflaskor, blöjor och spjälsängar
  • 2:06 - 2:08
    två veckor innan hon berättat
    för sina föräldrar
  • 2:08 - 2:09
    att hon var gravid.
  • 2:09 - 2:12
    Ja, pappan var väldigt upprörd.
  • 2:12 - 2:14
    Han sa, "Hur listade Target ut
  • 2:14 - 2:16
    att denna gymnasietjejen var gravid
  • 2:16 - 2:18
    innan hon berättade för sina föräldrar?".
  • 2:18 - 2:20
    Det visade sig att de hade köphistoriken
  • 2:20 - 2:22
    för tiotusentals kvinnor
  • 2:22 - 2:25
    och beräknat, som de kallar det,
    en graviditetspoäng,
  • 2:25 - 2:28
    vilket inte bara räknar ut
    om kvinnan är gravid,
  • 2:28 - 2:29
    utan också när barnet kommer.
  • 2:29 - 2:31
    De räknar inte ut det
  • 2:31 - 2:32
    bara genom att se på det uppenbara,
  • 2:32 - 2:35
    som att hon köper en spjälsäng
    eller barnkläder,
  • 2:35 - 2:38
    utan saker som att hon köpt mer vitaminer
  • 2:38 - 2:39
    än vanligt
  • 2:39 - 2:41
    eller att hon en handväska
  • 2:41 - 2:43
    som är stor nog att rymma blöjor.
  • 2:43 - 2:45
    Och för sig själva verkar inte dessa inköp
  • 2:45 - 2:47
    avslöja särskilt mycket
  • 2:47 - 2:49
    men det är ett beteendemönster, så när
  • 2:49 - 2:52
    man sätter det i samma kontext
    som tusentals andra,
  • 2:52 - 2:55
    börjar det visa ett antal insikter.
  • 2:55 - 2:57
    Det är den sortens saker vi gör
  • 2:57 - 2:59
    när vi förutser saker om dig
    på sociala medier.
  • 2:59 - 3:02
    Vi letar efter små beteendemönster,
  • 3:02 - 3:05
    som visar sig bland miljontals människor,
  • 3:05 - 3:07
    som låter oss få reda på
    alla möjliga saker.
  • 3:07 - 3:09
    I mitt labb och med kollegor,
  • 3:09 - 3:11
    har vi utvecklat mekanismer som låter oss
  • 3:11 - 3:13
    förutsäga saker rätt precist
  • 3:13 - 3:14
    som dina politiska preferenser
  • 3:14 - 3:18
    din personlighetstyp, kön,
    sexuell läggning,
  • 3:18 - 3:21
    religion, ålder, intelligens,
  • 3:21 - 3:22
    tillsammans med saker som
  • 3:22 - 3:24
    hur mycket du litar på dina medmänniskor
  • 3:24 - 3:26
    och hur starka dessa relationer är.
  • 3:26 - 3:28
    Vi kan göra allt detta väldigt väl.
  • 3:28 - 3:30
    Återigen, det kommer inte från vad ni tror
  • 3:30 - 3:32
    är uppenbara saker.
  • 3:32 - 3:34
    Mitt favoritexempel från en studie
  • 3:34 - 3:36
    som publicerades i år
  • 3:36 - 3:37
    i Proceedings of the National Academies.
  • 3:37 - 3:39
    Om du googlar så hittar du den.
  • 3:39 - 3:41
    Den är på fyra sidor och lättläst.
  • 3:41 - 3:42
    De såg bara
  • 3:42 - 3:44
    på folks gillningar på Facebook,
  • 3:44 - 3:45
    så bara de saker man gillar på Facebook,
  • 3:45 - 3:48
    och använde det
    för att förutse alla attribut
  • 3:48 - 3:49
    tillsammans med andra saker.
  • 3:49 - 3:52
    Och i deras text listade de
    de fem gillningarna
  • 3:52 - 3:55
    som bäst indikerade hög intelligens.
  • 3:55 - 3:57
    Bland dessa fanns en sida
  • 3:57 - 3:59
    om curly fries. (Skratt)
  • 3:59 - 4:01
    Curly fries är jättegoda,
  • 4:01 - 4:04
    men att gilla dem
    betyder inte nödvändigtvis
  • 4:04 - 4:06
    att du är smartare än en
    genomsnittlig person.
  • 4:06 - 4:09
    Hur kommer det sig
    att en av de starkaste indikationerna
  • 4:09 - 4:11
    på ens intelligens
  • 4:11 - 4:12
    är att gilla denna sida
  • 4:12 - 4:14
    med innehåll som är totalt irrelevant
  • 4:14 - 4:17
    för attributet som förutses?
  • 4:17 - 4:19
    Och det visar sig att vi måste se
  • 4:19 - 4:20
    till en massa bakomliggande teorier
  • 4:20 - 4:23
    för att se hur vi kan göra detta.
  • 4:23 - 4:26
    En av dem är en sociologisk teori
    som kallas homofili,
  • 4:26 - 4:29
    vilket betyder att folk är vänner
    med folk som liknar dem själva.
  • 4:29 - 4:32
    Så om du är smart känner du ofta
    andra smarta människor
  • 4:32 - 4:34
    och om du är ung
    känner du ofta unga människor
  • 4:34 - 4:36
    och detta är etablerat sen
  • 4:36 - 4:37
    hundratals år tillbaka.
  • 4:37 - 4:38
    Vi vet också mycket om
  • 4:38 - 4:41
    hur information sprids genom nätverk.
  • 4:41 - 4:42
    Det visar sig att virala videos
  • 4:42 - 4:45
    eller Facebookgillningar
    eller annan information
  • 4:45 - 4:47
    sprider som på exakt samma sätt
  • 4:47 - 4:49
    som sjukdomar sprider sig
    genom sociala nätverk.
  • 4:49 - 4:51
    Detta har vi studerat länge.
  • 4:51 - 4:52
    Vi har bra modeller för det.
  • 4:52 - 4:55
    Och man kan sätta ihop saker
  • 4:55 - 4:58
    och börja se varför såna här saker händer.
  • 4:58 - 4:59
    Om jag ger er en hypotes,
  • 4:59 - 5:03
    skulle det vara att en smart kille
    startade den här sidan,
  • 5:03 - 5:05
    eller kanske att en av de första
    som gillade sidan
  • 5:05 - 5:07
    hade fått bra resultat på testet.
  • 5:07 - 5:09
    Och de gillade det,
    deras vänner såg det,
  • 5:09 - 5:12
    och genom homofili vet vi
    att han förmodligen hade smarta vänner,
  • 5:12 - 5:14
    och så spreds det till dem,
    vissa av dem gillade det,
  • 5:14 - 5:17
    och de hade smarta vänner
    och det spreds vidare,
  • 5:17 - 5:19
    och så fortplanade det sig
    genom nätverket
  • 5:19 - 5:21
    till en samling smarta människor
  • 5:21 - 5:23
    så till slut blev
  • 5:23 - 5:26
    gillandet av curly fries-sidan
  • 5:26 - 5:28
    en indikation på hög intelligens,
  • 5:28 - 5:29
    inte på grund av innehållet,
  • 5:29 - 5:32
    utan för att själva gillningen
  • 5:32 - 5:34
    reflekterar vanliga attribut
  • 5:34 - 5:36
    hos andra som har gjort det.
  • 5:36 - 5:39
    Det är rätt komplicerade saker, eller hur?
  • 5:39 - 5:41
    Det är svårt att sätta sig och förklara
  • 5:41 - 5:44
    för en typisk användare,
    och även om man gör det,
  • 5:44 - 5:45
    vad kan den medelanvändaren
  • 5:45 - 5:47
    göra åt det?
  • 5:47 - 5:48
    Hur vet du att du gillat något
  • 5:48 - 5:50
    som indikerar ett av dina drag
  • 5:50 - 5:53
    som är helt irrelevant
    för innehållet du gillar?
  • 5:53 - 5:56
    Det finns mycket makt
    som användaren inte har
  • 5:56 - 5:58
    för att kontrollera hur datan används.
  • 5:58 - 6:01
    Och jag ser det som
    ett stort problem i framtiden.
  • 6:01 - 6:03
    Jag tror det finns ett par vägar
  • 6:03 - 6:04
    som borde kolla på
  • 6:04 - 6:06
    om vi vill ge användarna kontroll
  • 6:06 - 6:08
    över hur datan används,
  • 6:08 - 6:10
    för det kommer inte alltid att användas
  • 6:10 - 6:11
    till deras fördel.
  • 6:11 - 6:13
    Ett exempel jag ofta ger
  • 6:13 - 6:15
    är att om jag någonsin tröttnar på
    att vara professor
  • 6:15 - 6:17
    kommer jag starta ett företag
  • 6:17 - 6:18
    som förutser alla attribut
  • 6:18 - 6:20
    och saker som hur du jobbar i grupp
  • 6:20 - 6:22
    och om du är drogmissbrukare
    eller alkoholist.
  • 6:22 - 6:24
    Vi vet hur vi ska förutse allt det.
  • 6:24 - 6:25
    Och jag ska sälja rapporter
  • 6:25 - 6:27
    till försäkringsbolag och storföretag
  • 6:27 - 6:29
    som vill anställa dig.
  • 6:29 - 6:31
    Vi kan göra det nu.
  • 6:31 - 6:32
    Jag kan starta företaget imorgon,
  • 6:32 - 6:34
    och du skulle inte ha någon kontroll
  • 6:34 - 6:36
    över hur jag använder datan.
  • 6:36 - 6:39
    Det verkar för mig vara ett stort problem.
  • 6:39 - 6:41
    En av vägarna vi kan gå
  • 6:41 - 6:43
    är politikens och lagens väg.
  • 6:43 - 6:46
    I vissa avseenden tror jag
    att det skulle vara det mest effektiva,
  • 6:46 - 6:49
    men problemet är att vi faktiskt
    skulle behöva göra det.
  • 6:49 - 6:51
    Att se hur vår politiska process fungerar
  • 6:51 - 6:54
    får mig att tro
    att det är högst osannolikt
  • 6:54 - 6:55
    att vi kommer få en massa folkvalda
  • 6:55 - 6:57
    att sätta sig ner och lära sig om detta,
  • 6:57 - 6:59
    och sedan få igenom avgörande förändringar
  • 6:59 - 7:02
    på immaterialrättens lag i USA
  • 7:02 - 7:04
    så att användarna får kontroll
    över sin data.
  • 7:04 - 7:05
    Vi kan gå politikens väg,
  • 7:05 - 7:07
    där företag inom sociala medier säger
  • 7:07 - 7:09
    "Vet du vad? Du äger din data.
  • 7:09 - 7:11
    Du har kontroll över hur den används".
  • 7:11 - 7:13
    Problemet är att intäktsmodellerna
  • 7:13 - 7:15
    för flertalet företag inom sociala medier
  • 7:15 - 7:18
    baserar sig på att dela eller utnyttja
    användarnas data på något sätt.
  • 7:18 - 7:20
    Det påstås ibland
    om Facebook att användaren
  • 7:20 - 7:23
    inte är kunden, utan de är varan.
  • 7:23 - 7:25
    Hur får man ett företag
  • 7:25 - 7:28
    att ge tillbaka kontrollen
    över sin främsta tillgång
  • 7:28 - 7:29
    till användarna?
  • 7:29 - 7:31
    Det är möjligt, men jag tror inte att
  • 7:31 - 7:33
    det kommer ändras särskilt snabbt.
  • 7:33 - 7:35
    Jag tror att den andra vägen
  • 7:35 - 7:37
    vi kan gå som är mer effektiv
  • 7:37 - 7:38
    är en väg med mer vetenskap.
  • 7:38 - 7:41
    Det är genom vetenskapen
    som vi kan utveckla
  • 7:41 - 7:43
    alla dessa mekanismer för beräkningar
  • 7:43 - 7:45
    av personliga data från första början.
  • 7:45 - 7:48
    Undersökningarna är faktiskt
    väldigt lika de som vi måste göra
  • 7:48 - 7:51
    om vi vill utveckla mekanismer
  • 7:51 - 7:52
    som kan säga till användaren,
  • 7:52 - 7:55
    "Det här är risken
    med den handling du nyss begick".
  • 7:55 - 7:57
    Genom att gilla den där Facebooksidan
  • 7:57 - 7:59
    eller genom att dela en del
    personlig information,
  • 7:59 - 8:01
    har du förbättrat
    min möjlighet att förutse
  • 8:01 - 8:03
    om du använder droger eller inte
  • 8:03 - 8:06
    eller om du kommer bra överens
    med folk på jobbet eller inte.
  • 8:06 - 8:07
    Det tror jag kan påverka
  • 8:07 - 8:09
    om folk vill dela något,
  • 8:09 - 8:12
    hålla det för sig själv, eller bara
    vara offline helt och hållet.
  • 8:12 - 8:14
    Vi kan också kika på saker som
  • 8:14 - 8:16
    att låta folk kryptera uppladdade data,
  • 8:16 - 8:18
    så det är osynligt och värdelöst
  • 8:18 - 8:20
    för webbplatser som Facebook
  • 8:20 - 8:22
    eller tredjepartstjänster
    som använder det,
  • 8:22 - 8:26
    men den utvalda personen
    som valts av uppladdaren
  • 8:26 - 8:28
    kommer att ha möjlighet att se det.
  • 8:28 - 8:30
    Detta är superspännande forskning
  • 8:30 - 8:32
    från ett intellektuellt perspektiv,
  • 8:32 - 8:34
    och forskare kommer vilja göra det.
  • 8:34 - 8:37
    Det ger oss ett övertag över lagsidan.
  • 8:37 - 8:39
    Ett av problemen som folk tar upp
  • 8:39 - 8:41
    när jag pratar om detta är,
  • 8:41 - 8:43
    "Du vet, om folk börjar hålla
    all data privat, så kommer
  • 8:43 - 8:45
    alla metoder som du utvecklat
  • 8:45 - 8:48
    som förutser deras karaktärsdrag
    att misslyckas."
  • 8:48 - 8:52
    Då säger jag "Absolut,
    och för mig är det en succé",
  • 8:52 - 8:53
    för som forskare
  • 8:53 - 8:57
    är mitt mål inte att få tag på
    information om användarna,
  • 8:57 - 9:00
    utan att förbättra interaktionen
    mellan folk online.
  • 9:00 - 9:03
    Och ibland innebär det
    att dra slutsatser om dem,
  • 9:03 - 9:06
    men om användare inte vill ge mig
    tillgång till den informationen,
  • 9:06 - 9:08
    tycker jag att de har rätt att göra det.
  • 9:08 - 9:11
    Jag vill att användare ska vara
    informerade och samtyckande
  • 9:11 - 9:13
    användare av verktygen som vi utvecklar.
  • 9:13 - 9:16
    Och jag tycker att vi
    genom att uppmuntra denna sorts vetenskap
  • 9:16 - 9:17
    och att stötta forskare
  • 9:17 - 9:20
    som vill ge tillbaka kontrollen
    till användarna
  • 9:20 - 9:23
    från företagen inom sociala medier
  • 9:23 - 9:25
    betyder att vi går framåt
    när dessa verktyg utvecklas
  • 9:25 - 9:27
    och går framåt,
  • 9:27 - 9:28
    och vi kommer få en utbildad
  • 9:28 - 9:30
    och kraftfull användarbas,
  • 9:30 - 9:34
    och jag tror vi är överens om
    att det är rätt väg att gå framåt.
  • 9:34 - 9:35
    Tack.
  • 9:35 - 9:38
    (Applåder)
Title:
Curly fries gåta: Varför "gillningar" på sociala medier säger mer än vad du tror
Speaker:
Jennifer Golbeck
Description:

Tycker du om curly fries? Har du gillat dem på Facebook? Se detta tal för att få reda på de överraskande sakerna som Facebook (och andra) kan gissa sig till om dig från dina slumpmässiga gillningar och delningar. Datorforskaren Jennifer Golbeck förklarar hur detta kommer sig, på vilket sätt vissa applikationer inte är så snälla, och varför hon tycker att vi ska ge tillbaka kontrollen över informationen till de rättmätiga ägarna.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Swedish subtitles

Revisions Compare revisions