Curly fries gåta: Varför "gillningar" på sociala medier säger mer än vad du tror
-
0:01 - 0:03Om du minns internets första decennium,
-
0:03 - 0:05så var det ett väldigt stelt ställe.
-
0:05 - 0:07Man kunde koppla upp sig,
besöka webbsidor, -
0:07 - 0:10och dessa sattes upp
av antingen organisationer -
0:10 - 0:11som hade folk som gjorde det
-
0:11 - 0:13eller av teknikkunniga individer
-
0:13 - 0:15vid den tiden.
-
0:15 - 0:17Och med sociala mediers ökning
-
0:17 - 0:19och sociala nätverk under tidigt 2000-tal,
-
0:19 - 0:22förändrades internet
helt och hållet till en plats -
0:22 - 0:26där majoriteten av innehållet
som vi använder -
0:26 - 0:28läggs upp av vanliga användare,
-
0:28 - 0:31antingen med Youtube-videor
eller blogginlägg -
0:31 - 0:34eller produktrecensioner
eller inlägg på sociala medier. -
0:34 - 0:37Det har också blivit
en mycket mer interaktiv plats, -
0:37 - 0:39där folk interagerar med varandra,
-
0:39 - 0:41de kommenterar, de delar,
-
0:41 - 0:43de läser inte bara.
-
0:43 - 0:45Facebook är inte den enda plats
där man gör detta -
0:45 - 0:46men den är störst
-
0:46 - 0:47och kan illustrera siffrorna.
-
0:47 - 0:51Facebook har 1,2 miljarder
användare per månad. -
0:51 - 0:53Så halva jordens internetbefolkning
-
0:53 - 0:54använder Facebook.
-
0:54 - 0:56De är en webbplats
som tillsammans med andra -
0:56 - 1:00har möjliggjort för folk
att skapa sig en onlineidentitet -
1:00 - 1:02med väldigt begränsade teknikkunskaper,
-
1:02 - 1:04och folk svarade med att lägga upp enormt
-
1:04 - 1:06mycket personlig information online.
-
1:06 - 1:08Så resultatet är att vi har behovsmässig,
-
1:08 - 1:10preferensmässig och demografisk data
-
1:10 - 1:12för hundratals miljoner människor,
-
1:12 - 1:14vilket inte tidigare funnits i historien.
-
1:14 - 1:17För en datorforskare som mig
betyder detta att -
1:17 - 1:19jag har kunnat bygga modeller
-
1:19 - 1:21som kan förutse många gömda attribut
-
1:21 - 1:23om alla er som ni inte ens visste
-
1:23 - 1:25att ni delar mer er information om.
-
1:25 - 1:28Som forskare använder vi det för
att förbättra sättet -
1:28 - 1:30som folk interagerar på nätet,
-
1:30 - 1:32men det finns applikationer
som är mindre osjälviska -
1:32 - 1:35och det är ett problem
att användarna inte riktigt -
1:35 - 1:37förstår dessa tekniker
och hur de fungerar, -
1:37 - 1:40och även om de gjorde det,
har de inte så stor kontroll över det. -
1:40 - 1:42Det jag vill prata med er om idag
-
1:42 - 1:45handlar om de saker
vi har en möjlighet att göra, -
1:45 - 1:47och sen ge oss några idéer
om hur vi kan röra oss mot -
1:47 - 1:50att ge tillbaka kontrollen
till användarna. -
1:50 - 1:52Detta är Target, ett företag.
-
1:52 - 1:53Jag satte inte det emblemet
-
1:53 - 1:55på denna stackars gravida kvinnans mage.
-
1:55 - 1:58Du kanske har sett anekdoten
som publicerades i Forbes -
1:58 - 2:00där Target skickade ett flygblad
-
2:00 - 2:02till en 15-årig flicka
-
2:02 - 2:03med reklam och kuponger
-
2:03 - 2:06för nappflaskor, blöjor och spjälsängar
-
2:06 - 2:08två veckor innan hon berättat
för sina föräldrar -
2:08 - 2:09att hon var gravid.
-
2:09 - 2:12Ja, pappan var väldigt upprörd.
-
2:12 - 2:14Han sa, "Hur listade Target ut
-
2:14 - 2:16att denna gymnasietjejen var gravid
-
2:16 - 2:18innan hon berättade för sina föräldrar?".
-
2:18 - 2:20Det visade sig att de hade köphistoriken
-
2:20 - 2:22för tiotusentals kvinnor
-
2:22 - 2:25och beräknat, som de kallar det,
en graviditetspoäng, -
2:25 - 2:28vilket inte bara räknar ut
om kvinnan är gravid, -
2:28 - 2:29utan också när barnet kommer.
-
2:29 - 2:31De räknar inte ut det
-
2:31 - 2:32bara genom att se på det uppenbara,
-
2:32 - 2:35som att hon köper en spjälsäng
eller barnkläder, -
2:35 - 2:38utan saker som att hon köpt mer vitaminer
-
2:38 - 2:39än vanligt
-
2:39 - 2:41eller att hon en handväska
-
2:41 - 2:43som är stor nog att rymma blöjor.
-
2:43 - 2:45Och för sig själva verkar inte dessa inköp
-
2:45 - 2:47avslöja särskilt mycket
-
2:47 - 2:49men det är ett beteendemönster, så när
-
2:49 - 2:52man sätter det i samma kontext
som tusentals andra, -
2:52 - 2:55börjar det visa ett antal insikter.
-
2:55 - 2:57Det är den sortens saker vi gör
-
2:57 - 2:59när vi förutser saker om dig
på sociala medier. -
2:59 - 3:02Vi letar efter små beteendemönster,
-
3:02 - 3:05som visar sig bland miljontals människor,
-
3:05 - 3:07som låter oss få reda på
alla möjliga saker. -
3:07 - 3:09I mitt labb och med kollegor,
-
3:09 - 3:11har vi utvecklat mekanismer som låter oss
-
3:11 - 3:13förutsäga saker rätt precist
-
3:13 - 3:14som dina politiska preferenser
-
3:14 - 3:18din personlighetstyp, kön,
sexuell läggning, -
3:18 - 3:21religion, ålder, intelligens,
-
3:21 - 3:22tillsammans med saker som
-
3:22 - 3:24hur mycket du litar på dina medmänniskor
-
3:24 - 3:26och hur starka dessa relationer är.
-
3:26 - 3:28Vi kan göra allt detta väldigt väl.
-
3:28 - 3:30Återigen, det kommer inte från vad ni tror
-
3:30 - 3:32är uppenbara saker.
-
3:32 - 3:34Mitt favoritexempel från en studie
-
3:34 - 3:36som publicerades i år
-
3:36 - 3:37i Proceedings of the National Academies.
-
3:37 - 3:39Om du googlar så hittar du den.
-
3:39 - 3:41Den är på fyra sidor och lättläst.
-
3:41 - 3:42De såg bara
-
3:42 - 3:44på folks gillningar på Facebook,
-
3:44 - 3:45så bara de saker man gillar på Facebook,
-
3:45 - 3:48och använde det
för att förutse alla attribut -
3:48 - 3:49tillsammans med andra saker.
-
3:49 - 3:52Och i deras text listade de
de fem gillningarna -
3:52 - 3:55som bäst indikerade hög intelligens.
-
3:55 - 3:57Bland dessa fanns en sida
-
3:57 - 3:59om curly fries. (Skratt)
-
3:59 - 4:01Curly fries är jättegoda,
-
4:01 - 4:04men att gilla dem
betyder inte nödvändigtvis -
4:04 - 4:06att du är smartare än en
genomsnittlig person. -
4:06 - 4:09Hur kommer det sig
att en av de starkaste indikationerna -
4:09 - 4:11på ens intelligens
-
4:11 - 4:12är att gilla denna sida
-
4:12 - 4:14med innehåll som är totalt irrelevant
-
4:14 - 4:17för attributet som förutses?
-
4:17 - 4:19Och det visar sig att vi måste se
-
4:19 - 4:20till en massa bakomliggande teorier
-
4:20 - 4:23för att se hur vi kan göra detta.
-
4:23 - 4:26En av dem är en sociologisk teori
som kallas homofili, -
4:26 - 4:29vilket betyder att folk är vänner
med folk som liknar dem själva. -
4:29 - 4:32Så om du är smart känner du ofta
andra smarta människor -
4:32 - 4:34och om du är ung
känner du ofta unga människor -
4:34 - 4:36och detta är etablerat sen
-
4:36 - 4:37hundratals år tillbaka.
-
4:37 - 4:38Vi vet också mycket om
-
4:38 - 4:41hur information sprids genom nätverk.
-
4:41 - 4:42Det visar sig att virala videos
-
4:42 - 4:45eller Facebookgillningar
eller annan information -
4:45 - 4:47sprider som på exakt samma sätt
-
4:47 - 4:49som sjukdomar sprider sig
genom sociala nätverk. -
4:49 - 4:51Detta har vi studerat länge.
-
4:51 - 4:52Vi har bra modeller för det.
-
4:52 - 4:55Och man kan sätta ihop saker
-
4:55 - 4:58och börja se varför såna här saker händer.
-
4:58 - 4:59Om jag ger er en hypotes,
-
4:59 - 5:03skulle det vara att en smart kille
startade den här sidan, -
5:03 - 5:05eller kanske att en av de första
som gillade sidan -
5:05 - 5:07hade fått bra resultat på testet.
-
5:07 - 5:09Och de gillade det,
deras vänner såg det, -
5:09 - 5:12och genom homofili vet vi
att han förmodligen hade smarta vänner, -
5:12 - 5:14och så spreds det till dem,
vissa av dem gillade det, -
5:14 - 5:17och de hade smarta vänner
och det spreds vidare, -
5:17 - 5:19och så fortplanade det sig
genom nätverket -
5:19 - 5:21till en samling smarta människor
-
5:21 - 5:23så till slut blev
-
5:23 - 5:26gillandet av curly fries-sidan
-
5:26 - 5:28en indikation på hög intelligens,
-
5:28 - 5:29inte på grund av innehållet,
-
5:29 - 5:32utan för att själva gillningen
-
5:32 - 5:34reflekterar vanliga attribut
-
5:34 - 5:36hos andra som har gjort det.
-
5:36 - 5:39Det är rätt komplicerade saker, eller hur?
-
5:39 - 5:41Det är svårt att sätta sig och förklara
-
5:41 - 5:44för en typisk användare,
och även om man gör det, -
5:44 - 5:45vad kan den medelanvändaren
-
5:45 - 5:47göra åt det?
-
5:47 - 5:48Hur vet du att du gillat något
-
5:48 - 5:50som indikerar ett av dina drag
-
5:50 - 5:53som är helt irrelevant
för innehållet du gillar? -
5:53 - 5:56Det finns mycket makt
som användaren inte har -
5:56 - 5:58för att kontrollera hur datan används.
-
5:58 - 6:01Och jag ser det som
ett stort problem i framtiden. -
6:01 - 6:03Jag tror det finns ett par vägar
-
6:03 - 6:04som borde kolla på
-
6:04 - 6:06om vi vill ge användarna kontroll
-
6:06 - 6:08över hur datan används,
-
6:08 - 6:10för det kommer inte alltid att användas
-
6:10 - 6:11till deras fördel.
-
6:11 - 6:13Ett exempel jag ofta ger
-
6:13 - 6:15är att om jag någonsin tröttnar på
att vara professor -
6:15 - 6:17kommer jag starta ett företag
-
6:17 - 6:18som förutser alla attribut
-
6:18 - 6:20och saker som hur du jobbar i grupp
-
6:20 - 6:22och om du är drogmissbrukare
eller alkoholist. -
6:22 - 6:24Vi vet hur vi ska förutse allt det.
-
6:24 - 6:25Och jag ska sälja rapporter
-
6:25 - 6:27till försäkringsbolag och storföretag
-
6:27 - 6:29som vill anställa dig.
-
6:29 - 6:31Vi kan göra det nu.
-
6:31 - 6:32Jag kan starta företaget imorgon,
-
6:32 - 6:34och du skulle inte ha någon kontroll
-
6:34 - 6:36över hur jag använder datan.
-
6:36 - 6:39Det verkar för mig vara ett stort problem.
-
6:39 - 6:41En av vägarna vi kan gå
-
6:41 - 6:43är politikens och lagens väg.
-
6:43 - 6:46I vissa avseenden tror jag
att det skulle vara det mest effektiva, -
6:46 - 6:49men problemet är att vi faktiskt
skulle behöva göra det. -
6:49 - 6:51Att se hur vår politiska process fungerar
-
6:51 - 6:54får mig att tro
att det är högst osannolikt -
6:54 - 6:55att vi kommer få en massa folkvalda
-
6:55 - 6:57att sätta sig ner och lära sig om detta,
-
6:57 - 6:59och sedan få igenom avgörande förändringar
-
6:59 - 7:02på immaterialrättens lag i USA
-
7:02 - 7:04så att användarna får kontroll
över sin data. -
7:04 - 7:05Vi kan gå politikens väg,
-
7:05 - 7:07där företag inom sociala medier säger
-
7:07 - 7:09"Vet du vad? Du äger din data.
-
7:09 - 7:11Du har kontroll över hur den används".
-
7:11 - 7:13Problemet är att intäktsmodellerna
-
7:13 - 7:15för flertalet företag inom sociala medier
-
7:15 - 7:18baserar sig på att dela eller utnyttja
användarnas data på något sätt. -
7:18 - 7:20Det påstås ibland
om Facebook att användaren -
7:20 - 7:23inte är kunden, utan de är varan.
-
7:23 - 7:25Hur får man ett företag
-
7:25 - 7:28att ge tillbaka kontrollen
över sin främsta tillgång -
7:28 - 7:29till användarna?
-
7:29 - 7:31Det är möjligt, men jag tror inte att
-
7:31 - 7:33det kommer ändras särskilt snabbt.
-
7:33 - 7:35Jag tror att den andra vägen
-
7:35 - 7:37vi kan gå som är mer effektiv
-
7:37 - 7:38är en väg med mer vetenskap.
-
7:38 - 7:41Det är genom vetenskapen
som vi kan utveckla -
7:41 - 7:43alla dessa mekanismer för beräkningar
-
7:43 - 7:45av personliga data från första början.
-
7:45 - 7:48Undersökningarna är faktiskt
väldigt lika de som vi måste göra -
7:48 - 7:51om vi vill utveckla mekanismer
-
7:51 - 7:52som kan säga till användaren,
-
7:52 - 7:55"Det här är risken
med den handling du nyss begick". -
7:55 - 7:57Genom att gilla den där Facebooksidan
-
7:57 - 7:59eller genom att dela en del
personlig information, -
7:59 - 8:01har du förbättrat
min möjlighet att förutse -
8:01 - 8:03om du använder droger eller inte
-
8:03 - 8:06eller om du kommer bra överens
med folk på jobbet eller inte. -
8:06 - 8:07Det tror jag kan påverka
-
8:07 - 8:09om folk vill dela något,
-
8:09 - 8:12hålla det för sig själv, eller bara
vara offline helt och hållet. -
8:12 - 8:14Vi kan också kika på saker som
-
8:14 - 8:16att låta folk kryptera uppladdade data,
-
8:16 - 8:18så det är osynligt och värdelöst
-
8:18 - 8:20för webbplatser som Facebook
-
8:20 - 8:22eller tredjepartstjänster
som använder det, -
8:22 - 8:26men den utvalda personen
som valts av uppladdaren -
8:26 - 8:28kommer att ha möjlighet att se det.
-
8:28 - 8:30Detta är superspännande forskning
-
8:30 - 8:32från ett intellektuellt perspektiv,
-
8:32 - 8:34och forskare kommer vilja göra det.
-
8:34 - 8:37Det ger oss ett övertag över lagsidan.
-
8:37 - 8:39Ett av problemen som folk tar upp
-
8:39 - 8:41när jag pratar om detta är,
-
8:41 - 8:43"Du vet, om folk börjar hålla
all data privat, så kommer -
8:43 - 8:45alla metoder som du utvecklat
-
8:45 - 8:48som förutser deras karaktärsdrag
att misslyckas." -
8:48 - 8:52Då säger jag "Absolut,
och för mig är det en succé", -
8:52 - 8:53för som forskare
-
8:53 - 8:57är mitt mål inte att få tag på
information om användarna, -
8:57 - 9:00utan att förbättra interaktionen
mellan folk online. -
9:00 - 9:03Och ibland innebär det
att dra slutsatser om dem, -
9:03 - 9:06men om användare inte vill ge mig
tillgång till den informationen, -
9:06 - 9:08tycker jag att de har rätt att göra det.
-
9:08 - 9:11Jag vill att användare ska vara
informerade och samtyckande -
9:11 - 9:13användare av verktygen som vi utvecklar.
-
9:13 - 9:16Och jag tycker att vi
genom att uppmuntra denna sorts vetenskap -
9:16 - 9:17och att stötta forskare
-
9:17 - 9:20som vill ge tillbaka kontrollen
till användarna -
9:20 - 9:23från företagen inom sociala medier
-
9:23 - 9:25betyder att vi går framåt
när dessa verktyg utvecklas -
9:25 - 9:27och går framåt,
-
9:27 - 9:28och vi kommer få en utbildad
-
9:28 - 9:30och kraftfull användarbas,
-
9:30 - 9:34och jag tror vi är överens om
att det är rätt väg att gå framåt. -
9:34 - 9:35Tack.
-
9:35 - 9:38(Applåder)
- Title:
- Curly fries gåta: Varför "gillningar" på sociala medier säger mer än vad du tror
- Speaker:
- Jennifer Golbeck
- Description:
-
Tycker du om curly fries? Har du gillat dem på Facebook? Se detta tal för att få reda på de överraskande sakerna som Facebook (och andra) kan gissa sig till om dig från dina slumpmässiga gillningar och delningar. Datorforskaren Jennifer Golbeck förklarar hur detta kommer sig, på vilket sätt vissa applikationer inte är så snälla, och varför hon tycker att vi ska ge tillbaka kontrollen över informationen till de rättmätiga ägarna.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Annika Bidner edited Swedish subtitles for Your social media "likes" expose more than you think | ||
Annika Bidner edited Swedish subtitles for Your social media "likes" expose more than you think | ||
Annika Bidner edited Swedish subtitles for Your social media "likes" expose more than you think | ||
Annika Bidner edited Swedish subtitles for Your social media "likes" expose more than you think | ||
Annika Bidner approved Swedish subtitles for Your social media "likes" expose more than you think | ||
Annika Bidner edited Swedish subtitles for Your social media "likes" expose more than you think | ||
Annika Bidner edited Swedish subtitles for Your social media "likes" expose more than you think | ||
Annika Bidner edited Swedish subtitles for Your social media "likes" expose more than you think |