Curly fry gåden: Hvorfor likes på sociale medier siger mere end du måske tror.
-
0:00 - 0:03Hvis du kan huske det første årti af internettet
-
0:03 - 0:05det var virkelig et stillestående sted.
-
0:05 - 0:07
Du kunne gå online, du kunne se på sider -
0:07 - 0:10og de var sat op af enten organisationer
-
0:10 - 0:11som havde teams til at gøre det
-
0:11 - 0:14eller af individer der var super teknologihabile
-
0:14 - 0:15på den tid.
-
0:15 - 0:17Med fremkomsten af de sociale medier
-
0:17 - 0:19og sociale netværk i begyndelsen af 2000'erne
-
0:19 - 0:21ændrede internettet sig fuldstændigt
-
0:21 - 0:24til et sted hvor nu størstedelen af indholdet
-
0:24 - 0:28vi interagere med er lagt ud af almindelige brugere
-
0:28 - 0:31enten som YouTubevideoer eller blogs
-
0:31 - 0:34eller som produktanmeldelse eller opdateringer på sociale medier.
-
0:34 - 0:37Det blev også et meget mere interaktivt sted,
-
0:37 - 0:39hvor mennesker interagere med hinanden,
-
0:39 - 0:41de kommenterer, de deler
-
0:41 - 0:43de læser ikke bare.
-
0:43 - 0:44Så Facebook er ikke det eneste sted du kan gøre dette,
-
0:44 - 0:46men det er det største,
-
0:46 - 0:47og det tjener til at illustrere tallene.
-
0:47 - 0:51Facebook har 1.2 billioner brugere per måned.
-
0:51 - 0:53Det er så halvdelen af Jordens internetbrugere
-
0:53 - 0:54der benytter Facebook.
-
0:54 - 0:56Det er en side, som sammen med andre,
-
0:56 - 1:00har givet personer mulighed for at opbygge en online personlighed
-
1:00 - 1:01med meget lidt teknologisk færdighed
-
1:01 - 1:04og mennesker reagerede ved at putte kæmpe mængder
-
1:04 - 1:06personlig data online.
-
1:06 - 1:08Så resultat er at vi har adfærdsmæssige,
-
1:08 - 1:10præferencemæssige og demografisk data
-
1:10 - 1:12for hundrede af millioner mennesker,
-
1:12 - 1:14Hvilket er hidtil uset i historien.
-
1:14 - 1:17Og som computerforsker, hvad det betyder er,
-
1:17 - 1:19at jeg er blevet i stand til at bygge modeller
-
1:19 - 1:21der kan forudse alle mulige skjulte egenskaber
-
1:21 - 1:23for alle jer, som jeg ikke engang kender,
-
1:23 - 1:25som i deler information omkring.
-
1:25 - 1:28Som forsker, bruger vi det til at hjælpe
-
1:28 - 1:30den måde mennesker interagere online,
-
1:30 - 1:32men der er mere egoistiske anvendelser,
-
1:32 - 1:35og der er et problem i at brugere ikke rigtigt
-
1:35 - 1:37forstår disse teknikker og hvordan de virker,
-
1:37 - 1:40og selv hvis de gjorde, har de ikke meget kontrol over det.
-
1:40 - 1:42Så hvad jeg gerne vil tale om i dag
-
1:42 - 1:45er nogle af de ting som vi er istand til at gøre
-
1:45 - 1:47og så give jer nogle ideer om
hvordan vi nok vil tage fat -
1:47 - 1:50for at flytte noget af kontrollen tilbage til brugerne.
-
1:50 - 1:52Det her er firmaet Target.
-
1:52 - 1:53jeg har ikke blot sat dette logo
-
1:53 - 1:55på denne fattige, gravide dames mave.
-
1:55 - 1:57Du har måske set denne anekdote der var trykket
-
1:57 - 1:59i Forbes magasin hvor Target
-
1:59 - 2:02sendte en flyer til denne 15-årige pige
-
2:02 - 2:03med reklamer og kuponer
-
2:03 - 2:06til babyflasker og bleer og vugger
-
2:06 - 2:07to uger før hun fortalte hendes forældre
-
2:07 - 2:09at hun var gravid.
-
2:09 - 2:12Ja, faren var virkelig oprevet.
-
2:12 - 2:14Han sagde, "hvordan fandt Target ud af
-
2:14 - 2:16at denne gymnasiepige var gravid
-
2:16 - 2:18før hun fortalte det til hendes forældre?"
-
2:18 - 2:20Det viser sig, at de har købshistorikken
-
2:20 - 2:22for hundredetusinde kunder
-
2:22 - 2:25og de beregner hvad de kalder en graviditetsscore,
-
2:25 - 2:28der ikke bare er hvorvidt en kvinde er gravid eller ej,
-
2:28 - 2:29men hvornår hendes termin er.
-
2:29 - 2:31De beregner dette
-
2:31 - 2:32ikke ved at kigge på de åbenlyse ting,
-
2:32 - 2:35som, hun køber en vugge eller baby tøj,
-
2:35 - 2:38men ting som, hun købte flere vitaminer
-
2:38 - 2:39end hun normalt gjorde,
-
2:39 - 2:41eller hun købte en håndtaske
-
2:41 - 2:43der er stor nok til at indeholde bleer.
-
2:43 - 2:45For i sig selv, virker disse køb ikke til
-
2:45 - 2:47at de ville afsløre en masse,
-
2:47 - 2:49men der er et adfærdsmønster som,
-
2:49 - 2:52når du tager det i konteksten af flere tusinde af mennesker,
-
2:52 - 2:55rent faktisk begynder at give noget indsigt.
-
2:55 - 2:57Så det er den slags ting vi gør
-
2:57 - 2:59når vi forudsiger ting omkring dig på de sociale medier.
-
2:59 - 3:02Vi leder efter små adfærdsmønster der,
-
3:02 - 3:05når du opdager dem imellem millioner af mennesker,
-
3:05 - 3:07lader os finde ud af alle mulige ting
-
3:07 - 3:09Så i mit laboratorie med kollegaer,
-
3:09 - 3:11har vi udviklet mekanismer hvor vi
-
3:11 - 3:13rimelig præcist kan forudsige ting
-
3:13 - 3:14som din politiske præference,
-
3:14 - 3:18din personlighedscore, køn, seksuelle orientering,
-
3:18 - 3:21religion, alder, intelligens,
-
3:21 - 3:22sammen med ting som
-
3:22 - 3:24hvor meget du stoler på de mennesker du kender
-
3:24 - 3:26og hvor stærke disse forhold er.
-
3:26 - 3:28Vi kan gøre alt dette ret godt.
-
3:28 - 3:30Og igen, det kommer ikke fra hvad du måske
-
3:30 - 3:32tror er den åbenlyse information.
-
3:32 - 3:34Så mit favorit eksempel fra en undersøgelse
-
3:34 - 3:36der blev udgivet dette år
-
3:36 - 3:37i "Proceedings of the National Academies"
-
3:37 - 3:39Hvis du Googler dette, finder du det.
-
3:39 - 3:41Det er fire sider, let at læse.
-
3:41 - 3:44og de kiggede bare på folks Facebook likes,
-
3:44 - 3:45så bare de ting du kan lide på Facebook,
-
3:45 - 3:48og brugte dette til at forudsige disse attributter.
-
3:48 - 3:49sammen med nogle yderligere.
-
3:49 - 3:52I deres artikel oplistede de fem likes
-
3:52 - 3:55der mest indikerede en høj intelligens.
-
3:55 - 3:57Iblandt dem var at like en side
-
3:57 - 3:59for curly fries. (latter)
-
3:59 - 4:01Curly fries er lækre,
-
4:01 - 4:04men at kunne lide dem betyder ikke nødvendigvis,
-
4:04 - 4:06at du er klogere end den gennemsnitlige person.
-
4:06 - 4:09Så hvordan kan det være at en af de stærkeste indikatorer
-
4:09 - 4:11på din intelligens
-
4:11 - 4:12er at like denne side
-
4:12 - 4:14når indholdet er totalt irrelevant
-
4:14 - 4:17for de attributter der bliver forudsagt?
-
4:17 - 4:19Og det viser sig, at vi er nødt til at se på
-
4:19 - 4:20en hel bunke underliggende teorier
-
4:20 - 4:23for at se hvorfor vi er i stand til det.
-
4:23 - 4:26En af dem er en sociologisk teori kaldet homofili
-
4:26 - 4:29som dybest set siger,
at folk er venner med folk som ligner dem. -
4:29 - 4:31Så hvis du er klog, har du en tendens til,
at være venner med kloge mennesker -
4:31 - 4:33og hvis du er ung, tendere du til
at være venner med unge mennesker, -
4:33 - 4:35og dette er veletableret
-
4:35 - 4:37i hundrede af år.
-
4:37 - 4:38Vi ved også en masse
-
4:38 - 4:41omkring hvordan information spreder sig igennem netværk.
-
4:41 - 4:42Det viser sig at ting som virale videoer
-
4:42 - 4:45eller Facebook likes eller anden information
-
4:45 - 4:47spreder sig på nøjagtig samme måde
-
4:47 - 4:49som sygdom spredes gennem sociale netværk.
-
4:49 - 4:51Dette er noget vi har studeret i lang tid.
-
4:51 - 4:52Vi har gode modeller af det.
-
4:52 - 4:55og så kan du sætte de ting sammen
-
4:55 - 4:58og begynde at se hvorfor ting som dette sker
-
4:58 - 4:59Hvis jeg skulle give jer en hypotese,
-
4:59 - 5:03ville det være at en klog fyr startede denne side,
-
5:03 - 5:05eller måske en af de første personer der likede den
-
5:05 - 5:06ville have scoret højere på den test.
-
5:06 - 5:09De likede den, og deres venner så det,
-
5:09 - 5:12og via homofili, ved vi, at han højst
sandsynlig havde kloge venner, -
5:12 - 5:15så det spreder sig til dem, og nogle af dem likede det,
-
5:15 - 5:16og de havde kloge venner,
-
5:16 - 5:17og så spredte det sig til dem,
-
5:17 - 5:19og sådan forplantede det sig igennem netværket
-
5:19 - 5:21til et væld af kloge personer,
-
5:21 - 5:23så i sidste ende, handlingen
-
5:23 - 5:26af at like curly fries siden
-
5:26 - 5:28er indikator af høj intelligens
-
5:28 - 5:29ikke pga. indholdet
-
5:29 - 5:32men fordi den faktiske handling af at like
-
5:32 - 5:34afspejler den fælles attribut
-
5:34 - 5:36af de mennesker som har gjort det.
-
5:36 - 5:39Det er en rimeligt kompliceret ting, ikke?
-
5:39 - 5:41det er svært at sætte sig ned og forklare
-
5:41 - 5:44til en gennemsnitlig bruger, og hvis du gør det,
-
5:44 - 5:46hvad kan brugeren gøre ved det?
-
5:46 - 5:48Hvordan ved du at du likede noget
-
5:48 - 5:50der indikere et træk ved dig
-
5:50 - 5:53der er totalt irrelevant for det indhold af det du likede?
-
5:53 - 5:56Der er en stor magt som brugere ikke
-
5:56 - 5:58har til at kontrollere hvordan denne data er brugt.
-
5:58 - 6:01Og jeg ser det som et reelt problem fremadrettet
-
6:01 - 6:03Så jeg tror der er et par veje
-
6:03 - 6:04som vi skal se på
-
6:04 - 6:06hvis vi vil give brugerne noget kontrol
-
6:06 - 6:08omkring hvordan denne data er brugt,
-
6:08 - 6:10fordi det ikke altid bliver brugt
-
6:10 - 6:11til deres fordel.
-
6:11 - 6:13Et eksempel jeg tit giver er, at
-
6:13 - 6:14hvis jeg nogensinde blev træt af at være professor
-
6:14 - 6:16vil jeg starte et firma
-
6:16 - 6:17der forudsiger alle disse attributter
-
6:17 - 6:19og ting som hvor godt du arbejder i teams
-
6:19 - 6:22og om du er stofmisbruger, om du er alkoholiker
-
6:22 - 6:23Vi ved hvordan vi kan forudsige alt dette.
-
6:23 - 6:25og jeg vil sælge nogle rapporter
-
6:25 - 6:27til HR firmaer og store virksomheder
-
6:27 - 6:29der vil hyre dig.
-
6:29 - 6:31Det kan vi altså gøre nu.
-
6:31 - 6:32Jeg kunne starte dette firma imorgen,
-
6:32 - 6:34og du ville have absolut ingen kontrol
-
6:34 - 6:36over at jeg bruger dine data som det.
-
6:36 - 6:39Det virker for mig som et problem.
-
6:39 - 6:41Så en af de veje vi kan gå
-
6:41 - 6:43er politik og lovvejen
-
6:43 - 6:46Og i nogle henseende, tror jeg
at dette ville være mest effektivt, -
6:46 - 6:49men problemet er at vi
faktisk ville skulle gøre det. -
6:49 - 6:51Ved observering af vores aktive politiske processer
-
6:51 - 6:54får det mig til at tro at det er meget usandsynligt
-
6:54 - 6:55at vi kan få en bunke repræsentanter
-
6:55 - 6:57til at sidde sig ned, lære om dette,
-
6:57 - 6:59og så vedtage gennemgribende ændringer
-
6:59 - 7:02for den intellektuelle ejendomsrets lov i USA
-
7:02 - 7:04så brugerne kan kontrollere deres data.
-
7:04 - 7:05Vi kunne gå politik vejen,
-
7:05 - 7:07hvor sociale medie virksomheder siger,
-
7:07 - 7:08ved du hvad? Du ejer din egne data.
-
7:08 - 7:11Du har total kontrol over hvordan det bliver brugt.
-
7:11 - 7:13Problemet er, at indtægtsmodellerne
-
7:13 - 7:14for de fleste sociale medier
-
7:14 - 7:18afhænger af deling eller udnyttelse af brugers data.
-
7:18 - 7:20Det er nogle gange sagt af Facebook at brugerne
-
7:20 - 7:23ikke er forbrugerne, de er produktet.
-
7:23 - 7:25Så hvordan får du et firma
-
7:25 - 7:28til at give kontrollen af deres primære aktiv
-
7:28 - 7:29tilbage til brugerne?
-
7:29 - 7:31Det er muligt, men jeg tror ikke det er noget
-
7:31 - 7:33som vi vil se ske hurtigt.
-
7:33 - 7:35Så jeg tror den anden vej
-
7:35 - 7:37som vi kan gå ned af som vil være mere effektiv
-
7:37 - 7:38er en af mere videnskab.
-
7:38 - 7:41Det er at lave forsøg der tillod os at udvikle
-
7:41 - 7:43de mekanismer til beregning
-
7:43 - 7:45af personlig data i første omgang.
-
7:45 - 7:47Og det er faktisk meget lignende forskning
-
7:47 - 7:48som vi ville skulle lave
-
7:48 - 7:51hvis vi ville udvikle mekanismer
-
7:51 - 7:52der kan fortælle en bruger,
-
7:52 - 7:54"her er risikoen ved det du lige har foretaget dig"
-
7:54 - 7:56Ved at like den Facebook sige,
-
7:56 - 7:59eller ved at dele dette stykke personlige information,
-
7:59 - 8:00har du forbedret min evne
-
8:00 - 8:03til at forudsige hvorvidt du bruger stoffer
-
8:03 - 8:05eller om du ikke kommer godt ud af det på arbejdspladsen.
-
8:05 - 8:07og det, tror jeg, kan påvirker hvorvidt
-
8:07 - 8:09folk vil dele noget,
-
8:09 - 8:12holde det privat, eller bare holde det offline.
-
8:12 - 8:14Vi kan også se på ting som
-
8:14 - 8:16give folk lov til at kryptere data de uploader,
-
8:16 - 8:18så det bliver usynligt og værdiløst
-
8:18 - 8:20for sites som Facebook
-
8:20 - 8:22eller tredjeparts servicer der har adgang til det
-
8:22 - 8:25men som udvalgte brugere som
personen der postede det -
8:25 - 8:28vil have til at se det - kan få adgang til det.
-
8:28 - 8:30Dette er superspændende forskning
-
8:30 - 8:32fra et intellektuelt perspektiv,
-
8:32 - 8:34så forskere vil være villige til at gøre det.
-
8:34 - 8:37Så det giver os en fordel overfor den lovmæssige side.
-
8:37 - 8:39Et af de problemer folk bringer på banen
-
8:39 - 8:41når jeg taler om dette er, siger de
-
8:41 - 8:43du ved, hvis folk begynder at holde alle disse data private,
-
8:43 - 8:45alle disse metoder som du har udviklet
-
8:45 - 8:48til at forudsige deres evner vil mislykkes.
-
8:48 - 8:52og jeg siger, absolut, og for mig, er det succes.
-
8:52 - 8:53Fordi som forsker,
-
8:53 - 8:57er mit mål ikke at udlede information om brugere,
-
8:57 - 9:00det er at forbedre den måde folk interagere online.
-
9:00 - 9:03og nogle gange involvere det
udledning af ting om dem -
9:03 - 9:06men hvis brugere ikke vil have mig til at bruge de data
-
9:06 - 9:08tror jeg de skulle have retten til at gøre det.
-
9:08 - 9:11Jeg vil have informerede og samtykkende
-
9:11 - 9:13brugerne af de værktøjer vi udvikler.
-
9:13 - 9:16Så jeg tror at opfordre til denne form for videnskab
-
9:16 - 9:17og støtte forskere
-
9:17 - 9:20som vil tage noget af denne kontrol tilbage til brugerne
-
9:20 - 9:23og væk fra de sociale medie virksomheder
-
9:23 - 9:25betyder at gå fremad, som disse værktøjer udvikles
-
9:25 - 9:27og bliver bedre,
-
9:27 - 9:28vil vi være nødt til at have en veluddannet
-
9:28 - 9:30og selvstændig brugerbase
-
9:30 - 9:31og jeg tror at vi alle kan blive enige om
-
9:31 - 9:33at det er en ret ideel måde at gå fremad på.
-
9:33 - 9:35Tak.
-
9:35 - 9:37(Bifald)
- Title:
- Curly fry gåden: Hvorfor likes på sociale medier siger mere end du måske tror.
- Speaker:
- Jennifer Golbeck
- Description:
-
Kan du lide Curly fries? har du liket den på Facebook? Se denne snak for at finde ud af de overraskende ting Facebook (og andre) kan gætte omkring dig fra dine tilfældige likes og delinger. Computerforsker Jennifer Golbeck forklarer hvordan dette opstod, hvordan nogle anvendelser af teknologien ikke er så søde -- og hvorfor hun mener vi burde returnere kontrollen af information til dens retmæssige ejere.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Anders Finn Jørgensen edited Danish subtitles for Your social media "likes" expose more than you think | ||
Anders Finn Jørgensen edited Danish subtitles for Your social media "likes" expose more than you think | ||
Anders Finn Jørgensen edited Danish subtitles for Your social media "likes" expose more than you think | ||
Anders Finn Jørgensen approved Danish subtitles for Your social media "likes" expose more than you think | ||
Anders Finn Jørgensen accepted Danish subtitles for Your social media "likes" expose more than you think | ||
Anders Finn Jørgensen edited Danish subtitles for Your social media "likes" expose more than you think | ||
Anders Finn Jørgensen edited Danish subtitles for Your social media "likes" expose more than you think | ||
Retired user edited Danish subtitles for Your social media "likes" expose more than you think |