Return to Video

Curly fry gåden: Hvorfor likes på sociale medier siger mere end du måske tror.

  • 0:00 - 0:03
    Hvis du kan huske det første årti af internettet
  • 0:03 - 0:05
    det var virkelig et stillestående sted.
  • 0:05 - 0:07

    Du kunne gå online, du kunne se på sider
  • 0:07 - 0:10
    og de var sat op af enten organisationer
  • 0:10 - 0:11
    som havde teams til at gøre det
  • 0:11 - 0:14
    eller af individer der var super teknologihabile
  • 0:14 - 0:15
    på den tid.
  • 0:15 - 0:17
    Med fremkomsten af de sociale medier
  • 0:17 - 0:19
    og sociale netværk i begyndelsen af 2000'erne
  • 0:19 - 0:21
    ændrede internettet sig fuldstændigt
  • 0:21 - 0:24
    til et sted hvor nu størstedelen af indholdet
  • 0:24 - 0:28
    vi interagere med er lagt ud af almindelige brugere
  • 0:28 - 0:31
    enten som YouTubevideoer eller blogs
  • 0:31 - 0:34
    eller som produktanmeldelse eller opdateringer på sociale medier.
  • 0:34 - 0:37
    Det blev også et meget mere interaktivt sted,
  • 0:37 - 0:39
    hvor mennesker interagere med hinanden,
  • 0:39 - 0:41
    de kommenterer, de deler
  • 0:41 - 0:43
    de læser ikke bare.
  • 0:43 - 0:44
    Så Facebook er ikke det eneste sted du kan gøre dette,
  • 0:44 - 0:46
    men det er det største,
  • 0:46 - 0:47
    og det tjener til at illustrere tallene.
  • 0:47 - 0:51
    Facebook har 1.2 billioner brugere per måned.
  • 0:51 - 0:53
    Det er så halvdelen af Jordens internetbrugere
  • 0:53 - 0:54
    der benytter Facebook.
  • 0:54 - 0:56
    Det er en side, som sammen med andre,
  • 0:56 - 1:00
    har givet personer mulighed for at opbygge en online personlighed
  • 1:00 - 1:01
    med meget lidt teknologisk færdighed
  • 1:01 - 1:04
    og mennesker reagerede ved at putte kæmpe mængder
  • 1:04 - 1:06
    personlig data online.
  • 1:06 - 1:08
    Så resultat er at vi har adfærdsmæssige,
  • 1:08 - 1:10
    præferencemæssige og demografisk data
  • 1:10 - 1:12
    for hundrede af millioner mennesker,
  • 1:12 - 1:14
    Hvilket er hidtil uset i historien.
  • 1:14 - 1:17
    Og som computerforsker, hvad det betyder er,
  • 1:17 - 1:19
    at jeg er blevet i stand til at bygge modeller
  • 1:19 - 1:21
    der kan forudse alle mulige skjulte egenskaber
  • 1:21 - 1:23
    for alle jer, som jeg ikke engang kender,
  • 1:23 - 1:25
    som i deler information omkring.
  • 1:25 - 1:28
    Som forsker, bruger vi det til at hjælpe
  • 1:28 - 1:30
    den måde mennesker interagere online,
  • 1:30 - 1:32
    men der er mere egoistiske anvendelser,
  • 1:32 - 1:35
    og der er et problem i at brugere ikke rigtigt
  • 1:35 - 1:37
    forstår disse teknikker og hvordan de virker,
  • 1:37 - 1:40
    og selv hvis de gjorde, har de ikke meget kontrol over det.
  • 1:40 - 1:42
    Så hvad jeg gerne vil tale om i dag
  • 1:42 - 1:45
    er nogle af de ting som vi er istand til at gøre
  • 1:45 - 1:47
    og så give jer nogle ideer om
    hvordan vi nok vil tage fat
  • 1:47 - 1:50
    for at flytte noget af kontrollen tilbage til brugerne.
  • 1:50 - 1:52
    Det her er firmaet Target.
  • 1:52 - 1:53
    jeg har ikke blot sat dette logo
  • 1:53 - 1:55
    på denne fattige, gravide dames mave.
  • 1:55 - 1:57
    Du har måske set denne anekdote der var trykket
  • 1:57 - 1:59
    i Forbes magasin hvor Target
  • 1:59 - 2:02
    sendte en flyer til denne 15-årige pige
  • 2:02 - 2:03
    med reklamer og kuponer
  • 2:03 - 2:06
    til babyflasker og bleer og vugger
  • 2:06 - 2:07
    to uger før hun fortalte hendes forældre
  • 2:07 - 2:09
    at hun var gravid.
  • 2:09 - 2:12
    Ja, faren var virkelig oprevet.
  • 2:12 - 2:14
    Han sagde, "hvordan fandt Target ud af
  • 2:14 - 2:16
    at denne gymnasiepige var gravid
  • 2:16 - 2:18
    før hun fortalte det til hendes forældre?"
  • 2:18 - 2:20
    Det viser sig, at de har købshistorikken
  • 2:20 - 2:22
    for hundredetusinde kunder
  • 2:22 - 2:25
    og de beregner hvad de kalder en graviditetsscore,
  • 2:25 - 2:28
    der ikke bare er hvorvidt en kvinde er gravid eller ej,
  • 2:28 - 2:29
    men hvornår hendes termin er.
  • 2:29 - 2:31
    De beregner dette
  • 2:31 - 2:32
    ikke ved at kigge på de åbenlyse ting,
  • 2:32 - 2:35
    som, hun køber en vugge eller baby tøj,
  • 2:35 - 2:38
    men ting som, hun købte flere vitaminer
  • 2:38 - 2:39
    end hun normalt gjorde,
  • 2:39 - 2:41
    eller hun købte en håndtaske
  • 2:41 - 2:43
    der er stor nok til at indeholde bleer.
  • 2:43 - 2:45
    For i sig selv, virker disse køb ikke til
  • 2:45 - 2:47
    at de ville afsløre en masse,
  • 2:47 - 2:49
    men der er et adfærdsmønster som,
  • 2:49 - 2:52
    når du tager det i konteksten af flere tusinde af mennesker,
  • 2:52 - 2:55
    rent faktisk begynder at give noget indsigt.
  • 2:55 - 2:57
    Så det er den slags ting vi gør
  • 2:57 - 2:59
    når vi forudsiger ting omkring dig på de sociale medier.
  • 2:59 - 3:02
    Vi leder efter små adfærdsmønster der,
  • 3:02 - 3:05
    når du opdager dem imellem millioner af mennesker,
  • 3:05 - 3:07
    lader os finde ud af alle mulige ting
  • 3:07 - 3:09
    Så i mit laboratorie med kollegaer,
  • 3:09 - 3:11
    har vi udviklet mekanismer hvor vi
  • 3:11 - 3:13
    rimelig præcist kan forudsige ting
  • 3:13 - 3:14
    som din politiske præference,
  • 3:14 - 3:18
    din personlighedscore, køn, seksuelle orientering,
  • 3:18 - 3:21
    religion, alder, intelligens,
  • 3:21 - 3:22
    sammen med ting som
  • 3:22 - 3:24
    hvor meget du stoler på de mennesker du kender
  • 3:24 - 3:26
    og hvor stærke disse forhold er.
  • 3:26 - 3:28
    Vi kan gøre alt dette ret godt.
  • 3:28 - 3:30
    Og igen, det kommer ikke fra hvad du måske
  • 3:30 - 3:32
    tror er den åbenlyse information.
  • 3:32 - 3:34
    Så mit favorit eksempel fra en undersøgelse
  • 3:34 - 3:36
    der blev udgivet dette år
  • 3:36 - 3:37
    i "Proceedings of the National Academies"
  • 3:37 - 3:39
    Hvis du Googler dette, finder du det.
  • 3:39 - 3:41
    Det er fire sider, let at læse.
  • 3:41 - 3:44
    og de kiggede bare på folks Facebook likes,
  • 3:44 - 3:45
    så bare de ting du kan lide på Facebook,
  • 3:45 - 3:48
    og brugte dette til at forudsige disse attributter.
  • 3:48 - 3:49
    sammen med nogle yderligere.
  • 3:49 - 3:52
    I deres artikel oplistede de fem likes
  • 3:52 - 3:55
    der mest indikerede en høj intelligens.
  • 3:55 - 3:57
    Iblandt dem var at like en side
  • 3:57 - 3:59
    for curly fries. (latter)
  • 3:59 - 4:01
    Curly fries er lækre,
  • 4:01 - 4:04
    men at kunne lide dem betyder ikke nødvendigvis,
  • 4:04 - 4:06
    at du er klogere end den gennemsnitlige person.
  • 4:06 - 4:09
    Så hvordan kan det være at en af de stærkeste indikatorer
  • 4:09 - 4:11
    på din intelligens
  • 4:11 - 4:12
    er at like denne side
  • 4:12 - 4:14
    når indholdet er totalt irrelevant
  • 4:14 - 4:17
    for de attributter der bliver forudsagt?
  • 4:17 - 4:19
    Og det viser sig, at vi er nødt til at se på
  • 4:19 - 4:20
    en hel bunke underliggende teorier
  • 4:20 - 4:23
    for at se hvorfor vi er i stand til det.
  • 4:23 - 4:26
    En af dem er en sociologisk teori kaldet homofili
  • 4:26 - 4:29
    som dybest set siger,
    at folk er venner med folk som ligner dem.
  • 4:29 - 4:31
    Så hvis du er klog, har du en tendens til,
    at være venner med kloge mennesker
  • 4:31 - 4:33
    og hvis du er ung, tendere du til
    at være venner med unge mennesker,
  • 4:33 - 4:35
    og dette er veletableret
  • 4:35 - 4:37
    i hundrede af år.
  • 4:37 - 4:38
    Vi ved også en masse
  • 4:38 - 4:41
    omkring hvordan information spreder sig igennem netværk.
  • 4:41 - 4:42
    Det viser sig at ting som virale videoer
  • 4:42 - 4:45
    eller Facebook likes eller anden information
  • 4:45 - 4:47
    spreder sig på nøjagtig samme måde
  • 4:47 - 4:49
    som sygdom spredes gennem sociale netværk.
  • 4:49 - 4:51
    Dette er noget vi har studeret i lang tid.
  • 4:51 - 4:52
    Vi har gode modeller af det.
  • 4:52 - 4:55
    og så kan du sætte de ting sammen
  • 4:55 - 4:58
    og begynde at se hvorfor ting som dette sker
  • 4:58 - 4:59
    Hvis jeg skulle give jer en hypotese,
  • 4:59 - 5:03
    ville det være at en klog fyr startede denne side,
  • 5:03 - 5:05
    eller måske en af de første personer der likede den
  • 5:05 - 5:06
    ville have scoret højere på den test.
  • 5:06 - 5:09
    De likede den, og deres venner så det,
  • 5:09 - 5:12
    og via homofili, ved vi, at han højst
    sandsynlig havde kloge venner,
  • 5:12 - 5:15
    så det spreder sig til dem, og nogle af dem likede det,
  • 5:15 - 5:16
    og de havde kloge venner,
  • 5:16 - 5:17
    og så spredte det sig til dem,
  • 5:17 - 5:19
    og sådan forplantede det sig igennem netværket
  • 5:19 - 5:21
    til et væld af kloge personer,
  • 5:21 - 5:23
    så i sidste ende, handlingen
  • 5:23 - 5:26
    af at like curly fries siden
  • 5:26 - 5:28
    er indikator af høj intelligens
  • 5:28 - 5:29
    ikke pga. indholdet
  • 5:29 - 5:32
    men fordi den faktiske handling af at like
  • 5:32 - 5:34
    afspejler den fælles attribut
  • 5:34 - 5:36
    af de mennesker som har gjort det.
  • 5:36 - 5:39
    Det er en rimeligt kompliceret ting, ikke?
  • 5:39 - 5:41
    det er svært at sætte sig ned og forklare
  • 5:41 - 5:44
    til en gennemsnitlig bruger, og hvis du gør det,
  • 5:44 - 5:46
    hvad kan brugeren gøre ved det?
  • 5:46 - 5:48
    Hvordan ved du at du likede noget
  • 5:48 - 5:50
    der indikere et træk ved dig
  • 5:50 - 5:53
    der er totalt irrelevant for det indhold af det du likede?
  • 5:53 - 5:56
    Der er en stor magt som brugere ikke
  • 5:56 - 5:58
    har til at kontrollere hvordan denne data er brugt.
  • 5:58 - 6:01
    Og jeg ser det som et reelt problem fremadrettet
  • 6:01 - 6:03
    Så jeg tror der er et par veje
  • 6:03 - 6:04
    som vi skal se på
  • 6:04 - 6:06
    hvis vi vil give brugerne noget kontrol
  • 6:06 - 6:08
    omkring hvordan denne data er brugt,
  • 6:08 - 6:10
    fordi det ikke altid bliver brugt
  • 6:10 - 6:11
    til deres fordel.
  • 6:11 - 6:13
    Et eksempel jeg tit giver er, at
  • 6:13 - 6:14
    hvis jeg nogensinde blev træt af at være professor
  • 6:14 - 6:16
    vil jeg starte et firma
  • 6:16 - 6:17
    der forudsiger alle disse attributter
  • 6:17 - 6:19
    og ting som hvor godt du arbejder i teams
  • 6:19 - 6:22
    og om du er stofmisbruger, om du er alkoholiker
  • 6:22 - 6:23
    Vi ved hvordan vi kan forudsige alt dette.
  • 6:23 - 6:25
    og jeg vil sælge nogle rapporter
  • 6:25 - 6:27
    til HR firmaer og store virksomheder
  • 6:27 - 6:29
    der vil hyre dig.
  • 6:29 - 6:31
    Det kan vi altså gøre nu.
  • 6:31 - 6:32
    Jeg kunne starte dette firma imorgen,
  • 6:32 - 6:34
    og du ville have absolut ingen kontrol
  • 6:34 - 6:36
    over at jeg bruger dine data som det.
  • 6:36 - 6:39
    Det virker for mig som et problem.
  • 6:39 - 6:41
    Så en af de veje vi kan gå
  • 6:41 - 6:43
    er politik og lovvejen
  • 6:43 - 6:46
    Og i nogle henseende, tror jeg
    at dette ville være mest effektivt,
  • 6:46 - 6:49
    men problemet er at vi
    faktisk ville skulle gøre det.
  • 6:49 - 6:51
    Ved observering af vores aktive politiske processer
  • 6:51 - 6:54
    får det mig til at tro at det er meget usandsynligt
  • 6:54 - 6:55
    at vi kan få en bunke repræsentanter
  • 6:55 - 6:57
    til at sidde sig ned, lære om dette,
  • 6:57 - 6:59
    og så vedtage gennemgribende ændringer
  • 6:59 - 7:02
    for den intellektuelle ejendomsrets lov i USA
  • 7:02 - 7:04
    så brugerne kan kontrollere deres data.
  • 7:04 - 7:05
    Vi kunne gå politik vejen,
  • 7:05 - 7:07
    hvor sociale medie virksomheder siger,
  • 7:07 - 7:08
    ved du hvad? Du ejer din egne data.
  • 7:08 - 7:11
    Du har total kontrol over hvordan det bliver brugt.
  • 7:11 - 7:13
    Problemet er, at indtægtsmodellerne
  • 7:13 - 7:14
    for de fleste sociale medier
  • 7:14 - 7:18
    afhænger af deling eller udnyttelse af brugers data.
  • 7:18 - 7:20
    Det er nogle gange sagt af Facebook at brugerne
  • 7:20 - 7:23
    ikke er forbrugerne, de er produktet.
  • 7:23 - 7:25
    Så hvordan får du et firma
  • 7:25 - 7:28
    til at give kontrollen af deres primære aktiv
  • 7:28 - 7:29
    tilbage til brugerne?
  • 7:29 - 7:31
    Det er muligt, men jeg tror ikke det er noget
  • 7:31 - 7:33
    som vi vil se ske hurtigt.
  • 7:33 - 7:35
    Så jeg tror den anden vej
  • 7:35 - 7:37
    som vi kan gå ned af som vil være mere effektiv
  • 7:37 - 7:38
    er en af mere videnskab.
  • 7:38 - 7:41
    Det er at lave forsøg der tillod os at udvikle
  • 7:41 - 7:43
    de mekanismer til beregning
  • 7:43 - 7:45
    af personlig data i første omgang.
  • 7:45 - 7:47
    Og det er faktisk meget lignende forskning
  • 7:47 - 7:48
    som vi ville skulle lave
  • 7:48 - 7:51
    hvis vi ville udvikle mekanismer
  • 7:51 - 7:52
    der kan fortælle en bruger,
  • 7:52 - 7:54
    "her er risikoen ved det du lige har foretaget dig"
  • 7:54 - 7:56
    Ved at like den Facebook sige,
  • 7:56 - 7:59
    eller ved at dele dette stykke personlige information,
  • 7:59 - 8:00
    har du forbedret min evne
  • 8:00 - 8:03
    til at forudsige hvorvidt du bruger stoffer
  • 8:03 - 8:05
    eller om du ikke kommer godt ud af det på arbejdspladsen.
  • 8:05 - 8:07
    og det, tror jeg, kan påvirker hvorvidt
  • 8:07 - 8:09
    folk vil dele noget,
  • 8:09 - 8:12
    holde det privat, eller bare holde det offline.
  • 8:12 - 8:14
    Vi kan også se på ting som
  • 8:14 - 8:16
    give folk lov til at kryptere data de uploader,
  • 8:16 - 8:18
    så det bliver usynligt og værdiløst
  • 8:18 - 8:20
    for sites som Facebook
  • 8:20 - 8:22
    eller tredjeparts servicer der har adgang til det
  • 8:22 - 8:25
    men som udvalgte brugere som
    personen der postede det
  • 8:25 - 8:28
    vil have til at se det - kan få adgang til det.
  • 8:28 - 8:30
    Dette er superspændende forskning
  • 8:30 - 8:32
    fra et intellektuelt perspektiv,
  • 8:32 - 8:34
    så forskere vil være villige til at gøre det.
  • 8:34 - 8:37
    Så det giver os en fordel overfor den lovmæssige side.
  • 8:37 - 8:39
    Et af de problemer folk bringer på banen
  • 8:39 - 8:41
    når jeg taler om dette er, siger de
  • 8:41 - 8:43
    du ved, hvis folk begynder at holde alle disse data private,
  • 8:43 - 8:45
    alle disse metoder som du har udviklet
  • 8:45 - 8:48
    til at forudsige deres evner vil mislykkes.
  • 8:48 - 8:52
    og jeg siger, absolut, og for mig, er det succes.
  • 8:52 - 8:53
    Fordi som forsker,
  • 8:53 - 8:57
    er mit mål ikke at udlede information om brugere,
  • 8:57 - 9:00
    det er at forbedre den måde folk interagere online.
  • 9:00 - 9:03
    og nogle gange involvere det
    udledning af ting om dem
  • 9:03 - 9:06
    men hvis brugere ikke vil have mig til at bruge de data
  • 9:06 - 9:08
    tror jeg de skulle have retten til at gøre det.
  • 9:08 - 9:11
    Jeg vil have informerede og samtykkende
  • 9:11 - 9:13
    brugerne af de værktøjer vi udvikler.
  • 9:13 - 9:16
    Så jeg tror at opfordre til denne form for videnskab
  • 9:16 - 9:17
    og støtte forskere
  • 9:17 - 9:20
    som vil tage noget af denne kontrol tilbage til brugerne
  • 9:20 - 9:23
    og væk fra de sociale medie virksomheder
  • 9:23 - 9:25
    betyder at gå fremad, som disse værktøjer udvikles
  • 9:25 - 9:27
    og bliver bedre,
  • 9:27 - 9:28
    vil vi være nødt til at have en veluddannet
  • 9:28 - 9:30
    og selvstændig brugerbase
  • 9:30 - 9:31
    og jeg tror at vi alle kan blive enige om
  • 9:31 - 9:33
    at det er en ret ideel måde at gå fremad på.
  • 9:33 - 9:35
    Tak.
  • 9:35 - 9:37
    (Bifald)
Title:
Curly fry gåden: Hvorfor likes på sociale medier siger mere end du måske tror.
Speaker:
Jennifer Golbeck
Description:

Kan du lide Curly fries? har du liket den på Facebook? Se denne snak for at finde ud af de overraskende ting Facebook (og andre) kan gætte omkring dig fra dine tilfældige likes og delinger. Computerforsker Jennifer Golbeck forklarer hvordan dette opstod, hvordan nogle anvendelser af teknologien ikke er så søde -- og hvorfor hun mener vi burde returnere kontrollen af information til dens retmæssige ejere.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Danish subtitles

Revisions