Return to Video

Zagonetka uvijenog pomfrita - zašto "lajkovi" na društvenim mrežama otkrivaju više nego što mislite

  • 0:01 - 0:03
    Ako se sećate prve decenije mreže,
  • 0:03 - 0:05
    bilo je to prilično statično mesto.
  • 0:05 - 0:07
    Mogli ste da se umrežite,
    da gledate stranice,
  • 0:07 - 0:10
    njih su postavljale ili organizacije
  • 0:10 - 0:12
    koje su imale timove koji su to radili
  • 0:12 - 0:14
    ili pojedinci koji su bili
    prilično tehnološki napredni
  • 0:14 - 0:15
    za to vreme.
  • 0:15 - 0:17
    Sa usponom društvenih medija
  • 0:17 - 0:19
    i društvenih mreža početkom 2000-ih,
  • 0:19 - 0:21
    internet mreža se potpuno transformisala
  • 0:21 - 0:25
    u mesto gde većinu sadržaja
  • 0:25 - 0:28
    sa kojim komuniciramo
    postavlja prosečan korisnik,
  • 0:28 - 0:31
    bilo preko video snimaka
    na Jutjubu ili blog unosa
  • 0:31 - 0:34
    ili recenzija proizvoda
    ili poruka na društvenim mrežama.
  • 0:34 - 0:37
    Mreža je postala mesto
    sa mnogo više komunikacije
  • 0:37 - 0:39
    gde se ljudi povezuju jedni sa drugima,
  • 0:39 - 0:41
    komentarišu i dele,
  • 0:41 - 0:42
    a ne samo čitaju.
  • 0:42 - 0:44
    Fejsbuk nije jedino mesto
    gde je ovo moguće,
  • 0:44 - 0:46
    ali svakako jeste najveće
  • 0:46 - 0:48
    i služi kao ilustracija stvarnih cifara.
  • 0:48 - 0:51
    Fejsbuk broji 1,2 milijarde
    korisnika mesečno.
  • 0:51 - 0:54
    Dakle, gotovo polovina
    internet korisnika na planeti
  • 0:54 - 0:55
    koristi Fejsbuk.
  • 0:55 - 0:57
    To je internet stranica,
    koja je, kao i mnoge druge,
  • 0:57 - 1:00
    omogućila ljudima da stvore
    virtualne ličnosti
  • 1:00 - 1:01
    sa jako malo tehničkih sposobnosti,
  • 1:01 - 1:04
    i ljudi su odreagovali
    postavljajući ogromne količine
  • 1:04 - 1:06
    ličnih podataka na mrežu.
  • 1:06 - 1:08
    Rezultat toga je da postoje podaci
  • 1:08 - 1:10
    o ponašanju, izborima, demografiji
  • 1:10 - 1:12
    stotina miliona ljudi,
  • 1:12 - 1:14
    što je neviđeno u istoriji.
  • 1:14 - 1:16
    Za mene, kao informatičara,
  • 1:16 - 1:19
    to znači da sam u mogućnosti
    da stvorim modele
  • 1:19 - 1:21
    koji mogu prognozirati
    svakakve vrste skrivenih osobina
  • 1:21 - 1:23
    svih vas, za koje ni ne znate
  • 1:23 - 1:25
    da ih zapravo delite.
  • 1:25 - 1:28
    Kao naučnici, mi to koristimo
    da pomognemo ljudima
  • 1:28 - 1:30
    da komuniciraju na mreži,
  • 1:30 - 1:33
    ali postoje i manje altruistične koristi,
  • 1:33 - 1:35
    i problem je da korisnici zapravo
  • 1:35 - 1:38
    ne razumeju ove metode
    i kako one funkcionišu,
  • 1:38 - 1:40
    a sve i da razumeju,
    ne mogu mnogo da ih kontrolišu.
  • 1:40 - 1:42
    Dakle, danas želim da govorim
  • 1:42 - 1:45
    o nekim od stvari koje smo mi
    u mogućnosti da uradimo
  • 1:45 - 1:47
    i da dam neke ideje o tome
  • 1:47 - 1:50
    kako da vratimo kontrolu korisnicima.
  • 1:50 - 1:52
    Ovo je kompanija Target.
  • 1:52 - 1:54
    Nisam samo stavila taj logo
  • 1:54 - 1:55
    na stomak ove sirote trudnice.
  • 1:55 - 1:58
    Možda ste pročitali anegdotu
    u Forbs magazinu
  • 1:58 - 2:00
    gde je Target poslao flajer
  • 2:00 - 2:02
    jednoj petnaestogodišnjakinji
  • 2:02 - 2:03
    sa reklamama i kuponima
  • 2:03 - 2:06
    za pelene, cucle i krevetiće,
  • 2:06 - 2:08
    dve nedelje pre nego što je ona
    rekla svojim roditeljima
  • 2:08 - 2:09
    da je trudna.
  • 2:09 - 2:12
    O da, otac je bio zaista uznemiren.
  • 2:12 - 2:14
    Rekao je: "Kako je Target znao
  • 2:14 - 2:17
    da je ova srednjoškolka trudna,
    pre njenih roditelja?"
  • 2:18 - 2:20
    Oni zapravo imaju istoriju kupovine
  • 2:20 - 2:22
    za stotine hiljada korisnika
  • 2:22 - 2:25
    i izračunavaju ono što nazivaju
    trudničkim rezultatom,
  • 2:25 - 2:28
    što nije samo
    da li je neka žena trudna,
  • 2:28 - 2:29
    nego i kada treba da se porodi.
  • 2:29 - 2:31
    Oni to izračunaju
  • 2:31 - 2:32
    ne samo gledajući očigledne stvari,
  • 2:32 - 2:35
    kao što je kupovina krevetića,
    dečije odeće,
  • 2:35 - 2:38
    nego i to da je kupovala vitamine
    više nego inače,
  • 2:40 - 2:43
    ili da je kupila torbu,
    dovoljno veliku za pelene.
  • 2:43 - 2:44
    Same po sebi ove kupovine
  • 2:44 - 2:46
    ne izgledaju kao da mnogo otkrivaju,
  • 2:46 - 2:49
    ali predstavljaju obrazac ponašanja koji,
  • 2:49 - 2:52
    kada se stavi u kontekst
    hiljada drugih ljudi
  • 2:52 - 2:55
    počinje da otkriva
    neke skrivene činjenice.
  • 2:55 - 2:57
    To je ono što mi radimo
  • 2:57 - 3:00
    kada pokušavamo da predvidimo stvari
    o vama na društvenim mrežama.
  • 3:00 - 3:02
    Tražimo male obrasce u ponašanju koji,
  • 3:02 - 3:05
    kada ih spazite među milionima ljudi,
  • 3:05 - 3:07
    dozvoljavaju da saznamo svakakve stvari.
  • 3:08 - 3:09
    Moje kolege i ja smo u laboratoriji
  • 3:09 - 3:11
    razradili mehanizme gde smo u mogućnosti
  • 3:11 - 3:13
    da sasvim tačno predvidimo
  • 3:13 - 3:14
    vašu političku opredeljenost,
  • 3:14 - 3:17
    rezultat testa ličnosti,
    rod, seksualnu orijentaciju,
  • 3:18 - 3:21
    versku opredeljenost,
    godište, nivo inteligencije,
  • 3:21 - 3:24
    kao i koliko imate poverenja
    u ljude koje poznajete.
  • 3:24 - 3:26
    i koliko su te veze jake.
  • 3:26 - 3:28
    Sve ovo mi radimo veoma dobro.
  • 3:28 - 3:30
    Opet, to ne dolazi
    iz očiglednih informacija,
  • 3:30 - 3:32
    kao što bi bilo za očekivati.
  • 3:32 - 3:34
    Moj omiljeni primer je iz ove studije
  • 3:34 - 3:36
    koja je izdata ove godine
  • 3:36 - 3:37
    u Zborniku Nacionalnih akademija.
  • 3:37 - 3:40
    Ako pretražite internet
    moći ćete da nađete.
  • 3:40 - 3:41
    Ima četiri strane, lako je za čitanje.
  • 3:41 - 3:44
    Oni su pregledali
    samo lajkove ljudi na Fejsbuku,
  • 3:44 - 3:46
    dakle samo stvari
    koje ste lajkovali na Fejsbuku,
  • 3:46 - 3:49
    i iskoristili su ih da predvide
    sve ove atribute,
  • 3:49 - 3:50
    zajedno sa nekim drugim.
  • 3:50 - 3:52
    U svom izveštaju su nabrojali 5 lajkova
  • 3:52 - 3:55
    koji predstavljaju nagoveštaje
    visoke inteligencije.
  • 3:55 - 3:57
    Jedan od lajkova je
  • 3:57 - 4:00
    stranica uvijenih prženih krompirića.
    (Smeh)
  • 4:00 - 4:01
    Uvijeni prženi krompirići su ukusni,
  • 4:01 - 4:04
    ali to što vam se dopadaju ne znači nužno
  • 4:04 - 4:06
    da ste pametniji od prosečne osobe.
  • 4:06 - 4:09
    Kako je onda jedan od bitnijih indikatora
    vaše inteligencije
  • 4:10 - 4:12
    lajkovanje ove stranice,
  • 4:12 - 4:14
    kada je sadržaj potpuno nebitan
  • 4:14 - 4:17
    u odnosu na atribut koji se predviđa?
  • 4:17 - 4:20
    Ispostavlja se da moramo da uzmemo u obzir
  • 4:20 - 4:21
    gomilu drugih teorija,
  • 4:21 - 4:23
    da bismo saznali kako dolazimo
    do ovog rezultata.
  • 4:23 - 4:26
    Jedna od teorija je sociološka,
    zvana homofilija,
  • 4:26 - 4:29
    koja kaže da prijatelji imaju
    zajednička interesovanja.
  • 4:29 - 4:31
    Ako ste pametni,
    često su to i vaši prijatelji,
  • 4:31 - 4:34
    ako ste mladi, sprijateljićete se
    sa drugim mladim osobama
  • 4:34 - 4:36
    i ovo je već davno ustanovljeno.
  • 4:37 - 4:39
    Mi takođe znamo mnogo tome
  • 4:39 - 4:41
    kako se informacije prenose kroz mreže.
  • 4:41 - 4:43
    Ispostavlja se da se popularni video
  • 4:43 - 4:46
    ili lajkovi na Fejsbuku
    i druge informacije,
  • 4:46 - 4:49
    prenose identično
    kao i bolesti kroz društvene mreže.
  • 4:49 - 4:51
    Ovo izučavamo već duže vreme.
  • 4:51 - 4:53
    Imamo dobre modele za to.
  • 4:53 - 4:55
    Kada sve to saberete
  • 4:55 - 4:57
    uvidećete zašto se tako nešto
    uopšte dešava.
  • 4:57 - 5:00
    Ako bih vam ponudila hipotezu
  • 5:00 - 5:03
    ona bi glasila da je neki bistar momak
    napravio ovu stranicu,
  • 5:03 - 5:06
    ili da je jedna od prvih osoba
    koja je lajkovala stranicu
  • 5:06 - 5:08
    imala visoke rezultate
    na testu inteligencije.
  • 5:08 - 5:10
    Njihovi prijatelji su to videli
  • 5:10 - 5:13
    i na osnovu homofilije, pretpostavljamo
    da je imao pametne prijatelje,
  • 5:13 - 5:16
    pa se sve prenelo na njih,
    pa su i oni lajkovali,
  • 5:16 - 5:17
    a i oni su imali pametne prijatelje
  • 5:17 - 5:19
    pa se sve takođe prenelo na njih,
  • 5:19 - 5:21
    pa se sve proširilo kroz mrežu
  • 5:21 - 5:22
    na veliki broj pametnih ljudi,
  • 5:22 - 5:24
    i do kraja je postupak
  • 5:24 - 5:26
    lajkovanja stranice uvijenih krompirića
  • 5:26 - 5:28
    postao indikativan
    za visoku inteligenciju,
  • 5:28 - 5:30
    ne zbog svog sadržaja,
  • 5:30 - 5:32
    nego zbog toga što čin lajkovanja
  • 5:32 - 5:34
    odražava zajedničke osobine
  • 5:34 - 5:36
    drugih ljudi koji su učinili isto.
  • 5:37 - 5:39
    Ovo je prilično komplikovano, zar ne?
  • 5:39 - 5:43
    Nije lako objasniti prosečnom korisniku,
  • 5:43 - 5:44
    a čak iako uspete,
  • 5:44 - 5:47
    šta prosečan korisnik
    može da uradi povodom toga?
  • 5:47 - 5:49
    Kako da znate da ste lajkovali nešto
  • 5:49 - 5:51
    što odaje neku vašu osobinu,
  • 5:51 - 5:53
    a koja nema nikakve veze
    sa sadržajem koji ste lajkovali?
  • 5:53 - 5:56
    Korisnici nemaju mnogo moći
  • 5:56 - 5:58
    da kontrolišu kako se ovi podaci koriste.
  • 5:58 - 6:01
    Ja to vidim kao pravi problem.
  • 6:02 - 6:04
    Mislim da postoje dva puta
  • 6:04 - 6:05
    koja želimo da razmatramo
  • 6:05 - 6:07
    ako želimo da korisnicima damo kontrolu
  • 6:07 - 6:09
    nad korišćenjem podataka,
  • 6:09 - 6:10
    jer oni neće uvek biti korišćeni
  • 6:10 - 6:12
    u njihovu korist.
  • 6:12 - 6:14
    Jedan primer koji često dajem je da,
  • 6:14 - 6:15
    ako mi ikada dosadi da budem profesor,
  • 6:15 - 6:17
    osnovaću kompaniju
  • 6:17 - 6:18
    koja predviđa sve ove osobine,
  • 6:18 - 6:20
    npr. koliko dobro radite u timovima,
  • 6:20 - 6:22
    da li koristite droge,
    da li ste alkoholičar.
  • 6:22 - 6:24
    Znamo kako sve to da predvidimo.
  • 6:24 - 6:25
    I prodavaću izveštaje
  • 6:25 - 6:27
    HR kompanijama i velikim firmama
  • 6:27 - 6:29
    koje žele da vas zaposle.
  • 6:29 - 6:31
    To apsolutno možemo sada da uradimo.
  • 6:31 - 6:33
    Mogla bih sutra da otvorim tu kompaniju,
  • 6:33 - 6:35
    a vi uopšte ne biste imali kontrolu
  • 6:35 - 6:37
    nad tim kako ja koristim vaše podatke.
  • 6:37 - 6:39
    Po mom mišljenju, ovo je problem.
  • 6:39 - 6:41
    Jedan od puteva kojim možemo da pođemo
  • 6:41 - 6:43
    je put pravila i zakona.
  • 6:43 - 6:46
    Donekle, mislim da bi to bilo
    i najefikasnije,
  • 6:46 - 6:48
    ali problem je u tome
    što bi to trebalo i uradimo.
  • 6:48 - 6:51
    Gledajući kako
    naš politički proces funkcioniše,
  • 6:51 - 6:54
    izgleda mi malo verovatno
  • 6:54 - 6:56
    da će gomila političara
  • 6:56 - 6:58
    da sedne i nauči nešto o ovome,
  • 6:58 - 7:00
    a onda sprovede korenite promene
  • 7:00 - 7:02
    u zakonu o intelektualnoj svojini u SAD-u,
  • 7:02 - 7:04
    kako bi korisnici
    kontrolisali svoje podatke.
  • 7:04 - 7:06
    Mogli bismo da idemo putem politike,
  • 7:06 - 7:08
    gde kompanije društvenih medija kažu:
  • 7:08 - 7:09
    "Vi posedujete svoje podatke.
  • 7:09 - 7:12
    Imate potpunu kontrolu
    nad njihovim korišćenjem."
  • 7:12 - 7:14
    Problem je u tome što se modeli poslovanja
  • 7:14 - 7:16
    većine kompanija društvenih medija
  • 7:16 - 7:19
    oslanjaju na deljenje i iskorišćavanje
    podataka korisnika na neki način.
  • 7:19 - 7:21
    Za Fejsbuk se nekada kaže
  • 7:21 - 7:23
    da korisnici nisu klijenti,
    nego su proizvod.
  • 7:23 - 7:25
    I kako da navedete neku kompaniju
  • 7:25 - 7:28
    da kontrolu nad svojim glavnim resursom
  • 7:28 - 7:30
    vrati korisnicima?
  • 7:30 - 7:32
    Moguće je, ali mislim da nije nešto
  • 7:32 - 7:34
    što će se brzo promeniti.
  • 7:34 - 7:35
    Mislim da je drugi put
  • 7:35 - 7:37
    kojim možemo da krenemo,
    i koji je efektniji,
  • 7:37 - 7:39
    je onaj sa više nauke.
  • 7:39 - 7:41
    Primena nauke nam je omogućila
  • 7:41 - 7:43
    da uopšte razvijemo sve ove mehanizme
    izračunavanja
  • 7:43 - 7:45
    ovih ličnih podataka.
  • 7:45 - 7:47
    To istraživanje je veoma slično onom
  • 7:47 - 7:49
    koje bismo morali da sprovedemo
  • 7:49 - 7:51
    ako bismo želeli da razvijemo mehanizme
  • 7:51 - 7:53
    koji bi korisniku rekli:
  • 7:53 - 7:55
    "Ovo je rizik akcije
    koju ste upravo sproveli".
  • 7:55 - 7:57
    Lajkovanjem te Fejsbuk stranice
  • 7:57 - 7:59
    ili deljenjem te lične informacije
  • 7:59 - 8:01
    poboljšali ste moju sposobnost
  • 8:01 - 8:03
    da predvidim da li koristite droge
  • 8:03 - 8:06
    ili da li se dobro slažete sa kolegama
    na poslu.
  • 8:06 - 8:09
    I mislim da će to uticati na odluku
    ljudi da podele nešto,
  • 8:09 - 8:12
    da zadrže u privatnosti
    ili uopšte ne postave na internet.
  • 8:12 - 8:14
    Možemo posmatrati
  • 8:14 - 8:17
    i dozvoljavanje ljudima da šifrom
    zaštite podatke koje postavljaju,
  • 8:17 - 8:20
    da bi bili nevidljivi i beskorisni
    sajtovima kao što je Fejsbuk
  • 8:20 - 8:23
    ili servisima trećeg lica
    koji im pristupaju,
  • 8:23 - 8:25
    ali da mogu da vide
    samo odabrani korisnici,
  • 8:25 - 8:29
    za koje osoba koja postavlja sadržaj,
    želi da vide.
  • 8:29 - 8:31
    Ovo je veoma uzbudljivo istraživanje,
  • 8:31 - 8:32
    sa intelektualnog stanovišta,
  • 8:32 - 8:34
    i naučnici će želeti time da se bave.
  • 8:34 - 8:37
    To nam daje prednost u odnosu na zakon.
  • 8:37 - 8:40
    Jedan od problema koji ljudi iznose
  • 8:40 - 8:41
    kada govorim o ovome je,
  • 8:41 - 8:44
    da ako ljudi počnu
    da podatke drže u tajnosti,
  • 8:44 - 8:46
    sve metode koje sam ja razvijala
  • 8:46 - 8:48
    za predviđanje njihovih osobina
    će propasti.
  • 8:48 - 8:52
    Ja se apsolutno slažem,
    za mene je to uspeh,
  • 8:52 - 8:54
    jer kao naučniku,
  • 8:54 - 8:57
    meni nije cilj da nagađam
    o podacima korisnika,
  • 8:57 - 9:00
    nego da poboljšam način
    na koji komuniciraju na internetu.
  • 9:00 - 9:03
    Ponekad to uključuje zaključivanje,
  • 9:03 - 9:06
    ali ako korisnici ne žele
    da koristim njihove podatke,
  • 9:06 - 9:08
    mislim da bi trebalo da imaju pravo na to.
  • 9:08 - 9:11
    Želim da korisnici budu informisani
    i da pristanu
  • 9:11 - 9:13
    da koriste alate koje razvijamo.
  • 9:13 - 9:16
    Mislim da podsticanje ovakve nauke
  • 9:16 - 9:18
    i podržavanje istraživača
  • 9:18 - 9:20
    koji žele da deo te kontrole
    vrate korisnicima
  • 9:20 - 9:23
    i oduzmu od kompanija društvenih medija,
  • 9:23 - 9:25
    znači napredovanje,
    kako se ti alati razvijaju
  • 9:25 - 9:27
    i napreduju,
  • 9:27 - 9:30
    znači da ćemo imati obrazovanu
    i osnaženu bazu korisnika,
  • 9:30 - 9:31
    i mislim da se slažemo
  • 9:31 - 9:34
    da je to idealan način za napredovanje.
  • 9:34 - 9:35
    Hvala vam.
  • 9:35 - 9:37
    (Aplauz)
Title:
Zagonetka uvijenog pomfrita - zašto "lajkovi" na društvenim mrežama otkrivaju više nego što mislite
Speaker:
Dženifer Golbek (Jennifer Golbeck)
Description:

Volite li uvijeni pomfrit? Da li ste ga lajkovali na Fejsbuku? Pogledajte ovaj govor kako biste otkrili iznenađujuće stvari koje Fejsbuk (i drugi) mogu da pogode o vama na osnovu nasumičnih "lajkova" i stvari koje ste podelili sa drugima. Informatičarka Dženifer Golbek objašnjava kako je do ovoga došlo, kako neke primene ove tehnologije i nisu tako simpatične, i iznosi zašto ona misli da kontrolu nad informacijama treba da vratimo njihovim pravim vlasnicima.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Serbian subtitles

Revisions