Return to Video

Zagonetka kovrčavog krumpirića: Zašto „lajkovi“ društvenih medija govore više no što ste možda mislili

  • 0:01 - 0:03
    Ako se sjećate tog prvog
    desetljeća na Internetu,
  • 0:03 - 0:05
    bilo je to vrlo statično mjesto.
  • 0:05 - 0:07
    Mogli ste otići online,
    mogli ste gledati stranice,
  • 0:07 - 0:10
    a one su bile postavljene
    od strane organizacija
  • 0:10 - 0:11
    koje su imale timove za to
  • 0:11 - 0:13
    ili vrlo tehnološki stručni pojedinci
  • 0:13 - 0:15
    za to doba.
  • 0:15 - 0:17
    S porastom društvenih medija
  • 0:17 - 0:19
    i društvenih mreža ranih 2000 - tih,
  • 0:19 - 0:21
    Internet se u potpunosti promijenio
  • 0:21 - 0:25
    u mjesto gdje velika većina sadržaja
  • 0:25 - 0:28
    s kojim dolazimo u kontakt je
    postavljena od strane prosječnih korisnika,
  • 0:28 - 0:31
    u YouTube videima ili objavama na blogu
  • 0:31 - 0:34
    ili recenzijama proizvoda
    ili objavama društvenih medija.
  • 0:34 - 0:37
    Također je postao puno
    više interaktivno mjesto,
  • 0:37 - 0:39
    gdje ljudi uzajamno djeluju,
  • 0:39 - 0:41
    komentiraju, dijele,
  • 0:41 - 0:43
    nije da samo čitaju.
  • 0:43 - 0:44
    Facebook nije jedino mjesto
    gdje to možete činiti,
  • 0:44 - 0:46
    ali je najveće,
  • 0:46 - 0:47
    i služi za ilustriranje podataka.
  • 0:47 - 0:51
    Facebook ima 1.2 milijardu
    korisnika na mjesec.
  • 0:51 - 0:53
    Stoga pola Zemljine internetske populacije
  • 0:53 - 0:54
    koristi Facebook.
  • 0:54 - 0:56
    Oni su stranica, zajedno s drugima,
  • 0:56 - 1:00
    koja je dozvolila ljudima
    da stvore online personu
  • 1:00 - 1:01
    s vrlo malo tehničkih vještina,
  • 1:01 - 1:04
    a ljudi su na to odgovorili postavljanjem
  • 1:04 - 1:06
    gomile osobnih podataka na mrežu.
  • 1:06 - 1:08
    Rezultat je da imamo podatke o ponašanju,
  • 1:08 - 1:10
    podatke o sklonostima, demografske podatke,
  • 1:10 - 1:12
    za stotine milijuna ljudi,
  • 1:12 - 1:14
    što je jedinstven slučaj u povijesti.
  • 1:14 - 1:17
    Kao računalnome znanstveniku, to znači da
  • 1:17 - 1:19
    sam mogla napraviti modele
  • 1:19 - 1:21
    koji mogu predvidjeti
    razne skrivene osobine
  • 1:21 - 1:23
    za sve vas, a da ni ne znate
  • 1:23 - 1:25
    da dijelite informacije o tome.
  • 1:25 - 1:28
    Kao znanstvenici, koristimo to kao pomoć
  • 1:28 - 1:30
    u načinu kako ljudi komuniciraju online,
  • 1:30 - 1:32
    ali ima i manje altruističnih primjena,
  • 1:32 - 1:35
    a problem je u tome što korisnici
  • 1:35 - 1:37
    ne razumiju baš te tehnike i kako one rade,
  • 1:37 - 1:40
    a čak i kada bi razumjeli,
    nemaju puno kontrole nad time.
  • 1:40 - 1:42
    Ono o čemu želim pričati danas
  • 1:42 - 1:45
    su neke stvari koje možemo napraviti,
  • 1:45 - 1:47
    i onda dati neke ideje
    kako bismo mogli napredovati
  • 1:47 - 1:50
    da vratimo dio kontrole natrag korisnicima.
  • 1:50 - 1:52
    Ovo je tvrtka Target.
  • 1:52 - 1:53
    Nisam ja stavila taj logo
  • 1:53 - 1:55
    na trbuh ove jadne, trudne žene.
  • 1:55 - 1:57
    Možda ste čuli ovu anegdotu
  • 1:57 - 1:59
    objavljenu u časopisu Forbes;
  • 1:59 - 2:02
    Target je poslao letak 15 godišnjoj djevojci
  • 2:02 - 2:03
    s reklamama i kuponima
  • 2:03 - 2:06
    za dječje bočice, pelene i kolijevke
  • 2:06 - 2:07
    dva tjedna prije no što je rekla
  • 2:07 - 2:09
    roditeljima da je trudna.
  • 2:09 - 2:12
    Da, otac je bio zbilja uzrujan.
  • 2:12 - 2:14
    Rekao je, “Kako je Target saznao
  • 2:14 - 2:16
    da je ova srednjoškolka trudna
  • 2:16 - 2:18
    prije nego što je ona rekla roditeljima?”
  • 2:18 - 2:20
    Ispostavilo se da imaju prošlost kupovine
  • 2:20 - 2:22
    za stotine tisuća kupaca
  • 2:22 - 2:25
    te izračunavaju ono što oni
    nazivaju domet trudnoće,
  • 2:25 - 2:28
    koji govori ne samo je li žena trudna,
  • 2:28 - 2:29
    već i koji joj je termin porođaja.
  • 2:29 - 2:31
    Oni to računaju
  • 2:31 - 2:32
    ne gledajući samo očite stvari
  • 2:32 - 2:35
    poput: kupuje li kolijevku ili odjeću za bebe,
  • 2:35 - 2:38
    nego i stvari kao što su: kupila je
  • 2:38 - 2:39
    više vitamina no obično,
  • 2:39 - 2:41
    ili kupila je ručnu torbu
  • 2:41 - 2:43
    u koju stanu pelene.
  • 2:43 - 2:45
    Same po sebi, te se kupovine
  • 2:45 - 2:47
    ne čine kao da otkrivaju mnogo,
  • 2:47 - 2:49
    ali uzorak takvog ponašanja,
  • 2:49 - 2:52
    kada ga se stavi u kontekst tisuća drugih ljudi,
  • 2:52 - 2:55
    zapravo otkriva neka shvaćanja.
  • 2:55 - 2:57
    To je način na koji predviđamo
  • 2:57 - 2:59
    stvari o vama u društvenim medijima.
  • 2:59 - 3:02
    Tražimo male obrasce ponašanja koji,
  • 3:02 - 3:05
    kada ih otkrijete među milijunima ljudi,
  • 3:05 - 3:07
    otkrivaju nam razne stvari.
  • 3:07 - 3:09
    U laboratoriju s mojim kolegama,
  • 3:09 - 3:11
    razvili smo mehanizme pomoću kojih možemo
  • 3:11 - 3:13
    prilično precizno predvidjeti stvari
  • 3:13 - 3:14
    poput vaše političke preferencije,
  • 3:14 - 3:18
    tipa osobnosti, spol, seksualnu orijentaciju,
  • 3:18 - 3:21
    vjeru, dob, inteligenciju,
  • 3:21 - 3:22
    zajedno sa stvarima poput
  • 3:22 - 3:24
    koliko vjerujete ljudima koje poznajete
  • 3:24 - 3:26
    i koliko su jake te veze.
  • 3:26 - 3:28
    Sve to jako dobro radimo.
  • 3:28 - 3:30
    I opet, to ne dolazi od onoga
  • 3:30 - 3:32
    što vam se čini kao očiti izvor informacija.
  • 3:32 - 3:34
    Moj najdraži primjer iz ovog je istraživanja
  • 3:34 - 3:36
    koje je objavljeno ove godine
  • 3:36 - 3:37
    u broju časopisa Postupci Nacionalne
    Akademije S.A.D.
  • 3:37 - 3:39
    Ako ga guglate, pronaći ćete ga.
  • 3:39 - 3:41
    Ima četiri stranice, lak je za čitanje.
  • 3:41 - 3:44
    Gledali su samo “lajkove” na Facebooku,
  • 3:44 - 3:45
    samo one stvari koje vam se sviđaju,
  • 3:45 - 3:48
    te su ih koristili za
    predviđanje ovih obilježja,
  • 3:48 - 3:49
    zajedno s još nekim drugima.
  • 3:49 - 3:52
    U svojem radu nabrojali su pet “lajkova“
  • 3:52 - 3:55
    koji su najviše ukazivali
    na visok stupanj inteligencije.
  • 3:55 - 3:57
    A među njima bila je stranica
  • 3:57 - 3:59
    za kovrčave krumpiriće. (Smijeh)
  • 3:59 - 4:01
    Kovrčavi krumpirići zbilja su ukusni,
  • 4:01 - 4:04
    no ako ste ih označili da vam se sviđaju,
  • 4:04 - 4:06
    ne znači da ste pametniji od prosječne osobe.
  • 4:06 - 4:09
    Stoga, kako da je jedan
    od snažnijih indikatora
  • 4:09 - 4:11
    vaše inteligencije
  • 4:11 - 4:12
    “lajkanje” stranice
  • 4:12 - 4:14
    čiji je sadržaj u potpunosti ireleventan
  • 4:14 - 4:17
    za atribut koji predviđa?
  • 4:17 - 4:19
    Ispostavlja se da moramo sagledati
  • 4:19 - 4:20
    golemi broj temeljnih teorija
  • 4:20 - 4:23
    da bismo mogli vidjeti zašto
    možemo to predvidjeti.
  • 4:23 - 4:26
    Jedna od njih je sociološka
    teorija imena homofilija,
  • 4:26 - 4:29
    koja u biti govori da su ljudi
    prijatelji s onima koji su im slični.
  • 4:29 - 4:31
    Stoga, ako ste pametni,
    težite biti prijatelj s takvima
  • 4:31 - 4:33
    ako ste mladi, težite biti
    prijatelj s mladim ljudima,
  • 4:33 - 4:35
    i to je uzorak koji je utvrđen
  • 4:35 - 4:37
    već stotinama godina.
  • 4:37 - 4:38
    Također znamo mnogo o tome
  • 4:38 - 4:41
    kako se informacije šire mrežama.
  • 4:41 - 4:42
    Ispostavlja se da se stvari poput viralnih videa,
  • 4:42 - 4:45
    “lajkova” na Facebooku ili drugih informacija
  • 4:45 - 4:47
    šire na potpuno jednak način
  • 4:47 - 4:49
    kako se zarazne bolesti šire,
    ali kroz društvene mreže.
  • 4:49 - 4:51
    To je nešto što smo proučavali dugo vremena.
  • 4:51 - 4:52
    Imamo dobre modele tog obrasca.
  • 4:52 - 4:55
    Možete posložiti pojave poput te
  • 4:55 - 4:58
    i uvidjeti zašto se takve stvari događaju.
  • 4:58 - 4:59
    Pa, ako bi vam dala hipotezu,
  • 4:59 - 5:03
    ona bi glasila da je pametan
    tip pokrenuo tu stranicu,
  • 5:03 - 5:05
    ili nekoliko prvih ljudi koji su ju “lajkali”
  • 5:05 - 5:06
    su postigli visoke rezultate
    na ispitu inteligencije.
  • 5:06 - 5:09
    Svidjela im se, njihovi su je prijatelji vidjeli,
  • 5:09 - 5:12
    i prema načelu homofilije znamo
    da su vjerojatno imali pametne prijatelje
  • 5:12 - 5:15
    pa se to proširilo do njih,
    neki od njih su ju “lajkali”,
  • 5:15 - 5:16
    a i oni su imali pametne prijatelje,
  • 5:16 - 5:17
    pa se proširilo do njih,
  • 5:17 - 5:19
    tako se propagira kroz mrežu
  • 5:19 - 5:21
    koristeći pametne ljude kao domaćine,
  • 5:21 - 5:23
    stoga je na kraju čin sviđanja
  • 5:23 - 5:26
    stranice kovrčavih krumpirića
  • 5:26 - 5:28
    postao indikacija visoke inteligencije,
  • 5:28 - 5:29
    ne zbog njezina sadržaja,
  • 5:29 - 5:32
    već zato što sam pritisak na gumb sviđanja
  • 5:32 - 5:34
    zrcali učestale atribute
  • 5:34 - 5:36
    ljudi koji su ga pritisnuli.
  • 5:36 - 5:39
    Ovo su poprilično komplicirane stvari, jelda?
  • 5:39 - 5:41
    Teško je sjesti i objasniti
    to
  • 5:41 - 5:44
    prosječnom korisniku,
    no čak i ako to učinite,
  • 5:44 - 5:46
    što može prosječan korisnik
    u vezi toga napraviti?
  • 5:46 - 5:48
    Kako znate da nešto što ste “lajkali”
  • 5:48 - 5:50
    indicira vašu osobinu
  • 5:50 - 5:53
    koja je u potpunosti nepovezana
    sa sadržajem onoga što ste “lajkali”?
  • 5:53 - 5:56
    Postoji puno snage koju korisnici nemaju
  • 5:56 - 5:58
    za kontrolu kako se koriste ti podatci.
  • 5:58 - 6:01
    i vidim to kao velik problem gledajući unaprijed.
  • 6:01 - 6:03
    Mislim da postoji nekoliko načina
  • 6:03 - 6:04
    koje želimo sagledati
  • 6:04 - 6:06
    ako bismo korisnicima donekle dali kontrolu
  • 6:06 - 6:08
    nad time kako se koriste ti podatci,
  • 6:08 - 6:10
    jer neće uvijek biti iskorišteni
  • 6:10 - 6:11
    u njihovu korist.
  • 6:11 - 6:13
    Primjer koji često dajem jest,
  • 6:13 - 6:14
    ako mi ikad dosadi biti profesor,
  • 6:14 - 6:16
    pokrenut ću kompaniju
  • 6:16 - 6:17
    koja predviđa sve te atribute
  • 6:17 - 6:19
    i stvari kao što su, radite li dobro u timu,
  • 6:19 - 6:22
    koristite li droge, jeste li alkoholičar.
  • 6:22 - 6:23
    Sve to znamo predvidjeti.
  • 6:23 - 6:25
    I prodavat ću izvješća
  • 6:25 - 6:27
    kompanijama ljudskih resursa i velikim tvrtkama
  • 6:27 - 6:29
    koje vas žele zaposliti.
  • 6:29 - 6:31
    Mi to možemo napraviti.
  • 6:31 - 6:32
    Mogla bih pokrenuti taj posao sutra,
  • 6:32 - 6:34
    a vi ne biste imali apsolutno nikakvu kontrolu
  • 6:34 - 6:36
    nada mnom koja koristim
    vaše podatke na taj način.
  • 6:36 - 6:39
    To mi se čini kao problem.
  • 6:39 - 6:41
    Jedan put kojim možemo poći
  • 6:41 - 6:43
    je put politike i prava.
  • 6:43 - 6:46
    I u nekim pogledima, mislim
    da bi to bilo najučinkovitije,
  • 6:46 - 6:49
    no problem je da bismo
    to zbilja morali napraviti.
  • 6:49 - 6:51
    Promatrajući naše političke procese u akciji
  • 6:51 - 6:54
    čini mi se da je malo vjerojatno
  • 6:54 - 6:55
    da ćemo dobiti gomilu predstavnika
  • 6:55 - 6:57
    koji će sjesti, naučiti o tome
  • 6:57 - 6:59
    i onda donijeti dalekosežne promjene
  • 6:59 - 7:02
    u američke zakone o intelektualnom vlasništvu
  • 7:02 - 7:04
    da bi korisnici mogli kontrolirati svoje podatke.
  • 7:04 - 7:05
    Možemo krenuti putem politike,
  • 7:05 - 7:07
    gdje kompanije društvenih medija kažu:
  • 7:07 - 7:08
    znate što? Vi posjedujete podatke.
  • 7:08 - 7:11
    Imate potpunu kontrolu nad time kako se koriste.
  • 7:11 - 7:13
    Problem je u tome što se modeli prihoda
  • 7:13 - 7:14
    za većinu kompanija društvenih medija
  • 7:14 - 7:18
    oslanjaju na dijeljenje ili, na neki način,
    iskorištavanje podataka korisnika.
  • 7:18 - 7:20
    Ponekad se kaže za Facebook da korisnici
  • 7:20 - 7:23
    nisu mušterije, već proizvod.
  • 7:23 - 7:25
    Stoga kako natjerati kompaniju
  • 7:25 - 7:28
    da korisnicima vrati kontrolu
  • 7:28 - 7:29
    nad njihovom glavnom imovinom?
  • 7:29 - 7:31
    Moguće je, ali ne mislim da je to promjena
  • 7:31 - 7:33
    koju ćemo ubrzo vidjeti.
  • 7:33 - 7:35
    Stoga mislim da će drugi put
  • 7:35 - 7:37
    kojim možemo poći biti djelotvorniji
  • 7:37 - 7:38
    i to je onaj sa više znanosti.
  • 7:38 - 7:41
    Prije svega, znanost nam dopušta razvijanje
  • 7:41 - 7:43
    svih ovih mehanizama za računanje
  • 7:43 - 7:45
    osobnih podataka.
  • 7:45 - 7:47
    I zapravo bismo morali provesti
  • 7:47 - 7:48
    vrlo slično istraživanje
  • 7:48 - 7:51
    ako bismo htjeli razviti mehanizme
  • 7:51 - 7:52
    koji bi korisniku rekli:
  • 7:52 - 7:54
    “Ovo je rizik radnje koju ste upravo napravili.”
  • 7:54 - 7:56
    Lajkanjem te Facebook stranice
  • 7:56 - 7:59
    ili dijeljenjem ove osobne informacije,
  • 7:59 - 8:00
    upravo ste poboljšali moju sposobnost
  • 8:00 - 8:03
    predviđanja koristite li droge,
  • 8:03 - 8:05
    ili slažete li se na radnom mjestu.
  • 8:05 - 8:07
    A to mislim da bi moglo
  • 8:07 - 8:09
    utjecati na želju ljudi da nešto podijele,
  • 8:09 - 8:12
    zadrže to privatnim, ili uopće ne stave online.
  • 8:12 - 8:14
    Možemo se također osvrnuti na stvari
  • 8:14 - 8:16
    poput dopuštanja ljudima da kodiraju
    podatke koje su objavili,
  • 8:16 - 8:18
    pa oni postaju nevidljivi i beskorisni
  • 8:18 - 8:20
    stranicama poput Facebooka
  • 8:20 - 8:22
    ili uslugama trećih stranaka
    koje im imaju pristup,
  • 8:22 - 8:25
    ali da odabrani korisnici
  • 8:25 - 8:28
    za koje vlasnici žele da vide
    informacije ih mogu i vidjeti.
  • 8:28 - 8:30
    Ovo je vrlo uzbudljivo istraživanje
  • 8:30 - 8:32
    iz intelektualne perspektive,
  • 8:32 - 8:34
    stoga će ga znanstvenici biti voljni napraviti.
  • 8:34 - 8:37
    To nam daje prednost pred zakonskom stranom.
  • 8:37 - 8:39
    Jedan od problema koji ljudi spomenu
  • 8:39 - 8:41
    kada pričam o ovome jest, kažu,
  • 8:41 - 8:43
    znate, ako ljudi počnu zadržavati
    sve svoje podatke privatnima,
  • 8:43 - 8:45
    sve ove metode koje ste razvijali
  • 8:45 - 8:48
    za predviđanje njihovih osobina će propasti.
  • 8:48 - 8:52
    A ja kažem, apsolutno, i za mene je to uspjeh,
  • 8:52 - 8:53
    jer kao znanstveniku,
  • 8:53 - 8:57
    moj cilj nije dolaziti do
    informacija o korisnicima,
  • 8:57 - 9:00
    već poboljšati način kako ljudi
    međusobno komuniciraju online.
  • 9:00 - 9:03
    Ponekad to uključuje
    saznavanje njihovih informacija,
  • 9:03 - 9:06
    ali ako korisnici ne žele da koristim te podatke,
  • 9:06 - 9:08
    mislim da bi trebali imati to pravo i učiniti.
  • 9:08 - 9:11
    Želim da korisnici budu informirani
  • 9:11 - 9:13
    i da prihvaćaju alate koje razvijamo.
  • 9:13 - 9:16
    Mislim da ohrabrivanje ove vrste znanosti
  • 9:16 - 9:17
    i podupiranje istraživača
  • 9:17 - 9:20
    koji žele povratiti dio kontrole korisnicima
  • 9:20 - 9:23
    od kompanija društvenih medija
  • 9:23 - 9:25
    znači da idući naprijed,
    kako se ova oruđa razvijaju
  • 9:25 - 9:27
    i napreduju,
  • 9:27 - 9:28
    imat ćemo obrazovanu
  • 9:28 - 9:30
    i osposobljenu bazu korisnika,
  • 9:30 - 9:31
    te mislim da se svi možemo složiti
  • 9:31 - 9:33
    da je to prilično idealan način za napredovanje.
  • 9:33 - 9:36
    Hvala.
  • 9:36 - 9:39
    (Pljesak)
Title:
Zagonetka kovrčavog krumpirića: Zašto „lajkovi“ društvenih medija govore više no što ste možda mislili
Speaker:
Jennifer Golbeck
Description:

Volite li kovrčave krumpiriće? Jeste li ih „lajkali“ na Facebooku? Pogledajte ovaj razgovor kako biste otkrili koje iznenađujuće stvari Facebook (i drugi) mogu pogoditi samo na temelju vaših nasumičnih „lajkova“ i podjela. Računalna znanstvenica Jennifer Golbeck objašnjava kako je došlo do toga, kako neke primjene tehnologije nisu toliko ljupke – te zašto misli da bismo trebali vratiti kontrolu nad informacijama njihovim zakonitim vlasnicima.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Croatian subtitles

Revisions