Zagonetka uvijenog pomfrita - zašto "lajkovi" na društvenim mrežama otkrivaju više nego što mislite
-
0:01 - 0:03Ako se sećate prve decenije mreže,
-
0:03 - 0:05bilo je to prilično statično mesto.
-
0:05 - 0:07Mogli ste da se umrežite,
da gledate stranice, -
0:07 - 0:10njih su postavljale ili organizacije
-
0:10 - 0:12koje su imale timove koji su to radili
-
0:12 - 0:14ili pojedinci koji su bili
prilično tehnološki napredni -
0:14 - 0:15za to vreme.
-
0:15 - 0:17Sa usponom društvenih medija
-
0:17 - 0:19i društvenih mreža početkom 2000-ih,
-
0:19 - 0:21internet mreža se potpuno transformisala
-
0:21 - 0:25u mesto gde većinu sadržaja
-
0:25 - 0:28sa kojim komuniciramo
postavlja prosečan korisnik, -
0:28 - 0:31bilo preko video snimaka
na Jutjubu ili blog unosa -
0:31 - 0:34ili recenzija proizvoda
ili poruka na društvenim mrežama. -
0:34 - 0:37Mreža je postala mesto
sa mnogo više komunikacije -
0:37 - 0:39gde se ljudi povezuju jedni sa drugima,
-
0:39 - 0:41komentarišu i dele,
-
0:41 - 0:42a ne samo čitaju.
-
0:42 - 0:44Fejsbuk nije jedino mesto
gde je ovo moguće, -
0:44 - 0:46ali svakako jeste najveće
-
0:46 - 0:48i služi kao ilustracija stvarnih cifara.
-
0:48 - 0:51Fejsbuk broji 1,2 milijarde
korisnika mesečno. -
0:51 - 0:54Dakle, gotovo polovina
internet korisnika na planeti -
0:54 - 0:55koristi Fejsbuk.
-
0:55 - 0:57To je internet stranica,
koja je, kao i mnoge druge, -
0:57 - 1:00omogućila ljudima da stvore
virtualne ličnosti -
1:00 - 1:01sa jako malo tehničkih sposobnosti,
-
1:01 - 1:04i ljudi su odreagovali
postavljajući ogromne količine -
1:04 - 1:06ličnih podataka na mrežu.
-
1:06 - 1:08Rezultat toga je da postoje podaci
-
1:08 - 1:10o ponašanju, izborima, demografiji
-
1:10 - 1:12stotina miliona ljudi,
-
1:12 - 1:14što je neviđeno u istoriji.
-
1:14 - 1:16Za mene, kao informatičara,
-
1:16 - 1:19to znači da sam u mogućnosti
da stvorim modele -
1:19 - 1:21koji mogu prognozirati
svakakve vrste skrivenih osobina -
1:21 - 1:23svih vas, za koje ni ne znate
-
1:23 - 1:25da ih zapravo delite.
-
1:25 - 1:28Kao naučnici, mi to koristimo
da pomognemo ljudima -
1:28 - 1:30da komuniciraju na mreži,
-
1:30 - 1:33ali postoje i manje altruistične koristi,
-
1:33 - 1:35i problem je da korisnici zapravo
-
1:35 - 1:38ne razumeju ove metode
i kako one funkcionišu, -
1:38 - 1:40a sve i da razumeju,
ne mogu mnogo da ih kontrolišu. -
1:40 - 1:42Dakle, danas želim da govorim
-
1:42 - 1:45o nekim od stvari koje smo mi
u mogućnosti da uradimo -
1:45 - 1:47i da dam neke ideje o tome
-
1:47 - 1:50kako da vratimo kontrolu korisnicima.
-
1:50 - 1:52Ovo je kompanija Target.
-
1:52 - 1:54Nisam samo stavila taj logo
-
1:54 - 1:55na stomak ove sirote trudnice.
-
1:55 - 1:58Možda ste pročitali anegdotu
u Forbs magazinu -
1:58 - 2:00gde je Target poslao flajer
-
2:00 - 2:02jednoj petnaestogodišnjakinji
-
2:02 - 2:03sa reklamama i kuponima
-
2:03 - 2:06za pelene, cucle i krevetiće,
-
2:06 - 2:08dve nedelje pre nego što je ona
rekla svojim roditeljima -
2:08 - 2:09da je trudna.
-
2:09 - 2:12O da, otac je bio zaista uznemiren.
-
2:12 - 2:14Rekao je: "Kako je Target znao
-
2:14 - 2:17da je ova srednjoškolka trudna,
pre njenih roditelja?" -
2:18 - 2:20Oni zapravo imaju istoriju kupovine
-
2:20 - 2:22za stotine hiljada korisnika
-
2:22 - 2:25i izračunavaju ono što nazivaju
trudničkim rezultatom, -
2:25 - 2:28što nije samo
da li je neka žena trudna, -
2:28 - 2:29nego i kada treba da se porodi.
-
2:29 - 2:31Oni to izračunaju
-
2:31 - 2:32ne samo gledajući očigledne stvari,
-
2:32 - 2:35kao što je kupovina krevetića,
dečije odeće, -
2:35 - 2:38nego i to da je kupovala vitamine
više nego inače, -
2:40 - 2:43ili da je kupila torbu,
dovoljno veliku za pelene. -
2:43 - 2:44Same po sebi ove kupovine
-
2:44 - 2:46ne izgledaju kao da mnogo otkrivaju,
-
2:46 - 2:49ali predstavljaju obrazac ponašanja koji,
-
2:49 - 2:52kada se stavi u kontekst
hiljada drugih ljudi -
2:52 - 2:55počinje da otkriva
neke skrivene činjenice. -
2:55 - 2:57To je ono što mi radimo
-
2:57 - 3:00kada pokušavamo da predvidimo stvari
o vama na društvenim mrežama. -
3:00 - 3:02Tražimo male obrasce u ponašanju koji,
-
3:02 - 3:05kada ih spazite među milionima ljudi,
-
3:05 - 3:07dozvoljavaju da saznamo svakakve stvari.
-
3:08 - 3:09Moje kolege i ja smo u laboratoriji
-
3:09 - 3:11razradili mehanizme gde smo u mogućnosti
-
3:11 - 3:13da sasvim tačno predvidimo
-
3:13 - 3:14vašu političku opredeljenost,
-
3:14 - 3:17rezultat testa ličnosti,
rod, seksualnu orijentaciju, -
3:18 - 3:21versku opredeljenost,
godište, nivo inteligencije, -
3:21 - 3:24kao i koliko imate poverenja
u ljude koje poznajete. -
3:24 - 3:26i koliko su te veze jake.
-
3:26 - 3:28Sve ovo mi radimo veoma dobro.
-
3:28 - 3:30Opet, to ne dolazi
iz očiglednih informacija, -
3:30 - 3:32kao što bi bilo za očekivati.
-
3:32 - 3:34Moj omiljeni primer je iz ove studije
-
3:34 - 3:36koja je izdata ove godine
-
3:36 - 3:37u Zborniku Nacionalnih akademija.
-
3:37 - 3:40Ako pretražite internet
moći ćete da nađete. -
3:40 - 3:41Ima četiri strane, lako je za čitanje.
-
3:41 - 3:44Oni su pregledali
samo lajkove ljudi na Fejsbuku, -
3:44 - 3:46dakle samo stvari
koje ste lajkovali na Fejsbuku, -
3:46 - 3:49i iskoristili su ih da predvide
sve ove atribute, -
3:49 - 3:50zajedno sa nekim drugim.
-
3:50 - 3:52U svom izveštaju su nabrojali 5 lajkova
-
3:52 - 3:55koji predstavljaju nagoveštaje
visoke inteligencije. -
3:55 - 3:57Jedan od lajkova je
-
3:57 - 4:00stranica uvijenih prženih krompirića.
(Smeh) -
4:00 - 4:01Uvijeni prženi krompirići su ukusni,
-
4:01 - 4:04ali to što vam se dopadaju ne znači nužno
-
4:04 - 4:06da ste pametniji od prosečne osobe.
-
4:06 - 4:09Kako je onda jedan od bitnijih indikatora
vaše inteligencije -
4:10 - 4:12lajkovanje ove stranice,
-
4:12 - 4:14kada je sadržaj potpuno nebitan
-
4:14 - 4:17u odnosu na atribut koji se predviđa?
-
4:17 - 4:20Ispostavlja se da moramo da uzmemo u obzir
-
4:20 - 4:21gomilu drugih teorija,
-
4:21 - 4:23da bismo saznali kako dolazimo
do ovog rezultata. -
4:23 - 4:26Jedna od teorija je sociološka,
zvana homofilija, -
4:26 - 4:29koja kaže da prijatelji imaju
zajednička interesovanja. -
4:29 - 4:31Ako ste pametni,
često su to i vaši prijatelji, -
4:31 - 4:34ako ste mladi, sprijateljićete se
sa drugim mladim osobama -
4:34 - 4:36i ovo je već davno ustanovljeno.
-
4:37 - 4:39Mi takođe znamo mnogo tome
-
4:39 - 4:41kako se informacije prenose kroz mreže.
-
4:41 - 4:43Ispostavlja se da se popularni video
-
4:43 - 4:46ili lajkovi na Fejsbuku
i druge informacije, -
4:46 - 4:49prenose identično
kao i bolesti kroz društvene mreže. -
4:49 - 4:51Ovo izučavamo već duže vreme.
-
4:51 - 4:53Imamo dobre modele za to.
-
4:53 - 4:55Kada sve to saberete
-
4:55 - 4:57uvidećete zašto se tako nešto
uopšte dešava. -
4:57 - 5:00Ako bih vam ponudila hipotezu
-
5:00 - 5:03ona bi glasila da je neki bistar momak
napravio ovu stranicu, -
5:03 - 5:06ili da je jedna od prvih osoba
koja je lajkovala stranicu -
5:06 - 5:08imala visoke rezultate
na testu inteligencije. -
5:08 - 5:10Njihovi prijatelji su to videli
-
5:10 - 5:13i na osnovu homofilije, pretpostavljamo
da je imao pametne prijatelje, -
5:13 - 5:16pa se sve prenelo na njih,
pa su i oni lajkovali, -
5:16 - 5:17a i oni su imali pametne prijatelje
-
5:17 - 5:19pa se sve takođe prenelo na njih,
-
5:19 - 5:21pa se sve proširilo kroz mrežu
-
5:21 - 5:22na veliki broj pametnih ljudi,
-
5:22 - 5:24i do kraja je postupak
-
5:24 - 5:26lajkovanja stranice uvijenih krompirića
-
5:26 - 5:28postao indikativan
za visoku inteligenciju, -
5:28 - 5:30ne zbog svog sadržaja,
-
5:30 - 5:32nego zbog toga što čin lajkovanja
-
5:32 - 5:34odražava zajedničke osobine
-
5:34 - 5:36drugih ljudi koji su učinili isto.
-
5:37 - 5:39Ovo je prilično komplikovano, zar ne?
-
5:39 - 5:43Nije lako objasniti prosečnom korisniku,
-
5:43 - 5:44a čak iako uspete,
-
5:44 - 5:47šta prosečan korisnik
može da uradi povodom toga? -
5:47 - 5:49Kako da znate da ste lajkovali nešto
-
5:49 - 5:51što odaje neku vašu osobinu,
-
5:51 - 5:53a koja nema nikakve veze
sa sadržajem koji ste lajkovali? -
5:53 - 5:56Korisnici nemaju mnogo moći
-
5:56 - 5:58da kontrolišu kako se ovi podaci koriste.
-
5:58 - 6:01Ja to vidim kao pravi problem.
-
6:02 - 6:04Mislim da postoje dva puta
-
6:04 - 6:05koja želimo da razmatramo
-
6:05 - 6:07ako želimo da korisnicima damo kontrolu
-
6:07 - 6:09nad korišćenjem podataka,
-
6:09 - 6:10jer oni neće uvek biti korišćeni
-
6:10 - 6:12u njihovu korist.
-
6:12 - 6:14Jedan primer koji često dajem je da,
-
6:14 - 6:15ako mi ikada dosadi da budem profesor,
-
6:15 - 6:17osnovaću kompaniju
-
6:17 - 6:18koja predviđa sve ove osobine,
-
6:18 - 6:20npr. koliko dobro radite u timovima,
-
6:20 - 6:22da li koristite droge,
da li ste alkoholičar. -
6:22 - 6:24Znamo kako sve to da predvidimo.
-
6:24 - 6:25I prodavaću izveštaje
-
6:25 - 6:27HR kompanijama i velikim firmama
-
6:27 - 6:29koje žele da vas zaposle.
-
6:29 - 6:31To apsolutno možemo sada da uradimo.
-
6:31 - 6:33Mogla bih sutra da otvorim tu kompaniju,
-
6:33 - 6:35a vi uopšte ne biste imali kontrolu
-
6:35 - 6:37nad tim kako ja koristim vaše podatke.
-
6:37 - 6:39Po mom mišljenju, ovo je problem.
-
6:39 - 6:41Jedan od puteva kojim možemo da pođemo
-
6:41 - 6:43je put pravila i zakona.
-
6:43 - 6:46Donekle, mislim da bi to bilo
i najefikasnije, -
6:46 - 6:48ali problem je u tome
što bi to trebalo i uradimo. -
6:48 - 6:51Gledajući kako
naš politički proces funkcioniše, -
6:51 - 6:54izgleda mi malo verovatno
-
6:54 - 6:56da će gomila političara
-
6:56 - 6:58da sedne i nauči nešto o ovome,
-
6:58 - 7:00a onda sprovede korenite promene
-
7:00 - 7:02u zakonu o intelektualnoj svojini u SAD-u,
-
7:02 - 7:04kako bi korisnici
kontrolisali svoje podatke. -
7:04 - 7:06Mogli bismo da idemo putem politike,
-
7:06 - 7:08gde kompanije društvenih medija kažu:
-
7:08 - 7:09"Vi posedujete svoje podatke.
-
7:09 - 7:12Imate potpunu kontrolu
nad njihovim korišćenjem." -
7:12 - 7:14Problem je u tome što se modeli poslovanja
-
7:14 - 7:16većine kompanija društvenih medija
-
7:16 - 7:19oslanjaju na deljenje i iskorišćavanje
podataka korisnika na neki način. -
7:19 - 7:21Za Fejsbuk se nekada kaže
-
7:21 - 7:23da korisnici nisu klijenti,
nego su proizvod. -
7:23 - 7:25I kako da navedete neku kompaniju
-
7:25 - 7:28da kontrolu nad svojim glavnim resursom
-
7:28 - 7:30vrati korisnicima?
-
7:30 - 7:32Moguće je, ali mislim da nije nešto
-
7:32 - 7:34što će se brzo promeniti.
-
7:34 - 7:35Mislim da je drugi put
-
7:35 - 7:37kojim možemo da krenemo,
i koji je efektniji, -
7:37 - 7:39je onaj sa više nauke.
-
7:39 - 7:41Primena nauke nam je omogućila
-
7:41 - 7:43da uopšte razvijemo sve ove mehanizme
izračunavanja -
7:43 - 7:45ovih ličnih podataka.
-
7:45 - 7:47To istraživanje je veoma slično onom
-
7:47 - 7:49koje bismo morali da sprovedemo
-
7:49 - 7:51ako bismo želeli da razvijemo mehanizme
-
7:51 - 7:53koji bi korisniku rekli:
-
7:53 - 7:55"Ovo je rizik akcije
koju ste upravo sproveli". -
7:55 - 7:57Lajkovanjem te Fejsbuk stranice
-
7:57 - 7:59ili deljenjem te lične informacije
-
7:59 - 8:01poboljšali ste moju sposobnost
-
8:01 - 8:03da predvidim da li koristite droge
-
8:03 - 8:06ili da li se dobro slažete sa kolegama
na poslu. -
8:06 - 8:09I mislim da će to uticati na odluku
ljudi da podele nešto, -
8:09 - 8:12da zadrže u privatnosti
ili uopšte ne postave na internet. -
8:12 - 8:14Možemo posmatrati
-
8:14 - 8:17i dozvoljavanje ljudima da šifrom
zaštite podatke koje postavljaju, -
8:17 - 8:20da bi bili nevidljivi i beskorisni
sajtovima kao što je Fejsbuk -
8:20 - 8:23ili servisima trećeg lica
koji im pristupaju, -
8:23 - 8:25ali da mogu da vide
samo odabrani korisnici, -
8:25 - 8:29za koje osoba koja postavlja sadržaj,
želi da vide. -
8:29 - 8:31Ovo je veoma uzbudljivo istraživanje,
-
8:31 - 8:32sa intelektualnog stanovišta,
-
8:32 - 8:34i naučnici će želeti time da se bave.
-
8:34 - 8:37To nam daje prednost u odnosu na zakon.
-
8:37 - 8:40Jedan od problema koji ljudi iznose
-
8:40 - 8:41kada govorim o ovome je,
-
8:41 - 8:44da ako ljudi počnu
da podatke drže u tajnosti, -
8:44 - 8:46sve metode koje sam ja razvijala
-
8:46 - 8:48za predviđanje njihovih osobina
će propasti. -
8:48 - 8:52Ja se apsolutno slažem,
za mene je to uspeh, -
8:52 - 8:54jer kao naučniku,
-
8:54 - 8:57meni nije cilj da nagađam
o podacima korisnika, -
8:57 - 9:00nego da poboljšam način
na koji komuniciraju na internetu. -
9:00 - 9:03Ponekad to uključuje zaključivanje,
-
9:03 - 9:06ali ako korisnici ne žele
da koristim njihove podatke, -
9:06 - 9:08mislim da bi trebalo da imaju pravo na to.
-
9:08 - 9:11Želim da korisnici budu informisani
i da pristanu -
9:11 - 9:13da koriste alate koje razvijamo.
-
9:13 - 9:16Mislim da podsticanje ovakve nauke
-
9:16 - 9:18i podržavanje istraživača
-
9:18 - 9:20koji žele da deo te kontrole
vrate korisnicima -
9:20 - 9:23i oduzmu od kompanija društvenih medija,
-
9:23 - 9:25znači napredovanje,
kako se ti alati razvijaju -
9:25 - 9:27i napreduju,
-
9:27 - 9:30znači da ćemo imati obrazovanu
i osnaženu bazu korisnika, -
9:30 - 9:31i mislim da se slažemo
-
9:31 - 9:34da je to idealan način za napredovanje.
-
9:34 - 9:35Hvala vam.
-
9:35 - 9:37(Aplauz)
- Title:
- Zagonetka uvijenog pomfrita - zašto "lajkovi" na društvenim mrežama otkrivaju više nego što mislite
- Speaker:
- Dženifer Golbek (Jennifer Golbeck)
- Description:
-
Volite li uvijeni pomfrit? Da li ste ga lajkovali na Fejsbuku? Pogledajte ovaj govor kako biste otkrili iznenađujuće stvari koje Fejsbuk (i drugi) mogu da pogode o vama na osnovu nasumičnih "lajkova" i stvari koje ste podelili sa drugima. Informatičarka Dženifer Golbek objašnjava kako je do ovoga došlo, kako neke primene ove tehnologije i nisu tako simpatične, i iznosi zašto ona misli da kontrolu nad informacijama treba da vratimo njihovim pravim vlasnicima.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Mile Živković approved Serbian subtitles for Your social media "likes" expose more than you think | ||
Mile Živković edited Serbian subtitles for Your social media "likes" expose more than you think | ||
Mile Živković edited Serbian subtitles for Your social media "likes" expose more than you think | ||
Mile Živković edited Serbian subtitles for Your social media "likes" expose more than you think | ||
Mile Živković accepted Serbian subtitles for Your social media "likes" expose more than you think | ||
Ivana Korom edited Serbian subtitles for Your social media "likes" expose more than you think | ||
Ivana Korom edited Serbian subtitles for Your social media "likes" expose more than you think | ||
Ivana Korom edited Serbian subtitles for Your social media "likes" expose more than you think |