Záhada kučeravých hranoliek: Prečo „like“ znamená viac, ako si myslíte
-
0:01 - 0:03Ak si spomeniete na
prvé desaťročie webu, -
0:03 - 0:05bolo to skutočne statické miesto.
-
0:05 - 0:07Mohli ste sa pripojiť, prehliadať stránky,
-
0:07 - 0:10ktoré boli vkladané buď organizáciami,
-
0:10 - 0:11ktoré na to mali tímy ľudí,
-
0:11 - 0:13alebo jednotlivcami, ktorí boli v tom čase
-
0:13 - 0:15počítačovými špičkami.
-
0:15 - 0:17S nástupom sociálnych médií
-
0:17 - 0:19a sociálnych sietí
na začiatku tisícrocia -
0:19 - 0:21sa internet razantne zmenil
-
0:21 - 0:25na miesto, kde veľká väčšina obsahu,
-
0:25 - 0:28s ktorým prídeme do styku, je
pridávaná priemernými používateľmi, -
0:28 - 0:31či už ide o YouTube videá, blogy,
-
0:31 - 0:34recenzie na výrobky alebo príspevky
na sociálnych médiach. -
0:34 - 0:37Web sa tiež stal oveľa
interaktívnejším miestom, -
0:37 - 0:39kde sa ľudia stretávajú s inými,
-
0:39 - 0:41komentujú, zdieľajú,
-
0:41 - 0:43nie sú len pasívnymi čitateľmi.
-
0:43 - 0:44Facebook nie je jediným takým miestom,
-
0:44 - 0:46ale je najväčším
-
0:46 - 0:48a dobre sa na ňom ilustrujú štatistiky.
-
0:48 - 0:51Facebook má mesačne
1,2 miliardy používateľov. -
0:51 - 0:53Takže polovica internetovej populácie
-
0:53 - 0:54používa Facebook.
-
0:54 - 0:56Takýto druh stránok
-
0:56 - 1:00dovoľuje ľudom vytvárať virtuálne identity
-
1:00 - 1:01s minimom technických zručností
-
1:01 - 1:04a ľudia v obrovskom množstve
-
1:04 - 1:06dávajú na web osobné údaje.
-
1:06 - 1:08V dôsledku toho máme k dispozícii dáta
-
1:08 - 1:10o správaní sa, preferenciách a demografii
-
1:10 - 1:12stoviek miliónov ľudí,
-
1:12 - 1:14čo nemá v histórii ľudstva obdoby.
-
1:14 - 1:17Pre mňa ako počítačovú
vedkyňu to znamená to, -
1:17 - 1:19že môžem tvoriť modely, ktoré vám
-
1:19 - 1:21dokážu predpovedať
množstvo skrytých vlastností, -
1:21 - 1:23pri ktorých ani netušíte,
-
1:23 - 1:25že o nich zdieľate informácie.
-
1:25 - 1:28My vedci môžeme použiť
tieto informácie ako pomoc -
1:28 - 1:30pri spôsobe, akým ľudia interagujú online,
-
1:30 - 1:32ale existuje aj menej
vznešený spôsob použitia -
1:32 - 1:35a problémom je, že používatelia
vskutku nerozumejú -
1:35 - 1:37takýmto metódam a ich fungovaniu
-
1:37 - 1:40a aj keby rozumeli, tak to
nemajú ako kontrolovať. -
1:40 - 1:42Dnes chcem hovoriť
-
1:42 - 1:45o niektorých veciach, ktoré môžeme urobiť,
-
1:45 - 1:47a dať vám nejaké nápady, ako sa posunúť
-
1:47 - 1:50a vrátiť kontrolu späť
do rúk používateľom. -
1:50 - 1:52Toto je firma Target („Cieľ“).
-
1:52 - 1:53Nedala som to logo len tak
-
1:53 - 1:55na bruško tej úbohej tehotnej ženy.
-
1:55 - 1:57Možno ste videli anekdotu, ktorá vyšla
-
1:57 - 1:59vo Forbese, kde firma Target
-
1:59 - 2:02poslala 15-ročnej dievčine leták
-
2:02 - 2:03s reklamou a kupónmi
-
2:03 - 2:06na dojčenské fľaše, plienky a postieľky
-
2:06 - 2:07dva týždne pred tým,
-
2:07 - 2:09čo oznámila rodičom, že je tehotná.
-
2:09 - 2:12Áno, jej otec bol z toho dosť nešťastný.
-
2:12 - 2:14Pýtal sa: „Ako vedela firma Target,
-
2:14 - 2:16že jeho dcéra stredoškoláčka je tehotná,
-
2:16 - 2:18pred tým, ako to povedala rodičom?“
-
2:18 - 2:20Ukázalo sa, že firma Target
mala obchodnú históriu -
2:20 - 2:22stotisícov zákazníkov
-
2:22 - 2:25a vypočítali niečo, čomu hovoria
tehotenské skóre, -
2:25 - 2:28čo nie je len fakt, či je
žena tehotná alebo nie, -
2:28 - 2:29ale aj dátum očakávaného pôrodu.
-
2:29 - 2:31Nevypočítali to tak,
-
2:31 - 2:32že by sa pozerali na obvyklé veci,
-
2:32 - 2:35ako to, že kupovala postieľku
alebo detské oblečenie, -
2:35 - 2:38ale podľa toho, že kúpila viac vitamínov,
-
2:38 - 2:39ako kupovala normálne,
-
2:39 - 2:41alebo kúpila tašku
-
2:41 - 2:43dosť veľkú na detské plienky.
-
2:43 - 2:45Zdá sa, že samy od seba tieto nákupy
-
2:45 - 2:47neprezrádzajú veľa,
-
2:47 - 2:49ale je v tom vzor správania sa,
-
2:49 - 2:52ktorý keď vložíte do kontextu
správania sa tisícov ľudí, -
2:52 - 2:55začne o vás prezrádzať oveľa viac.
-
2:55 - 2:57Toto je druh vecí, ktoré robíme,
-
2:57 - 2:59keď o vás predpovedáme
veci na sociálnych médiách. -
2:59 - 3:02Hľadáme vzorčeky v chovaní,
-
3:02 - 3:05ktoré keď zistíme medzi miliónmi ľudí,
-
3:05 - 3:07umožnia nám zistiť množstvo vecí.
-
3:07 - 3:09S kolegami sme v laboratóriu
-
3:09 - 3:11vyvinuli mechanizmus, ktorým môžeme
-
3:11 - 3:13celkom presne predpovedať veci,
-
3:13 - 3:14ako sú vaše politické preferencie,
-
3:14 - 3:18osobnostné hodnotenie,
pohlavie, sexuálna orientácia, -
3:18 - 3:21viera, vek, inteligencia,
-
3:21 - 3:22spolu s vecami ako
-
3:22 - 3:24ako dôverujete ľudom, ktorých poznáte,
-
3:24 - 3:26a aké pevné sú tieto vzťahy.
-
3:26 - 3:28Toto všetko vieme robiť veľmi dobre.
-
3:28 - 3:30A to všetko zisťujeme
z informácii, ktoré by ste -
3:30 - 3:32nepovažovali za zrejmé.
-
3:32 - 3:34Môj najobľúbenejší príklad je zo štúdie,
-
3:34 - 3:35publikovanej tento rok
-
3:35 - 3:37v Proceedings of the National Academies.
-
3:37 - 3:39Ľahko to nájdete na Google.
-
3:39 - 3:41Má to len 4 stránky, jednoduché čítanie.
-
3:41 - 3:44Pozorovali iba to, čo ľudia
na Facebooku označujú „likeom“, -
3:44 - 3:45len to, čo sa vám páči na Facebooku,
-
3:45 - 3:48a tým predpovedali všetky tie atribúty,
-
3:48 - 3:49ako aj ďalšie.
-
3:49 - 3:52V štúdii urobili zoznam piatich „likeov“,
-
3:52 - 3:55ktoré najviac indikovali
vysokú inteligenciu. -
3:55 - 3:57V tomto zozname bolo
aj „likeovanie“ stránky -
3:57 - 3:59s kučeravými hranolkami. (smiech)
-
3:59 - 4:01Kučeravé hranolky chutia úžasne,
-
4:01 - 4:04ale to, že ich máte radi, nemusí znamenať,
-
4:04 - 4:06že ste inteligentnejší
ako priemerný človek. -
4:06 - 4:09Ako môže potom byť jeden
z najsilnejších indikátorov -
4:09 - 4:10vašej inteligencie to,
-
4:10 - 4:12že označíte, že sa vám páči táto stránka,
-
4:12 - 4:14keď obsah je absolútne irelevantný
-
4:14 - 4:17k vlastnosti, ktorú chceme predpovedať?
-
4:17 - 4:19Ukazuje sa, že sa musíme pozrieť
-
4:19 - 4:20na celú skupinu základných teórií,
-
4:20 - 4:23aby sme pochopili, ako sa to dá urobiť.
-
4:23 - 4:26Jedna z nich je sociologická
teória zvaná homofília, -
4:26 - 4:29ktorá v princípe hovorí, že ľudia
sa priatelia s podobnými ľuďmi. -
4:29 - 4:31Ako múdry sa skôr spriatelíte s múdrymi,
-
4:31 - 4:33ako mladý skôr s mladými ľuďmi,
-
4:33 - 4:35to je stará známa vec
-
4:35 - 4:37už po stovky rokov.
-
4:37 - 4:38Vieme tiež dosť
-
4:38 - 4:41o tom, ako sa informácia šíri cez siete.
-
4:41 - 4:43Ukazuje sa, že veci
ako virálne videá alebo -
4:43 - 4:45„likey“ na Facebooku alebo iné informácie
-
4:45 - 4:47sa šíria presne takým istým spôsobom,
-
4:47 - 4:49ako sa šíria choroby, cez sociálne siete.
-
4:49 - 4:51Takže toto študujeme už celkom dlho.
-
4:51 - 4:52Máme na to dobré modely.
-
4:52 - 4:55Môžete zložiť tieto časti dohromady
-
4:55 - 4:58a začnete vidieť, prečo
sa veci ako toto sa stávajú. -
4:58 - 4:59Ak by som chcela postaviť hypotézu,
-
4:59 - 5:03bola by asi taká, že túto stránku
vytvoril chytrý chlapík, -
5:03 - 5:05alebo medzi prvými, ktorí dali „like“,
-
5:05 - 5:06bol niekto inteligentný.
-
5:06 - 5:09Dal „like“, jeho priatelia to videli
-
5:09 - 5:12a podľa homofílie vieme, že
pravdepodobne má chytrých priateľov, -
5:12 - 5:15takže sa to rozšírilo na nich,
niektorí tiež dali „like“. -
5:15 - 5:16Mali ďalších priateľov,
-
5:16 - 5:17rozšírilo sa to k nim
-
5:17 - 5:19a šíri sa to sieťou
-
5:19 - 5:21davom chytrých ľudí,
-
5:21 - 5:23takže v konečnom dôsledku
-
5:23 - 5:26je označenie stránky
s kučeravými hranolkami -
5:26 - 5:28indikátorom vysokej inteligencie,
-
5:28 - 5:29nie pre obsah stránky,
-
5:29 - 5:32ale pretože samotný akt označenia stránky
-
5:32 - 5:34nás vracia späť k spoločným atribútom
-
5:34 - 5:36iných ľudí, ktorí urobili to isté.
-
5:36 - 5:39Asi sa vám to javí ako
pekne komplikovaná vec, že ? -
5:39 - 5:41Je to dosť ťažké, sadnúť si a vysvetliť to
-
5:41 - 5:44priemerným používateľom,
a ak to aj dokážete, -
5:44 - 5:46čo s tým môže obyčajný človek urobiť ?
-
5:46 - 5:48Ako môžete vedieť, keď dáte like na niečo,
-
5:48 - 5:50čo indikuje vašu povahovú črtu,
-
5:50 - 5:53ktorá je úplne irelevantná k obsahu,
ktorý ste označili, že sa vám páči? -
5:53 - 5:56Užívatelia nemajú veľkú moc
-
5:56 - 5:58kontrolovať používanie týchto údajov.
-
5:58 - 6:01Ja to vnímam ako narastajúci problém.
-
6:01 - 6:03Myslím, že je niekoľko ciest,
-
6:03 - 6:04ktoré treba zvážiť,
-
6:04 - 6:06ak chceme dať používateľom istú kontrolu
-
6:06 - 6:08nad tým, ako sú použité tieto dáta,
-
6:08 - 6:10pretože nie vždy budú použité
-
6:10 - 6:11k ich prospechu.
-
6:11 - 6:13Často uvádzam tento príklad:
-
6:13 - 6:14ak ma učiteľstvo začne nudiť,
-
6:14 - 6:16otvorím si spoločnosť,
-
6:16 - 6:18ktorá by predpovedala tie veci:
-
6:18 - 6:19ako dobre pracujete v tíme,
-
6:19 - 6:22či beriete drogy, či ste alkoholik.
-
6:22 - 6:23Toto všetko vieme predpovedať.
-
6:23 - 6:25Predala by som tieto informácie
-
6:25 - 6:27personálnym firmám a veľkým spoločnostiam,
-
6:27 - 6:29ktoré vás chcú zamestnať.
-
6:29 - 6:31Áno, to sa už dnes dá.
-
6:31 - 6:32Hneď zajtra by som mohla založiť firmu
-
6:32 - 6:34a vy by ste nemali
žiadnu kontrolu nad tým, -
6:34 - 6:36ako tieto dáta použijem.
-
6:36 - 6:39To sa mi zdá ako dosť veľký problém.
-
6:39 - 6:41Jedna cesta, po ktorej sa môžeme vydať,
-
6:41 - 6:43je cesta právneho prístupu.
-
6:43 - 6:46A myslím, že v istých ohľadoch
by to mohlo byť najúčinnejšie, -
6:46 - 6:49ale problémom je, že by
sme to museli naozaj urobiť. -
6:49 - 6:51Keď sledujem náš politický proces v akcii,
-
6:51 - 6:54zdá sa mi vysoko nepravdepodobné,
-
6:54 - 6:55že prinútime skupinu politikov,
-
6:55 - 6:57aby si k tomu sadli, osvojili si to
-
6:57 - 6:59a potom presadili závažné zmeny
-
6:59 - 7:02v zákonoch USA
o intelektuálnom vlastníctve, -
7:02 - 7:04aby užívatelia mohli
kontrolovať svoje dáta. -
7:04 - 7:05Mohli by sme ísť tou cestou,
-
7:05 - 7:07kde by vlastníci sietí povedali:
-
7:07 - 7:08viete čo? Vaše dáta sú vaše.
-
7:08 - 7:10Máte úplnú kontrolu
nad tým, ako sú použité. -
7:10 - 7:13Problém je,
že modely finančnej návratnosti -
7:13 - 7:14väčšiny vlastníkov sociálnych sietí
-
7:14 - 7:18sú nejakým spôsobom závislé od zdieľania
alebo zneužívania užívateľských dát. -
7:18 - 7:20O Facebooku sa vravieva, že užívatelia
-
7:20 - 7:23nie sú zákazníci, ale produkt.
-
7:23 - 7:25Tak ako potom prinútiť spoločnosti,
-
7:25 - 7:28aby vrátili kontrolu
svojho hlavného majetku -
7:28 - 7:29späť užívateľom?
-
7:29 - 7:31Možné to je, ale nemyslím si,
-
7:31 - 7:33že sa to v dohľadnom čase zmení.
-
7:33 - 7:35Preto si myslím, že ďalšia cesta,
-
7:35 - 7:37ktorú môžeme skúsiť
a ktorá bude účinnejšia, -
7:37 - 7:38je nasadiť viac vedy.
-
7:38 - 7:41Veda nás priviedla k tomu, že sme vyvinuli
-
7:41 - 7:43všetky tie mechanizmy
-
7:43 - 7:45na spracovávanie osobných dát.
-
7:45 - 7:47A je to vlastne veľmi podobný výskum,
-
7:47 - 7:48ktorý musíme urobiť,
-
7:48 - 7:51ak chceme vyvinúť mechanizmy,
-
7:51 - 7:52ktoré používateľovi povedia:
-
7:52 - 7:54„To, čo chceš práve urobiť, je riskantné.“
-
7:54 - 7:56Likeovaním tejto Facebookovej stránky
-
7:56 - 7:59alebo zdieľaním tejto osobnej informácie
-
7:59 - 8:00zväčšuješ našu schopnosť
-
8:00 - 8:03predpovedať, či berieš
alebo neberieš drogy -
8:03 - 8:05alebo či máš dobré vzťahy na pracovisku.
-
8:05 - 8:07Myslím, že to môže ovplyvniť,
-
8:07 - 8:09či ľudia chcú niečo zdielať,
-
8:09 - 8:12držať to v súkromí
alebo to nezdieľať vôbec. -
8:12 - 8:14Môžeme to skúsiť ešte inak:
-
8:14 - 8:16dovoliť ľudom šifrovať
dáta, ktoré pridávajú, -
8:16 - 8:18aby sa tak neviditeľnými a bezcennými
-
8:18 - 8:20pre stránky ako Facebook
-
8:20 - 8:22či služby tretích strán,
ktoré naň pristupujú, -
8:22 - 8:25ale aby ich vybraní užívatelia,
ktorým autor obsah sprístupní, -
8:25 - 8:28mohli daný obsah vidieť.
-
8:28 - 8:30Z intelektuálneho hľadiska je tento výskum
-
8:30 - 8:32mimoriadne vzrušujúci
-
8:32 - 8:34a preto do toho vedci pôjdu radi.
-
8:34 - 8:37To nám dáva výhodu pred právnym prístupom.
-
8:37 - 8:39Jeden z problémov, ktorý ľudia
-
8:39 - 8:41spomínajú, keď o tom hovorím, je,
-
8:41 - 8:43že ak ľudia začnú uchovávať
všetky tieto dáta v súkromí, -
8:43 - 8:45všetky tie metódy, ktoré vyvíjame
-
8:45 - 8:48na predpovedanie ich
charakterových čŕt, nakoniec zlyhajú. -
8:48 - 8:52A ja hovorím, že určite
a že je to pre mňa úspech, -
8:52 - 8:53pretože ako pre vedkyňu
-
8:53 - 8:57nie je pre mňa cieľom získavať
informácie o užívateľoch, -
8:57 - 9:00ale zlepšiť spôsob, ako
ľudia interagujú online. -
9:00 - 9:03Áno, niekedy to zahŕňa aj vyhodnocovanie
informácii o nich samotných, -
9:03 - 9:06ale ak užívatelia nechcú,
aby sa tieto informácie použili, -
9:06 - 9:08myslím, že na to majú mať právo.
-
9:08 - 9:11Chcem, aby ľudia boli
informovanými a poučenými -
9:11 - 9:13používateľmi nástrojov,
ktoré sme vyvinuli. -
9:13 - 9:16Myslím, že podporovanie tohto druhu vedy
-
9:16 - 9:17a podpora výskumníkov,
-
9:17 - 9:20ktorí chcú postúpiť časť
kontroly späť používateľom -
9:20 - 9:23a vziať ju vlastníkom sociálnych médií,
-
9:23 - 9:25znamená, že posúvať sa dopredu s vývojom
-
9:25 - 9:27a postupom týchto nástrojov
-
9:27 - 9:28znamená, že treba vzdelanú
-
9:28 - 9:30a posilnenú základňu používateľov,
-
9:30 - 9:31a myslím, že súhlasíte,
-
9:31 - 9:33že to je presne ten ideál,
ku ktorému chceme smerovať. -
9:33 - 9:36Ďakujem.
-
9:36 - 9:39(potlesk)
- Title:
- Záhada kučeravých hranoliek: Prečo „like“ znamená viac, ako si myslíte
- Speaker:
- Jennifer Golbeck
- Description:
-
Máte radi kučeravé hranolky? Dali ste im like na Facebooku? Pozrite si túto prednášku a nechajte sa prekvapiť tým, čo môže Facebook (a iné stránky) odhadnúť z náhodného klikania na Like (Páči sa mi to) a Share (zdieľať). Počítačová vedkyňa Jennifer Goldbeck vysvetľuje, ako sa to deje, že nie všetky aplikácie a technológie sú milé a príjemné a prečo si myslí, že by sme mali vrátiť kontrolu nad informáciami ich zákonitým vlastníkom.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Ivana Kopisova approved Slovak subtitles for Your social media "likes" expose more than you think | ||
Ivana Kopisova commented on Slovak subtitles for Your social media "likes" expose more than you think | ||
Ivana Kopisova edited Slovak subtitles for Your social media "likes" expose more than you think | ||
Ivana Kopisova edited Slovak subtitles for Your social media "likes" expose more than you think | ||
Ivana Kopisova edited Slovak subtitles for Your social media "likes" expose more than you think | ||
Kristián Leško edited Slovak subtitles for Your social media "likes" expose more than you think | ||
Kristián Leško edited Slovak subtitles for Your social media "likes" expose more than you think | ||
Kristián Leško accepted Slovak subtitles for Your social media "likes" expose more than you think |
Kristián Leško
Prosím preložiť popis videa (Description).
Kristián Leško
Dobrý preklad, urobil som len pár zmien s rozdelením titulkov a niekoľko významových korekcií (napr. viral videos sú virálne = extrémne populárne, nie zavírené videá a podobne). Ďakujem.
Ivana Kopisova
Výborný preklad, skvelá korektúra! Ďakujem, páni, a teším sa na ďalšiu spoluprácu! :)