Return to Video

Záhada kučeravých hranoliek: Prečo „like“ znamená viac, ako si myslíte

  • 0:01 - 0:03
    Ak si spomeniete na
    prvé desaťročie webu,
  • 0:03 - 0:05
    bolo to skutočne statické miesto.
  • 0:05 - 0:07
    Mohli ste sa pripojiť, prehliadať stránky,
  • 0:07 - 0:10
    ktoré boli vkladané buď organizáciami,
  • 0:10 - 0:11
    ktoré na to mali tímy ľudí,
  • 0:11 - 0:13
    alebo jednotlivcami, ktorí boli v tom čase
  • 0:13 - 0:15
    počítačovými špičkami.
  • 0:15 - 0:17
    S nástupom sociálnych médií
  • 0:17 - 0:19
    a sociálnych sietí
    na začiatku tisícrocia
  • 0:19 - 0:21
    sa internet razantne zmenil
  • 0:21 - 0:25
    na miesto, kde veľká väčšina obsahu,
  • 0:25 - 0:28
    s ktorým prídeme do styku, je
    pridávaná priemernými používateľmi,
  • 0:28 - 0:31
    či už ide o YouTube videá, blogy,
  • 0:31 - 0:34
    recenzie na výrobky alebo príspevky
    na sociálnych médiach.
  • 0:34 - 0:37
    Web sa tiež stal oveľa
    interaktívnejším miestom,
  • 0:37 - 0:39
    kde sa ľudia stretávajú s inými,
  • 0:39 - 0:41
    komentujú, zdieľajú,
  • 0:41 - 0:43
    nie sú len pasívnymi čitateľmi.
  • 0:43 - 0:44
    Facebook nie je jediným takým miestom,
  • 0:44 - 0:46
    ale je najväčším
  • 0:46 - 0:48
    a dobre sa na ňom ilustrujú štatistiky.
  • 0:48 - 0:51
    Facebook má mesačne
    1,2 miliardy používateľov.
  • 0:51 - 0:53
    Takže polovica internetovej populácie
  • 0:53 - 0:54
    používa Facebook.
  • 0:54 - 0:56
    Takýto druh stránok
  • 0:56 - 1:00
    dovoľuje ľudom vytvárať virtuálne identity
  • 1:00 - 1:01
    s minimom technických zručností
  • 1:01 - 1:04
    a ľudia v obrovskom množstve
  • 1:04 - 1:06
    dávajú na web osobné údaje.
  • 1:06 - 1:08
    V dôsledku toho máme k dispozícii dáta
  • 1:08 - 1:10
    o správaní sa, preferenciách a demografii
  • 1:10 - 1:12
    stoviek miliónov ľudí,
  • 1:12 - 1:14
    čo nemá v histórii ľudstva obdoby.
  • 1:14 - 1:17
    Pre mňa ako počítačovú
    vedkyňu to znamená to,
  • 1:17 - 1:19
    že môžem tvoriť modely, ktoré vám
  • 1:19 - 1:21
    dokážu predpovedať
    množstvo skrytých vlastností,
  • 1:21 - 1:23
    pri ktorých ani netušíte,
  • 1:23 - 1:25
    že o nich zdieľate informácie.
  • 1:25 - 1:28
    My vedci môžeme použiť
    tieto informácie ako pomoc
  • 1:28 - 1:30
    pri spôsobe, akým ľudia interagujú online,
  • 1:30 - 1:32
    ale existuje aj menej
    vznešený spôsob použitia
  • 1:32 - 1:35
    a problémom je, že používatelia
    vskutku nerozumejú
  • 1:35 - 1:37
    takýmto metódam a ich fungovaniu
  • 1:37 - 1:40
    a aj keby rozumeli, tak to
    nemajú ako kontrolovať.
  • 1:40 - 1:42
    Dnes chcem hovoriť
  • 1:42 - 1:45
    o niektorých veciach, ktoré môžeme urobiť,
  • 1:45 - 1:47
    a dať vám nejaké nápady, ako sa posunúť
  • 1:47 - 1:50
    a vrátiť kontrolu späť
    do rúk používateľom.
  • 1:50 - 1:52
    Toto je firma Target („Cieľ“).
  • 1:52 - 1:53
    Nedala som to logo len tak
  • 1:53 - 1:55
    na bruško tej úbohej tehotnej ženy.
  • 1:55 - 1:57
    Možno ste videli anekdotu, ktorá vyšla
  • 1:57 - 1:59
    vo Forbese, kde firma Target
  • 1:59 - 2:02
    poslala 15-ročnej dievčine leták
  • 2:02 - 2:03
    s reklamou a kupónmi
  • 2:03 - 2:06
    na dojčenské fľaše, plienky a postieľky
  • 2:06 - 2:07
    dva týždne pred tým,
  • 2:07 - 2:09
    čo oznámila rodičom, že je tehotná.
  • 2:09 - 2:12
    Áno, jej otec bol z toho dosť nešťastný.
  • 2:12 - 2:14
    Pýtal sa: „Ako vedela firma Target,
  • 2:14 - 2:16
    že jeho dcéra stredoškoláčka je tehotná,
  • 2:16 - 2:18
    pred tým, ako to povedala rodičom?“
  • 2:18 - 2:20
    Ukázalo sa, že firma Target
    mala obchodnú históriu
  • 2:20 - 2:22
    stotisícov zákazníkov
  • 2:22 - 2:25
    a vypočítali niečo, čomu hovoria
    tehotenské skóre,
  • 2:25 - 2:28
    čo nie je len fakt, či je
    žena tehotná alebo nie,
  • 2:28 - 2:29
    ale aj dátum očakávaného pôrodu.
  • 2:29 - 2:31
    Nevypočítali to tak,
  • 2:31 - 2:32
    že by sa pozerali na obvyklé veci,
  • 2:32 - 2:35
    ako to, že kupovala postieľku
    alebo detské oblečenie,
  • 2:35 - 2:38
    ale podľa toho, že kúpila viac vitamínov,
  • 2:38 - 2:39
    ako kupovala normálne,
  • 2:39 - 2:41
    alebo kúpila tašku
  • 2:41 - 2:43
    dosť veľkú na detské plienky.
  • 2:43 - 2:45
    Zdá sa, že samy od seba tieto nákupy
  • 2:45 - 2:47
    neprezrádzajú veľa,
  • 2:47 - 2:49
    ale je v tom vzor správania sa,
  • 2:49 - 2:52
    ktorý keď vložíte do kontextu
    správania sa tisícov ľudí,
  • 2:52 - 2:55
    začne o vás prezrádzať oveľa viac.
  • 2:55 - 2:57
    Toto je druh vecí, ktoré robíme,
  • 2:57 - 2:59
    keď o vás predpovedáme
    veci na sociálnych médiách.
  • 2:59 - 3:02
    Hľadáme vzorčeky v chovaní,
  • 3:02 - 3:05
    ktoré keď zistíme medzi miliónmi ľudí,
  • 3:05 - 3:07
    umožnia nám zistiť množstvo vecí.
  • 3:07 - 3:09
    S kolegami sme v laboratóriu
  • 3:09 - 3:11
    vyvinuli mechanizmus, ktorým môžeme
  • 3:11 - 3:13
    celkom presne predpovedať veci,
  • 3:13 - 3:14
    ako sú vaše politické preferencie,
  • 3:14 - 3:18
    osobnostné hodnotenie,
    pohlavie, sexuálna orientácia,
  • 3:18 - 3:21
    viera, vek, inteligencia,
  • 3:21 - 3:22
    spolu s vecami ako
  • 3:22 - 3:24
    ako dôverujete ľudom, ktorých poznáte,
  • 3:24 - 3:26
    a aké pevné sú tieto vzťahy.
  • 3:26 - 3:28
    Toto všetko vieme robiť veľmi dobre.
  • 3:28 - 3:30
    A to všetko zisťujeme
    z informácii, ktoré by ste
  • 3:30 - 3:32
    nepovažovali za zrejmé.
  • 3:32 - 3:34
    Môj najobľúbenejší príklad je zo štúdie,
  • 3:34 - 3:35
    publikovanej tento rok
  • 3:35 - 3:37
    v Proceedings of the National Academies.
  • 3:37 - 3:39
    Ľahko to nájdete na Google.
  • 3:39 - 3:41
    Má to len 4 stránky, jednoduché čítanie.
  • 3:41 - 3:44
    Pozorovali iba to, čo ľudia
    na Facebooku označujú „likeom“,
  • 3:44 - 3:45
    len to, čo sa vám páči na Facebooku,
  • 3:45 - 3:48
    a tým predpovedali všetky tie atribúty,
  • 3:48 - 3:49
    ako aj ďalšie.
  • 3:49 - 3:52
    V štúdii urobili zoznam piatich „likeov“,
  • 3:52 - 3:55
    ktoré najviac indikovali
    vysokú inteligenciu.
  • 3:55 - 3:57
    V tomto zozname bolo
    aj „likeovanie“ stránky
  • 3:57 - 3:59
    s kučeravými hranolkami. (smiech)
  • 3:59 - 4:01
    Kučeravé hranolky chutia úžasne,
  • 4:01 - 4:04
    ale to, že ich máte radi, nemusí znamenať,
  • 4:04 - 4:06
    že ste inteligentnejší
    ako priemerný človek.
  • 4:06 - 4:09
    Ako môže potom byť jeden
    z najsilnejších indikátorov
  • 4:09 - 4:10
    vašej inteligencie to,
  • 4:10 - 4:12
    že označíte, že sa vám páči táto stránka,
  • 4:12 - 4:14
    keď obsah je absolútne irelevantný
  • 4:14 - 4:17
    k vlastnosti, ktorú chceme predpovedať?
  • 4:17 - 4:19
    Ukazuje sa, že sa musíme pozrieť
  • 4:19 - 4:20
    na celú skupinu základných teórií,
  • 4:20 - 4:23
    aby sme pochopili, ako sa to dá urobiť.
  • 4:23 - 4:26
    Jedna z nich je sociologická
    teória zvaná homofília,
  • 4:26 - 4:29
    ktorá v princípe hovorí, že ľudia
    sa priatelia s podobnými ľuďmi.
  • 4:29 - 4:31
    Ako múdry sa skôr spriatelíte s múdrymi,
  • 4:31 - 4:33
    ako mladý skôr s mladými ľuďmi,
  • 4:33 - 4:35
    to je stará známa vec
  • 4:35 - 4:37
    už po stovky rokov.
  • 4:37 - 4:38
    Vieme tiež dosť
  • 4:38 - 4:41
    o tom, ako sa informácia šíri cez siete.
  • 4:41 - 4:43
    Ukazuje sa, že veci
    ako virálne videá alebo
  • 4:43 - 4:45
    „likey“ na Facebooku alebo iné informácie
  • 4:45 - 4:47
    sa šíria presne takým istým spôsobom,
  • 4:47 - 4:49
    ako sa šíria choroby, cez sociálne siete.
  • 4:49 - 4:51
    Takže toto študujeme už celkom dlho.
  • 4:51 - 4:52
    Máme na to dobré modely.
  • 4:52 - 4:55
    Môžete zložiť tieto časti dohromady
  • 4:55 - 4:58
    a začnete vidieť, prečo
    sa veci ako toto sa stávajú.
  • 4:58 - 4:59
    Ak by som chcela postaviť hypotézu,
  • 4:59 - 5:03
    bola by asi taká, že túto stránku
    vytvoril chytrý chlapík,
  • 5:03 - 5:05
    alebo medzi prvými, ktorí dali „like“,
  • 5:05 - 5:06
    bol niekto inteligentný.
  • 5:06 - 5:09
    Dal „like“, jeho priatelia to videli
  • 5:09 - 5:12
    a podľa homofílie vieme, že
    pravdepodobne má chytrých priateľov,
  • 5:12 - 5:15
    takže sa to rozšírilo na nich,
    niektorí tiež dali „like“.
  • 5:15 - 5:16
    Mali ďalších priateľov,
  • 5:16 - 5:17
    rozšírilo sa to k nim
  • 5:17 - 5:19
    a šíri sa to sieťou
  • 5:19 - 5:21
    davom chytrých ľudí,
  • 5:21 - 5:23
    takže v konečnom dôsledku
  • 5:23 - 5:26
    je označenie stránky
    s kučeravými hranolkami
  • 5:26 - 5:28
    indikátorom vysokej inteligencie,
  • 5:28 - 5:29
    nie pre obsah stránky,
  • 5:29 - 5:32
    ale pretože samotný akt označenia stránky
  • 5:32 - 5:34
    nás vracia späť k spoločným atribútom
  • 5:34 - 5:36
    iných ľudí, ktorí urobili to isté.
  • 5:36 - 5:39
    Asi sa vám to javí ako
    pekne komplikovaná vec, že ?
  • 5:39 - 5:41
    Je to dosť ťažké, sadnúť si a vysvetliť to
  • 5:41 - 5:44
    priemerným používateľom,
    a ak to aj dokážete,
  • 5:44 - 5:46
    čo s tým môže obyčajný človek urobiť ?
  • 5:46 - 5:48
    Ako môžete vedieť, keď dáte like na niečo,
  • 5:48 - 5:50
    čo indikuje vašu povahovú črtu,
  • 5:50 - 5:53
    ktorá je úplne irelevantná k obsahu,
    ktorý ste označili, že sa vám páči?
  • 5:53 - 5:56
    Užívatelia nemajú veľkú moc
  • 5:56 - 5:58
    kontrolovať používanie týchto údajov.
  • 5:58 - 6:01
    Ja to vnímam ako narastajúci problém.
  • 6:01 - 6:03
    Myslím, že je niekoľko ciest,
  • 6:03 - 6:04
    ktoré treba zvážiť,
  • 6:04 - 6:06
    ak chceme dať používateľom istú kontrolu
  • 6:06 - 6:08
    nad tým, ako sú použité tieto dáta,
  • 6:08 - 6:10
    pretože nie vždy budú použité
  • 6:10 - 6:11
    k ich prospechu.
  • 6:11 - 6:13
    Často uvádzam tento príklad:
  • 6:13 - 6:14
    ak ma učiteľstvo začne nudiť,
  • 6:14 - 6:16
    otvorím si spoločnosť,
  • 6:16 - 6:18
    ktorá by predpovedala tie veci:
  • 6:18 - 6:19
    ako dobre pracujete v tíme,
  • 6:19 - 6:22
    či beriete drogy, či ste alkoholik.
  • 6:22 - 6:23
    Toto všetko vieme predpovedať.
  • 6:23 - 6:25
    Predala by som tieto informácie
  • 6:25 - 6:27
    personálnym firmám a veľkým spoločnostiam,
  • 6:27 - 6:29
    ktoré vás chcú zamestnať.
  • 6:29 - 6:31
    Áno, to sa už dnes dá.
  • 6:31 - 6:32
    Hneď zajtra by som mohla založiť firmu
  • 6:32 - 6:34
    a vy by ste nemali
    žiadnu kontrolu nad tým,
  • 6:34 - 6:36
    ako tieto dáta použijem.
  • 6:36 - 6:39
    To sa mi zdá ako dosť veľký problém.
  • 6:39 - 6:41
    Jedna cesta, po ktorej sa môžeme vydať,
  • 6:41 - 6:43
    je cesta právneho prístupu.
  • 6:43 - 6:46
    A myslím, že v istých ohľadoch
    by to mohlo byť najúčinnejšie,
  • 6:46 - 6:49
    ale problémom je, že by
    sme to museli naozaj urobiť.
  • 6:49 - 6:51
    Keď sledujem náš politický proces v akcii,
  • 6:51 - 6:54
    zdá sa mi vysoko nepravdepodobné,
  • 6:54 - 6:55
    že prinútime skupinu politikov,
  • 6:55 - 6:57
    aby si k tomu sadli, osvojili si to
  • 6:57 - 6:59
    a potom presadili závažné zmeny
  • 6:59 - 7:02
    v zákonoch USA
    o intelektuálnom vlastníctve,
  • 7:02 - 7:04
    aby užívatelia mohli
    kontrolovať svoje dáta.
  • 7:04 - 7:05
    Mohli by sme ísť tou cestou,
  • 7:05 - 7:07
    kde by vlastníci sietí povedali:
  • 7:07 - 7:08
    viete čo? Vaše dáta sú vaše.
  • 7:08 - 7:10
    Máte úplnú kontrolu
    nad tým, ako sú použité.
  • 7:10 - 7:13
    Problém je,
    že modely finančnej návratnosti
  • 7:13 - 7:14
    väčšiny vlastníkov sociálnych sietí
  • 7:14 - 7:18
    sú nejakým spôsobom závislé od zdieľania
    alebo zneužívania užívateľských dát.
  • 7:18 - 7:20
    O Facebooku sa vravieva, že užívatelia
  • 7:20 - 7:23
    nie sú zákazníci, ale produkt.
  • 7:23 - 7:25
    Tak ako potom prinútiť spoločnosti,
  • 7:25 - 7:28
    aby vrátili kontrolu
    svojho hlavného majetku
  • 7:28 - 7:29
    späť užívateľom?
  • 7:29 - 7:31
    Možné to je, ale nemyslím si,
  • 7:31 - 7:33
    že sa to v dohľadnom čase zmení.
  • 7:33 - 7:35
    Preto si myslím, že ďalšia cesta,
  • 7:35 - 7:37
    ktorú môžeme skúsiť
    a ktorá bude účinnejšia,
  • 7:37 - 7:38
    je nasadiť viac vedy.
  • 7:38 - 7:41
    Veda nás priviedla k tomu, že sme vyvinuli
  • 7:41 - 7:43
    všetky tie mechanizmy
  • 7:43 - 7:45
    na spracovávanie osobných dát.
  • 7:45 - 7:47
    A je to vlastne veľmi podobný výskum,
  • 7:47 - 7:48
    ktorý musíme urobiť,
  • 7:48 - 7:51
    ak chceme vyvinúť mechanizmy,
  • 7:51 - 7:52
    ktoré používateľovi povedia:
  • 7:52 - 7:54
    „To, čo chceš práve urobiť, je riskantné.“
  • 7:54 - 7:56
    Likeovaním tejto Facebookovej stránky
  • 7:56 - 7:59
    alebo zdieľaním tejto osobnej informácie
  • 7:59 - 8:00
    zväčšuješ našu schopnosť
  • 8:00 - 8:03
    predpovedať, či berieš
    alebo neberieš drogy
  • 8:03 - 8:05
    alebo či máš dobré vzťahy na pracovisku.
  • 8:05 - 8:07
    Myslím, že to môže ovplyvniť,
  • 8:07 - 8:09
    či ľudia chcú niečo zdielať,
  • 8:09 - 8:12
    držať to v súkromí
    alebo to nezdieľať vôbec.
  • 8:12 - 8:14
    Môžeme to skúsiť ešte inak:
  • 8:14 - 8:16
    dovoliť ľudom šifrovať
    dáta, ktoré pridávajú,
  • 8:16 - 8:18
    aby sa tak neviditeľnými a bezcennými
  • 8:18 - 8:20
    pre stránky ako Facebook
  • 8:20 - 8:22
    či služby tretích strán,
    ktoré naň pristupujú,
  • 8:22 - 8:25
    ale aby ich vybraní užívatelia,
    ktorým autor obsah sprístupní,
  • 8:25 - 8:28
    mohli daný obsah vidieť.
  • 8:28 - 8:30
    Z intelektuálneho hľadiska je tento výskum
  • 8:30 - 8:32
    mimoriadne vzrušujúci
  • 8:32 - 8:34
    a preto do toho vedci pôjdu radi.
  • 8:34 - 8:37
    To nám dáva výhodu pred právnym prístupom.
  • 8:37 - 8:39
    Jeden z problémov, ktorý ľudia
  • 8:39 - 8:41
    spomínajú, keď o tom hovorím, je,
  • 8:41 - 8:43
    že ak ľudia začnú uchovávať
    všetky tieto dáta v súkromí,
  • 8:43 - 8:45
    všetky tie metódy, ktoré vyvíjame
  • 8:45 - 8:48
    na predpovedanie ich
    charakterových čŕt, nakoniec zlyhajú.
  • 8:48 - 8:52
    A ja hovorím, že určite
    a že je to pre mňa úspech,
  • 8:52 - 8:53
    pretože ako pre vedkyňu
  • 8:53 - 8:57
    nie je pre mňa cieľom získavať
    informácie o užívateľoch,
  • 8:57 - 9:00
    ale zlepšiť spôsob, ako
    ľudia interagujú online.
  • 9:00 - 9:03
    Áno, niekedy to zahŕňa aj vyhodnocovanie
    informácii o nich samotných,
  • 9:03 - 9:06
    ale ak užívatelia nechcú,
    aby sa tieto informácie použili,
  • 9:06 - 9:08
    myslím, že na to majú mať právo.
  • 9:08 - 9:11
    Chcem, aby ľudia boli
    informovanými a poučenými
  • 9:11 - 9:13
    používateľmi nástrojov,
    ktoré sme vyvinuli.
  • 9:13 - 9:16
    Myslím, že podporovanie tohto druhu vedy
  • 9:16 - 9:17
    a podpora výskumníkov,
  • 9:17 - 9:20
    ktorí chcú postúpiť časť
    kontroly späť používateľom
  • 9:20 - 9:23
    a vziať ju vlastníkom sociálnych médií,
  • 9:23 - 9:25
    znamená, že posúvať sa dopredu s vývojom
  • 9:25 - 9:27
    a postupom týchto nástrojov
  • 9:27 - 9:28
    znamená, že treba vzdelanú
  • 9:28 - 9:30
    a posilnenú základňu používateľov,
  • 9:30 - 9:31
    a myslím, že súhlasíte,
  • 9:31 - 9:33
    že to je presne ten ideál,
    ku ktorému chceme smerovať.
  • 9:33 - 9:36
    Ďakujem.
  • 9:36 - 9:39
    (potlesk)
Title:
Záhada kučeravých hranoliek: Prečo „like“ znamená viac, ako si myslíte
Speaker:
Jennifer Golbeck
Description:

Máte radi kučeravé hranolky? Dali ste im like na Facebooku? Pozrite si túto prednášku a nechajte sa prekvapiť tým, čo môže Facebook (a iné stránky) odhadnúť z náhodného klikania na Like (Páči sa mi to) a Share (zdieľať). Počítačová vedkyňa Jennifer Goldbeck vysvetľuje, ako sa to deje, že nie všetky aplikácie a technológie sú milé a príjemné a prečo si myslí, že by sme mali vrátiť kontrolu nad informáciami ich zákonitým vlastníkom.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01
  • Prosím preložiť popis videa (Description).

  • Dobrý preklad, urobil som len pár zmien s rozdelením titulkov a niekoľko významových korekcií (napr. viral videos sú virálne = extrémne populárne, nie zavírené videá a podobne). Ďakujem.

  • Výborný preklad, skvelá korektúra! Ďakujem, páni, a teším sa na ďalšiu spoluprácu! :)

Slovak subtitles

Revisions