Return to Video

Enigma cartofilor prăjiţi: „Like”-urile spun mai mult decât îţi imaginezi

  • 0:01 - 0:03
    Vă amintiţi primul deceniu
    al internetului,
  • 0:03 - 0:05
    când era un loc static.
  • 0:05 - 0:10
    Puteai să te conectezi, să cauţi pagini
    realizate fie de organizaţii
  • 0:10 - 0:11
    care aveau echipe pentru asta,
  • 0:11 - 0:15
    fie de persoane pasionate de tehnologie
    la acel moment.
  • 0:15 - 0:19
    Popularizarea publicaţiilor şi reţelelor
    sociale la începutul mileniului
  • 0:20 - 0:21
    au schimbat complet internetul
  • 0:21 - 0:26
    în ceva în care majoritatea conţinutului
    cu care interacţionăm
  • 0:26 - 0:28
    e realizat de utilizatori obişnuiţi
  • 0:28 - 0:31
    prin videoclipuri pe YouTube,
    postări pe bloguri,
  • 0:31 - 0:34
    recenzii de produs sau postări obişnuite.
  • 0:34 - 0:37
    A devenit de asemenea
    un loc mai interactiv
  • 0:37 - 0:42
    unde oamenii interacţionează unii cu alţii
    comentează, împărtăşesc, nu doar citesc.
  • 0:43 - 0:44
    Facebook nu e singurul loc
    unde poţi face asta,
  • 0:44 - 0:47
    dar este cel mai mare,
    iar cifrele vorbesc de la sine.
  • 0:47 - 0:51
    Facebook are 1,2 miliarde
    de utilizatori lunar.
  • 0:51 - 0:54
    Deci jumătate din populaţia conectată
    la internet foloseşte Facebook.
  • 0:54 - 0:57
    E un site care, alături de altele,
  • 0:57 - 1:00
    permite oamenilor
    să îşi creeze o identitate online
  • 1:00 - 1:01
    necesitând puţine cunoştiinţe tehnice,
  • 1:01 - 1:06
    iar oamenii răspund punând foarte multe
    date personale online.
  • 1:06 - 1:10
    Așa că avem indicatori comportamentali,
    de preferinţe, demografici,
  • 1:10 - 1:14
    pentru sute de milioane de oameni,
    ceva unic în istorie.
  • 1:14 - 1:19
    Ca specialist în calculatoare,
    asta înseamnă că am putut crea modele
  • 1:19 - 1:21
    care pot anticipa
    tot felul de atribute ascunse
  • 1:21 - 1:25
    despre care nici măcar nu ştiţi
    că dezvăluiţi informaţie.
  • 1:25 - 1:28
    Ca cercetători, folosim asta
    pentru a îmbunătăţi
  • 1:28 - 1:30
    modul în care oamenii
    interacţionează online,
  • 1:30 - 1:32
    dar există aplicaţii mai puţin altruiste
  • 1:32 - 1:37
    şi e o problemă că utilizatorii nu înţeleg
    exact aceste tehnici şi cum funcţionează
  • 1:37 - 1:40
    şi chiar dacă ar înţelege
    nu le-ar putea controla.
  • 1:40 - 1:45
    Astăzi vreau să vă vorbesc
    despre lucrurile pe care le putem face
  • 1:45 - 1:50
    şi apoi idei despre cum să continuăm,
    redând controlul utilizatorilor.
  • 1:50 - 1:52
    Aceasta e compania Target.
  • 1:52 - 1:55
    Acel logo nu e pus degeaba
    pe pântecele acelei femei însărcinate.
  • 1:55 - 1:58
    Poate aţi văzut anecdota
    din revista Forbes,
  • 1:58 - 2:02
    unde Target a trimis un fluturaş
    unei fete de 15 ani,
  • 2:02 - 2:06
    cu reclame şi cupoane de biberoane,
    scutece şi pătuţuri de copii,
  • 2:06 - 2:09
    cu două săptămâni înainte să le spună
    părinţilor că este însărcinată.
  • 2:09 - 2:12
    Tatăl a fost foarte supărat:
  • 2:12 - 2:16
    „Cum şi-au dat seama cei de la Target
    că această liceană este însărcinată
  • 2:16 - 2:18
    înainte ca ea să le spună părinţilor?"
  • 2:18 - 2:22
    A reieşit că ei au istoricul
    cumpărăturilor a sute de mii de clienţi
  • 2:22 - 2:25
    şi calculează un scor
    ce estimează sarcina,
  • 2:25 - 2:29
    arătând atât că femeia e însărcinată
    sau nu, cât şi data la care va naşte.
  • 2:29 - 2:32
    Iar ei au estimat asta
    fără lucruri evidente:
  • 2:32 - 2:35
    dacă a cumpărat un pătuţ
    sau haine de copil,
  • 2:35 - 2:39
    ci dacă a cumpărat mai multe vitamine
    decât în mod obişnuit
  • 2:39 - 2:43
    sau dacă a cumparat o geantă
    suficient de mare pentru scutece.
  • 2:43 - 2:47
    Aceste cumparături
    nu par să dezvăluie prea mult,
  • 2:47 - 2:52
    dar e un tipar comportamental care,
    raportat la mii de oameni,
  • 2:52 - 2:55
    începe să dezvăluie ceva anume.
  • 2:55 - 2:59
    Asta facem noi când estimăm lucruri
    despre voi în publicaţiile sociale.
  • 2:59 - 3:05
    Căutăm modele de comportament care
    – fiind comune la milioane de oameni –
  • 3:05 - 3:07
    ne ajută să aflăm tot felul de lucruri.
  • 3:07 - 3:10
    În laborator cu colegii mei
    am dezvoltat mecanisme
  • 3:10 - 3:14
    prin care putem estima cu acurateţe
    lucruri precum preferinţele politice
  • 3:14 - 3:21
    personalitatea, genul, orientarea sexuală,
    religia, vârsta, inteligenţa,
  • 3:21 - 3:24
    împreună cu altele precum:
    câtă încredere aveţi în cunoscuţii voştri
  • 3:24 - 3:26
    şi cât de apropiate vă sunt relaţiile.
  • 3:26 - 3:28
    Putem face foarte bine acest lucru.
  • 3:28 - 3:32
    Şi asta nu datorită informaţiei
    considerate evidente.
  • 3:32 - 3:36
    Exemplul meu favorit din acest studiu
    publicat anul ăsta
  • 3:36 - 3:37
    în Procedurile Academiilor Naţionale.
  • 3:37 - 3:41
    Îl puteţi găsi pe Google.
    Are patru pagini - uşor de citit.
  • 3:41 - 3:44
    Au luat în calcul doar „Like”-urile
    de pe Facebook,
  • 3:44 - 3:45
    adică lucrurile care vă plac pe Facebook
  • 3:45 - 3:49
    şi le-au folosit pentru estimarea
    atributelor menţionate, pe lângă altele.
  • 3:49 - 3:55
    În lucrare, au listat cele 5 like-uri
    care indică un grad înalt de inteligentă.
  • 3:55 - 3:59
    Printre ele era like-ul la o pagină
    pentru cartofi prăjiţi spiralaţi. (Râsete)
  • 3:59 - 4:04
    Cartofii prăjiţi spiralaţi sunt delicioşi,
    dar dacă vă plac, nu înseamnă neapărat
  • 4:04 - 4:06
    că sunteţi mai deştept decât media.
  • 4:06 - 4:11
    Cum de unul dintre cei mai puternici
    indicatori ai inteligenţei voastre
  • 4:11 - 4:12
    e că daţi like la această pagină
  • 4:12 - 4:17
    cu un conţinut total irelevant
    pentru însuşirea care e estimată?
  • 4:17 - 4:20
    De fapt trebuie să ţineţi cont
    de o serie întreagă de teorii fundamentale
  • 4:20 - 4:23
    ca să înţelegeţi cum facem asta.
  • 4:23 - 4:26
    Una din ele e teoria sociologică
    numită homofilie,
  • 4:26 - 4:29
    care spune că oamenii sunt prieteni
    cu oameni ca ei.
  • 4:29 - 4:31
    Dacă eşti deştept,
    tinzi să ai prieteni deştepţi
  • 4:31 - 4:33
    şi dacă eşti tânăr ai prieteni tineri
  • 4:33 - 4:36
    şi ştim asta de sute de ani.
  • 4:37 - 4:40
    Mai ştim multe despre cum se propagă
    informaţia prin reţele.
  • 4:41 - 4:42
    Se pare că videoclipurile virale,
  • 4:42 - 4:45
    like-urile de pe Facebook
    sau alte informaţii,
  • 4:45 - 4:49
    sunt transmise exact ca şi bolile
    prin reţele sociale.
  • 4:49 - 4:52
    Asta studiem de mult timp.
    Avem modele bune pentru asta.
  • 4:52 - 4:57
    Punem lucrurile astea la un loc
    şi vedem de ce se întâmplă aşa.
  • 4:58 - 4:59
    Dacă ar fi să vă dau o ipoteză,
  • 4:59 - 5:03
    ar fi că un om deştept
    a creat această pagină
  • 5:03 - 5:06
    sau e între primii care au dat like
    şi are punctaj mare la testul IQ.
  • 5:06 - 5:09
    Lui i-a plăcut pagina
    şi prietenii săi au văzut
  • 5:09 - 5:12
    şi datorită homofiliei
    ştim că are prieteni deştepţi,
  • 5:12 - 5:15
    astfel s-a transmis şi lor,
    iar câtorva le-a plăcut
  • 5:15 - 5:17
    şi au şi ei prieteni deştepţi,
    deci s-a transmis şi lor
  • 5:17 - 5:21
    şi s-a propagat prin reţea
    către oamenii deştepţi,
  • 5:21 - 5:25
    iar în final acţiunea de a da like
    la cartofi prăjiţi spiralaţi
  • 5:25 - 5:30
    e un indicator de inteligenţă,
    nu datorită conţinutului,
  • 5:30 - 5:36
    ci pentru că like-ul denotă
    însuşiri comune ale celor care l-au dat.
  • 5:36 - 5:39
    Destul de complicat, nu?
  • 5:39 - 5:43
    Este greu de explicat
    utilizatorului obişnuit
  • 5:43 - 5:46
    şi chiar dacă i-ai explica,
    ce ar putea face el în privinţa asta?
  • 5:46 - 5:50
    Cum poţi şti că ai dat like la ceva
    care indică o trăsătură a ta
  • 5:50 - 5:53
    fără legătură cu conţinutul
    care ţi-a plăcut?
  • 5:53 - 5:58
    Utilizatorii nu au puterea să controleze
    cum sunt folosite aceste date.
  • 5:58 - 6:01
    Văd asta ca o problemă reală ce avansează.
  • 6:01 - 6:04
    Există anumite căi de analizat
  • 6:04 - 6:08
    dacă vrem ca utilizatorii
    să poată controla utilizarea acestor date,
  • 6:08 - 6:11
    pentru că nu vor fi întotdeauna folosite
    în beneficiul lor.
  • 6:11 - 6:13
    Dau adesea un exemplu:
  • 6:13 - 6:14
    dacă o să mă plictisesc vreodată
    să fiu profesor,
  • 6:14 - 6:18
    voi crea o companie care estimează
    toate aceste însuşiri,
  • 6:18 - 6:22
    precum: cât de bine lucraţi în echipă,
    dacă sunteţi drogaţi sau alcoolici.
  • 6:22 - 6:23
    Ştim să estimăm toate astea.
  • 6:23 - 6:29
    Aş vinde rapoarte companiilor de recrutare
    şi firmelor mari care vă angajează.
  • 6:29 - 6:31
    Putem face asta acum.
  • 6:31 - 6:34
    Pot începe afacerea chiar mâine
    şi nu aţi avea absolut niciun control
  • 6:34 - 6:36
    asupra faptului că folosesc astfel datele.
  • 6:36 - 6:39
    Asta mi se pare o problemă.
  • 6:39 - 6:43
    O cale pe care o putem alege
    e calea politicii şi a legii.
  • 6:43 - 6:46
    În anumite privinţe,
    asta ar fi cea mai eficientă,
  • 6:46 - 6:49
    dar problema e cum o facem concret.
  • 6:49 - 6:54
    Observând procesului politic în acţiune,
    gândesc că e puţin probabil
  • 6:54 - 6:57
    să avem câţiva reprezentanţi
    care să stea să înveţe despre asta
  • 6:57 - 7:02
    şi apoi să adopte schimbări radicale
    în proprietatea intelectuală în SUA,
  • 7:02 - 7:04
    ca utilizatorii
    să-şi poată controla datele.
  • 7:04 - 7:07
    Am putea alege calea politică
    unde companiile de media socială spun:
  • 7:07 - 7:11
    „Ştiţi ce? Informaţiile vă aparţin.
    Controlaţi total cum sunt folosite.”
  • 7:11 - 7:14
    Problema e că venitul majorităţii
    acestor companii de media socială
  • 7:14 - 7:18
    se bazează pe împărtăşirea
    sau exploatarea datelor utilizatorilor.
  • 7:18 - 7:22
    Se spune despre Facebook că utilizatorii
    nu sunt clienţii, ei sunt produsul.
  • 7:23 - 7:25
    Cum determini o companie
  • 7:25 - 7:29
    să cedeze controlul asupra
    sursei sale de venit, utilizatorilor?
  • 7:29 - 7:33
    E posibil, dar nu cred că e ceva
    care o să se schimbe rapid.
  • 7:33 - 7:38
    Cred că cealaltă cale de adoptat
    şi una mai eficientă, este cea a ştiinţei.
  • 7:38 - 7:45
    Cu ajutorul ştiinţei am dezvoltat
    mecanismele de calcul ale acestor date.
  • 7:45 - 7:48
    Ar trebui să facem o cercetare similară
  • 7:48 - 7:52
    dacă dorim să dezvoltăm mecanisme
    care să-l anunţe pe utilizator:
  • 7:52 - 7:54
    „Iată riscul la care te expui făcând asta"
  • 7:54 - 7:56
    dând like la acea pagină de Facebook,
  • 7:56 - 7:59
    sau împărtăşind
    această informaţie personală,
  • 7:59 - 8:03
    mi-ai înlesnit capacitatea de a prezice
    dacă foloseşti droguri
  • 8:03 - 8:05
    sau dacă eşti bine adaptat
    la locul de muncă.
  • 8:05 - 8:09
    Asta poate influenţa ce doresc
    oamenii să împărtăşească şi ce nu,
  • 8:09 - 8:12
    ce să păstreze privat
    sau ce să nu pună online.
  • 8:12 - 8:15
    Ne putem ocupa şi de lucruri
    care să permită oamenilor
  • 8:15 - 8:18
    să cripteze datele pe care le încarcă,
    încât să fie invizibile şi inutile
  • 8:18 - 8:22
    pentru site-uri precum Facebook
    sau terți care le accesează,
  • 8:22 - 8:28
    dar să-i selecteze pe cei
    care ei vor să aibă acces la ele.
  • 8:28 - 8:32
    Asta-i o cercetare foarte interesantă
    dintr-o perspectivă intelectuală,
  • 8:32 - 8:34
    aşa că cercetătorii vor dori s-o facă.
  • 8:34 - 8:37
    Asta ne dă un avantaj în faţa căii legale.
  • 8:37 - 8:40
    Una dintre problemele menționate
    când vorbesc despre asta, este:
  • 8:40 - 8:44
    „dacă oamenii încep să îşi păstreze
    toate datele personale private,
  • 8:44 - 8:48
    toate metodele pe care le-aţi dezvoltat
    ca să le deduceţi trăsăturile vor eşua.”
  • 8:48 - 8:52
    Le răspund: „Categoric.”
    Dar pentru mine ăsta e un succes,
  • 8:52 - 8:57
    deoarece, ca cercetător, scopul meu nu e
    să deduc informaţii despre utilizatori,
  • 8:57 - 9:00
    ci să îmbunătăţesc modul cum oamenii
    interacţionează online.
  • 9:00 - 9:03
    Uneori asta implică deducţia
    unor lucruri despre ei,
  • 9:03 - 9:06
    dar dacă utilizatorii nu vor
    ca eu să folosesc acele date,
  • 9:06 - 9:08
    ar trebui să aibă dreptul să facă asta.
  • 9:08 - 9:11
    Vreau ca utilizatorii
    să fie informaţi şi de acord
  • 9:11 - 9:13
    cu instrumentele pe care le realizăm.
  • 9:13 - 9:18
    Cred că încurajând asemenea cercetări
    şi sprijinind cercetătorii care doresc
  • 9:18 - 9:23
    să redea parte din control utilizatorilor,
    luând-o de la companiile de media socială,
  • 9:23 - 9:27
    înseamnă că înaintăm odată cu evoluția
    şi progresul acestor mijloace,
  • 9:27 - 9:30
    înseamnă că vom avea o bază de utilizatori
    educată şi în control.
  • 9:30 - 9:33
    Cred că toți suntem de acord
    că asta e calea ideală de a continua.
  • 9:33 - 9:35
    Vă mulţumesc.
  • 9:35 - 9:39
    (Aplauze)
Title:
Enigma cartofilor prăjiţi: „Like”-urile spun mai mult decât îţi imaginezi
Speaker:
Jennifer Golbeck
Description:

Îţi plac cartofii prăjiţi spiralaţi? Le-ai dat „Like” pe Facebook? Vizionează acest discurs pentru a descoperi lucruri surprinzătoare pe care Facebook (şi alţii) le pot ghici despre tine din like-urile şi share-urile tale la întâmplare. Cercetătoarea în calculatoare Jennifer Golbeck explică modul în care a apărut acest fenomen, de ce unele aplicaţii ale tehnologiei nu sunt atât de binevoitoare şi de ce crede că ar trebui să redăm controlul informaţiei proprietarilor de drept.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Romanian subtitles

Revisions Compare revisions