Enigma cartofilor prăjiţi: „Like”-urile spun mai mult decât îţi imaginezi
-
0:01 - 0:03Vă amintiţi primul deceniu
al internetului, -
0:03 - 0:05când era un loc static.
-
0:05 - 0:10Puteai să te conectezi, să cauţi pagini
realizate fie de organizaţii -
0:10 - 0:11care aveau echipe pentru asta,
-
0:11 - 0:15fie de persoane pasionate de tehnologie
la acel moment. -
0:15 - 0:19Popularizarea publicaţiilor şi reţelelor
sociale la începutul mileniului -
0:20 - 0:21au schimbat complet internetul
-
0:21 - 0:26în ceva în care majoritatea conţinutului
cu care interacţionăm -
0:26 - 0:28e realizat de utilizatori obişnuiţi
-
0:28 - 0:31prin videoclipuri pe YouTube,
postări pe bloguri, -
0:31 - 0:34recenzii de produs sau postări obişnuite.
-
0:34 - 0:37A devenit de asemenea
un loc mai interactiv -
0:37 - 0:42unde oamenii interacţionează unii cu alţii
comentează, împărtăşesc, nu doar citesc. -
0:43 - 0:44Facebook nu e singurul loc
unde poţi face asta, -
0:44 - 0:47dar este cel mai mare,
iar cifrele vorbesc de la sine. -
0:47 - 0:51Facebook are 1,2 miliarde
de utilizatori lunar. -
0:51 - 0:54Deci jumătate din populaţia conectată
la internet foloseşte Facebook. -
0:54 - 0:57E un site care, alături de altele,
-
0:57 - 1:00permite oamenilor
să îşi creeze o identitate online -
1:00 - 1:01necesitând puţine cunoştiinţe tehnice,
-
1:01 - 1:06iar oamenii răspund punând foarte multe
date personale online. -
1:06 - 1:10Așa că avem indicatori comportamentali,
de preferinţe, demografici, -
1:10 - 1:14pentru sute de milioane de oameni,
ceva unic în istorie. -
1:14 - 1:19Ca specialist în calculatoare,
asta înseamnă că am putut crea modele -
1:19 - 1:21care pot anticipa
tot felul de atribute ascunse -
1:21 - 1:25despre care nici măcar nu ştiţi
că dezvăluiţi informaţie. -
1:25 - 1:28Ca cercetători, folosim asta
pentru a îmbunătăţi -
1:28 - 1:30modul în care oamenii
interacţionează online, -
1:30 - 1:32dar există aplicaţii mai puţin altruiste
-
1:32 - 1:37şi e o problemă că utilizatorii nu înţeleg
exact aceste tehnici şi cum funcţionează -
1:37 - 1:40şi chiar dacă ar înţelege
nu le-ar putea controla. -
1:40 - 1:45Astăzi vreau să vă vorbesc
despre lucrurile pe care le putem face -
1:45 - 1:50şi apoi idei despre cum să continuăm,
redând controlul utilizatorilor. -
1:50 - 1:52Aceasta e compania Target.
-
1:52 - 1:55Acel logo nu e pus degeaba
pe pântecele acelei femei însărcinate. -
1:55 - 1:58Poate aţi văzut anecdota
din revista Forbes, -
1:58 - 2:02unde Target a trimis un fluturaş
unei fete de 15 ani, -
2:02 - 2:06cu reclame şi cupoane de biberoane,
scutece şi pătuţuri de copii, -
2:06 - 2:09cu două săptămâni înainte să le spună
părinţilor că este însărcinată. -
2:09 - 2:12Tatăl a fost foarte supărat:
-
2:12 - 2:16„Cum şi-au dat seama cei de la Target
că această liceană este însărcinată -
2:16 - 2:18înainte ca ea să le spună părinţilor?"
-
2:18 - 2:22A reieşit că ei au istoricul
cumpărăturilor a sute de mii de clienţi -
2:22 - 2:25şi calculează un scor
ce estimează sarcina, -
2:25 - 2:29arătând atât că femeia e însărcinată
sau nu, cât şi data la care va naşte. -
2:29 - 2:32Iar ei au estimat asta
fără lucruri evidente: -
2:32 - 2:35dacă a cumpărat un pătuţ
sau haine de copil, -
2:35 - 2:39ci dacă a cumpărat mai multe vitamine
decât în mod obişnuit -
2:39 - 2:43sau dacă a cumparat o geantă
suficient de mare pentru scutece. -
2:43 - 2:47Aceste cumparături
nu par să dezvăluie prea mult, -
2:47 - 2:52dar e un tipar comportamental care,
raportat la mii de oameni, -
2:52 - 2:55începe să dezvăluie ceva anume.
-
2:55 - 2:59Asta facem noi când estimăm lucruri
despre voi în publicaţiile sociale. -
2:59 - 3:05Căutăm modele de comportament care
– fiind comune la milioane de oameni – -
3:05 - 3:07ne ajută să aflăm tot felul de lucruri.
-
3:07 - 3:10În laborator cu colegii mei
am dezvoltat mecanisme -
3:10 - 3:14prin care putem estima cu acurateţe
lucruri precum preferinţele politice -
3:14 - 3:21personalitatea, genul, orientarea sexuală,
religia, vârsta, inteligenţa, -
3:21 - 3:24împreună cu altele precum:
câtă încredere aveţi în cunoscuţii voştri -
3:24 - 3:26şi cât de apropiate vă sunt relaţiile.
-
3:26 - 3:28Putem face foarte bine acest lucru.
-
3:28 - 3:32Şi asta nu datorită informaţiei
considerate evidente. -
3:32 - 3:36Exemplul meu favorit din acest studiu
publicat anul ăsta -
3:36 - 3:37în Procedurile Academiilor Naţionale.
-
3:37 - 3:41Îl puteţi găsi pe Google.
Are patru pagini - uşor de citit. -
3:41 - 3:44Au luat în calcul doar „Like”-urile
de pe Facebook, -
3:44 - 3:45adică lucrurile care vă plac pe Facebook
-
3:45 - 3:49şi le-au folosit pentru estimarea
atributelor menţionate, pe lângă altele. -
3:49 - 3:55În lucrare, au listat cele 5 like-uri
care indică un grad înalt de inteligentă. -
3:55 - 3:59Printre ele era like-ul la o pagină
pentru cartofi prăjiţi spiralaţi. (Râsete) -
3:59 - 4:04Cartofii prăjiţi spiralaţi sunt delicioşi,
dar dacă vă plac, nu înseamnă neapărat -
4:04 - 4:06că sunteţi mai deştept decât media.
-
4:06 - 4:11Cum de unul dintre cei mai puternici
indicatori ai inteligenţei voastre -
4:11 - 4:12e că daţi like la această pagină
-
4:12 - 4:17cu un conţinut total irelevant
pentru însuşirea care e estimată? -
4:17 - 4:20De fapt trebuie să ţineţi cont
de o serie întreagă de teorii fundamentale -
4:20 - 4:23ca să înţelegeţi cum facem asta.
-
4:23 - 4:26Una din ele e teoria sociologică
numită homofilie, -
4:26 - 4:29care spune că oamenii sunt prieteni
cu oameni ca ei. -
4:29 - 4:31Dacă eşti deştept,
tinzi să ai prieteni deştepţi -
4:31 - 4:33şi dacă eşti tânăr ai prieteni tineri
-
4:33 - 4:36şi ştim asta de sute de ani.
-
4:37 - 4:40Mai ştim multe despre cum se propagă
informaţia prin reţele. -
4:41 - 4:42Se pare că videoclipurile virale,
-
4:42 - 4:45like-urile de pe Facebook
sau alte informaţii, -
4:45 - 4:49sunt transmise exact ca şi bolile
prin reţele sociale. -
4:49 - 4:52Asta studiem de mult timp.
Avem modele bune pentru asta. -
4:52 - 4:57Punem lucrurile astea la un loc
şi vedem de ce se întâmplă aşa. -
4:58 - 4:59Dacă ar fi să vă dau o ipoteză,
-
4:59 - 5:03ar fi că un om deştept
a creat această pagină -
5:03 - 5:06sau e între primii care au dat like
şi are punctaj mare la testul IQ. -
5:06 - 5:09Lui i-a plăcut pagina
şi prietenii săi au văzut -
5:09 - 5:12şi datorită homofiliei
ştim că are prieteni deştepţi, -
5:12 - 5:15astfel s-a transmis şi lor,
iar câtorva le-a plăcut -
5:15 - 5:17şi au şi ei prieteni deştepţi,
deci s-a transmis şi lor -
5:17 - 5:21şi s-a propagat prin reţea
către oamenii deştepţi, -
5:21 - 5:25iar în final acţiunea de a da like
la cartofi prăjiţi spiralaţi -
5:25 - 5:30e un indicator de inteligenţă,
nu datorită conţinutului, -
5:30 - 5:36ci pentru că like-ul denotă
însuşiri comune ale celor care l-au dat. -
5:36 - 5:39Destul de complicat, nu?
-
5:39 - 5:43Este greu de explicat
utilizatorului obişnuit -
5:43 - 5:46şi chiar dacă i-ai explica,
ce ar putea face el în privinţa asta? -
5:46 - 5:50Cum poţi şti că ai dat like la ceva
care indică o trăsătură a ta -
5:50 - 5:53fără legătură cu conţinutul
care ţi-a plăcut? -
5:53 - 5:58Utilizatorii nu au puterea să controleze
cum sunt folosite aceste date. -
5:58 - 6:01Văd asta ca o problemă reală ce avansează.
-
6:01 - 6:04Există anumite căi de analizat
-
6:04 - 6:08dacă vrem ca utilizatorii
să poată controla utilizarea acestor date, -
6:08 - 6:11pentru că nu vor fi întotdeauna folosite
în beneficiul lor. -
6:11 - 6:13Dau adesea un exemplu:
-
6:13 - 6:14dacă o să mă plictisesc vreodată
să fiu profesor, -
6:14 - 6:18voi crea o companie care estimează
toate aceste însuşiri, -
6:18 - 6:22precum: cât de bine lucraţi în echipă,
dacă sunteţi drogaţi sau alcoolici. -
6:22 - 6:23Ştim să estimăm toate astea.
-
6:23 - 6:29Aş vinde rapoarte companiilor de recrutare
şi firmelor mari care vă angajează. -
6:29 - 6:31Putem face asta acum.
-
6:31 - 6:34Pot începe afacerea chiar mâine
şi nu aţi avea absolut niciun control -
6:34 - 6:36asupra faptului că folosesc astfel datele.
-
6:36 - 6:39Asta mi se pare o problemă.
-
6:39 - 6:43O cale pe care o putem alege
e calea politicii şi a legii. -
6:43 - 6:46În anumite privinţe,
asta ar fi cea mai eficientă, -
6:46 - 6:49dar problema e cum o facem concret.
-
6:49 - 6:54Observând procesului politic în acţiune,
gândesc că e puţin probabil -
6:54 - 6:57să avem câţiva reprezentanţi
care să stea să înveţe despre asta -
6:57 - 7:02şi apoi să adopte schimbări radicale
în proprietatea intelectuală în SUA, -
7:02 - 7:04ca utilizatorii
să-şi poată controla datele. -
7:04 - 7:07Am putea alege calea politică
unde companiile de media socială spun: -
7:07 - 7:11„Ştiţi ce? Informaţiile vă aparţin.
Controlaţi total cum sunt folosite.” -
7:11 - 7:14Problema e că venitul majorităţii
acestor companii de media socială -
7:14 - 7:18se bazează pe împărtăşirea
sau exploatarea datelor utilizatorilor. -
7:18 - 7:22Se spune despre Facebook că utilizatorii
nu sunt clienţii, ei sunt produsul. -
7:23 - 7:25Cum determini o companie
-
7:25 - 7:29să cedeze controlul asupra
sursei sale de venit, utilizatorilor? -
7:29 - 7:33E posibil, dar nu cred că e ceva
care o să se schimbe rapid. -
7:33 - 7:38Cred că cealaltă cale de adoptat
şi una mai eficientă, este cea a ştiinţei. -
7:38 - 7:45Cu ajutorul ştiinţei am dezvoltat
mecanismele de calcul ale acestor date. -
7:45 - 7:48Ar trebui să facem o cercetare similară
-
7:48 - 7:52dacă dorim să dezvoltăm mecanisme
care să-l anunţe pe utilizator: -
7:52 - 7:54„Iată riscul la care te expui făcând asta"
-
7:54 - 7:56dând like la acea pagină de Facebook,
-
7:56 - 7:59sau împărtăşind
această informaţie personală, -
7:59 - 8:03mi-ai înlesnit capacitatea de a prezice
dacă foloseşti droguri -
8:03 - 8:05sau dacă eşti bine adaptat
la locul de muncă. -
8:05 - 8:09Asta poate influenţa ce doresc
oamenii să împărtăşească şi ce nu, -
8:09 - 8:12ce să păstreze privat
sau ce să nu pună online. -
8:12 - 8:15Ne putem ocupa şi de lucruri
care să permită oamenilor -
8:15 - 8:18să cripteze datele pe care le încarcă,
încât să fie invizibile şi inutile -
8:18 - 8:22pentru site-uri precum Facebook
sau terți care le accesează, -
8:22 - 8:28dar să-i selecteze pe cei
care ei vor să aibă acces la ele. -
8:28 - 8:32Asta-i o cercetare foarte interesantă
dintr-o perspectivă intelectuală, -
8:32 - 8:34aşa că cercetătorii vor dori s-o facă.
-
8:34 - 8:37Asta ne dă un avantaj în faţa căii legale.
-
8:37 - 8:40Una dintre problemele menționate
când vorbesc despre asta, este: -
8:40 - 8:44„dacă oamenii încep să îşi păstreze
toate datele personale private, -
8:44 - 8:48toate metodele pe care le-aţi dezvoltat
ca să le deduceţi trăsăturile vor eşua.” -
8:48 - 8:52Le răspund: „Categoric.”
Dar pentru mine ăsta e un succes, -
8:52 - 8:57deoarece, ca cercetător, scopul meu nu e
să deduc informaţii despre utilizatori, -
8:57 - 9:00ci să îmbunătăţesc modul cum oamenii
interacţionează online. -
9:00 - 9:03Uneori asta implică deducţia
unor lucruri despre ei, -
9:03 - 9:06dar dacă utilizatorii nu vor
ca eu să folosesc acele date, -
9:06 - 9:08ar trebui să aibă dreptul să facă asta.
-
9:08 - 9:11Vreau ca utilizatorii
să fie informaţi şi de acord -
9:11 - 9:13cu instrumentele pe care le realizăm.
-
9:13 - 9:18Cred că încurajând asemenea cercetări
şi sprijinind cercetătorii care doresc -
9:18 - 9:23să redea parte din control utilizatorilor,
luând-o de la companiile de media socială, -
9:23 - 9:27înseamnă că înaintăm odată cu evoluția
şi progresul acestor mijloace, -
9:27 - 9:30înseamnă că vom avea o bază de utilizatori
educată şi în control. -
9:30 - 9:33Cred că toți suntem de acord
că asta e calea ideală de a continua. -
9:33 - 9:35Vă mulţumesc.
-
9:35 - 9:39(Aplauze)
- Title:
- Enigma cartofilor prăjiţi: „Like”-urile spun mai mult decât îţi imaginezi
- Speaker:
- Jennifer Golbeck
- Description:
-
Îţi plac cartofii prăjiţi spiralaţi? Le-ai dat „Like” pe Facebook? Vizionează acest discurs pentru a descoperi lucruri surprinzătoare pe care Facebook (şi alţii) le pot ghici despre tine din like-urile şi share-urile tale la întâmplare. Cercetătoarea în calculatoare Jennifer Golbeck explică modul în care a apărut acest fenomen, de ce unele aplicaţii ale tehnologiei nu sunt atât de binevoitoare şi de ce crede că ar trebui să redăm controlul informaţiei proprietarilor de drept.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Delia Bogdan edited Romanian subtitles for Your social media "likes" expose more than you think | ||
Ariana Bleau Lugo edited Romanian subtitles for Your social media "likes" expose more than you think | ||
Ariana Bleau Lugo edited Romanian subtitles for Your social media "likes" expose more than you think | ||
Ariana Bleau Lugo edited Romanian subtitles for Your social media "likes" expose more than you think | ||
Ariana Bleau Lugo approved Romanian subtitles for Your social media "likes" expose more than you think | ||
Ariana Bleau Lugo accepted Romanian subtitles for Your social media "likes" expose more than you think | ||
Ariana Bleau Lugo edited Romanian subtitles for Your social media "likes" expose more than you think | ||
Ariana Bleau Lugo edited Romanian subtitles for Your social media "likes" expose more than you think |