Return to Video

Ce facem cu aceste date masive?

  • 0:01 - 0:04
    Tehnologia a făcut posibile
    așa de multe lucruri
  • 0:04 - 0:07
    aterizarea pe lună, Internetul,
  • 0:07 - 0:09
    posibilitatea de a decoda genomul uman.
  • 0:09 - 0:13
    Dar ea are de-a face și cu
    fricile noaste cele mai puternice
  • 0:13 - 0:15
    și acum vreo 30 de ani
  • 0:15 - 0:17
    criticul Neil Postman a scris o carte
  • 0:17 - 0:19
    numită „Ne amuzăm până la moarte”
  • 0:19 - 0:22
    care abordează problema asta foarte bine.
  • 0:22 - 0:24
    Iată ce a spus,
  • 0:24 - 0:26
    comparând viziunile distopice
  • 0:26 - 0:30
    ale lui George Orwell și Aldous Huxley.
  • 0:30 - 0:33
    A spus ca Orwell se temea că vom deveni
  • 0:33 - 0:35
    o cultură captivă.
  • 0:35 - 0:39
    Huxley se temea că vom deveni
    o cultură banală.
  • 0:39 - 0:41
    Orwell se temea că adevărul
  • 0:41 - 0:43
    ne va fi ascuns,
  • 0:43 - 0:45
    iar Huxley se temea că ne vom îneca
  • 0:45 - 0:48
    într-o mare de irelevanță.
  • 0:48 - 0:50
    Pe scurt, e o alegere între
  • 0:50 - 0:52
    a fi urmărit de Big Brother
  • 0:52 - 0:55
    sau a urmări Big Brother.
  • 0:55 - 0:57
    (Râsete)
  • 0:57 - 0:59
    Dar nu trebuie să fie așa.
  • 0:59 - 1:02
    Nu suntem utilizatori pasivi
    de date și tehnologie.
  • 1:02 - 1:04
    Noi definim rolul lor în viețile noastre
  • 1:04 - 1:07
    și modul în care le interpretăm înțelesul,
  • 1:07 - 1:08
    dar pentru a face asta,
  • 1:08 - 1:12
    trebuie să acordăm aceeași
    importanță modului de gândire
  • 1:12 - 1:14
    ca modului de codare.
  • 1:14 - 1:17
    Trebuie să ne punem întrebări;
    întrebări dificile
  • 1:17 - 1:19
    să trecem de la a număra lucruri
  • 1:19 - 1:21
    la a le înțelege.
  • 1:21 - 1:24
    Suntem bombardați constant cu povești
  • 1:24 - 1:26
    despre cât de multă data există în lume,
  • 1:26 - 1:28
    dar când e vorba
    de volume mari de date
  • 1:28 - 1:30
    și de provocările acestora,
  • 1:30 - 1:32
    mărimea nu contează.
  • 1:32 - 1:35
    Contează și viteza cu care se mișcă,
  • 1:35 - 1:37
    varietățile de tipuri de date,
  • 1:37 - 1:40
    iar aici avem numai câteva exemple:
  • 1:40 - 1:42
    imagini,
  • 1:42 - 1:46
    text,
  • 1:46 - 1:48
    video,
  • 1:48 - 1:50
    audio.
  • 1:50 - 1:53
    Și ce unește aceste tipuri disparate
    de date
  • 1:53 - 1:55
    este că toate sunt create de oameni
  • 1:55 - 1:58
    și au nevoie de un context.
  • 1:58 - 2:00
    Există un grup de oameni de știință
  • 2:00 - 2:02
    de la Universitatea Illinois-Chicago
  • 2:02 - 2:05
    numit Health Media Collaboratory,
  • 2:05 - 2:08
    care a lucrat cu Centrul de Control
    al Bolilor
  • 2:08 - 2:09
    pentru a înțelege mai bine
  • 2:09 - 2:12
    cum vorbesc oamenii
    despre lăsatul de fumat,
  • 2:12 - 2:15
    cum vorbesc despre țigările electronice,
  • 2:15 - 2:17
    și ce pot face ei împreună
  • 2:17 - 2:19
    pentru a-i ajuta să se lase de fumat.
  • 2:19 - 2:21
    Lucrul interesant este că,
    dacă vrei să înțelegi
  • 2:21 - 2:23
    cum vorbesc oamenii despre fumat,
  • 2:23 - 2:24
    trebuie mai întâi să înțelegi
  • 2:24 - 2:27
    la ce se referă ei când spun „fumat”.
  • 2:27 - 2:31
    Și pe Twitter, sunt 4 mari categorii:
  • 2:31 - 2:34
    unu, fumatul de țigări;
  • 2:34 - 2:37
    doi, fumatul de marijuana;
  • 2:37 - 2:40
    trei, costițe afumate („smoking”);
  • 2:40 - 2:43
    și patru, femei mortale („smoking hot”).
  • 2:43 - 2:46
    (Râsete)
  • 2:46 - 2:48
    Așa că apoi trebuie sa te gândești
  • 2:48 - 2:51
    cum vorbesc oamenii
    despre țigări electronice?
  • 2:51 - 2:53
    Și sunt așa de multe feluri
  • 2:53 - 2:56
    în care oamenii fac asta
    și se vede de pe slide
  • 2:56 - 2:58
    că e o chestiune complexă.
  • 2:58 - 3:01
    Și ne reamintește
  • 3:01 - 3:04
    că limbile sunt create de oameni
  • 3:04 - 3:06
    și oamenii sunt dezordonați
    și suntem complecși
  • 3:06 - 3:09
    și folosim metafore și argou și jargon
  • 3:09 - 3:12
    și facem asta 24/7 în multe, multe limbi
  • 3:12 - 3:15
    și apoi imediat ce ne dăm seama,
    schimbăm lucrurile.
  • 3:15 - 3:20
    Au avut oare reclamele astea
    de la CDC,
  • 3:20 - 3:22
    reclamele la televizor cu o femeie
  • 3:22 - 3:25
    cu o gaură în gât,
  • 3:25 - 3:27
    foarte grafice și foarte deranjante
  • 3:27 - 3:29
    un impact într-adevăr
  • 3:29 - 3:31
    asupra lăsatului de fumat?
  • 3:31 - 3:35
    Iar Health media Collaboratory
    a respectat limitele datelor lor,
  • 3:35 - 3:37
    dar au putut concluziona
  • 3:37 - 3:40
    că acele reclame,
    pe care probabil le-ați văzut,
  • 3:40 - 3:42
    au avut efectul de a-i scutura pe oameni
  • 3:42 - 3:44
    și de a duce la un proces de gândire
  • 3:44 - 3:48
    care ar putea avea un impact
    asupra comportamentului viitor.
  • 3:48 - 3:52
    Ceea ce admir și apreciez
    la acest proiect,
  • 3:52 - 3:53
    pe lângă faptul, împreună cu faptul
  • 3:53 - 3:57
    că se bazează pe o nevoie umană reală,
  • 3:57 - 4:00
    este că e un exemplu fantastic de curaj
  • 4:00 - 4:05
    în fața unei mări de irelevanță.
  • 4:05 - 4:08
    Așa că nu numai volumul mare de date
  • 4:08 - 4:11
    cauzează probleme de interpretare,
    pentru că, să fim sinceri,
  • 4:11 - 4:13
    noi oamenii avem o istorie lungă
  • 4:13 - 4:16
    în a lua orice volum de date,
    oricât de mic
  • 4:16 - 4:17
    și în a-l strica.
  • 4:17 - 4:21
    Cu mulți ani în urmă,
    probabil vă aduceți aminte
  • 4:21 - 4:24
    că fostul președinte Ronald Regan
  • 4:24 - 4:25
    a fost foare criticat când a spus
  • 4:25 - 4:29
    că adevărurile dovedite sunt ceva stupid.
  • 4:29 - 4:31
    A fost probabil o simplă greșeală,
    ca să fim sinceri.
  • 4:31 - 4:34
    Vroia de fapt să-l citeze pe John Adams
  • 4:34 - 4:37
    în apararea soldaților britanici
    în procesul masacrului din Boston
  • 4:37 - 4:40
    că realitatea este încăpățânată.
  • 4:40 - 4:42
    Dar cred că este de fapt
  • 4:42 - 4:46
    puțină înțelepciune accidentală
    în ceea ce a spus,
  • 4:46 - 4:48
    pentru că realitatea este încăpățânată
  • 4:48 - 4:51
    dau uneori este și stupidă.
  • 4:51 - 4:53
    Vreau să vă zic o poveste personală
  • 4:53 - 4:57
    despre de ce contează asta
    așa de mult pentru mine.
  • 4:57 - 4:59
    Trebuie să repir adânc.
  • 4:59 - 5:02
    Fiul meu Isaac, când avea 2 ani,
  • 5:02 - 5:04
    a fost diagnosticat cu autism.
  • 5:04 - 5:07
    Era un omuleț vesel, amuzant,
  • 5:07 - 5:09
    iubitor și afectuos
  • 5:09 - 5:12
    însă datele evaluărilor dezvoltării sale,
  • 5:12 - 5:14
    care luau în considerare lucruri ca
    numărul de cuvinte,
  • 5:14 - 5:17
    la acel moment, zero,
  • 5:17 - 5:21
    gesturi de comunicare
    și contact vizual minim
  • 5:21 - 5:23
    au stabilit gradul său de dezvoltare
  • 5:23 - 5:27
    ca fiind cel al unui bebeluș de 9 luni.
  • 5:27 - 5:30
    Iar diagnosticul era corect
    din punct de vedere al datelor,
  • 5:30 - 5:33
    însă nu zicea toata povestea.
  • 5:33 - 5:35
    După vreun an jumate,
  • 5:35 - 5:37
    cand avea aproape 4 ani,
  • 5:37 - 5:39
    l-am găsit într-o zi
    în fața calculatorului
  • 5:39 - 5:45
    facând o căutare Google despre femei,
  • 5:45 - 5:48
    scris „f-i-m-e-i”.
  • 5:48 - 5:51
    Și am facut ce ar fi făcut
    orice părinte obsedat
  • 5:51 - 5:53
    adică am început imediat
    să apas pe „Back” (înapoi)
  • 5:53 - 5:56
    să văd ce altceva mai căutase.
  • 5:56 - 5:58
    Și am găsit, în ordine: bărbat
  • 5:58 - 6:06
    școală, autobuz și computer.
  • 6:06 - 6:08
    Și am fost uimită,
  • 6:08 - 6:10
    pentru că nu știam că poate să scrie,
  • 6:10 - 6:12
    cu atât mai mult să citească,
    și l-am întrebat
  • 6:12 - 6:14
    „Isaac, cum ai făcut asta?”
  • 6:14 - 6:16
    S-a uitam la mine foarte serios
    și a zis
  • 6:16 - 6:20
    „Scris în cutie”
  • 6:20 - 6:23
    Învăța singur să comunice,
  • 6:23 - 6:26
    dar noi se uitam în direcția greșită
  • 6:26 - 6:29
    și asta se întâmplă când evaluările
  • 6:29 - 6:31
    și analizele supraevaluează un parametru,
  • 6:31 - 6:34
    în acest caz, comunicarea verbală,
  • 6:34 - 6:39
    și subevaluează altele,
    cum ar fi gândirea creativă.
  • 6:39 - 6:42
    Comunicarea era dificilă pentru Isaac
  • 6:42 - 6:44
    așa că a găsit o cale
  • 6:44 - 6:46
    de a afla ce trebuia să știe.
  • 6:46 - 6:48
    Iar când te gândești, are multă logică
  • 6:48 - 6:51
    pentru că formularea unei întrebări
  • 6:51 - 6:53
    este un proces complex,
  • 6:53 - 6:56
    dar el s-a descurcat
  • 6:56 - 7:00
    punând un cuvânt
    într-o căsuță de căutare.
  • 7:00 - 7:03
    Și astfel acest moment mărunt
  • 7:03 - 7:05
    a avut un impact profund asupra mea
  • 7:05 - 7:07
    și a familiei noastre
  • 7:07 - 7:10
    pentru că ne-a ajutat să ne schimbăm
    cadrul de referință
  • 7:10 - 7:12
    în legătură cu ce se întâmpla cu el
  • 7:12 - 7:15
    și să ne facem mai puține griji
    și să apreciem
  • 7:15 - 7:17
    creativitatea sa mai mult
  • 7:17 - 7:20
    Datele sunt stupide.
  • 7:20 - 7:23
    Pot fi utilizate greșit,
  • 7:23 - 7:24
    de bunăvoie sau nu.
  • 7:24 - 7:27
    Am o prietenă, Emily Willingham,
    care e om de știință
  • 7:27 - 7:30
    care a scris un articol pentru Forbes
    nu demult
  • 7:30 - 7:32
    numit „Cele mai ciudate 10 lucruri
  • 7:32 - 7:34
    legate de autism.”
  • 7:34 - 7:37
    Este o listă destul de lungă.
  • 7:37 - 7:40
    Internetul, mereu de vină, nu?
  • 7:40 - 7:44
    Și mamele, bineînțeles.
  • 7:44 - 7:46
    Și mai sunt de fapt
  • 7:46 - 7:49
    foarte multe în categoria „mame” aici.
  • 7:49 - 7:54
    Și puteți vedea că e o listă
    bogată și interesantă.
  • 7:54 - 7:56
    Îmi place mult
  • 7:56 - 8:00
    „să fii gravidă lângă autostrazi”.
  • 8:00 - 8:01
    Ultima este interesantă
  • 8:01 - 8:04
    pentru că termenul „mamă frigider”
  • 8:04 - 8:07
    a fost ipoteza originală
  • 8:07 - 8:08
    pentru cauzele autismului
  • 8:08 - 8:11
    iar asta însemana o persoană
    rece și neafectuoasă.
  • 8:11 - 8:13
    Și acum probabil vă gândiți,
  • 8:13 - 8:14
    „OK, Susan, am înțeles.
  • 8:14 - 8:16
    Poți lua date și le poți
    da orice înțeles.”
  • 8:16 - 8:21
    Și e adevărat, e absolut adevărat.
  • 8:21 - 8:26
    Dar provocarea este că
  • 8:26 - 8:29
    avem oportunitatea
  • 8:29 - 8:31
    de a încerca să găsim singuri înțelesul,
  • 8:31 - 8:37
    pentru că sincer, datele nu au înțeles.
    Noi îl dăm.
  • 8:37 - 8:40
    În calitate de oameni de afaceri,
    consumatori,
  • 8:40 - 8:42
    pacienți și cetățeni,
  • 8:42 - 8:45
    avem responsabilitatea, cred,
  • 8:45 - 8:47
    să petrecem mai mult timp
  • 8:47 - 8:50
    concentrându-ne pe abilitățile
    noastre de gândire critică.
  • 8:50 - 8:51
    De ce?
  • 8:51 - 8:54
    Pentru că în acest moment,
    după cum am auzit
  • 8:54 - 8:56
    de multe ori,
  • 8:56 - 8:58
    putem procesa exabiți de date
  • 8:58 - 9:00
    cu viteza luminii
  • 9:00 - 9:03
    și putem lua decizii proaste
  • 9:03 - 9:05
    mai repede, mai eficient
  • 9:05 - 9:10
    și cu mai mare impact decât în trecut.
  • 9:10 - 9:12
    Grozav, nu?
  • 9:12 - 9:15
    Așa că ce trebuie să facem
  • 9:15 - 9:17
    este să petrecem mai mult timp
  • 9:17 - 9:20
    cu discipline umanistice
  • 9:20 - 9:23
    ca sociologia și științele sociale,
  • 9:23 - 9:26
    retorica, filozofia, etica,
  • 9:26 - 9:28
    pentru că oferă context,
    care e atât de important
  • 9:28 - 9:31
    pentru volumele mari de date
  • 9:31 - 9:34
    și pentru că ne ajută
    să ne îmbunătățim gândirea critică.
  • 9:34 - 9:38
    La urma urmei, dacă pot găsi
  • 9:38 - 9:40
    o problemă într-o discuție,
    nu mai contează
  • 9:40 - 9:43
    dacă e exprimată în cuvinte sau în cifre.
  • 9:43 - 9:46
    Și asta înseamnă
  • 9:46 - 9:50
    să ne educăm să identificăm
    acele predilecții
  • 9:50 - 9:52
    și legături false
  • 9:52 - 9:54
    și să fim capabili să identificăm
    o pistă falsă
  • 9:54 - 9:56
    de la 100 de metri,
  • 9:56 - 9:58
    pentru că ceva ce succede altceva
  • 9:58 - 10:01
    nu înseamnă neaparat că s-a întâmplat
    din cauza lui
  • 10:01 - 10:03
    și dacă mă lăsați să fiu puțin pedantă,
  • 10:03 - 10:08
    romanii numeau asta
    „post hoc ergo propter hoc”
  • 10:08 - 10:11
    după asta, iată că datorită asta.
  • 10:11 - 10:15
    Iar asta înseamnă să punem sub semnul
    întrebării discipline ca demografia.
  • 10:15 - 10:17
    De ce? Pentru că se bazează pe presupuneri
  • 10:17 - 10:20
    despre cine suntem, în baza sexului
  • 10:20 - 10:21
    vârstei și locului unde trăim
  • 10:21 - 10:24
    în loc de informații despre ce
    gândim și cu ce ne ocupăm.
  • 10:24 - 10:26
    Și din moment ce avem aceste date
  • 10:26 - 10:29
    trebuie să folosim controalele
    de confidențialitate potrivite
  • 10:29 - 10:33
    cu acordul consumatorului
  • 10:33 - 10:36
    și mai mult de asta, trebuie să fim clari
  • 10:36 - 10:38
    în legătură cu ipotezele
  • 10:38 - 10:41
    metodologiile pe care le folosim
  • 10:41 - 10:43
    și încerederea noastră în rezultate.
  • 10:43 - 10:46
    Cum spunea profesorul meu de algebră
    din liceu
  • 10:46 - 10:47
    „arată-mi calculele”
  • 10:47 - 10:51
    pentru că dacă nu știu ce pași ai urmat,
  • 10:51 - 10:53
    nu știu ce pași nu ai urmat,
  • 10:53 - 10:55
    iar dacă nu știu ce întrebări ai pus,
  • 10:55 - 10:58
    nu știu ce întrebări nu ai pus.
  • 10:58 - 11:00
    Și înseamnă să ne întrebăm
  • 11:00 - 11:01
    cea mai grea întrebare din toate:
  • 11:01 - 11:05
    Oare datele ne-au arătat asta,
  • 11:05 - 11:07
    sau rezultatul ne face să ne simțim
  • 11:07 - 11:11
    sau realizați și mai satisfăcuți?
  • 11:11 - 11:14
    Așa că Health Media Collaboratory
  • 11:14 - 11:16
    au fost în stare la sfârșitul proiectului
  • 11:16 - 11:19
    să vadă că 87% din tweeturile
  • 11:19 - 11:21
    despre reclamele acelea anti-fumat
  • 11:21 - 11:25
    foarte grafice și deranjante
    provocau frică
  • 11:25 - 11:27
    dau au putut trage concluzia
  • 11:27 - 11:30
    că determinau într-adevăr oamenii
    să se lase de fumat?
  • 11:30 - 11:33
    Nu. E știință, nu magie.
  • 11:33 - 11:36
    Așa că dacă trebuie să dezlegăm
  • 11:36 - 11:39
    puterea datelor
  • 11:39 - 11:42
    nu prebuie să urmăm orbește
  • 11:42 - 11:45
    viziunea lui Orwell
    despre un viitor totalitar
  • 11:45 - 11:49
    sau cea a lui Huxley
    despre un viitor banal,
  • 11:49 - 11:52
    sau vreun amestec groaznic din ambele.
  • 11:52 - 11:54
    Ce trebuie să facem
  • 11:54 - 11:57
    este să prețuim gândirea critică
  • 11:57 - 11:59
    și să fim inspirați de exemple
  • 11:59 - 12:01
    cum ar fi cel al
    Health Media Collaboratory
  • 12:01 - 12:04
    sau, cum spun în filmele cu supereroi,
  • 12:04 - 12:05
    să ne folosim puterile pentru bine.
  • 12:05 - 12:08
    Vă mulțumesc.
  • 12:08 - 12:10
    (Aplauze)
Title:
Ce facem cu aceste date masive?
Speaker:
Susan Etlinger
Description:

Vă dau datele un sens de satisfacție? De mai mult succes? În acest caz interpretarea lor e probabil eronată. Într-o prezentare emoționantă, Susan Etlinger explică de ce, pe măsură ce colectăm tot mai multe date, trebuie să ne aprofundăm gândirea critică. Pentru că e greu să trecem de la listarea datelor la înțelegerea lor profundă.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
12:23

Romanian subtitles

Revisions