Ce facem cu aceste date masive?
-
0:01 - 0:04Tehnologia a făcut posibile
așa de multe lucruri -
0:04 - 0:07aterizarea pe lună, Internetul,
-
0:07 - 0:09posibilitatea de a decoda genomul uman.
-
0:09 - 0:13Dar ea are de-a face și cu
fricile noaste cele mai puternice -
0:13 - 0:15și acum vreo 30 de ani
-
0:15 - 0:17criticul Neil Postman a scris o carte
-
0:17 - 0:19numită „Ne amuzăm până la moarte”
-
0:19 - 0:22care abordează problema asta foarte bine.
-
0:22 - 0:24Iată ce a spus,
-
0:24 - 0:26comparând viziunile distopice
-
0:26 - 0:30ale lui George Orwell și Aldous Huxley.
-
0:30 - 0:33A spus ca Orwell se temea că vom deveni
-
0:33 - 0:35o cultură captivă.
-
0:35 - 0:39Huxley se temea că vom deveni
o cultură banală. -
0:39 - 0:41Orwell se temea că adevărul
-
0:41 - 0:43ne va fi ascuns,
-
0:43 - 0:45iar Huxley se temea că ne vom îneca
-
0:45 - 0:48într-o mare de irelevanță.
-
0:48 - 0:50Pe scurt, e o alegere între
-
0:50 - 0:52a fi urmărit de Big Brother
-
0:52 - 0:55sau a urmări Big Brother.
-
0:55 - 0:57(Râsete)
-
0:57 - 0:59Dar nu trebuie să fie așa.
-
0:59 - 1:02Nu suntem utilizatori pasivi
de date și tehnologie. -
1:02 - 1:04Noi definim rolul lor în viețile noastre
-
1:04 - 1:07și modul în care le interpretăm înțelesul,
-
1:07 - 1:08dar pentru a face asta,
-
1:08 - 1:12trebuie să acordăm aceeași
importanță modului de gândire -
1:12 - 1:14ca modului de codare.
-
1:14 - 1:17Trebuie să ne punem întrebări;
întrebări dificile -
1:17 - 1:19să trecem de la a număra lucruri
-
1:19 - 1:21la a le înțelege.
-
1:21 - 1:24Suntem bombardați constant cu povești
-
1:24 - 1:26despre cât de multă data există în lume,
-
1:26 - 1:28dar când e vorba
de volume mari de date -
1:28 - 1:30și de provocările acestora,
-
1:30 - 1:32mărimea nu contează.
-
1:32 - 1:35Contează și viteza cu care se mișcă,
-
1:35 - 1:37varietățile de tipuri de date,
-
1:37 - 1:40iar aici avem numai câteva exemple:
-
1:40 - 1:42imagini,
-
1:42 - 1:46text,
-
1:46 - 1:48video,
-
1:48 - 1:50audio.
-
1:50 - 1:53Și ce unește aceste tipuri disparate
de date -
1:53 - 1:55este că toate sunt create de oameni
-
1:55 - 1:58și au nevoie de un context.
-
1:58 - 2:00Există un grup de oameni de știință
-
2:00 - 2:02de la Universitatea Illinois-Chicago
-
2:02 - 2:05numit Health Media Collaboratory,
-
2:05 - 2:08care a lucrat cu Centrul de Control
al Bolilor -
2:08 - 2:09pentru a înțelege mai bine
-
2:09 - 2:12cum vorbesc oamenii
despre lăsatul de fumat, -
2:12 - 2:15cum vorbesc despre țigările electronice,
-
2:15 - 2:17și ce pot face ei împreună
-
2:17 - 2:19pentru a-i ajuta să se lase de fumat.
-
2:19 - 2:21Lucrul interesant este că,
dacă vrei să înțelegi -
2:21 - 2:23cum vorbesc oamenii despre fumat,
-
2:23 - 2:24trebuie mai întâi să înțelegi
-
2:24 - 2:27la ce se referă ei când spun „fumat”.
-
2:27 - 2:31Și pe Twitter, sunt 4 mari categorii:
-
2:31 - 2:34unu, fumatul de țigări;
-
2:34 - 2:37doi, fumatul de marijuana;
-
2:37 - 2:40trei, costițe afumate („smoking”);
-
2:40 - 2:43și patru, femei mortale („smoking hot”).
-
2:43 - 2:46(Râsete)
-
2:46 - 2:48Așa că apoi trebuie sa te gândești
-
2:48 - 2:51cum vorbesc oamenii
despre țigări electronice? -
2:51 - 2:53Și sunt așa de multe feluri
-
2:53 - 2:56în care oamenii fac asta
și se vede de pe slide -
2:56 - 2:58că e o chestiune complexă.
-
2:58 - 3:01Și ne reamintește
-
3:01 - 3:04că limbile sunt create de oameni
-
3:04 - 3:06și oamenii sunt dezordonați
și suntem complecși -
3:06 - 3:09și folosim metafore și argou și jargon
-
3:09 - 3:12și facem asta 24/7 în multe, multe limbi
-
3:12 - 3:15și apoi imediat ce ne dăm seama,
schimbăm lucrurile. -
3:15 - 3:20Au avut oare reclamele astea
de la CDC, -
3:20 - 3:22reclamele la televizor cu o femeie
-
3:22 - 3:25cu o gaură în gât,
-
3:25 - 3:27foarte grafice și foarte deranjante
-
3:27 - 3:29un impact într-adevăr
-
3:29 - 3:31asupra lăsatului de fumat?
-
3:31 - 3:35Iar Health media Collaboratory
a respectat limitele datelor lor, -
3:35 - 3:37dar au putut concluziona
-
3:37 - 3:40că acele reclame,
pe care probabil le-ați văzut, -
3:40 - 3:42au avut efectul de a-i scutura pe oameni
-
3:42 - 3:44și de a duce la un proces de gândire
-
3:44 - 3:48care ar putea avea un impact
asupra comportamentului viitor. -
3:48 - 3:52Ceea ce admir și apreciez
la acest proiect, -
3:52 - 3:53pe lângă faptul, împreună cu faptul
-
3:53 - 3:57că se bazează pe o nevoie umană reală,
-
3:57 - 4:00este că e un exemplu fantastic de curaj
-
4:00 - 4:05în fața unei mări de irelevanță.
-
4:05 - 4:08Așa că nu numai volumul mare de date
-
4:08 - 4:11cauzează probleme de interpretare,
pentru că, să fim sinceri, -
4:11 - 4:13noi oamenii avem o istorie lungă
-
4:13 - 4:16în a lua orice volum de date,
oricât de mic -
4:16 - 4:17și în a-l strica.
-
4:17 - 4:21Cu mulți ani în urmă,
probabil vă aduceți aminte -
4:21 - 4:24că fostul președinte Ronald Regan
-
4:24 - 4:25a fost foare criticat când a spus
-
4:25 - 4:29că adevărurile dovedite sunt ceva stupid.
-
4:29 - 4:31A fost probabil o simplă greșeală,
ca să fim sinceri. -
4:31 - 4:34Vroia de fapt să-l citeze pe John Adams
-
4:34 - 4:37în apararea soldaților britanici
în procesul masacrului din Boston -
4:37 - 4:40că realitatea este încăpățânată.
-
4:40 - 4:42Dar cred că este de fapt
-
4:42 - 4:46puțină înțelepciune accidentală
în ceea ce a spus, -
4:46 - 4:48pentru că realitatea este încăpățânată
-
4:48 - 4:51dau uneori este și stupidă.
-
4:51 - 4:53Vreau să vă zic o poveste personală
-
4:53 - 4:57despre de ce contează asta
așa de mult pentru mine. -
4:57 - 4:59Trebuie să repir adânc.
-
4:59 - 5:02Fiul meu Isaac, când avea 2 ani,
-
5:02 - 5:04a fost diagnosticat cu autism.
-
5:04 - 5:07Era un omuleț vesel, amuzant,
-
5:07 - 5:09iubitor și afectuos
-
5:09 - 5:12însă datele evaluărilor dezvoltării sale,
-
5:12 - 5:14care luau în considerare lucruri ca
numărul de cuvinte, -
5:14 - 5:17la acel moment, zero,
-
5:17 - 5:21gesturi de comunicare
și contact vizual minim -
5:21 - 5:23au stabilit gradul său de dezvoltare
-
5:23 - 5:27ca fiind cel al unui bebeluș de 9 luni.
-
5:27 - 5:30Iar diagnosticul era corect
din punct de vedere al datelor, -
5:30 - 5:33însă nu zicea toata povestea.
-
5:33 - 5:35După vreun an jumate,
-
5:35 - 5:37cand avea aproape 4 ani,
-
5:37 - 5:39l-am găsit într-o zi
în fața calculatorului -
5:39 - 5:45facând o căutare Google despre femei,
-
5:45 - 5:48scris „f-i-m-e-i”.
-
5:48 - 5:51Și am facut ce ar fi făcut
orice părinte obsedat -
5:51 - 5:53adică am început imediat
să apas pe „Back” (înapoi) -
5:53 - 5:56să văd ce altceva mai căutase.
-
5:56 - 5:58Și am găsit, în ordine: bărbat
-
5:58 - 6:06școală, autobuz și computer.
-
6:06 - 6:08Și am fost uimită,
-
6:08 - 6:10pentru că nu știam că poate să scrie,
-
6:10 - 6:12cu atât mai mult să citească,
și l-am întrebat -
6:12 - 6:14„Isaac, cum ai făcut asta?”
-
6:14 - 6:16S-a uitam la mine foarte serios
și a zis -
6:16 - 6:20„Scris în cutie”
-
6:20 - 6:23Învăța singur să comunice,
-
6:23 - 6:26dar noi se uitam în direcția greșită
-
6:26 - 6:29și asta se întâmplă când evaluările
-
6:29 - 6:31și analizele supraevaluează un parametru,
-
6:31 - 6:34în acest caz, comunicarea verbală,
-
6:34 - 6:39și subevaluează altele,
cum ar fi gândirea creativă. -
6:39 - 6:42Comunicarea era dificilă pentru Isaac
-
6:42 - 6:44așa că a găsit o cale
-
6:44 - 6:46de a afla ce trebuia să știe.
-
6:46 - 6:48Iar când te gândești, are multă logică
-
6:48 - 6:51pentru că formularea unei întrebări
-
6:51 - 6:53este un proces complex,
-
6:53 - 6:56dar el s-a descurcat
-
6:56 - 7:00punând un cuvânt
într-o căsuță de căutare. -
7:00 - 7:03Și astfel acest moment mărunt
-
7:03 - 7:05a avut un impact profund asupra mea
-
7:05 - 7:07și a familiei noastre
-
7:07 - 7:10pentru că ne-a ajutat să ne schimbăm
cadrul de referință -
7:10 - 7:12în legătură cu ce se întâmpla cu el
-
7:12 - 7:15și să ne facem mai puține griji
și să apreciem -
7:15 - 7:17creativitatea sa mai mult
-
7:17 - 7:20Datele sunt stupide.
-
7:20 - 7:23Pot fi utilizate greșit,
-
7:23 - 7:24de bunăvoie sau nu.
-
7:24 - 7:27Am o prietenă, Emily Willingham,
care e om de știință -
7:27 - 7:30care a scris un articol pentru Forbes
nu demult -
7:30 - 7:32numit „Cele mai ciudate 10 lucruri
-
7:32 - 7:34legate de autism.”
-
7:34 - 7:37Este o listă destul de lungă.
-
7:37 - 7:40Internetul, mereu de vină, nu?
-
7:40 - 7:44Și mamele, bineînțeles.
-
7:44 - 7:46Și mai sunt de fapt
-
7:46 - 7:49foarte multe în categoria „mame” aici.
-
7:49 - 7:54Și puteți vedea că e o listă
bogată și interesantă. -
7:54 - 7:56Îmi place mult
-
7:56 - 8:00„să fii gravidă lângă autostrazi”.
-
8:00 - 8:01Ultima este interesantă
-
8:01 - 8:04pentru că termenul „mamă frigider”
-
8:04 - 8:07a fost ipoteza originală
-
8:07 - 8:08pentru cauzele autismului
-
8:08 - 8:11iar asta însemana o persoană
rece și neafectuoasă. -
8:11 - 8:13Și acum probabil vă gândiți,
-
8:13 - 8:14„OK, Susan, am înțeles.
-
8:14 - 8:16Poți lua date și le poți
da orice înțeles.” -
8:16 - 8:21Și e adevărat, e absolut adevărat.
-
8:21 - 8:26Dar provocarea este că
-
8:26 - 8:29avem oportunitatea
-
8:29 - 8:31de a încerca să găsim singuri înțelesul,
-
8:31 - 8:37pentru că sincer, datele nu au înțeles.
Noi îl dăm. -
8:37 - 8:40În calitate de oameni de afaceri,
consumatori, -
8:40 - 8:42pacienți și cetățeni,
-
8:42 - 8:45avem responsabilitatea, cred,
-
8:45 - 8:47să petrecem mai mult timp
-
8:47 - 8:50concentrându-ne pe abilitățile
noastre de gândire critică. -
8:50 - 8:51De ce?
-
8:51 - 8:54Pentru că în acest moment,
după cum am auzit -
8:54 - 8:56de multe ori,
-
8:56 - 8:58putem procesa exabiți de date
-
8:58 - 9:00cu viteza luminii
-
9:00 - 9:03și putem lua decizii proaste
-
9:03 - 9:05mai repede, mai eficient
-
9:05 - 9:10și cu mai mare impact decât în trecut.
-
9:10 - 9:12Grozav, nu?
-
9:12 - 9:15Așa că ce trebuie să facem
-
9:15 - 9:17este să petrecem mai mult timp
-
9:17 - 9:20cu discipline umanistice
-
9:20 - 9:23ca sociologia și științele sociale,
-
9:23 - 9:26retorica, filozofia, etica,
-
9:26 - 9:28pentru că oferă context,
care e atât de important -
9:28 - 9:31pentru volumele mari de date
-
9:31 - 9:34și pentru că ne ajută
să ne îmbunătățim gândirea critică. -
9:34 - 9:38La urma urmei, dacă pot găsi
-
9:38 - 9:40o problemă într-o discuție,
nu mai contează -
9:40 - 9:43dacă e exprimată în cuvinte sau în cifre.
-
9:43 - 9:46Și asta înseamnă
-
9:46 - 9:50să ne educăm să identificăm
acele predilecții -
9:50 - 9:52și legături false
-
9:52 - 9:54și să fim capabili să identificăm
o pistă falsă -
9:54 - 9:56de la 100 de metri,
-
9:56 - 9:58pentru că ceva ce succede altceva
-
9:58 - 10:01nu înseamnă neaparat că s-a întâmplat
din cauza lui -
10:01 - 10:03și dacă mă lăsați să fiu puțin pedantă,
-
10:03 - 10:08romanii numeau asta
„post hoc ergo propter hoc” -
10:08 - 10:11după asta, iată că datorită asta.
-
10:11 - 10:15Iar asta înseamnă să punem sub semnul
întrebării discipline ca demografia. -
10:15 - 10:17De ce? Pentru că se bazează pe presupuneri
-
10:17 - 10:20despre cine suntem, în baza sexului
-
10:20 - 10:21vârstei și locului unde trăim
-
10:21 - 10:24în loc de informații despre ce
gândim și cu ce ne ocupăm. -
10:24 - 10:26Și din moment ce avem aceste date
-
10:26 - 10:29trebuie să folosim controalele
de confidențialitate potrivite -
10:29 - 10:33cu acordul consumatorului
-
10:33 - 10:36și mai mult de asta, trebuie să fim clari
-
10:36 - 10:38în legătură cu ipotezele
-
10:38 - 10:41metodologiile pe care le folosim
-
10:41 - 10:43și încerederea noastră în rezultate.
-
10:43 - 10:46Cum spunea profesorul meu de algebră
din liceu -
10:46 - 10:47„arată-mi calculele”
-
10:47 - 10:51pentru că dacă nu știu ce pași ai urmat,
-
10:51 - 10:53nu știu ce pași nu ai urmat,
-
10:53 - 10:55iar dacă nu știu ce întrebări ai pus,
-
10:55 - 10:58nu știu ce întrebări nu ai pus.
-
10:58 - 11:00Și înseamnă să ne întrebăm
-
11:00 - 11:01cea mai grea întrebare din toate:
-
11:01 - 11:05Oare datele ne-au arătat asta,
-
11:05 - 11:07sau rezultatul ne face să ne simțim
-
11:07 - 11:11sau realizați și mai satisfăcuți?
-
11:11 - 11:14Așa că Health Media Collaboratory
-
11:14 - 11:16au fost în stare la sfârșitul proiectului
-
11:16 - 11:19să vadă că 87% din tweeturile
-
11:19 - 11:21despre reclamele acelea anti-fumat
-
11:21 - 11:25foarte grafice și deranjante
provocau frică -
11:25 - 11:27dau au putut trage concluzia
-
11:27 - 11:30că determinau într-adevăr oamenii
să se lase de fumat? -
11:30 - 11:33Nu. E știință, nu magie.
-
11:33 - 11:36Așa că dacă trebuie să dezlegăm
-
11:36 - 11:39puterea datelor
-
11:39 - 11:42nu prebuie să urmăm orbește
-
11:42 - 11:45viziunea lui Orwell
despre un viitor totalitar -
11:45 - 11:49sau cea a lui Huxley
despre un viitor banal, -
11:49 - 11:52sau vreun amestec groaznic din ambele.
-
11:52 - 11:54Ce trebuie să facem
-
11:54 - 11:57este să prețuim gândirea critică
-
11:57 - 11:59și să fim inspirați de exemple
-
11:59 - 12:01cum ar fi cel al
Health Media Collaboratory -
12:01 - 12:04sau, cum spun în filmele cu supereroi,
-
12:04 - 12:05să ne folosim puterile pentru bine.
-
12:05 - 12:08Vă mulțumesc.
-
12:08 - 12:10(Aplauze)
- Title:
- Ce facem cu aceste date masive?
- Speaker:
- Susan Etlinger
- Description:
-
Vă dau datele un sens de satisfacție? De mai mult succes? În acest caz interpretarea lor e probabil eronată. Într-o prezentare emoționantă, Susan Etlinger explică de ce, pe măsură ce colectăm tot mai multe date, trebuie să ne aprofundăm gândirea critică. Pentru că e greu să trecem de la listarea datelor la înțelegerea lor profundă.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 12:23
Ariana Bleau Lugo approved Romanian subtitles for What do we do with all this big data? | ||
Ariana Bleau Lugo accepted Romanian subtitles for What do we do with all this big data? | ||
Ariana Bleau Lugo edited Romanian subtitles for What do we do with all this big data? | ||
Ariana Bleau Lugo edited Romanian subtitles for What do we do with all this big data? | ||
Ariana Bleau Lugo edited Romanian subtitles for What do we do with all this big data? | ||
Ariana Bleau Lugo edited Romanian subtitles for What do we do with all this big data? | ||
Ariana Bleau Lugo edited Romanian subtitles for What do we do with all this big data? | ||
Retired user edited Romanian subtitles for What do we do with all this big data? |