Datele masive sunt date mai bune
-
0:01 - 0:05Plăcinta preferată a Americii. Care este?
-
0:05 - 0:08Public: De mere!
Kenneth Cukier: De mere, sigur că da. -
0:08 - 0:10De unde știm?
-
0:10 - 0:13Datorită datelor.
-
0:13 - 0:18Ne uităm la vânzările supermarketurilor,
vânzările plăcintelor congelate de 30 cm. -
0:18 - 0:21Iar plăcinta de mere câștigă.
Detașat. -
0:21 - 0:25Majoritatea vânzărilor
sunt la plăcinta de mere. -
0:27 - 0:32Dar apoi supermarketurile au început
să vândă plăcinte mai mici, de 11 cm, -
0:32 - 0:36și dintr-o dată plăcinta de mere
a căzut pe locul 4 sau 5. -
0:36 - 0:39De ce? Ce s-a întâmplat?
-
0:39 - 0:42Ia să ne gândim.
-
0:42 - 0:46Când cumpărăm o plăcintă de 30 cm
-
0:46 - 0:48toată familia trebuie să fie de acord,
-
0:48 - 0:52iar plăcinta de mere
e a doua preferință a tuturor. -
0:52 - 0:54(Râsete)
-
0:54 - 0:57Dar când iei o plăcintă
personală, de 11 cm, -
0:57 - 1:01poți s-o iei pe cea pe care ți-o dorești.
-
1:01 - 1:05Poți să-ți alegi prima preferință.
-
1:05 - 1:07Avem mai multe date.
-
1:07 - 1:12Vedem ceva ce nu puteam vedea
când aveam cantități mai mici de date. -
1:13 - 1:16Dar ideea e că datele mai multe
-
1:16 - 1:20nu ne permit doar să vedem mai mult,
mai mult din același lucru. -
1:20 - 1:23Datele mai multe ne permit
să vedem ceva nou. -
1:23 - 1:27Ne permit să vedem mai bine.
-
1:27 - 1:30Ne permit să vedem altfel.
-
1:30 - 1:33În cazul de faţă ne permit să vedem
-
1:33 - 1:36care e plăcinta preferată a Americii:
-
1:36 - 1:39nu cea de mere.
-
1:39 - 1:42Probabil toată lumea a auzit
termenul „date masive”. -
1:42 - 1:46De fapt probabil vi s-a făcut acru
tot auzind „date masive”. -
1:46 - 1:52E adevărat că se face mult tam-tam
pe seama termenului și e mare păcat, -
1:52 - 1:55pentru că datele masive sunt
o unealtă foarte importantă -
1:55 - 1:59prin care va avansa societatea.
-
1:59 - 2:02În trecut ne uitam la date puține
-
2:02 - 2:05și ne întrebam cum am putea
încerca să înțelegem lumea, -
2:05 - 2:11iar acum avem mult mai multe,
mai multe decât era posibil înainte. -
2:11 - 2:15Constatăm că având o colecție mare de date
putem face lucruri -
2:15 - 2:18imposibil de realizat cu date puține.
-
2:18 - 2:21Datele masive sunt importante și sunt noi.
-
2:21 - 2:22Dacă ne gândim bine,
-
2:22 - 2:26singurul mod în care planeta
va face față problemelor globale -
2:26 - 2:30— hrănirea populației,
furnizarea serviciilor medicale, -
2:30 - 2:33alimentarea cu energie, electricitate,
-
2:33 - 2:36și cum facem să nu ne rumenim
cu încălzirea globală — -
2:36 - 2:40e prin folosirea eficientă a datelor.
-
2:40 - 2:44Dar ce e nou în datele masive?
Care e marea scofală? -
2:44 - 2:51Pentru a răspunde, să ne amintim
cum arătau informațiile efectiv în trecut. -
2:52 - 2:55În 1908, pe insula Creta,
-
2:55 - 3:00arheologii au descoperit un disc de lut.
-
3:00 - 3:04L-au datat în 2000 î.Hr.,
deci e vechi de 4000 ani. -
3:04 - 3:08Discul are inscripții, dar nu știm
ce înseamnă, e un mister complet. -
3:08 - 3:13Dar ideea e că așa arătau informațiile
acum 4000 ani. -
3:13 - 3:19Așa proceda societatea pentru a păstra
și transmite informațiile. -
3:19 - 3:24Dar societatea nu a avansat așa de mult.
-
3:24 - 3:27Încă mai păstrăm informații pe discuri,
-
3:27 - 3:31dar acum putem stoca
mult mai multe informații decât oricând. -
3:31 - 3:34Căutarea e mai ușoară.
Copierea e mai ușoară. -
3:34 - 3:38Distribuirea e mai ușoară.
Prelucrarea e mai ușoară. -
3:38 - 3:41Și putem refolosi aceste informații
-
3:41 - 3:46în moduri pe care nu ni le-am închipuit
când am colectat datele. -
3:46 - 3:51În această privință datele au trecut
de la a fi păstrate la a fi circulate, -
3:51 - 3:55de la ceva staționar și static
-
3:55 - 3:59la ceva fluid și dinamic.
-
3:59 - 4:04Ca să zic așa,
informațiile au o lichiditate. -
4:04 - 4:08Discul descoperit în Creta
și vechi de 4000 ani -
4:08 - 4:12e greu, nu stochează multe informații.
-
4:12 - 4:15Iar acele informații nu pot fi schimbate.
-
4:15 - 4:19Pe de altă parte, toate documentele
-
4:19 - 4:24pe care le-a luat Edward Snowden de la
Agenția de Securitate Națională din SUA -
4:24 - 4:29încap pe un stick de memorie
de mărimea unei unghii, -
4:29 - 4:33și se pot transmite cu viteza luminii.
-
4:34 - 4:38Mai multe date. Mai multe.
-
4:39 - 4:43Un motiv pentru care azi lumea are
atâtea date e că adunăm lucruri -
4:43 - 4:46despre care dintotdeauna
am adunat informații. -
4:46 - 4:51Dar un alt motiv e că luăm lucruri
care au fost mereu informaționale, -
4:51 - 4:56dar n-au mai fost puse sub formă de date,
și le transformăm în date. -
4:56 - 5:00Gândiți-vă de exemplu
la problema localizării. -
5:00 - 5:02Să-l luăm pe Martin Luther.
-
5:02 - 5:06Dacă voiam să știm, în anii 1500,
unde se află Martin Luther, -
5:06 - 5:12trebuia să-l urmăm peste tot,
poate cu pană și cerneală, ca să notăm. -
5:12 - 5:14Dar acum gândiți-vă cum e azi.
-
5:14 - 5:19Știți că undeva, printr-o bază de date
a unui furnizor de telecomunicații, -
5:19 - 5:22e un tabel sau cel puțin o înscriere
-
5:22 - 5:26care înregistrează informații despre noi,
unde am fost în fiecare moment. -
5:26 - 5:30Dacă aveți un telefon mobil cu GPS,
dar chiar dacă nu are GPS, -
5:30 - 5:33vă poate memora informațiile.
-
5:33 - 5:37În această privință
localizarea a fost „datificată”. -
5:37 - 5:41Acum gândiți-vă de exemplu
la problema posturii, -
5:41 - 5:43cum stați așezați,
-
5:43 - 5:45cum stați dv.
-
5:45 - 5:47sau cum stați dv. sau dv.
-
5:47 - 5:52Diferă în funcție de lungimea piciorului,
de spate și de conturul spatelui. -
5:52 - 5:56Dacă aș pune sensori, să zicem
100 de sensori, în scaunele tuturor, -
5:56 - 5:59aș putea crea un index
unic pentru fiecare. -
5:59 - 6:04Ca o amprentă, dar nu a degetului.
-
6:04 - 6:07Și la ce am putea s-o folosim?
-
6:07 - 6:14Unii cercetători din Tokio o folosesc
ca posibil sistem antifurt pentru mașini. -
6:14 - 6:17Ideea e că hoțul stă la volan,
încearcă să pornească, -
6:17 - 6:21dar mașina recunoaște
că la volan e un șofer neautorizat -
6:21 - 6:26și atunci de exemplu se oprește motorul
dacă nu tastezi o parolă în sistem -
6:26 - 6:29ca să-i spui:
„Hei, sunt autorizat să conduc.” -
6:29 - 6:31Grozav.
-
6:31 - 6:35Ce-ar fi dacă toate mașinile din Europa
ar folosi această tehnologie? -
6:35 - 6:38Ce am putea face atunci?
-
6:38 - 6:42Dacă punem datele cap la cap
poate reușim să identificăm -
6:42 - 6:46semnele distinctive care să prezică optim
-
6:46 - 6:49că se va produce un accident de mașină
-
6:49 - 6:53în următoarele cinci secunde.
-
6:53 - 6:57Astfel s-ar datifica oboseala șoferului.
-
6:57 - 7:03Iar utilitatea apare când mașina simte
că persoana cade în poziția aceea -
7:03 - 7:07și știe automat să pornească
o alarmă internă, -
7:07 - 7:10să vibreze volanul
sau să claxoneze înăuntru, să spună: -
7:10 - 7:13„Trezește-te, fii mai atent la drum!”
-
7:13 - 7:18Astfel de lucruri putem face
datificând mai multe aspecte ale vieții. -
7:18 - 7:21Deci ce valoare au datele masive?
-
7:22 - 7:25Ia gândiți-vă.
Avem mai multe informații. -
7:25 - 7:29Putem face lucruri pe care
nu le puteam face înainte. -
7:29 - 7:33Una din aplicațiile impresionante
ale acestei noțiuni -
7:33 - 7:36e în domeniul învățării automate.
-
7:36 - 7:39Învățarea automată e o ramură
a inteligenței artificiale -
7:39 - 7:42care ea însăși e o ramură a informaticii.
-
7:42 - 7:46Pe scurt, în loc să instruim
un calculator ce să facă, -
7:46 - 7:48bombardăm problema cu informații
-
7:48 - 7:51și-i cerem calculatorului
să descopere singur. -
7:51 - 7:57Veți înțelege mai bine
dacă veți vedea începuturile. -
7:57 - 8:01În anii 1950, un informatician de la IBM
pe nume Arthur Samuel, -
8:01 - 8:03căruia îi plăcea să joace dame,
-
8:03 - 8:07a scris un program pentru a putea juca
împotriva calculatorului. -
8:07 - 8:09A jucat. A câștigat.
-
8:10 - 8:12A jucat. A câștigat.
-
8:12 - 8:14A jucat. A câștigat.
-
8:15 - 8:19Pentru că tot ce știa calculatorul
erau mutările permise. -
8:19 - 8:21Arthur Samuel mai știa altceva.
-
8:21 - 8:24Arthur Samuel mai știa
-
8:24 - 8:26și strategie.
-
8:26 - 8:29Atunci a adăugat un mic sub-program
care să opereze în fundal. -
8:29 - 8:34Tot ce făcea era să calculeze
probabilitatea ca o configurație dată -
8:34 - 8:37să conducă la o tablă de joc
câștigătoare sau necâștigătoare -
8:37 - 8:39după fiecare mutare.
-
8:40 - 8:43Joacă cu calculatorul. Câștigă.
-
8:43 - 8:45Joacă cu calculatorul. Câștigă.
-
8:45 - 8:48Joacă cu calculatorul. Câștigă.
-
8:49 - 8:54Atunci Arthur Samuel
lasă calculatorul să joace singur. -
8:54 - 8:57Joacă singur, adună mai multe date.
-
8:57 - 9:01Adună mai multe date,
îi crește precizia predicției. -
9:01 - 9:06Atunci Arthur Samuel se întoarce
la calculator și joacă cu el, și pierde. -
9:06 - 9:08Și joacă, și pierde.
-
9:08 - 9:10Și joacă, și pierde.
-
9:10 - 9:13Și Arthur Samuel a creat o mașină
-
9:13 - 9:18care îl depășește la o sarcină
în care el a inițiat-o. -
9:19 - 9:24Această idee de învățare automată
se răspândește peste tot. -
9:25 - 9:29Cum credeți că avem mașini
care se conduc singure? -
9:29 - 9:34E societatea mai capabilă să pună
toate regulile rutiere într-un software? -
9:34 - 9:35Nu.
-
9:35 - 9:36E mai ieftină memoria? Nu.
-
9:36 - 9:38Sunt mai rapizi algoritmii? Nu.
-
9:38 - 9:41Sunt mai bune procesoarele? Nu.
-
9:41 - 9:43Toate astea contează,
dar nu sunt ele motivul. -
9:43 - 9:46Motivul e că am schimbat natura problemei.
-
9:46 - 9:53Am trecut de la a-i spune deschis
și explicit calculatorului cum să conducă -
9:53 - 9:54la a-i spune:
-
9:54 - 9:57„Iată o mulțime de date despre vehicul.
Descurcă-te. -
9:57 - 10:01Prinde-te singur că ăla e un semafor,
că semaforul e roșu și nu verde, -
10:01 - 10:06că asta înseamnă să te oprești
și nu să continui”. -
10:06 - 10:10Învățarea automată e la baza
multor lucruri pe care le facem online: -
10:10 - 10:12motoare de căutare,
-
10:12 - 10:16algoritmul de personalizare de la Amazon,
-
10:16 - 10:18traduceri computerizate,
-
10:18 - 10:22sisteme de recunoaștere a vocii.
-
10:22 - 10:28Cercetătorii s-au interesat recent
de problema biopsiilor, -
10:28 - 10:31a biopsiilor de cancer.
-
10:31 - 10:33Au cerut calculatorului să identifice,
-
10:33 - 10:36analizând datele
și procentajul de supraviețuire, -
10:36 - 10:41să determine dacă într-adevăr celulele
-
10:41 - 10:43sunt canceroase sau nu.
-
10:43 - 10:47Și bineînțeles, folosind date
și un algoritm de învățare automată, -
10:47 - 10:51mașina a reușit să identifice
cele 12 semne tipice care prezic optim -
10:51 - 10:57că biopsia unor celule canceroase
de sân e într-adevăr canceroasă. -
10:57 - 10:59Problema?
-
10:59 - 11:03Literatura medicală cunoștea
numai nouă dintre ele. -
11:03 - 11:07Trei caracteristici nu erau
între cele care trebuiau verificate, -
11:07 - 11:11dar mașina le-a detectat.
-
11:14 - 11:19Datele masive au și părți negative.
-
11:19 - 11:24Ne vor îmbunătăți viața, dar sunt probleme
de care trebuie să fim conștienți. -
11:24 - 11:26Prima e ideea
-
11:26 - 11:29că s-ar putea să fim
pedepsiți pentru predicții, -
11:29 - 11:33că poliția ar putea folosi datele masive
pentru propriile scopuri, -
11:33 - 11:36ca în filmul „Raport Special”.
-
11:36 - 11:40Se numește „poliție preventivă”
sau „criminologie algoritmică”, -
11:40 - 11:44iar ideea e că folosind multe date,
de exemplu locul crimelor trecute, -
11:44 - 11:47știm unde să trimitem patrulele.
-
11:47 - 11:53Are logică, dar desigur problema
e că nu se va limita la localizare, -
11:53 - 11:56ci va ajunge la nivelul individului.
-
11:56 - 12:01De ce să nu folosim date
din foaia matricolă de liceu? -
12:01 - 12:04Poate ar trebui să ținem cont
dacă sunt șomeri, ce risc de credit au, -
12:04 - 12:08ce comportament au pe internet,
dacă se culcă noaptea târziu. -
12:08 - 12:15Fitbitul lor, când va decela biochimia,
va arăta că au gânduri agresive. -
12:15 - 12:19Poate vom avea algoritmi care să prezică
ce avem de gând să facem -
12:19 - 12:23și poate vom fi trași la răspundere
înainte de a face ceva. -
12:23 - 12:28Intimitatea era problema centrală
în epoca datelor puține. -
12:28 - 12:32În epoca datelor masive problema va fi
-
12:32 - 12:34de a proteja liberul arbitru,
-
12:34 - 12:36alegerea morală,
-
12:36 - 12:38voința umană,
-
12:38 - 12:41factorul uman.
-
12:43 - 12:45Mai e o problemă.
-
12:45 - 12:48Datele masive ne vor fura
locurile de muncă. -
12:48 - 12:52Datele masive și algoritmii
vor pune la încercare -
12:52 - 12:56munca funcționarilor
și a profesioniștilor în secolul XXI -
12:56 - 13:01așa cum automatizarea fabricilor
și linia de asamblare -
13:01 - 13:04au pus la încercare
muncitorimea în secolul XX. -
13:04 - 13:06Să luăm un laborant
-
13:06 - 13:09care se uită cu microscopul
la o biopsie de cancer -
13:09 - 13:12să vadă dacă e canceroasă sau nu.
-
13:12 - 13:14Omul a fost la facultate.
-
13:14 - 13:16Cumpără proprietate.
-
13:16 - 13:17Votează.
-
13:17 - 13:21E acționar în societate.
-
13:21 - 13:26Omul acesta și o întreagă armată
de profesioniști ca el -
13:26 - 13:31își vor găsi slujbele schimbate radical
sau chiar complet eliminate. -
13:31 - 13:36Ne place să credem că tehnologia
creează slujbe pentru o vreme -
13:36 - 13:39după o perioadă scurtă de dislocare.
-
13:39 - 13:43E adevărat în sistemul de referință
cu care trăim: revoluția industrială. -
13:43 - 13:46Pentru că exact așa s-a întâmplat.
-
13:46 - 13:48Dar uităm ceva în analiza aceasta:
-
13:48 - 13:53anumite categorii de locuri de muncă
sunt eliminate total și nu se mai întorc. -
13:53 - 13:58Revoluția industrială
nu prea a fost bună dacă erai un cal. -
13:59 - 14:02Deci va trebui să avem grijă,
-
14:02 - 14:05să luăm datele masive
și să le adaptăm la nevoile noastre, -
14:05 - 14:08la nevoile noastre foarte omenești.
-
14:08 - 14:12Trebuie să fim stăpânul tehnologiei,
nu servitorul ei. -
14:12 - 14:15Era datelor masive abia acum începe
-
14:15 - 14:22și, sincer, nu prea ne descurcăm
cu datele pe care le putem colecta acum. -
14:22 - 14:25Nu e doar o problemă pentru
Agenția de Securitate Națională. -
14:25 - 14:28Firmele adună o mulțime de date
și mai abuzează de ele. -
14:28 - 14:32Trebuie să avansăm, iar asta durează.
-
14:32 - 14:36E cam ca problema pe care o avea
omul primitiv cu focul. -
14:36 - 14:42E o unealtă, dar e o unealtă care,
dacă nu suntem atenți, ne va arde. -
14:44 - 14:50Datele masive ne vor transforma
viața, munca și gândirea. -
14:50 - 14:54Ne vor ajuta să ne ocupăm de cariere
și să trăim o viață plină de satisfacții, -
14:54 - 14:58de speranță, de fericire și de sănătate.
-
14:58 - 15:02Dar în trecut ne-am uitat adesea
la tehnologia informației -
15:02 - 15:06și ochii noștri au văzut doar T-ul,
tehnologia, hardware-ul, -
15:06 - 15:08pentru că asta era partea fizică.
-
15:08 - 15:14Acum trebuie să ne aruncăm privirea pe I,
informația, care e mai puțin vizibilă, -
15:14 - 15:18dar în unele privințe mult mai importantă.
-
15:18 - 15:24Omenirea poate în sfârșit învăța
din informațiile pe care le poate colecta, -
15:24 - 15:29în încercarea noastră dintotdeauna
de a înțelege lumea și locul nostru în ea. -
15:29 - 15:34De aceea datele masive
sunt mare scofală. -
15:34 - 15:38(Aplauze)
- Title:
- Datele masive sunt date mai bune
- Speaker:
- Kenneth Cukier
- Description:
-
Mașinile care se conduc singure au fost doar începutul. Cum arată viitorul tehnologiei și proiectării realizate pe baza datelor masive? Într-o captivantă prezentare științifică, Kenneth Cukier se uită la ce urmează în învățarea automată, dar și în cunoașterea umană.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:51
Ariana Bleau Lugo edited Romanian subtitles for Big data is better data | ||
Adrian Dobroiu commented on Romanian subtitles for Big data is better data | ||
Ariana Bleau Lugo approved Romanian subtitles for Big data is better data | ||
Ariana Bleau Lugo edited Romanian subtitles for Big data is better data | ||
Ariana Bleau Lugo edited Romanian subtitles for Big data is better data | ||
Ariana Bleau Lugo edited Romanian subtitles for Big data is better data | ||
Ariana Bleau Lugo edited Romanian subtitles for Big data is better data | ||
Ariana Bleau Lugo edited Romanian subtitles for Big data is better data |
Adrian Dobroiu
7:13 Astfel de lucruri putem face datificăm mai multe aspecte ale vieții. > când datificăm