Velká data jsou lepší data
-
0:01 - 0:05Který koláč je v Americe nejoblíbenější?
-
0:05 - 0:08Publikum: Jablečný
Kenneth Cukier: Jablečný, samozřejmě. -
0:08 - 0:09Jak to víme?
-
0:09 - 0:12Díky datům.
-
0:12 - 0:14Podíváte se na prodej v obchodech.
-
0:14 - 0:17Když se podíváte na 30 cm velké
mražené koláče, -
0:17 - 0:21jablečné jednoznačně vítězí. Bezpochyby.
-
0:21 - 0:24Nejvíc se prodá jablečných koláčů.
-
0:27 - 0:29Jenže pak supermarkety začaly prodávat
-
0:29 - 0:32menší 11cm koláče
-
0:32 - 0:36a najednou se jablečné propadly
na čtvrté nebo páté místo. -
0:36 - 0:38Proč? Co se stalo?
-
0:39 - 0:41Zamysleme se.
-
0:42 - 0:46Když kupujete třiceticentimetrový koláč,
-
0:46 - 0:48celá rodina se musí shodnout
-
0:48 - 0:52a jablko je u všech druhé nejoblíbenější.
-
0:52 - 0:54(smích)
-
0:54 - 0:57Ale když si kupujete vlastní 11cm koláč,
-
0:57 - 1:01můžete si koupit ten, který chcete vy.
-
1:01 - 1:03Můžete mít váš nejoblíbenější.
-
1:05 - 1:07Získáváte více dat.
-
1:07 - 1:08Zjistíte věci,
-
1:08 - 1:09které nejsou patrné
-
1:09 - 1:12s menším množstvím dat.
-
1:13 - 1:16Jde o to, že s více daty,
-
1:16 - 1:18nejenže vyzkoumáme víc z toho,
-
1:18 - 1:20co už sledujeme,
-
1:20 - 1:23více dat nám umožní spatřit věci nově.
-
1:23 - 1:26Umožňuje nám to vidět věci lépe.
-
1:27 - 1:29Vidět věci jinak.
-
1:30 - 1:33V tomto případě nám umožňují zjistit,
-
1:33 - 1:36že nejoblíbenější koláč v Americe
-
1:36 - 1:38není jablečný.
-
1:39 - 1:42Už jste asi slyšeli pojem velká data.
-
1:42 - 1:44Spíš se vám už dělá špatně,
-
1:44 - 1:46když slyšíte termín velká data.
-
1:46 - 1:49Mluvit o velkých datech je v kurzu,
-
1:49 - 1:52což je velmi nešťastné,
-
1:52 - 1:55protože velká data jsou
extrémně důležitým nástrojem, -
1:55 - 1:58díky kterému společnost postoupí dál.
-
1:59 - 2:02V minulosti jsme zkoumali malá data
-
2:02 - 2:04a přemýšleli, co znamenají
-
2:04 - 2:05pro naše porozumění světu
-
2:05 - 2:07Teď jich máme mnohem více,
-
2:07 - 2:10více než kdykoli předtím.
-
2:11 - 2:13Když máme velké množství dat,
-
2:13 - 2:15můžeme s nimi dělat věci,
-
2:15 - 2:18které jsme s menším množstvím
nemohli dělat. -
2:18 - 2:21Velká data jsou důležitá a nová.
-
2:21 - 2:22A když se nad tím zamyslíte,
-
2:22 - 2:25jediný způsob, jak se planeta vypořádá
-
2:25 - 2:26se svými globálními problémy -
-
2:26 - 2:30nakrmit lidi, dát jim zdravotní péči,
-
2:30 - 2:32dát jim energii, elektřinu,
-
2:32 - 2:35zajistit, abychom se nespálili na uhel
-
2:35 - 2:36vlivem globálního oteplování -
-
2:36 - 2:39je efektivním využitím dat.
-
2:40 - 2:44Co nového přináší velká data?
Proč ten poprask? -
2:44 - 2:46Pro odpověď se zamysleme nad tím,
-
2:46 - 2:48jak informace v minulosti
-
2:48 - 2:50vypadaly fyzicky.
-
2:52 - 2:55V roce 1908 na ostrově Kréta
-
2:55 - 3:00archeologové objevili hliněný disk.
-
3:00 - 3:04Byl vyroben 2 tisíce let před Kristem,
je 4 tisíce let starý. -
3:04 - 3:05Na tom disku jsou nápisy,
-
3:05 - 3:07o kterých nevíme co znamenají.
-
3:07 - 3:09Je to záhada.
Podstatné ale je to, -
3:09 - 3:11jak informace vypadaly
-
3:11 - 3:13před 4 tisíci lety.
-
3:13 - 3:16Tak společnost uchovávala
-
3:16 - 3:18a přenášela informace.
-
3:19 - 3:23Současná společnost
zase tak moc nepokročila. -
3:23 - 3:27Pořád skladujeme informace na discích,
-
3:27 - 3:29ale můžeme informací uchovat
-
3:29 - 3:31mnohem více než kdy dříve.
-
3:31 - 3:34Je snazší jejich hledání, kopírování,
-
3:34 - 3:38sdílení i zpracování - vše je jednodušší.
-
3:38 - 3:41Také můžeme tyto informace využít
-
3:41 - 3:43způsoby nepředstavitelnými v době,
-
3:43 - 3:45kdy jsme data začali sbírat.
-
3:46 - 3:48V tomto ohledu se data proměnila
-
3:48 - 3:51ze soupisu na tok,
-
3:51 - 3:55z něčeho, co je nehybné a stálé,
-
3:55 - 3:59na něco tekutého a dynamického.
-
3:59 - 4:03Mají tak trochu tekutou povahu.
-
4:03 - 4:06Disk, který byl objeven na Krétě,
-
4:06 - 4:10starý 4 tisíce let, je těžký,
-
4:10 - 4:12neobsahuje mnoho informací
-
4:12 - 4:15a tyto informace jsou neměnné.
-
4:15 - 4:19Naproti tomu všechny soubory,
-
4:19 - 4:21které vzal Edward Snowden
-
4:21 - 4:24z Národní bezpečnostní agentury
Spojených států, -
4:24 - 4:26se vejdou na flash disk
-
4:26 - 4:29velikosti nehtu.
-
4:29 - 4:32A mohou být sdílena rychlostí světla.
-
4:34 - 4:37Více dat. Více.
-
4:39 - 4:42Jedním z důvodů, proč máme
dnes na světě tolik dat, -
4:42 - 4:44je to, že sledujeme věci,
-
4:44 - 4:46o kterých jsme vždy informace měli,
-
4:46 - 4:49ale druhým důvodem je,
že sledujeme věci, -
4:49 - 4:51které vždy nesly informace,
-
4:51 - 4:54ale nebyly převedeny do datového formátu
-
4:54 - 4:56ale teď o nich data ukládáme.
-
4:56 - 4:59Například taková poloha.
-
4:59 - 5:02Vezměte si třeba Martina Luthera.
-
5:02 - 5:04Kdybychom kolem roku 1500 chtěli vědět,
-
5:04 - 5:06kde se Martin Luther nachází,
-
5:06 - 5:08museli bychom jej stále sledovat,
-
5:08 - 5:10možná s brkem a kalamářem
-
5:10 - 5:11a zapisovat to.
-
5:12 - 5:14Ale zamyslete se, jak to funguje dnes.
-
5:14 - 5:16Víte, že někde,
-
5:16 - 5:19pravděpodobně v databázi operátora,
-
5:19 - 5:22je tabulka nebo alespoň záznam v databázi,
-
5:22 - 5:26který zaznamenávaná informace o tom,
kde jste kdy byli. -
5:26 - 5:28Máte-li mobilní telefon,
který má GPS, -
5:28 - 5:32- ale i když GPS nemá -
může zaznamenávat polohu. -
5:32 - 5:36V tomto ohledu byla poloha
převedena do formy dat. -
5:36 - 5:41Teď si vezměte třeba takové držení těla,
-
5:41 - 5:43způsob, jakým teď všichni sedíte,
-
5:43 - 5:45jak sedíte vy,
-
5:45 - 5:47vy a vy.
-
5:47 - 5:50Liší se to vlivem délky vašich nohou,
-
5:50 - 5:51vašich zad a jejich tvaru.
-
5:52 - 5:55Kdybych do všech vašich židlí
-
5:55 - 5:56nyní dal třeba 100 senzorů,
-
5:56 - 5:59mohl bych vytvořit záznam
unikátní pro každého z vás, -
5:59 - 6:03něco jako otisk prstu,
ale nejde o váš prst. -
6:04 - 6:06Co bychom s tím mohli udělat?
-
6:07 - 6:09Vědci v Tokiu jej využívají
-
6:09 - 6:13jako možné opatření proti krádeži aut.
-
6:13 - 6:16Jde o to, že zloděj usedne za volant,
-
6:16 - 6:17snaží se odjet, ale auto pozná,
-
6:17 - 6:21že za volantem sedí neoprávněný řidič
-
6:21 - 6:24a auto třeba vypne motor,
-
6:24 - 6:27dokud na palubní desce nezadáte
správné heslo, -
6:27 - 6:30čímž řeknete:
„Hele, jsem oprávněný to řídit.“ Paráda. -
6:31 - 6:34Co kdyby každé auto v Evropě
-
6:34 - 6:35mělo takovou technologii?
-
6:35 - 6:37Co bychom dělali pak?
-
6:38 - 6:41Možná, kdybychom dali data dohromady,
-
6:41 - 6:44možná bychom mohli rozpoznat signály,
-
6:44 - 6:46které by předvídaly,
-
6:46 - 6:51že se v příštích 5 sekundách
stane dopravní nehoda. -
6:53 - 6:55Tak bychom mohli pomocí dat
-
6:55 - 6:58odhalit únavu řidiče
-
6:58 - 6:59a když by auto poznalo,
-
6:59 - 7:02že se řidič sune do určité pozice,
-
7:02 - 7:06automaticky to rozezná
a spustí uvnitř poplach, -
7:06 - 7:09může to být vibrace volantu
nebo klakson v autě, -
7:09 - 7:11a tím řekne: „Hele, vzbuď se,
-
7:11 - 7:13dávej pozor na cestu!“
-
7:13 - 7:15Tyhle věci můžeme udělat,
-
7:15 - 7:17když převedeme na data
více aspektů našeho života. -
7:18 - 7:20Jaká je tedy hodnota velkých dat?
-
7:21 - 7:23Inu, zamysleme se.
-
7:23 - 7:25Máte více informací.
-
7:25 - 7:28Můžete dělat věci,
které jste předtím nemohli. -
7:28 - 7:30Jednou z nejpůsobivějších oblastí,
-
7:30 - 7:33kde se tento koncept uplatňuje
-
7:33 - 7:35je v oblasti strojového učení.
-
7:35 - 7:39Strojové učení je
odvětví umělé inteligence, -
7:39 - 7:41které patří do počítačových věd.
-
7:42 - 7:44Hlavní myšlenkou je, že místo toho,
-
7:44 - 7:46že řekneme počítači, co má dělat,
-
7:46 - 7:49jednoduše mu dáme všechna data
související s problémem -
7:49 - 7:51a řekneme mu,
aby problém vyřešil sám. -
7:52 - 7:53Lépe to pochopíte,
-
7:53 - 7:55když víte, jak to vzniklo.
-
7:56 - 8:00V 50. letech Arthur Samuel,
počítačový vědec v IBM, -
8:00 - 8:02rád hrál piškvorky,
-
8:02 - 8:05takže napsal počítačový program,
-
8:05 - 8:06aby mohl hrát s počítačem.
-
8:07 - 8:08Hrál.
-
8:09 - 8:09A vyhrál.
-
8:10 - 8:11Hrál.
-
8:11 - 8:12A vyhrál.
-
8:12 - 8:14Hrál a vyhrál.
-
8:15 - 8:17Protože počítač uměl jen tahy,
-
8:17 - 8:18které ho naučil.
-
8:18 - 8:21Arthur Samuel uměl něco jiného.
-
8:21 - 8:25Arthur Samuel znal strategii.
-
8:25 - 8:28Takže napsal podprogram,
-
8:28 - 8:30který běžel na pozadí
-
8:30 - 8:31a po každém tahu
-
8:31 - 8:34počítal pravděpodobnost,
-
8:34 - 8:36s jakou uspořádání na hracím poli
-
8:36 - 8:39povede k vítěznému tahu nebo prohře.
-
8:40 - 8:42Takže hraje s počítačem. A vyhrává.
-
8:43 - 8:45Hraje s počítačem a vyhrává.
-
8:45 - 8:47Hraje s počítačem a vyhrává.
-
8:49 - 8:51Pak Arthur Samuel nechá počítač,
-
8:51 - 8:53aby si hrál sám.
-
8:54 - 8:56Hraje si sám. Sbírá více dat.
-
8:56 - 9:01Sbírá informace.
Zvýší spolehlivost svého odhadu. -
9:02 - 9:04Pak se Arthur Samuel vrátí k počítači
-
9:04 - 9:06a hraje s ním. A prohraje.
-
9:06 - 9:08Hraje s ním a prohraje,
-
9:08 - 9:10hraje s ním a prohraje.
-
9:10 - 9:13A tak Arthur Samuel vytvořil stroj,
-
9:13 - 9:17který překonal jeho schopnosti v úloze,
kterou jej naučil. -
9:19 - 9:21Myšlenka strojového učení
-
9:21 - 9:23je přítomná všude.
-
9:25 - 9:28Odkud myslíte, že máme auta,
která se sama řídí? -
9:28 - 9:31Vede si naše společnost lépe díky tomu,
-
9:31 - 9:34že všechna pravidla silničního provozu
nasypeme do softwaru? Ne. -
9:34 - 9:36Paměť je levnější? Ne.
-
9:36 - 9:40Algoritmy jsou rychlejší? Ne.
Procesory jsou lepší? Ne. -
9:40 - 9:43Na tom vše záleží, ale to není ten důvod.
-
9:43 - 9:46Je to proto,
že jsme změnili povahu problému. -
9:46 - 9:48Z problému, kde jsme se zevrubně
-
9:48 - 9:50a doslovně snažili
-
9:50 - 9:52vysvětlit počítači jak má jezdit,
-
9:52 - 9:54na úkol, kdy mu řekneme:
-
9:54 - 9:56„Tady máš spoustu dat z okolí vozu.
-
9:56 - 9:57Vyřeš to.
-
9:57 - 9:59Uvědom si, že toto je semafor,
-
9:59 - 10:01na tom semaforu je červená
a ne zelená, -
10:01 - 10:03že to znamená, že bys měl zastavit
-
10:03 - 10:05a nepokračovat dál.“
-
10:06 - 10:08Strojové učení je základem mnoha věcí,
-
10:08 - 10:10které využíváme online:
-
10:10 - 10:11vyhledávače,
-
10:11 - 10:14algoritmus personalizace v Amazonu,
-
10:16 - 10:18počítačový překlad,
-
10:18 - 10:20systém rozpoznání hlasu.
-
10:22 - 10:27Vědci nyní řeší otázky biopsií,
-
10:28 - 10:30rakovinových biopsií.
-
10:31 - 10:33Požádali počítač,
-
10:33 - 10:37aby zjistil z dat a statistik o přežití,
-
10:37 - 10:42jestli jsou buňky skutečně
zhoubné nebo ne. -
10:43 - 10:46Když dostal data pomocí
algoritmu strojového učení, -
10:46 - 10:50počítač byl schopný identifikovat
12 znaků nejlépe určujících, -
10:50 - 10:57zda buňky z biopsie rakoviny prsu
jsou skutečně zhoubné. -
10:57 - 11:02Problém byl, že odborná lékařská
literatura uváděla jenom 9 z nich. -
11:02 - 11:09Tři z těchto znaků lidé nehledali,
ale stroj je našel. -
11:15 - 11:18Velká data mají i své stinné stránky.
-
11:18 - 11:24Mohou zlepšit naše životy,
ale jsou zde věci, o kterých musíme vědět. -
11:24 - 11:29První je možnost,
že můžeme být potrestáni za předpovědi; -
11:29 - 11:33že policie může využít
velká data pro své účely -
11:33 - 11:35tak trochu jako ve filmu Minority report.
-
11:35 - 11:39Říká se tomu prediktivní kontrola
nebo algoritmová kriminologie -
11:39 - 11:42a základem je, že když vezmeme hodně dat,
-
11:42 - 11:46třeba kde se staly zločiny v minulosti,
víte, kam poslat hlídky. -
11:46 - 11:52To dává smysl, ale problémem je,
že se to nezastaví u údajů o poloze, -
11:53 - 11:56ale dojde i na údaje o osobách.
-
11:56 - 12:00Proč nevyužít údaje
o výsledcích ze střední školy? -
12:00 - 12:04Možná bychom měli využít data o tom,
zda lidé mají práci, data o dluzích -
12:04 - 12:07nebo co dělají na internetu;
zda ponocují. -
12:07 - 12:10Jejich fitness náramky (fitbit),
přečtou jejich biochemické údaje -
12:10 - 12:13a zjistí, zda mají agresivní myšlenky.
-
12:15 - 12:18Můžeme mít algoritmy,
které jsou schopny předpovědět, -
12:18 - 12:19co se chystáme udělat
-
12:19 - 12:22a my můžeme být zodpovědní už před tím,
než začneme jednat. -
12:23 - 12:27Soukromí bylo výzvou v éře malých dat.
-
12:28 - 12:34V éře velkých dat bude výzvou
ochrana svobodné vůle, -
12:34 - 12:39ochrana morální volby, lidské vůle,
lidského jednání. -
12:43 - 12:44Pak je zde další problém.
-
12:45 - 12:48Velká data nám vezmou práci.
-
12:49 - 12:52V 21. století velká data a algoritmy
-
12:52 - 12:57vyzvou na souboj
bílé límečky a odbornou práci, -
12:57 - 13:01stejně jako automatizace ve výrobě
a výrobní linky -
13:01 - 13:04změnily práci modrých límečků
ve 20. století. -
13:04 - 13:06Vezměte si laboratorního technika,
-
13:06 - 13:09který v mikroskopu
zkoumá biopsii a určuje, -
13:09 - 13:11zda jde o rakovinu nebo ne.
-
13:12 - 13:15Ten člověk chodil na univerzitu,
koupil si dům, -
13:15 - 13:21chodí k volbám,
je platným členem společnosti. -
13:21 - 13:25Ale práce tohoto člověka,
stejně jako celé řady -
13:25 - 13:29jemu podobných odborníků,
se radikálně změní -
13:29 - 13:31nebo dokonce přestane být vůbec potřeba.
-
13:31 - 13:33Rádi bychom si mysleli,
-
13:33 - 13:36že technologie vytvoří
jiná pracovní místa, -
13:36 - 13:39po krátkém, dočasném období změn
-
13:39 - 13:42a pro období, ve kterém žijeme,
je to pravda, -
13:42 - 13:46v průmyslové revoluci se přesně to stalo.
-
13:46 - 13:47Ale zapomínáme na to,
-
13:47 - 13:50že některé typy prací
-
13:50 - 13:53jednoduše zmizely a nikdy se nevrátily.
-
13:53 - 13:55Průmyslová revoluce nebyla moc dobrá,
-
13:55 - 13:57když jste byli kůň.
-
13:59 - 14:01Takže musíme být opatrní
-
14:01 - 14:05a využívat velká data pro naše potřeby,
-
14:05 - 14:07naše lidské potřeby.
-
14:07 - 14:11Musíme technologii vládnout,
ne jí sloužit. -
14:11 - 14:16Jsme právě na prahu éry velkých dat
a upřímně, -
14:16 - 14:21zacházení se všemi údaji,
které nyní sbíráme, nám moc nejde. -
14:21 - 14:25Není to jen problém NSA.
(Národní bezpečnostní agentury) -
14:25 - 14:29I firmy sbírají mnoho údajů
a také je zneužívají, -
14:29 - 14:32musíme se s tím naučit zacházet,
což zabere nějaký čas. -
14:32 - 14:35Je to trochu jako výzva,
-
14:35 - 14:36které čelili pralidé s ohněm.
-
14:36 - 14:38Je to užitečný nástroj,
-
14:38 - 14:41ale když si nedáme pozor, popálí nás.
-
14:44 - 14:47Velká data změní to, jak žijeme,
-
14:47 - 14:49jak pracujeme a jak myslíme.
-
14:49 - 14:52Pomohou nám lépe řídit naše kariéry
-
14:52 - 14:54a žít spokojený život
-
14:54 - 14:57v naději, štěstí a zdraví.
-
14:58 - 15:02Ale v minulosti jsme se často dívali
na informační technologie -
15:02 - 15:04a viděli jsme jen to T
-
15:04 - 15:05- technologii, hardware,
-
15:05 - 15:07protože to bylo fyzické.
-
15:07 - 15:11Nyní zaostříme na I
-
15:11 - 15:11- informace,
-
15:11 - 15:13které jsou méně zjevné,
-
15:13 - 15:16ale v řadě věcí důležitější.
-
15:18 - 15:22Lidstvo se konečně může učit z informací,
-
15:22 - 15:23které může sbírat
-
15:24 - 15:25na nekonečné cestě
-
15:25 - 15:29k porozumění světu a našemu místu v něm.
-
15:29 - 15:32Proto jsou velká data tak důležitá.
-
15:34 - 15:38(potlesk)
- Title:
- Velká data jsou lepší data
- Speaker:
- Kenneth Cukier
- Description:
-
Samořídící se auta jsou jen začátek. Jaká je budoucnost technologie a designu, poháněných velkými daty? Ve fascinující vědecké přednášce se Kenneth Cukier věnuje tomu, co dalšího nás čeká v oblasti strojového učení a lidského vědění.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 15:51
Jan Kadlec approved Czech subtitles for Big data is better data | ||
Jan Kadlec edited Czech subtitles for Big data is better data | ||
Karel Čížek accepted Czech subtitles for Big data is better data | ||
Karel Čížek edited Czech subtitles for Big data is better data | ||
Kateřina Jabůrková edited Czech subtitles for Big data is better data | ||
Kateřina Jabůrková edited Czech subtitles for Big data is better data | ||
Kateřina Jabůrková edited Czech subtitles for Big data is better data | ||
Kateřina Jabůrková edited Czech subtitles for Big data is better data |