1 00:00:03,066 --> 00:00:05,964 Něco vám ukážu. 2 00:00:05,964 --> 00:00:10,200 (Video) Holčička: Dobře, to je kočka sedící na posteli. 3 00:00:10,200 --> 00:00:14,300 Kluk si hladí slona. 4 00:00:14,300 --> 00:00:18,544 To jsou lidi, co nastupují do letadla. 5 00:00:18,544 --> 00:00:21,374 Je to velké letadlo. 6 00:00:21,374 --> 00:00:23,670 Fei-Fei Li: Toto je tříleté dítě 7 00:00:23,670 --> 00:00:27,349 popisující, co vidí na sérii fotek. 8 00:00:27,349 --> 00:00:30,194 Ještě se má hodně co učit o světě, 9 00:00:30,194 --> 00:00:34,743 ale už teď je expert na jednu velmi důležitou věc: 10 00:00:34,743 --> 00:00:37,589 dávat smysl tomu, co vidí. 11 00:00:37,929 --> 00:00:42,455 Naše společnost je více technologicky vyvinutá než kdy předtím. 12 00:00:42,455 --> 00:00:46,084 Posíláme lidi na měsíc, vyrábíme telefony, co na nás mluví, 13 00:00:46,084 --> 00:00:51,030 nebo si můžeme upravit radio, aby hrálo jenom hudbu, kterou chceme. 14 00:00:51,030 --> 00:00:55,085 Přesto naše nejvyvinutější stroje a počítače 15 00:00:55,085 --> 00:00:57,988 tenhle úkol nezvládají. 16 00:00:57,988 --> 00:01:01,447 Já jsem tu dnes, abych vám dala hlášení o vývoji 17 00:01:01,447 --> 00:01:05,494 posledních pokroků v našem výzkumu počítačového zraku, 18 00:01:05,494 --> 00:01:09,655 jedné z nejhraničnějších a potencionálně revolučních 19 00:01:09,655 --> 00:01:12,861 technologiích v počítačové vědě. 20 00:01:12,861 --> 00:01:17,412 Ano, navrhli jsme auta, která sama řídí, 21 00:01:17,412 --> 00:01:21,265 ale bez chytrého zraku, nerozeznají 22 00:01:21,265 --> 00:01:25,235 zmuchlaný papírový sáček na silnici, který se může přejet, 23 00:01:25,235 --> 00:01:28,575 od kamenu stejné velikosti, který by bylo lepší objet. 24 00:01:29,255 --> 00:01:32,805 Vytvořili jsme úžasné megapixelové foťáky, 25 00:01:32,805 --> 00:01:35,940 ale neumíme slepým vrátit zrak. 26 00:01:36,420 --> 00:01:39,725 Drony mohou létat po rozsáhlé krajině, 27 00:01:39,725 --> 00:01:41,859 ale nemají dostatečnou vizuální technologie, 28 00:01:41,859 --> 00:01:45,320 aby nám pomohly mapovat změny v deštných pralesech. 29 00:01:45,320 --> 00:01:48,270 Kamerové systémy jsou všude, 30 00:01:48,270 --> 00:01:53,337 ale neupozorní nás, když se dítě topí v bazénu. 31 00:01:54,167 --> 00:01:59,622 Fotky a videa se stávají nezbytnou součástí života. 32 00:01:59,622 --> 00:02:03,849 Jsou vytvářeny rychlostí, která je mnohem vyšší 33 00:02:03,893 --> 00:02:06,632 než jsme si dokázali představit, 34 00:02:06,632 --> 00:02:10,553 a já zde na TEDu k tomu přispívám. 35 00:02:10,553 --> 00:02:15,785 Přesto všechno naše nejdokonalejší programy stále zápasí s porozuměním 36 00:02:15,785 --> 00:02:19,661 a ovládáním tohoto ohromného obsahu. 37 00:02:19,661 --> 00:02:24,723 Jiný slovy, dohromady jako společnost 38 00:02:24,723 --> 00:02:26,509 jsme prakticky slepí, 39 00:02:26,509 --> 00:02:30,066 protože naše nejchytřejší stroje jsou slepé. 40 00:02:31,436 --> 00:02:34,452 "Proč je to tak těžké?" ptáte se. 41 00:02:34,452 --> 00:02:37,145 Foťáky mohou vyfotit obrázek jako tento 42 00:02:37,145 --> 00:02:41,139 převedením světel do dvoudimenzionální soustavy 43 00:02:41,139 --> 00:02:42,789 známé jako pixely, 44 00:02:42,789 --> 00:02:45,040 ale to jsou jenom neživá čísla. 45 00:02:45,040 --> 00:02:48,151 Sama o sobě nemají smysl. 46 00:02:48,151 --> 00:02:52,494 Stejně jako slyšet není to samé jako poslouchat, 47 00:02:52,494 --> 00:02:56,534 fotit není to samé jako vidět, 48 00:02:56,534 --> 00:03:00,363 a viděním myslíme chápaní. 49 00:03:01,293 --> 00:03:07,470 Ve skutečnosti, Matce Zemi trvalo 540 milionů let tvrdé práce, 50 00:03:07,470 --> 00:03:09,443 aby tohoto dosáhla 51 00:03:09,443 --> 00:03:11,324 a velká část této snahy 52 00:03:11,324 --> 00:03:16,595 padla na vývoj zrakové procesního aparátu v našem mozku, 53 00:03:16,595 --> 00:03:19,242 nejen na oči samotné. 54 00:03:19,242 --> 00:03:21,989 Takže zrak začíná očima, 55 00:03:21,989 --> 00:03:25,507 ale odehrává se v mozku. 56 00:03:26,287 --> 00:03:31,347 Již po 15 let od mého doktorátu na Caltechu 57 00:03:31,347 --> 00:03:34,273 a vedení laboratoře Stanford's Vision, 58 00:03:34,273 --> 00:03:38,669 pracuji se svými mentory, spolupracovníky a studenty na tom, 59 00:03:38,669 --> 00:03:41,558 abychom naučili počítače vidět. 60 00:03:42,518 --> 00:03:45,952 Náš výzkum se jmenuje počítačový zrak a učení strojů. 61 00:03:45,952 --> 00:03:49,830 Je to součástí obecného oboru o umělé inteligenci. 62 00:03:51,000 --> 00:03:56,493 Chceme naučit stroje, aby viděly jako my: 63 00:03:56,493 --> 00:04:01,880 pojmenovávat objekty, identifikovat lidi, odvozovat 3D geometrii věcí, 64 00:04:01,880 --> 00:04:07,568 pochopení vztahů, emocí, akcí a úmyslů. 65 00:04:07,568 --> 00:04:13,721 Vy a já dohromady splétáme celé příběhy lidí, míst a věcí 66 00:04:13,721 --> 00:04:15,885 v okamžik, kdy je spatříme. 67 00:04:16,955 --> 00:04:22,538 Prvním krokem k dosažení tohoto cíle je naučit počítače vidět objekty, 68 00:04:22,538 --> 00:04:25,906 základní kameny světa vidění. 69 00:04:25,906 --> 00:04:30,340 Jednoduše řečeno, představte si tento proces učení 70 00:04:30,340 --> 00:04:33,335 jako ukazování počítačům tréninkové obrázky 71 00:04:33,335 --> 00:04:36,656 konkrétního objektu, například koček, 72 00:04:36,656 --> 00:04:41,353 a vytváření modelu, který se učí z těchto tréninkových obrázků. 73 00:04:41,353 --> 00:04:43,347 Jak těžké to může být? 74 00:04:43,347 --> 00:04:47,489 Vždyť kočka je jen sbírka tvarů a barev 75 00:04:47,489 --> 00:04:51,575 a to je přesně to, co jsme udělali v začátcích objektového modelování. 76 00:04:51,575 --> 00:04:55,197 Naučili jsme počítače algoritmus v matematickém jazyce, 77 00:04:55,197 --> 00:04:58,540 že kočka má kulatý obličej, zaoblené tělo, 78 00:04:58,540 --> 00:05:00,839 dvě špičaté uši, a dlouhý ocas, 79 00:05:00,839 --> 00:05:02,249 a všechno vypadalo dobře. 80 00:05:02,769 --> 00:05:04,972 Ale co třeba tahle kočka? 81 00:05:04,972 --> 00:05:05,973 (Smích) 82 00:05:05,973 --> 00:05:07,489 Je celá pokřivená. 83 00:05:07,489 --> 00:05:12,408 Nyní musíte tedy přidat další tvar a pohled danému modelu. 84 00:05:12,408 --> 00:05:14,123 Ale co když jsou kočky schované? 85 00:05:15,143 --> 00:05:17,362 Co tyhle pošetilé kočky? 86 00:05:19,112 --> 00:05:21,529 Teď už mě chápete. 87 00:05:21,529 --> 00:05:24,896 Tak jednoduchá věc jako je domácí mazlíček 88 00:05:24,896 --> 00:05:29,400 může mít nekonečné množství variací objektovému modelu, 89 00:05:29,400 --> 00:05:31,633 a to je to jenom jeden objekt. 90 00:05:32,573 --> 00:05:35,065 Takže před zhruba osmi lety, 91 00:05:35,065 --> 00:05:40,095 jeden prostý, ale pronikavý prostřeh změnil mé myšlení. 92 00:05:41,425 --> 00:05:44,110 Nikdo neříká dítěti jak má vidět, 93 00:05:44,110 --> 00:05:46,371 obzvláště v raném věku. 94 00:05:46,371 --> 00:05:51,371 Naučí se to pomocí skutečných životních zkušeností a příkladů. 95 00:05:51,371 --> 00:05:54,111 Když si představíte dětské oči 96 00:05:54,111 --> 00:05:56,665 jako pár biologických foťáků, 97 00:05:56,665 --> 00:06:00,845 vyfotí jeden obrázek každých 200 milisekund, 98 00:06:00,845 --> 00:06:03,979 což je průměrný čas, za který se oko pohne. 99 00:06:03,979 --> 00:06:09,529 Takže ve třetím roce dítě vidělo stovky milionů obrázků 100 00:06:09,529 --> 00:06:11,363 skutečného světa. 101 00:06:11,363 --> 00:06:13,643 To je celkem hodně tréninkových příkladů. 102 00:06:14,383 --> 00:06:20,372 Místo cílení na lepší algoritmy, 103 00:06:20,372 --> 00:06:25,644 můj nápad byl dát algoritmům taková tréninková data, 104 00:06:25,644 --> 00:06:28,963 jaká byla dána dítěti skrze zkušenosti 105 00:06:28,963 --> 00:06:32,841 jak množstevně, tak kvalitou. 106 00:06:32,841 --> 00:06:34,699 Jakmile jsme toto pochopili, 107 00:06:34,699 --> 00:06:37,670 věděli jsme, že potřebujeme sehnat sadu dat, 108 00:06:37,670 --> 00:06:42,129 která má v sobě mnohem více obrázků, než jsme kdy měli, 109 00:06:42,129 --> 00:06:44,706 možná i tisíckrát více, 110 00:06:44,706 --> 00:06:48,817 a společně s profesorem Kai Li na Princetonské univerzitě, 111 00:06:48,817 --> 00:06:53,569 jsme v roce 2007 spustili projekt ImageNet. 112 00:06:53,569 --> 00:06:57,407 Naštěstí jsme si nemuseli namontovat kameru na hlavu 113 00:06:57,407 --> 00:06:59,171 a čekat mnoho let. 114 00:06:59,171 --> 00:07:00,634 Šli jsme na internet, 115 00:07:00,634 --> 00:07:05,070 největší pokladnice obrázků, kterou jsme jako lidé vytvořili. 116 00:07:05,070 --> 00:07:08,111 Stáhli jsme téměř miliardu obrázků 117 00:07:08,111 --> 00:07:13,991 a využili crowdsourcingové technologie jako Amazon Mechanical Turk, 118 00:07:13,991 --> 00:07:16,330 aby nám pomohly pojmenovat tyto obrázky. 119 00:07:16,330 --> 00:07:21,230 Na svém vrcholu, ImageNet byl jedním z největších zaměstnavatelů 120 00:07:21,230 --> 00:07:24,226 pracovníků Amazon Mechanical Turk: 121 00:07:24,226 --> 00:07:28,080 celkem téměř 50 tisíc pracovníků, 122 00:07:28,080 --> 00:07:32,120 ze 167 zemí světa, 123 00:07:32,120 --> 00:07:36,067 nám pomohlo vyčistit, utřídit a označit 124 00:07:36,067 --> 00:07:39,642 téměř miliardu potencionálních obrázků. 125 00:07:40,612 --> 00:07:43,265 Přesně tolik úsilí nás stálo 126 00:07:43,265 --> 00:07:47,165 zachytili pouze zlomek obrázků, 127 00:07:47,165 --> 00:07:51,336 které dětská mysl přijímá během svých počátečních vývojových let. 128 00:07:52,148 --> 00:07:56,050 Při pohledu zpět, nápad používání velkého množství dat 129 00:07:56,050 --> 00:08:00,600 pro učení počítačových algoritmů se nyní může zdát samozřejmý, 130 00:08:00,600 --> 00:08:04,710 ale v roce 2007 tomu tak nebylo. 131 00:08:04,710 --> 00:08:08,588 Byli jsme po docela dlouhou dobu na této cestě sami. 132 00:08:08,588 --> 00:08:13,591 Někteří mí kolegové mi doporučovali, abych dělala něco užitečnějšího, 133 00:08:13,591 --> 00:08:17,933 a neustále jsme sháněli finance pro náš výzkum. 134 00:08:17,933 --> 00:08:20,418 Jednou jsem dokonce vtipkovala se svými studenty, 135 00:08:20,418 --> 00:08:24,481 že si znovu otevřu svoji čistírnu, abych zaplatila ImageNet. 136 00:08:24,481 --> 00:08:29,242 Přece jen, tak jsem financovala svoje studia na univerzitě. 137 00:08:29,242 --> 00:08:31,098 Tak jsme pokračovali. 138 00:08:31,098 --> 00:08:34,813 V roce 2009 projekt ImageNet vytvořil 139 00:08:34,813 --> 00:08:38,855 databázi 15 milionů obrázků 140 00:08:38,855 --> 00:08:43,660 napříč 22 000 tříd objektů a věcí 141 00:08:43,660 --> 00:08:46,980 organizovaných podle každodenních anglických slov. 142 00:08:46,980 --> 00:08:49,906 V obou - kvantitě i kvalitě, 143 00:08:49,906 --> 00:08:52,878 v nevídaném množství. 144 00:08:52,878 --> 00:08:56,339 Uvedu příklad na zmiňovaných kočkách, 145 00:08:56,339 --> 00:08:59,148 měli jsme více než 62 tisíc koček 146 00:08:59,148 --> 00:09:03,258 různého vzhledu, v různých pózách 147 00:09:03,258 --> 00:09:08,481 a všechny druhy domácích i divokých koček. 148 00:09:08,481 --> 00:09:11,825 Byli jsme nadšení, že jsme mohli dát ImageNet dohromady 149 00:09:11,825 --> 00:09:15,563 a chtěli jsme, aby toho mohl využívat celý výzkumný svět, 150 00:09:15,563 --> 00:09:19,604 takže podle TEDu, jsme celý náš data set otevřeli 151 00:09:19,604 --> 00:09:23,196 pro celosvětovou výzkumnou komunitu zadarmo. 152 00:09:24,636 --> 00:09:28,636 (Potlesk) 153 00:09:29,416 --> 00:09:33,954 Když teď máme data, kterými můžeme krmit náš počítačový mozek, 154 00:09:33,954 --> 00:09:37,691 jsme připraveni se vrátit zpět k algoritmům jako takovým. 155 00:09:37,691 --> 00:09:42,869 Jak se pak ukázalo, hojnost informací z ImageNetu 156 00:09:42,869 --> 00:09:47,675 byla perfektní pro konkrétní třídu algoritmů pro učení strojů, které 157 00:09:47,675 --> 00:09:50,090 se nazývaly konvoluční neuronová síť, 158 00:09:50,090 --> 00:09:55,338 vytvořené Kunihikem Fukushimou, Geoffem Hintonem a Yannem LeCunem 159 00:09:55,338 --> 00:09:58,983 během 70. a 80. let 20. století. 160 00:09:58,983 --> 00:10:04,602 Stejně jako se mozek skládá z miliard vzájemně propojených neuronů, 161 00:10:04,602 --> 00:10:08,456 základní operační jednotkou v neuronové síti 162 00:10:08,456 --> 00:10:10,871 je uzel podobný neuronu. 163 00:10:10,871 --> 00:10:13,425 Vstup si vezme od jiných uzlů 164 00:10:13,425 --> 00:10:16,143 a pošle výstup dalším. 165 00:10:16,143 --> 00:10:20,856 Navíc tyto stovky tisíc či dokonce miliony uzlů 166 00:10:20,856 --> 00:10:24,083 jsou organizovány v hierarchistických vrstvách, 167 00:10:24,083 --> 00:10:26,637 podobně jako v mozku. 168 00:10:26,637 --> 00:10:29,291 V klasické neuronové síti, kterou používáme, 169 00:10:29,291 --> 00:10:31,945 abychom naučili náš model rozpoznávání objektů 170 00:10:31,945 --> 00:10:34,601 je 24 milionů uzlů, 171 00:10:34,601 --> 00:10:37,898 140 milionů parametrů 172 00:10:37,898 --> 00:10:40,661 a 15 miliard spojení. 173 00:10:40,661 --> 00:10:43,076 To je obrovský model. 174 00:10:43,076 --> 00:10:46,977 Poháněný ohromným množstvím dat z ImageNet 175 00:10:46,977 --> 00:10:52,410 a moderními CPU a GPU k trénování takto velkého modelu, 176 00:10:52,410 --> 00:10:54,779 konvoluční neuronová síť 177 00:10:54,779 --> 00:10:58,215 kvete tak, jak by nikdo nečekal. 178 00:10:58,215 --> 00:11:00,723 Stala se vítěznou architekturou 179 00:11:00,723 --> 00:11:06,063 k vytváření nových úžasných výsledků v rozpoznávání objektů. 180 00:11:06,063 --> 00:11:08,873 Toto je počítač, který nám říká, 181 00:11:08,873 --> 00:11:11,173 že na obrázku je kočka 182 00:11:11,173 --> 00:11:13,076 a kde ta kočka je. 183 00:11:13,076 --> 00:11:15,188 Samozřejmě existuje víc věcí než jen kočky, 184 00:11:15,188 --> 00:11:17,626 takže tady je algoritmus počítače, který říká, 185 00:11:17,626 --> 00:11:20,900 že obrázek obsahuje chlapce a medvídka, 186 00:11:20,900 --> 00:11:25,266 psa, osobu a malého draka v pozadí, 187 00:11:25,266 --> 00:11:28,401 nebo velice chaotický obrázek plný věcí, 188 00:11:28,401 --> 00:11:33,045 jako je muž, skateboard, zábradlí, lampa atd. 189 00:11:33,045 --> 00:11:38,338 Někdy, když si počítač není jistý, co vidí, 190 00:11:39,498 --> 00:11:41,774 naučili jsme ho, aby byl dostatečně chytrý, 191 00:11:41,774 --> 00:11:45,652 a aby odpověděl neutrálně, než aby se k něčemu zavázal, 192 00:11:45,652 --> 00:11:48,463 stejně jako bychom to udělali my, 193 00:11:48,463 --> 00:11:53,129 ale jindy nám náš počítačový algoritmus znamenitě vysvětlí, 194 00:11:53,129 --> 00:11:55,382 co přesně dané objekty jsou, 195 00:11:55,382 --> 00:11:58,818 jako například značka, model a rok u auta. 196 00:11:58,818 --> 00:12:04,204 Aplikovali jsme tento algoritmus na miliony obrázků z Google Street View 197 00:12:04,204 --> 00:12:07,339 napříč stovkami amerických měst, 198 00:12:07,339 --> 00:12:10,265 a zjistili jsme něco velice zajímavého: 199 00:12:10,265 --> 00:12:13,585 zaprvé, to potvrdilo známou pravdu, 200 00:12:13,585 --> 00:12:16,875 že ceny aut jsou přímo úměrné 201 00:12:16,875 --> 00:12:19,220 příjmům domácností. 202 00:12:19,220 --> 00:12:23,747 A překvapivě, ceny aut jsou také závislé 203 00:12:23,747 --> 00:12:26,047 na kriminalitě v daných městech, 204 00:12:27,007 --> 00:12:30,970 a nebo volební názory na PSČ. 205 00:12:32,060 --> 00:12:34,266 Takže, to je ono? 206 00:12:34,266 --> 00:12:39,419 Dosáhly počítače lidských schopností, nebo je snad dokonce přesáhly? 207 00:12:39,419 --> 00:12:41,557 Ne tak rychle. 208 00:12:41,557 --> 00:12:46,480 Zatím jsme počítač naučili jenom vidět věci. 209 00:12:46,480 --> 00:12:51,124 Je to jako malé dítě, které se učí vyslovit pár slov. 210 00:12:51,124 --> 00:12:53,794 Je to neuvěřitelný úspěch, 211 00:12:53,794 --> 00:12:56,254 ale je to teprve první krok. 212 00:12:56,254 --> 00:13:00,016 Brzy, další vývojový mezník bude dosažen, 213 00:13:00,016 --> 00:13:03,477 a děti se naučí mluvit ve větách. 214 00:13:03,477 --> 00:13:07,701 Takže místo tvrzení - to je kočka, 215 00:13:07,701 --> 00:13:12,903 slyšeli jsme holčičku říct, že kočka leží na posteli. 216 00:13:12,903 --> 00:13:18,498 Abychom naučili počítač vidět obrázek a vytořit věty, 217 00:13:18,498 --> 00:13:22,446 vztah mezi velkým množstvím dat a algoritmem učení strojů 218 00:13:22,446 --> 00:13:24,721 musí dosáhnout další fáze. 219 00:13:24,721 --> 00:13:28,877 Nyní se počítač musí učit z obou částí, 220 00:13:28,877 --> 00:13:31,733 stejně tak jako jsou věty 221 00:13:31,733 --> 00:13:35,055 vytvářené lidmi. 222 00:13:35,055 --> 00:13:38,908 Stejně jako mozek spojuje zrak a jazyk, 223 00:13:38,908 --> 00:13:44,109 vytvořili jsme model, který spojuje části zraku, 224 00:13:44,109 --> 00:13:46,013 jako vizuální ústřižky 225 00:13:46,013 --> 00:13:50,216 se slovy a frázemi ve větách. 226 00:13:50,216 --> 00:13:52,979 Zhruba před čtyřmi měsíci, 227 00:13:52,979 --> 00:13:55,626 jsme to konečně spojili 228 00:13:55,626 --> 00:13:59,410 a vytvořili jeden z prvních modelů počítačového zraku, 229 00:13:59,410 --> 00:14:03,404 který je schopen vytvářet lidskou větu, 230 00:14:03,404 --> 00:14:06,910 když vidí daný obrázek poprvé. 231 00:14:06,910 --> 00:14:11,554 Nyní vám ukážu, co počítač řekne, 232 00:14:11,554 --> 00:14:13,529 když vidí obrázek, 233 00:14:13,529 --> 00:14:17,359 který viděla holčička na začátku. 234 00:14:19,519 --> 00:14:22,863 (Video) Počítač: Muž stojí vedle slona. 235 00:14:24,393 --> 00:14:28,027 Velké letadlo sedí na letištní runwayi. 236 00:14:29,057 --> 00:14:33,269 FFL: Samozřejmě, stále pracujeme na zlepšení našich algoritmů 237 00:14:33,269 --> 00:14:35,865 a stále je toho hodně, co se učit. 238 00:14:35,865 --> 00:14:38,156 (Potlesk) 239 00:14:39,556 --> 00:14:42,877 A počítač dělá i chyby. 240 00:14:42,877 --> 00:14:46,268 (Video) Počítač: Kočka ležící na posteli pod dekou. 241 00:14:46,268 --> 00:14:48,821 FFL: samozřejmě, že když vidí tolik koček, 242 00:14:48,821 --> 00:14:51,747 myslí si, že všechno může vypadat jako kočka. 243 00:14:53,317 --> 00:14:56,181 (Video) Počítač: Mladý chlapec drží baseballovou pálku. 244 00:14:56,181 --> 00:14:57,946 (Smích) 245 00:14:57,946 --> 00:15:02,529 FFL: Nebo pokud ještě neviděl kartáček, splete si ho s basebalkou. 246 00:15:03,309 --> 00:15:06,743 (Video) Počítač: Muž jede na koni po ulici vedle budovy. 247 00:15:06,743 --> 00:15:08,766 (Smích) 248 00:15:08,766 --> 00:15:12,318 FFL: Nenaučili jsme naše počítače základy umění. 249 00:15:13,768 --> 00:15:16,652 (Video) Počítač: Zebra stojí na poli trávy. 250 00:15:16,652 --> 00:15:20,019 FFL: A ještě neumí ocenit krásu přírody 251 00:15:20,019 --> 00:15:22,457 jako vy a já. 252 00:15:22,457 --> 00:15:25,289 Je to dlouhá cesta. 253 00:15:25,289 --> 00:15:29,515 Dostat se od věku 0 do 3 let bylo těžké. 254 00:15:29,515 --> 00:15:35,111 Opravdová výzva je dostat se od 3 let ke 13 a dál. 255 00:15:35,111 --> 00:15:39,476 Dovolte mi ukázat ještě jednou obrázek chlapce s dortem. 256 00:15:39,476 --> 00:15:43,540 Zatím jsme počítač naučili vidět objekty, 257 00:15:43,540 --> 00:15:47,998 či dokonce říct krátce co vidí na obrázku. 258 00:15:47,998 --> 00:15:51,574 (Video) Počítač: Člověk sedí u stolu s dortem. 259 00:15:51,574 --> 00:15:54,204 FFL: Ale na tom obrázku je toho o tolik více 260 00:15:54,204 --> 00:15:56,474 než jen člověk a dort. 261 00:15:56,474 --> 00:16:00,941 Co počítač nevidí, je, že je to speciální italský dort, 262 00:16:00,941 --> 00:16:04,158 který se podává pouze při Velikonocích. 263 00:16:04,158 --> 00:16:07,363 Chlapec má na sobě své nejoblíbenější tričko, 264 00:16:07,363 --> 00:16:11,333 které mu dal jeho otec po cestě do Sydney, 265 00:16:11,333 --> 00:16:15,141 a vy i já dokážeme říct, jak je šťastný 266 00:16:15,141 --> 00:16:18,344 a co si právě myslí. 267 00:16:19,214 --> 00:16:22,339 Toto je můj syn Leo. 268 00:16:22,339 --> 00:16:24,963 Při řešení zrakové inteligence, 269 00:16:24,963 --> 00:16:27,354 myslím na Lea neustále, 270 00:16:27,354 --> 00:16:30,257 a na svět, ve kterém bude žít. 271 00:16:30,257 --> 00:16:32,278 Když stroje mohou vidět, 272 00:16:32,278 --> 00:16:36,990 doktoři a sestry budou mít navíc pár neúnavných očí, 273 00:16:36,990 --> 00:16:41,082 které jim pomohou diagnostikovat a starat se o pacienty. 274 00:16:41,082 --> 00:16:45,465 Auta budou jezdit chytřeji a bezpečněji. 275 00:16:45,465 --> 00:16:48,159 Roboti, nejen lidé, 276 00:16:48,159 --> 00:16:53,008 nám pomohou prozkoumat místa neštěstí, aby zachránili uvězněné a zraněné. 277 00:16:53,798 --> 00:16:57,594 Objevíme nové druhy, lepší materiály, 278 00:16:57,594 --> 00:17:02,103 a prozkoumáme neznámé hranice, když nám stroje pomohou. 279 00:17:03,113 --> 00:17:07,280 Postupně dáváme zrak strojům. 280 00:17:07,280 --> 00:17:10,078 Nejdřív je učíme vidět. 281 00:17:10,078 --> 00:17:12,841 Pak nám pomohou pomoci vidět lépe. 282 00:17:12,841 --> 00:17:17,006 Poprvé, lidské oči nebudou jediné, 283 00:17:17,006 --> 00:17:19,940 které zkoumají a objevují náš svět. 284 00:17:19,940 --> 00:17:23,400 Nebudeme stroje používat jenom kvůli jejich inteligenci, 285 00:17:23,400 --> 00:17:29,579 ale můžeme spolupracovat způsoby, které si ani neumíme představit. 286 00:17:29,579 --> 00:17:31,740 Toto je můj úkol: 287 00:17:31,740 --> 00:17:34,452 dát počítačům zrakovou inteligenci, 288 00:17:34,452 --> 00:17:39,583 a vytvořit tak lepší budoucnost pro Lea a svět. 289 00:17:39,583 --> 00:17:41,394 Děkuji 290 00:17:41,394 --> 00:17:45,179 (Potlesk)