1 00:00:01,000 --> 00:00:05,076 Budu mluvit o selhání intuice, kterým trpí mnozí z nás. 2 00:00:05,370 --> 00:00:08,700 Vlastně jde o neschopnost odhalit určitý typ nebezpečí. 3 00:00:09,360 --> 00:00:11,096 Popíšu vám situaci, 4 00:00:11,120 --> 00:00:14,376 kterou považuji za děsivou 5 00:00:14,400 --> 00:00:16,480 a zároveň pravděpodobnou. 6 00:00:16,780 --> 00:00:19,696 A jak se ukazuje, tohle není dobrá kombinace. 7 00:00:20,084 --> 00:00:22,400 Ovšem i přesto si bude většina z vás myslet, 8 00:00:22,420 --> 00:00:24,870 že mluvím spíš o zajímavých než o děsivých věcech. 9 00:00:25,120 --> 00:00:28,176 Popíšu vám, jak nás pokroky 10 00:00:28,200 --> 00:00:29,976 v umělé inteligenci 11 00:00:30,000 --> 00:00:31,720 mohou nakonec úplně vyhubit. 12 00:00:31,760 --> 00:00:34,556 Vlastně myslím, že lze jen stěží nevidět, že nás vyhubí 13 00:00:34,806 --> 00:00:36,980 nebo že nás k sebezničení navedou. 14 00:00:37,270 --> 00:00:39,256 A pokud jste na tom podobně jako já, 15 00:00:39,280 --> 00:00:41,886 bude vám připadat zábavné o těchto věcech přemýšlet. 16 00:00:42,126 --> 00:00:45,076 Naše reakce je součástí toho problému. 17 00:00:45,360 --> 00:00:47,700 Tahle reakce by nás měla znepokojovat. 18 00:00:47,990 --> 00:00:50,336 Kdybych vás teď přesvědčoval, 19 00:00:50,600 --> 00:00:54,016 že lidstvo pravděpodobně zasáhne globální hladomor, 20 00:00:54,040 --> 00:00:56,836 buď kvůli klimatickým změnám nebo kvůli jiné katastrofě, 21 00:00:57,120 --> 00:01:00,326 a že vaše vnoučata či jejich vnoučata 22 00:01:00,660 --> 00:01:02,520 budou nejspíš žít takhle, 23 00:01:03,200 --> 00:01:04,690 určitě si neřeknete: 24 00:01:05,440 --> 00:01:08,706 „Zajímavé! To je ale hezká přednáška.“ 25 00:01:09,250 --> 00:01:11,080 Hladomor není legrace. 26 00:01:11,800 --> 00:01:14,756 Na druhou stranu, smrt ve sci-fi zábavná je. 27 00:01:15,200 --> 00:01:18,970 Jednou z věcí, které se teď na vývoji umělé inteligence nejvíc obávám, 28 00:01:19,010 --> 00:01:23,146 je to, že zřejmě nejsme schopní přiměřeně emocionálně reagovat 29 00:01:23,320 --> 00:01:25,056 na nebezpečí ležící před námi. 30 00:01:25,290 --> 00:01:28,700 Já sám toho nejsem schopný, i když o tom právě přednáším. 31 00:01:30,120 --> 00:01:32,586 Je to jako volit cestu na rozcestí. 32 00:01:32,840 --> 00:01:37,256 Vstoupit prvními dveřmi znamená zastavit rozvoj inteligentních strojů. 33 00:01:37,520 --> 00:01:41,256 Počítačový software a hardware se prostě z nějakého důvodu přestane rozvíjet. 34 00:01:41,576 --> 00:01:44,840 Zastavme se chvilku nad tím, kdy by taková situace mohla nastat. 35 00:01:45,110 --> 00:01:48,616 S ohledem na to, jakým jsou pro nás inteligence a automatizace přínosem, 36 00:01:48,760 --> 00:01:52,400 budeme technologie stále zlepšovat, pokud toho vůbec budeme schopni. 37 00:01:53,200 --> 00:01:54,997 Co by nás mohlo zastavit? 38 00:01:55,800 --> 00:01:57,840 Celosvětová nukleární válka? 39 00:01:59,070 --> 00:02:00,730 Globální pandemie? 40 00:02:02,320 --> 00:02:04,010 Dopad asteroidu? 41 00:02:05,640 --> 00:02:07,906 Justin Bieber prezidentem USA? 42 00:02:07,926 --> 00:02:10,740 (smích) 43 00:02:12,760 --> 00:02:16,800 Jde o to, že by naši současnou civilizaci muselo něco zničit. 44 00:02:17,360 --> 00:02:21,396 Představte si, co hrozného by se muselo stát, 45 00:02:21,680 --> 00:02:25,016 abychom nebyli schopni dále zdokonalovat naše technologie, 46 00:02:25,040 --> 00:02:27,976 neustále, generaci za generací. 47 00:02:28,320 --> 00:02:31,796 V podstatě je to ta nejhorší věc, jaká by v dějinách mohla nastat. 48 00:02:32,520 --> 00:02:36,016 Čili jedinou alternativou, tou, která nás čeká za druhými dveřmi, 49 00:02:36,200 --> 00:02:39,026 je postupně každým rokem pokračovat ve zdokonalování 50 00:02:39,270 --> 00:02:41,250 inteligentních strojů. 51 00:02:41,720 --> 00:02:45,600 V určitém okamžiku vytvoříme stroje, které budou chytřejší než my, 52 00:02:46,080 --> 00:02:48,350 a až budeme mít stroje, které budou chytřejší, 53 00:02:48,390 --> 00:02:50,096 začnou se zdokonalovat samy. 54 00:02:50,700 --> 00:02:53,630 A potom nám hrozí situace, kterou matematik I. J. Good nazval 55 00:02:53,680 --> 00:02:55,050 „inteligenční explozí“, 56 00:02:55,100 --> 00:02:57,590 tedy, že by se nám to mohlo vymknout z rukou. 57 00:02:58,120 --> 00:03:00,936 Jak vidíte třeba tady, toto téma se často zpodobňuje 58 00:03:00,960 --> 00:03:05,156 jako obava z armád zlovolných robotů, kteří na nás zaútočí. 59 00:03:05,480 --> 00:03:07,766 Ale to není moc pravděpodobný scénář. 60 00:03:08,090 --> 00:03:12,746 Není to tak, že by stroje najednou začaly být zlé. 61 00:03:13,080 --> 00:03:17,760 Problém je v tom, že vytvoříme stroje, které budou o tolik schopnější než my, 62 00:03:17,800 --> 00:03:22,756 že i ta nejjemnější odchylka mezi jejich a našimi cíli by nás mohla zničit. 63 00:03:23,890 --> 00:03:26,340 Vezměte si, jak se chováme k mravencům. 64 00:03:26,600 --> 00:03:28,066 Nic proti nim nemáme. 65 00:03:28,280 --> 00:03:30,266 Nechceme jim cíleně ubližovat. 66 00:03:30,310 --> 00:03:32,580 Necháme se i poštípat, abychom jim neublížili. 67 00:03:32,620 --> 00:03:34,246 Na chodníku je překračujeme. 68 00:03:34,800 --> 00:03:36,616 Ale kdykoliv jejich přítomnost 69 00:03:36,810 --> 00:03:39,296 vážně narušuje naše zájmy, 70 00:03:39,480 --> 00:03:41,687 například při stavbě budov, jako je tahle, 71 00:03:41,791 --> 00:03:44,091 bez mrknutí oka je zlikvidujeme. 72 00:03:44,480 --> 00:03:47,330 Panuje obava, že jednou vytvoříme stroje, 73 00:03:47,370 --> 00:03:50,190 které by s námi mohly, vědomě či nevědomě, 74 00:03:50,230 --> 00:03:52,430 zacházet podobně lhostejně. 75 00:03:53,760 --> 00:03:56,690 Mnohým z vás to nejspíš přijde přitažené za vlasy. 76 00:03:57,360 --> 00:03:59,770 Vsadím se, že někteří z vás určitě pochybují, 77 00:03:59,800 --> 00:04:03,420 že je možné superinteligentní AI vytvořit, 78 00:04:03,670 --> 00:04:05,370 natož, že to nevyhnutelně nastane. 79 00:04:05,410 --> 00:04:08,640 Pak ale musíte v následujících předpokladech najít nějaký omyl. 80 00:04:09,044 --> 00:04:10,736 Ty předpoklady jsou jen tři. 81 00:04:12,120 --> 00:04:16,710 Inteligence je výsledkem zpracování informací ve hmotných systémech. 82 00:04:17,180 --> 00:04:19,549 Toto je vlastně víc než předpoklad. 83 00:04:19,579 --> 00:04:23,416 Do našich strojů jsme už omezenou inteligenci zabudovali 84 00:04:23,440 --> 00:04:28,376 a mnohé z nich už operují na úrovni superinteligentních lidí. 85 00:04:28,840 --> 00:04:31,156 A víme, že pouhá hmota 86 00:04:31,440 --> 00:04:34,056 může dát vzniknout takzvané „všeobecné inteligenci“, 87 00:04:34,080 --> 00:04:37,486 tedy schopnosti flexibilně se orientovat v různých oblastech. 88 00:04:37,760 --> 00:04:40,686 Protože náš mozek už to zvládl, že? 89 00:04:42,670 --> 00:04:44,856 Mozek se skládá jenom z atomů, 90 00:04:44,880 --> 00:04:49,376 a pokud budeme pokračovat v budování systémů z atomů, 91 00:04:49,424 --> 00:04:53,360 které budou vykazovat čím dál inteligentnější chování, tak nakonec, 92 00:04:53,590 --> 00:04:56,056 pokud nás něco nezastaví, 93 00:04:56,116 --> 00:04:59,066 zabudujeme do našich strojů všeobecnou inteligenci. 94 00:04:59,180 --> 00:05:02,836 Klíčové je uvědomit si, že na rychlosti pokroku nezáleží, 95 00:05:03,080 --> 00:05:06,256 protože k dosažení cílové pásky stačí jakékoli tempo. 96 00:05:06,280 --> 00:05:09,950 Nepotřebujeme Mooreův zákon, není zapotřebí exponenciální vývoj. 97 00:05:10,200 --> 00:05:11,880 Prostě stačí pokračovat. 98 00:05:13,480 --> 00:05:16,410 Druhým předpokladem je, že budeme pokračovat. 99 00:05:16,850 --> 00:05:19,890 Budeme naše inteligentní stroje nadále zdokonalovat. 100 00:05:21,000 --> 00:05:25,116 Protože inteligence je důležitá – 101 00:05:25,400 --> 00:05:28,740 myslím tím to, že inteligence je buď zdrojem všeho, čeho si ceníme, 102 00:05:28,780 --> 00:05:31,986 nebo že ji potřebujeme k zabezpečení všeho, čeho si ceníme. 103 00:05:32,016 --> 00:05:33,866 Je to náš nejcennější zdroj. 104 00:05:34,050 --> 00:05:35,576 Takže v tom chceme pokračovat. 105 00:05:35,600 --> 00:05:38,766 Máme problémy, které zoufale potřebujeme vyřešit. 106 00:05:39,010 --> 00:05:42,440 Chceme například vyléčit Alzheimerovu chorobu nebo rakovinu. 107 00:05:42,960 --> 00:05:46,520 Chceme rozumět ekonomickým systémům. Chceme zlepšit výzkum klimatu. 108 00:05:46,860 --> 00:05:49,206 Takže budeme pokračovat, pokud to půjde. 109 00:05:49,386 --> 00:05:52,486 Je to rozjetý vlak, který nejde zastavit. 110 00:05:53,880 --> 00:05:58,996 Posledním předpokladem je, že lidé nestojí na vrcholu inteligence 111 00:05:59,310 --> 00:06:01,440 a pravděpodobně nejsou ani pod vrcholem. 112 00:06:01,750 --> 00:06:05,736 To je opravdu zásadní pohled. Kvůli tomu jsme v tak prekérní situaci. 113 00:06:06,000 --> 00:06:10,150 Kvůli tomu je naše intuice při posuzování rizik tak nespolehlivá. 114 00:06:11,110 --> 00:06:13,940 Vezměte si třeba nejchytřejší lidi v dějinách. 115 00:06:14,640 --> 00:06:17,886 Do užšího výběru by téměř každý zařadil Johna von Neumanna. 116 00:06:18,080 --> 00:06:21,416 To, jakým dojmem von Neumann působil na lidi kolem sebe, 117 00:06:21,440 --> 00:06:25,326 mezi něž patřili nejlepší matematici a fyzici té doby, 118 00:06:25,520 --> 00:06:27,306 je celkem dobře zdokumentováno. 119 00:06:27,480 --> 00:06:31,166 Kdyby jen polovina historek o něm byla aspoň z poloviny pravdivá, 120 00:06:31,216 --> 00:06:34,370 tak není pochyb, že patřil mezi nejchytřejší lidi historie. 121 00:06:35,000 --> 00:06:37,730 Pojďme se teď zamyslet nad rozsahem inteligence. 122 00:06:38,320 --> 00:06:40,139 Tady je John von Neumann. 123 00:06:41,560 --> 00:06:43,404 Tady jsou lidé jako vy a já. 124 00:06:44,080 --> 00:06:45,486 A tady máme kuře. 125 00:06:45,536 --> 00:06:47,376 (smích) 126 00:06:47,400 --> 00:06:48,616 Pardon, kuře. 127 00:06:48,640 --> 00:06:49,830 (smích) 128 00:06:49,850 --> 00:06:53,100 Není důvod, aby tahle přednáška byla víc depresivní, než je potřeba. 129 00:06:53,140 --> 00:06:55,080 (smích) 130 00:06:56,339 --> 00:07:01,556 Ovšem zdá se navýsost pravděpodobné, že rozsah inteligence je mnohem širší, 131 00:07:01,586 --> 00:07:03,430 než jak ho v současnosti vnímáme. 132 00:07:03,880 --> 00:07:06,730 A pokud vytvoříme stroje inteligentnější než jsme my, 133 00:07:06,950 --> 00:07:09,956 tak budou velmi pravděpodobně zkoumat toto spektrum způsobem, 134 00:07:09,996 --> 00:07:11,446 který si neumíme představit, 135 00:07:11,496 --> 00:07:14,410 a předčí nás způsobem, který si neumíme představit. 136 00:07:15,000 --> 00:07:19,166 A je důležité připustit, že je tomu tak už díky samotné rychlosti. 137 00:07:19,420 --> 00:07:24,236 Představte si, že jsme vytvořili superinteligentní AI, 138 00:07:24,440 --> 00:07:29,876 která je stejně chytrá jako průměrný tým vědců na Stanfordu nebo MIT. 139 00:07:30,240 --> 00:07:34,286 Víme, že elektronické obvody pracují asi milionkrát rychleji než biochemické, 140 00:07:34,496 --> 00:07:37,656 takže takový stroj by přemýšlel milionkrát rychleji 141 00:07:37,680 --> 00:07:39,336 než lidé, kteří ho postavili. 142 00:07:39,520 --> 00:07:41,086 Takže ho na týden pustíte 143 00:07:41,116 --> 00:07:45,910 a on vykoná stejnou intelektuální práci, jaká by lidem trvala 20 000 let. 144 00:07:46,400 --> 00:07:48,620 Týden za týdnem, pořád dokola. 145 00:07:49,640 --> 00:07:52,716 Jak bychom vůbec mohli pochopit, tím spíš nějak omezovat, 146 00:07:52,766 --> 00:07:55,290 inteligenci schopnou takového pokroku? 147 00:07:56,840 --> 00:07:59,750 Je tu i další znepokojivá věc – 148 00:08:00,080 --> 00:08:03,960 představte si optimální situaci. 149 00:08:04,000 --> 00:08:07,910 Představte si, že se nám podaří navrhnout superinteligentní AI, 150 00:08:08,090 --> 00:08:09,806 která nebude dbát na bezpečnost. 151 00:08:09,836 --> 00:08:12,460 Hned napoprvé budeme mít dokonalou verzi. 152 00:08:12,840 --> 00:08:16,956 Jako kdyby se naplnila nějaká věštba, která by fungovala tak, jak bylo určeno. 153 00:08:17,160 --> 00:08:21,080 Takový stroj by lidem dokonale usnadňoval práci. 154 00:08:21,584 --> 00:08:24,203 Dokázal by navrhnout stroj, který by uměl stavět stroje 155 00:08:24,233 --> 00:08:25,886 schopné jakékoli manuální práce, 156 00:08:25,920 --> 00:08:29,496 napájené sluneční energií, víceméně za cenu surovin. 157 00:08:30,670 --> 00:08:33,056 Takže mluvíme o konci lidské dřiny. 158 00:08:33,380 --> 00:08:36,310 Mluvíme také o konci většiny intelektuální práce. 159 00:08:37,200 --> 00:08:40,256 Ale co by takové opice jako my v téhle situaci dělaly? 160 00:08:40,696 --> 00:08:44,610 No, měli bychom čas hrát frisbee a vzájemně se masírovat. 161 00:08:45,840 --> 00:08:48,836 Přidali bychom nějaké to LSD a kontroverzní oblečení 162 00:08:48,900 --> 00:08:51,036 a svět by mohl vypadat jako „Burning Man“. 163 00:08:51,080 --> 00:08:53,520 (smích) 164 00:08:54,320 --> 00:08:56,530 Asi to zní krásně. 165 00:08:57,280 --> 00:08:59,656 Ale zeptejte se sami sebe, co by se stalo, 166 00:08:59,680 --> 00:09:02,166 kdyby ekonomika a politika fungovaly tak jako dnes. 167 00:09:02,440 --> 00:09:04,596 Pravděpodobně bychom zažili 168 00:09:05,066 --> 00:09:09,016 takovou sociální nerovnost a nezaměstnanost 169 00:09:09,040 --> 00:09:10,536 jako nikdy předtím. 170 00:09:10,560 --> 00:09:14,806 Zavládla by neochota dát okamžitě toto bohatství do služeb lidstvu. 171 00:09:15,810 --> 00:09:19,256 Několik bilionářů by zdobilo obálky obchodních časopisů, 172 00:09:19,280 --> 00:09:21,730 zatímco zbytek světa by mohl v klidu hladovět. 173 00:09:22,320 --> 00:09:24,446 A co by udělali Rusové nebo Číňani, 174 00:09:24,640 --> 00:09:27,256 kdyby se doslechli, že se v Silicon Valley 175 00:09:27,280 --> 00:09:30,016 někdo chystá zapojit superinteligentní AI? 176 00:09:30,040 --> 00:09:32,376 Takový stroj by byl schopný vést válku, 177 00:09:32,590 --> 00:09:34,786 ať už pozemní nebo kybernetickou, 178 00:09:35,030 --> 00:09:36,980 s nebývalou silou. 179 00:09:38,120 --> 00:09:39,976 V této situaci by „vítěz bral vše“. 180 00:09:40,000 --> 00:09:42,926 Šestiměsíční náskok před konkurencí 181 00:09:43,160 --> 00:09:47,276 by znamenal náskok minimálně 500 000 let, 182 00:09:47,480 --> 00:09:52,216 Zdá se, že i pouhé fámy o průlomu v této oblasti 183 00:09:52,240 --> 00:09:54,366 by mohly náš druh dovést k nepříčetnosti. 184 00:09:54,520 --> 00:09:57,346 Myslím si, že jednou z nejděsivějších věcí 185 00:09:57,560 --> 00:09:59,646 je momentálně to, 186 00:10:00,360 --> 00:10:04,656 co vědci zabývající se vývojem umělé inteligence říkají, 187 00:10:04,680 --> 00:10:06,490 když nás chtějí uklidnit. 188 00:10:07,000 --> 00:10:10,276 Nejčastěji uváděným důvodem, proč se prý nemáme obávat, je čas. 189 00:10:10,480 --> 00:10:12,536 Všechno je to ještě daleko, nemyslíte? 190 00:10:12,560 --> 00:10:15,310 Přijde to až tak za 50 nebo 100 let. 191 00:10:15,720 --> 00:10:18,740 Jeden vědec řekl: „Bát se o bezpečnost umělé inteligence 192 00:10:18,796 --> 00:10:21,100 je stejné, jako bát se přelidnění Marsu.“ 193 00:10:22,076 --> 00:10:24,096 Pro Silicon Valley je to jen jiná verze: 194 00:10:24,136 --> 00:10:26,090 „Nech to koňovi, ten má větší hlavu.“ 195 00:10:26,130 --> 00:10:27,496 (smích) 196 00:10:27,520 --> 00:10:29,256 Nikdo si nejspíš nevšímá toho, 197 00:10:29,450 --> 00:10:33,956 že odvolávat se na časový horizont je naprosto nelogické. 198 00:10:34,350 --> 00:10:37,726 Pokud inteligence spočívá pouze ve zpracování informací 199 00:10:37,960 --> 00:10:40,616 a pokud budeme dál zlepšovat své stroje, 200 00:10:40,640 --> 00:10:43,520 tak nějakou formu superinteligence vytvoříme. 201 00:10:44,320 --> 00:10:47,976 Ale nemáme ani ponětí, jak dlouho nám bude trvat, 202 00:10:48,000 --> 00:10:50,690 abychom ji vytvořili za bezpečných podmínek. 203 00:10:52,070 --> 00:10:53,406 Řeknu to ještě jednou. 204 00:10:53,576 --> 00:10:57,336 Nemáme ani ponětí, jak dlouho nám bude trvat, 205 00:10:57,360 --> 00:11:00,050 abychom ji vytvořili za bezpečných podmínek. 206 00:11:00,920 --> 00:11:04,606 A možná jste si nevšimli, že 50 let už není, co bývalo. 207 00:11:04,640 --> 00:11:06,606 Tohle je 50 let v měsících. 208 00:11:06,880 --> 00:11:08,930 Takhle dlouho máme iPhone. 209 00:11:09,440 --> 00:11:12,040 A takhle dlouho se vysílají Simpsonovi. 210 00:11:12,680 --> 00:11:15,056 Padesát let není moc času na to, 211 00:11:15,080 --> 00:11:18,370 aby se náš druh vypořádal s jedním z nejtěžších úkolů všech dob. 212 00:11:19,640 --> 00:11:23,656 Ještě jednou – zdá se, že nejsme schopni adekvátní emocionální reakce na to, 213 00:11:23,680 --> 00:11:26,166 co podle všeho nepochybně nastane. 214 00:11:26,400 --> 00:11:30,466 Odborník na počítače, Stuart Russell, má pro tuto situaci hezké přirovnání. 215 00:11:30,530 --> 00:11:35,066 Máme si představit, že dostaneme zprávu od mimozemské civilizace, 216 00:11:35,320 --> 00:11:36,636 ve které stojí: 217 00:11:37,040 --> 00:11:38,416 „Pozemšťané, 218 00:11:38,600 --> 00:11:41,170 za 50 let dorazíme na vaši planetu. 219 00:11:41,800 --> 00:11:43,196 Připravte se.“ 220 00:11:43,400 --> 00:11:47,046 To bychom jen počítali, kolik měsíců zbývá do přistání vlajkové lodi? 221 00:11:47,680 --> 00:11:50,860 Cítili bychom o něco naléhavější potřebu než teď. 222 00:11:52,570 --> 00:11:54,696 Dalším důvodem, proč se prý nemáme bát, 223 00:11:54,716 --> 00:11:58,076 je, že těmto strojům nezbude než se držet našich hodnot, 224 00:11:58,116 --> 00:12:00,226 protože se stanou doslova naší nadstavbou. 225 00:12:00,256 --> 00:12:02,036 Budou implantované do našich mozků 226 00:12:02,080 --> 00:12:04,610 a my se v podstatě staneme jejich limbickým systémem. 227 00:12:05,060 --> 00:12:06,466 Chvilku se zamyslete nad tím, 228 00:12:06,486 --> 00:12:09,330 že tou nejbezpečnější a nejuváženější cestou, 229 00:12:09,630 --> 00:12:11,166 která se doporučuje, 230 00:12:11,196 --> 00:12:14,260 by měla být implantace této technologie do našich mozků. 231 00:12:14,600 --> 00:12:18,006 Ona to vskutku může být nejbezpečnější a nejuváženější cesta, 232 00:12:18,046 --> 00:12:20,980 ale obvykle se všichni obávají o bezpečnost technologií, 233 00:12:21,010 --> 00:12:24,956 protože když máte nosit něco natrvalo, musí to být dost dobře vyladěné. 234 00:12:24,986 --> 00:12:26,776 (smích) 235 00:12:26,800 --> 00:12:31,926 Hlubším problémem je to, že vytvořit samotnou superinteligentní AI 236 00:12:32,160 --> 00:12:35,806 je pravděpodobně snazší, než vytvářet takovou inteligenci 237 00:12:35,960 --> 00:12:37,666 společně s kompletní neurobiologií, 238 00:12:37,710 --> 00:12:40,370 která umožní bezproblémovou integraci do naší mysli. 239 00:12:40,800 --> 00:12:43,866 A jelikož firmy a vlády budou tuto práci 240 00:12:44,096 --> 00:12:47,416 nejspíše vnímat jako závod se všem ostatními, 241 00:12:47,680 --> 00:12:50,716 protože vyhrát tenhle závod znamená dobýt svět ‒ 242 00:12:50,960 --> 00:12:53,346 tedy za předpokladu, že ho hned nato nezničíte ‒ 243 00:12:53,510 --> 00:12:57,716 tak se dá čekat, že jako první se udělá to, co bude nejjednodušší. 244 00:12:58,670 --> 00:13:01,186 Já bohužel nevidím pro tento problém žádné řešení, 245 00:13:01,360 --> 00:13:03,726 kromě doporučení, abychom o tom více přemýšleli. 246 00:13:03,840 --> 00:13:06,336 Myslím, že potřebujeme něco jako projekt Manhattan 247 00:13:06,360 --> 00:13:08,236 na téma umělé inteligence. 248 00:13:08,520 --> 00:13:11,336 Ne kvůli jejímu vytvoření, protože to nevyhnutelně nastane, 249 00:13:11,356 --> 00:13:14,446 ale abychom přišli na to, jak se vyhnout závodům ve zbrojení 250 00:13:14,640 --> 00:13:17,660 a jak ji vytvořit způsobem, který vyhoví našim zájmům. 251 00:13:18,100 --> 00:13:22,316 Když se bavíme o superinteligentní AI, která se dokáže sama měnit, 252 00:13:22,600 --> 00:13:27,216 vypadá to, že máme jen jednu šanci, jak správně nastavit výchozí podmínky, 253 00:13:27,230 --> 00:13:29,560 i když budeme muset tlumit 254 00:13:29,590 --> 00:13:32,740 ekonomické a politické důsledky takto nastavených podmínek. 255 00:13:33,760 --> 00:13:35,816 Nicméně ve chvíli, kdy si přiznáme, 256 00:13:35,840 --> 00:13:39,720 že inteligence pramení ze zpracování informací, 257 00:13:41,090 --> 00:13:45,520 že vhodně navržený počítačový systém je podstatou inteligence, 258 00:13:46,360 --> 00:13:50,260 a až přistoupíme na to, že budeme tyto systémy neustále vylepšovat 259 00:13:51,280 --> 00:13:57,116 a že horizont poznání nejspíš daleko přesahuje vše, co v současnosti známe, 260 00:13:58,120 --> 00:14:02,336 pak si musíme přiznat, že jsme uprostřed procesu vytváření jakéhosi boha. 261 00:14:03,400 --> 00:14:07,066 Teď by bylo dobré se ujistit, že s tímto bohem budeme moci žít. 262 00:14:08,090 --> 00:14:09,379 Díky moc. 263 00:14:09,399 --> 00:14:13,323 (potlesk)