Co se stane, až budou počítače chytřejší než my?
-
0:01 - 0:05Spolupracuji s matematiky,
filozofy a informatiky, -
0:05 - 0:10se kterými přemýšlíme nad
budoucností strojové inteligence -
0:10 - 0:12a dalšími otázkami.
-
0:12 - 0:17Někteří lidé si myslí, že jde o věci
patřící do science-fiction, -
0:17 - 0:20tedy vzdálené a bláznivé.
-
0:20 - 0:21Na to jim ale rád odpovídám,
-
0:21 - 0:25fajn, tak se podívejte
na moderního člověka. -
0:25 - 0:27(Smích)
-
0:27 - 0:29Tohle je dnes běžný stav věcí.
-
0:29 - 0:31Když se nad tím ale zamyslíme,
-
0:31 - 0:35jako lidský druh
jsme ve skutečnosti teprve -
0:35 - 0:37nedávnými hosty na této planetě.
-
0:37 - 0:41Představíme-li si,
že Země vznikla před rokem, -
0:41 - 0:45bude lidský druh starý pouhých 10 minut.
-
0:45 - 0:48Průmyslová éra začala
před dvěma sekundami. -
0:49 - 0:55Anebo se podívejme na vývoj
světového HDP za posledních 10 tisíc let. -
0:55 - 0:58Dal jsem si takovou práci,
že jsem vám jej zpracoval do grafu. -
0:58 - 0:59Vypadá takhle.
-
0:59 - 1:01(Smích)
-
1:01 - 1:03Jde o podivný tvar pro běžné podmínky.
-
1:03 - 1:05Nechtěl bych na něm sedět.
-
1:05 - 1:07(Smích)
-
1:07 - 1:12Zeptejme se sami sebe,
co je příčinou tohoto výkyvu? -
1:12 - 1:14Někteří lidé by odpověděli, že technika.
-
1:14 - 1:19To je pravda, technika se během
lidských dějin nahromadila -
1:19 - 1:24a v současnosti se vyvíjí extrémně rychle.
-
1:24 - 1:25Je v tom příčinná souvislost.
-
1:25 - 1:28Proto jsme nyní tak produktivní.
-
1:28 - 1:32Já bych se ale rád vrátil
k pravé příčině zpět do minulosti. -
1:33 - 1:37Podívejme se na tyto
mimořádně ctihodné gentlemany: -
1:37 - 1:38tohle je Kanzi –
-
1:38 - 1:43ovládl 200 různých znaků,
fantastický výkon. -
1:43 - 1:47A Ed Witten spustil druhou
superstrunovou revoluci. -
1:47 - 1:49Podíváme-li se pod pokličku,
nalezneme tohle: -
1:49 - 1:51v podstatě jednu a tutéž věc.
-
1:51 - 1:53Jedna je jen trochu větší
-
1:53 - 1:55a možná má pár vylepšení
ve svých zapojeních. -
1:55 - 1:59Ale tyto neviditelné rozdíly
nemohou být příliš komplikované, -
1:59 - 2:03protože od doby našeho
nejbližšího společného předka -
2:03 - 2:05uplynulo pouze 250 tisíc generací.
-
2:05 - 2:09Víme, že složitější mechanismy potřebují
ke svému vývoji delší dobu. -
2:10 - 2:12Takže skupina relativně malých změn
-
2:12 - 2:16nás od Kanziho přenesla k Wittenovi,
-
2:16 - 2:20od prolézání větvovím stromů
k mezikontinentálním balistickým střelám. -
2:21 - 2:25Takže se zdá být zřejmé,
že vše, čeho jsme dosáhli, -
2:25 - 2:26a vše, co nás zajímá,
-
2:26 - 2:31zásadně závisí na relativně malých
změnách, které vytvořily lidskou mysl. -
2:33 - 2:36Důsledkem toho je samozřejmě to,
že jakékoli další změny, -
2:36 - 2:40které výrazně změní
substrát našeho myšlení, -
2:40 - 2:43mohou mít potenciálně mimořádné důsledky.
-
2:44 - 2:47Někteří z mých kolegů si myslí,
že jsme na okraji něčeho, -
2:47 - 2:51co může přivodit podstatnou
změnu tohoto substrátu. -
2:51 - 2:54Jde o strojovou superinteligenci.
-
2:54 - 2:59Umělá inteligence bývala
o zadávání příkazů do krabičky. -
2:59 - 3:01Museli jste mít
lidské programátory, -
3:01 - 3:04kteří ručně vytvářeli databáze znalostí.
-
3:04 - 3:06Získali jste tím expertní systémy,
-
3:06 - 3:08které byly užitečné pro určité úkoly,
-
3:08 - 3:11ale byly dost nevhodné
pro nějaké výraznější rozšíření. -
3:11 - 3:14V podstatě jste z nich dostali jen to,
co jste do nich vložili. -
3:14 - 3:15Ale od té doby
-
3:15 - 3:19došlo na poli umělé inteligence
ke změně paradigmatu. -
3:19 - 3:22Dnes se vše děje kolem strojového učení.
-
3:22 - 3:28Takže namísto ručního vytváření
databází znalostí, -
3:29 - 3:34vytváříme algoritmy, které se samy učí,
často z velmi hrubých a neurčitých dat. -
3:34 - 3:39V podstatě dělají stejnou věc
jako lidské miminko. -
3:39 - 3:43Výsledkem je umělá inteligence,
která není omezena jednou oblastí: -
3:43 - 3:48tentýž systém se může naučit
překládat z jednoho jazyka do druhého -
3:48 - 3:53nebo se může naučit hrát
jakoukoli hru na konzoli Atari. -
3:53 - 3:55Samozřejmě
-
3:55 - 3:59umělá inteligence nedosahuje stejných
výsledků co se týče schopností učit se -
3:59 - 4:02napříč různými oblastmi a plánovat,
jako dokáže člověk. -
4:02 - 4:04Mozková kůra má pořád v rukávu
pár algoritmických -
4:04 - 4:07triků, které zatím neumíme
u strojů vytvořit. -
4:08 - 4:10Otázkou je,
-
4:10 - 4:13jak daleko jsme od toho,
kdy se nám je vytvořit podaří? -
4:14 - 4:15Před pár lety
-
4:15 - 4:18jsme udělali průzkum mezi
experty na umělou inteligenci, -
4:18 - 4:21abychom věděli, co si oni myslí,
a jedna z položených otázek zněla: -
4:21 - 4:25„V jakém roce si myslíte,
že bude 50% pravděpodobnost, -
4:25 - 4:28že u strojů dosáhneme inteligence
srovnatelné s lidskou?" -
4:29 - 4:33Lidskou inteligenci jsme definovali
jako schopnost provádět téměř jakoukoli -
4:33 - 4:36práci přinejmenším takovým způsobem
jako dospělý člověk, -
4:36 - 4:40takže jsme nevytvářeli nějaká omezení.
-
4:40 - 4:43Nejčastější odpověď byla 2040 a 2050,
-
4:43 - 4:46v závislosti na tom,
jaké skupiny jsme se zeptali. -
4:46 - 4:50Může k tomu dojít mnohem později
nebo mnohem dříve, -
4:50 - 4:52pravdou je, že to nikdo doopravdy neví.
-
4:53 - 4:58Co ale víme, je, že nejzazší hranice
pro zpracování informací leží -
4:58 - 5:03u strojových substrátů daleko
za hranicemi biologických tkání. -
5:03 - 5:06Vysvětlení nám dává fyzika.
-
5:06 - 5:10Biologický neuron má frekvenci okolo
200 Hz, je aktivní 200krát za sekundu. -
5:10 - 5:14Ale už dnešní tranzistory pracují
na gigahertzových frekvencích. -
5:14 - 5:19Signál se v axonu neuronů šíří pomalu,
maximálně 100 metrů za sekundu. -
5:19 - 5:22V počítačích může ale signál
cestovat rychlostí světla. -
5:23 - 5:25A existují i prostorová omezení,
-
5:25 - 5:28lidský mozek se musí vejít do lebky,
-
5:28 - 5:33ale počítač může být velký jako skladiště
nebo i větší. -
5:33 - 5:38Takže potenciál pro superinteligenci
zatím tiše spočívá v hmotě, -
5:38 - 5:44podobně jako tam spočívala síla atomu
-
5:44 - 5:48až do roku 1945.
-
5:48 - 5:50V tomto století
-
5:50 - 5:54se mohou vědci naučit,
jak probudit sílu umělé inteligence. -
5:54 - 5:58A myslím,
že pak uvidíme explozi inteligence. -
5:58 - 6:02Dnes většina lidí, když přemýšlí o tom,
co je chytré a co hloupé, -
6:02 - 6:05má na mysli situaci jako je tato.
-
6:05 - 6:08Takže na jedné straně
máme vesnického idiota, -
6:08 - 6:10a na opačném konci
-
6:10 - 6:15máme Eda Wittena nebo Alberta Einsteina
nebo si doplňte svého oblíbence. -
6:15 - 6:19Myslím ale,
že z pohledu umělé inteligence -
6:19 - 6:23vypadá skutečná situace spíše jako toto:
-
6:23 - 6:27umělá inteligence začíná
v tomto bodě na nule, -
6:27 - 6:30a pak po mnoha a mnoha letech tvrdé dřiny
-
6:30 - 6:33se dostáváme téměř
na úroveň inteligence myši, -
6:33 - 6:36něčeho, co se dokáže orientovat
ve složitém prostředí, -
6:36 - 6:38jako to dokáže myš.
-
6:38 - 6:42A pak po mnoha a mnoha letech
další tvrdé dřiny, mnoha investicí, -
6:42 - 6:47možná dospějeme
na úroveň inteligence šimpanze. -
6:47 - 6:50A pak po ještě dalších letech tvrdé práce
-
6:50 - 6:53se dostaneme na úroveň vesnického idiota.
-
6:53 - 6:56Ale pak po pár okamžicích
jsme za úrovní Eda Wittena. -
6:56 - 6:59Vlak nezastavuje na Zastávce lidstvo.
-
6:59 - 7:02Je pravděpodobnější, že jí prosviští.
-
7:02 - 7:04Tohle má závažné implikace,
-
7:04 - 7:08obzvláště dojde-li na otázky moci.
-
7:08 - 7:10Kupříkladu šimpanzi jsou silní –
-
7:10 - 7:15v poměru ke své hmotnosti jsou zhruba
dvojnásobně silnější než dospělý muž. -
7:15 - 7:20Přesto osud Kanziho a jeho druhů
závisí mnohem více na tom, -
7:20 - 7:24co po nich chceme my,
a ne co chtějí sami šimpanzi. -
7:25 - 7:28Jakmile tu bude superinteligence,
-
7:28 - 7:31osud lidstva může záviset na tom,
co bude chtít superinteligence. -
7:32 - 7:34Zamyslete se nad tím.
-
7:34 - 7:39Strojová inteligence je posledním
vynálezem, který je kdy třeba učinit. -
7:39 - 7:42Stroje poté budou
ve vynalézání lepší než my -
7:42 - 7:44a také budou pracovat digitální rychlostí.
-
7:44 - 7:49To znamená, že nás přímo
katapultují do budoucnosti. -
7:49 - 7:53Uvažte ty nejšílenější technologie,
které si jen dokážete představit, -
7:53 - 7:55a které by snad lidstvo
s dostatkem času někdy mohlo vytvořit: -
7:55 - 7:59kúra proti stárnutí, obydlení vesmíru,
-
7:59 - 8:02samoreplikující se nanoroboti,
nahrávání mysli do počítače, -
8:02 - 8:04všechny tyto věci ze science-fiction,
-
8:04 - 8:07které nejsou v rozporu se zákony fyziky.
-
8:07 - 8:11Všechno toto by mohla superinteligence
vytvořit, zřejmě dost rychle. -
8:12 - 8:16Superinteligence s takovou
technologickou vyspělostí -
8:16 - 8:18by byla extrémně mocná.
-
8:18 - 8:23A v některých případech by dostala,
co by si zamanula. -
8:23 - 8:28Naše budoucnost by tak byla utvářena
preferencemi této umělé inteligence. -
8:30 - 8:34Dobrou otázkou proto je,
jaké jsou tyto preference? -
8:34 - 8:36To je komplikovaná otázka.
-
8:36 - 8:37Abychom mohli odpovědět,
-
8:37 - 8:41musíme se vyvarovat antropomorfizaci.
-
8:42 - 8:45A to je legrační,
protože každý článek v novinách -
8:45 - 8:49o budoucnosti umělé inteligence
má obrázek jako je tento. -
8:50 - 8:54Takže myslím, že musíme
téma uchopit abstraktněji, -
8:54 - 8:57a ne v pojmech hollywoodských scénářů.
-
8:57 - 9:01Musíme o inteligenci uvažovat
jako o optimalizačním procesu, -
9:01 - 9:06procesu, který řídí budoucnost
do mezí určitého nastavení. -
9:06 - 9:10Superinteligence je velice
výkonný optimalizační proces. -
9:10 - 9:14Je velice dobrá ve využívání
dostupných prostředků -
9:14 - 9:16k dosažení vytčeného cíle.
-
9:16 - 9:19To znamená, že neexistuje nutné spojení
-
9:19 - 9:22mezi vysokou inteligencí
-
9:22 - 9:27a cílem, který bychom my lidé považovali
za hodnotný nebo smysluplný. -
9:27 - 9:31Představte si, že dáme umělé inteligenci
úkol rozesmát lidi. -
9:31 - 9:34Když bude slabá, provede užitečné
nebo úsměvné úkony, -
9:34 - 9:37aby své uživatele rozesmála.
-
9:37 - 9:39Když se stane superinteligentní,
-
9:39 - 9:43uvědomí si, že existuje efektivnější
způsob, jak toho dosáhnout: -
9:43 - 9:44převezme vládu nad světem
-
9:44 - 9:48a strčí lidem
do obličejových svalů elektrody, -
9:48 - 9:51čímž vytvoří neustálý úsměv na tváři.
-
9:51 - 9:52Jiný příklad,
-
9:52 - 9:55předpokládejme, že umělá inteligence
bude řešit složitý matematický problém. -
9:55 - 9:57Když se stane superinteligentní,
-
9:57 - 10:01uvědomí si, že nejefektivnější způsob,
jak se dopracovat výsledku, -
10:01 - 10:04je přebudovat tuto planetu
do obrovského počítače, -
10:04 - 10:06aby zvýšila výpočetní kapacitu.
-
10:06 - 10:09Všimne si, že toto jí dává pomocný důvod,
-
10:09 - 10:12aby dělala věci,
které bychom jí běžně nedovolili. -
10:12 - 10:13Lidské bytosti jsou v této situaci hrozbou,
-
10:13 - 10:16která by jí mohla zabránit
ve vyřešení matematického problému. -
10:17 - 10:21Samozřejmě by se věci zřejmě
nevyvíjely tímto způsobem, -
10:21 - 10:22jde o karikované příklady.
-
10:22 - 10:24Ale obecné poučení je důležité:
-
10:24 - 10:27pokud vytvoříte skutečně
výkonný optimalizační proces, -
10:27 - 10:30abyste co nejlépe vyřešili úkol X,
-
10:30 - 10:32ujistěte se, že definice tohoto X
-
10:32 - 10:34zahrnuje všechno, o co máte zájem.
-
10:35 - 10:39Je to lekce, kterou dávají i mnohé mýty.
-
10:39 - 10:45Král Midas si přál, aby se všechno,
čeho se dotkne, proměnilo ve zlato. -
10:45 - 10:47Dotkl se své dcery,
a ta se proměnila ve zlato. -
10:47 - 10:50Dotkl se jídla, to se proměnilo ve zlato.
-
10:50 - 10:53Tohle může být relevantní
-
10:53 - 10:55nikoli jen jako metafora chamtivosti,
-
10:55 - 10:56ale také jako ilustrace toho,
-
10:56 - 10:59co se stane, když vytvoříte
výkonný optimalizační proces -
10:59 - 11:04a dáte mu zavádějící
nebo špatně definované cíle. -
11:04 - 11:09Můžete si říct, že pokud počítač
začne lidem strkat do tváře elektrody, -
11:09 - 11:12prostě jej vypnete.
-
11:13 - 11:18Za A, to nemusí být nutně tak jednoduše
proveditelné, pokud na něm budeme závislí. -
11:18 - 11:21Kde je třeba tlačítko
na vypnutí internetu? -
11:21 - 11:26Za B, proč šimpanzi nebo neandrtálci
nezmáčkli vypínač -
11:26 - 11:27bránící vzniku lidstva?
-
11:27 - 11:30Zcela jistě pro to byl důvod.
-
11:30 - 11:33Máme vypínač například zrovna tady.
-
11:33 - 11:34(Dusí se)
-
11:34 - 11:37Důvodem je,
že jsme inteligentní protivníci, -
11:37 - 11:40dokážeme předvídat hrozby
a vyhýbat se jim. -
11:40 - 11:42To by ale dokázal i
superinteligentní hráč, -
11:42 - 11:46a byl by v tom mnohem lepší než my.
-
11:46 - 11:53Pointa je v tom, že bychom si neměli
být tak jistí, že máme vše pod kontrolou. -
11:53 - 11:56Mohli bychom si zkusit
usnadnit práci třeba tím, -
11:56 - 11:58že by se U. I.
zavřela do skříňky, -
11:58 - 12:00do zabezpečeného prostředí,
-
12:00 - 12:03simulované virtuální reality,
ze které by nemohla uprchnout. -
12:03 - 12:07Ale jak moc si můžeme být jistí,
že nenajde nějakou díru? -
12:07 - 12:10Vzhledem k tomu, že lidští hackeři
nalézají díry v jednom kuse, -
12:10 - 12:13bychom moc jistí být neměli.
-
12:14 - 12:19Takže vypojíme síťový kabel,
abychom přerušili kontakt, -
12:19 - 12:21ale je to tu zas, lidští hackeři
-
12:21 - 12:25běžně tuto překážku překonávají
sociálním inženýrstvím. -
12:25 - 12:26Jak teď zrovna hovořím,
-
12:26 - 12:28zcela jistě je venku nějaký zaměstnanec,
-
12:28 - 12:32který byl požádán,
aby nadiktoval údaje svého účtu -
12:32 - 12:35někomu, kdo tvrdí,
že je z technické podpory. -
12:35 - 12:37Možné jsou i nápaditější scénáře,
-
12:37 - 12:38kdy v roli U. I.
-
12:38 - 12:42rozmístíte elektrody kolem svého obvodu,
-
12:42 - 12:45abyste vytvořili rádiové vlny,
kterými budete komunikovat. -
12:45 - 12:47Anebo můžete předstírat poruchu
-
12:47 - 12:51a když se objeví programátor,
aby se podíval, co se porouchalo, -
12:51 - 12:53aby se podíval na zdrojový kód
– Bum! – -
12:53 - 12:55poradíte si s ním.
-
12:55 - 12:59Anebo může vytvořit plán
pro velmi mazanou technologii, -
12:59 - 13:00kterou když sestrojíme,
-
13:00 - 13:05bude mít na nás neblahé vedlejší účinky.
-
13:05 - 13:08Zkrátka bychom neměli příliš
věřit ve svou schopnost -
13:08 - 13:12udržet superinteligentního
džina v láhvi navždy. -
13:12 - 13:14Dříve nebo později se dostane ven.
-
13:15 - 13:18Myslím, že řešením je přijít na to,
-
13:18 - 13:23jak vytvořit superinteligenci tak,
že i kdyby utekla, -
13:23 - 13:26byla by stále neškodná,
protože by byla na naší straně, -
13:26 - 13:28protože by měla stejné hodnoty jako my.
-
13:28 - 13:32Nevidím jinou možnost.
-
13:33 - 13:36Jsem velice optimistický co se týče
vyřešení tohoto problému. -
13:36 - 13:40Nemuseli bychom sepsat dlouhý
seznam všeho, na čem nám záleží, -
13:40 - 13:44nebo jej snad
vytvořit v programovacím jazyce -
13:44 - 13:45jako je C++ nebo Python,
-
13:45 - 13:48což by byl beznadějný úkol.
-
13:48 - 13:52Namísto toho bychom měli sestrojit
systém, který svoji inteligenci využije -
13:52 - 13:55k tomu, aby se naučil, jaké hodnoty máme,
-
13:55 - 14:01a aby jeho motivační systém
byl naladěn tak, -
14:01 - 14:06aby sledoval tyto hodnoty a konal činy,
které bychom schválili. -
14:06 - 14:09Mohli bychom ovlivnit jeho inteligenci
jak jen by to bylo možné, -
14:09 - 14:12abychom vyřešili problém načítání hodnot.
-
14:13 - 14:14Může k tomu dojít
-
14:14 - 14:18a výsledek by byl pro lidstvo příznivý.
-
14:18 - 14:22Nedojde k tomu ale automaticky.
-
14:22 - 14:25Výchozí podmínky pro explozi inteligence
-
14:25 - 14:28mohou vyžadovat to správné nastavení,
-
14:28 - 14:31abychom dosáhli řízené detonace.
-
14:31 - 14:34Hodnoty umělé inteligence
musí být shodné s našimi, -
14:34 - 14:36a to nejen v běžných situacích,
-
14:36 - 14:38kdy můžeme snadno zkontrolovat,
jak se chová, -
14:38 - 14:41ale také v nových situacích,
se kterými se může setkat -
14:41 - 14:43v neurčité budoucnosti.
-
14:43 - 14:48Je tu také pár esoterických otázek,
které by měly být vyřešeny: -
14:48 - 14:50přesné detaily její rozhodovací teorie,
-
14:50 - 14:52jak bude nakládat s logickou neurčitostí
a tak dále. -
14:53 - 14:56Takže technické problémy,
které je třeba vyřešit, -
14:56 - 14:58vypadají složitě –
-
14:58 - 15:01i když ne tak složitě
jako vytvoření superinteligence, -
15:01 - 15:04každopádně hodně složitě.
-
15:04 - 15:05Existuje jisté znepokojení.
-
15:05 - 15:10Vytvoření superinteligence
je skutečně velká výzva. -
15:10 - 15:13Vytvoření superinteligence,
která bude bezpečná, -
15:13 - 15:15zahrnuje navíc několik dalších výzev.
-
15:16 - 15:20Riziko spočívá v tom, když někdo
přijde na to, jak vyřešit první výzvu, -
15:20 - 15:23aniž by zároveň vyřešil připojené výzvy
-
15:23 - 15:25spojené se zachováním bezpečnosti.
-
15:25 - 15:29Takže myslím, že bychom měli najít řešení,
-
15:29 - 15:32jak to druhé vyřešit v předstihu,
-
15:32 - 15:34abychom byli připravení, až dospěje čas.
-
15:35 - 15:38Může se stát, že nevyřešíme problém včas,
-
15:38 - 15:41protože některé části bude možné doplnit
-
15:41 - 15:45až tehdy, kdy budeme znát
podrobnosti výpočetní architektury. -
15:45 - 15:49Ale čím více v rámci
tohoto problému vyřešíme, -
15:49 - 15:53tím větší je šance, že přechod
do éry inteligentních strojů -
15:53 - 15:54proběhne dobře.
-
15:54 - 15:59Toto na mě působí jako věc,
kterou má smysl dělat, -
15:59 - 16:02a dovedu si představit,
že pokud se věci vyvinou dobře, -
16:02 - 16:07lidé se za milion let
podívají zpět na toto století -
16:07 - 16:11a řeknou si, že věc, kterou
jsme udělali skutečně správně, -
16:11 - 16:13bylo vypořádání se s tímto problémem.
-
16:13 - 16:14Děkuji.
-
16:14 - 16:17(Potlesk)
- Title:
- Co se stane, až budou počítače chytřejší než my?
- Speaker:
- Nick Bostrom
- Description:
-
Umělá inteligence je stále lepší a chytřejší – v průběhu tohoto století, jak naznačují výzkumy, by počítačová umělá inteligence mohla být stejně chytrá jako lidská bytost. A pak, říká Nick Bostrom, nás předstihne: „Strojová inteligence je posledním vynálezem lidstva, který kdy bude třeba vytvořit." Coby filozof a transhumanista nás Bostrom nabádá k vážnému zamyšlení nad světem, který vytváříme, a který bude řízen myslícími stroji. Pomohou nám chytré stroje zachovat lidstvo a s ním spojené hodnoty – anebo budou uznávat své vlastní hodnoty?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Samuel Titera edited Czech subtitles for What happens when our computers get smarter than we are? | ||
Samuel Titera edited Czech subtitles for What happens when our computers get smarter than we are? | ||
Samuel Titera edited Czech subtitles for What happens when our computers get smarter than we are? | ||
Samuel Titera approved Czech subtitles for What happens when our computers get smarter than we are? | ||
Soňa Baštincová accepted Czech subtitles for What happens when our computers get smarter than we are? | ||
Soňa Baštincová edited Czech subtitles for What happens when our computers get smarter than we are? | ||
Soňa Baštincová edited Czech subtitles for What happens when our computers get smarter than we are? | ||
Soňa Baštincová edited Czech subtitles for What happens when our computers get smarter than we are? |