1 00:00:00,760 --> 00:00:04,600 Коли я був малим, я був еталонним "ботаніком". 2 00:00:05,320 --> 00:00:07,496 Думаю, деякі з вас теж такими були. 3 00:00:07,520 --> 00:00:08,736 (Сміх) 4 00:00:08,760 --> 00:00:11,976 А ви, пане, що сміявся найголосніше, ним, мабуть, і залишились. 5 00:00:12,000 --> 00:00:14,256 (Сміх) 6 00:00:14,280 --> 00:00:17,776 Я ріс у маленькому містечку на запиленій рівнині північного Техасу, 7 00:00:17,800 --> 00:00:21,136 син шерифа, який був сином пастора. 8 00:00:21,160 --> 00:00:23,080 Вскочити в якусь халепу було не варіант. 9 00:00:24,040 --> 00:00:27,296 І тому заради розваги я почав читати книжки з обчислення. 10 00:00:27,320 --> 00:00:28,856 (Сміх) 11 00:00:28,880 --> 00:00:30,576 Ви також це робили? 12 00:00:30,600 --> 00:00:34,336 Це призвело до того, що я зробив лазер, і комп'ютер, і модель ракети, 13 00:00:34,360 --> 00:00:37,360 і це призвело до того, що я зробив ракетне паливо в спальні. 14 00:00:37,960 --> 00:00:41,616 Науковою мовою 15 00:00:41,640 --> 00:00:44,896 ми називаємо це дуже поганою ідеєю. 16 00:00:44,920 --> 00:00:46,136 (Сміх) 17 00:00:46,160 --> 00:00:48,336 Приблизно в той самий час 18 00:00:48,360 --> 00:00:51,576 "2001: Космічна Одісея" Стенлі Кубрика з'явилась в кінотеатрах, 19 00:00:51,600 --> 00:00:53,800 і моє життя назавжди змінилось. 20 00:00:54,280 --> 00:00:56,336 Мені все подобалось у тому фільмі, 21 00:00:56,360 --> 00:00:58,896 особливо ХАЛ 9000. 22 00:00:58,920 --> 00:01:00,976 ХАЛ був кмітливим комп'ютером, 23 00:01:01,000 --> 00:01:03,526 призаченим направляти космічний корабель Дискавері 24 00:01:03,526 --> 00:01:06,016 з Землі на Юпітер. 25 00:01:06,040 --> 00:01:08,096 ХАЛ також був персонажем з недоліками, 26 00:01:08,120 --> 00:01:12,400 бо врешті вирішив, що місія важливіша за людське життя. 27 00:01:12,840 --> 00:01:14,936 ХАЛ був вигаданим персонажем, 28 00:01:14,960 --> 00:01:17,616 проте він говорить з нашими страхами, 29 00:01:17,640 --> 00:01:19,736 зі страхом бути підкореним 30 00:01:19,760 --> 00:01:22,776 позбавленим почуттів штучним інтелектом, 31 00:01:22,800 --> 00:01:24,760 що є байдужим до людства. 32 00:01:25,880 --> 00:01:28,456 Я вважаю, що такі страхи безпідставні. 33 00:01:28,480 --> 00:01:31,176 Насправді ми живемо в неймовірний час 34 00:01:31,200 --> 00:01:32,736 людської історії, 35 00:01:32,760 --> 00:01:37,736 де, відмовляючись визнати обмеження свого тіла і розуму, 36 00:01:37,760 --> 00:01:39,456 ми будуємо машини 37 00:01:39,480 --> 00:01:43,096 фантастичної, немислимої складності та величі, 38 00:01:43,120 --> 00:01:45,176 які розширять досвід людини так, 39 00:01:45,200 --> 00:01:46,880 що зараз і не уявити. 40 00:01:47,480 --> 00:01:50,296 Після кар'єри, яка привела мене з Академії повітряних сил 41 00:01:50,320 --> 00:01:52,256 до Космічного командування, 42 00:01:52,280 --> 00:01:54,026 я обійняв посаду системного інженера 43 00:01:54,026 --> 00:01:56,736 і нещодавно мене залучили до інженерної проблеми, 44 00:01:56,760 --> 00:01:59,336 пов'язаною з місією на Марс НАСА. 45 00:01:59,360 --> 00:02:01,856 Під час польотів на Місяць 46 00:02:01,880 --> 00:02:05,000 ми можемо покладатись на керування місією в Хьюстоні, 47 00:02:05,000 --> 00:02:07,206 що спостерігатиме за всіма особливостями польоту. 48 00:02:07,206 --> 00:02:10,576 Однак Марс у 200 разів віддаленіший, 49 00:02:10,600 --> 00:02:13,816 і тому потрібно в середньому 13 хвилин, 50 00:02:13,840 --> 00:02:16,976 щоб сигнал подолав відстань від Землі до Марсу. 51 00:02:17,000 --> 00:02:20,400 Якщо виникне проблема, часу забракне. 52 00:02:20,840 --> 00:02:23,336 І тому розумним інженерним рішенням 53 00:02:23,360 --> 00:02:25,936 є розмістити контроль над місією 54 00:02:25,960 --> 00:02:28,976 всередині космічного корабля Оріон. 55 00:02:29,000 --> 00:02:31,896 Ще одна чудова ідея в організації місії - 56 00:02:31,920 --> 00:02:34,816 помістити робота-гуманоїда на поверхню Марсу 57 00:02:34,840 --> 00:02:36,696 перед тим, як туди прибуде людина, - 58 00:02:36,720 --> 00:02:38,376 спочатку побудувати споруди, 59 00:02:38,400 --> 00:02:41,760 а згодом служити одним із членів наукової команди. 60 00:02:43,400 --> 00:02:46,136 Коли я подивився на це з точки зору інженерії, 61 00:02:46,160 --> 00:02:49,336 мені стало зрозуміло, що мені потрібно створити 62 00:02:49,360 --> 00:02:51,536 розумний, здатний до співпраці, 63 00:02:51,560 --> 00:02:53,936 соціально розумний штучний інтелект. 64 00:02:53,960 --> 00:02:58,256 Іншими словами, мені потрібно побудувати щось дуже схоже на ХАЛа, 65 00:02:58,280 --> 00:03:00,696 але без схильності до вбивств. 66 00:03:00,720 --> 00:03:02,080 (Сміх) 67 00:03:02,920 --> 00:03:04,736 Зупинімося на хвилину. 68 00:03:04,760 --> 00:03:08,656 Чи можливо ось так просто створити штучний інтелект? 69 00:03:08,680 --> 00:03:10,136 Власне, так. 70 00:03:10,160 --> 00:03:11,416 З багатьох міркувань 71 00:03:11,440 --> 00:03:13,416 це складне інженерне завдання 72 00:03:13,440 --> 00:03:14,976 стосовно штучного інтелекту, 73 00:03:14,976 --> 00:03:19,616 не якась скажена кулька, що має бути спроектована. 74 00:03:19,640 --> 00:03:22,296 Якщо перефразувати Алана Тюрінґа, 75 00:03:22,320 --> 00:03:24,696 я не зацікавлений в будуванні кмітливої машини. 76 00:03:24,720 --> 00:03:26,296 Я не будую ХАЛА. 77 00:03:26,320 --> 00:03:28,736 Все, що я хочу, - простий мозок, 78 00:03:28,760 --> 00:03:31,880 що може створювати відчуття інтелекту. 79 00:03:33,000 --> 00:03:35,900 Мистецтво і наука програмування пройшли довгий шлях 80 00:03:35,900 --> 00:03:37,746 з того часу, як ХАЛ з'явився на екрані 81 00:03:37,746 --> 00:03:41,136 і я можу уявити, якщо б його винахідник доктор Чандра був тут сьогодні, 82 00:03:41,136 --> 00:03:43,256 скільки він мав би до нас питань. 83 00:03:43,280 --> 00:03:45,376 Чи дійсно ми можемо 84 00:03:45,400 --> 00:03:49,416 змусити мільйони і мільйони приладів 85 00:03:49,440 --> 00:03:50,896 зчитувати потоки даних, 86 00:03:50,920 --> 00:03:53,306 передбачувати власні помилки і діяти заздалегідь? 87 00:03:53,306 --> 00:03:54,416 Так. 88 00:03:54,440 --> 00:03:57,616 Чи вміємо ми будувати системи, які спілкуються природною мовою? 89 00:03:57,640 --> 00:03:58,570 Так. 90 00:03:58,570 --> 00:04:01,856 Чи ми вміємо будувати системи, які розрізняють об'єкти, емоції, 91 00:04:01,880 --> 00:04:05,256 відчувають емоції самі, грають в ігри чи навіть читають по губах? 92 00:04:05,280 --> 00:04:06,410 Так. 93 00:04:06,410 --> 00:04:09,176 Чи можемо збудувати систему, яка ставить перед собою цілі, 94 00:04:09,176 --> 00:04:12,296 яка будує плани відносно цих цілей і навчається одночасно? 95 00:04:12,320 --> 00:04:13,536 Так. 96 00:04:13,560 --> 00:04:16,896 Чи вміємо будувати системи, що моделюють психіку людини? 97 00:04:16,920 --> 00:04:18,416 Ми вчимося це робити. 98 00:04:18,440 --> 00:04:21,920 Чи вміємо будувати системи, які мають етичні та моральні засади? 99 00:04:22,480 --> 00:04:24,520 Ми маємо цього навчитись. 100 00:04:25,360 --> 00:04:26,736 Тож припустімо на мить, 101 00:04:26,760 --> 00:04:29,656 що можна побудувати штучний інтелект 102 00:04:29,680 --> 00:04:31,816 для цього типу місії та подібних. 103 00:04:31,840 --> 00:04:34,376 Наступне питання, яке ви маєте поставити: 104 00:04:34,400 --> 00:04:35,856 чи слід його боятися? 105 00:04:35,880 --> 00:04:37,856 Кожна нова технологія 106 00:04:37,880 --> 00:04:40,776 тягне за собою певне занепокоєння. 107 00:04:40,800 --> 00:04:42,496 Коли ми вперше побачили авто, 108 00:04:42,520 --> 00:04:46,536 люди галасували, що з цього почнеться руйнування сім'ї. 109 00:04:46,560 --> 00:04:49,256 Коли ми вперше побачили телефони, 110 00:04:49,280 --> 00:04:52,366 люди були стурбовані, що вони зруйнують всі повсякденні розмови. 111 00:04:52,366 --> 00:04:56,136 Коли ми побачили, що письмове слово стало поширеним, 112 00:04:56,160 --> 00:04:58,656 люди думали, що ми втратимо вміння запам'ятовувати. 113 00:04:58,680 --> 00:05:00,736 Усі ці речі до певної міри правдиві, 114 00:05:00,760 --> 00:05:03,176 але водночас ці технології 115 00:05:03,200 --> 00:05:06,576 принесли нам винаходи, які якісно поглибили людський досвід - 116 00:05:06,600 --> 00:05:08,480 до нового рівня. 117 00:05:09,840 --> 00:05:12,120 Тому міркуймо далі. 118 00:05:13,120 --> 00:05:17,856 Я не боюсь створення подібного штучного інтелекту, 119 00:05:17,880 --> 00:05:21,696 оскільки, зрештою, він вбере в себе деякі наші цінності. 120 00:05:21,720 --> 00:05:25,216 Задумайтесь: побудова когнітивної системи фундаментально відрізняється 121 00:05:25,240 --> 00:05:28,536 від побудови традиційного програмного забезпечення минулого. 122 00:05:28,560 --> 00:05:31,016 Ми не програмуємо їх. Ми їх вчимо. 123 00:05:31,040 --> 00:05:33,696 Щоб навчити систему розпізнавати квіти, 124 00:05:33,720 --> 00:05:36,736 я показую їй тисячу квітів, які мені подобаються. 125 00:05:36,760 --> 00:05:39,016 Щоб навчити систему грати у гру -- 126 00:05:39,040 --> 00:05:41,000 Ну, я б показував. Ви б теж. 127 00:05:42,600 --> 00:05:44,640 Я люблю квіти. Ну справді. 128 00:05:45,440 --> 00:05:48,296 Щоб навчити систему, як грати у гру - наприклад, го - 129 00:05:48,320 --> 00:05:50,376 мені б довелося зіграти тисячі партій в го, 130 00:05:50,400 --> 00:05:52,056 але в процесі я також навчаю її, 131 00:05:52,080 --> 00:05:54,496 як відрізнити хорошу партію від поганої. 132 00:05:54,520 --> 00:05:58,216 Якщо я хочу створити штучний інтелект, який допомагає в правових питаннях, 133 00:05:58,240 --> 00:06:00,016 мені потрібно навчити його законам, 134 00:06:00,040 --> 00:06:02,896 але водночас я вливаю туди 135 00:06:02,920 --> 00:06:05,800 почуття милосердя і справедливості, що є частиною закону. 136 00:06:06,560 --> 00:06:09,536 Науковці називають це фундаментальною правдою, 137 00:06:09,560 --> 00:06:11,576 і тут є важливий момент: 138 00:06:11,600 --> 00:06:13,056 створюючи ці машини, 139 00:06:13,080 --> 00:06:16,496 ми водночас вчимо їх нашим цінностям. 140 00:06:16,520 --> 00:06:19,656 І через це я довіряю штучному інтелекту 141 00:06:19,680 --> 00:06:23,320 так само, якщо не більше, ніж добре навченій людині. 142 00:06:24,080 --> 00:06:25,296 Але ви можете запитати, 143 00:06:25,320 --> 00:06:27,936 а що ж щодо шахраїв, 144 00:06:27,960 --> 00:06:31,296 якихось добре фінансованих неурядових організацій? 145 00:06:31,320 --> 00:06:35,136 Я не боюсь штучного інтелекту в руках самотнього вовка. 146 00:06:35,160 --> 00:06:39,696 Зрозуміло, ми не можемо захистити себе від всіх актів насильства, 147 00:06:39,720 --> 00:06:41,856 але реальність є такою системою, 148 00:06:41,880 --> 00:06:44,976 яка вимагає суттєвої підготовки і тонкого навчання, 149 00:06:45,000 --> 00:06:47,296 для яких окремій людині забракне ресурсів. 150 00:06:47,320 --> 00:06:48,536 І більше того, 151 00:06:48,560 --> 00:06:51,816 це набагато складніше, ніж просто пустити інтернет-вірус у світ, 152 00:06:51,840 --> 00:06:54,936 де ти натискаєш кнопку - і ось він у мільйоні місць, 153 00:06:54,960 --> 00:06:57,416 і ноутбуки починають вибухати усюди. 154 00:06:57,440 --> 00:07:00,256 Але такі події є значно масштабнішими, 155 00:07:00,280 --> 00:07:02,195 і ми обов'язково зможемо їх помітити. 156 00:07:02,520 --> 00:07:05,576 Чи я боюсь, що такий штучний інтелект 157 00:07:05,600 --> 00:07:07,560 може загрожувати всьому людству? 158 00:07:08,280 --> 00:07:12,656 Якщо ви подивитесь такі фільми, як "Матриця", "Метрополіс", 159 00:07:12,680 --> 00:07:15,856 "Термінатор", серіал "Західний світ", 160 00:07:15,880 --> 00:07:18,016 вони всі розповідають про такий страх. 161 00:07:18,040 --> 00:07:22,166 Насправді, у своїй книжці "Суперрозум" філософ Нік Бостром 162 00:07:22,216 --> 00:07:23,896 порушує цю тему 163 00:07:23,920 --> 00:07:27,936 і стверджує, що суперрозум може не тільки бути небезпечним, 164 00:07:27,960 --> 00:07:31,816 він може становити екзистенційну загрозу людству. 165 00:07:31,840 --> 00:07:34,056 Головним аргументом доктора Бострома 166 00:07:34,080 --> 00:07:36,816 є те, що така система одного разу 167 00:07:36,840 --> 00:07:40,096 матиме таку ненаситну спрагу до інформації, 168 00:07:40,120 --> 00:07:43,016 що вона, можливо, навчиться вчитися - 169 00:07:43,040 --> 00:07:45,656 і врешті зрозуміє, що вона може ставити цілі, 170 00:07:45,680 --> 00:07:47,976 які суперечать потребам людства. 171 00:07:48,000 --> 00:07:49,856 У доктора Бострома є багато прихильників. 172 00:07:49,880 --> 00:07:54,200 Його підтримують такі люди, як Ілон Маск і Стівен Гокінґ. 173 00:07:54,880 --> 00:07:57,280 З усією повагою 174 00:07:58,160 --> 00:08:00,176 до цих блискучих розумів, 175 00:08:00,200 --> 00:08:02,320 я думаю, що вони серйозно помиляються. 176 00:08:02,320 --> 00:08:05,656 Є багато аргументів доктора Бострома, що варто обговорити, 177 00:08:05,680 --> 00:08:07,816 і в мене немає часу розглядати їх усі, 178 00:08:07,840 --> 00:08:10,536 але дуже стисло: 179 00:08:10,560 --> 00:08:14,296 неймовірне знання дуже відрізняється від неймовірних дій. 180 00:08:14,320 --> 00:08:16,216 ХАЛ був загрозою для команди Дискавері, 181 00:08:16,240 --> 00:08:20,656 оскільки ХАЛ керував усіма аспектами Дискавері. 182 00:08:20,680 --> 00:08:23,176 Тому йому потрібно було мати суперрозум. 183 00:08:23,200 --> 00:08:25,696 Йому довелось би панувати в усьому світі. 184 00:08:25,720 --> 00:08:28,536 Це випадок Скайнет з фільму "Термінатор", 185 00:08:28,560 --> 00:08:30,416 в якому був суперрозум, 186 00:08:30,440 --> 00:08:31,936 який контролював людську волю, 187 00:08:31,936 --> 00:08:35,696 направляв кожен пристрій в будь-якому куточку світу. 188 00:08:35,720 --> 00:08:37,176 З практичної точки зору, 189 00:08:37,200 --> 00:08:39,296 цього ніколи не станеться. 190 00:08:39,320 --> 00:08:42,376 Ми не будуємо штучних інтелектів, які контролюють погоду, 191 00:08:42,400 --> 00:08:43,736 які направляють хвилі, 192 00:08:43,760 --> 00:08:47,136 які командують нами - примхливими, хаотичними людьми. 193 00:08:47,160 --> 00:08:51,056 І більше того, якщо б такий штучний інтелект справді існував, 194 00:08:51,080 --> 00:08:54,016 йому б доводилось конкурувати з людською економікою, 195 00:08:54,040 --> 00:08:56,560 а значить, конкурувати з нами за ресурси. 196 00:08:57,200 --> 00:08:58,416 І зрештою - 197 00:08:58,440 --> 00:08:59,680 не кажіть Сірі цього - 198 00:08:59,930 --> 00:09:01,816 ми завжди можемо їх вимкнути. 199 00:09:01,840 --> 00:09:03,960 (Сміх) 200 00:09:05,360 --> 00:09:07,816 Ми в неймовірній подорожі 201 00:09:07,840 --> 00:09:10,336 співеволюції з нашими машинами. 202 00:09:10,360 --> 00:09:12,856 Люди, якими ми є сьогодні, 203 00:09:12,880 --> 00:09:15,416 відрізняються від людей, якими ми станемо завтра. 204 00:09:15,440 --> 00:09:18,576 Хвилюватися тепер про розвиток суперрозуму - 205 00:09:18,600 --> 00:09:21,656 досить небезпечне відволікання, 206 00:09:21,680 --> 00:09:24,016 бо розвиток комп'ютерів як такий 207 00:09:24,040 --> 00:09:27,056 порушує багато гуманітарних і суспільних проблем, 208 00:09:27,080 --> 00:09:28,720 на які нам треба звернути увагу. 209 00:09:29,360 --> 00:09:31,970 Як краще організувати суспільство, 210 00:09:31,970 --> 00:09:34,536 коли потреба в людській праці зменшується? 211 00:09:34,560 --> 00:09:38,376 Як донести порозуміння й освіту до всіх куточків планети 212 00:09:38,400 --> 00:09:40,226 і поважати при цьому наші відмінності? 213 00:09:40,226 --> 00:09:44,456 Як поліпшити і продовжити людське життя за допомогою охорони когнітивного здоров'я? 214 00:09:44,480 --> 00:09:47,336 Як використати комп'ютери, 215 00:09:47,360 --> 00:09:49,120 щоб привели нас до зірок? 216 00:09:49,760 --> 00:09:51,800 Ось що цікаво. 217 00:09:52,400 --> 00:09:54,736 Можливості використати обчислювання 218 00:09:54,760 --> 00:09:56,296 для поліпшення людського досвіду 219 00:09:56,320 --> 00:09:57,736 доступні нам 220 00:09:57,760 --> 00:09:59,616 тут і тепер, 221 00:09:59,640 --> 00:10:01,320 і це тільки початок. 222 00:10:02,280 --> 00:10:03,496 Дуже дякую. 223 00:10:03,520 --> 00:10:07,806 (Оплески)