1 00:00:00,485 --> 00:00:02,707 10 лет назад я написал книгу и назвал её 2 00:00:02,707 --> 00:00:05,800 «Наше последнее столетие?» со знаком вопроса. 3 00:00:05,800 --> 00:00:09,377 Мои издатели убрали знак вопроса. (Смех) 4 00:00:09,377 --> 00:00:11,259 Американские издатели поменяли название 5 00:00:11,259 --> 00:00:15,168 на «Наш последний час». 6 00:00:15,168 --> 00:00:18,660 Американцы любят получать всё и сразу. 7 00:00:18,660 --> 00:00:20,368 (Смех) 8 00:00:20,368 --> 00:00:22,118 Моя тема была такова: 9 00:00:22,118 --> 00:00:26,284 Земле около 45 миллионов веков, 10 00:00:26,284 --> 00:00:28,297 но наш век особенный. 11 00:00:28,297 --> 00:00:31,313 Это первое столетие, когда судьба планеты 12 00:00:31,313 --> 00:00:34,115 стала зависеть от одного биологического вида — от нас. 13 00:00:34,115 --> 00:00:36,105 Почти всю историю Земли 14 00:00:36,105 --> 00:00:38,041 угрозы исходили от природы: 15 00:00:38,041 --> 00:00:41,537 болезни, землетрясения, астероиды и т.п. 16 00:00:41,537 --> 00:00:47,209 Но теперь главная опасность исходит от нас. 17 00:00:47,209 --> 00:00:50,480 Сейчас это уже не только ядерная угроза. 18 00:00:50,480 --> 00:00:52,231 В нашем взаимосвязанном мире 19 00:00:52,231 --> 00:00:55,394 сбои в сети могут вызвать цепную реакцию, 20 00:00:55,394 --> 00:00:59,350 авиарейсы могут разнести эпидемии по всему миру за пару дней, 21 00:00:59,350 --> 00:01:02,677 а социальные сети могут посеять панику и слухи 22 00:01:02,677 --> 00:01:05,894 буквально со скоростью света. 23 00:01:05,894 --> 00:01:09,119 Нас слишком волнуют незначительные опасности: 24 00:01:09,119 --> 00:01:13,150 маловероятные авиакатастрофы, канцерогены в пище, 25 00:01:13,150 --> 00:01:15,376 низкие дозы радиации, и т.п. 26 00:01:15,376 --> 00:01:18,201 Но мы и наши политики 27 00:01:18,201 --> 00:01:22,404 не замечаем катастрофических угроз. 28 00:01:22,404 --> 00:01:25,442 Худшее, к счастью, ещё не произошло 29 00:01:25,442 --> 00:01:27,638 и, возможно, не произойдёт. 30 00:01:27,638 --> 00:01:30,823 Но если событие несёт серьёзную потенциальную угрозу, 31 00:01:30,823 --> 00:01:33,691 то стоит приложить максимум усилий, 32 00:01:33,691 --> 00:01:37,527 чтобы предотвратить его, даже если оно маловероятно — 33 00:01:37,527 --> 00:01:42,040 подобно страхованию дома на случай пожара. 34 00:01:42,040 --> 00:01:47,037 Наука предлагает всё большие возможности и перспективы, 35 00:01:47,037 --> 00:01:50,903 но обратная сторона тоже становится всё более пугающей. 36 00:01:50,903 --> 00:01:53,142 Мы становимся всё уязвимее. 37 00:01:53,142 --> 00:01:54,980 Через несколько десятилетий 38 00:01:54,980 --> 00:01:57,210 у миллионов людей появится возможность 39 00:01:57,210 --> 00:02:00,331 злоупотреблять быстроразвивающимися биотехнологиями, 40 00:02:00,331 --> 00:02:03,884 так же как они злоупотребляют кибертехнологиями сегодня. 41 00:02:03,884 --> 00:02:07,083 Фримен Дайсон, выступая на TED, предположил, 42 00:02:07,083 --> 00:02:10,679 что дети будут разрабатывать и создавать новые организмы, 43 00:02:10,679 --> 00:02:15,190 подобно тому, как его поколение играло с химическими наборами. 44 00:02:15,190 --> 00:02:17,718 Ладно, это, может, и из области научной фантастики, 45 00:02:17,718 --> 00:02:20,901 но если хотя бы часть его предположений сбудется, 46 00:02:20,901 --> 00:02:23,638 то наша экология и даже наш вид 47 00:02:23,638 --> 00:02:27,627 недолго просуществуют в благополучии. 48 00:02:27,627 --> 00:02:31,490 К примеру, некоторые эко-экстремисты считают, 49 00:02:31,490 --> 00:02:33,999 что для планеты, для Геи, было бы лучше, 50 00:02:33,999 --> 00:02:37,402 если бы людей было куда меньше. 51 00:02:37,402 --> 00:02:40,119 Что, если такие люди получат контроль 52 00:02:40,119 --> 00:02:42,256 над синтетическими биотехнологиями, 53 00:02:42,256 --> 00:02:45,108 которые будут распространены к 2050 году? 54 00:02:45,108 --> 00:02:48,150 Тогда другие кошмары из научной фантастики 55 00:02:48,150 --> 00:02:49,860 могут стать реальностью: 56 00:02:49,860 --> 00:02:51,930 глупые роботы выйдут из-под контроля 57 00:02:51,930 --> 00:02:54,347 или компьютерная сеть станет разумной 58 00:02:54,347 --> 00:02:56,936 и будет угрожать всем нам. 59 00:02:56,936 --> 00:03:00,206 Можем ли мы предотвратить такие угрозы с помощью контроля? 60 00:03:00,206 --> 00:03:02,613 Мы должны, конечно, попробовать, 61 00:03:02,613 --> 00:03:06,142 но эти процессы настолько сильны, глобальны 62 00:03:06,142 --> 00:03:08,122 и настолько выгодны кому-то, 63 00:03:08,122 --> 00:03:11,407 что то, что может быть сделано, будет сделано где-нибудь, 64 00:03:11,407 --> 00:03:13,443 невзирая ни на какие запреты. 65 00:03:13,443 --> 00:03:16,930 Это похоже на законы о наркотиках, которые зачастую бессильны. 66 00:03:16,930 --> 00:03:19,974 И во всемирной деревне найдутся свои деревенские дурачки, 67 00:03:19,974 --> 00:03:23,470 у которых будет в распоряжении вся планета. 68 00:03:23,470 --> 00:03:25,761 Так что, как я и сказал в своей книге, 69 00:03:25,761 --> 00:03:28,650 в этом веке нам предстоит тернистый путь. 70 00:03:28,650 --> 00:03:32,140 Наше общество может ждать регресс. 71 00:03:32,140 --> 00:03:36,255 Вероятность сильного регресса — 50%. 72 00:03:36,255 --> 00:03:39,169 Но могут ли произойти события, 73 00:03:39,169 --> 00:03:41,330 которые будут ещё хуже, 74 00:03:41,330 --> 00:03:44,760 события, которые уничтожат жизнь вообще? 75 00:03:44,760 --> 00:03:47,686 Когда закончилась работа над новым ускорителем частиц, 76 00:03:47,686 --> 00:03:49,475 некоторые выражали беспокойство: 77 00:03:49,475 --> 00:03:51,725 может ли он уничтожить Землю или, ещё хуже, 78 00:03:51,725 --> 00:03:54,384 разорвать космическую материю? 79 00:03:54,384 --> 00:03:57,927 К счастью, всё не так уж плохо. 80 00:03:57,927 --> 00:03:59,971 Я и другие подметили, что природа 81 00:03:59,971 --> 00:04:01,904 совершала такие эксперименты 82 00:04:01,904 --> 00:04:04,090 уже бесчисленное количество раз, 83 00:04:04,090 --> 00:04:05,855 сталкивая космические лучи. 84 00:04:05,855 --> 00:04:08,909 Но учёным следует быть крайне осторожными 85 00:04:08,909 --> 00:04:11,489 с экспериментами, в ходе которых получается нечто, 86 00:04:11,489 --> 00:04:13,972 чего никогда не было в природе. 87 00:04:13,972 --> 00:04:17,395 Биологам стоит избегать создания потенциально крайне опасных 88 00:04:17,395 --> 00:04:20,110 генетически модифицированных болезнетворных микробов. 89 00:04:20,110 --> 00:04:23,627 Между тем, наше особое неприятие 90 00:04:23,627 --> 00:04:27,088 возможности всемирных катастроф 91 00:04:27,088 --> 00:04:30,363 связано с философским и этическим вопросом. 92 00:04:30,363 --> 00:04:32,033 Его суть в следующем. 93 00:04:32,033 --> 00:04:34,341 Рассмотрим два варианта. 94 00:04:34,341 --> 00:04:39,577 Вариант A: исчезнет 90% человечества. 95 00:04:39,577 --> 00:04:43,473 Вариант Б: исчезнет 100%. 96 00:04:43,473 --> 00:04:46,391 Насколько Б хуже A? 97 00:04:46,391 --> 00:04:49,414 Кто-то скажет, что хуже на 10%. 98 00:04:49,414 --> 00:04:52,564 Число умерших больше на 10%. 99 00:04:52,564 --> 00:04:55,470 Но я убеждён, что Б несравнимо хуже. 100 00:04:55,470 --> 00:04:58,099 Как астроном, я не могу поверить, 101 00:04:58,099 --> 00:05:00,566 что люди, как вид, — это конец истории. 102 00:05:00,566 --> 00:05:03,889 До момента, когда потухнет Солнце, остаётся ещё 5 миллиардов лет, 103 00:05:03,889 --> 00:05:06,600 а Вселенная, возможно, не исчезнет никогда. 104 00:05:06,600 --> 00:05:08,892 Дальнейшая эволюция человека 105 00:05:08,892 --> 00:05:11,082 здесь, на Земле, и далеко за её пределами 106 00:05:11,082 --> 00:05:13,796 могла бы продолжаться так же долго, как и естественный отбор, 107 00:05:13,796 --> 00:05:17,077 в результате которого появились мы, и была бы ещё удивительнее. 108 00:05:17,077 --> 00:05:19,741 И на самом деле, грядущая эволюция будет куда быстрее — 109 00:05:19,741 --> 00:05:21,940 по технологической временной шкале, 110 00:05:21,940 --> 00:05:24,239 а не по шкале естественного отбора. 111 00:05:24,239 --> 00:05:28,434 Так что мы, конечно, видя, что поставлено на карту, 112 00:05:28,434 --> 00:05:31,820 не должны мириться даже с вероятностью один к миллиарду, 113 00:05:31,820 --> 00:05:34,049 что человечество исчезнет, 114 00:05:34,049 --> 00:05:36,359 не раскрыв этот гигантский потенциал. 115 00:05:36,359 --> 00:05:38,131 Некоторые упомянутые сценарии 116 00:05:38,131 --> 00:05:39,950 могут на деле оказаться фантастикой, 117 00:05:39,950 --> 00:05:43,336 но другие могут тревожить нас своей реалистичностью. 118 00:05:43,336 --> 00:05:46,210 Важно помнить, что неизвестное — 119 00:05:46,210 --> 00:05:48,907 не то же самое, что невозможное. 120 00:05:48,907 --> 00:05:51,305 Именно поэтому мы в Кембриджском университете 121 00:05:51,305 --> 00:05:54,680 открываем центр по изучению того, 122 00:05:54,680 --> 00:05:56,712 как уменьшить вероятность таких катастроф. 123 00:05:56,712 --> 00:05:59,775 Кажется, лишь несколько человек готовы размышлять 124 00:05:59,775 --> 00:06:02,091 об этих потенциальных бедствиях, 125 00:06:02,091 --> 00:06:05,104 и нам нужна любая помощь со стороны. 126 00:06:05,104 --> 00:06:07,583 Ведь именно от людей зависит судьба 127 00:06:07,583 --> 00:06:11,066 бесценной бледно-голубой точки посреди огромного космоса — 128 00:06:11,066 --> 00:06:14,444 планеты с будущим в 50 миллионов веков. 129 00:06:14,444 --> 00:06:17,000 Так что давайте не будем рисковать этим будущим. 130 00:06:17,000 --> 00:06:18,795 И мне бы хотелось закончить цитатой 131 00:06:18,795 --> 00:06:22,296 великого учёного Питера Медавара. 132 00:06:22,296 --> 00:06:25,569 Я цитирую: «Колокола, звонящие по человечеству, 133 00:06:25,569 --> 00:06:28,213 похожи на колокольчики для альпийского скота. 134 00:06:28,213 --> 00:06:30,499 Они висят на наших шеях, 135 00:06:30,499 --> 00:06:33,174 и, должно быть, это наша вина, что они не издают 136 00:06:33,174 --> 00:06:35,305 гармоничного и певучего звона». 137 00:06:35,305 --> 00:06:37,572 Большое вам спасибо. 138 00:06:37,572 --> 00:06:39,685 (Аплодисменты)