0:00:00.485,0:00:02.707 十年前,我写了一本 0:00:02.707,0:00:05.800 名为《我们的末世纪?》的书,[br]书名以问号结尾 0:00:05.800,0:00:09.377 但出版商把问号删掉了.(笑声) 0:00:09.377,0:00:11.259 这位美国出版商把书名改成了 0:00:11.259,0:00:15.168 《我们的最后时刻》 0:00:15.168,0:00:18.660 美国人喜欢即时行乐然后再反其道而行。 0:00:18.660,0:00:20.368 (笑声) 0:00:20.368,0:00:22.118 我当时的主题是这样的: 0:00:22.118,0:00:26.284 我们的地球已经存在了[br]四千五百万个世纪了, 0:00:26.284,0:00:28.297 但是这个世纪是最特别的—— 0:00:28.297,0:00:31.313 第一次有一个物种,[br]也就是我们人类, 0:00:31.313,0:00:34.115 掌控着这个星球的未来。 0:00:34.115,0:00:36.105 在几乎所有的地球历史中, 0:00:36.105,0:00:38.041 威胁都是来自大自然—— 0:00:38.041,0:00:41.537 疾病、地震以及小行星等等—— 0:00:41.537,0:00:47.209 但是从现在起,最大的危险[br]来自我们人类。 0:00:47.209,0:00:50.480 现在我们所面临的[br]不仅仅是核威胁; 0:00:50.480,0:00:52.231 在我们这个相互联系的世界, 0:00:52.231,0:00:55.394 网络故障可以波及全球; 0:00:55.394,0:00:59.350 航空旅行可以将流行病[br]在几天内传播到全世界; 0:00:59.350,0:01:02.677 并且可以毫不夸张地说 0:01:02.677,0:01:05.894 社交媒体传播恐慌和谣言[br]如光速一般。 0:01:05.894,0:01:09.119 我们对那些不起眼的危害[br]担心得太多了—— 0:01:09.119,0:01:13.150 未必会发生的空难、[br]食品中的致癌物、 0:01:13.150,0:01:15.376 低剂量的辐射,等等—— 0:01:15.376,0:01:17.718 但是我们和我们的政治领袖们 0:01:20.060,0:01:22.404 却不肯接受灾难性的场景[br]发生的可能性。 0:01:22.404,0:01:25.442 谢天谢地最糟糕的情况[br]还没有发生。 0:01:25.442,0:01:27.638 的确,它们很有可能不会发生。 0:01:27.638,0:01:30.823 但是哪怕只有一个事件是[br]具有潜在的毁灭性的, 0:01:30.823,0:01:33.691 那么就值得投入大量的费用 0:01:33.691,0:01:37.527 去预防它,即使它不大可能发生, 0:01:37.527,0:01:42.040 正如我们为我们的房子[br]购买火灾险一样。 0:01:42.040,0:01:47.037 随着科学提供了[br]更大的能力和希望, 0:01:47.037,0:01:50.903 它的负面影响也会变得更加可怕。 0:01:50.903,0:01:53.142 我们变得更加脆弱。 0:01:53.142,0:01:54.980 数十年之内, 0:01:54.980,0:01:57.210 能够滥用快速发展的生物技术的人 0:01:57.210,0:02:00.331 将达到数百万, 0:02:00.331,0:02:03.884 就像今天滥用网络技术的人一样。 0:02:03.884,0:02:07.083 弗里曼·戴森在一次TED演讲中预言, 0:02:07.083,0:02:10.679 孩子们将会设计和创造新的生物体, 0:02:10.679,0:02:15.190 而这就像他们那一代人[br]玩化学装置一样常见。 0:02:15.190,0:02:17.718 当然,这可能有点像[br]科幻小说的场景, 0:02:17.718,0:02:20.901 但即使只是这个设想中的一部分[br]变成现实, 0:02:20.901,0:02:23.638 我们的生态系统和我们人类自身 0:02:23.638,0:02:27.627 都必定将无法安然无恙地长久生存。 0:02:27.627,0:02:31.490 例如,一些生态极端主义者认为 0:02:31.490,0:02:33.999 人类的数量越少, 0:02:33.999,0:02:37.402 对这颗星球,[br]对我们生活的地球越好。 0:02:37.402,0:02:40.119 当这样的人掌握了 0:02:40.119,0:02:42.256 那些将会在2050年可能被普遍推广的[br]合成生物技术后 0:02:42.256,0:02:45.108 将会发生什么样的事情呢? 0:02:45.108,0:02:48.150 到那时,其他科幻小说中的噩梦 0:02:48.150,0:02:49.860 就可能变为现实: 0:02:49.860,0:02:51.930 愚蠢的机器人会像流氓一样, 0:02:51.930,0:02:54.347 或者一个网络会进化出自己的意识 0:02:54.347,0:02:56.936 从而威胁到我们所有人。 0:02:56.936,0:03:00.206 我们能通过监管来预防这些风险吗? 0:03:00.206,0:03:02.613 无论如何我们得试一试,[br]但是这些企业 0:03:02.613,0:03:06.142 是如此的求胜心切,[br]如此的全球化, 0:03:06.142,0:03:08.122 如此的受商业压力的驱动, 0:03:08.122,0:03:11.407 所以他们将会不顾一切[br]以达成他们的目的, 0:03:11.407,0:03:13.443 而不管法规是如何规定的。 0:03:13.443,0:03:16.930 就像毒品法——我们试着去约束,[br]但收效甚微。 0:03:16.930,0:03:19.974 地球村里总会有些愚昧的村民, 0:03:19.974,0:03:23.470 并且他们的所作所为的影响[br]会波及全球。 0:03:23.470,0:03:25.761 所以就像我在书中所说, 0:03:25.761,0:03:28.650 这个世纪我们不会过得一帆风顺。 0:03:28.650,0:03:32.140 我们的社会可能会遭遇挫折—— 0:03:32.140,0:03:36.255 甚至,有50%的可能[br]会遭遇一个严重的挫折。 0:03:36.255,0:03:39.169 但是可能还会有更糟糕的 0:03:39.169,0:03:41.330 事件发生吗, 0:03:41.330,0:03:44.760 那种可以消灭掉所有生命的事件? 0:03:44.760,0:03:47.686 当一台新的粒子加速器联机以后, 0:03:47.686,0:03:49.475 一些人不安地问道, 0:03:49.475,0:03:51.725 它能毁灭地球吗?或者, 0:03:51.725,0:03:54.384 撕破空间的构造? 0:03:54.384,0:03:57.927 幸运的是,至少这点我们[br]还是能保证不会发生的。 0:03:57.927,0:03:59.971 我和其他人指出,大自然 0:03:59.971,0:04:01.904 通过宇宙射线碰撞, 0:04:01.904,0:04:04.090 已经做过亿万次 0:04:04.090,0:04:05.855 同样的实验了。 0:04:05.855,0:04:08.909 但是科学家们无疑需要 0:04:08.909,0:04:11.489 对于那些会产生自然界中没有先例的状况 0:04:11.489,0:04:13.972 的实验保持警惕。 0:04:13.972,0:04:17.395 生物学家应当避免释放那些具有潜在毁灭性 0:04:17.395,0:04:20.110 的转基因病原体。 0:04:20.110,0:04:23.627 顺便提一下,我们之所以 0:04:23.627,0:04:27.088 对于真实存在的灾难所带来的风险[br]尤其反感 0:04:27.088,0:04:30.363 是取决于一个哲学和伦理问题, 0:04:30.363,0:04:32.033 这就是: 0:04:32.033,0:04:34.341 考虑一下两个场景。 0:04:34.341,0:04:39.577 场景A,90%的人类会被消灭。 0:04:39.577,0:04:43.473 场景B,所有人类都会被消灭。 0:04:43.473,0:04:46.391 那么场景B比场景A糟糕多少? 0:04:46.391,0:04:49.414 有人可能会说糟糕10%。 0:04:49.414,0:04:52.564 因为死亡人数要多全人类的10%。 0:04:52.564,0:04:55.470 但我认为场景B是无比的糟糕。 0:04:55.470,0:04:58.099 作为一个天文学家,我不能相信 0:04:58.099,0:05:00.566 人类是这个故事的结局。 0:05:00.566,0:05:03.889 宇宙诞生在太阳燃烧起来的[br]五十亿前年 0:05:03.889,0:05:06.600 并且会永远持续下去, 0:05:06.600,0:05:08.892 因此后人类时代的进化 0:05:08.892,0:05:11.082 不管是在地球[br]还是其它遥远的地方, 0:05:11.082,0:05:13.796 都可能会像达尔文进化论[br]所提出的一样旷日持久, 0:05:13.796,0:05:17.077 并且甚至会更奇妙。 0:05:17.077,0:05:19.741 而事实上,未来的进化会发生得更快, 0:05:19.741,0:05:21.940 会在一个科技的时间尺度内, 0:05:21.940,0:05:24.239 而不是在自然选择的时间尺度内。 0:05:24.239,0:05:28.434 所以无疑地,考虑到这些巨大的风险, 0:05:28.434,0:05:31.820 我们不应该承受哪怕是十亿分之一的 0:05:31.820,0:05:34.049 导致人类灭绝的风险,[br]这样才有可能阻止 0:05:34.049,0:05:36.359 这些巨大的潜在性。 0:05:36.359,0:05:38.131 有些设想中的场景 0:05:38.131,0:05:39.950 可能的确只是在科幻小说中才会出现, 0:05:39.950,0:05:43.336 但其它的情节则可能变成[br]令人担忧的现实。 0:05:43.336,0:05:46.210 有一个值得一提的格言是 0:05:46.210,0:05:48.907 不常见并不等于不可能发生, 0:05:48.907,0:05:51.305 事实上,我们在剑桥大学 0:05:51.305,0:05:54.680 建立的一个如何去减轻 0:05:54.680,0:05:56.712 这些真实存在的风险的研究中心[br]也是出于同样的考虑。 0:05:56.712,0:05:59.775 这一切看起来似乎只值得少数人花时间 0:05:59.775,0:06:02.091 去估量这些潜在的灾难。 0:06:02.091,0:06:05.104 但是我们需要尽可能地[br]从其他人身上获得帮助, 0:06:05.104,0:06:07.583 因为我们是茫茫宇宙中这颗 0:06:07.583,0:06:11.066 珍贵的淡蓝色圆点的管理员, 0:06:11.066,0:06:14.444 这是一颗走过了5亿个世纪的星球。 0:06:14.444,0:06:17.000 因此让我们别再危害未来。 0:06:17.000,0:06:18.795 我想引用一个[br]名叫彼得·梅达沃的伟大科学家的话 0:06:18.795,0:06:22.296 来结束今天的演讲。 0:06:22.296,0:06:25.569 我引用的这句话是:[br]为人类而敲响的钟声 0:06:25.569,0:06:28.213 就像高山上的牛的钟声一样。 0:06:28.213,0:06:30.499 它们系在我们的脖子上, 0:06:30.499,0:06:33.174 如果它们不能发出和谐悦耳的声音, 0:06:33.174,0:06:35.305 那么一定是我们的错。“ 0:06:35.305,0:06:37.572 非常感谢。 0:06:37.572,0:06:39.685 (掌声)