Return to Video

我们能阻止世界末日吗?

  • 0:00 - 0:03
    十年前,我写了一本
  • 0:03 - 0:06
    名为《我们的末世纪?》的书,
    书名以问号结尾
  • 0:06 - 0:09
    但出版商把问号删掉了.(笑声)
  • 0:09 - 0:11
    这位美国出版商把书名改成了
  • 0:11 - 0:15
    《我们的最后时刻》
  • 0:15 - 0:19
    美国人喜欢即时行乐然后再反其道而行。
  • 0:19 - 0:20
    (笑声)
  • 0:20 - 0:22
    我当时的主题是这样的:
  • 0:22 - 0:26
    我们的地球已经存在了
    四千五百万个世纪了,
  • 0:26 - 0:28
    但是这个世纪是最特别的——
  • 0:28 - 0:31
    第一次有一个物种,
    也就是我们人类,
  • 0:31 - 0:34
    掌控着这个星球的未来。
  • 0:34 - 0:36
    在几乎所有的地球历史中,
  • 0:36 - 0:38
    威胁都是来自大自然——
  • 0:38 - 0:42
    疾病、地震以及小行星等等——
  • 0:42 - 0:47
    但是从现在起,最大的危险
    来自我们人类。
  • 0:47 - 0:50
    现在我们所面临的
    不仅仅是核威胁;
  • 0:50 - 0:52
    在我们这个相互联系的世界,
  • 0:52 - 0:55
    网络故障可以波及全球;
  • 0:55 - 0:59
    航空旅行可以将流行病
    在几天内传播到全世界;
  • 0:59 - 1:03
    并且可以毫不夸张地说
  • 1:03 - 1:06
    社交媒体传播恐慌和谣言
    如光速一般。
  • 1:06 - 1:09
    我们对那些不起眼的危害
    担心得太多了——
  • 1:09 - 1:13
    未必会发生的空难、
    食品中的致癌物、
  • 1:13 - 1:15
    低剂量的辐射,等等——
  • 1:15 - 1:18
    但是我们和我们的政治领袖们
  • 1:20 - 1:22
    却不肯接受灾难性的场景
    发生的可能性。
  • 1:22 - 1:25
    谢天谢地最糟糕的情况
    还没有发生。
  • 1:25 - 1:28
    的确,它们很有可能不会发生。
  • 1:28 - 1:31
    但是哪怕只有一个事件是
    具有潜在的毁灭性的,
  • 1:31 - 1:34
    那么就值得投入大量的费用
  • 1:34 - 1:38
    去预防它,即使它不大可能发生,
  • 1:38 - 1:42
    正如我们为我们的房子
    购买火灾险一样。
  • 1:42 - 1:47
    随着科学提供了
    更大的能力和希望,
  • 1:47 - 1:51
    它的负面影响也会变得更加可怕。
  • 1:51 - 1:53
    我们变得更加脆弱。
  • 1:53 - 1:55
    数十年之内,
  • 1:55 - 1:57
    能够滥用快速发展的生物技术的人
  • 1:57 - 2:00
    将达到数百万,
  • 2:00 - 2:04
    就像今天滥用网络技术的人一样。
  • 2:04 - 2:07
    弗里曼·戴森在一次TED演讲中预言,
  • 2:07 - 2:11
    孩子们将会设计和创造新的生物体,
  • 2:11 - 2:15
    而这就像他们那一代人
    玩化学装置一样常见。
  • 2:15 - 2:18
    当然,这可能有点像
    科幻小说的场景,
  • 2:18 - 2:21
    但即使只是这个设想中的一部分
    变成现实,
  • 2:21 - 2:24
    我们的生态系统和我们人类自身
  • 2:24 - 2:28
    都必定将无法安然无恙地长久生存。
  • 2:28 - 2:31
    例如,一些生态极端主义者认为
  • 2:31 - 2:34
    人类的数量越少,
  • 2:34 - 2:37
    对这颗星球,
    对我们生活的地球越好。
  • 2:37 - 2:40
    当这样的人掌握了
  • 2:40 - 2:42
    那些将会在2050年可能被普遍推广的
    合成生物技术后
  • 2:42 - 2:45
    将会发生什么样的事情呢?
  • 2:45 - 2:48
    到那时,其他科幻小说中的噩梦
  • 2:48 - 2:50
    就可能变为现实:
  • 2:50 - 2:52
    愚蠢的机器人会像流氓一样,
  • 2:52 - 2:54
    或者一个网络会进化出自己的意识
  • 2:54 - 2:57
    从而威胁到我们所有人。
  • 2:57 - 3:00
    我们能通过监管来预防这些风险吗?
  • 3:00 - 3:03
    无论如何我们得试一试,
    但是这些企业
  • 3:03 - 3:06
    是如此的求胜心切,
    如此的全球化,
  • 3:06 - 3:08
    如此的受商业压力的驱动,
  • 3:08 - 3:11
    所以他们将会不顾一切
    以达成他们的目的,
  • 3:11 - 3:13
    而不管法规是如何规定的。
  • 3:13 - 3:17
    就像毒品法——我们试着去约束,
    但收效甚微。
  • 3:17 - 3:20
    地球村里总会有些愚昧的村民,
  • 3:20 - 3:23
    并且他们的所作所为的影响
    会波及全球。
  • 3:23 - 3:26
    所以就像我在书中所说,
  • 3:26 - 3:29
    这个世纪我们不会过得一帆风顺。
  • 3:29 - 3:32
    我们的社会可能会遭遇挫折——
  • 3:32 - 3:36
    甚至,有50%的可能
    会遭遇一个严重的挫折。
  • 3:36 - 3:39
    但是可能还会有更糟糕的
  • 3:39 - 3:41
    事件发生吗,
  • 3:41 - 3:45
    那种可以消灭掉所有生命的事件?
  • 3:45 - 3:48
    当一台新的粒子加速器联机以后,
  • 3:48 - 3:49
    一些人不安地问道,
  • 3:49 - 3:52
    它能毁灭地球吗?或者,
  • 3:52 - 3:54
    撕破空间的构造?
  • 3:54 - 3:58
    幸运的是,至少这点我们
    还是能保证不会发生的。
  • 3:58 - 4:00
    我和其他人指出,大自然
  • 4:00 - 4:02
    通过宇宙射线碰撞,
  • 4:02 - 4:04
    已经做过亿万次
  • 4:04 - 4:06
    同样的实验了。
  • 4:06 - 4:09
    但是科学家们无疑需要
  • 4:09 - 4:11
    对于那些会产生自然界中没有先例的状况
  • 4:11 - 4:14
    的实验保持警惕。
  • 4:14 - 4:17
    生物学家应当避免释放那些具有潜在毁灭性
  • 4:17 - 4:20
    的转基因病原体。
  • 4:20 - 4:24
    顺便提一下,我们之所以
  • 4:24 - 4:27
    对于真实存在的灾难所带来的风险
    尤其反感
  • 4:27 - 4:30
    是取决于一个哲学和伦理问题,
  • 4:30 - 4:32
    这就是:
  • 4:32 - 4:34
    考虑一下两个场景。
  • 4:34 - 4:40
    场景A,90%的人类会被消灭。
  • 4:40 - 4:43
    场景B,所有人类都会被消灭。
  • 4:43 - 4:46
    那么场景B比场景A糟糕多少?
  • 4:46 - 4:49
    有人可能会说糟糕10%。
  • 4:49 - 4:53
    因为死亡人数要多全人类的10%。
  • 4:53 - 4:55
    但我认为场景B是无比的糟糕。
  • 4:55 - 4:58
    作为一个天文学家,我不能相信
  • 4:58 - 5:01
    人类是这个故事的结局。
  • 5:01 - 5:04
    宇宙诞生在太阳燃烧起来的
    五十亿前年
  • 5:04 - 5:07
    并且会永远持续下去,
  • 5:07 - 5:09
    因此后人类时代的进化
  • 5:09 - 5:11
    不管是在地球
    还是其它遥远的地方,
  • 5:11 - 5:14
    都可能会像达尔文进化论
    所提出的一样旷日持久,
  • 5:14 - 5:17
    并且甚至会更奇妙。
  • 5:17 - 5:20
    而事实上,未来的进化会发生得更快,
  • 5:20 - 5:22
    会在一个科技的时间尺度内,
  • 5:22 - 5:24
    而不是在自然选择的时间尺度内。
  • 5:24 - 5:28
    所以无疑地,考虑到这些巨大的风险,
  • 5:28 - 5:32
    我们不应该承受哪怕是十亿分之一的
  • 5:32 - 5:34
    导致人类灭绝的风险,
    这样才有可能阻止
  • 5:34 - 5:36
    这些巨大的潜在性。
  • 5:36 - 5:38
    有些设想中的场景
  • 5:38 - 5:40
    可能的确只是在科幻小说中才会出现,
  • 5:40 - 5:43
    但其它的情节则可能变成
    令人担忧的现实。
  • 5:43 - 5:46
    有一个值得一提的格言是
  • 5:46 - 5:49
    不常见并不等于不可能发生,
  • 5:49 - 5:51
    事实上,我们在剑桥大学
  • 5:51 - 5:55
    建立的一个如何去减轻
  • 5:55 - 5:57
    这些真实存在的风险的研究中心
    也是出于同样的考虑。
  • 5:57 - 6:00
    这一切看起来似乎只值得少数人花时间
  • 6:00 - 6:02
    去估量这些潜在的灾难。
  • 6:02 - 6:05
    但是我们需要尽可能地
    从其他人身上获得帮助,
  • 6:05 - 6:08
    因为我们是茫茫宇宙中这颗
  • 6:08 - 6:11
    珍贵的淡蓝色圆点的管理员,
  • 6:11 - 6:14
    这是一颗走过了5亿个世纪的星球。
  • 6:14 - 6:17
    因此让我们别再危害未来。
  • 6:17 - 6:19
    我想引用一个
    名叫彼得·梅达沃的伟大科学家的话
  • 6:19 - 6:22
    来结束今天的演讲。
  • 6:22 - 6:26
    我引用的这句话是:
    为人类而敲响的钟声
  • 6:26 - 6:28
    就像高山上的牛的钟声一样。
  • 6:28 - 6:30
    它们系在我们的脖子上,
  • 6:30 - 6:33
    如果它们不能发出和谐悦耳的声音,
  • 6:33 - 6:35
    那么一定是我们的错。“
  • 6:35 - 6:38
    非常感谢。
  • 6:38 - 6:40
    (掌声)
Title:
我们能阻止世界末日吗?
Speaker:
马丁·里斯爵士
Description:

末日后的地球,荒无人烟,这好像是科幻电视和电影中出现的场景。但是在这个简短、令人惊讶的演讲中,马丁·里斯爵士要求我们去思考一下,真实存在的风险——那些可以消灭人类的,自然和人为的威胁。作为人类中的有关成员,他问道:“可能发生的最糟糕的事情是什么?”

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

Chinese, Simplified subtitles

Revisions