Return to Video

我哋可以阻止世界末日嗎?

  • 0:00 - 0:03
    十年前,我写了一本书,
  • 0:03 - 0:06
    我将它命名为“我们最后的世纪?”问号。
  • 0:06 - 0:09
    我的出版商把问号删除了。(笑声)
  • 0:09 - 0:11
    美国的出版商将题目改成了
  • 0:11 - 0:15
    “我们的最后时刻”。
  • 0:15 - 0:19
    美国人喜欢即时行乐,
    将事情倒转来看。
  • 0:19 - 0:20
    (笑声)
  • 0:20 - 0:22
    我的主题是这样的:
  • 0:22 - 0:26
    我们的地球已经生存了四千五百万个世纪,
  • 0:26 - 0:28
    但当今世纪是特殊的——
  • 0:28 - 0:31
    这是有史以来第一次,
    有一个物种——我们人类
  • 0:31 - 0:34
    把这个星球的未来掌控于手中。
  • 0:34 - 0:36
    纵观地球历史,
  • 0:36 - 0:38
    威胁都来自于自然——
  • 0:38 - 0:42
    疾病、地震、陨石撞击等等——
  • 0:42 - 0:47
    但是从现在开始,最大的威胁来自于我们自身。
  • 0:47 - 0:50
    并且现在,不仅仅是核威胁;
  • 0:50 - 0:52
    在我们紧密相连的世界,
  • 0:52 - 0:55
    网络故障可以倾泻全球;
  • 0:55 - 0:59
    航空旅行可以将流行病在数天内传播全球;
  • 0:59 - 1:03
    并且社会媒体可以四散恐惧和谣言
  • 1:03 - 1:06
    传播速度堪比光速。
  • 1:06 - 1:09
    我们太会为小小的威胁而感到焦虑——
  • 1:09 - 1:13
    不可能发生的空难,食物中的致癌物质,
  • 1:13 - 1:15
    低量辐射等等——
  • 1:15 - 1:18
    但是我们和我们的政治领导们
  • 1:18 - 1:22
    都否认可怕灾难发生的可能性。
  • 1:22 - 1:25
    谢天谢地,最坏的还没有发生。
  • 1:25 - 1:28
    确实,他们可能不会发生。
  • 1:28 - 1:31
    但是如果有件彻底毁灭性的事件可能会发生,
  • 1:31 - 1:34
    这就值得我们花费大量的金钱
  • 1:34 - 1:38
    确保该事件绝不会发生,尽管它不太可能发生,
  • 1:38 - 1:42
    就像我们会给房子上火灾保险一样。
  • 1:42 - 1:47
    由于科学具有越来越多的力量和希望,
  • 1:47 - 1:51
    科学的另一面也变得非常危险。
  • 1:51 - 1:53
    我们从此变得更加脆弱。
  • 1:53 - 1:55
    几十年后,
  • 1:55 - 1:57
    数百万的人会有能力
  • 1:57 - 2:00
    快速滥用先进生物科技,
  • 2:00 - 2:04
    就像他们现在滥用计算机技术一样。
  • 2:04 - 2:07
    弗里曼·戴森在一场TED演讲中,
  • 2:07 - 2:11
    预见孩子们将会设计和创造新的生物体,
  • 2:11 - 2:15
    就像他的同代人操作化学设施一样常见。
  • 2:15 - 2:18
    当然,这可能出现在科幻小说中,
  • 2:18 - 2:21
    但要是他说的情景真的出现,
  • 2:21 - 2:24
    我们的生物圈、甚至物种
  • 2:24 - 2:28
    必定无法平安无事地长久生存。
  • 2:28 - 2:31
    例如,有一些生物学极端分子
  • 2:31 - 2:34
    像Gaia,认为人类数量越少
  • 2:34 - 2:37
    那会对我们的星球越有利。
  • 2:37 - 2:41
    要是在2050年会被广泛传播的生物合成技术
  • 2:41 - 2:42
    被这些人掌握,
  • 2:42 - 2:45
    世界将会变成怎样?
  • 2:45 - 2:48
    到那个时候,其他的科幻小说噩梦
  • 2:48 - 2:50
    也许会变为现实:
  • 2:50 - 2:52
    沉默的机器人变得疯狂,
  • 2:52 - 2:54
    或者网络发展自己思维,
  • 2:54 - 2:57
    这都会威胁我们全人类。
  • 2:57 - 3:00
    那么,我们可以通过法律法规来规避此类危机吗?
  • 3:00 - 3:03
    我们确实必须去尝试,
  • 3:03 - 3:06
    但是这些企业都太求胜心切,太全球化,
  • 3:06 - 3:08
    并且太为商业压力所左右,
  • 3:08 - 3:11
    以至于任何可以做的事情都会在任何地方发生,
  • 3:11 - 3:13
    不管法律如何规定。
  • 3:13 - 3:17
    就像是禁毒法规——
    我们试着去管理,但是始终失败。
  • 3:17 - 3:20
    并且地球村也将有愚昧的村民,
  • 3:20 - 3:23
    生活在全球范围内。
  • 3:23 - 3:26
    因此,就像我在书中说的,
  • 3:26 - 3:29
    在这个世纪,我们的旅程将会崎岖。
  • 3:29 - 3:32
    我的社会可能会经历挫折——
  • 3:32 - 3:36
    确实,五成可能会遭受严重的挫折。
  • 3:36 - 3:39
    但是会不会有可以预见的、
  • 3:39 - 3:41
    更加糟糕的事件发生?
  • 3:41 - 3:45
    甚至会毁灭所有生物。
  • 3:45 - 3:48
    当一个新的粒子加速器上市,
  • 3:48 - 3:49
    一些人会紧张地问,
  • 3:49 - 3:52
    它会不会破坏地球,或者说更糟糕,
  • 3:52 - 3:54
    打破太空的构造?
  • 3:54 - 3:58
    值得庆幸的是,现在仍然有保障。
  • 3:58 - 4:00
    我和其他一些学者指出,
  • 4:00 - 4:02
    大自然已经做了无数次同样的实验,
  • 4:02 - 4:04
    大自然已经做了无数次同样的实验,
  • 4:04 - 4:06
    通过宇宙射线碰撞。
  • 4:06 - 4:09
    但科学家在做研究时,
  • 4:09 - 4:11
    对于任何可能引发自然界
    前所未有的情景的实验,
  • 4:11 - 4:14
    都应该谨慎对待。
  • 4:14 - 4:17
    生物学家应当避免产生发布
  • 4:17 - 4:20
    经过基因改造的
    具有潜在毁灭性的病原体。
  • 4:20 - 4:24
    顺便说一下,我们为什么会
  • 4:24 - 4:27
    对真实存在的危险极之厌恶?
  • 4:27 - 4:30
    这源于一个哲学伦理问题,
  • 4:30 - 4:32
    这个问题是:
  • 4:32 - 4:34
    设想有两个场景。
  • 4:34 - 4:40
    场景A,消灭90%的人类。
  • 4:40 - 4:43
    场景B,消灭所有的人类。
  • 4:43 - 4:46
    场景B比A糟糕多少呢?
  • 4:46 - 4:49
    有人会说糟糕百分之十。
  • 4:49 - 4:53
    死亡人数统计是高了百分之十。
  • 4:53 - 4:55
    但是我说场景B无比糟糕。
  • 4:55 - 4:58
    作为一个天文学家,我不能相信
  • 4:58 - 5:01
    人类会走到尽头。
  • 5:01 - 5:04
    还有五十亿年,太阳才会燃烧加剧,
  • 5:04 - 5:07
    宇宙可能永远发展下去,
  • 5:07 - 5:09
    如此,后人类的进化,
  • 5:09 - 5:11
    无论是在地球还是外太空,
  • 5:11 - 5:14
    可能会跟我们所相信的
    达尔文进化论那样,
  • 5:14 - 5:17
    被无限的延伸,甚至变得更加精彩。
  • 5:17 - 5:20
    确实,将来的进化会发展更快,
  • 5:20 - 5:22
    是基于技术上的时间量程,
  • 5:22 - 5:24
    而非自然的时间量程。
  • 5:24 - 5:28
    所以这样的巨大风险,
  • 5:28 - 5:32
    即便只有十亿分之一的机会,
    我们也不应接受
  • 5:32 - 5:34
    导致人类灭亡的可能性。
  • 5:34 - 5:36
    导致人类灭亡的可能性。
  • 5:36 - 5:38
    刚刚提到的一些场景
  • 5:38 - 5:40
    也许只出现在科幻小说中,
  • 5:40 - 5:43
    但是其中一些场景
    却有可能成为让人心烦的现实。
  • 5:43 - 5:46
    有句重要的格言曾说:
  • 5:46 - 5:49
    未知不等于不可能,
  • 5:49 - 5:51
    实际上,这也是为什么我们在剑桥大学
  • 5:51 - 5:55
    建立一个中心用来研究
  • 5:55 - 5:57
    如何来降低这些已有危机的危险。
  • 5:57 - 6:00
    它看起来像只值得少数的几个人
  • 6:00 - 6:02
    来思考这些潜在的灾难。
  • 6:02 - 6:05
    然而,我们需要得到他人尽可能多的帮助,
  • 6:05 - 6:08
    因为我们是茫茫宇宙中的一颗蓝色星球的管理员,
  • 6:08 - 6:11
    因为我们是茫茫宇宙中的一颗蓝色星球的管理员,
  • 6:11 - 6:14
    这个星球已经有五十亿年的历史。
  • 6:14 - 6:17
    我们不要破坏这样星球的未来。
  • 6:17 - 6:19
    我想引用著名科学家彼得·梅达瓦的一句话作为结尾。
  • 6:19 - 6:22
    我想引用著名科学家彼得·梅达瓦的一句话作为结尾。
  • 6:22 - 6:26
    “为人类敲响的钟声
  • 6:26 - 6:28
    就像是阿尔卑斯山牛的钟声。
  • 6:28 - 6:30
    它们和我们密切相关,
  • 6:30 - 6:33
    如果它们无法奏出和谐而悦耳的音乐,
  • 6:33 - 6:35
    那必定是我们的过失。”
  • 6:35 - 6:38
    非常感谢。
  • 6:38 - 6:40
    (掌声)
Title:
我哋可以阻止世界末日嗎?
Speaker:
马丁·里斯
Description:

一个后末日世界的地球,荒无人烟,看起来像是科幻小说剧和电影。但是简单的来说,马丁.里斯勋爵让我们想一想我们(周遭)真实存在的危机——自然的和人工的威胁,将会毁灭整个人类。作为人类的一员,他问:“可能发生的最坏的事是什么?”

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

Chinese, Yue subtitles

Revisions Compare revisions