十年前,我写了一本书,
我将它命名为“我们最后的世纪?”问号。
我的出版商把问号删除了。(笑声)
美国的出版商将题目改成了
“我们的最后时刻”。
美国人喜欢即时行乐,
将事情倒转来看。
(笑声)
我的主题是这样的:
我们的地球已经生存了四千五百万个世纪,
但当今世纪是特殊的——
这是有史以来第一次,
有一个物种——我们人类
把这个星球的未来掌控于手中。
纵观地球历史,
威胁都来自于自然——
疾病、地震、陨石撞击等等——
但是从现在开始,最大的威胁来自于我们自身。
并且现在,不仅仅是核威胁;
在我们紧密相连的世界,
网络故障可以倾泻全球;
航空旅行可以将流行病在数天内传播全球;
并且社会媒体可以四散恐惧和谣言
传播速度堪比光速。
我们太会为小小的威胁而感到焦虑——
不可能发生的空难,食物中的致癌物质,
低量辐射等等——
但是我们和我们的政治领导们
都否认可怕灾难发生的可能性。
谢天谢地,最坏的还没有发生。
确实,他们可能不会发生。
但是如果有件彻底毁灭性的事件可能会发生,
这就值得我们花费大量的金钱
确保该事件绝不会发生,尽管它不太可能发生,
就像我们会给房子上火灾保险一样。
由于科学具有越来越多的力量和希望,
科学的另一面也变得非常危险。
我们从此变得更加脆弱。
几十年后,
数百万的人会有能力
快速滥用先进生物科技,
就像他们现在滥用计算机技术一样。
弗里曼·戴森在一场TED演讲中,
预见孩子们将会设计和创造新的生物体,
就像他的同代人操作化学设施一样常见。
当然,这可能出现在科幻小说中,
但要是他说的情景真的出现,
我们的生物圈、甚至物种
必定无法平安无事地长久生存。
例如,有一些生物学极端分子
像Gaia,认为人类数量越少
那会对我们的星球越有利。
要是在2050年会被广泛传播的生物合成技术
被这些人掌握,
世界将会变成怎样?
到那个时候,其他的科幻小说噩梦
也许会变为现实:
沉默的机器人变得疯狂,
或者网络发展自己思维,
这都会威胁我们全人类。
那么,我们可以通过法律法规来规避此类危机吗?
我们确实必须去尝试,
但是这些企业都太求胜心切,太全球化,
并且太为商业压力所左右,
以至于任何可以做的事情都会在任何地方发生,
不管法律如何规定。
就像是禁毒法规——
我们试着去管理,但是始终失败。
并且地球村也将有愚昧的村民,
生活在全球范围内。
因此,就像我在书中说的,
在这个世纪,我们的旅程将会崎岖。
我的社会可能会经历挫折——
确实,五成可能会遭受严重的挫折。
但是会不会有可以预见的、
更加糟糕的事件发生?
甚至会毁灭所有生物。
当一个新的粒子加速器上市,
一些人会紧张地问,
它会不会破坏地球,或者说更糟糕,
打破太空的构造?
值得庆幸的是,现在仍然有保障。
我和其他一些学者指出,
大自然已经做了无数次同样的实验,
大自然已经做了无数次同样的实验,
通过宇宙射线碰撞。
但科学家在做研究时,
对于任何可能引发自然界
前所未有的情景的实验,
都应该谨慎对待。
生物学家应当避免产生发布
经过基因改造的
具有潜在毁灭性的病原体。
顺便说一下,我们为什么会
对真实存在的危险极之厌恶?
这源于一个哲学伦理问题,
这个问题是:
设想有两个场景。
场景A,消灭90%的人类。
场景B,消灭所有的人类。
场景B比A糟糕多少呢?
有人会说糟糕百分之十。
死亡人数统计是高了百分之十。
但是我说场景B无比糟糕。
作为一个天文学家,我不能相信
人类会走到尽头。
还有五十亿年,太阳才会燃烧加剧,
宇宙可能永远发展下去,
如此,后人类的进化,
无论是在地球还是外太空,
可能会跟我们所相信的
达尔文进化论那样,
被无限的延伸,甚至变得更加精彩。
确实,将来的进化会发展更快,
是基于技术上的时间量程,
而非自然的时间量程。
所以这样的巨大风险,
即便只有十亿分之一的机会,
我们也不应接受
导致人类灭亡的可能性。
导致人类灭亡的可能性。
刚刚提到的一些场景
也许只出现在科幻小说中,
但是其中一些场景
却有可能成为让人心烦的现实。
有句重要的格言曾说:
未知不等于不可能,
实际上,这也是为什么我们在剑桥大学
建立一个中心用来研究
如何来降低这些已有危机的危险。
它看起来像只值得少数的几个人
来思考这些潜在的灾难。
然而,我们需要得到他人尽可能多的帮助,
因为我们是茫茫宇宙中的一颗蓝色星球的管理员,
因为我们是茫茫宇宙中的一颗蓝色星球的管理员,
这个星球已经有五十亿年的历史。
我们不要破坏这样星球的未来。
我想引用著名科学家彼得·梅达瓦的一句话作为结尾。
我想引用著名科学家彼得·梅达瓦的一句话作为结尾。
“为人类敲响的钟声
就像是阿尔卑斯山牛的钟声。
它们和我们密切相关,
如果它们无法奏出和谐而悦耳的音乐,
那必定是我们的过失。”
非常感谢。
(掌声)