0:00:00.365,0:00:01.747 十年前,我寫咗一本書 0:00:01.747,0:00:05.240 叫做 「 我哋最後世紀? 」問號 0:00:05.840,0:00:08.550 我嘅出版商將問號刪咗 0:00:08.550,0:00:09.727 (笑聲) 0:00:09.727,0:00:11.919 美國出版商將題目改咗做 0:00:11.919,0:00:13.509 「 我哋最後一個鐘 」 0:00:13.749,0:00:15.278 (笑聲) 0:00:15.278,0:00:18.200 美國人鍾意即時行樂,將事情倒轉嚟睇 0:00:18.200,0:00:20.368 (笑聲) 0:00:20.368,0:00:22.118 我嘅主題係噉樣嘅: 0:00:22.118,0:00:26.284 我哋嘅地球已經有四十五億年歷史 0:00:26.284,0:00:28.323 但過去一百年嚟係特別嘅 0:00:28.323,0:00:31.313 呢個係有史以嚟第一次[br]有一個物種,即係我哋人類 0:00:31.313,0:00:34.115 將呢個星球嘅未來掌握喺自己手裏面 0:00:34.115,0:00:36.105 睇返地球歷史 0:00:36.105,0:00:38.041 威脅絕大部分都係嚟自大自然 0:00:38.041,0:00:41.537 疾病、地震、隕石撞擊等等 0:00:41.537,0:00:47.129 但係由宜家開始[br]最大嘅威脅嚟自於我哋自己 0:00:47.129,0:00:50.480 並且宜家,唔單止核威脅 0:00:50.480,0:00:52.231 喺我哋全球化嘅世界裏面 0:00:52.231,0:00:55.394 網路故障可以癱瘓全球 0:00:55.394,0:00:59.350 航班令流行病[br]可以喺幾日之內喺全世界傳播 0:00:59.350,0:01:02.857 並且社會媒體可以散佈恐慌同謠言 0:01:02.857,0:01:04.904 傳播速度同光速有得輝 0:01:05.894,0:01:08.489 我哋會為到細小嘅威脅而焦慮 0:01:09.359,0:01:13.000 冇乜可能發生嘅空難、食物嘅致癌物質 0:01:13.000,0:01:15.686 低水平輻射等等 0:01:15.686,0:01:21.631 但係我哋同我哋嘅政治領袖[br]都唔肯面對災難情景 0:01:22.404,0:01:25.442 好彩最壞嘅仲未發生 0:01:25.442,0:01:27.638 確實,佢哋應該唔會發生 0:01:27.638,0:01:30.823 但係如果有件潛在毀滅性嘅事發生 0:01:30.823,0:01:33.691 噉就值得我哋持續開支 0:01:33.691,0:01:37.357 防止嗰件事發生[br]即使件事唔太可能發生都好 0:01:37.357,0:01:40.140 就好似我哋會幫間屋買火險一樣 0:01:42.040,0:01:44.037 道高一尺魔高一丈 0:01:44.037,0:01:47.467 科學俾我哋更加多嘅力量同願望嘅同時 0:01:47.467,0:01:50.903 科學可以係好危險 0:01:50.903,0:01:53.142 我哋於是更加經唔起考驗 0:01:53.142,0:01:57.000 幾十年後,幾百萬嘅人會有能力 0:01:57.000,0:02:00.331 濫用發展一日千里嘅生物科技 0:02:00.331,0:02:03.094 就好似宜家嘅人濫用網絡科技一樣 0:02:04.064,0:02:07.083 Freeman Dyson 喺一場 TED 演講入面 0:02:07.083,0:02:10.679 預見小朋友設計同創造新嘅生物 0:02:10.679,0:02:14.570 就好似佢嗰代人當化學實驗遊戲噉玩 0:02:15.190,0:02:17.718 當然,呢樣可能只會喺科幻小說出現 0:02:17.718,0:02:20.901 但亦有可能係佢預言嘅情景︰ 0:02:20.901,0:02:26.248 我哋嘅生態、以至物種[br]一定唔會平安無事咁長期生存 0:02:27.627,0:02:31.400 例如,有一啲生態學嘅極端人士 0:02:31.400,0:02:33.389 好似 Gaia 咁 0:02:33.389,0:02:37.322 佢認為人類幾量越少[br]會對我哋嘅星球越好 0:02:37.322,0:02:42.259 如果人類掌握咗 2050 年[br]就會全世界廣泛使用嘅合成生物技術 0:02:42.259,0:02:45.108 會點樣? 0:02:45.108,0:02:46.108 到嗰個時候 0:02:46.108,0:02:48.150 其他嘅科幻小說裏面所提到嘅噩夢 0:02:48.150,0:02:49.860 或者會成為現實 0:02:49.860,0:02:51.930 沉默嘅機器人變得瘋狂 0:02:51.930,0:02:55.547 網路有自己嘅思想,威脅我哋全人類 0:02:56.936,0:02:59.726 噉,我哋可以通過規管[br]去避免呢啲危機嗎? 0:03:00.206,0:03:01.703 我哋確實要去嘗試 0:03:01.703,0:03:06.142 但係呢啲企業都好有競爭性[br]喺全世界都有生意利益 0:03:06.142,0:03:08.122 太受市場影響 0:03:08.122,0:03:09.453 因為法律 0:03:09.453,0:03:13.443 令可以做嘅嘢[br]都要搬到去其他地方先做到 0:03:13.443,0:03:16.860 就好似禁毒法律咁[br]我哋去監管,但始終失敗 0:03:16.860,0:03:22.414 並且地球村將會有[br]一班蠢嘅人遍佈全世界 0:03:23.850,0:03:25.761 所以,我喺書裏面話 0:03:25.761,0:03:28.650 我哋喺呢個世紀嘅路會比較難行 0:03:28.650,0:03:31.240 我哋社會可能會有一啲難題 0:03:31.930,0:03:35.875 其實係有一半機會面對重大問題 0:03:36.495,0:03:39.169 但係會唔會有可以預見到 0:03:39.169,0:03:43.920 但更加弊、滅絕所有物種嘅事發生? 0:03:45.000,0:03:47.566 當新嘅粒子加速器嘅消息喺上網出現 0:03:47.566,0:03:49.295 一啲人會緊張咁問 0:03:49.295,0:03:50.555 佢會唔會破壞地球 0:03:50.555,0:03:54.394 或者話更弊嘅,將太空空間撕開? 0:03:54.394,0:03:57.377 值得慶倖嘅係,我哋仍然係安全嘅 0:03:58.197,0:03:59.611 我同其他人指出過 0:03:59.611,0:04:05.814 大自然其實已經透過宇宙射線碰撞[br]做過無數次同樣嘅實驗 0:04:06.244,0:04:08.159 但係科學家喺做研究嘅時候 0:04:08.159,0:04:13.599 必須要小心整咗啲[br]宇宙從來冇發生過嘅嘢 0:04:14.202,0:04:16.635 生物學家應該避免泄漏 0:04:16.635,0:04:20.380 經過基因改造[br]具有潛在毀滅後果嘅病原體 0:04:20.380,0:04:27.427 順便講下,我哋[br]對真正嘅災難之所以特別厭惡 0:04:27.427,0:04:30.363 係源於一個哲學倫理問題 0:04:30.363,0:04:31.923 個問題係: 0:04:31.923,0:04:34.341 想像有兩個場景 0:04:34.341,0:04:39.577 場景一,消滅 90% 人類 0:04:39.577,0:04:43.473 場景二,消滅所有人類 0:04:43.473,0:04:46.391 場景二比場景一壞幾多呢? 0:04:46.391,0:04:49.414 有人會話差十個百分點 0:04:49.414,0:04:51.874 死亡統計係高出十個百分點 0:04:52.564,0:04:55.470 但係我唔會話場景二比較差 0:04:55.470,0:04:57.299 作為一個天文學家 0:04:57.299,0:05:00.496 我唔相信人類只係[br]成個地球歷史嘅最後一部分 0:05:00.976,0:05:02.326 仲有五十億年 0:05:02.326,0:05:04.329 太陽至會加劇燃燒,步入衰退期 0:05:04.329,0:05:06.600 但宇宙仍然會繼續走落去 0:05:06.600,0:05:09.052 噉樣,後人類嘅進化過程 0:05:09.052,0:05:11.372 喺地球同埋外太空 0:05:11.372,0:05:16.606 可以同達爾文進化論一樣咁長[br]甚至更加精彩 0:05:17.117,0:05:20.181 其實,未來進化嘅速度會更加快 0:05:20.181,0:05:21.940 呢樣係基於技術上嘅時間嘅考慮 0:05:21.940,0:05:24.239 而並非自物競天擇嘅時間考慮 0:05:24.239,0:05:28.434 所以面對咁大嘅利害關係 0:05:28.434,0:05:31.820 面對十億個危險[br]我哋都唔應該妥栛一個危險 0:05:31.820,0:05:35.469 因為要記住人類滅絕嘅可能 0:05:36.729,0:05:39.941 一啲俾人提過嘅場景[br]都可能出自於科幻小說裏邊 0:05:39.950,0:05:42.686 但係其他嘅場景[br]可能真係會成為現實 0:05:43.336,0:05:46.180 有句重要嘅教誨係講︰ 0:05:46.180,0:05:48.397 未知唔等於唔可能 0:05:48.937,0:05:50.025 實際上因為噉樣 0:05:50.025,0:05:53.030 我哋喺劍橋大學成立咗一個中心 0:05:53.030,0:05:57.212 研究點樣降低以上存在嘅風險 0:05:57.212,0:06:02.415 幾個人去思考呢啲潛在災難睇落幾唔錯 0:06:02.415,0:06:04.604 但係我哋需要更加多嘅人幫手 0:06:05.104,0:06:11.083 因為我哋係茫茫宇宙中[br]一個藍色星球嘅打理人 0:06:11.083,0:06:14.444 呢個星球喺人類出現之前[br]已經有五十億年嘅歷史 0:06:14.444,0:06:17.000 我哋唔要糟塌呢個星球嘅未來 0:06:17.000,0:06:22.335 我諗引用著名科學屋 [br]Peter Medawar 嘅一句話收尾 0:06:22.335,0:06:25.569 「 為人類而設嘅鈴鈴 0:06:25.569,0:06:28.213 就好似阿爾卑斯山嘅小牛嘅鈴鈴一樣, 0:06:28.213,0:06:30.679 呢啲鈴鈴就好似掛喺我哋頸上面 0:06:30.679,0:06:33.174 如果佢哋冇發出和諧而有旋律嘅聲音, 0:06:33.174,0:06:35.305 噉就必定係我哋嘅錯。 」 0:06:35.305,0:06:36.332 多謝 0:06:36.332,0:06:38.745 (掌聲)