Return to Video

我們能打造不會失控的人工智慧?

  • 0:01 - 0:05
    我要談一種我們很多人
    遭受的、直覺上的失誤。
  • 0:05 - 0:09
    那其實是一種使你無法察覺到
    特定種類危險的失誤。
  • 0:09 - 0:11
    我會描述一個情境
  • 0:11 - 0:14
    是我認為很可怕
  • 0:14 - 0:16
    而且很有機會發生的,
  • 0:17 - 0:18
    這不是很好的組合,
  • 0:19 - 0:20
    一如預期。
  • 0:20 - 0:22
    然而比起感到害怕,
  • 0:22 - 0:25
    大部分的人會覺得
    我正在說的東西有點酷。
  • 0:25 - 0:30
    我將會描述我們在
    人工智能領域的進展
  • 0:30 - 0:32
    如何能最終消滅我們。
  • 0:32 - 0:35
    事實上,我認為很難看不出
    他們為何不會消滅我們,
  • 0:35 - 0:37
    或者驅使我們消滅自己。
  • 0:37 - 0:39
    如果你是和我類似的人,
  • 0:39 - 0:42
    你會發現思考這類事情很有趣。
  • 0:42 - 0:45
    那種反應也是問題的一部分。
  • 0:45 - 0:48
    對嗎?那種反應應該讓你感到擔心。
  • 0:48 - 0:51
    如果我是打算在這個裡演講說服你,
  • 0:51 - 0:54
    我們很可能會遭受全球性的飢荒,
  • 0:54 - 0:57
    無論是因為氣候變遷或某種大災難,
  • 0:57 - 1:01
    而你的孫子們或者孫子的孫子們
  • 1:01 - 1:02
    非常可能要這樣生活,
  • 1:03 - 1:04
    你不會覺得:
  • 1:05 - 1:07
    「有意思,
  • 1:07 - 1:08
    我喜歡這個 TED 演講。」
  • 1:09 - 1:11
    飢荒並不有趣。
  • 1:12 - 1:15
    另一方面來說,
    科幻式的死亡,是有趣的。
  • 1:15 - 1:19
    而現階段人工智能的發展
    最讓我擔心的是,
  • 1:19 - 1:23
    我們似乎無法組織出
    一個適當的情緒反應,
  • 1:23 - 1:25
    針對眼前的威脅。
  • 1:25 - 1:28
    我無法組織出這個回應,
    可是我在這裡講這個。
  • 1:30 - 1:33
    就像我們站在兩扇門前面。
  • 1:33 - 1:34
    一號門後面,
  • 1:34 - 1:37
    我們停止發展製造有智能的機器。
  • 1:37 - 1:41
    我們的電腦硬體和軟體
    就因故停止變得更好。
  • 1:41 - 1:44
    現在花一點時間想想
    為什麼這會發生。
  • 1:45 - 1:49
    我的意思是,人工智能
    和自動化如此有價值,
  • 1:49 - 1:52
    我們會持續改善我們的科技,
    只要我們有能力做。
  • 1:53 - 1:55
    有什麼東西能阻止我們這麼做呢?
  • 1:56 - 1:58
    一場全面性的核子戰爭?
  • 1:59 - 2:01
    一場全球性的流行病?
  • 2:02 - 2:04
    一次小行星撞擊地球?
  • 2:06 - 2:08
    小賈斯汀成為美國總統?
  • 2:08 - 2:11
    (笑聲)
  • 2:13 - 2:17
    重點是:必須有什麼東西
    會毀滅我們所知的文明。
  • 2:17 - 2:22
    你必須想像到底能有多糟
  • 2:22 - 2:25
    才能阻止我們持續改善我們的科技,
  • 2:25 - 2:26
    永久地,
  • 2:26 - 2:28
    一代又一代人。
  • 2:28 - 2:30
    幾乎從定義上,這就是
  • 2:30 - 2:32
    人類歷史上發生過的最糟的事。
  • 2:32 - 2:34
    所以唯一的替代選項,
  • 2:34 - 2:36
    這是在二號門之後的東西,
  • 2:36 - 2:39
    是我們繼續改善我們的智能機器,
  • 2:39 - 2:41
    年復一年,年復一年。
  • 2:42 - 2:45
    到某個時間點,我們會造出
    比我們還聰明的機器,
  • 2:46 - 2:48
    而我們一旦造出比我們聰明的機器,
  • 2:48 - 2:51
    它們就會開始改善自己。
  • 2:51 - 2:53
    然後我們承擔數學家 IJ Good 稱為
  • 2:53 - 2:55
    「人工智能爆發」的風險,
  • 2:55 - 2:57
    那個過程會脫離我們的掌握。
  • 2:58 - 3:01
    這時常被漫畫化,如我的這張圖,
  • 3:01 - 3:04
    一種恐懼:充滿惡意的機械人軍團
  • 3:04 - 3:05
    會攻擊我們。
  • 3:05 - 3:08
    但這不是最可能發生的情境。
  • 3:08 - 3:13
    並不是說我們的機器會變得
    自然地帶有敵意。
  • 3:13 - 3:16
    問題在於我們將會造出
  • 3:16 - 3:18
    遠比我們更有競爭力的機器,
  • 3:18 - 3:22
    只要我們和他們的目標
    有些微的歧異,
  • 3:22 - 3:23
    就會讓我們被毀滅。
  • 3:24 - 3:26
    就想想我們和螞蟻的關係。
  • 3:27 - 3:28
    我們不討厭牠們。
  • 3:28 - 3:30
    我們不會特別去傷害牠們。
  • 3:30 - 3:33
    甚至有時我們為了
    不傷害牠們而承受痛苦。
  • 3:33 - 3:35
    我們在人行道跨越他們。
  • 3:35 - 3:37
    但當牠們的存在
  • 3:37 - 3:39
    和我們的目標嚴重衝突,
  • 3:39 - 3:42
    譬如當我們要建造一棟
    和這裡一樣的建築物,
  • 3:42 - 3:44
    我們會毫無不安地除滅牠們。
  • 3:44 - 3:47
    問題在於有一天我們會造出機器,
  • 3:47 - 3:50
    無論他們是有意識或者沒有意識,
  • 3:50 - 3:52
    會對我們如螞蟻般的不予理會。
  • 3:54 - 3:57
    現在,我懷疑這種說法
    對這裡大部分的人來說不著邊際。
  • 3:57 - 4:04
    我確信你們有些人懷疑
    超級人工智能出現的可能,
  • 4:04 - 4:05
    更別說它必然出現。
  • 4:05 - 4:09
    但接著你一點會發現
    接下來其中一個假設有點問題。
  • 4:09 - 4:11
    以下只有三個假設。
  • 4:12 - 4:17
    智能是關於資訊
    在物質系統裡處理的過程。
  • 4:17 - 4:20
    其實這個陳述已經不只是一個假設,
  • 4:20 - 4:23
    我們已經在我們的機器裡
    安裝了有限的智能,
  • 4:23 - 4:25
    而很多這樣的機器已經表現出
  • 4:25 - 4:28
    某種程度的超人類智能。
  • 4:29 - 4:31
    而我們知道這個現象
  • 4:31 - 4:34
    可能導致被稱為「通用智能」的東西,
  • 4:34 - 4:38
    一種能跨多個領域靈活思考的能力,
  • 4:38 - 4:41
    因為我們的腦
    已經掌握了這個,對吧?
  • 4:41 - 4:45
    我的意思是,裡面都只是原子,
  • 4:45 - 4:49
    只要我們繼續製造基於原子的系統,
  • 4:49 - 4:52
    越來越能表現智能的行為,
  • 4:52 - 4:55
    我們終究會,除非我們被打斷,
  • 4:55 - 4:58
    我們終究會造出通用智能
  • 4:58 - 4:59
    裝進我們的機器裡。
  • 4:59 - 5:03
    關鍵是理解到發展的速率無關緊要,
  • 5:03 - 5:06
    因為任何進展都足以
    帶我們到終結之境。
  • 5:06 - 5:10
    我們不需要摩爾定律才能繼續。
    我們不需要指數型的發展。
  • 5:10 - 5:12
    我們只需要繼續前進。
  • 5:13 - 5:16
    第二個假設是我們會繼續前進。
  • 5:17 - 5:20
    我們會持續改善我們的智能機器。
  • 5:21 - 5:25
    而因為智能的價值──
  • 5:25 - 5:29
    我的意思是,智能是所有
    我們珍視的事物的源頭,
  • 5:29 - 5:32
    或者我們需要智能
    來保護我們珍視的事物。
  • 5:32 - 5:34
    智能是我們最珍貴的資源。
  • 5:34 - 5:36
    所以我們想要這麼做。
  • 5:36 - 5:39
    我們有許多亟需解決的問題。
  • 5:39 - 5:42
    我們想要治癒疾病
    如阿茲海默症和癌症。
  • 5:43 - 5:47
    我們想要了解經濟系統。
    我們想要改進我們的氣候科學。
  • 5:47 - 5:49
    所以我們會這麼做,只要我們可以。
  • 5:49 - 5:52
    火車已經出站,而沒有煞車可以拉。
  • 5:54 - 5:59
    最後一點,我們不站在智能的巔峰,
  • 5:59 - 6:01
    或者根本不在那附近。
  • 6:02 - 6:04
    而這真的是一種重要的洞察。
  • 6:04 - 6:06
    正是這個讓我們的處境如此危險可疑,
  • 6:06 - 6:10
    這也讓我們對風險的直覺
    變得很不可靠。
  • 6:11 - 6:14
    現在,想想這世界上最聰明的人。
  • 6:15 - 6:18
    每個人的清單上幾乎都會有
    約翰·馮·諾伊曼。
  • 6:18 - 6:21
    我是指, 馮·諾伊曼
    對他周圍的人造成的印象,
  • 6:21 - 6:25
    而這包括和他同時代
    最棒的數學家和物理學家,
  • 6:26 - 6:27
    被好好地記錄了。
  • 6:27 - 6:31
    只要有一半關於他的故事一半是真的,
  • 6:31 - 6:32
    那毫無疑問
  • 6:33 - 6:35
    他是世界上活過最聰明的人之一。
  • 6:35 - 6:38
    所以考慮智能的頻譜。
  • 6:38 - 6:40
    約翰·馮·諾伊曼在這裡。
  • 6:42 - 6:43
    然後你和我在這裡。
  • 6:44 - 6:45
    然後雞在這裡。
  • 6:45 - 6:47
    (笑聲)
  • 6:47 - 6:49
    抱歉,雞應該在那裡。
  • 6:49 - 6:50
    (笑聲)
  • 6:50 - 6:54
    我實在無意把這個演講
    弄得比它本身更讓人感到沮喪。
  • 6:54 - 6:55
    (笑聲)
  • 6:56 - 7:00
    智能的頻譜似乎勢不可擋地
  • 7:00 - 7:03
    往比我們能理解的更遠的地方延伸,
  • 7:04 - 7:07
    如果我們造出
    比我們更有智能的機器,
  • 7:07 - 7:09
    他們很可能會探索這個頻譜,
  • 7:09 - 7:11
    以我們無法想像的方式,
  • 7:11 - 7:14
    然後以我們無法想像的方式超越我們。
  • 7:15 - 7:19
    重要的是認識到這說法
    僅因速度的優勢即為真。
  • 7:19 - 7:24
    對吧?請想像如果我們造出了
    一個超級人工智能,
  • 7:24 - 7:30
    它不比你一般在史丹佛或麻省理工
    遇到的研究團隊聰明。
  • 7:30 - 7:34
    電子電路作用的速率
    比起生化作用快一百萬倍,
  • 7:35 - 7:39
    所以這個機器思考應該
    比製造它的心智快一百萬倍。
  • 7:40 - 7:41
    如果你設定讓它運行一星期,
  • 7:41 - 7:46
    他會執行人類兩萬年的智能工作,
  • 7:46 - 7:48
    一週接著一週接著一週。
  • 7:50 - 7:53
    我們如何可能理解,較不嚴格地說,
  • 7:53 - 7:55
    一個達成如此進展的心智?
  • 7:57 - 7:59
    另一個另人擔心的事,老實說,
  • 7:59 - 8:04
    是想像最好的情況。
  • 8:04 - 8:10
    想像我們想到一個沒有安全顧慮的
    超級人工智能的設計,
  • 8:10 - 8:13
    我們第一次就做出了完美的設計。
  • 8:13 - 8:15
    如同我們被給予了一個神諭,
  • 8:15 - 8:17
    完全照我們的預期地動作。
  • 8:17 - 8:21
    這個機器會是完美的人力節約裝置。
  • 8:22 - 8:23
    它能設計一個機器,
  • 8:23 - 8:26
    那機器能製造出能做任何人工的機器,
  • 8:26 - 8:27
    以太陽能驅動,
  • 8:27 - 8:30
    幾乎只需要原料的成本。
  • 8:30 - 8:33
    所以我們是在談人類苦役的終結。
  • 8:33 - 8:36
    我們也是在談大部分
    智力工作的終結。
  • 8:37 - 8:40
    像我們一樣的猩猩
    在這種情況下會做什麼?
  • 8:40 - 8:44
    我們可能可以自由地
    玩飛盤和互相按摩。
  • 8:46 - 8:49
    加上一點迷幻藥和可議的服裝選擇,
  • 8:49 - 8:51
    整個世界都可以像在過火人祭典。
  • 8:51 - 8:53
    (笑聲)
  • 8:54 - 8:56
    那聽起來也許很不錯,
  • 8:57 - 9:02
    但請問,在我們目前的經濟和政治
    秩序下,會發生什麼事情?
  • 9:02 - 9:05
    我們很可能會見證
  • 9:05 - 9:10
    一種我們從未見過的
    財富不均和失業程度。
  • 9:10 - 9:13
    缺乏一種意願來把這份新財富馬上
  • 9:13 - 9:15
    放在服務全人類,
  • 9:16 - 9:19
    少數幾個萬億富翁
    能登上我們的財經雜誌,
  • 9:19 - 9:22
    而其他人可以自由地選擇挨餓。
  • 9:22 - 9:25
    而俄國和中國會怎麼做?
  • 9:25 - 9:27
    當他們聽說矽谷的某個公司
  • 9:27 - 9:30
    即將部署一個超級人工智能,
  • 9:30 - 9:33
    這個機器能夠發動戰爭,
  • 9:33 - 9:35
    無論是領土侵略或者網路電子戰,
  • 9:35 - 9:37
    以前所未見的威力。
  • 9:38 - 9:40
    這是個贏者全拿的劇本。
  • 9:40 - 9:43
    在這個競爭領先六個月
  • 9:43 - 9:46
    等於領先五十萬年,
  • 9:46 - 9:47
    最少。
  • 9:47 - 9:52
    所以即使僅僅是這種突破的謠言
  • 9:52 - 9:55
    都能使我們這個種族走向狂暴。
  • 9:55 - 9:58
    現在,最讓人驚恐的事情,
  • 9:58 - 10:00
    在我的看法,在這個時刻,
  • 10:00 - 10:07
    是人工智慧研究者在試著表現得
    讓人安心時說的那類話。
  • 10:07 - 10:10
    而最常用來告訴我們
    現在不要擔心的理由是時間。
  • 10:10 - 10:13
    這還有很長的路要走,你不知道嗎,
  • 10:13 - 10:15
    起碼還要 50 到 100 年。
  • 10:16 - 10:17
    一個研究人員曾說,
  • 10:17 - 10:19
    「憂心人工智慧安全
  • 10:19 - 10:21
    如同憂心火星人口爆炸。」
  • 10:22 - 10:24
    這是矽谷版本的
  • 10:24 - 10:26
    「別杞人憂天。」
  • 10:26 - 10:27
    (笑聲)
  • 10:28 - 10:29
    似乎沒人注意到
  • 10:29 - 10:32
    以時間當參考
  • 10:32 - 10:35
    是一個不合理的推論。
  • 10:35 - 10:38
    如果智能只是關於資訊的處理,
  • 10:38 - 10:41
    而我們持續改善我們的機器,
  • 10:41 - 10:44
    我們會製作出某種形式的超級智能。
  • 10:44 - 10:48
    而且我們不知道要花我們多長的時間
  • 10:48 - 10:50
    來創造安全地這麼做的條件。
  • 10:52 - 10:53
    讓我再說一次,
  • 10:54 - 10:57
    我們不知道要花我們多長的時間
  • 10:57 - 11:00
    來創造安全地這麼做的條件。
  • 11:01 - 11:04
    而且如果你還沒注意到,
    50 年已經不像以前的概念。
  • 11:04 - 11:07
    這是 50 年以月來表示。
  • 11:07 - 11:09
    這是我們有了 iPhone 的時間。
  • 11:09 - 11:12
    這是《辛普森家庭》
    在電視上播映的時間。
  • 11:13 - 11:15
    50 年不是那麼長的時間
  • 11:15 - 11:18
    來面對對我們這個種族來說
    最巨大的挑戰之一。
  • 11:20 - 11:24
    再一次說,我們似乎
    無法產生適當的情緒反應,
  • 11:24 - 11:26
    對應我們有所有的理由
    相信將發生的事。
  • 11:26 - 11:30
    資訊科學家斯圖亞特·羅素
    有個很好的比喻。
  • 11:30 - 11:35
    他說,想像我們收到一則
    外星文明的訊息,
  • 11:35 - 11:37
    寫道:
  • 11:37 - 11:39
    「地球的人們,
  • 11:39 - 11:41
    我們 50 年內會到達你們的星球。
  • 11:42 - 11:43
    作好準備。」
  • 11:43 - 11:48
    而現在我們只是在倒數
    外星母艦還剩幾個月登陸?
  • 11:48 - 11:51
    我們會比我們現在稍微感到緊迫。
  • 11:53 - 11:55
    另一個我們被告知不用擔心的原因
  • 11:55 - 11:58
    是這些機器不得不和我們
    有一樣的價值觀,
  • 11:58 - 12:00
    因為他們實際上只是我們的延伸。
  • 12:00 - 12:02
    它們會被植入我們的大腦裡,
  • 12:02 - 12:04
    而我們基本上變成
    他們大腦的邊緣系統。
  • 12:05 - 12:07
    現在用一點時間想想
  • 12:07 - 12:10
    這最安全而且唯一謹慎的往前的路,
  • 12:10 - 12:11
    被推薦的,
  • 12:11 - 12:14
    是將這個科技植入我們的腦內。
  • 12:15 - 12:18
    這也許的確是最安全
    而且唯一謹慎的往前的路,
  • 12:18 - 12:21
    但通常科技的安全性問題
  • 12:21 - 12:25
    應該在把東西插到你腦袋裡之前
    就該大部分解決了。
  • 12:25 - 12:27
    (笑聲)
  • 12:27 - 12:32
    更深層的問題是,
    打造超級人工智能本身,
  • 12:32 - 12:34
    似乎相對容易於
  • 12:34 - 12:36
    打造超級人工智慧
  • 12:36 - 12:38
    並擁有完整的神經科學,
  • 12:38 - 12:40
    讓我們可以把我們的心智
    無縫與之整合。
  • 12:41 - 12:44
    而假設正在從事人工智能
    研發的許多公司和政府,
  • 12:44 - 12:48
    很可能察覺他們
    正在和所有其他人競爭,
  • 12:48 - 12:51
    假設贏了這個競爭就是贏得世界,
  • 12:51 - 12:53
    假設你在下一刻不會毀了世界,
  • 12:53 - 12:56
    那麼很可能比較容易做的事
  • 12:56 - 12:57
    就會先被做完。
  • 12:59 - 13:01
    現在,很不幸地,
    我沒有這個問題的解決方法,
  • 13:01 - 13:04
    除了建議我們更多人思考這個問題。
  • 13:04 - 13:06
    我想我們需要類似曼哈頓計畫的東西,
  • 13:06 - 13:08
    針對人工智能這個課題。
  • 13:08 - 13:11
    不是因為我們不可避免地
    要這麼做而做,
  • 13:11 - 13:15
    而是試著理解如何避免軍備競賽,
  • 13:15 - 13:18
    而且用一種符合
    我們利益的方式打造之。
  • 13:18 - 13:22
    當你在談論能夠對其本身
    造成改變的超級人工智能,
  • 13:23 - 13:27
    這似乎說明我們只有一次機會
    把初始條件做對,
  • 13:27 - 13:29
    而且我們會必須承受
  • 13:29 - 13:32
    為了將它們做對的經濟和政治後果。
  • 13:34 - 13:36
    但一旦我們承認
  • 13:36 - 13:40
    資訊處理是智能的源頭,
  • 13:41 - 13:46
    某些適當的電腦系統是智能的基礎,
  • 13:46 - 13:50
    而且我們承認我們會
    持續改進這些系統,
  • 13:51 - 13:56
    而且我們承認認知的極限
    有可能遠遠超越
  • 13:56 - 13:57
    我們目前所知,
  • 13:58 - 13:59
    我們就會承認
  • 13:59 - 14:02
    我們正在打造某種神明的過程裡。
  • 14:03 - 14:05
    現在是個好時機
  • 14:05 - 14:07
    來確保那是個我們能夠
    與之共存的神明。
  • 14:08 - 14:10
    謝謝大家。
Title:
我們能打造不會失控的人工智慧?
Speaker:
山姆‧哈里斯
Description:

害怕超級人工智能嗎?你應該感到害怕,神經科學家、哲學家山姆哈里斯說──而且不只是從某種純理論角度出發。我們將會造出超人類機器,山姆哈里斯說,但我們尚未抓到問題,關於創造出一個會對待我們如同我們對待螞蟻的東西。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Chinese, Traditional subtitles

Revisions Compare revisions