Return to Video

我哋可唔可以完全掌控人工智能?

  • 0:01 - 0:05
    我想講下
    一個好多人都經歷過嘅感官錯覺
  • 0:05 - 0:07
    當呢個錯覺嚟嗰陣
  • 0:07 - 0:09
    我哋會唔識得留意危險
  • 0:09 - 0:14
    我亦都想講下一個我認為駭人聽聞
  • 0:14 - 0:17
    同時又好有可能會發生嘅情景
  • 0:17 - 0:20
    呢個情景發生嘅話,唔係一件好事嚟
  • 0:20 - 0:23
    你哋可能唔覺得我依家講緊嘅嘢恐怖
  • 0:23 - 0:25
    反而覺得好型
  • 0:25 - 0:30
    所以我想講下
    我哋人類喺人工智能方面取得嘅成就
  • 0:30 - 0:32
    最终會點樣摧毀我哋
  • 0:32 - 0:34
    而事實上,我認為好難會見到
  • 0:34 - 0:37
    佢哋唔會摧毀我哋
    或者導致我哋自我毀滅
  • 0:37 - 0:39
    依家你哋或者同我一樣
  • 0:39 - 0:42
    覺得諗呢啲嘢好得意
  • 0:42 - 0:44
    正因為覺得得意
  • 0:44 - 0:46
    亦都成為咗問題嘅一部份
  • 0:46 - 0:48
    你哋應該擔心你哋嘅反應至真!
  • 0:48 - 0:51
    如果我喺呢場演講度話畀你哋聽
  • 0:51 - 0:54
    因為氣候變化或者大災難嘅原因
  • 0:54 - 0:57
    我哋會遭遇一場饑荒
  • 0:57 - 1:03
    而你嘅孫,或者佢哋嘅孫
    會好似咁樣生活
  • 1:03 - 1:04
    你就唔會覺得
  • 1:04 - 1:08
    「好有趣,我鍾意呢場 TED 演講。」
  • 1:09 - 1:11
    饑荒一啲都唔有趣
  • 1:12 - 1:15
    但科幻小說描繪嘅死亡就好有趣
  • 1:15 - 1:19
    呢一刻,人工智能發展
    最令我最困擾嘅係
  • 1:19 - 1:25
    我哋面對近在眼前嘅危險似乎無動於衷
  • 1:25 - 1:27
    雖然我喺你哋面前演講
  • 1:27 - 1:30
    但我同你哋一樣都係冇反應
  • 1:30 - 1:33
    成件事就好似我哋企喺兩道門前面
  • 1:33 - 1:37
    喺一號門後面,我哋唔再發展智能機器
  • 1:37 - 1:38
    因為某啲原因
  • 1:38 - 1:41
    我哋電腦嘅硬件同軟件都停滯不前
  • 1:41 - 1:45
    依家嚟諗一下點解呢種情況會發生
  • 1:45 - 1:49
    即係話,因為智能同自動化好重要
  • 1:49 - 1:52
    所以我哋會喺許可嘅情況之下
    繼續改善科技
  • 1:53 - 1:56
    咁究竟係乜嘢會阻止我哋?
  • 1:56 - 1:58
    一個全面嘅核戰爭?
  • 1:59 - 2:01
    一個全球流行病?
  • 2:02 - 2:04
    一個小行星撞擊?
  • 2:05 - 2:08
    Justin Bieber 做咗美國總統?
  • 2:08 - 2:10
    (笑聲)
  • 2:13 - 2:15
    之但係,如我哋所知
  • 2:15 - 2:17
    有一啲嘢會摧毀文明
  • 2:17 - 2:19
    你必須要想像
  • 2:19 - 2:26
    如果我哋一代又一代人
    永遠改善唔到科技
  • 2:26 - 2:28
    情況會有幾嚴重
  • 2:28 - 2:30
    幾乎可以確定嘅係
  • 2:30 - 2:32
    呢個係人類史上最壞嘅事
  • 2:32 - 2:36
    所以唯一嘅選擇
    就係二號門後嘅做法
  • 2:36 - 2:41
    我哋繼續年復一年升級改造智能機器
  • 2:41 - 2:42
    到咗某個地步
  • 2:42 - 2:46
    我哋就會整出比我哋仲要聰明嘅機器
  • 2:46 - 2:48
    一旦我哋有咗比我哋自己
    仲聰明嘅機器
  • 2:48 - 2:51
    佢哋就會自我改良
  • 2:51 - 2:55
    到時我哋就會面臨數學家 IJ Good
    講嘅「智能爆炸」危機
  • 2:55 - 2:58
    即係話,改良過程唔再需要人類
  • 2:58 - 3:01
    依家,經常會有人學呢張諷刺漫畫咁
  • 3:01 - 3:05
    描繪叛變嘅機器人會攻擊我哋
  • 3:05 - 3:09
    但係呢個唔係最有可能發生嘅情景
  • 3:09 - 3:13
    我哋嘅機器唔會自動變惡
  • 3:13 - 3:18
    所以問題在於我哋製造出
    比我哋更加做到嘢嘅機器嘅時候
  • 3:18 - 3:22
    佢哋目標上同我哋嘅細微分歧
    會置我哋於死地
  • 3:24 - 3:27
    就諗下我哋同螞蟻之間嘅關係︰
  • 3:27 - 3:28
    我哋唔討厭佢哋
  • 3:28 - 3:31
    我哋唔會傷害佢哋
  • 3:31 - 3:33
    甚至我哋為咗唔傷害佢哋
    而會受一啲苦
  • 3:33 - 3:35
    例如我哋會為咗唔踩到佢哋
    而跨過佢哋
  • 3:35 - 3:39
    但係一旦佢哋嘅存在
    同我哋嘅其中一個目標有嚴重衝突
  • 3:39 - 3:42
    譬如話要起一棟咁樣嘅樓
  • 3:42 - 3:45
    我哋諗都唔諗就殺死佢哋
  • 3:45 - 3:48
    問題係,我哋終有一日整出嘅機器——
  • 3:48 - 3:50
    無論佢哋自己有冇意識都好
  • 3:50 - 3:52
    同樣會冷漠咁對待我哋
  • 3:53 - 3:57
    依家,我估對於你哋大部份人嚟講
    呢件情景都係遙不可及嘅
  • 3:57 - 4:03
    我賭你哋當中有人質疑
    超級智能嘅可能性
  • 4:03 - 4:05
    更加唔好講
    人類要避免超級智能
  • 4:05 - 4:09
    但係你哋肯定會喺下面嘅假設當中
    搵到一啲謬誤
  • 4:09 - 4:11
    呢度一共有三個假設
  • 4:12 - 4:17
    喺物理系統裏面,智能等如訊息處理
  • 4:17 - 4:19
    但係,呢個超過咗假設
  • 4:19 - 4:23
    因為我哋已經喺我哋嘅機器裏面
    植入咗弱人工智能
  • 4:23 - 4:29
    而且呢啲機器好多
    已經處於一個超人類智能水平
  • 4:29 - 4:34
    同時我哋知道僅僅係物質
    就可以產生所謂嘅「一般智能」
  • 4:34 - 4:37
    一種可以喺唔同領域之間
    靈活思考嘅能力
  • 4:37 - 4:41
    咁係因為我哋嘅大腦
    已經可以做到,係唔係?
  • 4:41 - 4:45
    我嘅意思係,大腦凈係得原子
  • 4:45 - 4:49
    只要我哋繼續加設原子系統
  • 4:49 - 4:52
    機器就可以有更加多智能行為
  • 4:52 - 4:55
    除非進度有咩停頓
  • 4:55 - 4:59
    否則我哋最終會喺機器裏面
    建構出一般智能
  • 4:59 - 5:03
    明白進度嘅快慢並唔影響係好重要
  • 5:03 - 5:06
    因為任何過程都足以令我哋返唔到轉頭
  • 5:06 - 5:08
    我哋唔需要按照摩爾定律進行
  • 5:08 - 5:10
    我哋唔需要指數式增長
  • 5:10 - 5:12
    我哋只需要繼續做
  • 5:13 - 5:17
    第二個假設就係我哋會繼續做
  • 5:17 - 5:20
    我哋會繼續改造我哋嘅智能機器
  • 5:21 - 5:25
    而考慮到智能嘅價值…
  • 5:25 - 5:29
    我係話,因為有智能
    我哋至會珍重事物
  • 5:29 - 5:32
    或者我哋需要智能
    去保護我哋珍重嘅一切
  • 5:32 - 5:34
    智能係我哋最有寶貴嘅資源
  • 5:34 - 5:36
    所以我哋想繼續發展智能
  • 5:36 - 5:39
    我哋有極需解決嘅問題
  • 5:39 - 5:43
    例如我哋想治療類似阿茲海默症
    同癌症嘅疾病
  • 5:43 - 5:45
    我哋想認識經濟系統
  • 5:45 - 5:47
    我哋想改善我哋嘅氣候科學
  • 5:47 - 5:49
    所以如果可以做到嘅話
    我哋會繼續發展智能
  • 5:49 - 5:53
    件事亦都可以比喻為︰
    列車已經開出,但冇刹車掣可以踩
  • 5:54 - 6:01
    最終,我哋唔會去到
    智能嘅頂峰或者高智能水平
  • 6:02 - 6:04
    而呢個就係非常重要嘅觀察結果
  • 6:04 - 6:06
    就係呢個結果
    將我哋置於岌岌可危嘅境地
  • 6:06 - 6:11
    亦令到我哋對於危險嘅觸覺唔可靠
  • 6:11 - 6:14
    依家,就諗下史上最聰明嘅人
  • 6:14 - 6:18
    幾乎喺每個人嘅名單上面
    都會有 John von Neumann
  • 6:18 - 6:21
    我嘅意思係 John von Neumann
    畀佢周圍嘅人嘅印象
  • 6:21 - 6:25
    包括佢畀嗰個時代最犀利嘅數學家
    同物理學家嘅印象
  • 6:25 - 6:27
    都係有紀錄低嘅
  • 6:27 - 6:31
    如果一半關於佢嘅故事有一半係真嘅
  • 6:31 - 6:32
    咁毫無疑問
  • 6:32 - 6:34
    佢係有史以來其中一個最聰明嘅人
  • 6:34 - 6:38
    所以當我哋畫一幅比較智力嘅圖
  • 6:38 - 6:41
    喺右邊高分嘅位置
    我哋有 John von Neumann
  • 6:41 - 6:43
    喺中間有你同我
  • 6:44 - 6:46
    去到最左邊,我哋有雞仔
  • 6:46 - 6:47
    (笑聲)
  • 6:47 - 6:49
    係吖,就係一隻雞仔
  • 6:49 - 6:50
    (笑聲)
  • 6:50 - 6:53
    我冇理由將呢個演講搞到咁灰㗎
  • 6:53 - 6:57
    (笑聲)
  • 6:57 - 7:04
    但好有可能智力分佈
    遠比我哋目前認知嘅廣
  • 7:04 - 7:07
    如果我哋建造出
    比我哋擁有更高智慧嘅機器
  • 7:07 - 7:12
    佢哋嘅智力好有可能會
    超越我哋認知嘅最高智力
  • 7:12 - 7:14
    同埋以無法想像嘅方式超越我哋
  • 7:15 - 7:19
    同樣重要嘅係
    單憑運算速度就可以超越我哋
  • 7:19 - 7:21
    啱唔啱?諗下如果我哋整咗一個
  • 7:21 - 7:30
    冇哈佛或者麻省理工研究人員
    咁聰明嘅超級人工智能
  • 7:30 - 7:34
    但電路運行速度大概
    比生化電路快一百萬倍
  • 7:34 - 7:39
    所以呢個機器嘅思考速度應該會
    比佢嘅創造者快大概一百萬倍
  • 7:39 - 7:41
    所以如果佢運行一個星期
  • 7:41 - 7:48
    佢就可以完成人類要兩萬年
    先至完成得到嘅工作
  • 7:49 - 7:51
    而我哋又點會明白
  • 7:51 - 7:55
    人工智能係點樣完成咁龐大嘅運算呢?
  • 7:57 - 8:02
    另一個令人擔憂嘅事,老實講
  • 8:02 - 8:04
    就係…不如想像一下最好嘅情形
  • 8:04 - 8:10
    想像一下我哋設計咗一個
    冇安全問題嘅超級人工智能
  • 8:10 - 8:13
    我哋第一次擁有完美嘅設計
  • 8:13 - 8:17
    就好似我哋摞住
    一個按照預期發展嘅神諭
  • 8:18 - 8:22
    呢個機器仲會變成完美嘅慳力設備
  • 8:22 - 8:24
    事關機器可以生產另一款機器出嚟
  • 8:24 - 8:26
    做任何體力勞動
  • 8:26 - 8:27
    兼由太陽能驅動
  • 8:27 - 8:30
    成本仲同買原材料差唔多
  • 8:30 - 8:33
    所以,我哋唔單止講緊咕哩勞力嘅終結
  • 8:33 - 8:37
    我哋同時講緊大部份用腦工作嘅終結
  • 8:37 - 8:40
    咁我哋人類面對工作削減
    應該何去何從?
  • 8:40 - 8:45
    我哋會好自由咁去掟飛盤 、同人按摩
  • 8:45 - 8:49
    服食一啲 LSD 精神藥
    同埋著上怪異服飾
  • 8:49 - 8:51
    於是成個世界都會變成火人節嘅人咁
  • 8:51 - 8:53
    (笑聲)
  • 8:55 - 8:57
    頭先講到嘅嘢聽起上嚟好似好好咁
  • 8:57 - 8:59
    但係撫心自問
  • 8:59 - 9:02
    面對目前嘅經濟政治秩序
    乜嘢會發生呢?
  • 9:03 - 9:05
    似乎我哋會目睹
  • 9:05 - 9:10
    我哋從未見過咁嚴重嘅
    貧富懸殊同失業率
  • 9:10 - 9:15
    如果呢筆新財富唔即時用嚟服務全人類
  • 9:15 - 9:19
    就算一啲億萬富翁使好多錢
    㨘靚商業雜誌嘅封面
  • 9:19 - 9:22
    世界上其他人都要挨餓
  • 9:22 - 9:24
    咁如果俄羅斯人或者中國人
  • 9:24 - 9:29
    聽到矽谷嘅一啲公司
    打算使用一個超級人工智能
  • 9:29 - 9:30
    佢哋會點諗?
  • 9:30 - 9:35
    呢個機器有能力用未見過嘅力度
    發動地面或者網絡戰爭
  • 9:35 - 9:37
    呢個係「勝者全取」嘅情況
  • 9:38 - 9:43
    喺呢場人工智能較量中有六個月嘅優勢
  • 9:43 - 9:47
    就係至少要做多人類五十萬年做到嘅嘢
  • 9:47 - 9:54
    甚至只係關於人工智能突破嘅謠言
    就可以令到人類亂起上嚟
  • 9:55 - 10:00
    依家最驚人嘅一件事,我覺得
  • 10:00 - 10:06
    就係人工智能研究人員
    安定人心時講嘅說話
  • 10:07 - 10:10
    佢哋成日話,因為我哋有時間
    所以我哋唔需要擔心
  • 10:10 - 10:13
    「乜你唔知有排咩?
  • 10:13 - 10:15
    仲有五十年或者一百年先到。」
  • 10:16 - 10:17
    一位研究人員曾經咁講︰
  • 10:17 - 10:21
    「擔心人工智能嘅安全就好似
    擔心火星人口爆棚一樣。」
  • 10:22 - 10:24
    呢句嘢等如矽谷同你講︰
  • 10:24 - 10:26
    「你十八廿二就杞人憂天!」
  • 10:26 - 10:27
    (笑聲)
  • 10:27 - 10:34
    冇人意識到
    攞時間嚟到講完全係無稽之談
  • 10:34 - 10:38
    如果智能凈係同處理訊息有關
  • 10:38 - 10:41
    同埋我哋繼續改良我哋嘅機器嘅話
  • 10:41 - 10:44
    我哋最終會生產到超級智能
  • 10:44 - 10:47
    但我哋唔知道要用幾長時間
  • 10:47 - 10:51
    先可以生產安全嘅超級智能
  • 10:52 - 10:53
    等我再講多一次
  • 10:53 - 10:57
    我哋唔知道要用幾長時間
  • 10:57 - 10:59
    先可以生產安全嘅超級智能
  • 11:01 - 11:02
    如果你仲未意識到
  • 11:02 - 11:05
    五十年嘅概念已經唔同咗喇
  • 11:05 - 11:07
    呢幅圖顯示咗以月份計嘅五十年
  • 11:07 - 11:09
    先係 iPhone 面世至今嘅時間
  • 11:09 - 11:12
    再係阿森一族出現係電視上嘅時間
  • 11:12 - 11:18
    五十年不足以畀人類應對最大挑戰
  • 11:20 - 11:23
    再一次,我哋對於有理由發生嘅事
  • 11:23 - 11:26
    未有採取適當嘅情緒反應
  • 11:26 - 11:30
    對此,電腦科學家 Stuart Russell
    有一個好嘅比喻
  • 11:30 - 11:35
    佢話︰想像一下我哋收到
    一個來自外星文明嘅信息
  • 11:35 - 11:36
    上面寫住:
  • 11:36 - 11:38
    「地球上嘅人類,
  • 11:38 - 11:42
    我哋五十年之後會到達你哋嘅星球。
  • 11:42 - 11:43
    請準備好。」
  • 11:43 - 11:47
    咁我哋依家凈係會倒數外星人來臨?
  • 11:48 - 11:51
    我哋應該更加緊張至係
  • 11:53 - 11:55
    另一個我哋被告知唔使擔心嘅原因係
  • 11:55 - 11:58
    呢啲機器只會識得
    將我哋嘅價值觀傳開
  • 11:58 - 12:00
    因為佢哋係我哋人類嘅附屬嘅一部分
  • 12:00 - 12:02
    但同時佢哋會被植入我哋嘅大腦
  • 12:02 - 12:05
    所以我哋會成為佢哋嘅邊緣系統
  • 12:05 - 12:09
    依家使啲時間諗下
    最安全同唯一審慎嘅做法
  • 12:09 - 12:14
    而推薦嘅做法就係
    直接將呢種科技植入我哋嘅大腦
  • 12:15 - 12:18
    呢種做法可能係最安全同唯一審慎嘅
  • 12:18 - 12:21
    但係喺你將佢植入你個腦之前
  • 12:21 - 12:25
    科技嘅安全問題需要解決
  • 12:25 - 12:27
    (笑聲)
  • 12:27 - 12:28
    更深一層嘅問題係
  • 12:28 - 12:32
    人工智能自己整超級人工智能
  • 12:32 - 12:36
    似乎比整一個可以喺神經科學上
  • 12:36 - 12:40
    同我哋腦部無縫接合嘅
    超級人工智能簡單
  • 12:41 - 12:47
    考慮到從事研發人工智能嘅公司
    同政府好可能會互相競爭
  • 12:47 - 12:51
    考慮到要贏呢場比賽就要贏成個世界
  • 12:51 - 12:54
    同埋先假設如果你下一刻
    唔會糟塌人工智能嘅成果
  • 12:54 - 12:58
    咁樣,似乎更加簡單嘅事會完成咗先
  • 12:58 - 13:01
    但唔好彩嘅係
    我除咗叫大家反思呢個問題
  • 13:01 - 13:03
    我就再冇辦法解決呢個問題
  • 13:03 - 13:06
    我覺得我哋喺人工智能方面
  • 13:06 - 13:08
    需要好似「曼哈頓計劃」咁嘅計劃
  • 13:08 - 13:12
    唔係講點樣整人工智能
    因為我認為人工智能終有一日會整到
  • 13:12 - 13:14
    而係搞清楚點樣避免一場軍備競賽
  • 13:14 - 13:18
    同埋往符合我哋利益嘅方向
    發展人工智能
  • 13:18 - 13:23
    當你講緊可以自我改造嘅超級人工智能
  • 13:23 - 13:27
    我哋似乎只有一個機會
    令到人工智能發展得安全
  • 13:27 - 13:28
    就算發展得安全
  • 13:28 - 13:33
    我哋都要接受
    人工智能對經濟同政治產生嘅結果
  • 13:34 - 13:40
    但係當我哋同意
    訊息處理係智能嘅起步點
  • 13:40 - 13:46
    同意一啲適當嘅計算系統係智能嘅基礎
  • 13:46 - 13:51
    同意我哋會不斷完善人工智能
  • 13:51 - 13:58
    同意將來有好多嘢超越我哋認知嘅
  • 13:58 - 14:03
    咁我哋就必須要承認
    我哋正喺度創造緊某種神明
  • 14:03 - 14:07
    依家會係一個好時機
    確保佢係可以同我哋共存嘅神明
  • 14:08 - 14:09
    好多謝你哋
  • 14:09 - 14:11
    (掌聲)
Title:
我哋可唔可以完全掌控人工智能?
Speaker:
Sam Harris
Description:

怕超級人工智能?神經學家同哲學家 Sam Harris 話畀你知你應該要怕,而且唔單止係口講嘅怕,仲要實在嘅怕。Sam Harris 話人類將要開發比人類仲犀利嘅機器,但係人類仲未處理好一啲帶嚟嘅問題,包括機器有可能會以我哋對待螞蟻嘅方式對待我哋。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Chinese, Yue subtitles

Revisions