我哋可唔可以完全掌控人工智能?
-
0:01 - 0:05我想講下
一個好多人都經歷過嘅感官錯覺 -
0:05 - 0:07當呢個錯覺嚟嗰陣
-
0:07 - 0:09我哋會唔識得留意危險
-
0:09 - 0:14我亦都想講下一個我認為駭人聽聞
-
0:14 - 0:17同時又好有可能會發生嘅情景
-
0:17 - 0:20呢個情景發生嘅話,唔係一件好事嚟
-
0:20 - 0:23你哋可能唔覺得我依家講緊嘅嘢恐怖
-
0:23 - 0:25反而覺得好型
-
0:25 - 0:30所以我想講下
我哋人類喺人工智能方面取得嘅成就 -
0:30 - 0:32最终會點樣摧毀我哋
-
0:32 - 0:34而事實上,我認為好難會見到
-
0:34 - 0:37佢哋唔會摧毀我哋
或者導致我哋自我毀滅 -
0:37 - 0:39依家你哋或者同我一樣
-
0:39 - 0:42覺得諗呢啲嘢好得意
-
0:42 - 0:44正因為覺得得意
-
0:44 - 0:46亦都成為咗問題嘅一部份
-
0:46 - 0:48你哋應該擔心你哋嘅反應至真!
-
0:48 - 0:51如果我喺呢場演講度話畀你哋聽
-
0:51 - 0:54因為氣候變化或者大災難嘅原因
-
0:54 - 0:57我哋會遭遇一場饑荒
-
0:57 - 1:03而你嘅孫,或者佢哋嘅孫
會好似咁樣生活 -
1:03 - 1:04你就唔會覺得
-
1:04 - 1:08「好有趣,我鍾意呢場 TED 演講。」
-
1:09 - 1:11饑荒一啲都唔有趣
-
1:12 - 1:15但科幻小說描繪嘅死亡就好有趣
-
1:15 - 1:19呢一刻,人工智能發展
最令我最困擾嘅係 -
1:19 - 1:25我哋面對近在眼前嘅危險似乎無動於衷
-
1:25 - 1:27雖然我喺你哋面前演講
-
1:27 - 1:30但我同你哋一樣都係冇反應
-
1:30 - 1:33成件事就好似我哋企喺兩道門前面
-
1:33 - 1:37喺一號門後面,我哋唔再發展智能機器
-
1:37 - 1:38因為某啲原因
-
1:38 - 1:41我哋電腦嘅硬件同軟件都停滯不前
-
1:41 - 1:45依家嚟諗一下點解呢種情況會發生
-
1:45 - 1:49即係話,因為智能同自動化好重要
-
1:49 - 1:52所以我哋會喺許可嘅情況之下
繼續改善科技 -
1:53 - 1:56咁究竟係乜嘢會阻止我哋?
-
1:56 - 1:58一個全面嘅核戰爭?
-
1:59 - 2:01一個全球流行病?
-
2:02 - 2:04一個小行星撞擊?
-
2:05 - 2:08Justin Bieber 做咗美國總統?
-
2:08 - 2:10(笑聲)
-
2:13 - 2:15之但係,如我哋所知
-
2:15 - 2:17有一啲嘢會摧毀文明
-
2:17 - 2:19你必須要想像
-
2:19 - 2:26如果我哋一代又一代人
永遠改善唔到科技 -
2:26 - 2:28情況會有幾嚴重
-
2:28 - 2:30幾乎可以確定嘅係
-
2:30 - 2:32呢個係人類史上最壞嘅事
-
2:32 - 2:36所以唯一嘅選擇
就係二號門後嘅做法 -
2:36 - 2:41我哋繼續年復一年升級改造智能機器
-
2:41 - 2:42到咗某個地步
-
2:42 - 2:46我哋就會整出比我哋仲要聰明嘅機器
-
2:46 - 2:48一旦我哋有咗比我哋自己
仲聰明嘅機器 -
2:48 - 2:51佢哋就會自我改良
-
2:51 - 2:55到時我哋就會面臨數學家 IJ Good
講嘅「智能爆炸」危機 -
2:55 - 2:58即係話,改良過程唔再需要人類
-
2:58 - 3:01依家,經常會有人學呢張諷刺漫畫咁
-
3:01 - 3:05描繪叛變嘅機器人會攻擊我哋
-
3:05 - 3:09但係呢個唔係最有可能發生嘅情景
-
3:09 - 3:13我哋嘅機器唔會自動變惡
-
3:13 - 3:18所以問題在於我哋製造出
比我哋更加做到嘢嘅機器嘅時候 -
3:18 - 3:22佢哋目標上同我哋嘅細微分歧
會置我哋於死地 -
3:24 - 3:27就諗下我哋同螞蟻之間嘅關係︰
-
3:27 - 3:28我哋唔討厭佢哋
-
3:28 - 3:31我哋唔會傷害佢哋
-
3:31 - 3:33甚至我哋為咗唔傷害佢哋
而會受一啲苦 -
3:33 - 3:35例如我哋會為咗唔踩到佢哋
而跨過佢哋 -
3:35 - 3:39但係一旦佢哋嘅存在
同我哋嘅其中一個目標有嚴重衝突 -
3:39 - 3:42譬如話要起一棟咁樣嘅樓
-
3:42 - 3:45我哋諗都唔諗就殺死佢哋
-
3:45 - 3:48問題係,我哋終有一日整出嘅機器——
-
3:48 - 3:50無論佢哋自己有冇意識都好
-
3:50 - 3:52同樣會冷漠咁對待我哋
-
3:53 - 3:57依家,我估對於你哋大部份人嚟講
呢件情景都係遙不可及嘅 -
3:57 - 4:03我賭你哋當中有人質疑
超級智能嘅可能性 -
4:03 - 4:05更加唔好講
人類要避免超級智能 -
4:05 - 4:09但係你哋肯定會喺下面嘅假設當中
搵到一啲謬誤 -
4:09 - 4:11呢度一共有三個假設
-
4:12 - 4:17喺物理系統裏面,智能等如訊息處理
-
4:17 - 4:19但係,呢個超過咗假設
-
4:19 - 4:23因為我哋已經喺我哋嘅機器裏面
植入咗弱人工智能 -
4:23 - 4:29而且呢啲機器好多
已經處於一個超人類智能水平 -
4:29 - 4:34同時我哋知道僅僅係物質
就可以產生所謂嘅「一般智能」 -
4:34 - 4:37一種可以喺唔同領域之間
靈活思考嘅能力 -
4:37 - 4:41咁係因為我哋嘅大腦
已經可以做到,係唔係? -
4:41 - 4:45我嘅意思係,大腦凈係得原子
-
4:45 - 4:49只要我哋繼續加設原子系統
-
4:49 - 4:52機器就可以有更加多智能行為
-
4:52 - 4:55除非進度有咩停頓
-
4:55 - 4:59否則我哋最終會喺機器裏面
建構出一般智能 -
4:59 - 5:03明白進度嘅快慢並唔影響係好重要
-
5:03 - 5:06因為任何過程都足以令我哋返唔到轉頭
-
5:06 - 5:08我哋唔需要按照摩爾定律進行
-
5:08 - 5:10我哋唔需要指數式增長
-
5:10 - 5:12我哋只需要繼續做
-
5:13 - 5:17第二個假設就係我哋會繼續做
-
5:17 - 5:20我哋會繼續改造我哋嘅智能機器
-
5:21 - 5:25而考慮到智能嘅價值…
-
5:25 - 5:29我係話,因為有智能
我哋至會珍重事物 -
5:29 - 5:32或者我哋需要智能
去保護我哋珍重嘅一切 -
5:32 - 5:34智能係我哋最有寶貴嘅資源
-
5:34 - 5:36所以我哋想繼續發展智能
-
5:36 - 5:39我哋有極需解決嘅問題
-
5:39 - 5:43例如我哋想治療類似阿茲海默症
同癌症嘅疾病 -
5:43 - 5:45我哋想認識經濟系統
-
5:45 - 5:47我哋想改善我哋嘅氣候科學
-
5:47 - 5:49所以如果可以做到嘅話
我哋會繼續發展智能 -
5:49 - 5:53件事亦都可以比喻為︰
列車已經開出,但冇刹車掣可以踩 -
5:54 - 6:01最終,我哋唔會去到
智能嘅頂峰或者高智能水平 -
6:02 - 6:04而呢個就係非常重要嘅觀察結果
-
6:04 - 6:06就係呢個結果
將我哋置於岌岌可危嘅境地 -
6:06 - 6:11亦令到我哋對於危險嘅觸覺唔可靠
-
6:11 - 6:14依家,就諗下史上最聰明嘅人
-
6:14 - 6:18幾乎喺每個人嘅名單上面
都會有 John von Neumann -
6:18 - 6:21我嘅意思係 John von Neumann
畀佢周圍嘅人嘅印象 -
6:21 - 6:25包括佢畀嗰個時代最犀利嘅數學家
同物理學家嘅印象 -
6:25 - 6:27都係有紀錄低嘅
-
6:27 - 6:31如果一半關於佢嘅故事有一半係真嘅
-
6:31 - 6:32咁毫無疑問
-
6:32 - 6:34佢係有史以來其中一個最聰明嘅人
-
6:34 - 6:38所以當我哋畫一幅比較智力嘅圖
-
6:38 - 6:41喺右邊高分嘅位置
我哋有 John von Neumann -
6:41 - 6:43喺中間有你同我
-
6:44 - 6:46去到最左邊,我哋有雞仔
-
6:46 - 6:47(笑聲)
-
6:47 - 6:49係吖,就係一隻雞仔
-
6:49 - 6:50(笑聲)
-
6:50 - 6:53我冇理由將呢個演講搞到咁灰㗎
-
6:53 - 6:57(笑聲)
-
6:57 - 7:04但好有可能智力分佈
遠比我哋目前認知嘅廣 -
7:04 - 7:07如果我哋建造出
比我哋擁有更高智慧嘅機器 -
7:07 - 7:12佢哋嘅智力好有可能會
超越我哋認知嘅最高智力 -
7:12 - 7:14同埋以無法想像嘅方式超越我哋
-
7:15 - 7:19同樣重要嘅係
單憑運算速度就可以超越我哋 -
7:19 - 7:21啱唔啱?諗下如果我哋整咗一個
-
7:21 - 7:30冇哈佛或者麻省理工研究人員
咁聰明嘅超級人工智能 -
7:30 - 7:34但電路運行速度大概
比生化電路快一百萬倍 -
7:34 - 7:39所以呢個機器嘅思考速度應該會
比佢嘅創造者快大概一百萬倍 -
7:39 - 7:41所以如果佢運行一個星期
-
7:41 - 7:48佢就可以完成人類要兩萬年
先至完成得到嘅工作 -
7:49 - 7:51而我哋又點會明白
-
7:51 - 7:55人工智能係點樣完成咁龐大嘅運算呢?
-
7:57 - 8:02另一個令人擔憂嘅事,老實講
-
8:02 - 8:04就係…不如想像一下最好嘅情形
-
8:04 - 8:10想像一下我哋設計咗一個
冇安全問題嘅超級人工智能 -
8:10 - 8:13我哋第一次擁有完美嘅設計
-
8:13 - 8:17就好似我哋摞住
一個按照預期發展嘅神諭 -
8:18 - 8:22呢個機器仲會變成完美嘅慳力設備
-
8:22 - 8:24事關機器可以生產另一款機器出嚟
-
8:24 - 8:26做任何體力勞動
-
8:26 - 8:27兼由太陽能驅動
-
8:27 - 8:30成本仲同買原材料差唔多
-
8:30 - 8:33所以,我哋唔單止講緊咕哩勞力嘅終結
-
8:33 - 8:37我哋同時講緊大部份用腦工作嘅終結
-
8:37 - 8:40咁我哋人類面對工作削減
應該何去何從? -
8:40 - 8:45我哋會好自由咁去掟飛盤 、同人按摩
-
8:45 - 8:49服食一啲 LSD 精神藥
同埋著上怪異服飾 -
8:49 - 8:51於是成個世界都會變成火人節嘅人咁
-
8:51 - 8:53(笑聲)
-
8:55 - 8:57頭先講到嘅嘢聽起上嚟好似好好咁
-
8:57 - 8:59但係撫心自問
-
8:59 - 9:02面對目前嘅經濟政治秩序
乜嘢會發生呢? -
9:03 - 9:05似乎我哋會目睹
-
9:05 - 9:10我哋從未見過咁嚴重嘅
貧富懸殊同失業率 -
9:10 - 9:15如果呢筆新財富唔即時用嚟服務全人類
-
9:15 - 9:19就算一啲億萬富翁使好多錢
㨘靚商業雜誌嘅封面 -
9:19 - 9:22世界上其他人都要挨餓
-
9:22 - 9:24咁如果俄羅斯人或者中國人
-
9:24 - 9:29聽到矽谷嘅一啲公司
打算使用一個超級人工智能 -
9:29 - 9:30佢哋會點諗?
-
9:30 - 9:35呢個機器有能力用未見過嘅力度
發動地面或者網絡戰爭 -
9:35 - 9:37呢個係「勝者全取」嘅情況
-
9:38 - 9:43喺呢場人工智能較量中有六個月嘅優勢
-
9:43 - 9:47就係至少要做多人類五十萬年做到嘅嘢
-
9:47 - 9:54甚至只係關於人工智能突破嘅謠言
就可以令到人類亂起上嚟 -
9:55 - 10:00依家最驚人嘅一件事,我覺得
-
10:00 - 10:06就係人工智能研究人員
安定人心時講嘅說話 -
10:07 - 10:10佢哋成日話,因為我哋有時間
所以我哋唔需要擔心 -
10:10 - 10:13「乜你唔知有排咩?
-
10:13 - 10:15仲有五十年或者一百年先到。」
-
10:16 - 10:17一位研究人員曾經咁講︰
-
10:17 - 10:21「擔心人工智能嘅安全就好似
擔心火星人口爆棚一樣。」 -
10:22 - 10:24呢句嘢等如矽谷同你講︰
-
10:24 - 10:26「你十八廿二就杞人憂天!」
-
10:26 - 10:27(笑聲)
-
10:27 - 10:34冇人意識到
攞時間嚟到講完全係無稽之談 -
10:34 - 10:38如果智能凈係同處理訊息有關
-
10:38 - 10:41同埋我哋繼續改良我哋嘅機器嘅話
-
10:41 - 10:44我哋最終會生產到超級智能
-
10:44 - 10:47但我哋唔知道要用幾長時間
-
10:47 - 10:51先可以生產安全嘅超級智能
-
10:52 - 10:53等我再講多一次
-
10:53 - 10:57我哋唔知道要用幾長時間
-
10:57 - 10:59先可以生產安全嘅超級智能
-
11:01 - 11:02如果你仲未意識到
-
11:02 - 11:05五十年嘅概念已經唔同咗喇
-
11:05 - 11:07呢幅圖顯示咗以月份計嘅五十年
-
11:07 - 11:09先係 iPhone 面世至今嘅時間
-
11:09 - 11:12再係阿森一族出現係電視上嘅時間
-
11:12 - 11:18五十年不足以畀人類應對最大挑戰
-
11:20 - 11:23再一次,我哋對於有理由發生嘅事
-
11:23 - 11:26未有採取適當嘅情緒反應
-
11:26 - 11:30對此,電腦科學家 Stuart Russell
有一個好嘅比喻 -
11:30 - 11:35佢話︰想像一下我哋收到
一個來自外星文明嘅信息 -
11:35 - 11:36上面寫住:
-
11:36 - 11:38「地球上嘅人類,
-
11:38 - 11:42我哋五十年之後會到達你哋嘅星球。
-
11:42 - 11:43請準備好。」
-
11:43 - 11:47咁我哋依家凈係會倒數外星人來臨?
-
11:48 - 11:51我哋應該更加緊張至係
-
11:53 - 11:55另一個我哋被告知唔使擔心嘅原因係
-
11:55 - 11:58呢啲機器只會識得
將我哋嘅價值觀傳開 -
11:58 - 12:00因為佢哋係我哋人類嘅附屬嘅一部分
-
12:00 - 12:02但同時佢哋會被植入我哋嘅大腦
-
12:02 - 12:05所以我哋會成為佢哋嘅邊緣系統
-
12:05 - 12:09依家使啲時間諗下
最安全同唯一審慎嘅做法 -
12:09 - 12:14而推薦嘅做法就係
直接將呢種科技植入我哋嘅大腦 -
12:15 - 12:18呢種做法可能係最安全同唯一審慎嘅
-
12:18 - 12:21但係喺你將佢植入你個腦之前
-
12:21 - 12:25科技嘅安全問題需要解決
-
12:25 - 12:27(笑聲)
-
12:27 - 12:28更深一層嘅問題係
-
12:28 - 12:32人工智能自己整超級人工智能
-
12:32 - 12:36似乎比整一個可以喺神經科學上
-
12:36 - 12:40同我哋腦部無縫接合嘅
超級人工智能簡單 -
12:41 - 12:47考慮到從事研發人工智能嘅公司
同政府好可能會互相競爭 -
12:47 - 12:51考慮到要贏呢場比賽就要贏成個世界
-
12:51 - 12:54同埋先假設如果你下一刻
唔會糟塌人工智能嘅成果 -
12:54 - 12:58咁樣,似乎更加簡單嘅事會完成咗先
-
12:58 - 13:01但唔好彩嘅係
我除咗叫大家反思呢個問題 -
13:01 - 13:03我就再冇辦法解決呢個問題
-
13:03 - 13:06我覺得我哋喺人工智能方面
-
13:06 - 13:08需要好似「曼哈頓計劃」咁嘅計劃
-
13:08 - 13:12唔係講點樣整人工智能
因為我認為人工智能終有一日會整到 -
13:12 - 13:14而係搞清楚點樣避免一場軍備競賽
-
13:14 - 13:18同埋往符合我哋利益嘅方向
發展人工智能 -
13:18 - 13:23當你講緊可以自我改造嘅超級人工智能
-
13:23 - 13:27我哋似乎只有一個機會
令到人工智能發展得安全 -
13:27 - 13:28就算發展得安全
-
13:28 - 13:33我哋都要接受
人工智能對經濟同政治產生嘅結果 -
13:34 - 13:40但係當我哋同意
訊息處理係智能嘅起步點 -
13:40 - 13:46同意一啲適當嘅計算系統係智能嘅基礎
-
13:46 - 13:51同意我哋會不斷完善人工智能
-
13:51 - 13:58同意將來有好多嘢超越我哋認知嘅
-
13:58 - 14:03咁我哋就必須要承認
我哋正喺度創造緊某種神明 -
14:03 - 14:07依家會係一個好時機
確保佢係可以同我哋共存嘅神明 -
14:08 - 14:09好多謝你哋
-
14:09 - 14:11(掌聲)
- Title:
- 我哋可唔可以完全掌控人工智能?
- Speaker:
- Sam Harris
- Description:
-
怕超級人工智能?神經學家同哲學家 Sam Harris 話畀你知你應該要怕,而且唔單止係口講嘅怕,仲要實在嘅怕。Sam Harris 話人類將要開發比人類仲犀利嘅機器,但係人類仲未處理好一啲帶嚟嘅問題,包括機器有可能會以我哋對待螞蟻嘅方式對待我哋。
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
Alan Watson approved Chinese, Yue subtitles for Can we build AI without losing control over it? | ||
Alan Watson edited Chinese, Yue subtitles for Can we build AI without losing control over it? | ||
Alan Watson accepted Chinese, Yue subtitles for Can we build AI without losing control over it? | ||
Alan Watson edited Chinese, Yue subtitles for Can we build AI without losing control over it? | ||
Alan Watson edited Chinese, Yue subtitles for Can we build AI without losing control over it? | ||
Alan Watson edited Chinese, Yue subtitles for Can we build AI without losing control over it? | ||
Alan Watson edited Chinese, Yue subtitles for Can we build AI without losing control over it? | ||
Alan Watson edited Chinese, Yue subtitles for Can we build AI without losing control over it? |