1 00:00:06,999 --> 00:00:09,034 什麼是意識? 2 00:00:09,034 --> 00:00:11,828 人造機器真的能思考嗎? 3 00:00:11,828 --> 00:00:15,114 心智只是由腦的神經元所組成 4 00:00:15,114 --> 00:00:18,757 或有無形的聰明才智在腦的核心嗎? 5 00:00:18,757 --> 00:00:24,345 對多數人而言, 這一直是未來人工智慧的主要考慮因素。 6 00:00:24,345 --> 00:00:29,539 但英國電腦科學家 阿蘭•圖靈 決定不理會這諸多問題, 7 00:00:29,539 --> 00:00:31,850 而支持更簡單的一種: 8 00:00:31,850 --> 00:00:35,269 電腦能和人一樣交談嗎? 9 00:00:35,269 --> 00:00:39,265 這問題後來發展出 一個測量人工智慧的理念, 10 00:00:39,265 --> 00:00:43,316 也就是眾所周知的「圖靈測試」。 11 00:00:43,316 --> 00:00:47,341 在 1950 年的一篇論文《電腦機器與智能》, 12 00:00:47,341 --> 00:00:49,814 圖靈提出了以下的測試。 13 00:00:49,814 --> 00:00:53,906 一位審判員和不被看見的 被測試者做文字對話, 14 00:00:53,906 --> 00:00:56,382 並評估他們的回答。 15 00:00:56,382 --> 00:01:00,409 要通過測試, 電腦必須能取代被測試者之一, 16 00:01:00,409 --> 00:01:03,857 但不會明顯改變最後結果。 17 00:01:03,857 --> 00:01:06,816 換言之,此電腦會被認定是有智慧 ── 18 00:01:06,816 --> 00:01:12,513 若其對話不易與人類的區分時。 19 00:01:12,513 --> 00:01:14,667 圖靈預言在 2000 年之前 , 20 00:01:14,667 --> 00:01:20,622 具備 100 MB 記憶體的電腦 將能輕易通過圖靈測試, 21 00:01:20,622 --> 00:01:22,786 但他可能言之過早了。 22 00:01:22,786 --> 00:01:25,840 即使目前配備更多記憶體的電腦, 23 00:01:25,840 --> 00:01:27,643 也很少成功, 24 00:01:27,643 --> 00:01:29,438 而那些通過測試的 25 00:01:29,438 --> 00:01:33,208 著重在欺騙審判員的小技巧, 26 00:01:33,208 --> 00:01:36,174 而非運用強大的運算能力。 27 00:01:36,174 --> 00:01:39,096 雖然從未接受真正測試, 28 00:01:39,096 --> 00:01:43,865 第一個程式聲明它已成功的是 ELIZA, 29 00:01:43,865 --> 00:01:46,412 它僅以簡短的程式腳本, 30 00:01:46,412 --> 00:01:50,434 模仿心理學家,成功迷惑許多人, 31 00:01:50,434 --> 00:01:52,395 鼓勵他們說得更多些, 32 00:01:52,395 --> 00:01:55,905 同時也反問他們的問題。 33 00:01:55,905 --> 00:01:59,412 另一個早期程式腳本 PARRY 採取相反的方式, 34 00:01:59,412 --> 00:02:02,213 模仿偏狂型精神分裂症病患 35 00:02:02,213 --> 00:02:07,939 一直把話題轉回它預設的執著事物。 36 00:02:07,939 --> 00:02:12,803 它們成功愚弄人們 突顯出這測驗的弱點, 37 00:02:12,803 --> 00:02:21,083 人們通常把許多和聰明才智無關的事物 視為「智慧」。 38 00:02:21,083 --> 00:02:24,289 儘管如此,年度競賽 例如 羅布納獎(Loebner Prize) 39 00:02:24,289 --> 00:02:26,009 已使測試變得更正式了, 40 00:02:26,009 --> 00:02:28,155 審判員已預先知道 41 00:02:28,155 --> 00:02:32,019 其中有些他們的對話者是機器。 42 00:02:32,019 --> 00:02:33,920 雖然品質已有改善, 43 00:02:33,920 --> 00:02:39,096 但許多聊天機器人的程式員 是採用類似 ELIZA 和 PARRY 的方法。 44 00:02:39,096 --> 00:02:41,132 1997 年的獲獎者 Catherine 45 00:02:41,132 --> 00:02:45,213 能夠進行驚人地專注且聰明的對話, 46 00:02:45,213 --> 00:02:49,175 但多半只在審判員願意談 有關 比爾•克林頓 的事時。 47 00:02:49,175 --> 00:02:51,813 最近的獲獎者 尤金•古斯特曼 (Eugene Goostman) 48 00:02:51,813 --> 00:02:55,549 是個偽裝 13 歲烏克蘭男孩的機器人, 49 00:02:55,549 --> 00:02:59,570 審判員將它不合邏輯及蹩脚的文法 50 00:02:59,570 --> 00:03:02,916 視為是語言及文化的障礙所致。 51 00:03:02,916 --> 00:03:07,135 同時,另一程式例如 Cleverbot 則採用不同的方法, 52 00:03:07,135 --> 00:03:11,740 藉著統計分析大量真正對話的資料庫, 53 00:03:11,740 --> 00:03:14,281 以決定最佳回應。 54 00:03:14,281 --> 00:03:17,530 有些還儲存先前對話的記憶, 55 00:03:17,530 --> 00:03:20,915 以便長期改善。 56 00:03:20,915 --> 00:03:25,066 雖然 Cleverbot 的每次回應 聽起來極像人類, 57 00:03:25,066 --> 00:03:27,092 但它缺乏前後一致的個性, 58 00:03:27,092 --> 00:03:30,245 而且無法應付嶄新的話題, 59 00:03:30,245 --> 00:03:32,858 因而明顯露出馬腳。 60 00:03:32,858 --> 00:03:36,112 在圖靈時代的人 怎能預料到今日的電腦 61 00:03:36,112 --> 00:03:38,201 能駕駛太空船、 62 00:03:38,201 --> 00:03:40,518 執行精細手術、 63 00:03:40,518 --> 00:03:42,807 能解開龐大的方程式、 64 00:03:42,807 --> 00:03:46,310 卻仍難以處理最基本的小交談呢? 65 00:03:46,310 --> 00:03:49,819 人類語言 原來就是一種驚人複雜的現象, 66 00:03:49,819 --> 00:03:53,524 甚至連最大的字典也無法記錄。 67 00:03:53,524 --> 00:03:57,993 一個簡單的暫停就能難倒聊天機器人, 例如「嗯……」 68 00:03:57,993 --> 00:04:00,415 或沒有正確解答的問題。 69 00:04:00,415 --> 00:04:02,315 一個簡單的對話句子, 70 00:04:02,315 --> 00:04:05,595 例如:「我從冰箱拿出果汁給他, 71 00:04:05,595 --> 00:04:07,406 但忘了檢查保存期限。」 72 00:04:07,406 --> 00:04:12,872 這需要很多基本理解 及直覺語法分析。 73 00:04:12,872 --> 00:04:15,503 事實証明模擬人類對話 74 00:04:15,503 --> 00:04:19,112 不是只要增加記憶體 及數據處理能力而已, 75 00:04:19,112 --> 00:04:21,623 當離圖靈的目標越近時, 76 00:04:21,623 --> 00:04:26,949 我們終究要去處理 所有有關「意識」的大難題。 77 00:04:26,949 --> 00:04:32,469 翻譯:Helen Lin