WEBVTT 00:00:06.999 --> 00:00:09.034 什麼是意識? 00:00:09.034 --> 00:00:11.828 人造機器真的能思考嗎? 00:00:11.828 --> 00:00:15.114 心智只是由腦的神經元所組成 00:00:15.114 --> 00:00:18.757 或有無形的聰明才智在腦的核心嗎? 00:00:18.757 --> 00:00:24.345 對多數人而言, 這一直是未來人工智慧的主要考慮因素。 00:00:24.345 --> 00:00:29.539 但英國電腦科學家 阿蘭•圖靈 決定不理會這諸多問題, 00:00:29.539 --> 00:00:31.850 而支持更簡單的一種: 00:00:31.850 --> 00:00:35.269 電腦能和人一樣交談嗎? 00:00:35.269 --> 00:00:39.265 這問題後來發展出 一個測量人工智慧的理念, 00:00:39.265 --> 00:00:43.316 也就是眾所周知的「圖靈測試」。 00:00:43.316 --> 00:00:47.341 在 1950 年的一篇論文《電腦機器與智能》, 00:00:47.341 --> 00:00:49.814 圖靈提出了以下的測試。 00:00:49.814 --> 00:00:53.906 一位審判員和不被看見的 被測試者做文字對話, 00:00:53.906 --> 00:00:56.382 並評估他們的回答。 00:00:56.382 --> 00:01:00.409 要通過測試, 電腦必須能取代被測試者之一, 00:01:00.409 --> 00:01:03.857 但不會明顯改變最後結果。 00:01:03.857 --> 00:01:06.816 換言之,此電腦會被認定是有智慧 ── 00:01:06.816 --> 00:01:12.513 若其對話不易與人類的區分時。 00:01:12.513 --> 00:01:14.667 圖靈預言在 2000 年之前 , 00:01:14.667 --> 00:01:20.622 具備 100 MB 記憶體的電腦 將能輕易通過圖靈測試, 00:01:20.622 --> 00:01:22.786 但他可能言之過早了。 00:01:22.786 --> 00:01:25.840 即使目前配備更多記憶體的電腦, 00:01:25.840 --> 00:01:27.643 也很少成功, 00:01:27.643 --> 00:01:29.438 而那些通過測試的 00:01:29.438 --> 00:01:33.208 著重在欺騙審判員的小技巧, 00:01:33.208 --> 00:01:36.174 而非運用強大的運算能力。 00:01:36.174 --> 00:01:39.096 雖然從未接受真正測試, 00:01:39.096 --> 00:01:43.865 第一個程式聲明它已成功的是 ELIZA, 00:01:43.865 --> 00:01:46.412 它僅以簡短的程式腳本, 00:01:46.412 --> 00:01:50.434 模仿心理學家,成功迷惑許多人, 00:01:50.434 --> 00:01:52.395 鼓勵他們說得更多些, 00:01:52.395 --> 00:01:55.905 同時也反問他們的問題。 00:01:55.905 --> 00:01:59.412 另一個早期程式腳本 PARRY 採取相反的方式, 00:01:59.412 --> 00:02:02.213 模仿偏狂型精神分裂症病患 00:02:02.213 --> 00:02:07.939 一直把話題轉回它預設的執著事物。 00:02:07.939 --> 00:02:12.803 它們成功愚弄人們 突顯出這測驗的弱點, 00:02:12.803 --> 00:02:21.083 人們通常把許多和聰明才智無關的事物 視為「智慧」。 00:02:21.083 --> 00:02:24.289 儘管如此,年度競賽 例如 羅布納獎(Loebner Prize) 00:02:24.289 --> 00:02:26.009 已使測試變得更正式了, 00:02:26.009 --> 00:02:28.155 審判員已預先知道 00:02:28.155 --> 00:02:32.019 其中有些他們的對話者是機器。 00:02:32.019 --> 00:02:33.920 雖然品質已有改善, 00:02:33.920 --> 00:02:39.096 但許多聊天機器人的程式員 是採用類似 ELIZA 和 PARRY 的方法。 00:02:39.096 --> 00:02:41.132 1997 年的獲獎者 Catherine 00:02:41.132 --> 00:02:45.213 能夠進行驚人地專注且聰明的對話, 00:02:45.213 --> 00:02:49.175 但多半只在審判員願意談 有關 比爾•克林頓 的事時。 00:02:49.175 --> 00:02:51.813 最近的獲獎者 尤金•古斯特曼 (Eugene Goostman) 00:02:51.813 --> 00:02:55.549 是個偽裝 13 歲烏克蘭男孩的機器人, 00:02:55.549 --> 00:02:59.570 審判員將它不合邏輯及蹩脚的文法 00:02:59.570 --> 00:03:02.916 視為是語言及文化的障礙所致。 00:03:02.916 --> 00:03:07.135 同時,另一程式例如 Cleverbot 則採用不同的方法, 00:03:07.135 --> 00:03:11.740 藉著統計分析大量真正對話的資料庫, 00:03:11.740 --> 00:03:14.281 以決定最佳回應。 00:03:14.281 --> 00:03:17.530 有些還儲存先前對話的記憶, 00:03:17.530 --> 00:03:20.915 以便長期改善。 00:03:20.915 --> 00:03:25.066 雖然 Cleverbot 的每次回應 聽起來極像人類, 00:03:25.066 --> 00:03:27.092 但它缺乏前後一致的個性, 00:03:27.092 --> 00:03:30.245 而且無法應付嶄新的話題, 00:03:30.245 --> 00:03:32.858 因而明顯露出馬腳。 00:03:32.858 --> 00:03:36.112 在圖靈時代的人 怎能預料到今日的電腦 00:03:36.112 --> 00:03:38.201 能駕駛太空船、 00:03:38.201 --> 00:03:40.518 執行精細手術、 00:03:40.518 --> 00:03:42.807 能解開龐大的方程式、 00:03:42.807 --> 00:03:46.310 卻仍難以處理最基本的小交談呢? 00:03:46.310 --> 00:03:49.819 人類語言 原來就是一種驚人複雜的現象, 00:03:49.819 --> 00:03:53.524 甚至連最大的字典也無法記錄。 00:03:53.524 --> 00:03:57.993 一個簡單的暫停就能難倒聊天機器人, 例如「嗯……」 00:03:57.993 --> 00:04:00.415 或沒有正確解答的問題。 00:04:00.415 --> 00:04:02.315 一個簡單的對話句子, 00:04:02.315 --> 00:04:05.595 例如:「我從冰箱拿出果汁給他, 00:04:05.595 --> 00:04:07.406 但忘了檢查保存期限。」 00:04:07.406 --> 00:04:12.872 這需要很多基本理解 及直覺語法分析。 00:04:12.872 --> 00:04:15.503 事實証明模擬人類對話 00:04:15.503 --> 00:04:19.112 不是只要增加記憶體 及數據處理能力而已, 00:04:19.112 --> 00:04:21.623 當離圖靈的目標越近時, 00:04:21.623 --> 00:04:26.949 我們終究要去處理 所有有關「意識」的大難題。 00:04:26.949 --> 00:04:32.469 翻譯:Helen Lin