WEBVTT 00:00:07.052 --> 00:00:11.642 每年,以往被認為 只有人類能完成的事情 00:00:11.642 --> 00:00:14.848 漸漸的被機械所超越 00:00:14.848 --> 00:00:18.423 現在的電腦可以 在複雜的桌遊中打敗我們 00:00:18.423 --> 00:00:21.294 把演講翻譯成各種語言 00:00:21.294 --> 00:00:24.746 還能立刻辨識各種物品 00:00:24.746 --> 00:00:27.243 在未來,機器人可能會透過 00:00:27.243 --> 00:00:30.243 理解我們的感受變得更進步 00:00:30.243 --> 00:00:32.381 為什麼這很重要? 00:00:32.381 --> 00:00:37.213 假如機器人以及操作者 可以精準判斷出我們的情感 00:00:37.223 --> 00:00:42.263 可能會給我們很大的幫助 或是進而操控我們 00:00:42.612 --> 00:00:44.254 但在討論到那之前 00:00:44.254 --> 00:00:47.393 試問為什麼像情緒這麼複雜的東西 00:00:47.393 --> 00:00:51.623 可以轉換成機器唯一理解的 語言符號:數字呢? 00:00:53.053 --> 00:00:58.393 其實跟大腦先學習認知情緒 才會詮釋自己的心情是一樣的 00:00:58.754 --> 00:01:04.120 美國心理學家保羅·艾克曼 歸類出幾種廣泛存在的情緒 00:01:04.120 --> 00:01:09.174 這些情緒的視覺線索 在各個文化中意義都相同 00:01:09.174 --> 00:01:14.193 舉例來說,一個笑臉圖像 對都市人和原住民來說 00:01:14.193 --> 00:01:16.965 都是代表喜悅 00:01:16.965 --> 00:01:18.094 根據艾克曼的說法 00:01:18.094 --> 00:01:18.823 憤怒 00:01:18.823 --> 00:01:19.533 厭惡 00:01:19.533 --> 00:01:20.275 恐懼 00:01:20.275 --> 00:01:21.092 喜悅 00:01:21.092 --> 00:01:21.848 悲傷 00:01:21.848 --> 00:01:25.113 以及驚訝都同樣容易辨識 00:01:25.113 --> 00:01:29.716 事實證明,電腦辨識 影像的速度愈來愈快 00:01:29.716 --> 00:01:33.665 多虧了像人工神經網絡 這種學習演算法 00:01:33.665 --> 00:01:40.975 這些人工節點會藉由互相連結 和交換資訊來模仿生物神經的活動 00:01:41.444 --> 00:01:46.405 為了訓練網絡 會事先輸入預先歸類的樣本 00:01:46.405 --> 00:01:50.865 例如把標示快樂 或悲傷的照片輸入系統 00:01:51.135 --> 00:01:57.525 網絡會根據特定的特徵調整相關數值 學習如何辨別這些樣本 00:01:58.175 --> 00:02:04.185 輸入的訓練資料愈多 運算法辨識新資料就會愈準確 00:02:04.595 --> 00:02:06.447 這跟我們的大腦一樣: 00:02:06.447 --> 00:02:11.065 藉由學習以往經驗 形成往後對新刺激的反應 00:02:11.535 --> 00:02:14.966 辨識演算法不只會辨認臉部表情而已 00:02:15.266 --> 00:02:17.616 情緒表達有很多種方式 00:02:17.616 --> 00:02:19.936 包括肢體語言、語調 00:02:19.936 --> 00:02:23.237 心率變化、膚色,以及表皮溫度 00:02:23.237 --> 00:02:27.686 甚至包含說話節奏 和書面的語法結構 00:02:27.686 --> 00:02:33.295 你可能認為訓練神經網絡 辨識它們是漫長又複雜的程序 00:02:33.757 --> 00:02:39.896 不過當你了解網路數據的龐大 和現代電腦運算的速度就會改觀了 00:02:40.305 --> 00:02:43.587 像是從社群網站的發文 到上傳的照片和影片; 00:02:43.587 --> 00:02:46.777 從通話紀錄到熱感應監視器; 00:02:46.777 --> 00:02:50.167 還有記錄生理狀況的穿戴式裝置 00:02:50.167 --> 00:02:52.947 最大的問題已經不是如何取得資料 00:02:52.947 --> 00:02:55.255 而是使用這些資料的目的 00:02:55.255 --> 00:02:59.446 電腦化表情辨識有很多實用途徑 00:02:59.446 --> 00:03:02.567 利用演算法辨識表情的機器人 00:03:02.567 --> 00:03:04.216 可以幫助孩童學習 00:03:04.216 --> 00:03:06.906 或是陪伴孤單的人 00:03:07.636 --> 00:03:10.637 社群媒體公司正在考慮運用演算法 00:03:10.637 --> 00:03:14.337 來標記含有特定文字或用語的發文 00:03:14.337 --> 00:03:17.337 以協助自殺防治 00:03:17.337 --> 00:03:21.197 情緒辨識軟體 可以幫助治療心理疾病 00:03:21.197 --> 00:03:25.378 甚至提供人們低價位的 自動化心理治療 00:03:25.378 --> 00:03:27.008 儘管有這些好處 00:03:27.008 --> 00:03:31.227 大型網路自動掃描我們的照片 00:03:31.227 --> 00:03:36.627 對話紀錄、和生理層面是相當惱人的 00:03:36.627 --> 00:03:44.876 當我們的情緒數據被公司用來打廣告 我們該如何保有隱私? 00:03:45.178 --> 00:03:46.788 同時也出現人權問題 00:03:46.788 --> 00:03:54.187 警方能夠把未決定犯罪的人 直接判定為罪犯嗎? 00:03:54.667 --> 00:03:56.900 機器人的發展還有很長的路要走 00:03:56.900 --> 00:04:00.258 例如辨別像諷刺這種細微的情緒 00:04:00.258 --> 00:04:04.758 以及分辨情緒強弱 例如一個人多快樂或多難過 00:04:04.758 --> 00:04:09.288 儘管如此,機器人將來 可能會精準地判斷情緒 00:04:09.288 --> 00:04:10.998 並做出回應 00:04:10.998 --> 00:04:15.319 但是人類會不會因 機器人的過度入侵感到恐懼 00:04:15.319 --> 00:04:16.987 這又是另一回事了