WEBVTT 00:00:00.739 --> 00:00:06.861 大一時我開始了第一份工作: 程式設計師, 00:00:06.865 --> 00:00:08.372 當時我還算是個青少女。 NOTE Paragraph 00:00:08.889 --> 00:00:12.261 開始為軟體公司寫程式後不久, 00:00:12.799 --> 00:00:16.434 公司裡的一個經理走到我身邊, 00:00:16.458 --> 00:00:17.726 悄悄地問: 00:00:18.229 --> 00:00:21.090 「他能判斷我是否說謊嗎?」 00:00:21.806 --> 00:00:23.883 當時房裡沒別人。 NOTE Paragraph 00:00:24.952 --> 00:00:29.341 「『誰』能不能判斷你說謊與否? 而且,我們為什麼耳語呢?」 NOTE Paragraph 00:00:30.266 --> 00:00:33.373 經理指著房裡的電腦,問: 00:00:33.397 --> 00:00:36.493 「『他』能判斷我是否說謊嗎?」 00:00:37.613 --> 00:00:41.975 當時那經理與接待員有曖昧關係。 NOTE Paragraph 00:00:41.999 --> 00:00:43.111 (笑聲) NOTE Paragraph 00:00:43.135 --> 00:00:44.901 那時我仍是個青少女。 00:00:45.447 --> 00:00:47.466 所以,我用耳語大聲地回答他: 00:00:47.490 --> 00:00:51.114 「能,電腦能判斷你撒謊與否。」 NOTE Paragraph 00:00:51.138 --> 00:00:52.944 (笑聲) NOTE Paragraph 00:00:52.968 --> 00:00:55.891 沒錯,我笑了,但可笑的人是我。 00:00:55.939 --> 00:00:59.207 如今,有些計算系統 00:00:59.207 --> 00:01:03.039 靠分析、判讀面部表情, 就能判斷出情緒狀態, 00:01:03.039 --> 00:01:05.003 甚至判斷是否說謊。 00:01:05.608 --> 00:01:09.761 廣告商,甚至政府也對此很感興趣。 NOTE Paragraph 00:01:10.319 --> 00:01:12.181 我之所以成為程式設計師, 00:01:12.205 --> 00:01:15.318 是因為自幼便極為喜愛數學和科學。 00:01:15.942 --> 00:01:19.050 過程中我學到核子武器, 00:01:19.074 --> 00:01:22.026 因而變得非常關心科學倫理。 00:01:22.050 --> 00:01:23.254 我很苦惱。 00:01:23.278 --> 00:01:25.919 但由於家庭狀況, 00:01:25.943 --> 00:01:29.241 我必須儘早就業。 00:01:29.265 --> 00:01:30.868 因此我告訴自己, 00:01:30.868 --> 00:01:34.384 選擇一個在科技領域中 能簡單地找到頭路, 00:01:34.408 --> 00:01:38.526 又無需處理涉及倫理道德 這類麻煩問題的工作吧。 00:01:39.022 --> 00:01:40.551 所以我選擇了電腦。 NOTE Paragraph 00:01:40.575 --> 00:01:41.679 (笑聲) NOTE Paragraph 00:01:41.703 --> 00:01:45.113 是啊,哈哈哈!大家都笑我。 00:01:45.137 --> 00:01:47.175 如今,電腦科學家 00:01:47.175 --> 00:01:52.124 正建構著可控制數十億人 每天接收訊息的平台。 00:01:53.052 --> 00:01:56.874 他們設計的汽車 可以決定要輾過哪些人。 00:01:57.707 --> 00:02:03.240 他們甚至建造能殺人的 戰爭機器和武器。 00:02:03.253 --> 00:02:06.024 從頭到尾都是倫理的問題。 NOTE Paragraph 00:02:07.183 --> 00:02:09.241 機器智慧已經在此。 00:02:09.847 --> 00:02:13.321 我們利用計算來做各種決策, 00:02:13.321 --> 00:02:15.207 同時也是種新形態的決策。 00:02:15.231 --> 00:02:20.403 我們以計算來尋求解答, 但問題沒有單一的正解, 00:02:20.427 --> 00:02:23.969 而是主觀、開放、具價值觀的答案。 NOTE Paragraph 00:02:24.002 --> 00:02:25.760 問題像是, 00:02:25.784 --> 00:02:27.744 「公司應該聘誰?」 00:02:28.096 --> 00:02:30.855 「應該顯示哪個朋友的哪項更新?」 00:02:30.879 --> 00:02:33.145 「哪個罪犯更可能再犯?」 00:02:33.514 --> 00:02:36.568 「應該推薦哪項新聞或哪部電影?」 NOTE Paragraph 00:02:36.592 --> 00:02:39.964 我們使用電腦雖有一段時間了, 00:02:39.988 --> 00:02:41.505 但這是不同的。 00:02:41.529 --> 00:02:43.596 這是歷史性的轉折, 00:02:43.620 --> 00:02:48.957 因我們不能主導計算機 如何去做這樣的主觀決定, 00:02:48.981 --> 00:02:54.401 無法像主導計算機去開飛機、造橋樑 00:02:54.401 --> 00:02:55.660 或登陸月球那樣。 00:02:56.449 --> 00:02:59.708 飛機會更安全嗎? 橋樑會搖擺或倒塌嗎? 00:02:59.732 --> 00:03:04.230 那兒已有相當明確的基準共識, 00:03:04.254 --> 00:03:06.493 有自然的法則指引著我們。 00:03:06.517 --> 00:03:08.235 但我們沒有 00:03:08.235 --> 00:03:13.898 判斷凌亂人事的錨點或基準。 NOTE Paragraph 00:03:14.032 --> 00:03:18.159 使事情變得更為複雜的是, 因軟體越來越強大, 00:03:18.183 --> 00:03:21.956 但也越來越不透明,越複雜難懂。 00:03:22.542 --> 00:03:24.582 過去十年 00:03:24.606 --> 00:03:27.335 複雜的演算法有長足的進步: 00:03:27.359 --> 00:03:29.349 能辨識人臉, 00:03:29.985 --> 00:03:32.040 能解讀手寫的字, 00:03:32.436 --> 00:03:34.502 能檢測信用卡欺詐, 00:03:34.526 --> 00:03:35.715 阻擋垃圾郵件, 00:03:35.739 --> 00:03:37.776 能翻譯不同的語言, 00:03:37.800 --> 00:03:40.374 能判讀醫學影像查出腫瘤, 00:03:40.398 --> 00:03:42.733 能在西洋棋和圍棋賽中 擊敗人類棋手。 NOTE Paragraph 00:03:43.264 --> 00:03:47.768 這些進步主要來自所謂的 「機器學習」法。 00:03:48.175 --> 00:03:51.362 機器學習不同於傳統的程式編寫。 00:03:51.386 --> 00:03:54.971 編寫程式是下詳細、精確、 齊全的計算機指令; 00:03:55.378 --> 00:03:59.560 機器學習更像是 餵大量的數據給系統, 00:03:59.584 --> 00:04:01.240 包括非結構化的數據, 00:04:01.264 --> 00:04:03.542 像我們數位生活產生的數據; 00:04:03.566 --> 00:04:06.296 系統翻撈這些數據來學習。 00:04:06.669 --> 00:04:08.195 至關重要的是, 00:04:08.219 --> 00:04:12.599 這些系統不在產生 單一答案的邏輯系統下運作; 00:04:12.623 --> 00:04:14.333 它們不會給出一個簡單的答案, 00:04:14.333 --> 00:04:16.236 而是以更接近機率的形式呈現: 00:04:16.236 --> 00:04:19.089 「這可能更接近你所要找的。」 NOTE Paragraph 00:04:20.023 --> 00:04:23.093 好處是:這方法強而有力。 00:04:23.117 --> 00:04:25.193 谷歌的人工智慧系統負責人稱之為: 00:04:25.217 --> 00:04:27.414 「不合理的數據有效性。」 00:04:27.791 --> 00:04:29.144 缺點是, 00:04:29.738 --> 00:04:32.809 我們未能真正明白 系統學到了什麼。 00:04:32.833 --> 00:04:34.420 事實上,這就是它的力量。 00:04:34.946 --> 00:04:38.744 這不像下指令給計算機; 00:04:39.200 --> 00:04:41.648 而更像是訓練 00:04:41.648 --> 00:04:45.659 我們未能真正了解 或無法控制的機器寵物狗。 00:04:46.362 --> 00:04:47.913 這是我們的問題。 00:04:48.427 --> 00:04:52.689 人工智慧系統出錯時會是個問題; 00:04:52.713 --> 00:04:56.253 即使它弄對了還是個問題, 00:04:56.277 --> 00:04:59.905 因碰到主觀問題時, 我們不知哪個是哪個。 00:04:59.929 --> 00:05:02.478 我們不知道系統在想什麼。 NOTE Paragraph 00:05:03.493 --> 00:05:07.176 就拿招募人員的演算法來說, 00:05:08.123 --> 00:05:12.434 亦即以機器學習來僱用人的系統, 00:05:13.052 --> 00:05:16.671 這樣的系統用 已有的員工數據來訓練機器, 00:05:16.671 --> 00:05:19.246 指示它尋找和僱用那些 00:05:19.270 --> 00:05:22.308 類似公司現有的高績效員工的人。 00:05:22.814 --> 00:05:23.967 聽起來不錯。 00:05:23.991 --> 00:05:25.990 我曾參加某會議, 00:05:26.014 --> 00:05:29.139 聚集人資經理和高階主管, 00:05:29.163 --> 00:05:30.369 高層人士, 00:05:30.393 --> 00:05:31.952 使用這種系統招聘。 00:05:31.976 --> 00:05:33.622 他們超級興奮, 00:05:33.646 --> 00:05:37.053 認為這種系統會使招聘更為客觀, 00:05:37.053 --> 00:05:38.323 較少偏見, 00:05:38.323 --> 00:05:41.323 有利於婦女和少數民族 00:05:41.347 --> 00:05:43.535 避開有偏見的管理人。 NOTE Paragraph 00:05:43.559 --> 00:05:46.402 看哪!靠人類僱用是有偏見的。 00:05:47.099 --> 00:05:48.284 我知道。 00:05:48.308 --> 00:05:51.313 我的意思是, 在早期某個編寫程式的工作, 00:05:51.337 --> 00:05:55.339 有時候我的直屬主管會在 00:05:55.339 --> 00:05:58.982 大清早或下午很晚時來到我身旁, 00:05:59.006 --> 00:06:02.068 說:「日娜,走,吃午飯!」 00:06:02.724 --> 00:06:04.891 我被奇怪的時間點所困惑。 00:06:04.915 --> 00:06:07.044 下午 4 點。吃午餐? 00:06:07.068 --> 00:06:08.508 我很窮, 00:06:08.508 --> 00:06:10.618 因為是免費的午餐,所以總是會去。 00:06:10.618 --> 00:06:12.685 後來我明白到底是怎麼回事。 00:06:12.709 --> 00:06:17.255 我的直屬主管沒讓她的主管知道, 00:06:17.279 --> 00:06:20.259 他們僱來做重要職務的程式設計師, 00:06:20.259 --> 00:06:21.766 是個穿牛仔褲和運動鞋 00:06:21.766 --> 00:06:24.346 來上班的十幾歲女孩。 00:06:25.174 --> 00:06:27.416 我工作做得很好, 只是外表形象看起來不符, 00:06:27.416 --> 00:06:29.099 年齡和性別不對。 NOTE Paragraph 00:06:29.123 --> 00:06:32.469 因此,性別和種族 不列入考慮的僱用系統 00:06:32.493 --> 00:06:34.358 對我而言當然不錯。 00:06:35.031 --> 00:06:38.372 但使用這些系統會更複雜,原因是: 00:06:38.968 --> 00:06:41.143 目前的計算系統 00:06:41.143 --> 00:06:46.655 可從你零散的數位足跡 推斷出關於你的各種事物, 00:06:46.679 --> 00:06:49.012 即使你未曾披露過。 00:06:49.506 --> 00:06:52.433 他們能推斷你的性取向, 00:06:52.994 --> 00:06:54.300 個性的特質, 00:06:54.859 --> 00:06:56.232 政治的傾向。 00:06:56.830 --> 00:07:00.515 他們的預測能力相當精準。 00:07:01.362 --> 00:07:03.940 請記住:知道你未曾公開的事情 00:07:03.964 --> 00:07:05.555 是推理。 NOTE Paragraph 00:07:05.579 --> 00:07:08.840 我有個朋友開發這樣的計算系統: 00:07:08.864 --> 00:07:13.955 從社交媒體數據來預測 臨床或產後抑鬱症的可能性。 00:07:14.676 --> 00:07:16.103 結果非常優異。 00:07:16.492 --> 00:07:17.543 她的系統 00:07:17.543 --> 00:07:23.776 能在出現任何症狀的幾個月前 預測出抑鬱的可能性, 00:07:23.800 --> 00:07:25.173 是好幾個月前。 00:07:25.197 --> 00:07:27.443 雖沒有症狀,已預測出來。 00:07:27.467 --> 00:07:31.521 她希望它被用來早期干預處理。 00:07:31.521 --> 00:07:32.911 很好! 00:07:32.911 --> 00:07:35.321 但是,設想若把這系統 用在僱人的情況下。 NOTE Paragraph 00:07:36.027 --> 00:07:39.073 在這人資經理會議中, 00:07:39.097 --> 00:07:43.740 我走向一間大公司的高階經理, 00:07:43.740 --> 00:07:44.560 對她說: 00:07:44.560 --> 00:07:48.408 「假設在你不知道的情形下, 00:07:48.432 --> 00:07:54.981 那個系統被用來排除 未來極有可能抑鬱的人呢? 00:07:55.761 --> 00:07:59.137 他們現在不抑鬱, 只是未來『比較有可能』抑鬱。 00:07:59.923 --> 00:08:03.329 如果它被用來排除 在未來一兩年比較有可能懷孕, 00:08:03.353 --> 00:08:06.009 但現在沒懷孕的婦女呢? 00:08:06.844 --> 00:08:12.480 如果它被用來招募激進性格者, 以符合你的職場文化呢?」 00:08:13.173 --> 00:08:15.864 透過性別比例無法看到這些問題, 00:08:15.888 --> 00:08:17.390 因比例可能是均衡的。 00:08:17.414 --> 00:08:20.971 而且由於這是機器學習, 不是傳統編碼, 00:08:20.995 --> 00:08:25.902 沒有標記為「更高抑鬱症風險」、 00:08:25.926 --> 00:08:27.759 「更高懷孕風險」、 00:08:27.783 --> 00:08:29.517 「侵略性格者」的變數; 00:08:29.995 --> 00:08:33.674 你不僅不知道系統在選什麼, 00:08:33.698 --> 00:08:36.021 甚至不知道要從何找起。 00:08:36.045 --> 00:08:37.291 它就是個黑盒子, 00:08:37.315 --> 00:08:40.122 具有預測能力,但你不了解它。 NOTE Paragraph 00:08:40.486 --> 00:08:43.565 我問:「你有什麼能確保 00:08:43.565 --> 00:08:46.812 你的黑盒子沒在暗地裡 做了什麼不可告人之事? 00:08:48.863 --> 00:08:52.741 她看著我,彷彿我剛踩了 十隻小狗的尾巴。 NOTE Paragraph 00:08:52.765 --> 00:08:54.013 (笑聲) NOTE Paragraph 00:08:54.037 --> 00:08:56.078 她盯著我,說: 00:08:56.556 --> 00:09:00.889 「關於這事,我不想 再聽妳多說一個字。」 00:09:01.458 --> 00:09:03.492 然後她就轉身走開了。 00:09:04.064 --> 00:09:05.550 提醒你們,她不是粗魯。 00:09:05.574 --> 00:09:07.036 她的意思很明顯: 00:09:07.036 --> 00:09:09.906 我不知道的事不是我的問題。 00:09:09.906 --> 00:09:11.906 走開。惡狠狠盯著。 NOTE Paragraph 00:09:11.906 --> 00:09:13.152 (笑聲) NOTE Paragraph 00:09:13.862 --> 00:09:19.761 這樣的系統可能比人類經理 在某些方面更沒有偏見, 00:09:19.852 --> 00:09:21.998 可能也省錢; 00:09:22.573 --> 00:09:27.269 但也可能在不知不覺中逐步導致 00:09:27.269 --> 00:09:31.442 抑鬱症風險較高的人 在就業市場裡吃到閉門羹。 00:09:31.753 --> 00:09:36.659 我們要在不自覺的情形下 建立這種社會嗎? 00:09:36.682 --> 00:09:40.646 僅僅因我們讓給 我們不完全理解的機器做決策? NOTE Paragraph 00:09:41.265 --> 00:09:44.263 另一個問題是:這些系統通常由 00:09:44.263 --> 00:09:49.656 我們行動產生的數據, 即人類的印記所訓練。 00:09:50.188 --> 00:09:53.996 它們可能只是反映我們的偏見, 00:09:54.020 --> 00:09:57.613 學習了我們的偏見 00:09:57.637 --> 00:09:58.950 並且放大, 00:09:58.974 --> 00:10:00.392 然後回饋給我們; 00:10:00.416 --> 00:10:01.878 而我們卻告訴自己: 00:10:01.902 --> 00:10:05.019 「這樣做是客觀、不偏頗的計算。」 NOTE Paragraph 00:10:06.314 --> 00:10:08.991 研究人員在谷歌上發現, 00:10:10.134 --> 00:10:15.447 女性比男性更不易看到 高薪工作招聘的廣告。 00:10:16.463 --> 00:10:18.993 蒐索非裔美國人的名字 00:10:19.017 --> 00:10:23.723 比較可能帶出暗示犯罪史的廣告, 00:10:23.747 --> 00:10:25.564 即使那人並無犯罪史。 00:10:26.693 --> 00:10:30.242 這種隱藏偏見和黑箱的演算法, 00:10:30.266 --> 00:10:34.239 有時被研究人員發現了, 但有時我們毫無所知, 00:10:34.263 --> 00:10:37.124 很可能產生改變生命的後果。 NOTE Paragraph 00:10:37.958 --> 00:10:43.537 在威斯康辛州,某個被告 因逃避警察而被判處六年監禁。 00:10:44.824 --> 00:10:46.010 你可能不知道 00:10:46.034 --> 00:10:48.296 演算法越來越頻繁地被用在 00:10:48.296 --> 00:10:50.056 假釋和量刑的決定上。 00:10:50.056 --> 00:10:53.011 想知道分數如何計算出來的嗎? 00:10:53.795 --> 00:10:55.460 這是個商業的黑盒子, 00:10:55.484 --> 00:10:56.766 開發它的公司 00:10:56.766 --> 00:11:00.396 拒絕讓演算法在公開法庭上受盤問。 00:11:00.396 --> 00:11:05.928 但是 ProPublica 這家 非營利機構評估該演算法, 00:11:05.952 --> 00:11:07.968 使用找得到的公共數據, 00:11:07.992 --> 00:11:10.308 發現其結果偏頗, 00:11:10.332 --> 00:11:13.961 預測能力相當差,僅比碰運氣稍強, 00:11:13.985 --> 00:11:19.875 並錯誤地標記黑人被告 成為未來罪犯的機率, 00:11:19.875 --> 00:11:22.630 是白人被告的兩倍。 NOTE Paragraph 00:11:23.891 --> 00:11:25.455 考慮這個情況: 00:11:26.103 --> 00:11:32.345 這女人因來不及去佛州布勞沃德郡的 學校接她的乾妹妹, 00:11:32.345 --> 00:11:34.954 而與朋友狂奔趕赴學校。 00:11:34.954 --> 00:11:39.236 他們看到門廊上有一輛未上鎖的 兒童腳踏車和一台滑板車, 00:11:39.260 --> 00:11:40.892 愚蠢地跳上去, 00:11:40.916 --> 00:11:42.469 當他們趕時間快速離去時, 00:11:42.469 --> 00:11:45.744 一個女人出來說: 「嘿!那是我孩子的腳踏車!」 00:11:45.768 --> 00:11:49.062 雖然他們留下車子走開, 但被逮捕了。 NOTE Paragraph 00:11:49.086 --> 00:11:52.723 她錯了,她很蠢,但她只有十八歲。 00:11:52.747 --> 00:11:55.291 曾觸犯兩次少年輕罪。 00:11:55.808 --> 00:11:56.867 同時, 00:11:56.867 --> 00:12:02.716 那個男人因在家得寶商店 偷竊八十五美元的東西而被捕, 00:12:02.716 --> 00:12:04.766 類似的小罪, 00:12:04.766 --> 00:12:09.545 但他曾兩次因武裝搶劫而被定罪。 00:12:09.915 --> 00:12:12.756 演算法認定她有再犯的高風險, 00:12:12.756 --> 00:12:14.316 而他卻不然。 00:12:14.746 --> 00:12:18.620 兩年後,ProPublica 發現她未曾再犯; 00:12:18.644 --> 00:12:21.194 但因有過犯罪紀錄而難以找到工作。 00:12:21.218 --> 00:12:23.294 另一方面,他再犯了, 00:12:23.318 --> 00:12:27.154 現正因再犯之罪而入監服刑八年。 00:12:28.088 --> 00:12:31.457 很顯然,我們必需審核黑盒子, 00:12:31.481 --> 00:12:34.326 並且不賦予它們 這類未經檢查的權力。 NOTE Paragraph 00:12:34.430 --> 00:12:36.999 (掌聲) NOTE Paragraph 00:12:38.087 --> 00:12:42.329 審核極其重要, 但不足以解決所有的問題。 00:12:42.353 --> 00:12:45.101 拿臉書強大的動態消息演算法來說, 00:12:45.125 --> 00:12:48.428 就是通過你的朋友圈 和瀏覽過的頁面, 00:12:48.428 --> 00:12:52.678 排序並決定推薦 什麼給你看的演算法。 00:12:52.898 --> 00:12:55.173 應該再讓你看一張嬰兒照片嗎? NOTE Paragraph 00:12:55.197 --> 00:12:56.393 (笑聲) NOTE Paragraph 00:12:56.417 --> 00:12:59.013 或者一個熟人的哀傷筆記? 00:12:59.449 --> 00:13:01.305 還是一則重要但艱澀的新聞? 00:13:01.329 --> 00:13:02.811 沒有正確的答案。 00:13:02.835 --> 00:13:05.494 臉書根據在網站上的參與度來優化: 00:13:05.518 --> 00:13:07.183 喜歡,分享,評論。 NOTE Paragraph 00:13:08.168 --> 00:13:10.864 2014 年八月, 00:13:10.888 --> 00:13:13.550 在密蘇里州弗格森市 爆發了抗議遊行, 00:13:13.574 --> 00:13:19.601 抗議一位白人警察在不明的狀況下 殺害一個非裔美國少年, 00:13:19.974 --> 00:13:21.981 抗議的消息充斥在 00:13:22.005 --> 00:13:24.690 我未經演算法篩選過的推特頁面上, 00:13:24.714 --> 00:13:26.784 但我的臉書上卻一則也沒有。 00:13:27.182 --> 00:13:28.996 是我的臉書好友不關注這事嗎? 00:13:28.996 --> 00:13:30.972 我關閉了臉書的演算法, 00:13:31.472 --> 00:13:32.604 但很麻煩惱人, 00:13:32.604 --> 00:13:36.380 因為臉書不斷地 想讓你回到演算法的控制下, 00:13:36.404 --> 00:13:38.642 臉書的朋友有在談論弗格森這事, 00:13:38.666 --> 00:13:41.045 只是臉書的演算法沒有顯示給我看。 00:13:41.045 --> 00:13:43.767 研究後,我發現這問題普遍存在。 NOTE Paragraph 00:13:44.265 --> 00:13:48.078 弗格森一事和演算法不合, 00:13:48.102 --> 00:13:49.273 它不討喜; 00:13:49.297 --> 00:13:50.849 誰會點擊「讚」呢? 00:13:51.500 --> 00:13:53.706 它甚至不易被評論。 00:13:53.730 --> 00:13:55.101 越是沒有讚、沒評論, 00:13:55.125 --> 00:13:58.417 演算法就顯示給越少人看, 00:13:58.421 --> 00:14:00.143 所以我們看不到這則新聞。 00:14:00.946 --> 00:14:01.978 相反地, 00:14:01.978 --> 00:14:06.666 臉書的演算法在那星期特別突顯 為漸凍人募款的冰桶挑戰這事。 00:14:06.770 --> 00:14:09.240 崇高的目標;傾倒冰水,捐贈慈善, 00:14:09.240 --> 00:14:10.536 有意義,很好; 00:14:10.536 --> 00:14:12.620 這事與演算法超級速配, 00:14:13.219 --> 00:14:15.832 機器已為我們決定了。 00:14:15.856 --> 00:14:21.003 非常重要但艱澀的 新聞事件可能被埋沒掉, 00:14:21.003 --> 00:14:23.742 倘若臉書是唯一的新聞渠道。 NOTE Paragraph 00:14:24.117 --> 00:14:26.668 最後,這些系統 00:14:26.668 --> 00:14:30.674 也可能以不像人類犯錯的方式出錯。 00:14:30.698 --> 00:14:33.620 大家可還記得 IBM 的 機器智慧系統華生 00:14:33.644 --> 00:14:36.902 在 Jeopardy 智力問答比賽中 橫掃人類的對手? 00:14:37.131 --> 00:14:38.559 它是個厲害的選手。 00:14:38.583 --> 00:14:40.669 在 Final Jeopardy 節目中 00:14:40.669 --> 00:14:42.659 華生被問到: 00:14:42.659 --> 00:14:45.591 「它的最大機場以二戰英雄命名, 00:14:45.615 --> 00:14:47.867 第二大機場以二戰戰場為名。」 NOTE Paragraph 00:14:47.891 --> 00:14:49.269 (哼 Jeopardy 的音樂) NOTE Paragraph 00:14:49.582 --> 00:14:50.764 「芝加哥,」 00:14:50.788 --> 00:14:52.158 兩個人類選手的答案正確; 00:14:52.697 --> 00:14:57.045 華生則回答「多倫多」。 00:14:57.069 --> 00:14:59.237 這是個猜「美國」城市的問題啊! 00:14:59.596 --> 00:15:02.497 這個厲害的系統也犯了 00:15:02.521 --> 00:15:04.783 人類永遠不會犯, 00:15:04.783 --> 00:15:06.823 即使二年級學生也不會犯的錯誤。 NOTE Paragraph 00:15:06.823 --> 00:15:09.932 我們的機器智慧可能敗在 00:15:09.956 --> 00:15:13.056 與人類犯錯模式迥異之處, 00:15:13.080 --> 00:15:16.030 在我們完全想不到、 沒準備的地方出錯。 00:15:16.054 --> 00:15:19.692 得不到一份可勝任的 工作確實很糟糕, 00:15:19.716 --> 00:15:24.913 但若起因是機器的子程式漫溢, 會是三倍的糟糕。 NOTE Paragraph 00:15:24.923 --> 00:15:26.502 (笑聲) NOTE Paragraph 00:15:26.526 --> 00:15:29.312 2010 年五月, 00:15:29.336 --> 00:15:36.210 華爾街「賣出」演算法的 回饋迴路觸發了股市的急速崩盤, 00:15:36.456 --> 00:15:40.640 數萬億美元的市值 在 36 分鐘內蒸發掉了。 00:15:41.722 --> 00:15:43.093 我甚至不敢想 00:15:43.093 --> 00:15:47.872 若「錯誤」發生在致命的 自動武器上會是何種情況。 NOTE Paragraph 00:15:49.894 --> 00:15:53.684 是啊,人類總是有偏見。 00:15:53.708 --> 00:15:55.884 決策者和守門人 00:15:55.908 --> 00:15:59.521 在法庭、新聞中、戰爭裡…… 00:15:59.521 --> 00:16:02.463 都會犯錯;但這正是我的觀點: 00:16:02.487 --> 00:16:06.008 我們不能逃避這些困難的問題。 00:16:06.596 --> 00:16:10.112 我們不能把責任外包給機器。 NOTE Paragraph 00:16:10.676 --> 00:16:14.884 (掌聲) NOTE Paragraph 00:16:17.089 --> 00:16:21.536 人工智慧不會給我們 「倫理免責卡」。 NOTE Paragraph 00:16:22.742 --> 00:16:26.123 數據科學家費德·本森 稱之為「數學粉飾」。 00:16:26.147 --> 00:16:27.536 我們需要相反的東西。 00:16:27.560 --> 00:16:32.948 我們需要培養懷疑、審視 和調查演算法的能力。 00:16:33.380 --> 00:16:36.578 我們需確保演算法有人負責, 00:16:36.602 --> 00:16:39.047 能被審查,並且確實公開透明。 00:16:39.380 --> 00:16:40.718 我們必須體認, 00:16:40.718 --> 00:16:45.608 把數學和演算法帶入凌亂、 具價值觀的人類事務 00:16:45.632 --> 00:16:48.016 不能帶來客觀性; 00:16:48.040 --> 00:16:51.673 相反地,人類事務的 複雜性侵入演算法。 00:16:52.148 --> 00:16:55.635 是啊,我們可以、也應該用演算法 00:16:55.659 --> 00:16:57.673 來幫助我們做出更好的決定。 00:16:57.697 --> 00:17:03.029 但我們也需要在判斷中 加入道德義務, 00:17:03.053 --> 00:17:05.871 並在該框架內使用演算法, 00:17:05.895 --> 00:17:10.830 而不是像人與人間相互推卸那樣, 00:17:10.854 --> 00:17:13.308 就把責任轉移給機器。 NOTE Paragraph 00:17:13.807 --> 00:17:16.416 機器智慧已經到來, 00:17:16.440 --> 00:17:19.825 這意味著我們必須更堅守 00:17:19.825 --> 00:17:22.032 人類價值觀和人類倫理。 NOTE Paragraph 00:17:22.056 --> 00:17:23.210 謝謝。 NOTE Paragraph 00:17:23.234 --> 00:17:26.874 (掌聲)