[Script Info] Title: [Events] Format: Layer, Start, End, Style, Name, MarginL, MarginR, MarginV, Effect, Text Dialogue: 0,0:00:00.74,0:00:06.86,Default,,0000,0000,0000,,大一時我開始了第一份工作:\N程式設計師, Dialogue: 0,0:00:06.86,0:00:08.37,Default,,0000,0000,0000,,當時我還算是個青少女。 Dialogue: 0,0:00:08.89,0:00:12.26,Default,,0000,0000,0000,,開始為軟體公司寫程式後不久, Dialogue: 0,0:00:12.80,0:00:16.43,Default,,0000,0000,0000,,公司裡的一個經理走到我身邊, Dialogue: 0,0:00:16.46,0:00:17.73,Default,,0000,0000,0000,,悄悄地問: Dialogue: 0,0:00:18.23,0:00:21.09,Default,,0000,0000,0000,,「他能判斷我是否說謊嗎?」 Dialogue: 0,0:00:21.81,0:00:23.88,Default,,0000,0000,0000,,當時房裡沒別人。 Dialogue: 0,0:00:24.95,0:00:29.34,Default,,0000,0000,0000,,「『誰』能不能判斷你說謊與否?\N而且,我們為什麼耳語呢?」 Dialogue: 0,0:00:30.27,0:00:33.37,Default,,0000,0000,0000,,經理指著房裡的電腦,問: Dialogue: 0,0:00:33.40,0:00:36.49,Default,,0000,0000,0000,,「『他』能判斷我是否說謊嗎?」 Dialogue: 0,0:00:37.61,0:00:41.98,Default,,0000,0000,0000,,當時那經理與接待員有曖昧關係。 Dialogue: 0,0:00:41.100,0:00:43.11,Default,,0000,0000,0000,,(笑聲) Dialogue: 0,0:00:43.14,0:00:44.90,Default,,0000,0000,0000,,那時我仍是個青少女。 Dialogue: 0,0:00:45.45,0:00:47.47,Default,,0000,0000,0000,,所以,我用耳語大聲地回答他: Dialogue: 0,0:00:47.49,0:00:51.11,Default,,0000,0000,0000,,「能,電腦能判斷你撒謊與否。」 Dialogue: 0,0:00:51.14,0:00:52.94,Default,,0000,0000,0000,,(笑聲) Dialogue: 0,0:00:52.97,0:00:55.89,Default,,0000,0000,0000,,沒錯,我笑了,但可笑的人是我。 Dialogue: 0,0:00:55.94,0:00:59.21,Default,,0000,0000,0000,,如今,有些計算系統 Dialogue: 0,0:00:59.21,0:01:03.04,Default,,0000,0000,0000,,靠分析、判讀面部表情,\N就能判斷出情緒狀態, Dialogue: 0,0:01:03.04,0:01:05.00,Default,,0000,0000,0000,,甚至判斷是否說謊。 Dialogue: 0,0:01:05.61,0:01:09.76,Default,,0000,0000,0000,,廣告商,甚至政府也對此很感興趣。 Dialogue: 0,0:01:10.32,0:01:12.18,Default,,0000,0000,0000,,我之所以成為程式設計師, Dialogue: 0,0:01:12.20,0:01:15.32,Default,,0000,0000,0000,,是因為自幼便極為喜愛數學和科學。 Dialogue: 0,0:01:15.94,0:01:19.05,Default,,0000,0000,0000,,過程中我學到核子武器, Dialogue: 0,0:01:19.07,0:01:22.03,Default,,0000,0000,0000,,因而變得非常關心科學倫理。 Dialogue: 0,0:01:22.05,0:01:23.25,Default,,0000,0000,0000,,我很苦惱。 Dialogue: 0,0:01:23.28,0:01:25.92,Default,,0000,0000,0000,,但由於家庭狀況, Dialogue: 0,0:01:25.94,0:01:29.24,Default,,0000,0000,0000,,我必須儘早就業。 Dialogue: 0,0:01:29.26,0:01:30.87,Default,,0000,0000,0000,,因此我告訴自己, Dialogue: 0,0:01:30.87,0:01:34.38,Default,,0000,0000,0000,,選擇一個在科技領域中\N能簡單地找到頭路, Dialogue: 0,0:01:34.41,0:01:38.53,Default,,0000,0000,0000,,又無需處理涉及倫理道德\N這類麻煩問題的工作吧。 Dialogue: 0,0:01:39.02,0:01:40.55,Default,,0000,0000,0000,,所以我選擇了電腦。 Dialogue: 0,0:01:40.58,0:01:41.68,Default,,0000,0000,0000,,(笑聲) Dialogue: 0,0:01:41.70,0:01:45.11,Default,,0000,0000,0000,,是啊,哈哈哈!大家都笑我。 Dialogue: 0,0:01:45.14,0:01:47.18,Default,,0000,0000,0000,,如今,電腦科學家 Dialogue: 0,0:01:47.18,0:01:52.12,Default,,0000,0000,0000,,正建構著可控制數十億人\N每天接收訊息的平台。 Dialogue: 0,0:01:53.05,0:01:56.87,Default,,0000,0000,0000,,他們設計的汽車\N可以決定要輾過哪些人。 Dialogue: 0,0:01:57.71,0:02:03.24,Default,,0000,0000,0000,,他們甚至建造能殺人的\N戰爭機器和武器。 Dialogue: 0,0:02:03.25,0:02:06.02,Default,,0000,0000,0000,,從頭到尾都是倫理的問題。 Dialogue: 0,0:02:07.18,0:02:09.24,Default,,0000,0000,0000,,機器智慧已經在此。 Dialogue: 0,0:02:09.85,0:02:13.32,Default,,0000,0000,0000,,我們利用計算來做各種決策, Dialogue: 0,0:02:13.32,0:02:15.21,Default,,0000,0000,0000,,同時也是種新形態的決策。 Dialogue: 0,0:02:15.23,0:02:20.40,Default,,0000,0000,0000,,我們以計算來尋求解答,\N但問題沒有單一的正解, Dialogue: 0,0:02:20.43,0:02:23.97,Default,,0000,0000,0000,,而是主觀、開放、具價值觀的答案。 Dialogue: 0,0:02:24.00,0:02:25.76,Default,,0000,0000,0000,,問題像是, Dialogue: 0,0:02:25.78,0:02:27.74,Default,,0000,0000,0000,,「公司應該聘誰?」 Dialogue: 0,0:02:28.10,0:02:30.86,Default,,0000,0000,0000,,「應該顯示哪個朋友的哪項更新?」 Dialogue: 0,0:02:30.88,0:02:33.14,Default,,0000,0000,0000,,「哪個罪犯更可能再犯?」 Dialogue: 0,0:02:33.51,0:02:36.57,Default,,0000,0000,0000,,「應該推薦哪項新聞或哪部電影?」 Dialogue: 0,0:02:36.59,0:02:39.96,Default,,0000,0000,0000,,我們使用電腦雖有一段時間了, Dialogue: 0,0:02:39.99,0:02:41.50,Default,,0000,0000,0000,,但這是不同的。 Dialogue: 0,0:02:41.53,0:02:43.60,Default,,0000,0000,0000,,這是歷史性的轉折, Dialogue: 0,0:02:43.62,0:02:48.96,Default,,0000,0000,0000,,因我們不能主導計算機\N如何去做這樣的主觀決定, Dialogue: 0,0:02:48.98,0:02:54.40,Default,,0000,0000,0000,,無法像主導計算機去開飛機、造橋樑 Dialogue: 0,0:02:54.40,0:02:55.66,Default,,0000,0000,0000,,或登陸月球那樣。 Dialogue: 0,0:02:56.45,0:02:59.71,Default,,0000,0000,0000,,飛機會更安全嗎?\N橋樑會搖擺或倒塌嗎? Dialogue: 0,0:02:59.73,0:03:04.23,Default,,0000,0000,0000,,那兒已有相當明確的基準共識, Dialogue: 0,0:03:04.25,0:03:06.49,Default,,0000,0000,0000,,有自然的法則指引著我們。 Dialogue: 0,0:03:06.52,0:03:08.24,Default,,0000,0000,0000,,但我們沒有 Dialogue: 0,0:03:08.24,0:03:13.90,Default,,0000,0000,0000,,判斷凌亂人事的錨點或基準。 Dialogue: 0,0:03:14.03,0:03:18.16,Default,,0000,0000,0000,,使事情變得更為複雜的是,\N因軟體越來越強大, Dialogue: 0,0:03:18.18,0:03:21.96,Default,,0000,0000,0000,,但也越來越不透明,越複雜難懂。 Dialogue: 0,0:03:22.54,0:03:24.58,Default,,0000,0000,0000,,過去十年 Dialogue: 0,0:03:24.61,0:03:27.34,Default,,0000,0000,0000,,複雜的演算法有長足的進步: Dialogue: 0,0:03:27.36,0:03:29.35,Default,,0000,0000,0000,,能辨識人臉, Dialogue: 0,0:03:29.98,0:03:32.04,Default,,0000,0000,0000,,能解讀手寫的字, Dialogue: 0,0:03:32.44,0:03:34.50,Default,,0000,0000,0000,,能檢測信用卡欺詐, Dialogue: 0,0:03:34.53,0:03:35.72,Default,,0000,0000,0000,,阻擋垃圾郵件, Dialogue: 0,0:03:35.74,0:03:37.78,Default,,0000,0000,0000,,能翻譯不同的語言, Dialogue: 0,0:03:37.80,0:03:40.37,Default,,0000,0000,0000,,能判讀醫學影像查出腫瘤, Dialogue: 0,0:03:40.40,0:03:42.73,Default,,0000,0000,0000,,能在西洋棋和圍棋賽中\N擊敗人類棋手。 Dialogue: 0,0:03:43.26,0:03:47.77,Default,,0000,0000,0000,,這些進步主要來自所謂的\N「機器學習」法。 Dialogue: 0,0:03:48.18,0:03:51.36,Default,,0000,0000,0000,,機器學習不同於傳統的程式編寫。 Dialogue: 0,0:03:51.39,0:03:54.97,Default,,0000,0000,0000,,編寫程式是下詳細、精確、\N齊全的計算機指令; Dialogue: 0,0:03:55.38,0:03:59.56,Default,,0000,0000,0000,,機器學習更像是\N餵大量的數據給系統, Dialogue: 0,0:03:59.58,0:04:01.24,Default,,0000,0000,0000,,包括非結構化的數據, Dialogue: 0,0:04:01.26,0:04:03.54,Default,,0000,0000,0000,,像我們數位生活產生的數據; Dialogue: 0,0:04:03.57,0:04:06.30,Default,,0000,0000,0000,,系統翻撈這些數據來學習。 Dialogue: 0,0:04:06.67,0:04:08.20,Default,,0000,0000,0000,,至關重要的是, Dialogue: 0,0:04:08.22,0:04:12.60,Default,,0000,0000,0000,,這些系統不在產生\N單一答案的邏輯系統下運作; Dialogue: 0,0:04:12.62,0:04:14.33,Default,,0000,0000,0000,,它們不會給出一個簡單的答案, Dialogue: 0,0:04:14.33,0:04:16.24,Default,,0000,0000,0000,,而是以更接近機率的形式呈現: Dialogue: 0,0:04:16.24,0:04:19.09,Default,,0000,0000,0000,,「這可能更接近你所要找的。」 Dialogue: 0,0:04:20.02,0:04:23.09,Default,,0000,0000,0000,,好處是:這方法強而有力。 Dialogue: 0,0:04:23.12,0:04:25.19,Default,,0000,0000,0000,,谷歌的人工智慧系統負責人稱之為: Dialogue: 0,0:04:25.22,0:04:27.41,Default,,0000,0000,0000,,「不合理的數據有效性。」 Dialogue: 0,0:04:27.79,0:04:29.14,Default,,0000,0000,0000,,缺點是, Dialogue: 0,0:04:29.74,0:04:32.81,Default,,0000,0000,0000,,我們未能真正明白\N系統學到了什麼。 Dialogue: 0,0:04:32.83,0:04:34.42,Default,,0000,0000,0000,,事實上,這就是它的力量。 Dialogue: 0,0:04:34.95,0:04:38.74,Default,,0000,0000,0000,,這不像下指令給計算機; Dialogue: 0,0:04:39.20,0:04:41.65,Default,,0000,0000,0000,,而更像是訓練 Dialogue: 0,0:04:41.65,0:04:45.66,Default,,0000,0000,0000,,我們未能真正了解\N或無法控制的機器寵物狗。 Dialogue: 0,0:04:46.36,0:04:47.91,Default,,0000,0000,0000,,這是我們的問題。 Dialogue: 0,0:04:48.43,0:04:52.69,Default,,0000,0000,0000,,人工智慧系統出錯時會是個問題; Dialogue: 0,0:04:52.71,0:04:56.25,Default,,0000,0000,0000,,即使它弄對了還是個問題, Dialogue: 0,0:04:56.28,0:04:59.90,Default,,0000,0000,0000,,因碰到主觀問題時,\N我們不知哪個是哪個。 Dialogue: 0,0:04:59.93,0:05:02.48,Default,,0000,0000,0000,,我們不知道系統在想什麼。 Dialogue: 0,0:05:03.49,0:05:07.18,Default,,0000,0000,0000,,就拿招募人員的演算法來說, Dialogue: 0,0:05:08.12,0:05:12.43,Default,,0000,0000,0000,,亦即以機器學習來僱用人的系統, Dialogue: 0,0:05:13.05,0:05:16.67,Default,,0000,0000,0000,,這樣的系統用\N已有的員工數據來訓練機器, Dialogue: 0,0:05:16.67,0:05:19.25,Default,,0000,0000,0000,,指示它尋找和僱用那些 Dialogue: 0,0:05:19.27,0:05:22.31,Default,,0000,0000,0000,,類似公司現有的高績效員工的人。 Dialogue: 0,0:05:22.81,0:05:23.97,Default,,0000,0000,0000,,聽起來不錯。 Dialogue: 0,0:05:23.99,0:05:25.99,Default,,0000,0000,0000,,我曾參加某會議, Dialogue: 0,0:05:26.01,0:05:29.14,Default,,0000,0000,0000,,聚集人資經理和高階主管, Dialogue: 0,0:05:29.16,0:05:30.37,Default,,0000,0000,0000,,高層人士, Dialogue: 0,0:05:30.39,0:05:31.95,Default,,0000,0000,0000,,使用這種系統招聘。 Dialogue: 0,0:05:31.98,0:05:33.62,Default,,0000,0000,0000,,他們超級興奮, Dialogue: 0,0:05:33.65,0:05:37.05,Default,,0000,0000,0000,,認為這種系統會使招聘更為客觀, Dialogue: 0,0:05:37.05,0:05:38.32,Default,,0000,0000,0000,,較少偏見, Dialogue: 0,0:05:38.32,0:05:41.32,Default,,0000,0000,0000,,有利於婦女和少數民族 Dialogue: 0,0:05:41.35,0:05:43.54,Default,,0000,0000,0000,,避開有偏見的管理人。 Dialogue: 0,0:05:43.56,0:05:46.40,Default,,0000,0000,0000,,看哪!靠人類僱用是有偏見的。 Dialogue: 0,0:05:47.10,0:05:48.28,Default,,0000,0000,0000,,我知道。 Dialogue: 0,0:05:48.31,0:05:51.31,Default,,0000,0000,0000,,我的意思是,\N在早期某個編寫程式的工作, Dialogue: 0,0:05:51.34,0:05:55.34,Default,,0000,0000,0000,,有時候我的直屬主管會在 Dialogue: 0,0:05:55.34,0:05:58.98,Default,,0000,0000,0000,,大清早或下午很晚時來到我身旁, Dialogue: 0,0:05:59.01,0:06:02.07,Default,,0000,0000,0000,,說:「日娜,走,吃午飯!」 Dialogue: 0,0:06:02.72,0:06:04.89,Default,,0000,0000,0000,,我被奇怪的時間點所困惑。 Dialogue: 0,0:06:04.92,0:06:07.04,Default,,0000,0000,0000,,下午 4 點。吃午餐? Dialogue: 0,0:06:07.07,0:06:08.51,Default,,0000,0000,0000,,我很窮, Dialogue: 0,0:06:08.51,0:06:10.62,Default,,0000,0000,0000,,因為是免費的午餐,所以總是會去。 Dialogue: 0,0:06:10.62,0:06:12.68,Default,,0000,0000,0000,,後來我明白到底是怎麼回事。 Dialogue: 0,0:06:12.71,0:06:17.26,Default,,0000,0000,0000,,我的直屬主管沒讓她的主管知道, Dialogue: 0,0:06:17.28,0:06:20.26,Default,,0000,0000,0000,,他們僱來做重要職務的程式設計師, Dialogue: 0,0:06:20.26,0:06:21.77,Default,,0000,0000,0000,,是個穿牛仔褲和運動鞋 Dialogue: 0,0:06:21.77,0:06:24.35,Default,,0000,0000,0000,,來上班的十幾歲女孩。 Dialogue: 0,0:06:25.17,0:06:27.42,Default,,0000,0000,0000,,我工作做得很好,\N只是外表形象看起來不符, Dialogue: 0,0:06:27.42,0:06:29.10,Default,,0000,0000,0000,,年齡和性別不對。 Dialogue: 0,0:06:29.12,0:06:32.47,Default,,0000,0000,0000,,因此,性別和種族\N不列入考慮的僱用系統 Dialogue: 0,0:06:32.49,0:06:34.36,Default,,0000,0000,0000,,對我而言當然不錯。 Dialogue: 0,0:06:35.03,0:06:38.37,Default,,0000,0000,0000,,但使用這些系統會更複雜,原因是: Dialogue: 0,0:06:38.97,0:06:41.14,Default,,0000,0000,0000,,目前的計算系統 Dialogue: 0,0:06:41.14,0:06:46.66,Default,,0000,0000,0000,,可從你零散的數位足跡\N推斷出關於你的各種事物, Dialogue: 0,0:06:46.68,0:06:49.01,Default,,0000,0000,0000,,即使你未曾披露過。 Dialogue: 0,0:06:49.51,0:06:52.43,Default,,0000,0000,0000,,他們能推斷你的性取向, Dialogue: 0,0:06:52.99,0:06:54.30,Default,,0000,0000,0000,,個性的特質, Dialogue: 0,0:06:54.86,0:06:56.23,Default,,0000,0000,0000,,政治的傾向。 Dialogue: 0,0:06:56.83,0:07:00.52,Default,,0000,0000,0000,,他們的預測能力相當精準。 Dialogue: 0,0:07:01.36,0:07:03.94,Default,,0000,0000,0000,,請記住:知道你未曾公開的事情 Dialogue: 0,0:07:03.96,0:07:05.56,Default,,0000,0000,0000,,是推理。 Dialogue: 0,0:07:05.58,0:07:08.84,Default,,0000,0000,0000,,我有個朋友開發這樣的計算系統: Dialogue: 0,0:07:08.86,0:07:13.96,Default,,0000,0000,0000,,從社交媒體數據來預測\N臨床或產後抑鬱症的可能性。 Dialogue: 0,0:07:14.68,0:07:16.10,Default,,0000,0000,0000,,結果非常優異。 Dialogue: 0,0:07:16.49,0:07:17.54,Default,,0000,0000,0000,,她的系統 Dialogue: 0,0:07:17.54,0:07:23.78,Default,,0000,0000,0000,,能在出現任何症狀的幾個月前\N預測出抑鬱的可能性, Dialogue: 0,0:07:23.80,0:07:25.17,Default,,0000,0000,0000,,是好幾個月前。 Dialogue: 0,0:07:25.20,0:07:27.44,Default,,0000,0000,0000,,雖沒有症狀,已預測出來。 Dialogue: 0,0:07:27.47,0:07:31.52,Default,,0000,0000,0000,,她希望它被用來早期干預處理。 Dialogue: 0,0:07:31.52,0:07:32.91,Default,,0000,0000,0000,,很好! Dialogue: 0,0:07:32.91,0:07:35.32,Default,,0000,0000,0000,,但是,設想若把這系統\N用在僱人的情況下。 Dialogue: 0,0:07:36.03,0:07:39.07,Default,,0000,0000,0000,,在這人資經理會議中, Dialogue: 0,0:07:39.10,0:07:43.74,Default,,0000,0000,0000,,我走向一間大公司的高階經理, Dialogue: 0,0:07:43.74,0:07:44.56,Default,,0000,0000,0000,,對她說: Dialogue: 0,0:07:44.56,0:07:48.41,Default,,0000,0000,0000,,「假設在你不知道的情形下, Dialogue: 0,0:07:48.43,0:07:54.98,Default,,0000,0000,0000,,那個系統被用來排除\N未來極有可能抑鬱的人呢? Dialogue: 0,0:07:55.76,0:07:59.14,Default,,0000,0000,0000,,他們現在不抑鬱,\N只是未來『比較有可能』抑鬱。 Dialogue: 0,0:07:59.92,0:08:03.33,Default,,0000,0000,0000,,如果它被用來排除\N在未來一兩年比較有可能懷孕, Dialogue: 0,0:08:03.35,0:08:06.01,Default,,0000,0000,0000,,但現在沒懷孕的婦女呢? Dialogue: 0,0:08:06.84,0:08:12.48,Default,,0000,0000,0000,,如果它被用來招募激進性格者,\N以符合你的職場文化呢?」 Dialogue: 0,0:08:13.17,0:08:15.86,Default,,0000,0000,0000,,透過性別比例無法看到這些問題, Dialogue: 0,0:08:15.89,0:08:17.39,Default,,0000,0000,0000,,因比例可能是均衡的。 Dialogue: 0,0:08:17.41,0:08:20.97,Default,,0000,0000,0000,,而且由於這是機器學習,\N不是傳統編碼, Dialogue: 0,0:08:20.100,0:08:25.90,Default,,0000,0000,0000,,沒有標記為「更高抑鬱症風險」、 Dialogue: 0,0:08:25.93,0:08:27.76,Default,,0000,0000,0000,,「更高懷孕風險」、 Dialogue: 0,0:08:27.78,0:08:29.52,Default,,0000,0000,0000,,「侵略性格者」的變數; Dialogue: 0,0:08:29.100,0:08:33.67,Default,,0000,0000,0000,,你不僅不知道系統在選什麼, Dialogue: 0,0:08:33.70,0:08:36.02,Default,,0000,0000,0000,,甚至不知道要從何找起。 Dialogue: 0,0:08:36.04,0:08:37.29,Default,,0000,0000,0000,,它就是個黑盒子, Dialogue: 0,0:08:37.32,0:08:40.12,Default,,0000,0000,0000,,具有預測能力,但你不了解它。 Dialogue: 0,0:08:40.49,0:08:43.56,Default,,0000,0000,0000,,我問:「你有什麼能確保 Dialogue: 0,0:08:43.56,0:08:46.81,Default,,0000,0000,0000,,你的黑盒子沒在暗地裡\N做了什麼不可告人之事? Dialogue: 0,0:08:48.86,0:08:52.74,Default,,0000,0000,0000,,她看著我,彷彿我剛踩了\N十隻小狗的尾巴。 Dialogue: 0,0:08:52.76,0:08:54.01,Default,,0000,0000,0000,,(笑聲) Dialogue: 0,0:08:54.04,0:08:56.08,Default,,0000,0000,0000,,她盯著我,說: Dialogue: 0,0:08:56.56,0:09:00.89,Default,,0000,0000,0000,,「關於這事,我不想\N再聽妳多說一個字。」 Dialogue: 0,0:09:01.46,0:09:03.49,Default,,0000,0000,0000,,然後她就轉身走開了。 Dialogue: 0,0:09:04.06,0:09:05.55,Default,,0000,0000,0000,,提醒你們,她不是粗魯。 Dialogue: 0,0:09:05.57,0:09:07.04,Default,,0000,0000,0000,,她的意思很明顯: Dialogue: 0,0:09:07.04,0:09:09.91,Default,,0000,0000,0000,,我不知道的事不是我的問題。 Dialogue: 0,0:09:09.91,0:09:11.91,Default,,0000,0000,0000,,走開。惡狠狠盯著。 Dialogue: 0,0:09:11.91,0:09:13.15,Default,,0000,0000,0000,,(笑聲) Dialogue: 0,0:09:13.86,0:09:19.76,Default,,0000,0000,0000,,這樣的系統可能比人類經理\N在某些方面更沒有偏見, Dialogue: 0,0:09:19.85,0:09:21.100,Default,,0000,0000,0000,,可能也省錢; Dialogue: 0,0:09:22.57,0:09:27.27,Default,,0000,0000,0000,,但也可能在不知不覺中逐步導致 Dialogue: 0,0:09:27.27,0:09:31.44,Default,,0000,0000,0000,,抑鬱症風險較高的人\N在就業市場裡吃到閉門羹。 Dialogue: 0,0:09:31.75,0:09:36.66,Default,,0000,0000,0000,,我們要在不自覺的情形下\N建立這種社會嗎? Dialogue: 0,0:09:36.68,0:09:40.65,Default,,0000,0000,0000,,僅僅因我們讓給\N我們不完全理解的機器做決策? Dialogue: 0,0:09:41.26,0:09:44.26,Default,,0000,0000,0000,,另一個問題是:這些系統通常由 Dialogue: 0,0:09:44.26,0:09:49.66,Default,,0000,0000,0000,,我們行動產生的數據,\N即人類的印記所訓練。 Dialogue: 0,0:09:50.19,0:09:53.100,Default,,0000,0000,0000,,它們可能只是反映我們的偏見, Dialogue: 0,0:09:54.02,0:09:57.61,Default,,0000,0000,0000,,學習了我們的偏見 Dialogue: 0,0:09:57.64,0:09:58.95,Default,,0000,0000,0000,,並且放大, Dialogue: 0,0:09:58.97,0:10:00.39,Default,,0000,0000,0000,,然後回饋給我們; Dialogue: 0,0:10:00.42,0:10:01.88,Default,,0000,0000,0000,,而我們卻告訴自己: Dialogue: 0,0:10:01.90,0:10:05.02,Default,,0000,0000,0000,,「這樣做是客觀、不偏頗的計算。」 Dialogue: 0,0:10:06.31,0:10:08.99,Default,,0000,0000,0000,,研究人員在谷歌上發現, Dialogue: 0,0:10:10.13,0:10:15.45,Default,,0000,0000,0000,,女性比男性更不易看到\N高薪工作招聘的廣告。 Dialogue: 0,0:10:16.46,0:10:18.99,Default,,0000,0000,0000,,蒐索非裔美國人的名字 Dialogue: 0,0:10:19.02,0:10:23.72,Default,,0000,0000,0000,,比較可能帶出暗示犯罪史的廣告, Dialogue: 0,0:10:23.75,0:10:25.56,Default,,0000,0000,0000,,即使那人並無犯罪史。 Dialogue: 0,0:10:26.69,0:10:30.24,Default,,0000,0000,0000,,這種隱藏偏見和黑箱的演算法, Dialogue: 0,0:10:30.27,0:10:34.24,Default,,0000,0000,0000,,有時被研究人員發現了,\N但有時我們毫無所知, Dialogue: 0,0:10:34.26,0:10:37.12,Default,,0000,0000,0000,,很可能產生改變生命的後果。 Dialogue: 0,0:10:37.96,0:10:43.54,Default,,0000,0000,0000,,在威斯康辛州,某個被告\N因逃避警察而被判處六年監禁。 Dialogue: 0,0:10:44.82,0:10:46.01,Default,,0000,0000,0000,,你可能不知道 Dialogue: 0,0:10:46.03,0:10:48.30,Default,,0000,0000,0000,,演算法越來越頻繁地被用在 Dialogue: 0,0:10:48.30,0:10:50.06,Default,,0000,0000,0000,,假釋和量刑的決定上。 Dialogue: 0,0:10:50.06,0:10:53.01,Default,,0000,0000,0000,,想知道分數如何計算出來的嗎? Dialogue: 0,0:10:53.80,0:10:55.46,Default,,0000,0000,0000,,這是個商業的黑盒子, Dialogue: 0,0:10:55.48,0:10:56.77,Default,,0000,0000,0000,,開發它的公司 Dialogue: 0,0:10:56.77,0:11:00.40,Default,,0000,0000,0000,,拒絕讓演算法在公開法庭上受盤問。 Dialogue: 0,0:11:00.40,0:11:05.93,Default,,0000,0000,0000,,但是 ProPublica 這家\N非營利機構評估該演算法, Dialogue: 0,0:11:05.95,0:11:07.97,Default,,0000,0000,0000,,使用找得到的公共數據, Dialogue: 0,0:11:07.99,0:11:10.31,Default,,0000,0000,0000,,發現其結果偏頗, Dialogue: 0,0:11:10.33,0:11:13.96,Default,,0000,0000,0000,,預測能力相當差,僅比碰運氣稍強, Dialogue: 0,0:11:13.98,0:11:19.88,Default,,0000,0000,0000,,並錯誤地標記黑人被告\N成為未來罪犯的機率, Dialogue: 0,0:11:19.88,0:11:22.63,Default,,0000,0000,0000,,是白人被告的兩倍。 Dialogue: 0,0:11:23.89,0:11:25.46,Default,,0000,0000,0000,,考慮這個情況: Dialogue: 0,0:11:26.10,0:11:32.34,Default,,0000,0000,0000,,這女人因來不及去佛州布勞沃德郡的\N學校接她的乾妹妹, Dialogue: 0,0:11:32.34,0:11:34.95,Default,,0000,0000,0000,,而與朋友狂奔趕赴學校。 Dialogue: 0,0:11:34.95,0:11:39.24,Default,,0000,0000,0000,,他們看到門廊上有一輛未上鎖的\N兒童腳踏車和一台滑板車, Dialogue: 0,0:11:39.26,0:11:40.89,Default,,0000,0000,0000,,愚蠢地跳上去, Dialogue: 0,0:11:40.92,0:11:42.47,Default,,0000,0000,0000,,當他們趕時間快速離去時, Dialogue: 0,0:11:42.47,0:11:45.74,Default,,0000,0000,0000,,一個女人出來說:\N「嘿!那是我孩子的腳踏車!」 Dialogue: 0,0:11:45.77,0:11:49.06,Default,,0000,0000,0000,,雖然他們留下車子走開,\N但被逮捕了。 Dialogue: 0,0:11:49.09,0:11:52.72,Default,,0000,0000,0000,,她錯了,她很蠢,但她只有十八歲。 Dialogue: 0,0:11:52.75,0:11:55.29,Default,,0000,0000,0000,,曾觸犯兩次少年輕罪。 Dialogue: 0,0:11:55.81,0:11:56.87,Default,,0000,0000,0000,,同時, Dialogue: 0,0:11:56.87,0:12:02.72,Default,,0000,0000,0000,,那個男人因在家得寶商店\N偷竊八十五美元的東西而被捕, Dialogue: 0,0:12:02.72,0:12:04.77,Default,,0000,0000,0000,,類似的小罪, Dialogue: 0,0:12:04.77,0:12:09.54,Default,,0000,0000,0000,,但他曾兩次因武裝搶劫而被定罪。 Dialogue: 0,0:12:09.92,0:12:12.76,Default,,0000,0000,0000,,演算法認定她有再犯的高風險, Dialogue: 0,0:12:12.76,0:12:14.32,Default,,0000,0000,0000,,而他卻不然。 Dialogue: 0,0:12:14.75,0:12:18.62,Default,,0000,0000,0000,,兩年後,ProPublica\N發現她未曾再犯; Dialogue: 0,0:12:18.64,0:12:21.19,Default,,0000,0000,0000,,但因有過犯罪紀錄而難以找到工作。 Dialogue: 0,0:12:21.22,0:12:23.29,Default,,0000,0000,0000,,另一方面,他再犯了, Dialogue: 0,0:12:23.32,0:12:27.15,Default,,0000,0000,0000,,現正因再犯之罪而入監服刑八年。 Dialogue: 0,0:12:28.09,0:12:31.46,Default,,0000,0000,0000,,很顯然,我們必需審核黑盒子, Dialogue: 0,0:12:31.48,0:12:34.33,Default,,0000,0000,0000,,並且不賦予它們\N這類未經檢查的權力。 Dialogue: 0,0:12:34.43,0:12:36.100,Default,,0000,0000,0000,,(掌聲) Dialogue: 0,0:12:38.09,0:12:42.33,Default,,0000,0000,0000,,審核極其重要,\N但不足以解決所有的問題。 Dialogue: 0,0:12:42.35,0:12:45.10,Default,,0000,0000,0000,,拿臉書強大的動態消息演算法來說, Dialogue: 0,0:12:45.12,0:12:48.43,Default,,0000,0000,0000,,就是通過你的朋友圈\N和瀏覽過的頁面, Dialogue: 0,0:12:48.43,0:12:52.68,Default,,0000,0000,0000,,排序並決定推薦\N什麼給你看的演算法。 Dialogue: 0,0:12:52.90,0:12:55.17,Default,,0000,0000,0000,,應該再讓你看一張嬰兒照片嗎? Dialogue: 0,0:12:55.20,0:12:56.39,Default,,0000,0000,0000,,(笑聲) Dialogue: 0,0:12:56.42,0:12:59.01,Default,,0000,0000,0000,,或者一個熟人的哀傷筆記? Dialogue: 0,0:12:59.45,0:13:01.30,Default,,0000,0000,0000,,還是一則重要但艱澀的新聞? Dialogue: 0,0:13:01.33,0:13:02.81,Default,,0000,0000,0000,,沒有正確的答案。 Dialogue: 0,0:13:02.84,0:13:05.49,Default,,0000,0000,0000,,臉書根據在網站上的參與度來優化: Dialogue: 0,0:13:05.52,0:13:07.18,Default,,0000,0000,0000,,喜歡,分享,評論。 Dialogue: 0,0:13:08.17,0:13:10.86,Default,,0000,0000,0000,,2014 年八月, Dialogue: 0,0:13:10.89,0:13:13.55,Default,,0000,0000,0000,,在密蘇里州弗格森市\N爆發了抗議遊行, Dialogue: 0,0:13:13.57,0:13:19.60,Default,,0000,0000,0000,,抗議一位白人警察在不明的狀況下\N殺害一個非裔美國少年, Dialogue: 0,0:13:19.97,0:13:21.98,Default,,0000,0000,0000,,抗議的消息充斥在 Dialogue: 0,0:13:22.00,0:13:24.69,Default,,0000,0000,0000,,我未經演算法篩選過的推特頁面上, Dialogue: 0,0:13:24.71,0:13:26.78,Default,,0000,0000,0000,,但我的臉書上卻一則也沒有。 Dialogue: 0,0:13:27.18,0:13:28.100,Default,,0000,0000,0000,,是我的臉書好友不關注這事嗎? Dialogue: 0,0:13:28.100,0:13:30.97,Default,,0000,0000,0000,,我關閉了臉書的演算法, Dialogue: 0,0:13:31.47,0:13:32.60,Default,,0000,0000,0000,,但很麻煩惱人, Dialogue: 0,0:13:32.60,0:13:36.38,Default,,0000,0000,0000,,因為臉書不斷地\N想讓你回到演算法的控制下, Dialogue: 0,0:13:36.40,0:13:38.64,Default,,0000,0000,0000,,臉書的朋友有在談論弗格森這事, Dialogue: 0,0:13:38.67,0:13:41.04,Default,,0000,0000,0000,,只是臉書的演算法沒有顯示給我看。 Dialogue: 0,0:13:41.04,0:13:43.77,Default,,0000,0000,0000,,研究後,我發現這問題普遍存在。 Dialogue: 0,0:13:44.26,0:13:48.08,Default,,0000,0000,0000,,弗格森一事和演算法不合, Dialogue: 0,0:13:48.10,0:13:49.27,Default,,0000,0000,0000,,它不討喜; Dialogue: 0,0:13:49.30,0:13:50.85,Default,,0000,0000,0000,,誰會點擊「讚」呢? Dialogue: 0,0:13:51.50,0:13:53.71,Default,,0000,0000,0000,,它甚至不易被評論。 Dialogue: 0,0:13:53.73,0:13:55.10,Default,,0000,0000,0000,,越是沒有讚、沒評論, Dialogue: 0,0:13:55.12,0:13:58.42,Default,,0000,0000,0000,,演算法就顯示給越少人看, Dialogue: 0,0:13:58.42,0:14:00.14,Default,,0000,0000,0000,,所以我們看不到這則新聞。 Dialogue: 0,0:14:00.95,0:14:01.98,Default,,0000,0000,0000,,相反地, Dialogue: 0,0:14:01.98,0:14:06.67,Default,,0000,0000,0000,,臉書的演算法在那星期特別突顯\N為漸凍人募款的冰桶挑戰這事。 Dialogue: 0,0:14:06.77,0:14:09.24,Default,,0000,0000,0000,,崇高的目標;傾倒冰水,捐贈慈善, Dialogue: 0,0:14:09.24,0:14:10.54,Default,,0000,0000,0000,,有意義,很好; Dialogue: 0,0:14:10.54,0:14:12.62,Default,,0000,0000,0000,,這事與演算法超級速配, Dialogue: 0,0:14:13.22,0:14:15.83,Default,,0000,0000,0000,,機器已為我們決定了。 Dialogue: 0,0:14:15.86,0:14:21.00,Default,,0000,0000,0000,,非常重要但艱澀的\N新聞事件可能被埋沒掉, Dialogue: 0,0:14:21.00,0:14:23.74,Default,,0000,0000,0000,,倘若臉書是唯一的新聞渠道。 Dialogue: 0,0:14:24.12,0:14:26.67,Default,,0000,0000,0000,,最後,這些系統 Dialogue: 0,0:14:26.67,0:14:30.67,Default,,0000,0000,0000,,也可能以不像人類犯錯的方式出錯。 Dialogue: 0,0:14:30.70,0:14:33.62,Default,,0000,0000,0000,,大家可還記得 IBM 的\N機器智慧系統華生 Dialogue: 0,0:14:33.64,0:14:36.90,Default,,0000,0000,0000,,在 Jeopardy 智力問答比賽中\N橫掃人類的對手? Dialogue: 0,0:14:37.13,0:14:38.56,Default,,0000,0000,0000,,它是個厲害的選手。 Dialogue: 0,0:14:38.58,0:14:40.67,Default,,0000,0000,0000,,在 Final Jeopardy 節目中 Dialogue: 0,0:14:40.67,0:14:42.66,Default,,0000,0000,0000,,華生被問到: Dialogue: 0,0:14:42.66,0:14:45.59,Default,,0000,0000,0000,,「它的最大機場以二戰英雄命名, Dialogue: 0,0:14:45.62,0:14:47.87,Default,,0000,0000,0000,,第二大機場以二戰戰場為名。」 Dialogue: 0,0:14:47.89,0:14:49.27,Default,,0000,0000,0000,,(哼 Jeopardy 的音樂) Dialogue: 0,0:14:49.58,0:14:50.76,Default,,0000,0000,0000,,「芝加哥,」 Dialogue: 0,0:14:50.79,0:14:52.16,Default,,0000,0000,0000,,兩個人類選手的答案正確; Dialogue: 0,0:14:52.70,0:14:57.04,Default,,0000,0000,0000,,華生則回答「多倫多」。 Dialogue: 0,0:14:57.07,0:14:59.24,Default,,0000,0000,0000,,這是個猜「美國」城市的問題啊! Dialogue: 0,0:14:59.60,0:15:02.50,Default,,0000,0000,0000,,這個厲害的系統也犯了 Dialogue: 0,0:15:02.52,0:15:04.78,Default,,0000,0000,0000,,人類永遠不會犯, Dialogue: 0,0:15:04.78,0:15:06.82,Default,,0000,0000,0000,,即使二年級學生也不會犯的錯誤。 Dialogue: 0,0:15:06.82,0:15:09.93,Default,,0000,0000,0000,,我們的機器智慧可能敗在 Dialogue: 0,0:15:09.96,0:15:13.06,Default,,0000,0000,0000,,與人類犯錯模式迥異之處, Dialogue: 0,0:15:13.08,0:15:16.03,Default,,0000,0000,0000,,在我們完全想不到、\N沒準備的地方出錯。 Dialogue: 0,0:15:16.05,0:15:19.69,Default,,0000,0000,0000,,得不到一份可勝任的\N工作確實很糟糕, Dialogue: 0,0:15:19.72,0:15:24.91,Default,,0000,0000,0000,,但若起因是機器的子程式漫溢,\N會是三倍的糟糕。 Dialogue: 0,0:15:24.92,0:15:26.50,Default,,0000,0000,0000,,(笑聲) Dialogue: 0,0:15:26.53,0:15:29.31,Default,,0000,0000,0000,,2010 年五月, Dialogue: 0,0:15:29.34,0:15:36.21,Default,,0000,0000,0000,,華爾街「賣出」演算法的\N回饋迴路觸發了股市的急速崩盤, Dialogue: 0,0:15:36.46,0:15:40.64,Default,,0000,0000,0000,,數萬億美元的市值\N在 36 分鐘內蒸發掉了。 Dialogue: 0,0:15:41.72,0:15:43.09,Default,,0000,0000,0000,,我甚至不敢想 Dialogue: 0,0:15:43.09,0:15:47.87,Default,,0000,0000,0000,,若「錯誤」發生在致命的\N自動武器上會是何種情況。 Dialogue: 0,0:15:49.89,0:15:53.68,Default,,0000,0000,0000,,是啊,人類總是有偏見。 Dialogue: 0,0:15:53.71,0:15:55.88,Default,,0000,0000,0000,,決策者和守門人 Dialogue: 0,0:15:55.91,0:15:59.52,Default,,0000,0000,0000,,在法庭、新聞中、戰爭裡……\N Dialogue: 0,0:15:59.52,0:16:02.46,Default,,0000,0000,0000,,都會犯錯;但這正是我的觀點: Dialogue: 0,0:16:02.49,0:16:06.01,Default,,0000,0000,0000,,我們不能逃避這些困難的問題。 Dialogue: 0,0:16:06.60,0:16:10.11,Default,,0000,0000,0000,,我們不能把責任外包給機器。 Dialogue: 0,0:16:10.68,0:16:14.88,Default,,0000,0000,0000,,(掌聲) Dialogue: 0,0:16:17.09,0:16:21.54,Default,,0000,0000,0000,,人工智慧不會給我們\N「倫理免責卡」。 Dialogue: 0,0:16:22.74,0:16:26.12,Default,,0000,0000,0000,,數據科學家費德·本森\N稱之為「數學粉飾」。 Dialogue: 0,0:16:26.15,0:16:27.54,Default,,0000,0000,0000,,我們需要相反的東西。 Dialogue: 0,0:16:27.56,0:16:32.95,Default,,0000,0000,0000,,我們需要培養懷疑、審視\N和調查演算法的能力。 Dialogue: 0,0:16:33.38,0:16:36.58,Default,,0000,0000,0000,,我們需確保演算法有人負責, Dialogue: 0,0:16:36.60,0:16:39.05,Default,,0000,0000,0000,,能被審查,並且確實公開透明。 Dialogue: 0,0:16:39.38,0:16:40.72,Default,,0000,0000,0000,,我們必須體認, Dialogue: 0,0:16:40.72,0:16:45.61,Default,,0000,0000,0000,,把數學和演算法帶入凌亂、\N具價值觀的人類事務 Dialogue: 0,0:16:45.63,0:16:48.02,Default,,0000,0000,0000,,不能帶來客觀性; Dialogue: 0,0:16:48.04,0:16:51.67,Default,,0000,0000,0000,,相反地,人類事務的\N複雜性侵入演算法。 Dialogue: 0,0:16:52.15,0:16:55.64,Default,,0000,0000,0000,,是啊,我們可以、也應該用演算法 Dialogue: 0,0:16:55.66,0:16:57.67,Default,,0000,0000,0000,,來幫助我們做出更好的決定。 Dialogue: 0,0:16:57.70,0:17:03.03,Default,,0000,0000,0000,,但我們也需要在判斷中\N加入道德義務, Dialogue: 0,0:17:03.05,0:17:05.87,Default,,0000,0000,0000,,並在該框架內使用演算法, Dialogue: 0,0:17:05.90,0:17:10.83,Default,,0000,0000,0000,,而不是像人與人間相互推卸那樣, Dialogue: 0,0:17:10.85,0:17:13.31,Default,,0000,0000,0000,,就把責任轉移給機器。 Dialogue: 0,0:17:13.81,0:17:16.42,Default,,0000,0000,0000,,機器智慧已經到來, Dialogue: 0,0:17:16.44,0:17:19.82,Default,,0000,0000,0000,,這意味著我們必須更堅守 Dialogue: 0,0:17:19.82,0:17:22.03,Default,,0000,0000,0000,,人類價值觀和人類倫理。 Dialogue: 0,0:17:22.06,0:17:23.21,Default,,0000,0000,0000,,謝謝。 Dialogue: 0,0:17:23.23,0:17:26.87,Default,,0000,0000,0000,,(掌聲)