0:00:00.739,0:00:06.861 大一時我開始了第一份工作:[br]程式設計師, 0:00:06.865,0:00:08.372 當時我還算是個青少女。 0:00:08.889,0:00:12.261 開始為軟體公司寫程式後不久, 0:00:12.799,0:00:16.434 公司裡的一個經理走到我身邊, 0:00:16.458,0:00:17.726 悄悄地問: 0:00:18.229,0:00:21.090 「他能判斷我是否說謊嗎?」 0:00:21.806,0:00:23.883 當時房裡沒別人。 0:00:24.952,0:00:29.341 「『誰』能不能判斷你說謊與否?[br]而且,我們為什麼耳語呢?」 0:00:30.266,0:00:33.373 經理指著房裡的電腦,問: 0:00:33.397,0:00:36.493 「『他』能判斷我是否說謊嗎?」 0:00:37.613,0:00:41.975 當時那經理與接待員有曖昧關係。 0:00:41.999,0:00:43.111 (笑聲) 0:00:43.135,0:00:44.901 那時我仍是個青少女。 0:00:45.447,0:00:47.466 所以,我用耳語大聲地回答他: 0:00:47.490,0:00:51.114 「能,電腦能判斷你撒謊與否。」 0:00:51.138,0:00:52.944 (笑聲) 0:00:52.968,0:00:55.891 沒錯,我笑了,但可笑的人是我。 0:00:55.939,0:00:59.207 如今,有些計算系統 0:00:59.207,0:01:03.039 靠分析、判讀面部表情,[br]就能判斷出情緒狀態, 0:01:03.039,0:01:05.003 甚至判斷是否說謊。 0:01:05.608,0:01:09.761 廣告商,甚至政府也對此很感興趣。 0:01:10.319,0:01:12.181 我之所以成為程式設計師, 0:01:12.205,0:01:15.318 是因為自幼便極為喜愛數學和科學。 0:01:15.942,0:01:19.050 過程中我學到核子武器, 0:01:19.074,0:01:22.026 因而變得非常關心科學倫理。 0:01:22.050,0:01:23.254 我很苦惱。 0:01:23.278,0:01:25.919 但由於家庭狀況, 0:01:25.943,0:01:29.241 我必須儘早就業。 0:01:29.265,0:01:30.868 因此我告訴自己, 0:01:30.868,0:01:34.384 選擇一個在科技領域中[br]能簡單地找到頭路, 0:01:34.408,0:01:38.526 又無需處理涉及倫理道德[br]這類麻煩問題的工作吧。 0:01:39.022,0:01:40.551 所以我選擇了電腦。 0:01:40.575,0:01:41.679 (笑聲) 0:01:41.703,0:01:45.113 是啊,哈哈哈!大家都笑我。 0:01:45.137,0:01:47.175 如今,電腦科學家 0:01:47.175,0:01:52.124 正建構著可控制數十億人[br]每天接收訊息的平台。 0:01:53.052,0:01:56.874 他們設計的汽車[br]可以決定要輾過哪些人。 0:01:57.707,0:02:03.240 他們甚至建造能殺人的[br]戰爭機器和武器。 0:02:03.253,0:02:06.024 從頭到尾都是倫理的問題。 0:02:07.183,0:02:09.241 機器智慧已經在此。 0:02:09.847,0:02:13.321 我們利用計算來做各種決策, 0:02:13.321,0:02:15.207 同時也是種新形態的決策。 0:02:15.231,0:02:20.403 我們以計算來尋求解答,[br]但問題沒有單一的正解, 0:02:20.427,0:02:23.969 而是主觀、開放、具價值觀的答案。 0:02:24.002,0:02:25.760 問題像是, 0:02:25.784,0:02:27.744 「公司應該聘誰?」 0:02:28.096,0:02:30.855 「應該顯示哪個朋友的哪項更新?」 0:02:30.879,0:02:33.145 「哪個罪犯更可能再犯?」 0:02:33.514,0:02:36.568 「應該推薦哪項新聞或哪部電影?」 0:02:36.592,0:02:39.964 我們使用電腦雖有一段時間了, 0:02:39.988,0:02:41.505 但這是不同的。 0:02:41.529,0:02:43.596 這是歷史性的轉折, 0:02:43.620,0:02:48.957 因我們不能主導計算機[br]如何去做這樣的主觀決定, 0:02:48.981,0:02:54.401 無法像主導計算機去開飛機、造橋樑 0:02:54.401,0:02:55.660 或登陸月球那樣。 0:02:56.449,0:02:59.708 飛機會更安全嗎?[br]橋樑會搖擺或倒塌嗎? 0:02:59.732,0:03:04.230 那兒已有相當明確的基準共識, 0:03:04.254,0:03:06.493 有自然的法則指引著我們。 0:03:06.517,0:03:08.235 但我們沒有 0:03:08.235,0:03:13.898 判斷凌亂人事的錨點或基準。 0:03:14.032,0:03:18.159 使事情變得更為複雜的是,[br]因軟體越來越強大, 0:03:18.183,0:03:21.956 但也越來越不透明,越複雜難懂。 0:03:22.542,0:03:24.582 過去十年 0:03:24.606,0:03:27.335 複雜的演算法有長足的進步: 0:03:27.359,0:03:29.349 能辨識人臉, 0:03:29.985,0:03:32.040 能解讀手寫的字, 0:03:32.436,0:03:34.502 能檢測信用卡欺詐, 0:03:34.526,0:03:35.715 阻擋垃圾郵件, 0:03:35.739,0:03:37.776 能翻譯不同的語言, 0:03:37.800,0:03:40.374 能判讀醫學影像查出腫瘤, 0:03:40.398,0:03:42.733 能在西洋棋和圍棋賽中[br]擊敗人類棋手。 0:03:43.264,0:03:47.768 這些進步主要來自所謂的[br]「機器學習」法。 0:03:48.175,0:03:51.362 機器學習不同於傳統的程式編寫。 0:03:51.386,0:03:54.971 編寫程式是下詳細、精確、[br]齊全的計算機指令; 0:03:55.378,0:03:59.560 機器學習更像是[br]餵大量的數據給系統, 0:03:59.584,0:04:01.240 包括非結構化的數據, 0:04:01.264,0:04:03.542 像我們數位生活產生的數據; 0:04:03.566,0:04:06.296 系統翻撈這些數據來學習。 0:04:06.669,0:04:08.195 至關重要的是, 0:04:08.219,0:04:12.599 這些系統不在產生[br]單一答案的邏輯系統下運作; 0:04:12.623,0:04:14.333 它們不會給出一個簡單的答案, 0:04:14.333,0:04:16.236 而是以更接近機率的形式呈現: 0:04:16.236,0:04:19.089 「這可能更接近你所要找的。」 0:04:20.023,0:04:23.093 好處是:這方法強而有力。 0:04:23.117,0:04:25.193 谷歌的人工智慧系統負責人稱之為: 0:04:25.217,0:04:27.414 「不合理的數據有效性。」 0:04:27.791,0:04:29.144 缺點是, 0:04:29.738,0:04:32.809 我們未能真正明白[br]系統學到了什麼。 0:04:32.833,0:04:34.420 事實上,這就是它的力量。 0:04:34.946,0:04:38.744 這不像下指令給計算機; 0:04:39.200,0:04:41.648 而更像是訓練 0:04:41.648,0:04:45.659 我們未能真正了解[br]或無法控制的機器寵物狗。 0:04:46.362,0:04:47.913 這是我們的問題。 0:04:48.427,0:04:52.689 人工智慧系統出錯時會是個問題; 0:04:52.713,0:04:56.253 即使它弄對了還是個問題, 0:04:56.277,0:04:59.905 因碰到主觀問題時,[br]我們不知哪個是哪個。 0:04:59.929,0:05:02.478 我們不知道系統在想什麼。 0:05:03.493,0:05:07.176 就拿招募人員的演算法來說, 0:05:08.123,0:05:12.434 亦即以機器學習來僱用人的系統, 0:05:13.052,0:05:16.671 這樣的系統用[br]已有的員工數據來訓練機器, 0:05:16.671,0:05:19.246 指示它尋找和僱用那些 0:05:19.270,0:05:22.308 類似公司現有的高績效員工的人。 0:05:22.814,0:05:23.967 聽起來不錯。 0:05:23.991,0:05:25.990 我曾參加某會議, 0:05:26.014,0:05:29.139 聚集人資經理和高階主管, 0:05:29.163,0:05:30.369 高層人士, 0:05:30.393,0:05:31.952 使用這種系統招聘。 0:05:31.976,0:05:33.622 他們超級興奮, 0:05:33.646,0:05:37.053 認為這種系統會使招聘更為客觀, 0:05:37.053,0:05:38.323 較少偏見, 0:05:38.323,0:05:41.323 有利於婦女和少數民族 0:05:41.347,0:05:43.535 避開有偏見的管理人。 0:05:43.559,0:05:46.402 看哪!靠人類僱用是有偏見的。 0:05:47.099,0:05:48.284 我知道。 0:05:48.308,0:05:51.313 我的意思是,[br]在早期某個編寫程式的工作, 0:05:51.337,0:05:55.339 有時候我的直屬主管會在 0:05:55.339,0:05:58.982 大清早或下午很晚時來到我身旁, 0:05:59.006,0:06:02.068 說:「日娜,走,吃午飯!」 0:06:02.724,0:06:04.891 我被奇怪的時間點所困惑。 0:06:04.915,0:06:07.044 下午 4 點。吃午餐? 0:06:07.068,0:06:08.508 我很窮, 0:06:08.508,0:06:10.618 因為是免費的午餐,所以總是會去。 0:06:10.618,0:06:12.685 後來我明白到底是怎麼回事。 0:06:12.709,0:06:17.255 我的直屬主管沒讓她的主管知道, 0:06:17.279,0:06:20.259 他們僱來做重要職務的程式設計師, 0:06:20.259,0:06:21.766 是個穿牛仔褲和運動鞋 0:06:21.766,0:06:24.346 來上班的十幾歲女孩。 0:06:25.174,0:06:27.416 我工作做得很好,[br]只是外表形象看起來不符, 0:06:27.416,0:06:29.099 年齡和性別不對。 0:06:29.123,0:06:32.469 因此,性別和種族[br]不列入考慮的僱用系統 0:06:32.493,0:06:34.358 對我而言當然不錯。 0:06:35.031,0:06:38.372 但使用這些系統會更複雜,原因是: 0:06:38.968,0:06:41.143 目前的計算系統 0:06:41.143,0:06:46.655 可從你零散的數位足跡[br]推斷出關於你的各種事物, 0:06:46.679,0:06:49.012 即使你未曾披露過。 0:06:49.506,0:06:52.433 他們能推斷你的性取向, 0:06:52.994,0:06:54.300 個性的特質, 0:06:54.859,0:06:56.232 政治的傾向。 0:06:56.830,0:07:00.515 他們的預測能力相當精準。 0:07:01.362,0:07:03.940 請記住:知道你未曾公開的事情 0:07:03.964,0:07:05.555 是推理。 0:07:05.579,0:07:08.840 我有個朋友開發這樣的計算系統: 0:07:08.864,0:07:13.955 從社交媒體數據來預測[br]臨床或產後抑鬱症的可能性。 0:07:14.676,0:07:16.103 結果非常優異。 0:07:16.492,0:07:17.543 她的系統 0:07:17.543,0:07:23.776 能在出現任何症狀的幾個月前[br]預測出抑鬱的可能性, 0:07:23.800,0:07:25.173 是好幾個月前。 0:07:25.197,0:07:27.443 雖沒有症狀,已預測出來。 0:07:27.467,0:07:31.521 她希望它被用來早期干預處理。 0:07:31.521,0:07:32.911 很好! 0:07:32.911,0:07:35.321 但是,設想若把這系統[br]用在僱人的情況下。 0:07:36.027,0:07:39.073 在這人資經理會議中, 0:07:39.097,0:07:43.740 我走向一間大公司的高階經理, 0:07:43.740,0:07:44.560 對她說: 0:07:44.560,0:07:48.408 「假設在你不知道的情形下, 0:07:48.432,0:07:54.981 那個系統被用來排除[br]未來極有可能抑鬱的人呢? 0:07:55.761,0:07:59.137 他們現在不抑鬱,[br]只是未來『比較有可能』抑鬱。 0:07:59.923,0:08:03.329 如果它被用來排除[br]在未來一兩年比較有可能懷孕, 0:08:03.353,0:08:06.009 但現在沒懷孕的婦女呢? 0:08:06.844,0:08:12.480 如果它被用來招募激進性格者,[br]以符合你的職場文化呢?」 0:08:13.173,0:08:15.864 透過性別比例無法看到這些問題, 0:08:15.888,0:08:17.390 因比例可能是均衡的。 0:08:17.414,0:08:20.971 而且由於這是機器學習,[br]不是傳統編碼, 0:08:20.995,0:08:25.902 沒有標記為「更高抑鬱症風險」、 0:08:25.926,0:08:27.759 「更高懷孕風險」、 0:08:27.783,0:08:29.517 「侵略性格者」的變數; 0:08:29.995,0:08:33.674 你不僅不知道系統在選什麼, 0:08:33.698,0:08:36.021 甚至不知道要從何找起。 0:08:36.045,0:08:37.291 它就是個黑盒子, 0:08:37.315,0:08:40.122 具有預測能力,但你不了解它。 0:08:40.486,0:08:43.565 我問:「你有什麼能確保 0:08:43.565,0:08:46.812 你的黑盒子沒在暗地裡[br]做了什麼不可告人之事? 0:08:48.863,0:08:52.741 她看著我,彷彿我剛踩了[br]十隻小狗的尾巴。 0:08:52.765,0:08:54.013 (笑聲) 0:08:54.037,0:08:56.078 她盯著我,說: 0:08:56.556,0:09:00.889 「關於這事,我不想[br]再聽妳多說一個字。」 0:09:01.458,0:09:03.492 然後她就轉身走開了。 0:09:04.064,0:09:05.550 提醒你們,她不是粗魯。 0:09:05.574,0:09:07.036 她的意思很明顯: 0:09:07.036,0:09:09.906 我不知道的事不是我的問題。 0:09:09.906,0:09:11.906 走開。惡狠狠盯著。 0:09:11.906,0:09:13.152 (笑聲) 0:09:13.862,0:09:19.761 這樣的系統可能比人類經理[br]在某些方面更沒有偏見, 0:09:19.852,0:09:21.998 可能也省錢; 0:09:22.573,0:09:27.269 但也可能在不知不覺中逐步導致 0:09:27.269,0:09:31.442 抑鬱症風險較高的人[br]在就業市場裡吃到閉門羹。 0:09:31.753,0:09:36.659 我們要在不自覺的情形下[br]建立這種社會嗎? 0:09:36.682,0:09:40.646 僅僅因我們讓給[br]我們不完全理解的機器做決策? 0:09:41.265,0:09:44.263 另一個問題是:這些系統通常由 0:09:44.263,0:09:49.656 我們行動產生的數據,[br]即人類的印記所訓練。 0:09:50.188,0:09:53.996 它們可能只是反映我們的偏見, 0:09:54.020,0:09:57.613 學習了我們的偏見 0:09:57.637,0:09:58.950 並且放大, 0:09:58.974,0:10:00.392 然後回饋給我們; 0:10:00.416,0:10:01.878 而我們卻告訴自己: 0:10:01.902,0:10:05.019 「這樣做是客觀、不偏頗的計算。」 0:10:06.314,0:10:08.991 研究人員在谷歌上發現, 0:10:10.134,0:10:15.447 女性比男性更不易看到[br]高薪工作招聘的廣告。 0:10:16.463,0:10:18.993 蒐索非裔美國人的名字 0:10:19.017,0:10:23.723 比較可能帶出暗示犯罪史的廣告, 0:10:23.747,0:10:25.564 即使那人並無犯罪史。 0:10:26.693,0:10:30.242 這種隱藏偏見和黑箱的演算法, 0:10:30.266,0:10:34.239 有時被研究人員發現了,[br]但有時我們毫無所知, 0:10:34.263,0:10:37.124 很可能產生改變生命的後果。 0:10:37.958,0:10:43.537 在威斯康辛州,某個被告[br]因逃避警察而被判處六年監禁。 0:10:44.824,0:10:46.010 你可能不知道 0:10:46.034,0:10:48.296 演算法越來越頻繁地被用在 0:10:48.296,0:10:50.056 假釋和量刑的決定上。 0:10:50.056,0:10:53.011 想知道分數如何計算出來的嗎? 0:10:53.795,0:10:55.460 這是個商業的黑盒子, 0:10:55.484,0:10:56.766 開發它的公司 0:10:56.766,0:11:00.396 拒絕讓演算法在公開法庭上受盤問。 0:11:00.396,0:11:05.928 但是 ProPublica 這家[br]非營利機構評估該演算法, 0:11:05.952,0:11:07.968 使用找得到的公共數據, 0:11:07.992,0:11:10.308 發現其結果偏頗, 0:11:10.332,0:11:13.961 預測能力相當差,僅比碰運氣稍強, 0:11:13.985,0:11:19.875 並錯誤地標記黑人被告[br]成為未來罪犯的機率, 0:11:19.875,0:11:22.630 是白人被告的兩倍。 0:11:23.891,0:11:25.455 考慮這個情況: 0:11:26.103,0:11:32.345 這女人因來不及去佛州布勞沃德郡的[br]學校接她的乾妹妹, 0:11:32.345,0:11:34.954 而與朋友狂奔趕赴學校。 0:11:34.954,0:11:39.236 他們看到門廊上有一輛未上鎖的[br]兒童腳踏車和一台滑板車, 0:11:39.260,0:11:40.892 愚蠢地跳上去, 0:11:40.916,0:11:42.469 當他們趕時間快速離去時, 0:11:42.469,0:11:45.744 一個女人出來說:[br]「嘿!那是我孩子的腳踏車!」 0:11:45.768,0:11:49.062 雖然他們留下車子走開,[br]但被逮捕了。 0:11:49.086,0:11:52.723 她錯了,她很蠢,但她只有十八歲。 0:11:52.747,0:11:55.291 曾觸犯兩次少年輕罪。 0:11:55.808,0:11:56.867 同時, 0:11:56.867,0:12:02.716 那個男人因在家得寶商店[br]偷竊八十五美元的東西而被捕, 0:12:02.716,0:12:04.766 類似的小罪, 0:12:04.766,0:12:09.545 但他曾兩次因武裝搶劫而被定罪。 0:12:09.915,0:12:12.756 演算法認定她有再犯的高風險, 0:12:12.756,0:12:14.316 而他卻不然。 0:12:14.746,0:12:18.620 兩年後,ProPublica[br]發現她未曾再犯; 0:12:18.644,0:12:21.194 但因有過犯罪紀錄而難以找到工作。 0:12:21.218,0:12:23.294 另一方面,他再犯了, 0:12:23.318,0:12:27.154 現正因再犯之罪而入監服刑八年。 0:12:28.088,0:12:31.457 很顯然,我們必需審核黑盒子, 0:12:31.481,0:12:34.326 並且不賦予它們[br]這類未經檢查的權力。 0:12:34.430,0:12:36.999 (掌聲) 0:12:38.087,0:12:42.329 審核極其重要,[br]但不足以解決所有的問題。 0:12:42.353,0:12:45.101 拿臉書強大的動態消息演算法來說, 0:12:45.125,0:12:48.428 就是通過你的朋友圈[br]和瀏覽過的頁面, 0:12:48.428,0:12:52.678 排序並決定推薦[br]什麼給你看的演算法。 0:12:52.898,0:12:55.173 應該再讓你看一張嬰兒照片嗎? 0:12:55.197,0:12:56.393 (笑聲) 0:12:56.417,0:12:59.013 或者一個熟人的哀傷筆記? 0:12:59.449,0:13:01.305 還是一則重要但艱澀的新聞? 0:13:01.329,0:13:02.811 沒有正確的答案。 0:13:02.835,0:13:05.494 臉書根據在網站上的參與度來優化: 0:13:05.518,0:13:07.183 喜歡,分享,評論。 0:13:08.168,0:13:10.864 2014 年八月, 0:13:10.888,0:13:13.550 在密蘇里州弗格森市[br]爆發了抗議遊行, 0:13:13.574,0:13:19.601 抗議一位白人警察在不明的狀況下[br]殺害一個非裔美國少年, 0:13:19.974,0:13:21.981 抗議的消息充斥在 0:13:22.005,0:13:24.690 我未經演算法篩選過的推特頁面上, 0:13:24.714,0:13:26.784 但我的臉書上卻一則也沒有。 0:13:27.182,0:13:28.996 是我的臉書好友不關注這事嗎? 0:13:28.996,0:13:30.972 我關閉了臉書的演算法, 0:13:31.472,0:13:32.604 但很麻煩惱人, 0:13:32.604,0:13:36.380 因為臉書不斷地[br]想讓你回到演算法的控制下, 0:13:36.404,0:13:38.642 臉書的朋友有在談論弗格森這事, 0:13:38.666,0:13:41.045 只是臉書的演算法沒有顯示給我看。 0:13:41.045,0:13:43.767 研究後,我發現這問題普遍存在。 0:13:44.265,0:13:48.078 弗格森一事和演算法不合, 0:13:48.102,0:13:49.273 它不討喜; 0:13:49.297,0:13:50.849 誰會點擊「讚」呢? 0:13:51.500,0:13:53.706 它甚至不易被評論。 0:13:53.730,0:13:55.101 越是沒有讚、沒評論, 0:13:55.125,0:13:58.417 演算法就顯示給越少人看, 0:13:58.421,0:14:00.143 所以我們看不到這則新聞。 0:14:00.946,0:14:01.978 相反地, 0:14:01.978,0:14:06.666 臉書的演算法在那星期特別突顯[br]為漸凍人募款的冰桶挑戰這事。 0:14:06.770,0:14:09.240 崇高的目標;傾倒冰水,捐贈慈善, 0:14:09.240,0:14:10.536 有意義,很好; 0:14:10.536,0:14:12.620 這事與演算法超級速配, 0:14:13.219,0:14:15.832 機器已為我們決定了。 0:14:15.856,0:14:21.003 非常重要但艱澀的[br]新聞事件可能被埋沒掉, 0:14:21.003,0:14:23.742 倘若臉書是唯一的新聞渠道。 0:14:24.117,0:14:26.668 最後,這些系統 0:14:26.668,0:14:30.674 也可能以不像人類犯錯的方式出錯。 0:14:30.698,0:14:33.620 大家可還記得 IBM 的[br]機器智慧系統華生 0:14:33.644,0:14:36.902 在 Jeopardy 智力問答比賽中[br]橫掃人類的對手? 0:14:37.131,0:14:38.559 它是個厲害的選手。 0:14:38.583,0:14:40.669 在 Final Jeopardy 節目中 0:14:40.669,0:14:42.659 華生被問到: 0:14:42.659,0:14:45.591 「它的最大機場以二戰英雄命名, 0:14:45.615,0:14:47.867 第二大機場以二戰戰場為名。」 0:14:47.891,0:14:49.269 (哼 Jeopardy 的音樂) 0:14:49.582,0:14:50.764 「芝加哥,」 0:14:50.788,0:14:52.158 兩個人類選手的答案正確; 0:14:52.697,0:14:57.045 華生則回答「多倫多」。 0:14:57.069,0:14:59.237 這是個猜「美國」城市的問題啊! 0:14:59.596,0:15:02.497 這個厲害的系統也犯了 0:15:02.521,0:15:04.783 人類永遠不會犯, 0:15:04.783,0:15:06.823 即使二年級學生也不會犯的錯誤。 0:15:06.823,0:15:09.932 我們的機器智慧可能敗在 0:15:09.956,0:15:13.056 與人類犯錯模式迥異之處, 0:15:13.080,0:15:16.030 在我們完全想不到、[br]沒準備的地方出錯。 0:15:16.054,0:15:19.692 得不到一份可勝任的[br]工作確實很糟糕, 0:15:19.716,0:15:24.913 但若起因是機器的子程式漫溢,[br]會是三倍的糟糕。 0:15:24.923,0:15:26.502 (笑聲) 0:15:26.526,0:15:29.312 2010 年五月, 0:15:29.336,0:15:36.210 華爾街「賣出」演算法的[br]回饋迴路觸發了股市的急速崩盤, 0:15:36.456,0:15:40.640 數萬億美元的市值[br]在 36 分鐘內蒸發掉了。 0:15:41.722,0:15:43.093 我甚至不敢想 0:15:43.093,0:15:47.872 若「錯誤」發生在致命的[br]自動武器上會是何種情況。 0:15:49.894,0:15:53.684 是啊,人類總是有偏見。 0:15:53.708,0:15:55.884 決策者和守門人 0:15:55.908,0:15:59.521 在法庭、新聞中、戰爭裡……[br] 0:15:59.521,0:16:02.463 都會犯錯;但這正是我的觀點: 0:16:02.487,0:16:06.008 我們不能逃避這些困難的問題。 0:16:06.596,0:16:10.112 我們不能把責任外包給機器。 0:16:10.676,0:16:14.884 (掌聲) 0:16:17.089,0:16:21.536 人工智慧不會給我們[br]「倫理免責卡」。 0:16:22.742,0:16:26.123 數據科學家費德·本森[br]稱之為「數學粉飾」。 0:16:26.147,0:16:27.536 我們需要相反的東西。 0:16:27.560,0:16:32.948 我們需要培養懷疑、審視[br]和調查演算法的能力。 0:16:33.380,0:16:36.578 我們需確保演算法有人負責, 0:16:36.602,0:16:39.047 能被審查,並且確實公開透明。 0:16:39.380,0:16:40.718 我們必須體認, 0:16:40.718,0:16:45.608 把數學和演算法帶入凌亂、[br]具價值觀的人類事務 0:16:45.632,0:16:48.016 不能帶來客觀性; 0:16:48.040,0:16:51.673 相反地,人類事務的[br]複雜性侵入演算法。 0:16:52.148,0:16:55.635 是啊,我們可以、也應該用演算法 0:16:55.659,0:16:57.673 來幫助我們做出更好的決定。 0:16:57.697,0:17:03.029 但我們也需要在判斷中[br]加入道德義務, 0:17:03.053,0:17:05.871 並在該框架內使用演算法, 0:17:05.895,0:17:10.830 而不是像人與人間相互推卸那樣, 0:17:10.854,0:17:13.308 就把責任轉移給機器。 0:17:13.807,0:17:16.416 機器智慧已經到來, 0:17:16.440,0:17:19.825 這意味著我們必須更堅守 0:17:19.825,0:17:22.032 人類價值觀和人類倫理。 0:17:22.056,0:17:23.210 謝謝。 0:17:23.234,0:17:26.874 (掌聲)