在機器智慧時代,堅守人類道德更形重要
-
0:01 - 0:07大一時我開始了第一份工作:
程式設計師, -
0:07 - 0:08當時我還算是個青少女。
-
0:09 - 0:12開始為軟體公司寫程式後不久,
-
0:13 - 0:16公司裡的一個經理走到我身邊,
-
0:16 - 0:18悄悄地問:
-
0:18 - 0:21「他能判斷我是否說謊嗎?」
-
0:22 - 0:24當時房裡沒別人。
-
0:25 - 0:29「『誰』能不能判斷你說謊與否?
而且,我們為什麼耳語呢?」 -
0:30 - 0:33經理指著房裡的電腦,問:
-
0:33 - 0:36「『他』能判斷我是否說謊嗎?」
-
0:38 - 0:42當時那經理與接待員有曖昧關係。
-
0:42 - 0:43(笑聲)
-
0:43 - 0:45那時我仍是個青少女。
-
0:45 - 0:47所以,我用耳語大聲地回答他:
-
0:47 - 0:51「能,電腦能判斷你撒謊與否。」
-
0:51 - 0:53(笑聲)
-
0:53 - 0:56沒錯,我笑了,但可笑的人是我。
-
0:56 - 0:59如今,有些計算系統
-
0:59 - 1:03靠分析、判讀面部表情,
就能判斷出情緒狀態, -
1:03 - 1:05甚至判斷是否說謊。
-
1:06 - 1:10廣告商,甚至政府也對此很感興趣。
-
1:10 - 1:12我之所以成為程式設計師,
-
1:12 - 1:15是因為自幼便極為喜愛數學和科學。
-
1:16 - 1:19過程中我學到核子武器,
-
1:19 - 1:22因而變得非常關心科學倫理。
-
1:22 - 1:23我很苦惱。
-
1:23 - 1:26但由於家庭狀況,
-
1:26 - 1:29我必須儘早就業。
-
1:29 - 1:31因此我告訴自己,
-
1:31 - 1:34選擇一個在科技領域中
能簡單地找到頭路, -
1:34 - 1:39又無需處理涉及倫理道德
這類麻煩問題的工作吧。 -
1:39 - 1:41所以我選擇了電腦。
-
1:41 - 1:42(笑聲)
-
1:42 - 1:45是啊,哈哈哈!大家都笑我。
-
1:45 - 1:47如今,電腦科學家
-
1:47 - 1:52正建構著可控制數十億人
每天接收訊息的平台。 -
1:53 - 1:57他們設計的汽車
可以決定要輾過哪些人。 -
1:58 - 2:03他們甚至建造能殺人的
戰爭機器和武器。 -
2:03 - 2:06從頭到尾都是倫理的問題。
-
2:07 - 2:09機器智慧已經在此。
-
2:10 - 2:13我們利用計算來做各種決策,
-
2:13 - 2:15同時也是種新形態的決策。
-
2:15 - 2:20我們以計算來尋求解答,
但問題沒有單一的正解, -
2:20 - 2:24而是主觀、開放、具價值觀的答案。
-
2:24 - 2:26問題像是,
-
2:26 - 2:28「公司應該聘誰?」
-
2:28 - 2:31「應該顯示哪個朋友的哪項更新?」
-
2:31 - 2:33「哪個罪犯更可能再犯?」
-
2:34 - 2:37「應該推薦哪項新聞或哪部電影?」
-
2:37 - 2:40我們使用電腦雖有一段時間了,
-
2:40 - 2:42但這是不同的。
-
2:42 - 2:44這是歷史性的轉折,
-
2:44 - 2:49因我們不能主導計算機
如何去做這樣的主觀決定, -
2:49 - 2:54無法像主導計算機去開飛機、造橋樑
-
2:54 - 2:56或登陸月球那樣。
-
2:56 - 3:00飛機會更安全嗎?
橋樑會搖擺或倒塌嗎? -
3:00 - 3:04那兒已有相當明確的基準共識,
-
3:04 - 3:06有自然的法則指引著我們。
-
3:07 - 3:08但我們沒有
-
3:08 - 3:14判斷凌亂人事的錨點或基準。
-
3:14 - 3:18使事情變得更為複雜的是,
因軟體越來越強大, -
3:18 - 3:22但也越來越不透明,越複雜難懂。
-
3:23 - 3:25過去十年
-
3:25 - 3:27複雜的演算法有長足的進步:
-
3:27 - 3:29能辨識人臉,
-
3:30 - 3:32能解讀手寫的字,
-
3:32 - 3:35能檢測信用卡欺詐,
-
3:35 - 3:36阻擋垃圾郵件,
-
3:36 - 3:38能翻譯不同的語言,
-
3:38 - 3:40能判讀醫學影像查出腫瘤,
-
3:40 - 3:43能在西洋棋和圍棋賽中
擊敗人類棋手。 -
3:43 - 3:48這些進步主要來自所謂的
「機器學習」法。 -
3:48 - 3:51機器學習不同於傳統的程式編寫。
-
3:51 - 3:55編寫程式是下詳細、精確、
齊全的計算機指令; -
3:55 - 4:00機器學習更像是
餵大量的數據給系統, -
4:00 - 4:01包括非結構化的數據,
-
4:01 - 4:04像我們數位生活產生的數據;
-
4:04 - 4:06系統翻撈這些數據來學習。
-
4:07 - 4:08至關重要的是,
-
4:08 - 4:13這些系統不在產生
單一答案的邏輯系統下運作; -
4:13 - 4:14它們不會給出一個簡單的答案,
-
4:14 - 4:16而是以更接近機率的形式呈現:
-
4:16 - 4:19「這可能更接近你所要找的。」
-
4:20 - 4:23好處是:這方法強而有力。
-
4:23 - 4:25谷歌的人工智慧系統負責人稱之為:
-
4:25 - 4:27「不合理的數據有效性。」
-
4:28 - 4:29缺點是,
-
4:30 - 4:33我們未能真正明白
系統學到了什麼。 -
4:33 - 4:34事實上,這就是它的力量。
-
4:35 - 4:39這不像下指令給計算機;
-
4:39 - 4:42而更像是訓練
-
4:42 - 4:46我們未能真正了解
或無法控制的機器寵物狗。 -
4:46 - 4:48這是我們的問題。
-
4:48 - 4:53人工智慧系統出錯時會是個問題;
-
4:53 - 4:56即使它弄對了還是個問題,
-
4:56 - 5:00因碰到主觀問題時,
我們不知哪個是哪個。 -
5:00 - 5:02我們不知道系統在想什麼。
-
5:03 - 5:07就拿招募人員的演算法來說,
-
5:08 - 5:12亦即以機器學習來僱用人的系統,
-
5:13 - 5:17這樣的系統用
已有的員工數據來訓練機器, -
5:17 - 5:19指示它尋找和僱用那些
-
5:19 - 5:22類似公司現有的高績效員工的人。
-
5:23 - 5:24聽起來不錯。
-
5:24 - 5:26我曾參加某會議,
-
5:26 - 5:29聚集人資經理和高階主管,
-
5:29 - 5:30高層人士,
-
5:30 - 5:32使用這種系統招聘。
-
5:32 - 5:34他們超級興奮,
-
5:34 - 5:37認為這種系統會使招聘更為客觀,
-
5:37 - 5:38較少偏見,
-
5:38 - 5:41有利於婦女和少數民族
-
5:41 - 5:44避開有偏見的管理人。
-
5:44 - 5:46看哪!靠人類僱用是有偏見的。
-
5:47 - 5:48我知道。
-
5:48 - 5:51我的意思是,
在早期某個編寫程式的工作, -
5:51 - 5:55有時候我的直屬主管會在
-
5:55 - 5:59大清早或下午很晚時來到我身旁,
-
5:59 - 6:02說:「日娜,走,吃午飯!」
-
6:03 - 6:05我被奇怪的時間點所困惑。
-
6:05 - 6:07下午 4 點。吃午餐?
-
6:07 - 6:09我很窮,
-
6:09 - 6:11因為是免費的午餐,所以總是會去。
-
6:11 - 6:13後來我明白到底是怎麼回事。
-
6:13 - 6:17我的直屬主管沒讓她的主管知道,
-
6:17 - 6:20他們僱來做重要職務的程式設計師,
-
6:20 - 6:22是個穿牛仔褲和運動鞋
-
6:22 - 6:24來上班的十幾歲女孩。
-
6:25 - 6:27我工作做得很好,
只是外表形象看起來不符, -
6:27 - 6:29年齡和性別不對。
-
6:29 - 6:32因此,性別和種族
不列入考慮的僱用系統 -
6:32 - 6:34對我而言當然不錯。
-
6:35 - 6:38但使用這些系統會更複雜,原因是:
-
6:39 - 6:41目前的計算系統
-
6:41 - 6:47可從你零散的數位足跡
推斷出關於你的各種事物, -
6:47 - 6:49即使你未曾披露過。
-
6:50 - 6:52他們能推斷你的性取向,
-
6:53 - 6:54個性的特質,
-
6:55 - 6:56政治的傾向。
-
6:57 - 7:01他們的預測能力相當精準。
-
7:01 - 7:04請記住:知道你未曾公開的事情
-
7:04 - 7:06是推理。
-
7:06 - 7:09我有個朋友開發這樣的計算系統:
-
7:09 - 7:14從社交媒體數據來預測
臨床或產後抑鬱症的可能性。 -
7:15 - 7:16結果非常優異。
-
7:16 - 7:18她的系統
-
7:18 - 7:24能在出現任何症狀的幾個月前
預測出抑鬱的可能性, -
7:24 - 7:25是好幾個月前。
-
7:25 - 7:27雖沒有症狀,已預測出來。
-
7:27 - 7:32她希望它被用來早期干預處理。
-
7:32 - 7:33很好!
-
7:33 - 7:35但是,設想若把這系統
用在僱人的情況下。 -
7:36 - 7:39在這人資經理會議中,
-
7:39 - 7:44我走向一間大公司的高階經理,
-
7:44 - 7:45對她說:
-
7:45 - 7:48「假設在你不知道的情形下,
-
7:48 - 7:55那個系統被用來排除
未來極有可能抑鬱的人呢? -
7:56 - 7:59他們現在不抑鬱,
只是未來『比較有可能』抑鬱。 -
8:00 - 8:03如果它被用來排除
在未來一兩年比較有可能懷孕, -
8:03 - 8:06但現在沒懷孕的婦女呢?
-
8:07 - 8:12如果它被用來招募激進性格者,
以符合你的職場文化呢?」 -
8:13 - 8:16透過性別比例無法看到這些問題,
-
8:16 - 8:17因比例可能是均衡的。
-
8:17 - 8:21而且由於這是機器學習,
不是傳統編碼, -
8:21 - 8:26沒有標記為「更高抑鬱症風險」、
-
8:26 - 8:28「更高懷孕風險」、
-
8:28 - 8:30「侵略性格者」的變數;
-
8:30 - 8:34你不僅不知道系統在選什麼,
-
8:34 - 8:36甚至不知道要從何找起。
-
8:36 - 8:37它就是個黑盒子,
-
8:37 - 8:40具有預測能力,但你不了解它。
-
8:40 - 8:44我問:「你有什麼能確保
-
8:44 - 8:47你的黑盒子沒在暗地裡
做了什麼不可告人之事? -
8:49 - 8:53她看著我,彷彿我剛踩了
十隻小狗的尾巴。 -
8:53 - 8:54(笑聲)
-
8:54 - 8:56她盯著我,說:
-
8:57 - 9:01「關於這事,我不想
再聽妳多說一個字。」 -
9:01 - 9:03然後她就轉身走開了。
-
9:04 - 9:06提醒你們,她不是粗魯。
-
9:06 - 9:07她的意思很明顯:
-
9:07 - 9:10我不知道的事不是我的問題。
-
9:10 - 9:12走開。惡狠狠盯著。
-
9:12 - 9:13(笑聲)
-
9:14 - 9:20這樣的系統可能比人類經理
在某些方面更沒有偏見, -
9:20 - 9:22可能也省錢;
-
9:23 - 9:27但也可能在不知不覺中逐步導致
-
9:27 - 9:31抑鬱症風險較高的人
在就業市場裡吃到閉門羹。 -
9:32 - 9:37我們要在不自覺的情形下
建立這種社會嗎? -
9:37 - 9:41僅僅因我們讓給
我們不完全理解的機器做決策? -
9:41 - 9:44另一個問題是:這些系統通常由
-
9:44 - 9:50我們行動產生的數據,
即人類的印記所訓練。 -
9:50 - 9:54它們可能只是反映我們的偏見,
-
9:54 - 9:58學習了我們的偏見
-
9:58 - 9:59並且放大,
-
9:59 - 10:00然後回饋給我們;
-
10:00 - 10:02而我們卻告訴自己:
-
10:02 - 10:05「這樣做是客觀、不偏頗的計算。」
-
10:06 - 10:09研究人員在谷歌上發現,
-
10:10 - 10:15女性比男性更不易看到
高薪工作招聘的廣告。 -
10:16 - 10:19蒐索非裔美國人的名字
-
10:19 - 10:24比較可能帶出暗示犯罪史的廣告,
-
10:24 - 10:26即使那人並無犯罪史。
-
10:27 - 10:30這種隱藏偏見和黑箱的演算法,
-
10:30 - 10:34有時被研究人員發現了,
但有時我們毫無所知, -
10:34 - 10:37很可能產生改變生命的後果。
-
10:38 - 10:44在威斯康辛州,某個被告
因逃避警察而被判處六年監禁。 -
10:45 - 10:46你可能不知道
-
10:46 - 10:48演算法越來越頻繁地被用在
-
10:48 - 10:50假釋和量刑的決定上。
-
10:50 - 10:53想知道分數如何計算出來的嗎?
-
10:54 - 10:55這是個商業的黑盒子,
-
10:55 - 10:57開發它的公司
-
10:57 - 11:00拒絕讓演算法在公開法庭上受盤問。
-
11:00 - 11:06但是 ProPublica 這家
非營利機構評估該演算法, -
11:06 - 11:08使用找得到的公共數據,
-
11:08 - 11:10發現其結果偏頗,
-
11:10 - 11:14預測能力相當差,僅比碰運氣稍強,
-
11:14 - 11:20並錯誤地標記黑人被告
成為未來罪犯的機率, -
11:20 - 11:23是白人被告的兩倍。
-
11:24 - 11:25考慮這個情況:
-
11:26 - 11:32這女人因來不及去佛州布勞沃德郡的
學校接她的乾妹妹, -
11:32 - 11:35而與朋友狂奔趕赴學校。
-
11:35 - 11:39他們看到門廊上有一輛未上鎖的
兒童腳踏車和一台滑板車, -
11:39 - 11:41愚蠢地跳上去,
-
11:41 - 11:42當他們趕時間快速離去時,
-
11:42 - 11:46一個女人出來說:
「嘿!那是我孩子的腳踏車!」 -
11:46 - 11:49雖然他們留下車子走開,
但被逮捕了。 -
11:49 - 11:53她錯了,她很蠢,但她只有十八歲。
-
11:53 - 11:55曾觸犯兩次少年輕罪。
-
11:56 - 11:57同時,
-
11:57 - 12:03那個男人因在家得寶商店
偷竊八十五美元的東西而被捕, -
12:03 - 12:05類似的小罪,
-
12:05 - 12:10但他曾兩次因武裝搶劫而被定罪。
-
12:10 - 12:13演算法認定她有再犯的高風險,
-
12:13 - 12:14而他卻不然。
-
12:15 - 12:19兩年後,ProPublica
發現她未曾再犯; -
12:19 - 12:21但因有過犯罪紀錄而難以找到工作。
-
12:21 - 12:23另一方面,他再犯了,
-
12:23 - 12:27現正因再犯之罪而入監服刑八年。
-
12:28 - 12:31很顯然,我們必需審核黑盒子,
-
12:31 - 12:34並且不賦予它們
這類未經檢查的權力。 -
12:34 - 12:37(掌聲)
-
12:38 - 12:42審核極其重要,
但不足以解決所有的問題。 -
12:42 - 12:45拿臉書強大的動態消息演算法來說,
-
12:45 - 12:48就是通過你的朋友圈
和瀏覽過的頁面, -
12:48 - 12:53排序並決定推薦
什麼給你看的演算法。 -
12:53 - 12:55應該再讓你看一張嬰兒照片嗎?
-
12:55 - 12:56(笑聲)
-
12:56 - 12:59或者一個熟人的哀傷筆記?
-
12:59 - 13:01還是一則重要但艱澀的新聞?
-
13:01 - 13:03沒有正確的答案。
-
13:03 - 13:05臉書根據在網站上的參與度來優化:
-
13:06 - 13:07喜歡,分享,評論。
-
13:08 - 13:112014 年八月,
-
13:11 - 13:14在密蘇里州弗格森市
爆發了抗議遊行, -
13:14 - 13:20抗議一位白人警察在不明的狀況下
殺害一個非裔美國少年, -
13:20 - 13:22抗議的消息充斥在
-
13:22 - 13:25我未經演算法篩選過的推特頁面上,
-
13:25 - 13:27但我的臉書上卻一則也沒有。
-
13:27 - 13:29是我的臉書好友不關注這事嗎?
-
13:29 - 13:31我關閉了臉書的演算法,
-
13:31 - 13:33但很麻煩惱人,
-
13:33 - 13:36因為臉書不斷地
想讓你回到演算法的控制下, -
13:36 - 13:39臉書的朋友有在談論弗格森這事,
-
13:39 - 13:41只是臉書的演算法沒有顯示給我看。
-
13:41 - 13:44研究後,我發現這問題普遍存在。
-
13:44 - 13:48弗格森一事和演算法不合,
-
13:48 - 13:49它不討喜;
-
13:49 - 13:51誰會點擊「讚」呢?
-
13:52 - 13:54它甚至不易被評論。
-
13:54 - 13:55越是沒有讚、沒評論,
-
13:55 - 13:58演算法就顯示給越少人看,
-
13:58 - 14:00所以我們看不到這則新聞。
-
14:01 - 14:02相反地,
-
14:02 - 14:07臉書的演算法在那星期特別突顯
為漸凍人募款的冰桶挑戰這事。 -
14:07 - 14:09崇高的目標;傾倒冰水,捐贈慈善,
-
14:09 - 14:11有意義,很好;
-
14:11 - 14:13這事與演算法超級速配,
-
14:13 - 14:16機器已為我們決定了。
-
14:16 - 14:21非常重要但艱澀的
新聞事件可能被埋沒掉, -
14:21 - 14:24倘若臉書是唯一的新聞渠道。
-
14:24 - 14:27最後,這些系統
-
14:27 - 14:31也可能以不像人類犯錯的方式出錯。
-
14:31 - 14:34大家可還記得 IBM 的
機器智慧系統華生 -
14:34 - 14:37在 Jeopardy 智力問答比賽中
橫掃人類的對手? -
14:37 - 14:39它是個厲害的選手。
-
14:39 - 14:41在 Final Jeopardy 節目中
-
14:41 - 14:43華生被問到:
-
14:43 - 14:46「它的最大機場以二戰英雄命名,
-
14:46 - 14:48第二大機場以二戰戰場為名。」
-
14:48 - 14:49(哼 Jeopardy 的音樂)
-
14:50 - 14:51「芝加哥,」
-
14:51 - 14:52兩個人類選手的答案正確;
-
14:53 - 14:57華生則回答「多倫多」。
-
14:57 - 14:59這是個猜「美國」城市的問題啊!
-
15:00 - 15:02這個厲害的系統也犯了
-
15:03 - 15:05人類永遠不會犯,
-
15:05 - 15:07即使二年級學生也不會犯的錯誤。
-
15:07 - 15:10我們的機器智慧可能敗在
-
15:10 - 15:13與人類犯錯模式迥異之處,
-
15:13 - 15:16在我們完全想不到、
沒準備的地方出錯。 -
15:16 - 15:20得不到一份可勝任的
工作確實很糟糕, -
15:20 - 15:25但若起因是機器的子程式漫溢,
會是三倍的糟糕。 -
15:25 - 15:27(笑聲)
-
15:27 - 15:292010 年五月,
-
15:29 - 15:36華爾街「賣出」演算法的
回饋迴路觸發了股市的急速崩盤, -
15:36 - 15:41數萬億美元的市值
在 36 分鐘內蒸發掉了。 -
15:42 - 15:43我甚至不敢想
-
15:43 - 15:48若「錯誤」發生在致命的
自動武器上會是何種情況。 -
15:50 - 15:54是啊,人類總是有偏見。
-
15:54 - 15:56決策者和守門人
-
15:56 - 16:00在法庭、新聞中、戰爭裡……
-
16:00 - 16:02都會犯錯;但這正是我的觀點:
-
16:02 - 16:06我們不能逃避這些困難的問題。
-
16:07 - 16:10我們不能把責任外包給機器。
-
16:11 - 16:15(掌聲)
-
16:17 - 16:22人工智慧不會給我們
「倫理免責卡」。 -
16:23 - 16:26數據科學家費德·本森
稱之為「數學粉飾」。 -
16:26 - 16:28我們需要相反的東西。
-
16:28 - 16:33我們需要培養懷疑、審視
和調查演算法的能力。 -
16:33 - 16:37我們需確保演算法有人負責,
-
16:37 - 16:39能被審查,並且確實公開透明。
-
16:39 - 16:41我們必須體認,
-
16:41 - 16:46把數學和演算法帶入凌亂、
具價值觀的人類事務 -
16:46 - 16:48不能帶來客觀性;
-
16:48 - 16:52相反地,人類事務的
複雜性侵入演算法。 -
16:52 - 16:56是啊,我們可以、也應該用演算法
-
16:56 - 16:58來幫助我們做出更好的決定。
-
16:58 - 17:03但我們也需要在判斷中
加入道德義務, -
17:03 - 17:06並在該框架內使用演算法,
-
17:06 - 17:11而不是像人與人間相互推卸那樣,
-
17:11 - 17:13就把責任轉移給機器。
-
17:14 - 17:16機器智慧已經到來,
-
17:16 - 17:20這意味著我們必須更堅守
-
17:20 - 17:22人類價值觀和人類倫理。
-
17:22 - 17:23謝謝。
-
17:23 - 17:27(掌聲)
- Title:
- 在機器智慧時代,堅守人類道德更形重要
- Speaker:
- 日娜·土費琪
- Description:
-
機器智慧時代已來臨,且已被用於主觀判斷和做決定。但是人難以理解、控制越來越複雜的人工智慧。科技社會學家日娜·土費琪在演講中警示我們,人工智慧會在人類不會犯錯的地方出錯,可能會以我們意想不到、沒有準備的方式出錯。她說:「我們不能把責任外包給機器。我們必須更堅守人類的價值觀和人類的倫理。」
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Regina Chu edited Chinese, Traditional subtitles for Machine intelligence makes human morals more important | ||
TED Translators admin approved Chinese, Traditional subtitles for Machine intelligence makes human morals more important | ||
SF Huang accepted Chinese, Traditional subtitles for Machine intelligence makes human morals more important | ||
SF Huang edited Chinese, Traditional subtitles for Machine intelligence makes human morals more important | ||
SF Huang edited Chinese, Traditional subtitles for Machine intelligence makes human morals more important | ||
SF Huang edited Chinese, Traditional subtitles for Machine intelligence makes human morals more important | ||
Helen Chang edited Chinese, Traditional subtitles for Machine intelligence makes human morals more important | ||
Helen Chang edited Chinese, Traditional subtitles for Machine intelligence makes human morals more important |