Return to Video

在機器智慧時代,堅守人類道德更形重要

  • 0:01 - 0:07
    大一時我開始了第一份工作:
    程式設計師,
  • 0:07 - 0:08
    當時我還算是個青少女。
  • 0:09 - 0:12
    開始為軟體公司寫程式後不久,
  • 0:13 - 0:16
    公司裡的一個經理走到我身邊,
  • 0:16 - 0:18
    悄悄地問:
  • 0:18 - 0:21
    「他能判斷我是否說謊嗎?」
  • 0:22 - 0:24
    當時房裡沒別人。
  • 0:25 - 0:29
    「『誰』能不能判斷你說謊與否?
    而且,我們為什麼耳語呢?」
  • 0:30 - 0:33
    經理指著房裡的電腦,問:
  • 0:33 - 0:36
    「『他』能判斷我是否說謊嗎?」
  • 0:38 - 0:42
    當時那經理與接待員有曖昧關係。
  • 0:42 - 0:43
    (笑聲)
  • 0:43 - 0:45
    那時我仍是個青少女。
  • 0:45 - 0:47
    所以,我用耳語大聲地回答他:
  • 0:47 - 0:51
    「能,電腦能判斷你撒謊與否。」
  • 0:51 - 0:53
    (笑聲)
  • 0:53 - 0:56
    沒錯,我笑了,但可笑的人是我。
  • 0:56 - 0:59
    如今,有些計算系統
  • 0:59 - 1:03
    靠分析、判讀面部表情,
    就能判斷出情緒狀態,
  • 1:03 - 1:05
    甚至判斷是否說謊。
  • 1:06 - 1:10
    廣告商,甚至政府也對此很感興趣。
  • 1:10 - 1:12
    我之所以成為程式設計師,
  • 1:12 - 1:15
    是因為自幼便極為喜愛數學和科學。
  • 1:16 - 1:19
    過程中我學到核子武器,
  • 1:19 - 1:22
    因而變得非常關心科學倫理。
  • 1:22 - 1:23
    我很苦惱。
  • 1:23 - 1:26
    但由於家庭狀況,
  • 1:26 - 1:29
    我必須儘早就業。
  • 1:29 - 1:31
    因此我告訴自己,
  • 1:31 - 1:34
    選擇一個在科技領域中
    能簡單地找到頭路,
  • 1:34 - 1:39
    又無需處理涉及倫理道德
    這類麻煩問題的工作吧。
  • 1:39 - 1:41
    所以我選擇了電腦。
  • 1:41 - 1:42
    (笑聲)
  • 1:42 - 1:45
    是啊,哈哈哈!大家都笑我。
  • 1:45 - 1:47
    如今,電腦科學家
  • 1:47 - 1:52
    正建構著可控制數十億人
    每天接收訊息的平台。
  • 1:53 - 1:57
    他們設計的汽車
    可以決定要輾過哪些人。
  • 1:58 - 2:03
    他們甚至建造能殺人的
    戰爭機器和武器。
  • 2:03 - 2:06
    從頭到尾都是倫理的問題。
  • 2:07 - 2:09
    機器智慧已經在此。
  • 2:10 - 2:13
    我們利用計算來做各種決策,
  • 2:13 - 2:15
    同時也是種新形態的決策。
  • 2:15 - 2:20
    我們以計算來尋求解答,
    但問題沒有單一的正解,
  • 2:20 - 2:24
    而是主觀、開放、具價值觀的答案。
  • 2:24 - 2:26
    問題像是,
  • 2:26 - 2:28
    「公司應該聘誰?」
  • 2:28 - 2:31
    「應該顯示哪個朋友的哪項更新?」
  • 2:31 - 2:33
    「哪個罪犯更可能再犯?」
  • 2:34 - 2:37
    「應該推薦哪項新聞或哪部電影?」
  • 2:37 - 2:40
    我們使用電腦雖有一段時間了,
  • 2:40 - 2:42
    但這是不同的。
  • 2:42 - 2:44
    這是歷史性的轉折,
  • 2:44 - 2:49
    因我們不能主導計算機
    如何去做這樣的主觀決定,
  • 2:49 - 2:54
    無法像主導計算機去開飛機、造橋樑
  • 2:54 - 2:56
    或登陸月球那樣。
  • 2:56 - 3:00
    飛機會更安全嗎?
    橋樑會搖擺或倒塌嗎?
  • 3:00 - 3:04
    那兒已有相當明確的基準共識,
  • 3:04 - 3:06
    有自然的法則指引著我們。
  • 3:07 - 3:08
    但我們沒有
  • 3:08 - 3:14
    判斷凌亂人事的錨點或基準。
  • 3:14 - 3:18
    使事情變得更為複雜的是,
    因軟體越來越強大,
  • 3:18 - 3:22
    但也越來越不透明,越複雜難懂。
  • 3:23 - 3:25
    過去十年
  • 3:25 - 3:27
    複雜的演算法有長足的進步:
  • 3:27 - 3:29
    能辨識人臉,
  • 3:30 - 3:32
    能解讀手寫的字,
  • 3:32 - 3:35
    能檢測信用卡欺詐,
  • 3:35 - 3:36
    阻擋垃圾郵件,
  • 3:36 - 3:38
    能翻譯不同的語言,
  • 3:38 - 3:40
    能判讀醫學影像查出腫瘤,
  • 3:40 - 3:43
    能在西洋棋和圍棋賽中
    擊敗人類棋手。
  • 3:43 - 3:48
    這些進步主要來自所謂的
    「機器學習」法。
  • 3:48 - 3:51
    機器學習不同於傳統的程式編寫。
  • 3:51 - 3:55
    編寫程式是下詳細、精確、
    齊全的計算機指令;
  • 3:55 - 4:00
    機器學習更像是
    餵大量的數據給系統,
  • 4:00 - 4:01
    包括非結構化的數據,
  • 4:01 - 4:04
    像我們數位生活產生的數據;
  • 4:04 - 4:06
    系統翻撈這些數據來學習。
  • 4:07 - 4:08
    至關重要的是,
  • 4:08 - 4:13
    這些系統不在產生
    單一答案的邏輯系統下運作;
  • 4:13 - 4:14
    它們不會給出一個簡單的答案,
  • 4:14 - 4:16
    而是以更接近機率的形式呈現:
  • 4:16 - 4:19
    「這可能更接近你所要找的。」
  • 4:20 - 4:23
    好處是:這方法強而有力。
  • 4:23 - 4:25
    谷歌的人工智慧系統負責人稱之為:
  • 4:25 - 4:27
    「不合理的數據有效性。」
  • 4:28 - 4:29
    缺點是,
  • 4:30 - 4:33
    我們未能真正明白
    系統學到了什麼。
  • 4:33 - 4:34
    事實上,這就是它的力量。
  • 4:35 - 4:39
    這不像下指令給計算機;
  • 4:39 - 4:42
    而更像是訓練
  • 4:42 - 4:46
    我們未能真正了解
    或無法控制的機器寵物狗。
  • 4:46 - 4:48
    這是我們的問題。
  • 4:48 - 4:53
    人工智慧系統出錯時會是個問題;
  • 4:53 - 4:56
    即使它弄對了還是個問題,
  • 4:56 - 5:00
    因碰到主觀問題時,
    我們不知哪個是哪個。
  • 5:00 - 5:02
    我們不知道系統在想什麼。
  • 5:03 - 5:07
    就拿招募人員的演算法來說,
  • 5:08 - 5:12
    亦即以機器學習來僱用人的系統,
  • 5:13 - 5:17
    這樣的系統用
    已有的員工數據來訓練機器,
  • 5:17 - 5:19
    指示它尋找和僱用那些
  • 5:19 - 5:22
    類似公司現有的高績效員工的人。
  • 5:23 - 5:24
    聽起來不錯。
  • 5:24 - 5:26
    我曾參加某會議,
  • 5:26 - 5:29
    聚集人資經理和高階主管,
  • 5:29 - 5:30
    高層人士,
  • 5:30 - 5:32
    使用這種系統招聘。
  • 5:32 - 5:34
    他們超級興奮,
  • 5:34 - 5:37
    認為這種系統會使招聘更為客觀,
  • 5:37 - 5:38
    較少偏見,
  • 5:38 - 5:41
    有利於婦女和少數民族
  • 5:41 - 5:44
    避開有偏見的管理人。
  • 5:44 - 5:46
    看哪!靠人類僱用是有偏見的。
  • 5:47 - 5:48
    我知道。
  • 5:48 - 5:51
    我的意思是,
    在早期某個編寫程式的工作,
  • 5:51 - 5:55
    有時候我的直屬主管會在
  • 5:55 - 5:59
    大清早或下午很晚時來到我身旁,
  • 5:59 - 6:02
    說:「日娜,走,吃午飯!」
  • 6:03 - 6:05
    我被奇怪的時間點所困惑。
  • 6:05 - 6:07
    下午 4 點。吃午餐?
  • 6:07 - 6:09
    我很窮,
  • 6:09 - 6:11
    因為是免費的午餐,所以總是會去。
  • 6:11 - 6:13
    後來我明白到底是怎麼回事。
  • 6:13 - 6:17
    我的直屬主管沒讓她的主管知道,
  • 6:17 - 6:20
    他們僱來做重要職務的程式設計師,
  • 6:20 - 6:22
    是個穿牛仔褲和運動鞋
  • 6:22 - 6:24
    來上班的十幾歲女孩。
  • 6:25 - 6:27
    我工作做得很好,
    只是外表形象看起來不符,
  • 6:27 - 6:29
    年齡和性別不對。
  • 6:29 - 6:32
    因此,性別和種族
    不列入考慮的僱用系統
  • 6:32 - 6:34
    對我而言當然不錯。
  • 6:35 - 6:38
    但使用這些系統會更複雜,原因是:
  • 6:39 - 6:41
    目前的計算系統
  • 6:41 - 6:47
    可從你零散的數位足跡
    推斷出關於你的各種事物,
  • 6:47 - 6:49
    即使你未曾披露過。
  • 6:50 - 6:52
    他們能推斷你的性取向,
  • 6:53 - 6:54
    個性的特質,
  • 6:55 - 6:56
    政治的傾向。
  • 6:57 - 7:01
    他們的預測能力相當精準。
  • 7:01 - 7:04
    請記住:知道你未曾公開的事情
  • 7:04 - 7:06
    是推理。
  • 7:06 - 7:09
    我有個朋友開發這樣的計算系統:
  • 7:09 - 7:14
    從社交媒體數據來預測
    臨床或產後抑鬱症的可能性。
  • 7:15 - 7:16
    結果非常優異。
  • 7:16 - 7:18
    她的系統
  • 7:18 - 7:24
    能在出現任何症狀的幾個月前
    預測出抑鬱的可能性,
  • 7:24 - 7:25
    是好幾個月前。
  • 7:25 - 7:27
    雖沒有症狀,已預測出來。
  • 7:27 - 7:32
    她希望它被用來早期干預處理。
  • 7:32 - 7:33
    很好!
  • 7:33 - 7:35
    但是,設想若把這系統
    用在僱人的情況下。
  • 7:36 - 7:39
    在這人資經理會議中,
  • 7:39 - 7:44
    我走向一間大公司的高階經理,
  • 7:44 - 7:45
    對她說:
  • 7:45 - 7:48
    「假設在你不知道的情形下,
  • 7:48 - 7:55
    那個系統被用來排除
    未來極有可能抑鬱的人呢?
  • 7:56 - 7:59
    他們現在不抑鬱,
    只是未來『比較有可能』抑鬱。
  • 8:00 - 8:03
    如果它被用來排除
    在未來一兩年比較有可能懷孕,
  • 8:03 - 8:06
    但現在沒懷孕的婦女呢?
  • 8:07 - 8:12
    如果它被用來招募激進性格者,
    以符合你的職場文化呢?」
  • 8:13 - 8:16
    透過性別比例無法看到這些問題,
  • 8:16 - 8:17
    因比例可能是均衡的。
  • 8:17 - 8:21
    而且由於這是機器學習,
    不是傳統編碼,
  • 8:21 - 8:26
    沒有標記為「更高抑鬱症風險」、
  • 8:26 - 8:28
    「更高懷孕風險」、
  • 8:28 - 8:30
    「侵略性格者」的變數;
  • 8:30 - 8:34
    你不僅不知道系統在選什麼,
  • 8:34 - 8:36
    甚至不知道要從何找起。
  • 8:36 - 8:37
    它就是個黑盒子,
  • 8:37 - 8:40
    具有預測能力,但你不了解它。
  • 8:40 - 8:44
    我問:「你有什麼能確保
  • 8:44 - 8:47
    你的黑盒子沒在暗地裡
    做了什麼不可告人之事?
  • 8:49 - 8:53
    她看著我,彷彿我剛踩了
    十隻小狗的尾巴。
  • 8:53 - 8:54
    (笑聲)
  • 8:54 - 8:56
    她盯著我,說:
  • 8:57 - 9:01
    「關於這事,我不想
    再聽妳多說一個字。」
  • 9:01 - 9:03
    然後她就轉身走開了。
  • 9:04 - 9:06
    提醒你們,她不是粗魯。
  • 9:06 - 9:07
    她的意思很明顯:
  • 9:07 - 9:10
    我不知道的事不是我的問題。
  • 9:10 - 9:12
    走開。惡狠狠盯著。
  • 9:12 - 9:13
    (笑聲)
  • 9:14 - 9:20
    這樣的系統可能比人類經理
    在某些方面更沒有偏見,
  • 9:20 - 9:22
    可能也省錢;
  • 9:23 - 9:27
    但也可能在不知不覺中逐步導致
  • 9:27 - 9:31
    抑鬱症風險較高的人
    在就業市場裡吃到閉門羹。
  • 9:32 - 9:37
    我們要在不自覺的情形下
    建立這種社會嗎?
  • 9:37 - 9:41
    僅僅因我們讓給
    我們不完全理解的機器做決策?
  • 9:41 - 9:44
    另一個問題是:這些系統通常由
  • 9:44 - 9:50
    我們行動產生的數據,
    即人類的印記所訓練。
  • 9:50 - 9:54
    它們可能只是反映我們的偏見,
  • 9:54 - 9:58
    學習了我們的偏見
  • 9:58 - 9:59
    並且放大,
  • 9:59 - 10:00
    然後回饋給我們;
  • 10:00 - 10:02
    而我們卻告訴自己:
  • 10:02 - 10:05
    「這樣做是客觀、不偏頗的計算。」
  • 10:06 - 10:09
    研究人員在谷歌上發現,
  • 10:10 - 10:15
    女性比男性更不易看到
    高薪工作招聘的廣告。
  • 10:16 - 10:19
    蒐索非裔美國人的名字
  • 10:19 - 10:24
    比較可能帶出暗示犯罪史的廣告,
  • 10:24 - 10:26
    即使那人並無犯罪史。
  • 10:27 - 10:30
    這種隱藏偏見和黑箱的演算法,
  • 10:30 - 10:34
    有時被研究人員發現了,
    但有時我們毫無所知,
  • 10:34 - 10:37
    很可能產生改變生命的後果。
  • 10:38 - 10:44
    在威斯康辛州,某個被告
    因逃避警察而被判處六年監禁。
  • 10:45 - 10:46
    你可能不知道
  • 10:46 - 10:48
    演算法越來越頻繁地被用在
  • 10:48 - 10:50
    假釋和量刑的決定上。
  • 10:50 - 10:53
    想知道分數如何計算出來的嗎?
  • 10:54 - 10:55
    這是個商業的黑盒子,
  • 10:55 - 10:57
    開發它的公司
  • 10:57 - 11:00
    拒絕讓演算法在公開法庭上受盤問。
  • 11:00 - 11:06
    但是 ProPublica 這家
    非營利機構評估該演算法,
  • 11:06 - 11:08
    使用找得到的公共數據,
  • 11:08 - 11:10
    發現其結果偏頗,
  • 11:10 - 11:14
    預測能力相當差,僅比碰運氣稍強,
  • 11:14 - 11:20
    並錯誤地標記黑人被告
    成為未來罪犯的機率,
  • 11:20 - 11:23
    是白人被告的兩倍。
  • 11:24 - 11:25
    考慮這個情況:
  • 11:26 - 11:32
    這女人因來不及去佛州布勞沃德郡的
    學校接她的乾妹妹,
  • 11:32 - 11:35
    而與朋友狂奔趕赴學校。
  • 11:35 - 11:39
    他們看到門廊上有一輛未上鎖的
    兒童腳踏車和一台滑板車,
  • 11:39 - 11:41
    愚蠢地跳上去,
  • 11:41 - 11:42
    當他們趕時間快速離去時,
  • 11:42 - 11:46
    一個女人出來說:
    「嘿!那是我孩子的腳踏車!」
  • 11:46 - 11:49
    雖然他們留下車子走開,
    但被逮捕了。
  • 11:49 - 11:53
    她錯了,她很蠢,但她只有十八歲。
  • 11:53 - 11:55
    曾觸犯兩次少年輕罪。
  • 11:56 - 11:57
    同時,
  • 11:57 - 12:03
    那個男人因在家得寶商店
    偷竊八十五美元的東西而被捕,
  • 12:03 - 12:05
    類似的小罪,
  • 12:05 - 12:10
    但他曾兩次因武裝搶劫而被定罪。
  • 12:10 - 12:13
    演算法認定她有再犯的高風險,
  • 12:13 - 12:14
    而他卻不然。
  • 12:15 - 12:19
    兩年後,ProPublica
    發現她未曾再犯;
  • 12:19 - 12:21
    但因有過犯罪紀錄而難以找到工作。
  • 12:21 - 12:23
    另一方面,他再犯了,
  • 12:23 - 12:27
    現正因再犯之罪而入監服刑八年。
  • 12:28 - 12:31
    很顯然,我們必需審核黑盒子,
  • 12:31 - 12:34
    並且不賦予它們
    這類未經檢查的權力。
  • 12:34 - 12:37
    (掌聲)
  • 12:38 - 12:42
    審核極其重要,
    但不足以解決所有的問題。
  • 12:42 - 12:45
    拿臉書強大的動態消息演算法來說,
  • 12:45 - 12:48
    就是通過你的朋友圈
    和瀏覽過的頁面,
  • 12:48 - 12:53
    排序並決定推薦
    什麼給你看的演算法。
  • 12:53 - 12:55
    應該再讓你看一張嬰兒照片嗎?
  • 12:55 - 12:56
    (笑聲)
  • 12:56 - 12:59
    或者一個熟人的哀傷筆記?
  • 12:59 - 13:01
    還是一則重要但艱澀的新聞?
  • 13:01 - 13:03
    沒有正確的答案。
  • 13:03 - 13:05
    臉書根據在網站上的參與度來優化:
  • 13:06 - 13:07
    喜歡,分享,評論。
  • 13:08 - 13:11
    2014 年八月,
  • 13:11 - 13:14
    在密蘇里州弗格森市
    爆發了抗議遊行,
  • 13:14 - 13:20
    抗議一位白人警察在不明的狀況下
    殺害一個非裔美國少年,
  • 13:20 - 13:22
    抗議的消息充斥在
  • 13:22 - 13:25
    我未經演算法篩選過的推特頁面上,
  • 13:25 - 13:27
    但我的臉書上卻一則也沒有。
  • 13:27 - 13:29
    是我的臉書好友不關注這事嗎?
  • 13:29 - 13:31
    我關閉了臉書的演算法,
  • 13:31 - 13:33
    但很麻煩惱人,
  • 13:33 - 13:36
    因為臉書不斷地
    想讓你回到演算法的控制下,
  • 13:36 - 13:39
    臉書的朋友有在談論弗格森這事,
  • 13:39 - 13:41
    只是臉書的演算法沒有顯示給我看。
  • 13:41 - 13:44
    研究後,我發現這問題普遍存在。
  • 13:44 - 13:48
    弗格森一事和演算法不合,
  • 13:48 - 13:49
    它不討喜;
  • 13:49 - 13:51
    誰會點擊「讚」呢?
  • 13:52 - 13:54
    它甚至不易被評論。
  • 13:54 - 13:55
    越是沒有讚、沒評論,
  • 13:55 - 13:58
    演算法就顯示給越少人看,
  • 13:58 - 14:00
    所以我們看不到這則新聞。
  • 14:01 - 14:02
    相反地,
  • 14:02 - 14:07
    臉書的演算法在那星期特別突顯
    為漸凍人募款的冰桶挑戰這事。
  • 14:07 - 14:09
    崇高的目標;傾倒冰水,捐贈慈善,
  • 14:09 - 14:11
    有意義,很好;
  • 14:11 - 14:13
    這事與演算法超級速配,
  • 14:13 - 14:16
    機器已為我們決定了。
  • 14:16 - 14:21
    非常重要但艱澀的
    新聞事件可能被埋沒掉,
  • 14:21 - 14:24
    倘若臉書是唯一的新聞渠道。
  • 14:24 - 14:27
    最後,這些系統
  • 14:27 - 14:31
    也可能以不像人類犯錯的方式出錯。
  • 14:31 - 14:34
    大家可還記得 IBM 的
    機器智慧系統華生
  • 14:34 - 14:37
    在 Jeopardy 智力問答比賽中
    橫掃人類的對手?
  • 14:37 - 14:39
    它是個厲害的選手。
  • 14:39 - 14:41
    在 Final Jeopardy 節目中
  • 14:41 - 14:43
    華生被問到:
  • 14:43 - 14:46
    「它的最大機場以二戰英雄命名,
  • 14:46 - 14:48
    第二大機場以二戰戰場為名。」
  • 14:48 - 14:49
    (哼 Jeopardy 的音樂)
  • 14:50 - 14:51
    「芝加哥,」
  • 14:51 - 14:52
    兩個人類選手的答案正確;
  • 14:53 - 14:57
    華生則回答「多倫多」。
  • 14:57 - 14:59
    這是個猜「美國」城市的問題啊!
  • 15:00 - 15:02
    這個厲害的系統也犯了
  • 15:03 - 15:05
    人類永遠不會犯,
  • 15:05 - 15:07
    即使二年級學生也不會犯的錯誤。
  • 15:07 - 15:10
    我們的機器智慧可能敗在
  • 15:10 - 15:13
    與人類犯錯模式迥異之處,
  • 15:13 - 15:16
    在我們完全想不到、
    沒準備的地方出錯。
  • 15:16 - 15:20
    得不到一份可勝任的
    工作確實很糟糕,
  • 15:20 - 15:25
    但若起因是機器的子程式漫溢,
    會是三倍的糟糕。
  • 15:25 - 15:27
    (笑聲)
  • 15:27 - 15:29
    2010 年五月,
  • 15:29 - 15:36
    華爾街「賣出」演算法的
    回饋迴路觸發了股市的急速崩盤,
  • 15:36 - 15:41
    數萬億美元的市值
    在 36 分鐘內蒸發掉了。
  • 15:42 - 15:43
    我甚至不敢想
  • 15:43 - 15:48
    若「錯誤」發生在致命的
    自動武器上會是何種情況。
  • 15:50 - 15:54
    是啊,人類總是有偏見。
  • 15:54 - 15:56
    決策者和守門人
  • 15:56 - 16:00
    在法庭、新聞中、戰爭裡……
  • 16:00 - 16:02
    都會犯錯;但這正是我的觀點:
  • 16:02 - 16:06
    我們不能逃避這些困難的問題。
  • 16:07 - 16:10
    我們不能把責任外包給機器。
  • 16:11 - 16:15
    (掌聲)
  • 16:17 - 16:22
    人工智慧不會給我們
    「倫理免責卡」。
  • 16:23 - 16:26
    數據科學家費德·本森
    稱之為「數學粉飾」。
  • 16:26 - 16:28
    我們需要相反的東西。
  • 16:28 - 16:33
    我們需要培養懷疑、審視
    和調查演算法的能力。
  • 16:33 - 16:37
    我們需確保演算法有人負責,
  • 16:37 - 16:39
    能被審查,並且確實公開透明。
  • 16:39 - 16:41
    我們必須體認,
  • 16:41 - 16:46
    把數學和演算法帶入凌亂、
    具價值觀的人類事務
  • 16:46 - 16:48
    不能帶來客觀性;
  • 16:48 - 16:52
    相反地,人類事務的
    複雜性侵入演算法。
  • 16:52 - 16:56
    是啊,我們可以、也應該用演算法
  • 16:56 - 16:58
    來幫助我們做出更好的決定。
  • 16:58 - 17:03
    但我們也需要在判斷中
    加入道德義務,
  • 17:03 - 17:06
    並在該框架內使用演算法,
  • 17:06 - 17:11
    而不是像人與人間相互推卸那樣,
  • 17:11 - 17:13
    就把責任轉移給機器。
  • 17:14 - 17:16
    機器智慧已經到來,
  • 17:16 - 17:20
    這意味著我們必須更堅守
  • 17:20 - 17:22
    人類價值觀和人類倫理。
  • 17:22 - 17:23
    謝謝。
  • 17:23 - 17:27
    (掌聲)
Title:
在機器智慧時代,堅守人類道德更形重要
Speaker:
日娜·土費琪
Description:

機器智慧時代已來臨,且已被用於主觀判斷和做決定。但是人難以理解、控制越來越複雜的人工智慧。科技社會學家日娜·土費琪在演講中警示我們,人工智慧會在人類不會犯錯的地方出錯,可能會以我們意想不到、沒有準備的方式出錯。她說:「我們不能把責任外包給機器。我們必須更堅守人類的價值觀和人類的倫理。」

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Chinese, Traditional subtitles

Revisions Compare revisions