1 00:00:01,041 --> 00:00:04,169 你好 我叫玖伊 是個寫媒體程式的詩人 2 00:00:04,199 --> 00:00:05,492 我的使命是 3 00:00:05,492 --> 00:00:09,172 終止一個隱形力量的崛起 4 00:00:09,222 --> 00:00:12,211 我稱這種力量為「數碼凝視」 5 00:00:12,251 --> 00:00:15,296 是我替偏差演算法取的名稱 6 00:00:15,396 --> 00:00:17,633 偏差的演算法跟人的偏見一樣 7 00:00:17,653 --> 00:00:19,703 會導致不公平的結果 8 00:00:19,753 --> 00:00:22,349 然而演算法更像病毒 9 00:00:22,379 --> 00:00:24,089 它傳播的偏見 10 00:00:24,109 --> 00:00:27,211 大量而迅速 11 00:00:27,881 --> 00:00:32,034 演算法偏差讓人 體驗到什麼叫做被排擠 12 00:00:32,054 --> 00:00:34,256 也會導致差別對待 13 00:00:34,556 --> 00:00:36,736 讓我告訴你我的意思 14 00:00:36,776 --> 00:00:40,246 嗨 相機 我有一張臉 15 00:00:40,276 --> 00:00:42,246 你能看見我的臉嗎? 16 00:00:42,266 --> 00:00:43,841 不戴眼鏡呢? 17 00:00:43,861 --> 00:00:46,181 你看得見她啊 18 00:00:46,221 --> 00:00:48,865 那麼我的臉呢? 19 00:00:52,090 --> 00:00:55,100 戴上面具 你看得見戴上面具嗎? 20 00:00:56,681 --> 00:00:58,873 到底是怎麽回事? 21 00:00:59,120 --> 00:01:02,249 我為什麽要坐在電腦前 22 00:01:02,249 --> 00:01:03,589 戴著白色面具 23 00:01:03,589 --> 00:01:07,232 好讓這台廉價的攝影機能看得見我 24 00:01:07,232 --> 00:01:09,497 如果我沒有忙著對抗數碼凝視 25 00:01:09,497 --> 00:01:10,977 當個媒體程式詩人 26 00:01:10,977 --> 00:01:14,366 我就是麻省理工媒體實驗室的研究生 27 00:01:14,366 --> 00:01:19,225 我在那裡從事一些稀奇古怪的計劃 28 00:01:19,225 --> 00:01:21,316 包括照妖鏡 29 00:01:21,385 --> 00:01:22,987 照妖鏡計劃 30 00:01:22,987 --> 00:01:26,637 讓我能把數位面具投射在自己臉上 31 00:01:26,637 --> 00:01:28,805 早上起來如果我需要強大的力量 32 00:01:28,829 --> 00:01:30,263 我就投上一個獅子面具 33 00:01:30,287 --> 00:01:31,785 如果我缺乏鬥志 34 00:01:31,785 --> 00:01:34,173 我就放一段名人名言 35 00:01:34,173 --> 00:01:36,392 因為我使用一般的臉部辨識軟體 36 00:01:36,477 --> 00:01:38,180 來測試這個系統 37 00:01:38,180 --> 00:01:39,380 結果竟然發現 38 00:01:39,380 --> 00:01:41,197 電腦無法偵測到我 39 00:01:41,197 --> 00:01:43,737 除非我戴上白色面具 40 00:01:43,997 --> 00:01:48,676 很不幸我之前就碰過這種問題 41 00:01:48,676 --> 00:01:51,356 先前我在喬治亞理工學院 42 00:01:51,356 --> 00:01:53,006 攻讀電腦科學學士學位時 43 00:01:53,006 --> 00:01:55,034 我研究社交機器人 44 00:01:55,058 --> 00:01:56,639 其中的一個實驗 45 00:01:56,639 --> 00:01:58,859 就是和機器人玩躲貓貓 46 00:01:58,859 --> 00:02:00,542 這個簡單的互動遊戲 47 00:02:00,566 --> 00:02:03,621 讓對手先遮住臉再放開 48 00:02:03,621 --> 00:02:04,911 同時要說 peek-a-boo 49 00:02:04,911 --> 00:02:07,154 問題是如果看不到對方 50 00:02:07,154 --> 00:02:09,494 遊戲就玩不下去了 51 00:02:09,494 --> 00:02:11,863 我的機器人就是看不到我 52 00:02:11,887 --> 00:02:15,837 最後我只好借我室友的臉來完成 53 00:02:15,861 --> 00:02:17,451 做完實驗時我想 54 00:02:17,451 --> 00:02:21,018 總有一天會有別人解決這個問題 55 00:02:21,669 --> 00:02:23,672 不久之後 56 00:02:23,696 --> 00:02:25,089 我去香港參加一個 57 00:02:25,089 --> 00:02:28,339 業界舉辦的競技比賽 58 00:02:28,339 --> 00:02:31,033 主辦單位先帶每位參賽者 59 00:02:31,057 --> 00:02:33,429 去參觀當地的新創市場 60 00:02:33,453 --> 00:02:36,168 其中一項就是社交機器人 61 00:02:36,192 --> 00:02:38,104 當他們用社交機器人展示成果時 62 00:02:38,128 --> 00:02:40,478 社交機器人對每個參賽者都有反應 63 00:02:40,478 --> 00:02:41,669 直到遇到了我 64 00:02:41,669 --> 00:02:43,506 接下來的情形你應該能想像 65 00:02:43,506 --> 00:02:46,044 社交機器人怎樣都偵測不到我的臉 66 00:02:46,068 --> 00:02:48,803 我問軟體開發人員是怎麼一回事 67 00:02:48,803 --> 00:02:51,723 才驚覺當年通用的 68 00:02:51,723 --> 00:02:54,136 人臉辨識軟體 69 00:02:54,160 --> 00:02:56,210 竟然飄洋過海到了香港 70 00:02:56,210 --> 00:02:59,686 偏差的演算邏輯快速散播 71 00:02:59,710 --> 00:03:03,560 只要從網路下載幾個檔案就搞定了 72 00:03:03,745 --> 00:03:06,821 為什麼機器人就是看不見我的臉? 73 00:03:06,845 --> 00:03:10,201 得先知道我們如何賦予機器視力 74 00:03:10,225 --> 00:03:13,512 電腦使用機器學習的技術 75 00:03:13,512 --> 00:03:15,562 來辨識人臉 76 00:03:15,562 --> 00:03:18,643 你必須用許多實作測試來訓練他們 77 00:03:18,643 --> 00:03:20,665 這是人臉這是人臉這是人臉 78 00:03:20,665 --> 00:03:22,225 這不是人臉 79 00:03:22,225 --> 00:03:25,148 一而再再而三你就能教機器人 80 00:03:25,148 --> 00:03:26,868 辨識其他的人臉 81 00:03:26,868 --> 00:03:30,561 但是如果實作測試不夠多樣化 82 00:03:30,561 --> 00:03:32,001 當出現的人臉 83 00:03:32,071 --> 00:03:34,230 與既定規範相去太遠時 84 00:03:34,254 --> 00:03:35,903 電腦就很難判斷了 85 00:03:35,927 --> 00:03:37,890 我的親身經驗就是這樣 86 00:03:37,914 --> 00:03:40,296 但別慌張 有好消息 87 00:03:40,320 --> 00:03:43,091 實作測試並不是無中生有 88 00:03:43,115 --> 00:03:44,903 事實上我們能夠建的 89 00:03:44,927 --> 00:03:49,103 我們可以有一套更周詳的測試樣本 90 00:03:49,127 --> 00:03:52,811 涵蓋人種的多樣性 91 00:03:52,975 --> 00:03:55,196 我的實驗說明了 92 00:03:55,220 --> 00:03:56,596 社交機器人 93 00:03:56,596 --> 00:03:58,892 產生排他現象 94 00:03:58,892 --> 00:04:01,623 因為偏差的演算邏輯 95 00:04:01,647 --> 00:04:03,407 偏差的演算邏輯 96 00:04:03,407 --> 00:04:07,027 也可能讓偏見成為一種習慣 97 00:04:07,437 --> 00:04:08,890 美國各地的警方 98 00:04:08,914 --> 00:04:13,112 正開始使用這套人臉辨識軟體 99 00:04:13,136 --> 00:04:15,595 來建立警方的打擊犯罪系統 100 00:04:15,619 --> 00:04:17,374 喬治城大學法律中心的報告指出 101 00:04:17,374 --> 00:04:20,954 每兩個美國成年人就有一個人 102 00:04:20,954 --> 00:04:24,287 也就是一億一千七百萬筆臉部資料 103 00:04:24,480 --> 00:04:27,977 在美國警方這套系統裡 104 00:04:28,001 --> 00:04:32,553 警方這套系統既缺乏規範 105 00:04:32,577 --> 00:04:36,863 也缺乏正確合法的演算邏輯 106 00:04:36,887 --> 00:04:40,751 你要知道人臉辨識並非萬無一失 107 00:04:40,775 --> 00:04:44,954 要一貫正確地標註人臉 往往不是那麼容易 108 00:04:44,978 --> 00:04:46,511 或許你在臉書上看過 109 00:04:46,514 --> 00:04:48,754 朋友和我常覺得很好笑 110 00:04:48,754 --> 00:04:52,066 看見有人標註朋友卻標錯了 111 00:04:52,258 --> 00:04:55,633 如果標錯的是犯人的臉呢 112 00:04:55,633 --> 00:04:57,873 那就讓人笑不出來了 113 00:04:57,873 --> 00:05:00,433 侵害公民自由也同樣讓人笑不出來 114 00:05:00,724 --> 00:05:03,929 不僅辨識人臉倚賴機器學習的技術 115 00:05:03,953 --> 00:05:08,458 許多領域其實都要用到機器學習 116 00:05:09,266 --> 00:05:13,282 《大數據的傲慢與偏見》 這本書的作者 117 00:05:13,306 --> 00:05:16,051 數據科學家凱西 歐尼爾 118 00:05:16,051 --> 00:05:20,211 談到新 WMD 勢力的崛起 119 00:05:20,248 --> 00:05:24,388 WMD 是廣泛 神秘和具破壞性的算法 120 00:05:24,388 --> 00:05:27,352 演算法漸漸取代我們做決定 121 00:05:27,376 --> 00:05:30,463 影響我們生活的更多層面 122 00:05:30,577 --> 00:05:32,447 例如誰升了官?誰丟了飯碗? 123 00:05:32,471 --> 00:05:34,583 你借到錢了嗎?你買保險了嗎? 124 00:05:34,607 --> 00:05:38,110 你進入心目中理想的大學了嗎? 125 00:05:38,134 --> 00:05:41,643 我們花同樣多的錢在同樣的平台上 126 00:05:41,667 --> 00:05:44,109 買到同樣的產品嗎? 127 00:05:44,133 --> 00:05:47,892 警方也開始使用機器學習 128 00:05:47,916 --> 00:05:50,205 來防範犯罪 129 00:05:50,229 --> 00:05:53,723 法官根據電腦顯示的危險因子數據 130 00:05:53,747 --> 00:05:58,149 來決定一個人要在監獄待幾年 131 00:05:58,173 --> 00:06:00,627 我們得仔細想想這些判定 132 00:06:00,651 --> 00:06:01,833 它們真的公平嗎? 133 00:06:01,857 --> 00:06:04,747 我們親眼看見偏差的演算邏輯 134 00:06:04,771 --> 00:06:08,145 未必做出正確的判斷 135 00:06:08,169 --> 00:06:10,133 我們該怎麽辦呢? 136 00:06:10,157 --> 00:06:13,837 我們要先確定程式碼是否具多樣性 137 00:06:13,861 --> 00:06:16,851 以及寫程式的過程是否周詳 138 00:06:16,875 --> 00:06:19,604 事實上全都始於人 139 00:06:19,708 --> 00:06:21,669 程式是誰寫的有關係 140 00:06:21,693 --> 00:06:25,812 寫程式的團隊是否由 多元的個體組成呢? 141 00:06:25,836 --> 00:06:28,247 這樣才能互補並找出彼此的盲點 142 00:06:28,271 --> 00:06:31,816 從技術面而言 我們如何寫程式很重要 143 00:06:31,840 --> 00:06:33,560 我們是否對公平這項要素 144 00:06:33,560 --> 00:06:35,515 在系統開發階段就考量到呢? 145 00:06:35,515 --> 00:06:38,528 最後 我們為什麼寫程式也重要 146 00:06:38,785 --> 00:06:43,868 我們使用計算創造工具 開啟了巨額財富之門 147 00:06:43,892 --> 00:06:48,323 我們現在有機會實現更大的平等 148 00:06:48,363 --> 00:06:51,123 如果我們將社會變革作為優先事項 149 00:06:51,147 --> 00:06:53,867 而不是事後的想法 150 00:06:54,008 --> 00:06:58,530 這裡有改革程式的三元素 151 00:06:58,554 --> 00:07:00,206 程式是誰寫的重要 152 00:07:00,230 --> 00:07:01,773 如何寫程式重要 153 00:07:01,797 --> 00:07:03,820 以及為何寫程式重要 154 00:07:03,844 --> 00:07:05,857 要成功改革程式 155 00:07:05,857 --> 00:07:10,131 我們可以先從建立能夠 找出偏差的分析平台開始 156 00:07:10,155 --> 00:07:13,233 作法是收集人們的親身經歷 像是我剛才分享的經歷 157 00:07:13,257 --> 00:07:16,327 也檢視現存的軟體 158 00:07:16,351 --> 00:07:20,116 我們可以著手建立 更具包容性的測試樣本 159 00:07:20,140 --> 00:07:22,943 想像「包容的自拍」活動 160 00:07:22,967 --> 00:07:26,622 我們可以幫助開發人員測試和創建 161 00:07:26,646 --> 00:07:28,969 更具包容性的測試樣本 162 00:07:29,302 --> 00:07:32,130 我們也要更自省 163 00:07:32,154 --> 00:07:37,285 我們發展的科技帶給社會的衝擊 164 00:07:37,569 --> 00:07:39,962 為了著手程式改革 165 00:07:39,986 --> 00:07:42,833 我發起了「演算邏輯正義聯盟」 166 00:07:42,857 --> 00:07:45,753 只要你贊同公平 167 00:07:45,753 --> 00:07:48,753 就可以加入打擊數碼凝視的行列 168 00:07:48,753 --> 00:07:50,163 只要上 codedgaze.com 網路 169 00:07:50,163 --> 00:07:52,123 可以舉報你發現的偏差演算邏輯 170 00:07:52,123 --> 00:07:53,333 可以申請測試 171 00:07:53,333 --> 00:07:54,838 可以成為受測者 172 00:07:54,838 --> 00:07:57,313 也可以加入論壇 173 00:07:57,385 --> 00:08:00,385 只要搜尋 #codedgaze 174 00:08:00,742 --> 00:08:03,229 我在此邀請大家加入我的行列 175 00:08:03,253 --> 00:08:06,972 創造一個技術適用於 我們所有人的世界 176 00:08:06,996 --> 00:08:08,893 而不是只適用於某些人 177 00:08:08,917 --> 00:08:13,469 一個重視包容性 和以社會變革為中心的世界 178 00:08:13,529 --> 00:08:14,704 謝謝 179 00:08:14,738 --> 00:08:19,009 (掌聲) 180 00:08:20,873 --> 00:08:23,727 我還有一個問題 181 00:08:23,751 --> 00:08:25,810 你要和我並肩作戰嗎? 182 00:08:25,834 --> 00:08:27,119 (笑聲) 183 00:08:27,143 --> 00:08:30,830 (掌聲)