1 00:00:00,975 --> 00:00:02,571 อัลกอริทึมอยู่ทุกหนแห่ง 2 00:00:04,111 --> 00:00:07,236 มันคัดแยกและ กันผู้ชนะออกจากผู้แพ้ 3 00:00:08,019 --> 00:00:10,283 ผู้ชนะได้งาน 4 00:00:10,307 --> 00:00:12,050 หรือได้ข้อเสนอบัตรเครดิตดีๆ 5 00:00:12,074 --> 00:00:14,725 ผู้แพ้ไม่ได้แม้กระทั่งโอกาสเรียกสัมภาษณ์ 6 00:00:15,590 --> 00:00:17,367 หรือต้องจ่ายเบี้ยประกันแพงกว่า 7 00:00:18,197 --> 00:00:21,746 เรากำลังถูกให้คะแนน จากสูตรลับที่เราไม่เข้าใจ 8 00:00:22,675 --> 00:00:25,892 และโดยมากมักไม่มีระบบที่เราจะอุทธรณ์ได้ 9 00:00:27,240 --> 00:00:28,536 นั่นทำให้เกิดคำถามขึ้นว่า 10 00:00:28,560 --> 00:00:31,473 แล้วถ้าอัลกอริทึมมันผิดล่ะ 11 00:00:33,100 --> 00:00:35,140 ในการสร้างอัลกอริทึม คุณต้องการสองอย่าง 12 00:00:35,164 --> 00:00:37,145 คุณต้องการข้อมูล สิ่งที่เกิดขึ้นในอดีต 13 00:00:37,169 --> 00:00:38,730 และนิยามของความสำเร็จ 14 00:00:38,754 --> 00:00:41,211 สิ่งที่คุณมองหา หรือหวังว่าจะเจอ 15 00:00:41,235 --> 00:00:46,272 คุณฝึกสอนอัลกอริทึม โดยการมองหา และคำนวณ 16 00:00:46,296 --> 00:00:49,715 อัลกอริทึมจะคำนวณหา ว่าอะไรที่มีส่วนเกี่ยวข้องกับความสำเร็จ 17 00:00:49,739 --> 00:00:52,202 สถานการณ์อย่างไรที่จะนำ ไปสู่ความสำเร็จ 18 00:00:52,881 --> 00:00:54,643 ความจริงแล้ว ทุกคนต่าง ก็ใช้อัลกอริทึม 19 00:00:54,667 --> 00:00:57,385 เพียงแต่ไม่ได้เขียนเป็นโปรแกรม เป็นทางการ 20 00:00:57,409 --> 00:00:58,757 ขอยกตัวอย่างนะคะ 21 00:00:58,781 --> 00:01:02,097 ฉันใช้อัลกอริทึมทุกวัน เพื่อทำอาหารสำหรับครอบครัว 22 00:01:02,121 --> 00:01:03,597 ข้อมูลที่ฉันใช้ 23 00:01:04,394 --> 00:01:06,053 คือวัตถุดิบที่มีในครัว 24 00:01:06,077 --> 00:01:07,604 เวลาที่ฉันมี 25 00:01:07,628 --> 00:01:08,861 ความตั้งใจที่มี 26 00:01:08,885 --> 00:01:10,594 และฉันเองก็กลั่นกรองข้อมูลเหล่านั้น 27 00:01:10,618 --> 00:01:14,869 ฉันไม่นับพวกบะหมี่กึ่งสำเร็จรูป ว่าเป็นอาหารนะคะ 28 00:01:14,893 --> 00:01:16,762 (เสียงหัวเราะ) 29 00:01:16,786 --> 00:01:18,631 นิยามความสำเร็จของฉันคือ 30 00:01:18,655 --> 00:01:21,314 มื้ออาหารจะถือว่าสำเร็จ ถ้าเด็กๆ ยอมกินผัก 31 00:01:22,181 --> 00:01:25,035 มันจะต่างออกไปมาก ถ้าลูกชายคนเล็กของฉันเป็นคนคุมครัว 32 00:01:25,059 --> 00:01:27,847 เขาจะบอกว่า ความสำเร็จคือ เขาได้กินนูเทลล่าเยอะๆ 33 00:01:29,179 --> 00:01:31,405 แต่ฉันเป็นคนเลือกนิยามความสำเร็จ 34 00:01:31,429 --> 00:01:34,136 ฉันเป็นคนรับผิดชอบ ความเห็นของฉันสำคัญ 35 00:01:34,160 --> 00:01:36,835 มันเป็นกฏข้อแรกของอัลกอริทึม 36 00:01:36,859 --> 00:01:40,039 อัลกอริทึมคือความคิดเห็น ที่ถูกฝังลงในในโค้ดโปรแกรม 37 00:01:41,562 --> 00:01:45,225 ซึ่งมันแตกต่างอย่างมาก กับที่คุณ หรือคนทั่วไปคิดถึงอัลกอริทึม 38 00:01:45,249 --> 00:01:49,753 พวกเขาคิดว่า อัลกอริทึมมีความ ตรงไปตรงมา เป็นวิทยาศาสตร์ 39 00:01:50,387 --> 00:01:52,086 นั่นเป็นแค่กลทางการตลาด 40 00:01:53,269 --> 00:01:55,394 และก็เป็นทริกการตลาดนี่แหละ 41 00:01:55,418 --> 00:01:58,572 ที่คุกคามคุณด้วยอัลกอริทึม 42 00:01:58,596 --> 00:02:02,257 เพื่อจะทำให้คุณเชื่อใจ และกลัวอัลกอริทึม 43 00:02:02,281 --> 00:02:04,299 เพราะว่าคุณไว้ใจ และกลัวคณิตศาสตร์ 44 00:02:05,567 --> 00:02:10,397 อาจเกิดสิ่งผิดพลาดได้มากมาย เมื่อเรามีศรัทธา อย่างมืดบอดในข้อมูลมหาศาล (big data) 45 00:02:11,684 --> 00:02:15,057 นี่คือ คิริ ซัวเรส เธอเป็นครูใหญ่ โรงเรียนมัธยมแห่งหนึ่งในบรุคลิน 46 00:02:15,081 --> 00:02:17,667 ปี 2011 เธอบอกฉันว่า ครูของเธอถูกให้คะแนนจาก 47 00:02:17,691 --> 00:02:20,418 อัลกอริทึมที่ซับซ้อน และเป็นความลับ 48 00:02:20,442 --> 00:02:21,931 ที่เรียกว่า "โมเดลเพิ่มคุณค่า" 49 00:02:22,505 --> 00:02:25,597 ฉันบอกเธอว่า "เอาล่ะ มาดูกันว่าสูตรคืออะไร ให้ฉันดูหน่อย 50 00:02:25,621 --> 00:02:27,162 ฉันจะอธิบายให้เธอฟังเอง" 51 00:02:27,186 --> 00:02:29,327 เธอบอก "ฉันพยายามจะเอาสูตรมา 52 00:02:29,351 --> 00:02:32,123 แต่ทางกระทรวงศึกษาธิการ แจ้งว่ามันเป็นคณิตศาสตร์ 53 00:02:32,147 --> 00:02:33,693 และฉันคงไม่เข้าใจ" 54 00:02:35,266 --> 00:02:36,604 มันยิ่งแย่ลงไปกว่านั้นอีก 55 00:02:36,628 --> 00:02:40,158 หนังสือพิมพ์นิวยอร์กโพสต์ ทำเรื่องขอตามกฎหมายเสรีภาพข้อมูล 56 00:02:40,182 --> 00:02:43,141 และได้ข้อมูลรายชื่อครู รวมถึงผลคะแนน ของครูแต่ละคน 57 00:02:43,165 --> 00:02:45,947 แล้วนำมาตีพิมพ์ เหมือนกับว่าจะประจานเหล่าครู 58 00:02:47,084 --> 00:02:50,944 เมื่อฉันติดต่อเพื่อขอทราบสูตรการคำนวณ ผ่านช่องทางเดียวกัน 59 00:02:50,968 --> 00:02:53,117 กลับได้รับการแจ้งว่า ไม่สามารถให้สูตรได้ 60 00:02:53,141 --> 00:02:54,377 ฉันถูกปฏิเสธ 61 00:02:54,401 --> 00:02:55,575 และฉันมาพบภายหลังว่า 62 00:02:55,599 --> 00:02:58,465 ไม่มีใครในนิวยอร์กสามารถเข้าถึงสูตรนั้นได้ 63 00:02:58,489 --> 00:02:59,794 ไม่มีใครเข้าใจมัน 64 00:03:01,929 --> 00:03:05,153 จนกระทั่งคนที่ฉลาดมากคนหนึ่ง เข้ามาเกี่ยวข้องด้วย แกรี่ รูบินสไตน์ 65 00:03:05,177 --> 00:03:08,798 เขาพบข้อมูลเกี่ยวกับครู 665 คน จากข้อมูลของนิวยอร์คโพสต์ 66 00:03:08,822 --> 00:03:10,688 ที่ในความจริงแล้ว มีค่าคะแนนเป็นสองค่า 67 00:03:10,712 --> 00:03:12,593 ซึ่งก็อาจจะเป็นไปได้หากพวกเขาสอน 68 00:03:12,617 --> 00:03:15,056 คณิตศาสตร์ในชั้นเกรดเจ็ด และในชั้นเกรดแปด 69 00:03:15,080 --> 00:03:16,618 เขาตัดสินใจนำข้อมูลพวกนั้นมาวาดกราฟ 70 00:03:16,642 --> 00:03:18,635 แต่ละจุดแทนครูแต่ละคน 71 00:03:19,104 --> 00:03:21,483 (เสียงหัวเราะ) 72 00:03:21,507 --> 00:03:23,028 นั่นคืออะไร? 73 00:03:23,052 --> 00:03:24,329 (เสียงหัวเราะ) 74 00:03:24,353 --> 00:03:27,799 นั่นไม่ควรจะถูกเอามาใช้ ในการประเมินรายบุคคล 75 00:03:27,823 --> 00:03:29,749 มันเกือบจะเหมือนการสร้างตัวเลขแบบสุ่มเลย 76 00:03:29,773 --> 00:03:32,719 (เสียงปรบมือ) 77 00:03:32,743 --> 00:03:33,905 แต่ก็เป็นไปแล้ว 78 00:03:33,929 --> 00:03:35,105 และนี่คือ ซาร่า ไวซอคกี 79 00:03:35,129 --> 00:03:37,304 เธอถูกไล่ออก พร้อมกับ ครูคนอื่นๆ อีก 205 คน 80 00:03:37,328 --> 00:03:39,990 จากเขตการศึกษาวอชิงตันดีซี 81 00:03:40,014 --> 00:03:42,923 ถึงแม้ว่าเธอจะได้รับจดหมายแนะนำตัว ที่ดีมากจากครูใหญ่ของเธอ 82 00:03:42,947 --> 00:03:44,375 และจากผู้ปกครองของนักเรียน 83 00:03:45,390 --> 00:03:47,422 ฉันรู้ว่า พวกคุณคิดอะไรกันอยู่ 84 00:03:47,446 --> 00:03:49,933 โดยเฉพาะเหล่านักวิทยาการข้อมูล ที่เชี่ยวชาญ AI ในที่นี้ 85 00:03:49,957 --> 00:03:54,183 คุณคงคิดว่า "แหม ฉันคงไม่มีทาง สร้างอัลกอริทึมที่ไม่แน่นอนอย่างนี้หรอก" 86 00:03:54,853 --> 00:03:56,536 แต่อัลกอริทึม ก็สามารถผิดพลาดได้ 87 00:03:56,560 --> 00:04:01,158 และถึงขนาดส่งผลเสียหายอย่างขนานใหญ่ ทั้งๆ ที่มีเจตนาดีได้ 88 00:04:02,531 --> 00:04:04,910 นี่ไม่เหมือนกับการออกแบบเครื่องบินที่แย่ 89 00:04:04,934 --> 00:04:06,935 ซึ่งพอตกลงมา ทุกคนจะมองเห็นได้ 90 00:04:06,959 --> 00:04:08,809 แต่อัลกอริทึมที่ออกแบบไม่ดี 91 00:04:10,245 --> 00:04:14,110 อาจจะถูกใช้งานอยู่ได้เป็นเวลานาน สร้างหายนะอย่างเงียบๆ ไม่มีใครเห็นได้ 92 00:04:15,748 --> 00:04:17,318 นี่คือโรเจอร์ เอลส์ 93 00:04:17,342 --> 00:04:19,342 (เสียงหัวเราะ) 94 00:04:20,524 --> 00:04:22,912 เขาก่อตั้งฟอกซ์นิวส์ในปี 1996 95 00:04:23,436 --> 00:04:26,017 มีผู้หญิงกว่า 20 คนร้องเรียนเรื่อง การคุกคามทางเพศ 96 00:04:26,041 --> 00:04:29,276 พวกเธอกล่าวว่า พวกเธอไม่ได้รับโอกาส ที่จะประสบความสำเร็จในฟอกซ์นิวส์ 97 00:04:29,300 --> 00:04:31,820 เขาออกจากตำแหน่งเมื่อปีที่แล้ว แต่เราได้เห็นเร็วๆ นี้ว่า 98 00:04:31,844 --> 00:04:34,514 ปัญหาเรื่องเพศ ยังคงมีอยู่ 99 00:04:35,654 --> 00:04:37,054 ซึ่งนั่นก่อให้เกิดคำถามว่า 100 00:04:37,078 --> 00:04:39,962 ฟอกซ์นิวส์ควรจะทำอย่างไร เพื่อจะเปลี่ยนไปในทางที่ดีขึ้น 101 00:04:41,245 --> 00:04:44,286 แล้วถ้าหากว่าพวกเขาเปลี่ยน กระบวนการว่าจ้าง 102 00:04:44,310 --> 00:04:45,964 มาให้ใช้อัลกอริทึมที่ เรียนรู้ด้วยเครื่อง (Machine Learning) ละ 103 00:04:45,988 --> 00:04:47,583 นั่นฟังดูดีใช่มั้ยละ 104 00:04:47,607 --> 00:04:48,907 ลองคิดดูดีๆ นะคะ 105 00:04:48,931 --> 00:04:51,036 ข้อมูลที่ใช้ ข้อมูลอะไรที่จะนำมาใช้ 106 00:04:51,060 --> 00:04:56,007 ตัวเลือกที่สมเหตุสมผลคือใบสมัครงาน ของฟอกซ์นิวส์ใน 21 ปีที่ผ่านมา 107 00:04:56,031 --> 00:04:57,533 สมเหตุสมผล 108 00:04:57,557 --> 00:04:59,495 แล้วนิยามของความสำเร็จละ 109 00:04:59,921 --> 00:05:01,245 ตัวเลือกที่ดูเหมาะสมก็คือ 110 00:05:01,269 --> 00:05:03,047 คิดดูนะ ใครที่ประสบความสำเร็จ ที่ฟอกซ์นิวส์ 111 00:05:03,071 --> 00:05:06,651 ฉันเดาว่า น่าจะเป็นใครสักคนที่อยู่ มาได้สัก 4 ปี 112 00:05:06,675 --> 00:05:08,329 และได้เลื่อนตำแหน่ง อย่างน้อยหนึ่งครั้ง 113 00:05:08,816 --> 00:05:10,377 ฟังดูเข้าท่าดีใช่มั้ยล่ะ 114 00:05:10,401 --> 00:05:12,755 และอัลกอริทึมก็จะถูกฝึกสอน 115 00:05:12,779 --> 00:05:16,656 มันจะถูกสอนให้มองหาผู้สมัคร มองหาลักษณะที่จะนำไปสู่ความสำเร็จ 116 00:05:17,219 --> 00:05:21,537 ใบสมัครแบบไหน ที่จะประสบความสำเร็จ จากในอดีตที่ผ่านมา 117 00:05:21,561 --> 00:05:22,855 ตามนิยามความสำเร็จ 118 00:05:24,200 --> 00:05:25,975 ลองคิดดูซิว่า จะเกิดอะไรขึ้น 119 00:05:25,999 --> 00:05:28,554 ถ้าเราเอามาประยุกต์ใช้กับ กลุ่มผู้สมัครในปัจจุบัน 120 00:05:29,119 --> 00:05:30,748 มันจะคัดกรองเอาผู้หญิงออกไป 121 00:05:31,663 --> 00:05:35,593 เพราะผู้หญิงดูไม่เหมือนกับ คนที่จะประสบความสำเร็จในอดีต 122 00:05:39,752 --> 00:05:42,289 อัลกอริทึมไม่ได้ ทำให้เกิดความยุติธรรมขึ้นนะคะ 123 00:05:42,313 --> 00:05:45,007 ถ้าคุณแค่หลับหูหลับตา เอาอัลกอริทึมมาใช้ 124 00:05:45,031 --> 00:05:46,513 มันไม่ทำให้เกิดความเป็นธรรม 125 00:05:46,537 --> 00:05:48,665 มันแค่ทำซ้ำสิ่งที่เคยปฏิบัติมาในอดีต 126 00:05:48,689 --> 00:05:49,872 รูปแบบของเรา 127 00:05:49,896 --> 00:05:51,835 มันแค่ทำสถานะปัจจุบันให้เป็นอัตโนมัติ 128 00:05:52,718 --> 00:05:55,107 ซึ่งมันคงจะเป็นเรื่องเยี่ยม ถ้าเราอยู่ในโลกที่สมบูรณ์แบบ 129 00:05:55,905 --> 00:05:57,217 แต่เราไม่ได้อยู่ 130 00:05:57,241 --> 00:06:01,343 และฉันจะเพิ่มเติมอีกว่า ถึงบริษัทส่วนใหญ่จะไม่ได้มีคดีอื้อฉาว 131 00:06:02,446 --> 00:06:05,034 แต่เหล่านักวิทยาการข้อมูลในบริษัทเหล่านั้น 132 00:06:05,058 --> 00:06:07,247 ได้รับคำสั่งให้ถือข้อมูลเป็นหลัก 133 00:06:07,271 --> 00:06:09,414 ให้เน้นไปที่ความถูกต้องแม่นยำ 134 00:06:10,273 --> 00:06:11,654 ลองคิดดูว่า นั่นหมายความว่าอย่างไร 135 00:06:11,678 --> 00:06:15,705 เนื่องจากเราต่างก็มีอคติ มันหมายความว่า เรากำลังสร้างการเหยียดเพศ 136 00:06:15,729 --> 00:06:17,565 หรือความอคติดื้อรั้นบางอย่างลงในระบบ 137 00:06:19,488 --> 00:06:20,909 มาทดลองด้านความคิดกันหน่อย 138 00:06:20,933 --> 00:06:22,442 เพราะฉันชอบทำ 139 00:06:23,574 --> 00:06:26,549 สังคมแห่งหนึ่งที่มีความแบ่งแยกอย่างสมบูรณ์ 140 00:06:28,247 --> 00:06:31,575 แบ่งแยกกันด้านเชื้อชาติ ในทุกเมือง ทุกชุมชน 141 00:06:31,599 --> 00:06:34,636 และเราส่งตำรวจไปแค่ที่ชุมชน ของคนกลุ่มเสียงข้างน้อยเท่านั้น 142 00:06:34,660 --> 00:06:35,853 เพื่อตรวจหาอาชญากรรม 143 00:06:36,451 --> 00:06:38,670 ข้อมูลการจับกุมก็จะมีความลำเอียงเป็นอย่างมาก 144 00:06:39,851 --> 00:06:42,426 นอกจากนั้นแล้ว ถ้าเราหานักวิทยาการข้อมูลและจ้าง 145 00:06:42,450 --> 00:06:46,611 ให้พวกเขาเหล่านั้น ทำนายว่า อาชญากรรมครั้งต่อไปจะเกิดที่ไหน 146 00:06:47,275 --> 00:06:48,762 ชุมชนของคนกลุ่มน้อย 147 00:06:49,285 --> 00:06:52,410 หรือเพื่อทำนายว่า อาชญากรคนต่อไปจะเป็นใคร? 148 00:06:52,888 --> 00:06:54,283 คนกลุ่มน้อย 149 00:06:55,949 --> 00:06:59,490 นักวิทยาการข้อมูลก็คงจะอวดโอ่ ได้ว่าโมเดลของพวกเขานั้น 150 00:06:59,514 --> 00:07:00,811 ยอดเยี่ยมและแม่นยำเพียงใด 151 00:07:00,835 --> 00:07:02,134 และพวกเขาก็คงจะเป็นฝ่ายถูก 152 00:07:03,951 --> 00:07:08,566 ในความเป็นจริงแล้ว มันคงไม่สุดขั้วขนาดนั้น แต่เราก็มีปัญหาการแบ่งแยกที่รุนแรง 153 00:07:08,590 --> 00:07:09,877 ในหลายๆ เมืองทั้งเล็กและใหญ่ 154 00:07:09,901 --> 00:07:11,794 และเรายังมีหลักฐานอีกมากมาย 155 00:07:11,818 --> 00:07:14,506 ของข้อมูลเกี่ยวกับ กระบวนการยุติธรรมที่มีอคติ 156 00:07:15,632 --> 00:07:18,447 และเราก็มีการพยากรณ์จุดเสี่ยงจริงๆ 157 00:07:18,471 --> 00:07:20,001 คือตำแหน่งที่จะเกิดอาชญากรรมขึ้น 158 00:07:20,401 --> 00:07:24,267 และเราก็มีการพยากรณ์การเกิด อาชญากรรมจริงๆ 159 00:07:24,291 --> 00:07:26,061 การเกิดอาชญากรรมของแต่ละบุคคล 160 00:07:26,972 --> 00:07:30,935 องค์กรสื่อที่เรียกว่า โปรพับลิก้า ได้ทำการศึกษาเมื่อเร็วๆ นี้ 161 00:07:30,959 --> 00:07:32,983 เกี่ยวกับอัลกอริทึม ที่เรียกกันว่า 162 00:07:33,007 --> 00:07:34,170 "ความเสี่ยงที่จะทำผิดซ้ำซาก" 163 00:07:34,194 --> 00:07:37,388 ที่ถูกใช้ในรัฐฟลอริด้า ในระหว่างกระบวนการตัดสินของศาล 164 00:07:38,411 --> 00:07:41,996 เบอร์นาร์ด ชายผิวดำ ทางด้านซ้าย ได้คะแนน 10 เต็ม 10 165 00:07:43,179 --> 00:07:45,186 ส่วนดีแลน ทางด้านขวา ได้ 3 เต็ม 10 166 00:07:45,210 --> 00:07:47,711 10 เต็ม 10 ความเสี่ยงสูง 3 เต็ม 10 ความเสี่ยงต่ำ 167 00:07:48,598 --> 00:07:50,983 พวกเราถูกคุมตัวมาด้วยข้อหา มียาเสพติดในครอบครอง 168 00:07:51,007 --> 00:07:52,161 ทั้งคู่ต่างก็มีประวัติอาชญากรรม 169 00:07:52,185 --> 00:07:54,991 แต่ดีแลนมีความผิดอุกฉกรรจ์ร่วมด้วย 170 00:07:55,015 --> 00:07:56,191 แต่เบอร์นาร์ดไม่มี 171 00:07:57,818 --> 00:08:00,884 เรื่องนี้เป็นประเด็น เพราะว่า ยิ่งคุณได้คะแนนสูงเท่าไหร่ 172 00:08:00,908 --> 00:08:04,381 ยิ่งมีโอกาสที่จะต้องโทษ เป็นเวลาที่ยาวนานกว่า 173 00:08:06,294 --> 00:08:07,588 นี่มันเกิดอะไรขึ้น? 174 00:08:08,526 --> 00:08:09,858 การฟอกข้อมูล 175 00:08:10,930 --> 00:08:15,357 มันคือกระบวนการที่ นักเทคโนโลยีซ่อนความจริงที่น่าเกลียด 176 00:08:15,381 --> 00:08:17,202 เอาไว้ภายในกล่องดำของอัลกอริทึม 177 00:08:17,226 --> 00:08:18,516 แล้วเรียกมันว่า ภววิสัย 178 00:08:19,320 --> 00:08:20,888 เรียกมันว่า คุณธรรมนิยม 179 00:08:23,118 --> 00:08:25,503 เมื่อมันเป็นความลับ มีความสำคัญ และมีอำนาจทำลายล้าง 180 00:08:25,527 --> 00:08:28,014 ฉันเลยบัญญัติศัพท์เรียกอัลกอริทึมพวกนี้ว่า 181 00:08:28,038 --> 00:08:30,037 "อาวุธทำลายล้างด้วยคณิตศาสตร์" 182 00:08:30,061 --> 00:08:31,625 (เสียงหัวเราะ) 183 00:08:31,649 --> 00:08:34,703 (เสียงปรบมือ) 184 00:08:34,727 --> 00:08:37,081 พวกมันอยู่ทุกหนแห่ง และนี่ไม่ใช่ความผิดพลาด 185 00:08:37,695 --> 00:08:41,418 นี่คือเหล่าบริษัทเอกชน ที่สร้างอัลกอริทึมภาคเอกชน 186 00:08:41,442 --> 00:08:42,834 เพื่อผลประโยชน์ของเอกชน 187 00:08:43,214 --> 00:08:46,428 แม้กระทั่งเรื่องที่ฉันพูดถึง เกี่ยวกับครูและตำรวจสาธารณะ 188 00:08:46,452 --> 00:08:48,321 อัลกอริทึมเหล่านั้นถูกสร้างโดย บริษัทเอกชน 189 00:08:48,345 --> 00:08:50,576 และขายให้กับหน่วยงานของรัฐ 190 00:08:50,600 --> 00:08:52,473 พวกเขาเรียกมันว่า "สูตรลับ" 191 00:08:52,497 --> 00:08:54,625 และนั่นเป็นสาเหตุที่พวกเขาบอกเราไม่ได้ 192 00:08:54,649 --> 00:08:56,869 และมันยังเป็นอำนาจของเอกชนด้วย 193 00:08:57,924 --> 00:09:02,619 พวกเขาได้กำไรจากการใช้ อำนาจที่ลึกลับและตรวจสอบไม่ได้ 194 00:09:05,114 --> 00:09:08,048 ถึงตอนนี้คุณอาจจะคิดว่า ในเมื่อของพวกนี้เป็นของเอกชน 195 00:09:08,072 --> 00:09:09,230 และมันมีการแข่งขัน 196 00:09:09,254 --> 00:09:11,560 บางทีสภาพตลาดเสรี อาจจะช่วยแก้ปัญหานี้ให้ได้ 197 00:09:11,584 --> 00:09:12,833 มันแก้ไม่ได้ 198 00:09:12,857 --> 00:09:15,977 เพราะมีความร่ำรวยมหาศาล ที่ถูกสร้างขึ้นมาได้จากความไม่ยุติธรรม 199 00:09:17,127 --> 00:09:20,496 และอีกอย่าง คนเราก็ไม่ได้มีความ เป็นเหตุเป็นผลนักในทางเศรษฐศาสตร์ 200 00:09:21,031 --> 00:09:22,323 เราต่างก็มีอคติกันอยู่ทุกคน 201 00:09:22,960 --> 00:09:26,337 เราต่างก็มีความเหยียดเชื้อชาติและอคติ ในแบบที่เราไม่คิดว่าจะมี 202 00:09:26,361 --> 00:09:28,380 หรือในแบบที่เราเองก็ไม่รู้ตัว 203 00:09:29,352 --> 00:09:32,433 แต่เรารู้ว่า ในภาพรวมระดับสังคม เรามีอคติเหล่านี้ 204 00:09:32,457 --> 00:09:35,677 เพราะว่านักสังคมวิทยา ได้สาธิตให้เราเห็นอคติเหล่านี้ 205 00:09:35,701 --> 00:09:37,366 อยู่บ่อยๆ ผ่านการทดลองต่างๆ 206 00:09:37,390 --> 00:09:39,958 เช่นการส่งใบสมัครงานออกไป 207 00:09:39,982 --> 00:09:42,483 โดยระบุคุณสมบัติพอๆ กัน แต่กลุ่มหนึ่งชื่อเหมือนคนขาว 208 00:09:42,507 --> 00:09:44,213 อีกกลุ่มมีชื่อเหมือนคนผิวสี 209 00:09:44,237 --> 00:09:46,931 และผลลัพธ์ที่ออกมาก็น่าผิดหวัง อยู่เสมอมา ตลอดมาจริงๆ 210 00:09:47,510 --> 00:09:49,281 ดังนั้น พวกเรานี่เองแหละที่มีอคติ 211 00:09:49,305 --> 00:09:52,734 และเรากำลังใส่อคติเหล่านั้น ลงไปในอัลกอริทึม 212 00:09:52,758 --> 00:09:54,570 โดยผ่านการเลือกว่าจะเก็บข้อมูลอะไร 213 00:09:54,594 --> 00:09:57,337 เหมือนที่ฉันเลือกที่จะไม่ใช้ บะหมี่กึ่งสำเร็จรูป 214 00:09:57,361 --> 00:09:58,986 ฉันตัดสินใจว่า มันไม่ถือเป็นอาหาร 215 00:09:59,010 --> 00:10:04,694 แต่โดยการเชื่อข้อมูลที่เรา เก็บมาจากผลการกระทำในอดีต 216 00:10:04,718 --> 00:10:06,732 และโดยการเลือกนิยามของความสำเร็จ 217 00:10:06,756 --> 00:10:10,739 เราจะคาดหวังว่าอัลกอริทึมจะ ออกมาดีได้อย่างไร? 218 00:10:10,763 --> 00:10:13,119 เราคาดหวังไม่ได้ เราต้องตรวจสอบมัน 219 00:10:14,165 --> 00:10:15,874 เราต้องตรวจสอบมัน ในแง่ความเป็นธรรม 220 00:10:15,898 --> 00:10:18,609 ข่าวดีก็คือ เราสามารถตรวจสอบ ความเป็นธรรมของมันได้ 221 00:10:18,633 --> 00:10:21,985 อัลกอริทึมสามารถถูกสอบสวนได้ 222 00:10:22,009 --> 00:10:24,043 และมันจะบอกความจริงเราทุกครั้ง 223 00:10:24,067 --> 00:10:26,560 และเราสามารถซ่อมแซมมันได้ เราทำให้มันดีขึ้นได้ 224 00:10:26,584 --> 00:10:28,959 ฉันเรียกมันว่า "การตรวจสอบอัลกอริทึม" 225 00:10:28,983 --> 00:10:30,662 และฉันจะเล่าให้พวกคุณฟัง 226 00:10:30,686 --> 00:10:32,882 สิ่งแรกคือ การตรวจสอบความสอดคล้องของข้อมูล 227 00:10:34,132 --> 00:10:36,789 สำหรับอัลกอริทึมความเสี่ยง ที่จะทำผิดซ้ำที่ได้เล่าไปแล้ว 228 00:10:37,582 --> 00:10:41,155 การตรวจสอบข้อมูลหมายถึง การที่เราต้องตระหนักความจริงที่ว่า 229 00:10:41,179 --> 00:10:44,705 ในสหรัฐนั้น ทั้งคนขาวและคนดำ ต่างก็เสพยาในอัตราเดียวกัน 230 00:10:44,729 --> 00:10:47,214 แต่คนดำนั้นมีโอกาสสูงกว่ามาก ที่จะถูกจับ 231 00:10:47,238 --> 00:10:50,422 สูงกว่ามากถึง 4 หรือ 5 เท่า ขึ้นอยู่กับสถานที่ 232 00:10:51,317 --> 00:10:54,143 แล้วอคตินั้นเป็นอย่างไร ในอาชญากรรมประเภทอื่นๆ 233 00:10:54,167 --> 00:10:55,618 แล้วเราจะนำปัจจัยมาพิจารณาอย่างไร 234 00:10:56,162 --> 00:10:59,201 อย่างที่สอง เราควรจะคิดถึง นิยามของความสำเร็จ 235 00:10:59,225 --> 00:11:00,606 ตรวจสอบนิยามเหล่านั้น 236 00:11:00,630 --> 00:11:03,382 จำไว้ว่า ในอัลกอริทึมการว่าจ้าง ที่เราได้พูดถึงนั้น 237 00:11:03,406 --> 00:11:06,571 ใครบางคนที่อยู่มาสี่ปีและได้ เลื่อนขั้นอย่างน้อยครั้งหนึ่ง 238 00:11:06,595 --> 00:11:08,364 นั่นถือว่าเป็นพนักงานที่ประสบความสำเร็จ 239 00:11:08,388 --> 00:11:11,467 แต่นั่นก็เป็นพนักงานที่ได้รับการสนับสนุน จากวัฒนธรรมของพวกเขาด้วย 240 00:11:12,089 --> 00:11:14,015 หมายความว่า มันสามารถที่จะลำเอียงได้มาก 241 00:11:14,039 --> 00:11:16,104 เราจำเป็นต้องแยกสองอย่างนี้ออกจากกัน 242 00:11:16,128 --> 00:11:18,554 เราน่าจะดูการปิดตาคัดตัว ที่ใช้ในวงออร์เคสตรา 243 00:11:18,578 --> 00:11:19,774 เป็นตัวอย่าง 244 00:11:19,798 --> 00:11:22,554 นั่นคือเมื่อคนที่กำลังทดสอบ ถูกกั้นอยู่หลังม่าน 245 00:11:22,946 --> 00:11:24,877 สิ่งที่ฉันคิดก็คือ 246 00:11:24,901 --> 00:11:28,318 นั่นทำให้คนที่กำลังฟังอยู่ สามารถตัดสินใจได้ว่า อะไรเป็นสิ่งสำคัญ 247 00:11:28,342 --> 00:11:30,371 และพวกเขาได้ตัดสินใจแล้วว่า อะไรไม่ใช่สิ่งสำคัญ 248 00:11:30,395 --> 00:11:32,454 และจะไม่ยอมให้เกิดการ เบี่ยงเบนความสนใจไปได้ 249 00:11:32,961 --> 00:11:35,710 เมื่อเริ่มมีการคัดตัวสมาชิก วงออร์เคสตราแบบปิดตา 250 00:11:35,734 --> 00:11:39,178 จำนวนของนักดนตรีหญิง ในวงออร์เคสตรา สูงขึ้นถึง 5 เท่า 251 00:11:40,253 --> 00:11:42,268 ต่อมา เราจำเป็นต้องพิจารณาเรื่องความแม่นยำ 252 00:11:43,233 --> 00:11:46,967 นี่คือจุดที่โมเดลคุณค่าเพิ่ม สำหรับครู จะล้มเหลวในทันที 253 00:11:47,578 --> 00:11:49,740 จริงอยู่ที่ไม่มีอัลกอริทึมใดจะสมบูรณ์แบบ 254 00:11:50,620 --> 00:11:54,225 ดังนั้นเราจะต้องพิจารณาถึง ความผิดพลาดต่างๆ ของทุกอัลกอริทึม 255 00:11:54,836 --> 00:11:59,195 ความผิดพลาดเกิดบ่อยแค่ไหน และมันส่งผลเสียต่อใครบ้าง 256 00:11:59,850 --> 00:12:01,568 ความเสียหายนั้นมีต้นทุนเป็นอย่างไร 257 00:12:02,434 --> 00:12:04,641 และท้ายที่สุดแล้ว เรายังต้องพิจารณาถึง 258 00:12:05,973 --> 00:12:08,159 ผลกระทบในระยะยาวของอัลกอริทึมต่างๆ 259 00:12:08,866 --> 00:12:11,073 ที่เกิดจากวงจรของเสียงตอบรับ 260 00:12:11,586 --> 00:12:12,822 นั่นฟังดูค่อนข้างเป็นนามธรรม 261 00:12:12,846 --> 00:12:15,510 แต่ลองนึกภาพว่าถ้าวิศวกรของเฟซบุ๊ค ได้เคยหยุดคิดถึงผลกระทบ 262 00:12:16,270 --> 00:12:21,125 ก่อนที่พวกเขาจะตัดสินใจแสดง แต่เฉพาะสิ่งที่เพื่อนๆ เราได้โพสไป 263 00:12:21,761 --> 00:12:24,995 ฉันมีอีกสองประเด็นที่อยากบอก เรื่องแรกสำหรับนักวิทยาการข้อมูลทั้งหลาย 264 00:12:25,450 --> 00:12:28,859 เราไม่ควรทำตัวเป็นผู้ชี้ขาดความจริง 265 00:12:29,520 --> 00:12:33,303 เราควรเป็นผู้สื่อประเด็น ข้อถกเถียงทางศีลธรรมที่กำลังเกิดขึ้น 266 00:12:33,327 --> 00:12:34,621 ในสังคมวงกว้าง 267 00:12:35,579 --> 00:12:37,712 (เสียงปรบมือ) 268 00:12:37,736 --> 00:12:39,292 และสำหรับคุณที่เหลือ 269 00:12:40,011 --> 00:12:41,407 ที่ไม่ใช่นักวิทยาการข้อมูล 270 00:12:41,431 --> 00:12:42,929 นี่ไม่ใช่การทดสอบทางคณิตศาสตร์ 271 00:12:43,632 --> 00:12:44,980 นี่เป็นการต่อสู้ทางการเมือง 272 00:12:46,587 --> 00:12:50,494 เราจำเป็นต้องเรียกร้องความรับผิดชอบ ของผู้มีอำนาจบงการอัลกอริทึมเหล่านี้ 273 00:12:52,118 --> 00:12:53,617 (เสียงปรบมือ) 274 00:12:53,641 --> 00:12:57,866 ยุคแห่งความเชื่อที่มืดบอด ในโลกแห่งข้อมูลมหาศาลจะต้องสิ้นสุดลง 275 00:12:57,890 --> 00:12:59,057 ขอบคุณมากค่ะ 276 00:12:59,081 --> 00:13:04,384 (เสียงปรบมือ)