WEBVTT 00:00:00.975 --> 00:00:02.571 อัลกอริทึมอยู่ทุกหนแห่ง 00:00:04.111 --> 00:00:07.236 มันคัดแยกและ กันผู้ชนะออกจากผู้แพ้ 00:00:08.019 --> 00:00:10.283 ผู้ชนะได้งาน 00:00:10.307 --> 00:00:12.050 หรือได้ข้อเสนอบัตรเครดิตดีๆ 00:00:12.074 --> 00:00:14.725 ผู้แพ้ไม่ได้แม้กระทั่งโอกาสเรียกสัมภาษณ์ 00:00:15.590 --> 00:00:17.367 หรือต้องจ่ายเบี้ยประกันแพงกว่า 00:00:18.197 --> 00:00:21.746 เรากำลังถูกให้คะแนน จากสูตรลับที่เราไม่เข้าใจ 00:00:22.675 --> 00:00:25.892 และโดยมากมักไม่มีระบบที่เราจะอุทธรณ์ได้ 00:00:27.240 --> 00:00:28.536 นั่นทำให้เกิดคำถามขึ้นว่า 00:00:28.560 --> 00:00:31.473 แล้วถ้าอัลกอริทึมมันผิดล่ะ NOTE Paragraph 00:00:33.100 --> 00:00:35.140 ในการสร้างอัลกอริทึม คุณต้องการสองอย่าง 00:00:35.164 --> 00:00:37.145 คุณต้องการข้อมูล สิ่งที่เกิดขึ้นในอดีต 00:00:37.169 --> 00:00:38.730 และนิยามของความสำเร็จ 00:00:38.754 --> 00:00:41.211 สิ่งที่คุณมองหา หรือหวังว่าจะเจอ 00:00:41.235 --> 00:00:46.272 คุณฝึกสอนอัลกอริทึม โดยการมองหา และคำนวณ 00:00:46.296 --> 00:00:49.715 อัลกอริทึมจะคำนวณหา ว่าอะไรที่มีส่วนเกี่ยวข้องกับความสำเร็จ 00:00:49.739 --> 00:00:52.202 สถานการณ์อย่างไรที่จะนำ ไปสู่ความสำเร็จ NOTE Paragraph 00:00:52.881 --> 00:00:54.643 ความจริงแล้ว ทุกคนต่าง ก็ใช้อัลกอริทึม 00:00:54.667 --> 00:00:57.385 เพียงแต่ไม่ได้เขียนเป็นโปรแกรม เป็นทางการ 00:00:57.409 --> 00:00:58.757 ขอยกตัวอย่างนะคะ 00:00:58.781 --> 00:01:02.097 ฉันใช้อัลกอริทึมทุกวัน เพื่อทำอาหารสำหรับครอบครัว 00:01:02.121 --> 00:01:03.597 ข้อมูลที่ฉันใช้ 00:01:04.394 --> 00:01:06.053 คือวัตถุดิบที่มีในครัว 00:01:06.077 --> 00:01:07.604 เวลาที่ฉันมี 00:01:07.628 --> 00:01:08.861 ความตั้งใจที่มี 00:01:08.885 --> 00:01:10.594 และฉันเองก็กลั่นกรองข้อมูลเหล่านั้น 00:01:10.618 --> 00:01:14.869 ฉันไม่นับพวกบะหมี่กึ่งสำเร็จรูป ว่าเป็นอาหารนะคะ NOTE Paragraph 00:01:14.893 --> 00:01:16.762 (เสียงหัวเราะ) NOTE Paragraph 00:01:16.786 --> 00:01:18.631 นิยามความสำเร็จของฉันคือ 00:01:18.655 --> 00:01:21.314 มื้ออาหารจะถือว่าสำเร็จ ถ้าเด็กๆ ยอมกินผัก 00:01:22.181 --> 00:01:25.035 มันจะต่างออกไปมาก ถ้าลูกชายคนเล็กของฉันเป็นคนคุมครัว 00:01:25.059 --> 00:01:27.847 เขาจะบอกว่า ความสำเร็จคือ เขาได้กินนูเทลล่าเยอะๆ 00:01:29.179 --> 00:01:31.405 แต่ฉันเป็นคนเลือกนิยามความสำเร็จ 00:01:31.429 --> 00:01:34.136 ฉันเป็นคนรับผิดชอบ ความเห็นของฉันสำคัญ 00:01:34.160 --> 00:01:36.835 มันเป็นกฏข้อแรกของอัลกอริทึม NOTE Paragraph 00:01:36.859 --> 00:01:40.039 อัลกอริทึมคือความคิดเห็น ที่ถูกฝังลงในในโค้ดโปรแกรม 00:01:41.562 --> 00:01:45.225 ซึ่งมันแตกต่างอย่างมาก กับที่คุณ หรือคนทั่วไปคิดถึงอัลกอริทึม 00:01:45.249 --> 00:01:49.753 พวกเขาคิดว่า อัลกอริทึมมีความ ตรงไปตรงมา เป็นวิทยาศาสตร์ 00:01:50.387 --> 00:01:52.086 นั่นเป็นแค่กลทางการตลาด 00:01:53.269 --> 00:01:55.394 และก็เป็นทริกการตลาดนี่แหละ 00:01:55.418 --> 00:01:58.572 ที่คุกคามคุณด้วยอัลกอริทึม 00:01:58.596 --> 00:02:02.257 เพื่อจะทำให้คุณเชื่อใจ และกลัวอัลกอริทึม 00:02:02.281 --> 00:02:04.299 เพราะว่าคุณไว้ใจ และกลัวคณิตศาสตร์ 00:02:05.567 --> 00:02:10.397 อาจเกิดสิ่งผิดพลาดได้มากมาย เมื่อเรามีศรัทธา อย่างมืดบอดในข้อมูลมหาศาล (big data) NOTE Paragraph 00:02:11.684 --> 00:02:15.057 นี่คือ คิริ ซัวเรส เธอเป็นครูใหญ่ โรงเรียนมัธยมแห่งหนึ่งในบรุคลิน 00:02:15.081 --> 00:02:17.667 ปี 2011 เธอบอกฉันว่า ครูของเธอถูกให้คะแนนจาก 00:02:17.691 --> 00:02:20.418 อัลกอริทึมที่ซับซ้อน และเป็นความลับ 00:02:20.442 --> 00:02:21.931 ที่เรียกว่า "โมเดลเพิ่มคุณค่า" 00:02:22.505 --> 00:02:25.597 ฉันบอกเธอว่า "เอาล่ะ มาดูกันว่าสูตรคืออะไร ให้ฉันดูหน่อย 00:02:25.621 --> 00:02:27.162 ฉันจะอธิบายให้เธอฟังเอง" 00:02:27.186 --> 00:02:29.327 เธอบอก "ฉันพยายามจะเอาสูตรมา 00:02:29.351 --> 00:02:32.123 แต่ทางกระทรวงศึกษาธิการ แจ้งว่ามันเป็นคณิตศาสตร์ 00:02:32.147 --> 00:02:33.693 และฉันคงไม่เข้าใจ" NOTE Paragraph 00:02:35.266 --> 00:02:36.604 มันยิ่งแย่ลงไปกว่านั้นอีก 00:02:36.628 --> 00:02:40.158 หนังสือพิมพ์นิวยอร์กโพสต์ ทำเรื่องขอตามกฎหมายเสรีภาพข้อมูล 00:02:40.182 --> 00:02:43.141 และได้ข้อมูลรายชื่อครู รวมถึงผลคะแนน ของครูแต่ละคน 00:02:43.165 --> 00:02:45.947 แล้วนำมาตีพิมพ์ เหมือนกับว่าจะประจานเหล่าครู 00:02:47.084 --> 00:02:50.944 เมื่อฉันติดต่อเพื่อขอทราบสูตรการคำนวณ ผ่านช่องทางเดียวกัน 00:02:50.968 --> 00:02:53.117 กลับได้รับการแจ้งว่า ไม่สามารถให้สูตรได้ 00:02:53.141 --> 00:02:54.377 ฉันถูกปฏิเสธ 00:02:54.401 --> 00:02:55.575 และฉันมาพบภายหลังว่า 00:02:55.599 --> 00:02:58.465 ไม่มีใครในนิวยอร์กสามารถเข้าถึงสูตรนั้นได้ 00:02:58.489 --> 00:02:59.794 ไม่มีใครเข้าใจมัน 00:03:01.929 --> 00:03:05.153 จนกระทั่งคนที่ฉลาดมากคนหนึ่ง เข้ามาเกี่ยวข้องด้วย แกรี่ รูบินสไตน์ 00:03:05.177 --> 00:03:08.798 เขาพบข้อมูลเกี่ยวกับครู 665 คน จากข้อมูลของนิวยอร์คโพสต์ 00:03:08.822 --> 00:03:10.688 ที่ในความจริงแล้ว มีค่าคะแนนเป็นสองค่า 00:03:10.712 --> 00:03:12.593 ซึ่งก็อาจจะเป็นไปได้หากพวกเขาสอน 00:03:12.617 --> 00:03:15.056 คณิตศาสตร์ในชั้นเกรดเจ็ด และในชั้นเกรดแปด 00:03:15.080 --> 00:03:16.618 เขาตัดสินใจนำข้อมูลพวกนั้นมาวาดกราฟ 00:03:16.642 --> 00:03:18.635 แต่ละจุดแทนครูแต่ละคน NOTE Paragraph 00:03:19.104 --> 00:03:21.483 (เสียงหัวเราะ) NOTE Paragraph 00:03:21.507 --> 00:03:23.028 นั่นคืออะไร? NOTE Paragraph 00:03:23.052 --> 00:03:24.329 (เสียงหัวเราะ) NOTE Paragraph 00:03:24.353 --> 00:03:27.799 นั่นไม่ควรจะถูกเอามาใช้ ในการประเมินรายบุคคล 00:03:27.823 --> 00:03:29.749 มันเกือบจะเหมือนการสร้างตัวเลขแบบสุ่มเลย NOTE Paragraph 00:03:29.773 --> 00:03:32.719 (เสียงปรบมือ) NOTE Paragraph 00:03:32.743 --> 00:03:33.905 แต่ก็เป็นไปแล้ว 00:03:33.929 --> 00:03:35.105 และนี่คือ ซาร่า ไวซอคกี 00:03:35.129 --> 00:03:37.304 เธอถูกไล่ออก พร้อมกับ ครูคนอื่นๆ อีก 205 คน 00:03:37.328 --> 00:03:39.990 จากเขตการศึกษาวอชิงตันดีซี 00:03:40.014 --> 00:03:42.923 ถึงแม้ว่าเธอจะได้รับจดหมายแนะนำตัว ที่ดีมากจากครูใหญ่ของเธอ 00:03:42.947 --> 00:03:44.375 และจากผู้ปกครองของนักเรียน NOTE Paragraph 00:03:45.390 --> 00:03:47.422 ฉันรู้ว่า พวกคุณคิดอะไรกันอยู่ 00:03:47.446 --> 00:03:49.933 โดยเฉพาะเหล่านักวิทยาการข้อมูล ที่เชี่ยวชาญ AI ในที่นี้ 00:03:49.957 --> 00:03:54.183 คุณคงคิดว่า "แหม ฉันคงไม่มีทาง สร้างอัลกอริทึมที่ไม่แน่นอนอย่างนี้หรอก" 00:03:54.853 --> 00:03:56.536 แต่อัลกอริทึม ก็สามารถผิดพลาดได้ 00:03:56.560 --> 00:04:01.158 และถึงขนาดส่งผลเสียหายอย่างขนานใหญ่ ทั้งๆ ที่มีเจตนาดีได้ 00:04:02.531 --> 00:04:04.910 นี่ไม่เหมือนกับการออกแบบเครื่องบินที่แย่ 00:04:04.934 --> 00:04:06.935 ซึ่งพอตกลงมา ทุกคนจะมองเห็นได้ 00:04:06.959 --> 00:04:08.809 แต่อัลกอริทึมที่ออกแบบไม่ดี 00:04:10.245 --> 00:04:14.110 อาจจะถูกใช้งานอยู่ได้เป็นเวลานาน สร้างหายนะอย่างเงียบๆ ไม่มีใครเห็นได้ NOTE Paragraph 00:04:15.748 --> 00:04:17.318 นี่คือโรเจอร์ เอลส์ NOTE Paragraph 00:04:17.342 --> 00:04:19.342 (เสียงหัวเราะ) NOTE Paragraph 00:04:20.524 --> 00:04:22.912 เขาก่อตั้งฟอกซ์นิวส์ในปี 1996 00:04:23.436 --> 00:04:26.017 มีผู้หญิงกว่า 20 คนร้องเรียนเรื่อง การคุกคามทางเพศ 00:04:26.041 --> 00:04:29.276 พวกเธอกล่าวว่า พวกเธอไม่ได้รับโอกาส ที่จะประสบความสำเร็จในฟอกซ์นิวส์ 00:04:29.300 --> 00:04:31.820 เขาออกจากตำแหน่งเมื่อปีที่แล้ว แต่เราได้เห็นเร็วๆ นี้ว่า 00:04:31.844 --> 00:04:34.514 ปัญหาเรื่องเพศ ยังคงมีอยู่ 00:04:35.654 --> 00:04:37.054 ซึ่งนั่นก่อให้เกิดคำถามว่า 00:04:37.078 --> 00:04:39.962 ฟอกซ์นิวส์ควรจะทำอย่างไร เพื่อจะเปลี่ยนไปในทางที่ดีขึ้น NOTE Paragraph 00:04:41.245 --> 00:04:44.286 แล้วถ้าหากว่าพวกเขาเปลี่ยน กระบวนการว่าจ้าง 00:04:44.310 --> 00:04:45.964 มาให้ใช้อัลกอริทึมที่ เรียนรู้ด้วยเครื่อง (Machine Learning) ละ 00:04:45.988 --> 00:04:47.583 นั่นฟังดูดีใช่มั้ยละ 00:04:47.607 --> 00:04:48.907 ลองคิดดูดีๆ นะคะ 00:04:48.931 --> 00:04:51.036 ข้อมูลที่ใช้ ข้อมูลอะไรที่จะนำมาใช้ 00:04:51.060 --> 00:04:56.007 ตัวเลือกที่สมเหตุสมผลคือใบสมัครงาน ของฟอกซ์นิวส์ใน 21 ปีที่ผ่านมา 00:04:56.031 --> 00:04:57.533 สมเหตุสมผล 00:04:57.557 --> 00:04:59.495 แล้วนิยามของความสำเร็จละ 00:04:59.921 --> 00:05:01.245 ตัวเลือกที่ดูเหมาะสมก็คือ 00:05:01.269 --> 00:05:03.047 คิดดูนะ ใครที่ประสบความสำเร็จ ที่ฟอกซ์นิวส์ 00:05:03.071 --> 00:05:06.651 ฉันเดาว่า น่าจะเป็นใครสักคนที่อยู่ มาได้สัก 4 ปี 00:05:06.675 --> 00:05:08.329 และได้เลื่อนตำแหน่ง อย่างน้อยหนึ่งครั้ง 00:05:08.816 --> 00:05:10.377 ฟังดูเข้าท่าดีใช่มั้ยล่ะ 00:05:10.401 --> 00:05:12.755 และอัลกอริทึมก็จะถูกฝึกสอน 00:05:12.779 --> 00:05:16.656 มันจะถูกสอนให้มองหาผู้สมัคร มองหาลักษณะที่จะนำไปสู่ความสำเร็จ 00:05:17.219 --> 00:05:21.537 ใบสมัครแบบไหน ที่จะประสบความสำเร็จ จากในอดีตที่ผ่านมา 00:05:21.561 --> 00:05:22.855 ตามนิยามความสำเร็จ 00:05:24.200 --> 00:05:25.975 ลองคิดดูซิว่า จะเกิดอะไรขึ้น 00:05:25.999 --> 00:05:28.554 ถ้าเราเอามาประยุกต์ใช้กับ กลุ่มผู้สมัครในปัจจุบัน 00:05:29.119 --> 00:05:30.748 มันจะคัดกรองเอาผู้หญิงออกไป 00:05:31.663 --> 00:05:35.593 เพราะผู้หญิงดูไม่เหมือนกับ คนที่จะประสบความสำเร็จในอดีต NOTE Paragraph 00:05:39.752 --> 00:05:42.289 อัลกอริทึมไม่ได้ ทำให้เกิดความยุติธรรมขึ้นนะคะ 00:05:42.313 --> 00:05:45.007 ถ้าคุณแค่หลับหูหลับตา เอาอัลกอริทึมมาใช้ 00:05:45.031 --> 00:05:46.513 มันไม่ทำให้เกิดความเป็นธรรม 00:05:46.537 --> 00:05:48.665 มันแค่ทำซ้ำสิ่งที่เคยปฏิบัติมาในอดีต 00:05:48.689 --> 00:05:49.872 รูปแบบของเรา 00:05:49.896 --> 00:05:51.835 มันแค่ทำสถานะปัจจุบันให้เป็นอัตโนมัติ 00:05:52.718 --> 00:05:55.107 ซึ่งมันคงจะเป็นเรื่องเยี่ยม ถ้าเราอยู่ในโลกที่สมบูรณ์แบบ 00:05:55.905 --> 00:05:57.217 แต่เราไม่ได้อยู่ 00:05:57.241 --> 00:06:01.343 และฉันจะเพิ่มเติมอีกว่า ถึงบริษัทส่วนใหญ่จะไม่ได้มีคดีอื้อฉาว 00:06:02.446 --> 00:06:05.034 แต่เหล่านักวิทยาการข้อมูลในบริษัทเหล่านั้น 00:06:05.058 --> 00:06:07.247 ได้รับคำสั่งให้ถือข้อมูลเป็นหลัก 00:06:07.271 --> 00:06:09.414 ให้เน้นไปที่ความถูกต้องแม่นยำ 00:06:10.273 --> 00:06:11.654 ลองคิดดูว่า นั่นหมายความว่าอย่างไร 00:06:11.678 --> 00:06:15.705 เนื่องจากเราต่างก็มีอคติ มันหมายความว่า เรากำลังสร้างการเหยียดเพศ 00:06:15.729 --> 00:06:17.565 หรือความอคติดื้อรั้นบางอย่างลงในระบบ NOTE Paragraph 00:06:19.488 --> 00:06:20.909 มาทดลองด้านความคิดกันหน่อย 00:06:20.933 --> 00:06:22.442 เพราะฉันชอบทำ 00:06:23.574 --> 00:06:26.549 สังคมแห่งหนึ่งที่มีความแบ่งแยกอย่างสมบูรณ์ 00:06:28.247 --> 00:06:31.575 แบ่งแยกกันด้านเชื้อชาติ ในทุกเมือง ทุกชุมชน 00:06:31.599 --> 00:06:34.636 และเราส่งตำรวจไปแค่ที่ชุมชน ของคนกลุ่มเสียงข้างน้อยเท่านั้น 00:06:34.660 --> 00:06:35.853 เพื่อตรวจหาอาชญากรรม 00:06:36.451 --> 00:06:38.670 ข้อมูลการจับกุมก็จะมีความลำเอียงเป็นอย่างมาก 00:06:39.851 --> 00:06:42.426 นอกจากนั้นแล้ว ถ้าเราหานักวิทยาการข้อมูลและจ้าง 00:06:42.450 --> 00:06:46.611 ให้พวกเขาเหล่านั้น ทำนายว่า อาชญากรรมครั้งต่อไปจะเกิดที่ไหน 00:06:47.275 --> 00:06:48.762 ชุมชนของคนกลุ่มน้อย 00:06:49.285 --> 00:06:52.410 หรือเพื่อทำนายว่า อาชญากรคนต่อไปจะเป็นใคร? 00:06:52.888 --> 00:06:54.283 คนกลุ่มน้อย 00:06:55.949 --> 00:06:59.490 นักวิทยาการข้อมูลก็คงจะอวดโอ่ ได้ว่าโมเดลของพวกเขานั้น 00:06:59.514 --> 00:07:00.811 ยอดเยี่ยมและแม่นยำเพียงใด 00:07:00.835 --> 00:07:02.134 และพวกเขาก็คงจะเป็นฝ่ายถูก NOTE Paragraph 00:07:03.951 --> 00:07:08.566 ในความเป็นจริงแล้ว มันคงไม่สุดขั้วขนาดนั้น แต่เราก็มีปัญหาการแบ่งแยกที่รุนแรง 00:07:08.590 --> 00:07:09.877 ในหลายๆ เมืองทั้งเล็กและใหญ่ 00:07:09.901 --> 00:07:11.794 และเรายังมีหลักฐานอีกมากมาย 00:07:11.818 --> 00:07:14.506 ของข้อมูลเกี่ยวกับ กระบวนการยุติธรรมที่มีอคติ 00:07:15.632 --> 00:07:18.447 และเราก็มีการพยากรณ์จุดเสี่ยงจริงๆ 00:07:18.471 --> 00:07:20.001 คือตำแหน่งที่จะเกิดอาชญากรรมขึ้น 00:07:20.401 --> 00:07:24.267 และเราก็มีการพยากรณ์การเกิด อาชญากรรมจริงๆ 00:07:24.291 --> 00:07:26.061 การเกิดอาชญากรรมของแต่ละบุคคล 00:07:26.972 --> 00:07:30.935 องค์กรสื่อที่เรียกว่า โปรพับลิก้า ได้ทำการศึกษาเมื่อเร็วๆ นี้ 00:07:30.959 --> 00:07:32.983 เกี่ยวกับอัลกอริทึม ที่เรียกกันว่า 00:07:33.007 --> 00:07:34.170 "ความเสี่ยงที่จะทำผิดซ้ำซาก" 00:07:34.194 --> 00:07:37.388 ที่ถูกใช้ในรัฐฟลอริด้า ในระหว่างกระบวนการตัดสินของศาล 00:07:38.411 --> 00:07:41.996 เบอร์นาร์ด ชายผิวดำ ทางด้านซ้าย ได้คะแนน 10 เต็ม 10 00:07:43.179 --> 00:07:45.186 ส่วนดีแลน ทางด้านขวา ได้ 3 เต็ม 10 00:07:45.210 --> 00:07:47.711 10 เต็ม 10 ความเสี่ยงสูง 3 เต็ม 10 ความเสี่ยงต่ำ 00:07:48.598 --> 00:07:50.983 พวกเราถูกคุมตัวมาด้วยข้อหา มียาเสพติดในครอบครอง 00:07:51.007 --> 00:07:52.161 ทั้งคู่ต่างก็มีประวัติอาชญากรรม 00:07:52.185 --> 00:07:54.991 แต่ดีแลนมีความผิดอุกฉกรรจ์ร่วมด้วย 00:07:55.015 --> 00:07:56.191 แต่เบอร์นาร์ดไม่มี 00:07:57.818 --> 00:08:00.884 เรื่องนี้เป็นประเด็น เพราะว่า ยิ่งคุณได้คะแนนสูงเท่าไหร่ 00:08:00.908 --> 00:08:04.381 ยิ่งมีโอกาสที่จะต้องโทษ เป็นเวลาที่ยาวนานกว่า NOTE Paragraph 00:08:06.294 --> 00:08:07.588 นี่มันเกิดอะไรขึ้น? 00:08:08.526 --> 00:08:09.858 การฟอกข้อมูล 00:08:10.930 --> 00:08:15.357 มันคือกระบวนการที่ นักเทคโนโลยีซ่อนความจริงที่น่าเกลียด 00:08:15.381 --> 00:08:17.202 เอาไว้ภายในกล่องดำของอัลกอริทึม 00:08:17.226 --> 00:08:18.516 แล้วเรียกมันว่า ภววิสัย 00:08:19.320 --> 00:08:20.888 เรียกมันว่า คุณธรรมนิยม 00:08:23.118 --> 00:08:25.503 เมื่อมันเป็นความลับ มีความสำคัญ และมีอำนาจทำลายล้าง 00:08:25.527 --> 00:08:28.014 ฉันเลยบัญญัติศัพท์เรียกอัลกอริทึมพวกนี้ว่า 00:08:28.038 --> 00:08:30.037 "อาวุธทำลายล้างด้วยคณิตศาสตร์" NOTE Paragraph 00:08:30.061 --> 00:08:31.625 (เสียงหัวเราะ) NOTE Paragraph 00:08:31.649 --> 00:08:34.703 (เสียงปรบมือ) NOTE Paragraph 00:08:34.727 --> 00:08:37.081 พวกมันอยู่ทุกหนแห่ง และนี่ไม่ใช่ความผิดพลาด 00:08:37.695 --> 00:08:41.418 นี่คือเหล่าบริษัทเอกชน ที่สร้างอัลกอริทึมภาคเอกชน 00:08:41.442 --> 00:08:42.834 เพื่อผลประโยชน์ของเอกชน 00:08:43.214 --> 00:08:46.428 แม้กระทั่งเรื่องที่ฉันพูดถึง เกี่ยวกับครูและตำรวจสาธารณะ 00:08:46.452 --> 00:08:48.321 อัลกอริทึมเหล่านั้นถูกสร้างโดย บริษัทเอกชน 00:08:48.345 --> 00:08:50.576 และขายให้กับหน่วยงานของรัฐ 00:08:50.600 --> 00:08:52.473 พวกเขาเรียกมันว่า "สูตรลับ" 00:08:52.497 --> 00:08:54.625 และนั่นเป็นสาเหตุที่พวกเขาบอกเราไม่ได้ 00:08:54.649 --> 00:08:56.869 และมันยังเป็นอำนาจของเอกชนด้วย 00:08:57.924 --> 00:09:02.619 พวกเขาได้กำไรจากการใช้ อำนาจที่ลึกลับและตรวจสอบไม่ได้ 00:09:05.114 --> 00:09:08.048 ถึงตอนนี้คุณอาจจะคิดว่า ในเมื่อของพวกนี้เป็นของเอกชน 00:09:08.072 --> 00:09:09.230 และมันมีการแข่งขัน 00:09:09.254 --> 00:09:11.560 บางทีสภาพตลาดเสรี อาจจะช่วยแก้ปัญหานี้ให้ได้ 00:09:11.584 --> 00:09:12.833 มันแก้ไม่ได้ 00:09:12.857 --> 00:09:15.977 เพราะมีความร่ำรวยมหาศาล ที่ถูกสร้างขึ้นมาได้จากความไม่ยุติธรรม NOTE Paragraph 00:09:17.127 --> 00:09:20.496 และอีกอย่าง คนเราก็ไม่ได้มีความ เป็นเหตุเป็นผลนักในทางเศรษฐศาสตร์ 00:09:21.031 --> 00:09:22.323 เราต่างก็มีอคติกันอยู่ทุกคน 00:09:22.960 --> 00:09:26.337 เราต่างก็มีความเหยียดเชื้อชาติและอคติ ในแบบที่เราไม่คิดว่าจะมี 00:09:26.361 --> 00:09:28.380 หรือในแบบที่เราเองก็ไม่รู้ตัว 00:09:29.352 --> 00:09:32.433 แต่เรารู้ว่า ในภาพรวมระดับสังคม เรามีอคติเหล่านี้ 00:09:32.457 --> 00:09:35.677 เพราะว่านักสังคมวิทยา ได้สาธิตให้เราเห็นอคติเหล่านี้ 00:09:35.701 --> 00:09:37.366 อยู่บ่อยๆ ผ่านการทดลองต่างๆ 00:09:37.390 --> 00:09:39.958 เช่นการส่งใบสมัครงานออกไป 00:09:39.982 --> 00:09:42.483 โดยระบุคุณสมบัติพอๆ กัน แต่กลุ่มหนึ่งชื่อเหมือนคนขาว 00:09:42.507 --> 00:09:44.213 อีกกลุ่มมีชื่อเหมือนคนผิวสี 00:09:44.237 --> 00:09:46.931 และผลลัพธ์ที่ออกมาก็น่าผิดหวัง อยู่เสมอมา ตลอดมาจริงๆ NOTE Paragraph 00:09:47.510 --> 00:09:49.281 ดังนั้น พวกเรานี่เองแหละที่มีอคติ 00:09:49.305 --> 00:09:52.734 และเรากำลังใส่อคติเหล่านั้น ลงไปในอัลกอริทึม 00:09:52.758 --> 00:09:54.570 โดยผ่านการเลือกว่าจะเก็บข้อมูลอะไร 00:09:54.594 --> 00:09:57.337 เหมือนที่ฉันเลือกที่จะไม่ใช้ บะหมี่กึ่งสำเร็จรูป 00:09:57.361 --> 00:09:58.986 ฉันตัดสินใจว่า มันไม่ถือเป็นอาหาร 00:09:59.010 --> 00:10:04.694 แต่โดยการเชื่อข้อมูลที่เรา เก็บมาจากผลการกระทำในอดีต 00:10:04.718 --> 00:10:06.732 และโดยการเลือกนิยามของความสำเร็จ 00:10:06.756 --> 00:10:10.739 เราจะคาดหวังว่าอัลกอริทึมจะ ออกมาดีได้อย่างไร? 00:10:10.763 --> 00:10:13.119 เราคาดหวังไม่ได้ เราต้องตรวจสอบมัน 00:10:14.165 --> 00:10:15.874 เราต้องตรวจสอบมัน ในแง่ความเป็นธรรม NOTE Paragraph 00:10:15.898 --> 00:10:18.609 ข่าวดีก็คือ เราสามารถตรวจสอบ ความเป็นธรรมของมันได้ 00:10:18.633 --> 00:10:21.985 อัลกอริทึมสามารถถูกสอบสวนได้ 00:10:22.009 --> 00:10:24.043 และมันจะบอกความจริงเราทุกครั้ง 00:10:24.067 --> 00:10:26.560 และเราสามารถซ่อมแซมมันได้ เราทำให้มันดีขึ้นได้ 00:10:26.584 --> 00:10:28.959 ฉันเรียกมันว่า "การตรวจสอบอัลกอริทึม" 00:10:28.983 --> 00:10:30.662 และฉันจะเล่าให้พวกคุณฟัง NOTE Paragraph 00:10:30.686 --> 00:10:32.882 สิ่งแรกคือ การตรวจสอบความสอดคล้องของข้อมูล 00:10:34.132 --> 00:10:36.789 สำหรับอัลกอริทึมความเสี่ยง ที่จะทำผิดซ้ำที่ได้เล่าไปแล้ว 00:10:37.582 --> 00:10:41.155 การตรวจสอบข้อมูลหมายถึง การที่เราต้องตระหนักความจริงที่ว่า 00:10:41.179 --> 00:10:44.705 ในสหรัฐนั้น ทั้งคนขาวและคนดำ ต่างก็เสพยาในอัตราเดียวกัน 00:10:44.729 --> 00:10:47.214 แต่คนดำนั้นมีโอกาสสูงกว่ามาก ที่จะถูกจับ 00:10:47.238 --> 00:10:50.422 สูงกว่ามากถึง 4 หรือ 5 เท่า ขึ้นอยู่กับสถานที่ 00:10:51.317 --> 00:10:54.143 แล้วอคตินั้นเป็นอย่างไร ในอาชญากรรมประเภทอื่นๆ 00:10:54.167 --> 00:10:55.618 แล้วเราจะนำปัจจัยมาพิจารณาอย่างไร NOTE Paragraph 00:10:56.162 --> 00:10:59.201 อย่างที่สอง เราควรจะคิดถึง นิยามของความสำเร็จ 00:10:59.225 --> 00:11:00.606 ตรวจสอบนิยามเหล่านั้น 00:11:00.630 --> 00:11:03.382 จำไว้ว่า ในอัลกอริทึมการว่าจ้าง ที่เราได้พูดถึงนั้น 00:11:03.406 --> 00:11:06.571 ใครบางคนที่อยู่มาสี่ปีและได้ เลื่อนขั้นอย่างน้อยครั้งหนึ่ง 00:11:06.595 --> 00:11:08.364 นั่นถือว่าเป็นพนักงานที่ประสบความสำเร็จ 00:11:08.388 --> 00:11:11.467 แต่นั่นก็เป็นพนักงานที่ได้รับการสนับสนุน จากวัฒนธรรมของพวกเขาด้วย 00:11:12.089 --> 00:11:14.015 หมายความว่า มันสามารถที่จะลำเอียงได้มาก 00:11:14.039 --> 00:11:16.104 เราจำเป็นต้องแยกสองอย่างนี้ออกจากกัน 00:11:16.128 --> 00:11:18.554 เราน่าจะดูการปิดตาคัดตัว ที่ใช้ในวงออร์เคสตรา 00:11:18.578 --> 00:11:19.774 เป็นตัวอย่าง 00:11:19.798 --> 00:11:22.554 นั่นคือเมื่อคนที่กำลังทดสอบ ถูกกั้นอยู่หลังม่าน 00:11:22.946 --> 00:11:24.877 สิ่งที่ฉันคิดก็คือ 00:11:24.901 --> 00:11:28.318 นั่นทำให้คนที่กำลังฟังอยู่ สามารถตัดสินใจได้ว่า อะไรเป็นสิ่งสำคัญ 00:11:28.342 --> 00:11:30.371 และพวกเขาได้ตัดสินใจแล้วว่า อะไรไม่ใช่สิ่งสำคัญ 00:11:30.395 --> 00:11:32.454 และจะไม่ยอมให้เกิดการ เบี่ยงเบนความสนใจไปได้ 00:11:32.961 --> 00:11:35.710 เมื่อเริ่มมีการคัดตัวสมาชิก วงออร์เคสตราแบบปิดตา 00:11:35.734 --> 00:11:39.178 จำนวนของนักดนตรีหญิง ในวงออร์เคสตรา สูงขึ้นถึง 5 เท่า NOTE Paragraph 00:11:40.253 --> 00:11:42.268 ต่อมา เราจำเป็นต้องพิจารณาเรื่องความแม่นยำ 00:11:43.233 --> 00:11:46.967 นี่คือจุดที่โมเดลคุณค่าเพิ่ม สำหรับครู จะล้มเหลวในทันที 00:11:47.578 --> 00:11:49.740 จริงอยู่ที่ไม่มีอัลกอริทึมใดจะสมบูรณ์แบบ 00:11:50.620 --> 00:11:54.225 ดังนั้นเราจะต้องพิจารณาถึง ความผิดพลาดต่างๆ ของทุกอัลกอริทึม 00:11:54.836 --> 00:11:59.195 ความผิดพลาดเกิดบ่อยแค่ไหน และมันส่งผลเสียต่อใครบ้าง 00:11:59.850 --> 00:12:01.568 ความเสียหายนั้นมีต้นทุนเป็นอย่างไร NOTE Paragraph 00:12:02.434 --> 00:12:04.641 และท้ายที่สุดแล้ว เรายังต้องพิจารณาถึง 00:12:05.973 --> 00:12:08.159 ผลกระทบในระยะยาวของอัลกอริทึมต่างๆ 00:12:08.866 --> 00:12:11.073 ที่เกิดจากวงจรของเสียงตอบรับ 00:12:11.586 --> 00:12:12.822 นั่นฟังดูค่อนข้างเป็นนามธรรม 00:12:12.846 --> 00:12:15.510 แต่ลองนึกภาพว่าถ้าวิศวกรของเฟซบุ๊ค ได้เคยหยุดคิดถึงผลกระทบ 00:12:16.270 --> 00:12:21.125 ก่อนที่พวกเขาจะตัดสินใจแสดง แต่เฉพาะสิ่งที่เพื่อนๆ เราได้โพสไป NOTE Paragraph 00:12:21.761 --> 00:12:24.995 ฉันมีอีกสองประเด็นที่อยากบอก เรื่องแรกสำหรับนักวิทยาการข้อมูลทั้งหลาย 00:12:25.450 --> 00:12:28.859 เราไม่ควรทำตัวเป็นผู้ชี้ขาดความจริง 00:12:29.520 --> 00:12:33.303 เราควรเป็นผู้สื่อประเด็น ข้อถกเถียงทางศีลธรรมที่กำลังเกิดขึ้น 00:12:33.327 --> 00:12:34.621 ในสังคมวงกว้าง NOTE Paragraph 00:12:35.579 --> 00:12:37.712 (เสียงปรบมือ) NOTE Paragraph 00:12:37.736 --> 00:12:39.292 และสำหรับคุณที่เหลือ 00:12:40.011 --> 00:12:41.407 ที่ไม่ใช่นักวิทยาการข้อมูล 00:12:41.431 --> 00:12:42.929 นี่ไม่ใช่การทดสอบทางคณิตศาสตร์ 00:12:43.632 --> 00:12:44.980 นี่เป็นการต่อสู้ทางการเมือง 00:12:46.587 --> 00:12:50.494 เราจำเป็นต้องเรียกร้องความรับผิดชอบ ของผู้มีอำนาจบงการอัลกอริทึมเหล่านี้ NOTE Paragraph 00:12:52.118 --> 00:12:53.617 (เสียงปรบมือ) NOTE Paragraph 00:12:53.641 --> 00:12:57.866 ยุคแห่งความเชื่อที่มืดบอด ในโลกแห่งข้อมูลมหาศาลจะต้องสิ้นสุดลง NOTE Paragraph 00:12:57.890 --> 00:12:59.057 ขอบคุณมากค่ะ NOTE Paragraph 00:12:59.081 --> 00:13:04.384 (เสียงปรบมือ)