1 00:00:00,739 --> 00:00:04,861 ดิฉันเริ่มทำงานครั้งแรก เป็นคอมพิวเตอร์ โปรแกรมเมอร์ 2 00:00:05,463 --> 00:00:06,841 ในปีแรกที่เรียนมหาวิทยาลัย 3 00:00:06,865 --> 00:00:08,372 ตั้งแต่ยังวัยรุ่น 4 00:00:08,889 --> 00:00:10,621 เริ่มทำงานเขียนโปรแกรม 5 00:00:10,645 --> 00:00:12,255 ให้บริษัทได้ไม่นาน 6 00:00:12,799 --> 00:00:16,434 ผู้จัดการคนหนึ่งในบริษัทนั้น มาหาดิฉัน 7 00:00:16,458 --> 00:00:17,726 แล้วกระซิบถามว่า 8 00:00:18,229 --> 00:00:21,090 "มันจับโกหกผมได้หรือเปล่า?" 9 00:00:21,806 --> 00:00:23,883 ตอนนั้น ไม่มีคนอื่นอยู่ในห้องอีก 10 00:00:25,032 --> 00:00:29,421 "ใครที่ไหนจับโกหกคุณได้เหรอ? แล้วเราจะกระซิบกันทำไม?" 11 00:00:30,266 --> 00:00:33,373 ผู้จัดการก็ชี้ ไปที่คอมพิวเตอร์ 12 00:00:33,397 --> 00:00:36,493 "มันจับโกหกผมได้หรือเปล่า?" 13 00:00:37,613 --> 00:00:41,975 พอดีว่า ผู้จัดการคนนั้น เป็นชู้อยู่กับพนักงานต้อนรับ 14 00:00:41,999 --> 00:00:43,111 (เสียงหัวเราะ) 15 00:00:43,135 --> 00:00:44,901 ตอนนั้น ฉันยังเป็นแค่วัยรุ่น 16 00:00:45,447 --> 00:00:47,466 ฉันเลยกระซิบดัง ๆ กลับไปว่า 17 00:00:47,490 --> 00:00:51,114 "ใช่ ๆ คอมพิวเตอร์มันจับโกหกได้ค่ะ" 18 00:00:51,138 --> 00:00:52,944 (เสียงหัวเราะ) 19 00:00:52,968 --> 00:00:55,891 ดิฉันอำไปขำ ๆ แต่ตอนนี้ ดิฉันกลับขำไม่ออกเสียเอง 20 00:00:55,915 --> 00:00:59,183 ปัจจุบัน มีระบบคอมพิวเตอร์ 21 00:00:59,207 --> 00:01:02,755 ที่สามารถตรวจจับอารมณ์ หรือกระทั่งคำโกหกได้ 22 00:01:02,779 --> 00:01:04,823 โดยการประมวลผลใบหน้ามนุษย์ 23 00:01:05,248 --> 00:01:09,401 ทั้งบริษัทโฆษณาและรัฐบาล ต่างก็สนใจอย่างมาก 24 00:01:10,319 --> 00:01:12,181 ดิฉันทำอาชีพคอมพิวเตอร์ โปรแกรมเมอร์ 25 00:01:12,205 --> 00:01:15,318 เพราะตอนเป็นเด็ก ดิฉันชอบคณิตศาสตร์ และวิทยาศาสตร์มาก ๆ 26 00:01:15,942 --> 00:01:19,050 แต่พอโตขึ้น ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์ 27 00:01:19,074 --> 00:01:22,026 ซึ่งทำให้ดิฉันไม่สบายใจเรื่อง จริยธรรมทางวิทยาศาสตร์เอามาก ๆ 28 00:01:22,050 --> 00:01:23,254 ดิฉันรู้สึกไม่ดีเลย 29 00:01:23,278 --> 00:01:25,919 อย่างไรก็ตาม ด้วยความจำเป็นของครอบครัว 30 00:01:25,943 --> 00:01:29,241 ดิฉันต้องรีบหางานทำให้เร็วที่สุดให้ได้ด้วย 31 00:01:29,265 --> 00:01:32,564 ดิฉันเลยคิดว่า เอาอาชีพเชิงเทคนิค 32 00:01:32,588 --> 00:01:34,384 แบบที่ดิฉันจะได้งานง่าย ๆ 33 00:01:34,408 --> 00:01:38,426 และก็ไม่ต้องมาปวดหัวกับ ปัญหาจริยธรรมอะไรก็แล้วกัน 34 00:01:39,022 --> 00:01:40,551 ดิฉันเลยเลือกคอมพิวเตอร์ 35 00:01:40,575 --> 00:01:41,679 (เสียงหัวเราะ) 36 00:01:41,703 --> 00:01:45,113 ฮ่า ฮ่า ฮ่า ดิฉันนี่เองกลับขำไม่ออก 37 00:01:45,137 --> 00:01:47,891 ปัจจุบัน นักวิทยาศาสตร์คอมพิวเตอร์ กำลังสร้างแพลตฟอร์ม 38 00:01:47,915 --> 00:01:52,124 ที่ควบคุมสื่อซึ่งประชากร เป็นพันล้านคนดูอยู่ทุกวัน 39 00:01:53,052 --> 00:01:56,874 พวกเขากำลังสร้างรถ ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้ 40 00:01:57,707 --> 00:02:00,920 พวกเขาสร้างแม้กระทั่งเครื่องจักร และอาวุธ 41 00:02:00,944 --> 00:02:03,229 ที่คร่าชีวิตมนุษย์ในสงครามได้ 42 00:02:03,253 --> 00:02:06,024 สิ่งเหล่านี้ ล้วนเกี่ยวกับจริยธรรม 43 00:02:07,183 --> 00:02:09,241 เครื่องจักร มีสติปัญญาแล้ว 44 00:02:09,823 --> 00:02:13,297 เราใช้คอมพิวเตอร์คำนวณ เพื่อตัดสินใจเรื่องสารพัดอย่าง 45 00:02:13,321 --> 00:02:15,207 รวมถึงการตัดสินใจรูปแบบใหม่ ๆ ด้วย 46 00:02:15,231 --> 00:02:20,403 เราเริ่มใช้คอมพิวเตอร์ เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว 47 00:02:20,427 --> 00:02:21,629 คำถามอัตนัย 48 00:02:21,653 --> 00:02:23,978 ปลายเปิด และต้องใช้มุมมองในการตอบ 49 00:02:24,002 --> 00:02:25,760 คำถามอย่างเช่น 50 00:02:25,784 --> 00:02:27,434 "บริษัทควรจ้างใครดี" 51 00:02:28,096 --> 00:02:30,855 "ควรแสดงอัพเดตของเฟรนด์คนไหนดี" 52 00:02:30,879 --> 00:02:33,145 "นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก" 53 00:02:33,514 --> 00:02:36,568 "ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี" 54 00:02:36,592 --> 00:02:39,964 ใช่ค่ะ เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว 55 00:02:39,988 --> 00:02:41,505 แต่นี่ไม่เหมือนแต่ก่อน 56 00:02:41,529 --> 00:02:43,596 นี่คือจุดพลิกผันครั้งประวัติศาสตร์ 57 00:02:43,620 --> 00:02:48,957 เพราะเป็นไปไม่ได้ ที่เราจะใช้คอมพิวเตอร์ มาช่วยแก้ปัญหาเชิงอัตวิสัย 58 00:02:48,981 --> 00:02:54,401 แบบเดียวกับที่ใช้ช่วยสร้างเครื่องบิน สร้างสะพาน 59 00:02:54,425 --> 00:02:55,684 หรือไปดวงจันทร์ 60 00:02:56,449 --> 00:02:59,708 เครื่องบินปลอดภัยขึ้นมั้ย สะพานจะแกว่งหรือพังมั้ย 61 00:02:59,732 --> 00:03:04,230 เรื่องแบบนี้ เรามีจุดตรวจสอบ ที่จับต้อง เห็นตรงกันได้ 62 00:03:04,254 --> 00:03:06,493 และเรามีกฎธรรมชาติช่วยนำทางให้ 63 00:03:06,517 --> 00:03:09,911 แต่เราไม่มีหมุดหมายหรือจุดตรวจสอบเช่นนั้น 64 00:03:09,935 --> 00:03:13,898 สำหรับการตัดสิน เรื่องธุระที่ยุ่งเหยิงของมนุษย์ 65 00:03:13,922 --> 00:03:18,159 เรื่องยิ่งยุ่งยากขึ้นอีก เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น 66 00:03:18,183 --> 00:03:21,956 แต่ขณะเดียวกัน ก็โปร่งใสลดลง และซับซ้อนมากขึ้น 67 00:03:22,542 --> 00:03:24,582 ในทศวรรษที่ผ่านมา 68 00:03:24,606 --> 00:03:27,335 อัลกอริธึ่มระดับซับซ้อน ก้าวล้ำรุดหน้าอย่างยิ่ง 69 00:03:27,359 --> 00:03:29,349 พวกมันตรวจจับใบหน้ามนุษย์ได้ 70 00:03:29,985 --> 00:03:32,040 แกะลายมือได้ 71 00:03:32,436 --> 00:03:34,502 ตรวจหาการโกงบัตรเครดิต 72 00:03:34,526 --> 00:03:35,715 และบล็อกสแปมได้ 73 00:03:35,739 --> 00:03:37,776 แปลภาษาได้หลากหลาย 74 00:03:37,800 --> 00:03:40,374 ค้นหาเนื้องอกผ่านระบบฉายภาพได้ 75 00:03:40,398 --> 00:03:42,603 เล่นหมากรุกและโกะชนะมนุษย์ได้ 76 00:03:43,264 --> 00:03:47,768 ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ "แมคชีน เลิร์นนิ่ง" (Machine Learning) 77 00:03:48,175 --> 00:03:51,362 แมคชีน เลิร์นนิ่ง ต่างจาก การเขียนโปรแกรมทั่วไป 78 00:03:51,386 --> 00:03:54,971 ที่คุณเขียนคำสั่งป้อนคอมพิวเตอร์ อย่างละเอียด เจาะจง และรัดกุม 79 00:03:55,378 --> 00:03:59,560 กรณีนี้ เป็นเหมือนการป้อนข้อมูลจำนวนมาก เข้าสู่ระบบ 80 00:03:59,584 --> 00:04:01,240 ซึ่งรวมถึงข้อมูลที่ไม่มีโครงสร้าง 81 00:04:01,264 --> 00:04:03,542 แบบที่เกิดขึ้น เวลาเล่นอินเทอร์เนต 82 00:04:03,566 --> 00:04:06,296 จากนั้น ระบบจะเรียนรู้ โดยประมวลย่อยข้อมูลเหล่านั้น 83 00:04:06,669 --> 00:04:08,195 และที่สำคัญ 84 00:04:08,219 --> 00:04:12,599 ระบบพวกนี้ไม่ได้ทำงาน โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว 85 00:04:12,623 --> 00:04:15,582 พวกมันจะไม่สร้างคำตอบแบบพื้น ๆ แต่เป็นคำตอบที่อิงความน่าจะเป็น 86 00:04:15,606 --> 00:04:19,089 "คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่" 87 00:04:20,023 --> 00:04:23,093 ซึ่งมีด้านดีคือ วิธีการนี้ทรงพลังเอามาก ๆ 88 00:04:23,117 --> 00:04:25,193 หัวหน้าระบบเอไอของกูเกิ้ลเรียกมันว่า 89 00:04:25,217 --> 00:04:27,414 "ประสิทธิผลอย่างไม่น่าเชื่อของดาต้า" 90 00:04:27,791 --> 00:04:29,144 แต่ด้าบลบก็คือ 91 00:04:29,738 --> 00:04:32,809 เรายังไม่เข้าใจเลยว่า อะไรคือสิ่งที่ระบบเรียนรู้ 92 00:04:32,833 --> 00:04:34,420 ซึ่งนี่เองคือจุดเด่นของมัน 93 00:04:34,946 --> 00:04:38,744 นี่ไม่ใช่การป้อนคำสั่งให้คอมพิวเตอร์ 94 00:04:39,200 --> 00:04:43,264 แต่เป็นเหมือนการฝึกลูกหมา ที่เผอิญเป็นคอมพิวเตอร์ 95 00:04:43,288 --> 00:04:45,659 เราไม่ได้เข้าใจหรือควบคุมอะไรมันได้เลย 96 00:04:46,362 --> 00:04:47,913 นี่เองคือปัญหาของเรา 97 00:04:48,427 --> 00:04:52,689 จะเกิดปัญหาขึ้น เมื่อระบบเอไอ พวกนี้ตีความข้อมูลผิด 98 00:04:52,713 --> 00:04:56,253 และจะเกิดปัญหาเช่นกัน แม้เมื่อมันตีความถูก 99 00:04:56,277 --> 00:04:59,905 เพราะเราไม่รู้ด้วยซ้ำว่าอะไรผิดหรือถูก เมื่อพูดถึงปัญหาแบบอัตนัย 100 00:04:59,929 --> 00:05:02,268 เราไม่รู้ว่าเจ้าสิ่งนี้คิดอะไรอยู่กันแน่ 101 00:05:03,493 --> 00:05:07,176 สมมติว่ามีอัลกอริธึ่มสำหรับจ้างพนักงาน 102 00:05:08,123 --> 00:05:12,434 ระบบที่ตัดสินใจจ้างพนักงาน โดยใช้วิธีแมคชีน เลิร์นนิ่ง 103 00:05:13,052 --> 00:05:16,631 ระบบเช่นนี้ จะถูกฝึกผ่านการป้อนข้อมูล พนักงานที่เคยจ้างในอดีต 104 00:05:16,655 --> 00:05:19,246 และถูกสั่งให้ค้นหาและว่าจ้าง 105 00:05:19,270 --> 00:05:22,308 คนที่มีคุณสมบัติเหมือนพนักงาน ระดับเยี่ยมที่มีอยู่ในปัจจุบัน 106 00:05:22,814 --> 00:05:23,967 ฟังดูดี 107 00:05:23,991 --> 00:05:25,990 ครั้งหนึ่ง ดิฉันเข้าประชุม 108 00:05:26,014 --> 00:05:29,139 งานเสวนาที่รวมเอา ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์ 109 00:05:29,163 --> 00:05:30,369 คนระดับสูง ๆ 110 00:05:30,393 --> 00:05:31,952 ที่ใช้ระบบแบบนี้ไว้จ้างงาน 111 00:05:31,976 --> 00:05:33,622 พวกเขาตื่นเต้นมาก ๆ 112 00:05:33,646 --> 00:05:38,299 พวกเขาคิดว่า ระบบจะทำให้การจ้างงาน ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง 113 00:05:38,323 --> 00:05:41,323 ทำให้ผู้หญิงและคนกลุ่มน้อย มีโอกาสได้จ้างดีขึ้น 114 00:05:41,347 --> 00:05:43,535 เมื่อเทียบกับใช้คนจ้างที่อาจมีอคติ 115 00:05:43,559 --> 00:05:46,402 การจ้างงานโดยใช้มนุษย์นั้นมีอคติค่ะ 116 00:05:47,099 --> 00:05:48,284 ฉันรู้ดี 117 00:05:48,308 --> 00:05:51,313 ช่วงที่ฉันเป็นโปรแกรมเมอร์ใหม่ ๆ 118 00:05:51,337 --> 00:05:55,205 บางครั้ง หัวหน้าของฉัน จะมาหาฉัน 119 00:05:55,229 --> 00:05:58,982 ตอนเช้ามาก ๆ หรือไม่ก็ ตอนบ่ายมาก ๆ 120 00:05:59,006 --> 00:06:02,068 เธอบอกว่า "เซย์เน็ป ไปกินข้าวเที่ยงกัน!" 121 00:06:02,724 --> 00:06:04,891 พอดูเวลา ฉันก็จะงง 122 00:06:04,915 --> 00:06:07,044 บ่าย 4 ข้าวเที่ยงเหรอ? 123 00:06:07,068 --> 00:06:10,162 ตอนนั้น ฉันไม่มีเงิน ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ 124 00:06:10,618 --> 00:06:12,685 ต่อมา ดิฉันถึงเข้าใจเบื้องหลัง 125 00:06:12,709 --> 00:06:17,255 หัวหน้าของฉันไม่ได้ บอกผู้ใหญ่ตามตรงว่า 126 00:06:17,279 --> 00:06:20,392 โปรแกรมเมอร์ที่พวกเขาจ้าง มานั้น เป็นแค่วัยรุ่นผู้หญิง 127 00:06:20,416 --> 00:06:24,346 ที่ใส่กางเกงยีนส์ รองเท้าผ้าใบมาทำงาน 128 00:06:25,174 --> 00:06:27,376 ดิฉันทำผลงานดี แต่รูปลักษณ์นั้นไม่ผ่าน 129 00:06:27,400 --> 00:06:29,099 ไม่ผ่านทั้งอายุ และเพศ 130 00:06:29,123 --> 00:06:32,469 แน่นอนว่า การจ้างงานโดย ไม่คำนึงถึงเพศ และเชื้อชาติ 131 00:06:32,493 --> 00:06:34,358 ถูกใจฉันแน่นอน 132 00:06:35,031 --> 00:06:38,372 แต่ถ้าเราใช้ระบบนี้ จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ 133 00:06:38,968 --> 00:06:44,759 เพราะในปัจจุบันระบบคอมพิวเตอร์ สามารถคาดเดาเรื่องของคุณได้สารพัด 134 00:06:44,783 --> 00:06:46,655 จากร่องรอยทางดิจิตอลของคุณ 135 00:06:46,679 --> 00:06:49,012 ถึงแม้คุณจะไม่เปิดเผย ข้อมูลเหล่านั้นเลยก็ตาม 136 00:06:49,506 --> 00:06:52,433 พวกมันคาดเดาได้ ทั้งรสนิยมทางเพศของคุณ 137 00:06:52,994 --> 00:06:54,300 บุคลิกนิสัย 138 00:06:54,859 --> 00:06:56,232 แนวโน้มทางการเมือง 139 00:06:56,830 --> 00:07:00,515 พวกมันสามารถทำนายได้ ด้วยความแม่นยำสูง 140 00:07:01,362 --> 00:07:03,940 อย่าลืมค่ะ นี่แค่เรื่อง ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ 141 00:07:03,964 --> 00:07:05,555 เป็นแค่การคาดเดา 142 00:07:05,579 --> 00:07:08,840 ดิฉันมีเพื่อนที่พัฒนา ระบบคอมพิวเตอร์แบบนี้ 143 00:07:08,864 --> 00:07:12,505 เพื่อทำนายความน่าจะเป็น ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก 144 00:07:12,529 --> 00:07:13,945 โดยใช้ข้อมูลโซเชียลมีเดีย 145 00:07:14,676 --> 00:07:16,103 ผลที่ได้ น่าประทับใจมาก 146 00:07:16,492 --> 00:07:19,849 ระบบของเธอสามารถทำนาย แนวโน้มการเป็นโรคซึมเศร้า 147 00:07:19,873 --> 00:07:23,776 ได้ล่วงหน้าหลายเดือนก่อนเกิดอาการขึ้นจริง 148 00:07:23,800 --> 00:07:25,173 รู้ล่วงหน้าหลายเดือน 149 00:07:25,197 --> 00:07:27,443 ยังไม่มีอาการ แต่เป็นแค่การทำนาย 150 00:07:27,467 --> 00:07:32,279 เธอหวังว่าจะใช้ระบบนี้ เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ! 151 00:07:32,911 --> 00:07:34,951 ทีนี้ ลองเอาเรื่องนี้มาคิดกับการจ้างคน 152 00:07:36,027 --> 00:07:39,073 ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์ งานนี้ 153 00:07:39,097 --> 00:07:43,806 ดิฉันพูดคุยกับผู้บริหารระดับสูง ของบริษัทใหญ่ยักษ์แห่งหนึ่ง 154 00:07:43,830 --> 00:07:48,408 ดิฉันถามเธอว่า "สมมติว่า โดยที่คุณไม่ล่วงรู้" 155 00:07:48,432 --> 00:07:54,981 ระบบคัดคนที่มีแนวโน้ม เป็นโรคซึมเศร้าในอนาคตสูงออกไป 156 00:07:55,761 --> 00:07:59,137 ไม่ใช่ว่าซึมเศร้าตอนนี้นะ แค่อาจจะซึมเศร้าในอนาคต 157 00:07:59,923 --> 00:08:03,329 ถ้ามันคัดผู้หญิงที่มีแนวโน้มสูง ว่าจะตั้งครรภ์ 158 00:08:03,353 --> 00:08:05,939 ในอีกปีสองปี แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ 159 00:08:06,844 --> 00:08:12,480 สมมติว่า มันจ้างคนบุคลิกก้าวร้าว เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ 160 00:08:13,173 --> 00:08:15,864 เรื่องเหล่านี้ คุณดูไม่ออก โดยใช้แค่เพศจำแนก 161 00:08:15,888 --> 00:08:17,390 มันอาจเหมือน ๆ กันก็ได้ 162 00:08:17,414 --> 00:08:20,971 และเพราะว่านี่เป็น แมคชีน เลิร์นนิ่ง ไม่ใช่การโปรแกรมแบบปกติ 163 00:08:20,995 --> 00:08:25,902 จึงไม่มีตัวแปรที่ระบุว่า "ความเสี่ยงซึมเศร้าสูง" 164 00:08:25,926 --> 00:08:27,759 "ความเสี่ยงตั้งครรภ์สูง" 165 00:08:27,783 --> 00:08:29,517 "ระดับความก้าวร้าวสูง" 166 00:08:29,995 --> 00:08:33,674 คุณไม่เพียงไม่รู้ว่า ระบบเลือกอะไรมา 167 00:08:33,698 --> 00:08:36,021 คุณไม่รู้ด้วยซ้ำ ว่าจะเริ่มหาจากตรงไหนดี 168 00:08:36,045 --> 00:08:37,291 มันเหมือนกล่องดำ 169 00:08:37,315 --> 00:08:40,122 มันสามารถทำนายได้ แต่เราไม่อาจเข้าใจมันได้ 170 00:08:40,486 --> 00:08:42,855 ฉันถาม "คุณจะใช้วิธีป้องกันใด 171 00:08:42,879 --> 00:08:46,552 เพื่อให้แน่ใจว่า กล่องดำของคุณ ไม่ทำอะไรนอกลู่นอกทาง 172 00:08:48,863 --> 00:08:52,741 เธอมองดิฉันกลับเหมือนดิฉันกำลัง เหยียบหางลูกหมาอยู่ 10 ตัว 173 00:08:52,765 --> 00:08:54,013 (เสียงหัวเราะ) 174 00:08:54,037 --> 00:08:56,078 เธอจ้องดิฉันกลับ และพูดว่า 175 00:08:56,556 --> 00:09:00,889 "อย่ามาพูดอะไรแบบนี้ ให้ฉันฟังอีกนะคะ" 176 00:09:01,458 --> 00:09:03,492 แล้วเธอก็หันหน้า เดินหนีไป 177 00:09:04,064 --> 00:09:05,550 เธอไม่ได้หยาบคายหรอกค่ะ 178 00:09:05,574 --> 00:09:11,882 แค่ว่า อะไรที่ฉันไม่รู้ ไม่ใช่ปัญหาของฉัน ไปไกล ๆ ไล่ด้วยสายตา 179 00:09:11,906 --> 00:09:13,152 (เสียงหัวเราะ) 180 00:09:13,862 --> 00:09:17,701 ระบบแบบนั้น อาจมีอคติน้อยกว่า 181 00:09:17,725 --> 00:09:19,828 ผู้จัดการมนุษย์ในบางด้าน 182 00:09:19,852 --> 00:09:21,998 และอาจคุ้มค่าทางการเงินด้วยก็จริง 183 00:09:22,573 --> 00:09:24,223 แต่ก็อาจเป็นต้นเหตุ 184 00:09:24,247 --> 00:09:28,995 ที่ค่อย ๆ นำไปสู่การกีดกัน คนที่มีแนวโน้มซึมเศร้า 185 00:09:29,019 --> 00:09:31,312 ออกจากตลาดแรงงานไปเลย โดยเราไม่รู้ตัว 186 00:09:31,753 --> 00:09:34,349 นี่คือสังคมแบบที่เราอยาก สร้างขึ้น 187 00:09:34,373 --> 00:09:36,658 โดยที่เราไม่รู้ตัว เพราะเราให้การตัดสินใจ 188 00:09:36,682 --> 00:09:40,646 อยู่ในมือของเครื่องกลที่เราเอง ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ 189 00:09:41,265 --> 00:09:42,723 อีกปัญหาหนึ่งคือ 190 00:09:43,314 --> 00:09:47,766 ระบบเหล่านี้ มักถูกฝึกฝน โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา 191 00:09:47,790 --> 00:09:49,606 พฤติกรรมของมนุษย์ 192 00:09:50,188 --> 00:09:53,996 ฉะนั้น มันอาจรับเอาอคติของเรา 193 00:09:54,020 --> 00:09:57,613 แล้วก็หยิบอคติเหล่านั้นออกมา 194 00:09:57,637 --> 00:09:58,950 ขยายให้รุนแรงขึ้น 195 00:09:58,974 --> 00:10:00,392 แล้วก็แสดงผลกลับมาให้เราดู 196 00:10:00,416 --> 00:10:01,878 ขณะที่เราพร่ำบอกตัวเองว่า 197 00:10:01,902 --> 00:10:05,019 "เรากำลังคำนวณอย่างเป็นกลาง ตามข้อเท็จจริง" 198 00:10:06,314 --> 00:10:08,991 นักวิจัยพบว่าบนกูเกิ้ล 199 00:10:10,134 --> 00:10:15,447 โฆษณางานรายได้สูงมีแนวโน้มจะแสดง ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย 200 00:10:16,463 --> 00:10:18,993 และถ้าเราเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน 201 00:10:19,017 --> 00:10:23,723 ก็มีแนวโน้มที่โฆษณาซึ่งเกี่ยวข้อง กับประวัติอาชญากรรมจะแสดงขึ้นมา 202 00:10:23,747 --> 00:10:25,314 แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม 203 00:10:26,693 --> 00:10:30,242 อคติซ่อนเร้น และอัลกอริธึ่มกล่องดำแบบนี้เอง 204 00:10:30,266 --> 00:10:34,239 ซึ่งบางครั้ง นักวิจัยก็เผอิญค้นพบ แต่บางครั้งก็ไม่อาจรู้ได้ 205 00:10:34,263 --> 00:10:36,924 ที่อาจสร้างผลกระทบ ถึงขั้นเปลี่ยนชีวิตคนได้ 206 00:10:37,958 --> 00:10:42,117 ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง ถูกตัดสินจำคุกหกปี 207 00:10:42,141 --> 00:10:43,496 ข้อหาหลบหนีตำรวจ 208 00:10:44,824 --> 00:10:46,010 เรื่องนี้คุณอาจไม่รู้ 209 00:10:46,034 --> 00:10:50,032 แต่เราให้อัลกอริธึ่มตัดสินใจเรื่อง การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ 210 00:10:50,056 --> 00:10:53,011 ผู้ต้องหาคนนั้นอยากรู้ว่า คะแนนนี้มีวิธีคำนวณอย่างไร 211 00:10:53,795 --> 00:10:55,460 อัลกอริธึ่มนีี้เป็นของบริษัทแสวงกำไร 212 00:10:55,484 --> 00:10:59,689 บริษัทนั้นปฎิเสธที่จะให้ ศาลไต่สวนอัลกอริธึ่มของตนเอง 213 00:11:00,396 --> 00:11:05,928 แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่หวังกำไร ตรวจสอบอัลกอริธึ่มนั้น 214 00:11:05,952 --> 00:11:07,968 โดยใช้ข้อมูลสาธารณะเท่าที่หาได้ 215 00:11:07,992 --> 00:11:10,308 และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่ 216 00:11:10,332 --> 00:11:13,961 ความสามารถในการทำนายย่ำแย่ ดีกว่าเดาสุ่มแค่นิดเดียว 217 00:11:13,985 --> 00:11:18,401 มันให้ผลลัพธ์ที่ผิดพลาดว่า ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต 218 00:11:18,425 --> 00:11:22,320 สูงเป็นสองเท่าของผู้ต้องหาผิวขาว 219 00:11:23,891 --> 00:11:25,455 ลองดูอีกคดีหนึ่ง 220 00:11:26,103 --> 00:11:29,955 ผู้หญิงคนนี้ ไปรับน้องสาวบุญธรรม กลับจากโรงเรียน 221 00:11:29,979 --> 00:11:32,054 ในบรอเวิร์ด เคาน์ตี้ ฟลอริด้า สายกว่าเวลา 222 00:11:32,757 --> 00:11:35,113 เธอกับเพื่อน ๆ วิ่งกันไปตามถนน 223 00:11:35,137 --> 00:11:39,236 แล้วเจอจักรยานเด็ก และสกูตเตอร์วางทิ้งไว้ 224 00:11:39,260 --> 00:11:40,892 แล้วก็เอามาใช้อย่างไม่คิด 225 00:11:40,916 --> 00:11:43,515 ขณะที่กำลังจะปั่นจักรยานไป ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า 226 00:11:43,539 --> 00:11:45,744 "เฮ้ นั่นของลูกฉันนะ" 227 00:11:45,768 --> 00:11:49,062 พวกเธอเลยทิ้งจักรยาน รีบเดินหนี แล้วก็ถูกจับกุม 228 00:11:49,086 --> 00:11:52,723 เธอผิดจริง เธอโง่เขลา แต่เธอก็อายุแค่ 18 ด้วย 229 00:11:52,747 --> 00:11:55,291 เธอเคยถูกจับด้วยข้อหาเล็ก ๆ น้อย ๆ มาก่อน 230 00:11:55,808 --> 00:12:00,993 ส่วนผู้ชายคนนั้น ถูกจับกุม ข้อหาขโมยของในโฮมดีโป้ 231 00:12:01,017 --> 00:12:03,941 มูลค่า 85 ดอลลาร์ เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน 232 00:12:04,766 --> 00:12:09,325 แต่เขามีประวัติกรรโชคทรัพย์ มาแล้วถึงสองครั้ง 233 00:12:09,955 --> 00:12:13,437 แต่อัลกอริธึ่มกลับให้คะแนน ความเสี่ยงเธอสูง ไม่ใช่เขา 234 00:12:14,746 --> 00:12:18,620 สองปีต่อมา โปรพับลิก้า พบว่า เธอไม่ได้กระทำผิดซ้ำอีก 235 00:12:18,644 --> 00:12:21,194 แต่ด้วยประวัติของเธอ ทำให้เธอหางานทำได้ยาก 236 00:12:21,218 --> 00:12:23,294 แต่ผู้ชายนั้น กลับทำความผิดซ้ำ 237 00:12:23,318 --> 00:12:27,154 และตอนนี้ ต้องโทษจำคุกแปดปี จากการทำผิดหนหลัง 238 00:12:28,088 --> 00:12:31,457 ฉะนั้น เราต้องตรวจสอบกล่องดำของเรา 239 00:12:31,481 --> 00:12:34,096 และไม่ปล่อยให้มันมีอำนาจโดย ไม่มีการถ่วงดุลเช่นนี้ 240 00:12:34,120 --> 00:12:36,999 (เสียงปรบมือ) 241 00:12:38,087 --> 00:12:42,329 การตรวจสอบเป็นเรื่องที่ดีและสำคัญ แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง 242 00:12:42,353 --> 00:12:45,101 ลองดูฟีดข่าวทรงอิทธิพล ของเฟซบุ้กเป็นตัวอย่าง 243 00:12:45,125 --> 00:12:49,968 อันที่จัดลำดับข่าวสารทุกอย่าง แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู 244 00:12:49,992 --> 00:12:52,276 โดยดูจากเพื่อนและเพจที่คุณติดตามนี่แหละ 245 00:12:52,898 --> 00:12:55,173 จะโชว์อะไรดีล่ะ รูปเด็กเล็ก 246 00:12:55,197 --> 00:12:56,393 (เสียงหัวเราะ) 247 00:12:56,417 --> 00:12:59,013 หรือโน้ตขึงขังที่คนรู้จักเขียน 248 00:12:59,449 --> 00:13:01,305 หรือจะเป็นข่าวชิ้นสำคัญแต่อ่านยาก 249 00:13:01,329 --> 00:13:02,811 ไม่มีคำตอบผิดถูก 250 00:13:02,835 --> 00:13:05,494 เฟซบุ้กให้ความสำคัญกับ การมีปฏิสัมพันธ์ต่อคอนเทนต์ 251 00:13:05,518 --> 00:13:06,933 ไลค์ แชร์ คอมเมนต์ 252 00:13:08,168 --> 00:13:10,864 ในเดือนสิงหาคม ค.ศ. 2014 253 00:13:10,888 --> 00:13:13,550 เกิดการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่ 254 00:13:13,574 --> 00:13:17,991 หลังจากเหตุการณ์ที่ตำรวจผิวขาว ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย 255 00:13:18,015 --> 00:13:19,585 ในสภาพการณ์ที่ีน่าสงสัย 256 00:13:19,974 --> 00:13:21,981 ข่าวการประท้วงผุดเต็มฟีด 257 00:13:22,005 --> 00:13:24,690 บนหน้าทวิตเตอร์ ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน 258 00:13:24,714 --> 00:13:26,664 แต่หาไม่เจอบนเฟซบุ้กเลย 259 00:13:27,182 --> 00:13:28,916 เพราะเพื่อนบนเฟซบุ้กของฉันหรือ? 260 00:13:28,940 --> 00:13:30,972 ดิฉันบล็อกอัลกอริธึ่มของเฟซบุ้กเสีย 261 00:13:31,472 --> 00:13:34,320 ซึ่งทำได้ยาก เพราะเฟซบุ้ก จะยืนกรานแต่ให้คุณ 262 00:13:34,344 --> 00:13:36,380 อยู่ใต้บงการของอัลกอริธึ่ม 263 00:13:36,404 --> 00:13:38,642 แล้วก็พบว่า เพื่อน ๆ ของฉัน ต่างก็พูดถึงเรื่องนี้ 264 00:13:38,666 --> 00:13:41,175 แต่อัลกอริธึ่มมันไม่ยอม โชว์ให้ดิฉันดู 265 00:13:41,199 --> 00:13:44,241 ฉันค้นคว้าเรื่องนี้ต่อ และพบว่านี่เป็นปัญหาในวงกว้าง 266 00:13:44,265 --> 00:13:48,078 ข่าวเฟอร์กูสัน ไม่เป็นมิตรกับอัลกอริธึ่ม 267 00:13:48,102 --> 00:13:49,273 เพราะมัน "ไม่มีคนไลค์" 268 00:13:49,297 --> 00:13:50,849 ใครจะไปกดไลค์ล่ะ 269 00:13:51,500 --> 00:13:53,706 ขนาดคอมเมนต์ยังยากเลย 270 00:13:53,730 --> 00:13:55,101 เมื่อไม่มีไลค์ หรือคอมเมนต์ 271 00:13:55,125 --> 00:13:58,417 อัลกอริธึ่มจึงมีแนวโน้ม จะโชว์ให้คนดูน้อยลงไปอีก 272 00:13:58,441 --> 00:13:59,983 เราเลยไม่เห็นข่าวนี้เลย 273 00:14:00,946 --> 00:14:02,174 แต่ในสัปดาห์นั้น 274 00:14:02,198 --> 00:14:04,496 สิ่งที่อัลกอริธึ่มของเฟซบุ้กให้ความสำคัญ 275 00:14:04,520 --> 00:14:06,746 คือ การท้าราดน้ำแข็งสู้โรค ALS 276 00:14:06,770 --> 00:14:10,512 จุดประสงค์ดี มีการราดน้ำแข็ง ได้บริจาคช่วยคน ดีค่ะ 277 00:14:10,536 --> 00:14:12,440 แต่ข่าวนี้ อัลกอริธึ่มก็จะชอบมาก ๆ ไปเลย 278 00:14:13,219 --> 00:14:15,832 เครื่องจักรตัดสินใจเรื่องแบบนี้ให้พวกเรา 279 00:14:15,856 --> 00:14:19,353 การสนทนาประเด็นยาก ๆ แต่สำคัญมาก ๆ แบบนี้ 280 00:14:19,377 --> 00:14:20,932 อาจถูกกำจัดออก 281 00:14:20,956 --> 00:14:23,652 หากมีเฟซบุ้กเป็นสื่อเพียงช่องทางเดียว 282 00:14:24,117 --> 00:14:27,914 และท้ายที่สุด ระบบพวกนี้ ก็อาจผิดพลาด 283 00:14:27,938 --> 00:14:30,674 ในแบบที่ต่างจากระบบของมนุษย์ไปเลยก็ได้ 284 00:14:30,698 --> 00:14:33,620 พวกคุณคงรู้จักวัตสัน ระบบสมองประดิษฐ์ของ IBM 285 00:14:33,644 --> 00:14:36,772 ที่เอาชนะคู่แข่งมนุษย์ แบบขาดลอยในรายการเจพเปอร์ดี้ 286 00:14:37,131 --> 00:14:38,559 มันเล่นเกมเก่งมาก 287 00:14:38,583 --> 00:14:42,152 แต่ในเจพเปอร์ดี้รอบสุดท้าย วัตสันต้องตอบคำถามนี้ค่ะ 288 00:14:42,659 --> 00:14:45,591 "สนามบินที่ใหญ่ที่สุดของมัน ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2 289 00:14:45,615 --> 00:14:47,867 และเป็นสมรภูมิใหญ่เป็นที่สอง ในสงครามโลกครั้งที่ 2" 290 00:14:47,891 --> 00:14:49,269 (ฮัมดนตรีรายการเจพเปอร์ดี้รอบสุดท้าย) 291 00:14:49,582 --> 00:14:50,764 ชิคาโก้ค่ะ 292 00:14:50,788 --> 00:14:52,158 มนุษย์สองคนตอบถูกต้อง 293 00:14:52,697 --> 00:14:57,045 แต่วัตสัน ตอบว่า "โตรอนโต้" 294 00:14:57,069 --> 00:14:58,887 ทั้งที่คำถามเป็นหมวด เมืองในสหรัฐฯ! 295 00:14:59,596 --> 00:15:02,497 ระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง 296 00:15:02,521 --> 00:15:06,172 ในเรื่องที่มนุษย์ทั่วไป หรือกระทั้งเด็กประถมไม่มีทางพลาด 297 00:15:06,823 --> 00:15:09,932 สมองประดิษฐ์อาจทำผิดพลาดได้ 298 00:15:09,956 --> 00:15:13,056 ด้วยพฤติการณ์คนละแบบกับของมนุษย์ 299 00:15:13,080 --> 00:15:16,030 ในรูปแบบที่เราจะคาดไม่ถึง และไม่ได้เตรียมรับมือ 300 00:15:16,054 --> 00:15:19,692 การไม่ได้งานทั้งที่คุณ มีคุณสมบัติพร้อมก็แย่อยู่แล้ว 301 00:15:19,716 --> 00:15:23,443 แต่คงแย่สุด ๆ ถ้าไม่ได้งาน เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์ 302 00:15:23,467 --> 00:15:24,899 ในซับรูทีนบางตัว 303 00:15:24,923 --> 00:15:26,502 (เสียงหัวเราะ) 304 00:15:26,526 --> 00:15:29,312 เมื่อเดือนพฤษภาคม 2010 305 00:15:29,336 --> 00:15:33,380 ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน เนื่องจากลูปป้อนกลับ 306 00:15:33,404 --> 00:15:36,432 ในอัลกอริธึ่มของวอลล์สตรีท 307 00:15:36,456 --> 00:15:40,640 ทำให้เงินในตลาดหายไป กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที 308 00:15:41,722 --> 00:15:43,909 ดิฉันไม่อยากคิดเลยว่า "ข้อบกพร่อง" จะเป็นแบบไหน 309 00:15:43,933 --> 00:15:47,522 ถ้าเกิดเปลี่ยนเป็น อาวุธอันตรายแบบอัตโนมัติแทน 310 00:15:49,894 --> 00:15:53,684 มนุษย์ล้วนมีอคติกันทั้งนั้น 311 00:15:53,708 --> 00:15:55,884 ทั้งผู้ตัดสินใจ และผู้ดูแลกฎ 312 00:15:55,908 --> 00:15:59,401 ทั้งในศาล ในข่าว และในสงคราม 313 00:15:59,425 --> 00:16:02,463 พวกเขาผิดพลาดได้ทั้งนั้น แต่นั่นแหละ คือประเด็นของดิฉัน 314 00:16:02,487 --> 00:16:06,008 เราหลบเลี่ยงคำถามยาก ๆ แบบนี้ไม่ได้ 315 00:16:06,596 --> 00:16:10,112 เราจะถ่ายโอนความรับผิดชอบ ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้ 316 00:16:10,676 --> 00:16:14,884 (เสียงปรบมือ) 317 00:16:17,089 --> 00:16:21,536 ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา เป็นอิสระจากปัญหาเชิงจริยธรรม 318 00:16:22,742 --> 00:16:26,123 นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing) 319 00:16:26,147 --> 00:16:27,536 เราต้องทำตรงกันข้าม 320 00:16:27,560 --> 00:16:32,948 เราต้องส่งเสริมการสีบสวน ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม 321 00:16:33,380 --> 00:16:36,578 เราต้องมั่นใจได้ว่าอัลกอริธึ่มที่ใช้ สามารถตรวจสอบย้อนกลับได้ 322 00:16:36,602 --> 00:16:39,047 ออดิทได้ และมีความโปร่งใสอย่างเป็นรูปธรรม 323 00:16:39,380 --> 00:16:42,614 เราต้องยอมรับว่า การเอาคณิตศาสตร์และคอมพิวเตอร์ 324 00:16:42,638 --> 00:16:45,608 มาใช้แก้ปัญหาของมนุษย์ที่กำกวม และแฝงความเชื่อทางสังคม 325 00:16:45,632 --> 00:16:48,016 ไม่ได้ทำให้เกิดความเที่ยงตรง อย่างภววิสัย 326 00:16:48,040 --> 00:16:51,673 แต่ความซับซ้อนของปัญหามนุษย์ จะเล่นงานอัลกอริธึ่มแทน 327 00:16:52,148 --> 00:16:55,635 จริงค่ะ คอมพิวเตอร์นั้น เราใช้ได้ และควรใช้ด้วย 328 00:16:55,659 --> 00:16:57,673 เพื่อให้เราตัดสินใจได้ดีขึ้น 329 00:16:57,697 --> 00:17:03,029 แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรม ในการตัดสินใจนั้น 330 00:17:03,053 --> 00:17:05,871 แล้วใช้อัลกอริธึ่มภายในขอบเขตนั้น 331 00:17:05,895 --> 00:17:10,830 ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน ความรับผิดชอบของเรา 332 00:17:10,854 --> 00:17:13,308 ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน 333 00:17:13,807 --> 00:17:16,416 เรามีสมองประดิษฐ์ไว้ใช้แล้ว 334 00:17:16,440 --> 00:17:19,861 นั่นหมายความว่า เรายิ่งต้องยึดมั่น 335 00:17:19,885 --> 00:17:22,032 ในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์ 336 00:17:22,056 --> 00:17:23,210 ขอบคุณค่ะ 337 00:17:23,234 --> 00:17:28,254 (เสียงปรบมือ)