0:00:00.739,0:00:04.861 ดิฉันเริ่มทำงานครั้งแรก [br]เป็นคอมพิวเตอร์ โปรแกรมเมอร์ 0:00:05.463,0:00:06.841 ในปีแรกที่เรียนมหาวิทยาลัย 0:00:06.865,0:00:08.372 ตั้งแต่ยังวัยรุ่น 0:00:08.889,0:00:10.621 เริ่มทำงานเขียนโปรแกรม 0:00:10.645,0:00:12.255 ให้บริษัทได้ไม่นาน 0:00:12.799,0:00:16.434 ผู้จัดการคนหนึ่งในบริษัทนั้น[br]มาหาดิฉัน 0:00:16.458,0:00:17.726 แล้วกระซิบถามว่า 0:00:18.229,0:00:21.090 "มันจับโกหกผมได้หรือเปล่า?" 0:00:21.806,0:00:23.883 ตอนนั้น ไม่มีคนอื่นอยู่ในห้องอีก 0:00:25.032,0:00:29.421 "ใครที่ไหนจับโกหกคุณได้เหรอ?[br]แล้วเราจะกระซิบกันทำไม?" 0:00:30.266,0:00:33.373 ผู้จัดการก็ชี้[br]ไปที่คอมพิวเตอร์ 0:00:33.397,0:00:36.493 "มันจับโกหกผมได้หรือเปล่า?" 0:00:37.613,0:00:41.975 พอดีว่า ผู้จัดการคนนั้น[br]เป็นชู้อยู่กับพนักงานต้อนรับ 0:00:41.999,0:00:43.111 (เสียงหัวเราะ) 0:00:43.135,0:00:44.901 ตอนนั้น ฉันยังเป็นแค่วัยรุ่น 0:00:45.447,0:00:47.466 ฉันเลยกระซิบดัง ๆ กลับไปว่า 0:00:47.490,0:00:51.114 "ใช่ ๆ คอมพิวเตอร์มันจับโกหกได้ค่ะ" 0:00:51.138,0:00:52.944 (เสียงหัวเราะ) 0:00:52.968,0:00:55.891 ดิฉันอำไปขำ ๆ แต่ตอนนี้[br]ดิฉันกลับขำไม่ออกเสียเอง 0:00:55.915,0:00:59.183 ปัจจุบัน มีระบบคอมพิวเตอร์ 0:00:59.207,0:01:02.755 ที่สามารถตรวจจับอารมณ์[br]หรือกระทั่งคำโกหกได้ 0:01:02.779,0:01:04.823 โดยการประมวลผลใบหน้ามนุษย์ 0:01:05.248,0:01:09.401 ทั้งบริษัทโฆษณาและรัฐบาล[br]ต่างก็สนใจอย่างมาก 0:01:10.319,0:01:12.181 ดิฉันทำอาชีพคอมพิวเตอร์ โปรแกรมเมอร์ 0:01:12.205,0:01:15.318 เพราะตอนเป็นเด็ก ดิฉันชอบคณิตศาสตร์[br]และวิทยาศาสตร์มาก ๆ 0:01:15.942,0:01:19.050 แต่พอโตขึ้น[br]ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์ 0:01:19.074,0:01:22.026 ซึ่งทำให้ดิฉันไม่สบายใจเรื่อง[br]จริยธรรมทางวิทยาศาสตร์เอามาก ๆ 0:01:22.050,0:01:23.254 ดิฉันรู้สึกไม่ดีเลย 0:01:23.278,0:01:25.919 อย่างไรก็ตาม ด้วยความจำเป็นของครอบครัว 0:01:25.943,0:01:29.241 ดิฉันต้องรีบหางานทำให้เร็วที่สุดให้ได้ด้วย 0:01:29.265,0:01:32.564 ดิฉันเลยคิดว่า เอาอาชีพเชิงเทคนิค 0:01:32.588,0:01:34.384 แบบที่ดิฉันจะได้งานง่าย ๆ 0:01:34.408,0:01:38.426 และก็ไม่ต้องมาปวดหัวกับ[br]ปัญหาจริยธรรมอะไรก็แล้วกัน 0:01:39.022,0:01:40.551 ดิฉันเลยเลือกคอมพิวเตอร์ 0:01:40.575,0:01:41.679 (เสียงหัวเราะ) 0:01:41.703,0:01:45.113 ฮ่า ฮ่า ฮ่า[br]ดิฉันนี่เองกลับขำไม่ออก 0:01:45.137,0:01:47.891 ปัจจุบัน นักวิทยาศาสตร์คอมพิวเตอร์[br]กำลังสร้างแพลตฟอร์ม 0:01:47.915,0:01:52.124 ที่ควบคุมสื่อซึ่งประชากร[br]เป็นพันล้านคนดูอยู่ทุกวัน 0:01:53.052,0:01:56.874 พวกเขากำลังสร้างรถ[br]ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้ 0:01:57.707,0:02:00.920 พวกเขาสร้างแม้กระทั่งเครื่องจักร และอาวุธ 0:02:00.944,0:02:03.229 ที่คร่าชีวิตมนุษย์ในสงครามได้ 0:02:03.253,0:02:06.024 สิ่งเหล่านี้ ล้วนเกี่ยวกับจริยธรรม 0:02:07.183,0:02:09.241 เครื่องจักร มีสติปัญญาแล้ว 0:02:09.823,0:02:13.297 เราใช้คอมพิวเตอร์คำนวณ[br]เพื่อตัดสินใจเรื่องสารพัดอย่าง 0:02:13.321,0:02:15.207 รวมถึงการตัดสินใจรูปแบบใหม่ ๆ ด้วย 0:02:15.231,0:02:20.403 เราเริ่มใช้คอมพิวเตอร์[br]เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว 0:02:20.427,0:02:21.629 คำถามอัตนัย 0:02:21.653,0:02:23.978 ปลายเปิด และต้องใช้มุมมองในการตอบ 0:02:24.002,0:02:25.760 คำถามอย่างเช่น 0:02:25.784,0:02:27.434 "บริษัทควรจ้างใครดี" 0:02:28.096,0:02:30.855 "ควรแสดงอัพเดตของเฟรนด์คนไหนดี" 0:02:30.879,0:02:33.145 "นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก" 0:02:33.514,0:02:36.568 "ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี" 0:02:36.592,0:02:39.964 ใช่ค่ะ[br]เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว 0:02:39.988,0:02:41.505 แต่นี่ไม่เหมือนแต่ก่อน 0:02:41.529,0:02:43.596 นี่คือจุดพลิกผันครั้งประวัติศาสตร์ 0:02:43.620,0:02:48.957 เพราะเป็นไปไม่ได้ ที่เราจะใช้คอมพิวเตอร์[br]มาช่วยแก้ปัญหาเชิงอัตวิสัย 0:02:48.981,0:02:54.401 แบบเดียวกับที่ใช้ช่วยสร้างเครื่องบิน[br]สร้างสะพาน 0:02:54.425,0:02:55.684 หรือไปดวงจันทร์ 0:02:56.449,0:02:59.708 เครื่องบินปลอดภัยขึ้นมั้ย[br]สะพานจะแกว่งหรือพังมั้ย 0:02:59.732,0:03:04.230 เรื่องแบบนี้ เรามีจุดตรวจสอบ[br]ที่จับต้อง เห็นตรงกันได้ 0:03:04.254,0:03:06.493 และเรามีกฎธรรมชาติช่วยนำทางให้ 0:03:06.517,0:03:09.911 แต่เราไม่มีหมุดหมายหรือจุดตรวจสอบเช่นนั้น 0:03:09.935,0:03:13.898 สำหรับการตัดสิน[br]เรื่องธุระที่ยุ่งเหยิงของมนุษย์ 0:03:13.922,0:03:18.159 เรื่องยิ่งยุ่งยากขึ้นอีก[br]เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น 0:03:18.183,0:03:21.956 แต่ขณะเดียวกัน ก็โปร่งใสลดลง[br]และซับซ้อนมากขึ้น 0:03:22.542,0:03:24.582 ในทศวรรษที่ผ่านมา 0:03:24.606,0:03:27.335 อัลกอริธึ่มระดับซับซ้อน[br]ก้าวล้ำรุดหน้าอย่างยิ่ง 0:03:27.359,0:03:29.349 พวกมันตรวจจับใบหน้ามนุษย์ได้ 0:03:29.985,0:03:32.040 แกะลายมือได้ 0:03:32.436,0:03:34.502 ตรวจหาการโกงบัตรเครดิต 0:03:34.526,0:03:35.715 และบล็อกสแปมได้ 0:03:35.739,0:03:37.776 แปลภาษาได้หลากหลาย 0:03:37.800,0:03:40.374 ค้นหาเนื้องอกผ่านระบบฉายภาพได้ 0:03:40.398,0:03:42.603 เล่นหมากรุกและโกะชนะมนุษย์ได้ 0:03:43.264,0:03:47.768 ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ[br]"แมคชีน เลิร์นนิ่ง" (Machine Learning) 0:03:48.175,0:03:51.362 แมคชีน เลิร์นนิ่ง ต่างจาก[br]การเขียนโปรแกรมทั่วไป 0:03:51.386,0:03:54.971 ที่คุณเขียนคำสั่งป้อนคอมพิวเตอร์[br]อย่างละเอียด เจาะจง และรัดกุม 0:03:55.378,0:03:59.560 กรณีนี้ เป็นเหมือนการป้อนข้อมูลจำนวนมาก[br]เข้าสู่ระบบ 0:03:59.584,0:04:01.240 ซึ่งรวมถึงข้อมูลที่ไม่มีโครงสร้าง 0:04:01.264,0:04:03.542 แบบที่เกิดขึ้น เวลาเล่นอินเทอร์เนต 0:04:03.566,0:04:06.296 จากนั้น ระบบจะเรียนรู้[br]โดยประมวลย่อยข้อมูลเหล่านั้น 0:04:06.669,0:04:08.195 และที่สำคัญ 0:04:08.219,0:04:12.599 ระบบพวกนี้ไม่ได้ทำงาน[br]โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว 0:04:12.623,0:04:15.582 พวกมันจะไม่สร้างคำตอบแบบพื้น ๆ[br]แต่เป็นคำตอบที่อิงความน่าจะเป็น 0:04:15.606,0:04:19.089 "คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่" 0:04:20.023,0:04:23.093 ซึ่งมีด้านดีคือ[br]วิธีการนี้ทรงพลังเอามาก ๆ 0:04:23.117,0:04:25.193 หัวหน้าระบบเอไอของกูเกิ้ลเรียกมันว่า 0:04:25.217,0:04:27.414 "ประสิทธิผลอย่างไม่น่าเชื่อของดาต้า" 0:04:27.791,0:04:29.144 แต่ด้าบลบก็คือ 0:04:29.738,0:04:32.809 เรายังไม่เข้าใจเลยว่า[br]อะไรคือสิ่งที่ระบบเรียนรู้ 0:04:32.833,0:04:34.420 ซึ่งนี่เองคือจุดเด่นของมัน 0:04:34.946,0:04:38.744 นี่ไม่ใช่การป้อนคำสั่งให้คอมพิวเตอร์ 0:04:39.200,0:04:43.264 แต่เป็นเหมือนการฝึกลูกหมา[br]ที่เผอิญเป็นคอมพิวเตอร์ 0:04:43.288,0:04:45.659 เราไม่ได้เข้าใจหรือควบคุมอะไรมันได้เลย 0:04:46.362,0:04:47.913 นี่เองคือปัญหาของเรา 0:04:48.427,0:04:52.689 จะเกิดปัญหาขึ้น เมื่อระบบเอไอ[br]พวกนี้ตีความข้อมูลผิด 0:04:52.713,0:04:56.253 และจะเกิดปัญหาเช่นกัน[br]แม้เมื่อมันตีความถูก 0:04:56.277,0:04:59.905 เพราะเราไม่รู้ด้วยซ้ำว่าอะไรผิดหรือถูก[br]เมื่อพูดถึงปัญหาแบบอัตนัย 0:04:59.929,0:05:02.268 เราไม่รู้ว่าเจ้าสิ่งนี้คิดอะไรอยู่กันแน่ 0:05:03.493,0:05:07.176 สมมติว่ามีอัลกอริธึ่มสำหรับจ้างพนักงาน 0:05:08.123,0:05:12.434 ระบบที่ตัดสินใจจ้างพนักงาน[br]โดยใช้วิธีแมคชีน เลิร์นนิ่ง 0:05:13.052,0:05:16.631 ระบบเช่นนี้ จะถูกฝึกผ่านการป้อนข้อมูล[br]พนักงานที่เคยจ้างในอดีต 0:05:16.655,0:05:19.246 และถูกสั่งให้ค้นหาและว่าจ้าง 0:05:19.270,0:05:22.308 คนที่มีคุณสมบัติเหมือนพนักงาน[br]ระดับเยี่ยมที่มีอยู่ในปัจจุบัน 0:05:22.814,0:05:23.967 ฟังดูดี 0:05:23.991,0:05:25.990 ครั้งหนึ่ง ดิฉันเข้าประชุม 0:05:26.014,0:05:29.139 งานเสวนาที่รวมเอา[br]ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์ 0:05:29.163,0:05:30.369 คนระดับสูง ๆ 0:05:30.393,0:05:31.952 ที่ใช้ระบบแบบนี้ไว้จ้างงาน 0:05:31.976,0:05:33.622 พวกเขาตื่นเต้นมาก ๆ 0:05:33.646,0:05:38.299 พวกเขาคิดว่า ระบบจะทำให้การจ้างงาน[br]ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง 0:05:38.323,0:05:41.323 ทำให้ผู้หญิงและคนกลุ่มน้อย[br]มีโอกาสได้จ้างดีขึ้น 0:05:41.347,0:05:43.535 เมื่อเทียบกับใช้คนจ้างที่อาจมีอคติ 0:05:43.559,0:05:46.402 การจ้างงานโดยใช้มนุษย์นั้นมีอคติค่ะ 0:05:47.099,0:05:48.284 ฉันรู้ดี 0:05:48.308,0:05:51.313 ช่วงที่ฉันเป็นโปรแกรมเมอร์ใหม่ ๆ 0:05:51.337,0:05:55.205 บางครั้ง หัวหน้าของฉัน[br]จะมาหาฉัน 0:05:55.229,0:05:58.982 ตอนเช้ามาก ๆ หรือไม่ก็[br]ตอนบ่ายมาก ๆ 0:05:59.006,0:06:02.068 เธอบอกว่า "เซย์เน็ป[br]ไปกินข้าวเที่ยงกัน!" 0:06:02.724,0:06:04.891 พอดูเวลา ฉันก็จะงง 0:06:04.915,0:06:07.044 บ่าย 4 ข้าวเที่ยงเหรอ? 0:06:07.068,0:06:10.162 ตอนนั้น ฉันไม่มีเงิน[br]ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ 0:06:10.618,0:06:12.685 ต่อมา ดิฉันถึงเข้าใจเบื้องหลัง 0:06:12.709,0:06:17.255 หัวหน้าของฉันไม่ได้[br]บอกผู้ใหญ่ตามตรงว่า 0:06:17.279,0:06:20.392 โปรแกรมเมอร์ที่พวกเขาจ้าง[br]มานั้น เป็นแค่วัยรุ่นผู้หญิง 0:06:20.416,0:06:24.346 ที่ใส่กางเกงยีนส์ รองเท้าผ้าใบมาทำงาน 0:06:25.174,0:06:27.376 ดิฉันทำผลงานดี[br]แต่รูปลักษณ์นั้นไม่ผ่าน 0:06:27.400,0:06:29.099 ไม่ผ่านทั้งอายุ และเพศ 0:06:29.123,0:06:32.469 แน่นอนว่า การจ้างงานโดย[br]ไม่คำนึงถึงเพศ และเชื้อชาติ 0:06:32.493,0:06:34.358 ถูกใจฉันแน่นอน 0:06:35.031,0:06:38.372 แต่ถ้าเราใช้ระบบนี้[br]จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ 0:06:38.968,0:06:44.759 เพราะในปัจจุบันระบบคอมพิวเตอร์[br]สามารถคาดเดาเรื่องของคุณได้สารพัด 0:06:44.783,0:06:46.655 จากร่องรอยทางดิจิตอลของคุณ 0:06:46.679,0:06:49.012 ถึงแม้คุณจะไม่เปิดเผย[br]ข้อมูลเหล่านั้นเลยก็ตาม 0:06:49.506,0:06:52.433 พวกมันคาดเดาได้[br]ทั้งรสนิยมทางเพศของคุณ 0:06:52.994,0:06:54.300 บุคลิกนิสัย 0:06:54.859,0:06:56.232 แนวโน้มทางการเมือง 0:06:56.830,0:07:00.515 พวกมันสามารถทำนายได้[br]ด้วยความแม่นยำสูง 0:07:01.362,0:07:03.940 อย่าลืมค่ะ นี่แค่เรื่อง[br]ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ 0:07:03.964,0:07:05.555 เป็นแค่การคาดเดา 0:07:05.579,0:07:08.840 ดิฉันมีเพื่อนที่พัฒนา[br]ระบบคอมพิวเตอร์แบบนี้ 0:07:08.864,0:07:12.505 เพื่อทำนายความน่าจะเป็น[br]ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก 0:07:12.529,0:07:13.945 โดยใช้ข้อมูลโซเชียลมีเดีย 0:07:14.676,0:07:16.103 ผลที่ได้ น่าประทับใจมาก 0:07:16.492,0:07:19.849 ระบบของเธอสามารถทำนาย[br]แนวโน้มการเป็นโรคซึมเศร้า 0:07:19.873,0:07:23.776 ได้ล่วงหน้าหลายเดือนก่อนเกิดอาการขึ้นจริง 0:07:23.800,0:07:25.173 รู้ล่วงหน้าหลายเดือน 0:07:25.197,0:07:27.443 ยังไม่มีอาการ แต่เป็นแค่การทำนาย 0:07:27.467,0:07:32.279 เธอหวังว่าจะใช้ระบบนี้[br]เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ! 0:07:32.911,0:07:34.951 ทีนี้ ลองเอาเรื่องนี้มาคิดกับการจ้างคน 0:07:36.027,0:07:39.073 ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์[br]งานนี้ 0:07:39.097,0:07:43.806 ดิฉันพูดคุยกับผู้บริหารระดับสูง[br]ของบริษัทใหญ่ยักษ์แห่งหนึ่ง 0:07:43.830,0:07:48.408 ดิฉันถามเธอว่า "สมมติว่า[br]โดยที่คุณไม่ล่วงรู้" 0:07:48.432,0:07:54.981 ระบบคัดคนที่มีแนวโน้ม[br]เป็นโรคซึมเศร้าในอนาคตสูงออกไป 0:07:55.761,0:07:59.137 ไม่ใช่ว่าซึมเศร้าตอนนี้นะ[br]แค่อาจจะซึมเศร้าในอนาคต 0:07:59.923,0:08:03.329 ถ้ามันคัดผู้หญิงที่มีแนวโน้มสูง[br]ว่าจะตั้งครรภ์ 0:08:03.353,0:08:05.939 ในอีกปีสองปี[br]แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ 0:08:06.844,0:08:12.480 สมมติว่า มันจ้างคนบุคลิกก้าวร้าว[br]เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ 0:08:13.173,0:08:15.864 เรื่องเหล่านี้ คุณดูไม่ออก[br]โดยใช้แค่เพศจำแนก 0:08:15.888,0:08:17.390 มันอาจเหมือน ๆ กันก็ได้ 0:08:17.414,0:08:20.971 และเพราะว่านี่เป็น แมคชีน เลิร์นนิ่ง[br]ไม่ใช่การโปรแกรมแบบปกติ 0:08:20.995,0:08:25.902 จึงไม่มีตัวแปรที่ระบุว่า[br]"ความเสี่ยงซึมเศร้าสูง" 0:08:25.926,0:08:27.759 "ความเสี่ยงตั้งครรภ์สูง" 0:08:27.783,0:08:29.517 "ระดับความก้าวร้าวสูง" 0:08:29.995,0:08:33.674 คุณไม่เพียงไม่รู้ว่า[br]ระบบเลือกอะไรมา 0:08:33.698,0:08:36.021 คุณไม่รู้ด้วยซ้ำ[br]ว่าจะเริ่มหาจากตรงไหนดี 0:08:36.045,0:08:37.291 มันเหมือนกล่องดำ 0:08:37.315,0:08:40.122 มันสามารถทำนายได้[br]แต่เราไม่อาจเข้าใจมันได้ 0:08:40.486,0:08:42.855 ฉันถาม "คุณจะใช้วิธีป้องกันใด 0:08:42.879,0:08:46.552 เพื่อให้แน่ใจว่า กล่องดำของคุณ[br]ไม่ทำอะไรนอกลู่นอกทาง 0:08:48.863,0:08:52.741 เธอมองดิฉันกลับเหมือนดิฉันกำลัง[br]เหยียบหางลูกหมาอยู่ 10 ตัว 0:08:52.765,0:08:54.013 (เสียงหัวเราะ) 0:08:54.037,0:08:56.078 เธอจ้องดิฉันกลับ และพูดว่า 0:08:56.556,0:09:00.889 "อย่ามาพูดอะไรแบบนี้[br]ให้ฉันฟังอีกนะคะ" 0:09:01.458,0:09:03.492 แล้วเธอก็หันหน้า เดินหนีไป 0:09:04.064,0:09:05.550 เธอไม่ได้หยาบคายหรอกค่ะ 0:09:05.574,0:09:11.882 แค่ว่า อะไรที่ฉันไม่รู้ ไม่ใช่ปัญหาของฉัน[br]ไปไกล ๆ ไล่ด้วยสายตา 0:09:11.906,0:09:13.152 (เสียงหัวเราะ) 0:09:13.862,0:09:17.701 ระบบแบบนั้น[br]อาจมีอคติน้อยกว่า 0:09:17.725,0:09:19.828 ผู้จัดการมนุษย์ในบางด้าน 0:09:19.852,0:09:21.998 และอาจคุ้มค่าทางการเงินด้วยก็จริง 0:09:22.573,0:09:24.223 แต่ก็อาจเป็นต้นเหตุ 0:09:24.247,0:09:28.995 ที่ค่อย ๆ นำไปสู่การกีดกัน[br]คนที่มีแนวโน้มซึมเศร้า 0:09:29.019,0:09:31.312 ออกจากตลาดแรงงานไปเลย[br]โดยเราไม่รู้ตัว 0:09:31.753,0:09:34.349 นี่คือสังคมแบบที่เราอยาก[br]สร้างขึ้น 0:09:34.373,0:09:36.658 โดยที่เราไม่รู้ตัว เพราะเราให้การตัดสินใจ 0:09:36.682,0:09:40.646 อยู่ในมือของเครื่องกลที่เราเอง[br]ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ 0:09:41.265,0:09:42.723 อีกปัญหาหนึ่งคือ 0:09:43.314,0:09:47.766 ระบบเหล่านี้ มักถูกฝึกฝน[br]โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา 0:09:47.790,0:09:49.606 พฤติกรรมของมนุษย์ 0:09:50.188,0:09:53.996 ฉะนั้น มันอาจรับเอาอคติของเรา 0:09:54.020,0:09:57.613 แล้วก็หยิบอคติเหล่านั้นออกมา 0:09:57.637,0:09:58.950 ขยายให้รุนแรงขึ้น 0:09:58.974,0:10:00.392 แล้วก็แสดงผลกลับมาให้เราดู 0:10:00.416,0:10:01.878 ขณะที่เราพร่ำบอกตัวเองว่า 0:10:01.902,0:10:05.019 "เรากำลังคำนวณอย่างเป็นกลาง[br]ตามข้อเท็จจริง" 0:10:06.314,0:10:08.991 นักวิจัยพบว่าบนกูเกิ้ล 0:10:10.134,0:10:15.447 โฆษณางานรายได้สูงมีแนวโน้มจะแสดง[br]ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย 0:10:16.463,0:10:18.993 และถ้าเราเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน 0:10:19.017,0:10:23.723 ก็มีแนวโน้มที่โฆษณาซึ่งเกี่ยวข้อง[br]กับประวัติอาชญากรรมจะแสดงขึ้นมา 0:10:23.747,0:10:25.314 แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม 0:10:26.693,0:10:30.242 อคติซ่อนเร้น[br]และอัลกอริธึ่มกล่องดำแบบนี้เอง 0:10:30.266,0:10:34.239 ซึ่งบางครั้ง นักวิจัยก็เผอิญค้นพบ[br]แต่บางครั้งก็ไม่อาจรู้ได้ 0:10:34.263,0:10:36.924 ที่อาจสร้างผลกระทบ[br]ถึงขั้นเปลี่ยนชีวิตคนได้ 0:10:37.958,0:10:42.117 ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง[br]ถูกตัดสินจำคุกหกปี 0:10:42.141,0:10:43.496 ข้อหาหลบหนีตำรวจ 0:10:44.824,0:10:46.010 เรื่องนี้คุณอาจไม่รู้ 0:10:46.034,0:10:50.032 แต่เราให้อัลกอริธึ่มตัดสินใจเรื่อง[br]การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ 0:10:50.056,0:10:53.011 ผู้ต้องหาคนนั้นอยากรู้ว่า[br]คะแนนนี้มีวิธีคำนวณอย่างไร 0:10:53.795,0:10:55.460 อัลกอริธึ่มนีี้เป็นของบริษัทแสวงกำไร 0:10:55.484,0:10:59.689 บริษัทนั้นปฎิเสธที่จะให้[br]ศาลไต่สวนอัลกอริธึ่มของตนเอง 0:11:00.396,0:11:05.928 แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่หวังกำไร[br]ตรวจสอบอัลกอริธึ่มนั้น 0:11:05.952,0:11:07.968 โดยใช้ข้อมูลสาธารณะเท่าที่หาได้ 0:11:07.992,0:11:10.308 และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่ 0:11:10.332,0:11:13.961 ความสามารถในการทำนายย่ำแย่[br]ดีกว่าเดาสุ่มแค่นิดเดียว 0:11:13.985,0:11:18.401 มันให้ผลลัพธ์ที่ผิดพลาดว่า[br]ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต 0:11:18.425,0:11:22.320 สูงเป็นสองเท่าของผู้ต้องหาผิวขาว 0:11:23.891,0:11:25.455 ลองดูอีกคดีหนึ่ง 0:11:26.103,0:11:29.955 ผู้หญิงคนนี้ ไปรับน้องสาวบุญธรรม[br]กลับจากโรงเรียน 0:11:29.979,0:11:32.054 ในบรอเวิร์ด เคาน์ตี้ ฟลอริด้า[br]สายกว่าเวลา 0:11:32.757,0:11:35.113 เธอกับเพื่อน ๆ[br]วิ่งกันไปตามถนน 0:11:35.137,0:11:39.236 แล้วเจอจักรยานเด็ก[br]และสกูตเตอร์วางทิ้งไว้ 0:11:39.260,0:11:40.892 แล้วก็เอามาใช้อย่างไม่คิด 0:11:40.916,0:11:43.515 ขณะที่กำลังจะปั่นจักรยานไป[br]ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า 0:11:43.539,0:11:45.744 "เฮ้ นั่นของลูกฉันนะ" 0:11:45.768,0:11:49.062 พวกเธอเลยทิ้งจักรยาน[br]รีบเดินหนี แล้วก็ถูกจับกุม 0:11:49.086,0:11:52.723 เธอผิดจริง เธอโง่เขลา[br]แต่เธอก็อายุแค่ 18 ด้วย 0:11:52.747,0:11:55.291 เธอเคยถูกจับด้วยข้อหาเล็ก ๆ น้อย ๆ มาก่อน 0:11:55.808,0:12:00.993 ส่วนผู้ชายคนนั้น ถูกจับกุม[br]ข้อหาขโมยของในโฮมดีโป้ 0:12:01.017,0:12:03.941 มูลค่า 85 ดอลลาร์[br]เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน 0:12:04.766,0:12:09.325 แต่เขามีประวัติกรรโชคทรัพย์[br]มาแล้วถึงสองครั้ง 0:12:09.955,0:12:13.437 แต่อัลกอริธึ่มกลับให้คะแนน[br]ความเสี่ยงเธอสูง ไม่ใช่เขา 0:12:14.746,0:12:18.620 สองปีต่อมา โปรพับลิก้า พบว่า[br]เธอไม่ได้กระทำผิดซ้ำอีก 0:12:18.644,0:12:21.194 แต่ด้วยประวัติของเธอ[br]ทำให้เธอหางานทำได้ยาก 0:12:21.218,0:12:23.294 แต่ผู้ชายนั้น กลับทำความผิดซ้ำ 0:12:23.318,0:12:27.154 และตอนนี้ ต้องโทษจำคุกแปดปี[br]จากการทำผิดหนหลัง 0:12:28.088,0:12:31.457 ฉะนั้น เราต้องตรวจสอบกล่องดำของเรา 0:12:31.481,0:12:34.096 และไม่ปล่อยให้มันมีอำนาจโดย[br]ไม่มีการถ่วงดุลเช่นนี้ 0:12:34.120,0:12:36.999 (เสียงปรบมือ) 0:12:38.087,0:12:42.329 การตรวจสอบเป็นเรื่องที่ดีและสำคัญ[br]แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง 0:12:42.353,0:12:45.101 ลองดูฟีดข่าวทรงอิทธิพล[br]ของเฟซบุ้กเป็นตัวอย่าง 0:12:45.125,0:12:49.968 อันที่จัดลำดับข่าวสารทุกอย่าง[br]แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู 0:12:49.992,0:12:52.276 โดยดูจากเพื่อนและเพจที่คุณติดตามนี่แหละ 0:12:52.898,0:12:55.173 จะโชว์อะไรดีล่ะ รูปเด็กเล็ก 0:12:55.197,0:12:56.393 (เสียงหัวเราะ) 0:12:56.417,0:12:59.013 หรือโน้ตขึงขังที่คนรู้จักเขียน 0:12:59.449,0:13:01.305 หรือจะเป็นข่าวชิ้นสำคัญแต่อ่านยาก 0:13:01.329,0:13:02.811 ไม่มีคำตอบผิดถูก 0:13:02.835,0:13:05.494 เฟซบุ้กให้ความสำคัญกับ[br]การมีปฏิสัมพันธ์ต่อคอนเทนต์ 0:13:05.518,0:13:06.933 ไลค์ แชร์ คอมเมนต์ 0:13:08.168,0:13:10.864 ในเดือนสิงหาคม ค.ศ. 2014 0:13:10.888,0:13:13.550 เกิดการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่ 0:13:13.574,0:13:17.991 หลังจากเหตุการณ์ที่ตำรวจผิวขาว[br]ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย 0:13:18.015,0:13:19.585 ในสภาพการณ์ที่ีน่าสงสัย 0:13:19.974,0:13:21.981 ข่าวการประท้วงผุดเต็มฟีด 0:13:22.005,0:13:24.690 บนหน้าทวิตเตอร์[br]ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน 0:13:24.714,0:13:26.664 แต่หาไม่เจอบนเฟซบุ้กเลย 0:13:27.182,0:13:28.916 เพราะเพื่อนบนเฟซบุ้กของฉันหรือ? 0:13:28.940,0:13:30.972 ดิฉันบล็อกอัลกอริธึ่มของเฟซบุ้กเสีย 0:13:31.472,0:13:34.320 ซึ่งทำได้ยาก เพราะเฟซบุ้ก[br]จะยืนกรานแต่ให้คุณ 0:13:34.344,0:13:36.380 อยู่ใต้บงการของอัลกอริธึ่ม 0:13:36.404,0:13:38.642 แล้วก็พบว่า เพื่อน ๆ ของฉัน[br]ต่างก็พูดถึงเรื่องนี้ 0:13:38.666,0:13:41.175 แต่อัลกอริธึ่มมันไม่ยอม[br]โชว์ให้ดิฉันดู 0:13:41.199,0:13:44.241 ฉันค้นคว้าเรื่องนี้ต่อ[br]และพบว่านี่เป็นปัญหาในวงกว้าง 0:13:44.265,0:13:48.078 ข่าวเฟอร์กูสัน[br]ไม่เป็นมิตรกับอัลกอริธึ่ม 0:13:48.102,0:13:49.273 เพราะมัน "ไม่มีคนไลค์" 0:13:49.297,0:13:50.849 ใครจะไปกดไลค์ล่ะ 0:13:51.500,0:13:53.706 ขนาดคอมเมนต์ยังยากเลย 0:13:53.730,0:13:55.101 เมื่อไม่มีไลค์ หรือคอมเมนต์ 0:13:55.125,0:13:58.417 อัลกอริธึ่มจึงมีแนวโน้ม[br]จะโชว์ให้คนดูน้อยลงไปอีก 0:13:58.441,0:13:59.983 เราเลยไม่เห็นข่าวนี้เลย 0:14:00.946,0:14:02.174 แต่ในสัปดาห์นั้น 0:14:02.198,0:14:04.496 สิ่งที่อัลกอริธึ่มของเฟซบุ้กให้ความสำคัญ 0:14:04.520,0:14:06.746 คือ การท้าราดน้ำแข็งสู้โรค ALS 0:14:06.770,0:14:10.512 จุดประสงค์ดี มีการราดน้ำแข็ง[br]ได้บริจาคช่วยคน ดีค่ะ 0:14:10.536,0:14:12.440 แต่ข่าวนี้ อัลกอริธึ่มก็จะชอบมาก ๆ ไปเลย 0:14:13.219,0:14:15.832 เครื่องจักรตัดสินใจเรื่องแบบนี้ให้พวกเรา 0:14:15.856,0:14:19.353 การสนทนาประเด็นยาก ๆ[br]แต่สำคัญมาก ๆ แบบนี้ 0:14:19.377,0:14:20.932 อาจถูกกำจัดออก 0:14:20.956,0:14:23.652 หากมีเฟซบุ้กเป็นสื่อเพียงช่องทางเดียว 0:14:24.117,0:14:27.914 และท้ายที่สุด ระบบพวกนี้[br]ก็อาจผิดพลาด 0:14:27.938,0:14:30.674 ในแบบที่ต่างจากระบบของมนุษย์ไปเลยก็ได้ 0:14:30.698,0:14:33.620 พวกคุณคงรู้จักวัตสัน[br]ระบบสมองประดิษฐ์ของ IBM 0:14:33.644,0:14:36.772 ที่เอาชนะคู่แข่งมนุษย์[br]แบบขาดลอยในรายการเจพเปอร์ดี้ 0:14:37.131,0:14:38.559 มันเล่นเกมเก่งมาก 0:14:38.583,0:14:42.152 แต่ในเจพเปอร์ดี้รอบสุดท้าย[br]วัตสันต้องตอบคำถามนี้ค่ะ 0:14:42.659,0:14:45.591 "สนามบินที่ใหญ่ที่สุดของมัน[br]ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2 0:14:45.615,0:14:47.867 และเป็นสมรภูมิใหญ่เป็นที่สอง[br]ในสงครามโลกครั้งที่ 2" 0:14:47.891,0:14:49.269 (ฮัมดนตรีรายการเจพเปอร์ดี้รอบสุดท้าย) 0:14:49.582,0:14:50.764 ชิคาโก้ค่ะ 0:14:50.788,0:14:52.158 มนุษย์สองคนตอบถูกต้อง 0:14:52.697,0:14:57.045 แต่วัตสัน ตอบว่า "โตรอนโต้" 0:14:57.069,0:14:58.887 ทั้งที่คำถามเป็นหมวด เมืองในสหรัฐฯ! 0:14:59.596,0:15:02.497 ระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง 0:15:02.521,0:15:06.172 ในเรื่องที่มนุษย์ทั่วไป[br]หรือกระทั้งเด็กประถมไม่มีทางพลาด 0:15:06.823,0:15:09.932 สมองประดิษฐ์อาจทำผิดพลาดได้ 0:15:09.956,0:15:13.056 ด้วยพฤติการณ์คนละแบบกับของมนุษย์ 0:15:13.080,0:15:16.030 ในรูปแบบที่เราจะคาดไม่ถึง[br]และไม่ได้เตรียมรับมือ 0:15:16.054,0:15:19.692 การไม่ได้งานทั้งที่คุณ[br]มีคุณสมบัติพร้อมก็แย่อยู่แล้ว 0:15:19.716,0:15:23.443 แต่คงแย่สุด ๆ ถ้าไม่ได้งาน[br]เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์ 0:15:23.467,0:15:24.899 ในซับรูทีนบางตัว 0:15:24.923,0:15:26.502 (เสียงหัวเราะ) 0:15:26.526,0:15:29.312 เมื่อเดือนพฤษภาคม 2010 0:15:29.336,0:15:33.380 ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน[br]เนื่องจากลูปป้อนกลับ 0:15:33.404,0:15:36.432 ในอัลกอริธึ่มของวอลล์สตรีท 0:15:36.456,0:15:40.640 ทำให้เงินในตลาดหายไป[br]กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที 0:15:41.722,0:15:43.909 ดิฉันไม่อยากคิดเลยว่า[br]"ข้อบกพร่อง" จะเป็นแบบไหน 0:15:43.933,0:15:47.522 ถ้าเกิดเปลี่ยนเป็น[br]อาวุธอันตรายแบบอัตโนมัติแทน 0:15:49.894,0:15:53.684 มนุษย์ล้วนมีอคติกันทั้งนั้น 0:15:53.708,0:15:55.884 ทั้งผู้ตัดสินใจ และผู้ดูแลกฎ 0:15:55.908,0:15:59.401 ทั้งในศาล ในข่าว และในสงคราม 0:15:59.425,0:16:02.463 พวกเขาผิดพลาดได้ทั้งนั้น[br]แต่นั่นแหละ คือประเด็นของดิฉัน 0:16:02.487,0:16:06.008 เราหลบเลี่ยงคำถามยาก ๆ แบบนี้ไม่ได้ 0:16:06.596,0:16:10.112 เราจะถ่ายโอนความรับผิดชอบ[br]ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้ 0:16:10.676,0:16:14.884 (เสียงปรบมือ) 0:16:17.089,0:16:21.536 ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา[br]เป็นอิสระจากปัญหาเชิงจริยธรรม 0:16:22.742,0:16:26.123 นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน[br]เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing) 0:16:26.147,0:16:27.536 เราต้องทำตรงกันข้าม 0:16:27.560,0:16:32.948 เราต้องส่งเสริมการสีบสวน[br]ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม 0:16:33.380,0:16:36.578 เราต้องมั่นใจได้ว่าอัลกอริธึ่มที่ใช้[br]สามารถตรวจสอบย้อนกลับได้ 0:16:36.602,0:16:39.047 ออดิทได้ และมีความโปร่งใสอย่างเป็นรูปธรรม 0:16:39.380,0:16:42.614 เราต้องยอมรับว่า[br]การเอาคณิตศาสตร์และคอมพิวเตอร์ 0:16:42.638,0:16:45.608 มาใช้แก้ปัญหาของมนุษย์ที่กำกวม[br]และแฝงความเชื่อทางสังคม 0:16:45.632,0:16:48.016 ไม่ได้ทำให้เกิดความเที่ยงตรง[br]อย่างภววิสัย 0:16:48.040,0:16:51.673 แต่ความซับซ้อนของปัญหามนุษย์[br]จะเล่นงานอัลกอริธึ่มแทน 0:16:52.148,0:16:55.635 จริงค่ะ คอมพิวเตอร์นั้น[br]เราใช้ได้ และควรใช้ด้วย 0:16:55.659,0:16:57.673 เพื่อให้เราตัดสินใจได้ดีขึ้น 0:16:57.697,0:17:03.029 แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรม[br]ในการตัดสินใจนั้น 0:17:03.053,0:17:05.871 แล้วใช้อัลกอริธึ่มภายในขอบเขตนั้น 0:17:05.895,0:17:10.830 ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน[br]ความรับผิดชอบของเรา 0:17:10.854,0:17:13.308 ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน 0:17:13.807,0:17:16.416 เรามีสมองประดิษฐ์ไว้ใช้แล้ว 0:17:16.440,0:17:19.861 นั่นหมายความว่า เรายิ่งต้องยึดมั่น 0:17:19.885,0:17:22.032 ในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์ 0:17:22.056,0:17:23.210 ขอบคุณค่ะ 0:17:23.234,0:17:28.254 (เสียงปรบมือ)