WEBVTT 00:00:00.739 --> 00:00:04.861 ดิฉันเริ่มทำงานครั้งแรก เป็นคอมพิวเตอร์ โปรแกรมเมอร์ 00:00:05.463 --> 00:00:06.841 ในปีแรกที่เรียนมหาวิทยาลัย 00:00:06.865 --> 00:00:08.372 ตั้งแต่ยังวัยรุ่น NOTE Paragraph 00:00:08.889 --> 00:00:10.621 เริ่มทำงานเขียนโปรแกรม 00:00:10.645 --> 00:00:12.255 ให้บริษัทได้ไม่นาน 00:00:12.799 --> 00:00:16.434 ผู้จัดการคนหนึ่งในบริษัทนั้น มาหาดิฉัน 00:00:16.458 --> 00:00:17.726 แล้วกระซิบถามว่า 00:00:18.229 --> 00:00:21.090 "มันจับโกหกผมได้หรือเปล่า?" 00:00:21.806 --> 00:00:23.883 ตอนนั้น ไม่มีคนอื่นอยู่ในห้องอีก NOTE Paragraph 00:00:25.032 --> 00:00:29.421 "ใครที่ไหนจับโกหกคุณได้เหรอ? แล้วเราจะกระซิบกันทำไม?" NOTE Paragraph 00:00:30.266 --> 00:00:33.373 ผู้จัดการก็ชี้ ไปที่คอมพิวเตอร์ 00:00:33.397 --> 00:00:36.493 "มันจับโกหกผมได้หรือเปล่า?" 00:00:37.613 --> 00:00:41.975 พอดีว่า ผู้จัดการคนนั้น เป็นชู้อยู่กับพนักงานต้อนรับ NOTE Paragraph 00:00:41.999 --> 00:00:43.111 (เสียงหัวเราะ) NOTE Paragraph 00:00:43.135 --> 00:00:44.901 ตอนนั้น ฉันยังเป็นแค่วัยรุ่น 00:00:45.447 --> 00:00:47.466 ฉันเลยกระซิบดัง ๆ กลับไปว่า 00:00:47.490 --> 00:00:51.114 "ใช่ ๆ คอมพิวเตอร์มันจับโกหกได้ค่ะ" NOTE Paragraph 00:00:51.138 --> 00:00:52.944 (เสียงหัวเราะ) NOTE Paragraph 00:00:52.968 --> 00:00:55.891 ดิฉันอำไปขำ ๆ แต่ตอนนี้ ดิฉันกลับขำไม่ออกเสียเอง 00:00:55.915 --> 00:00:59.183 ปัจจุบัน มีระบบคอมพิวเตอร์ 00:00:59.207 --> 00:01:02.755 ที่สามารถตรวจจับอารมณ์ หรือกระทั่งคำโกหกได้ 00:01:02.779 --> 00:01:04.823 โดยการประมวลผลใบหน้ามนุษย์ 00:01:05.248 --> 00:01:09.401 ทั้งบริษัทโฆษณาและรัฐบาล ต่างก็สนใจอย่างมาก NOTE Paragraph 00:01:10.319 --> 00:01:12.181 ดิฉันทำอาชีพคอมพิวเตอร์ โปรแกรมเมอร์ 00:01:12.205 --> 00:01:15.318 เพราะตอนเป็นเด็ก ดิฉันชอบคณิตศาสตร์ และวิทยาศาสตร์มาก ๆ 00:01:15.942 --> 00:01:19.050 แต่พอโตขึ้น ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์ 00:01:19.074 --> 00:01:22.026 ซึ่งทำให้ดิฉันไม่สบายใจเรื่อง จริยธรรมทางวิทยาศาสตร์เอามาก ๆ 00:01:22.050 --> 00:01:23.254 ดิฉันรู้สึกไม่ดีเลย 00:01:23.278 --> 00:01:25.919 อย่างไรก็ตาม ด้วยความจำเป็นของครอบครัว 00:01:25.943 --> 00:01:29.241 ดิฉันต้องรีบหางานทำให้เร็วที่สุดให้ได้ด้วย 00:01:29.265 --> 00:01:32.564 ดิฉันเลยคิดว่า เอาอาชีพเชิงเทคนิค 00:01:32.588 --> 00:01:34.384 แบบที่ดิฉันจะได้งานง่าย ๆ 00:01:34.408 --> 00:01:38.426 และก็ไม่ต้องมาปวดหัวกับ ปัญหาจริยธรรมอะไรก็แล้วกัน 00:01:39.022 --> 00:01:40.551 ดิฉันเลยเลือกคอมพิวเตอร์ NOTE Paragraph 00:01:40.575 --> 00:01:41.679 (เสียงหัวเราะ) NOTE Paragraph 00:01:41.703 --> 00:01:45.113 ฮ่า ฮ่า ฮ่า ดิฉันนี่เองกลับขำไม่ออก 00:01:45.137 --> 00:01:47.891 ปัจจุบัน นักวิทยาศาสตร์คอมพิวเตอร์ กำลังสร้างแพลตฟอร์ม 00:01:47.915 --> 00:01:52.124 ที่ควบคุมสื่อซึ่งประชากร เป็นพันล้านคนดูอยู่ทุกวัน 00:01:53.052 --> 00:01:56.874 พวกเขากำลังสร้างรถ ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้ 00:01:57.707 --> 00:02:00.920 พวกเขาสร้างแม้กระทั่งเครื่องจักร และอาวุธ 00:02:00.944 --> 00:02:03.229 ที่คร่าชีวิตมนุษย์ในสงครามได้ 00:02:03.253 --> 00:02:06.024 สิ่งเหล่านี้ ล้วนเกี่ยวกับจริยธรรม NOTE Paragraph 00:02:07.183 --> 00:02:09.241 เครื่องจักร มีสติปัญญาแล้ว 00:02:09.823 --> 00:02:13.297 เราใช้คอมพิวเตอร์คำนวณ เพื่อตัดสินใจเรื่องสารพัดอย่าง 00:02:13.321 --> 00:02:15.207 รวมถึงการตัดสินใจรูปแบบใหม่ ๆ ด้วย 00:02:15.231 --> 00:02:20.403 เราเริ่มใช้คอมพิวเตอร์ เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว 00:02:20.427 --> 00:02:21.629 คำถามอัตนัย 00:02:21.653 --> 00:02:23.978 ปลายเปิด และต้องใช้มุมมองในการตอบ NOTE Paragraph 00:02:24.002 --> 00:02:25.760 คำถามอย่างเช่น 00:02:25.784 --> 00:02:27.434 "บริษัทควรจ้างใครดี" 00:02:28.096 --> 00:02:30.855 "ควรแสดงอัพเดตของเฟรนด์คนไหนดี" 00:02:30.879 --> 00:02:33.145 "นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก" 00:02:33.514 --> 00:02:36.568 "ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี" NOTE Paragraph 00:02:36.592 --> 00:02:39.964 ใช่ค่ะ เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว 00:02:39.988 --> 00:02:41.505 แต่นี่ไม่เหมือนแต่ก่อน 00:02:41.529 --> 00:02:43.596 นี่คือจุดพลิกผันครั้งประวัติศาสตร์ 00:02:43.620 --> 00:02:48.957 เพราะเป็นไปไม่ได้ ที่เราจะใช้คอมพิวเตอร์ มาช่วยแก้ปัญหาเชิงอัตวิสัย 00:02:48.981 --> 00:02:54.401 แบบเดียวกับที่ใช้ช่วยสร้างเครื่องบิน สร้างสะพาน 00:02:54.425 --> 00:02:55.684 หรือไปดวงจันทร์ 00:02:56.449 --> 00:02:59.708 เครื่องบินปลอดภัยขึ้นมั้ย สะพานจะแกว่งหรือพังมั้ย 00:02:59.732 --> 00:03:04.230 เรื่องแบบนี้ เรามีจุดตรวจสอบ ที่จับต้อง เห็นตรงกันได้ 00:03:04.254 --> 00:03:06.493 และเรามีกฎธรรมชาติช่วยนำทางให้ 00:03:06.517 --> 00:03:09.911 แต่เราไม่มีหมุดหมายหรือจุดตรวจสอบเช่นนั้น 00:03:09.935 --> 00:03:13.898 สำหรับการตัดสิน เรื่องธุระที่ยุ่งเหยิงของมนุษย์ NOTE Paragraph 00:03:13.922 --> 00:03:18.159 เรื่องยิ่งยุ่งยากขึ้นอีก เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น 00:03:18.183 --> 00:03:21.956 แต่ขณะเดียวกัน ก็โปร่งใสลดลง และซับซ้อนมากขึ้น 00:03:22.542 --> 00:03:24.582 ในทศวรรษที่ผ่านมา 00:03:24.606 --> 00:03:27.335 อัลกอริธึ่มระดับซับซ้อน ก้าวล้ำรุดหน้าอย่างยิ่ง 00:03:27.359 --> 00:03:29.349 พวกมันตรวจจับใบหน้ามนุษย์ได้ 00:03:29.985 --> 00:03:32.040 แกะลายมือได้ 00:03:32.436 --> 00:03:34.502 ตรวจหาการโกงบัตรเครดิต 00:03:34.526 --> 00:03:35.715 และบล็อกสแปมได้ 00:03:35.739 --> 00:03:37.776 แปลภาษาได้หลากหลาย 00:03:37.800 --> 00:03:40.374 ค้นหาเนื้องอกผ่านระบบฉายภาพได้ 00:03:40.398 --> 00:03:42.603 เล่นหมากรุกและโกะชนะมนุษย์ได้ NOTE Paragraph 00:03:43.264 --> 00:03:47.768 ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ "แมคชีน เลิร์นนิ่ง" (Machine Learning) 00:03:48.175 --> 00:03:51.362 แมคชีน เลิร์นนิ่ง ต่างจาก การเขียนโปรแกรมทั่วไป 00:03:51.386 --> 00:03:54.971 ที่คุณเขียนคำสั่งป้อนคอมพิวเตอร์ อย่างละเอียด เจาะจง และรัดกุม 00:03:55.378 --> 00:03:59.560 กรณีนี้ เป็นเหมือนการป้อนข้อมูลจำนวนมาก เข้าสู่ระบบ 00:03:59.584 --> 00:04:01.240 ซึ่งรวมถึงข้อมูลที่ไม่มีโครงสร้าง 00:04:01.264 --> 00:04:03.542 แบบที่เกิดขึ้น เวลาเล่นอินเทอร์เนต 00:04:03.566 --> 00:04:06.296 จากนั้น ระบบจะเรียนรู้ โดยประมวลย่อยข้อมูลเหล่านั้น 00:04:06.669 --> 00:04:08.195 และที่สำคัญ 00:04:08.219 --> 00:04:12.599 ระบบพวกนี้ไม่ได้ทำงาน โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว 00:04:12.623 --> 00:04:15.582 พวกมันจะไม่สร้างคำตอบแบบพื้น ๆ แต่เป็นคำตอบที่อิงความน่าจะเป็น 00:04:15.606 --> 00:04:19.089 "คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่" NOTE Paragraph 00:04:20.023 --> 00:04:23.093 ซึ่งมีด้านดีคือ วิธีการนี้ทรงพลังเอามาก ๆ 00:04:23.117 --> 00:04:25.193 หัวหน้าระบบเอไอของกูเกิ้ลเรียกมันว่า 00:04:25.217 --> 00:04:27.414 "ประสิทธิผลอย่างไม่น่าเชื่อของดาต้า" 00:04:27.791 --> 00:04:29.144 แต่ด้าบลบก็คือ 00:04:29.738 --> 00:04:32.809 เรายังไม่เข้าใจเลยว่า อะไรคือสิ่งที่ระบบเรียนรู้ 00:04:32.833 --> 00:04:34.420 ซึ่งนี่เองคือจุดเด่นของมัน 00:04:34.946 --> 00:04:38.744 นี่ไม่ใช่การป้อนคำสั่งให้คอมพิวเตอร์ 00:04:39.200 --> 00:04:43.264 แต่เป็นเหมือนการฝึกลูกหมา ที่เผอิญเป็นคอมพิวเตอร์ 00:04:43.288 --> 00:04:45.659 เราไม่ได้เข้าใจหรือควบคุมอะไรมันได้เลย 00:04:46.362 --> 00:04:47.913 นี่เองคือปัญหาของเรา 00:04:48.427 --> 00:04:52.689 จะเกิดปัญหาขึ้น เมื่อระบบเอไอ พวกนี้ตีความข้อมูลผิด 00:04:52.713 --> 00:04:56.253 และจะเกิดปัญหาเช่นกัน แม้เมื่อมันตีความถูก 00:04:56.277 --> 00:04:59.905 เพราะเราไม่รู้ด้วยซ้ำว่าอะไรผิดหรือถูก เมื่อพูดถึงปัญหาแบบอัตนัย 00:04:59.929 --> 00:05:02.268 เราไม่รู้ว่าเจ้าสิ่งนี้คิดอะไรอยู่กันแน่ NOTE Paragraph 00:05:03.493 --> 00:05:07.176 สมมติว่ามีอัลกอริธึ่มสำหรับจ้างพนักงาน 00:05:08.123 --> 00:05:12.434 ระบบที่ตัดสินใจจ้างพนักงาน โดยใช้วิธีแมคชีน เลิร์นนิ่ง 00:05:13.052 --> 00:05:16.631 ระบบเช่นนี้ จะถูกฝึกผ่านการป้อนข้อมูล พนักงานที่เคยจ้างในอดีต 00:05:16.655 --> 00:05:19.246 และถูกสั่งให้ค้นหาและว่าจ้าง 00:05:19.270 --> 00:05:22.308 คนที่มีคุณสมบัติเหมือนพนักงาน ระดับเยี่ยมที่มีอยู่ในปัจจุบัน 00:05:22.814 --> 00:05:23.967 ฟังดูดี 00:05:23.991 --> 00:05:25.990 ครั้งหนึ่ง ดิฉันเข้าประชุม 00:05:26.014 --> 00:05:29.139 งานเสวนาที่รวมเอา ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์ 00:05:29.163 --> 00:05:30.369 คนระดับสูง ๆ 00:05:30.393 --> 00:05:31.952 ที่ใช้ระบบแบบนี้ไว้จ้างงาน 00:05:31.976 --> 00:05:33.622 พวกเขาตื่นเต้นมาก ๆ 00:05:33.646 --> 00:05:38.299 พวกเขาคิดว่า ระบบจะทำให้การจ้างงาน ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง 00:05:38.323 --> 00:05:41.323 ทำให้ผู้หญิงและคนกลุ่มน้อย มีโอกาสได้จ้างดีขึ้น 00:05:41.347 --> 00:05:43.535 เมื่อเทียบกับใช้คนจ้างที่อาจมีอคติ NOTE Paragraph 00:05:43.559 --> 00:05:46.402 การจ้างงานโดยใช้มนุษย์นั้นมีอคติค่ะ 00:05:47.099 --> 00:05:48.284 ฉันรู้ดี 00:05:48.308 --> 00:05:51.313 ช่วงที่ฉันเป็นโปรแกรมเมอร์ใหม่ ๆ 00:05:51.337 --> 00:05:55.205 บางครั้ง หัวหน้าของฉัน จะมาหาฉัน 00:05:55.229 --> 00:05:58.982 ตอนเช้ามาก ๆ หรือไม่ก็ ตอนบ่ายมาก ๆ 00:05:59.006 --> 00:06:02.068 เธอบอกว่า "เซย์เน็ป ไปกินข้าวเที่ยงกัน!" 00:06:02.724 --> 00:06:04.891 พอดูเวลา ฉันก็จะงง 00:06:04.915 --> 00:06:07.044 บ่าย 4 ข้าวเที่ยงเหรอ? 00:06:07.068 --> 00:06:10.162 ตอนนั้น ฉันไม่มีเงิน ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ 00:06:10.618 --> 00:06:12.685 ต่อมา ดิฉันถึงเข้าใจเบื้องหลัง 00:06:12.709 --> 00:06:17.255 หัวหน้าของฉันไม่ได้ บอกผู้ใหญ่ตามตรงว่า 00:06:17.279 --> 00:06:20.392 โปรแกรมเมอร์ที่พวกเขาจ้าง มานั้น เป็นแค่วัยรุ่นผู้หญิง 00:06:20.416 --> 00:06:24.346 ที่ใส่กางเกงยีนส์ รองเท้าผ้าใบมาทำงาน 00:06:25.174 --> 00:06:27.376 ดิฉันทำผลงานดี แต่รูปลักษณ์นั้นไม่ผ่าน 00:06:27.400 --> 00:06:29.099 ไม่ผ่านทั้งอายุ และเพศ NOTE Paragraph 00:06:29.123 --> 00:06:32.469 แน่นอนว่า การจ้างงานโดย ไม่คำนึงถึงเพศ และเชื้อชาติ 00:06:32.493 --> 00:06:34.358 ถูกใจฉันแน่นอน 00:06:35.031 --> 00:06:38.372 แต่ถ้าเราใช้ระบบนี้ จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ 00:06:38.968 --> 00:06:44.759 เพราะในปัจจุบันระบบคอมพิวเตอร์ สามารถคาดเดาเรื่องของคุณได้สารพัด 00:06:44.783 --> 00:06:46.655 จากร่องรอยทางดิจิตอลของคุณ 00:06:46.679 --> 00:06:49.012 ถึงแม้คุณจะไม่เปิดเผย ข้อมูลเหล่านั้นเลยก็ตาม 00:06:49.506 --> 00:06:52.433 พวกมันคาดเดาได้ ทั้งรสนิยมทางเพศของคุณ 00:06:52.994 --> 00:06:54.300 บุคลิกนิสัย 00:06:54.859 --> 00:06:56.232 แนวโน้มทางการเมือง 00:06:56.830 --> 00:07:00.515 พวกมันสามารถทำนายได้ ด้วยความแม่นยำสูง 00:07:01.362 --> 00:07:03.940 อย่าลืมค่ะ นี่แค่เรื่อง ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ 00:07:03.964 --> 00:07:05.555 เป็นแค่การคาดเดา NOTE Paragraph 00:07:05.579 --> 00:07:08.840 ดิฉันมีเพื่อนที่พัฒนา ระบบคอมพิวเตอร์แบบนี้ 00:07:08.864 --> 00:07:12.505 เพื่อทำนายความน่าจะเป็น ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก 00:07:12.529 --> 00:07:13.945 โดยใช้ข้อมูลโซเชียลมีเดีย 00:07:14.676 --> 00:07:16.103 ผลที่ได้ น่าประทับใจมาก 00:07:16.492 --> 00:07:19.849 ระบบของเธอสามารถทำนาย แนวโน้มการเป็นโรคซึมเศร้า 00:07:19.873 --> 00:07:23.776 ได้ล่วงหน้าหลายเดือนก่อนเกิดอาการขึ้นจริง 00:07:23.800 --> 00:07:25.173 รู้ล่วงหน้าหลายเดือน 00:07:25.197 --> 00:07:27.443 ยังไม่มีอาการ แต่เป็นแค่การทำนาย 00:07:27.467 --> 00:07:32.279 เธอหวังว่าจะใช้ระบบนี้ เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ! 00:07:32.911 --> 00:07:34.951 ทีนี้ ลองเอาเรื่องนี้มาคิดกับการจ้างคน NOTE Paragraph 00:07:36.027 --> 00:07:39.073 ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์ งานนี้ 00:07:39.097 --> 00:07:43.806 ดิฉันพูดคุยกับผู้บริหารระดับสูง ของบริษัทใหญ่ยักษ์แห่งหนึ่ง 00:07:43.830 --> 00:07:48.408 ดิฉันถามเธอว่า "สมมติว่า โดยที่คุณไม่ล่วงรู้" 00:07:48.432 --> 00:07:54.981 ระบบคัดคนที่มีแนวโน้ม เป็นโรคซึมเศร้าในอนาคตสูงออกไป 00:07:55.761 --> 00:07:59.137 ไม่ใช่ว่าซึมเศร้าตอนนี้นะ แค่อาจจะซึมเศร้าในอนาคต 00:07:59.923 --> 00:08:03.329 ถ้ามันคัดผู้หญิงที่มีแนวโน้มสูง ว่าจะตั้งครรภ์ 00:08:03.353 --> 00:08:05.939 ในอีกปีสองปี แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ 00:08:06.844 --> 00:08:12.480 สมมติว่า มันจ้างคนบุคลิกก้าวร้าว เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ 00:08:13.173 --> 00:08:15.864 เรื่องเหล่านี้ คุณดูไม่ออก โดยใช้แค่เพศจำแนก 00:08:15.888 --> 00:08:17.390 มันอาจเหมือน ๆ กันก็ได้ 00:08:17.414 --> 00:08:20.971 และเพราะว่านี่เป็น แมคชีน เลิร์นนิ่ง ไม่ใช่การโปรแกรมแบบปกติ 00:08:20.995 --> 00:08:25.902 จึงไม่มีตัวแปรที่ระบุว่า "ความเสี่ยงซึมเศร้าสูง" 00:08:25.926 --> 00:08:27.759 "ความเสี่ยงตั้งครรภ์สูง" 00:08:27.783 --> 00:08:29.517 "ระดับความก้าวร้าวสูง" 00:08:29.995 --> 00:08:33.674 คุณไม่เพียงไม่รู้ว่า ระบบเลือกอะไรมา 00:08:33.698 --> 00:08:36.021 คุณไม่รู้ด้วยซ้ำ ว่าจะเริ่มหาจากตรงไหนดี 00:08:36.045 --> 00:08:37.291 มันเหมือนกล่องดำ 00:08:37.315 --> 00:08:40.122 มันสามารถทำนายได้ แต่เราไม่อาจเข้าใจมันได้ NOTE Paragraph 00:08:40.486 --> 00:08:42.855 ฉันถาม "คุณจะใช้วิธีป้องกันใด 00:08:42.879 --> 00:08:46.552 เพื่อให้แน่ใจว่า กล่องดำของคุณ ไม่ทำอะไรนอกลู่นอกทาง 00:08:48.863 --> 00:08:52.741 เธอมองดิฉันกลับเหมือนดิฉันกำลัง เหยียบหางลูกหมาอยู่ 10 ตัว NOTE Paragraph 00:08:52.765 --> 00:08:54.013 (เสียงหัวเราะ) NOTE Paragraph 00:08:54.037 --> 00:08:56.078 เธอจ้องดิฉันกลับ และพูดว่า 00:08:56.556 --> 00:09:00.889 "อย่ามาพูดอะไรแบบนี้ ให้ฉันฟังอีกนะคะ" 00:09:01.458 --> 00:09:03.492 แล้วเธอก็หันหน้า เดินหนีไป 00:09:04.064 --> 00:09:05.550 เธอไม่ได้หยาบคายหรอกค่ะ 00:09:05.574 --> 00:09:11.882 แค่ว่า อะไรที่ฉันไม่รู้ ไม่ใช่ปัญหาของฉัน ไปไกล ๆ ไล่ด้วยสายตา NOTE Paragraph 00:09:11.906 --> 00:09:13.152 (เสียงหัวเราะ) NOTE Paragraph 00:09:13.862 --> 00:09:17.701 ระบบแบบนั้น อาจมีอคติน้อยกว่า 00:09:17.725 --> 00:09:19.828 ผู้จัดการมนุษย์ในบางด้าน 00:09:19.852 --> 00:09:21.998 และอาจคุ้มค่าทางการเงินด้วยก็จริง 00:09:22.573 --> 00:09:24.223 แต่ก็อาจเป็นต้นเหตุ 00:09:24.247 --> 00:09:28.995 ที่ค่อย ๆ นำไปสู่การกีดกัน คนที่มีแนวโน้มซึมเศร้า 00:09:29.019 --> 00:09:31.312 ออกจากตลาดแรงงานไปเลย โดยเราไม่รู้ตัว 00:09:31.753 --> 00:09:34.349 นี่คือสังคมแบบที่เราอยาก สร้างขึ้น 00:09:34.373 --> 00:09:36.658 โดยที่เราไม่รู้ตัว เพราะเราให้การตัดสินใจ 00:09:36.682 --> 00:09:40.646 อยู่ในมือของเครื่องกลที่เราเอง ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ NOTE Paragraph 00:09:41.265 --> 00:09:42.723 อีกปัญหาหนึ่งคือ 00:09:43.314 --> 00:09:47.766 ระบบเหล่านี้ มักถูกฝึกฝน โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา 00:09:47.790 --> 00:09:49.606 พฤติกรรมของมนุษย์ 00:09:50.188 --> 00:09:53.996 ฉะนั้น มันอาจรับเอาอคติของเรา 00:09:54.020 --> 00:09:57.613 แล้วก็หยิบอคติเหล่านั้นออกมา 00:09:57.637 --> 00:09:58.950 ขยายให้รุนแรงขึ้น 00:09:58.974 --> 00:10:00.392 แล้วก็แสดงผลกลับมาให้เราดู 00:10:00.416 --> 00:10:01.878 ขณะที่เราพร่ำบอกตัวเองว่า 00:10:01.902 --> 00:10:05.019 "เรากำลังคำนวณอย่างเป็นกลาง ตามข้อเท็จจริง" NOTE Paragraph 00:10:06.314 --> 00:10:08.991 นักวิจัยพบว่าบนกูเกิ้ล 00:10:10.134 --> 00:10:15.447 โฆษณางานรายได้สูงมีแนวโน้มจะแสดง ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย 00:10:16.463 --> 00:10:18.993 และถ้าเราเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน 00:10:19.017 --> 00:10:23.723 ก็มีแนวโน้มที่โฆษณาซึ่งเกี่ยวข้อง กับประวัติอาชญากรรมจะแสดงขึ้นมา 00:10:23.747 --> 00:10:25.314 แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม 00:10:26.693 --> 00:10:30.242 อคติซ่อนเร้น และอัลกอริธึ่มกล่องดำแบบนี้เอง 00:10:30.266 --> 00:10:34.239 ซึ่งบางครั้ง นักวิจัยก็เผอิญค้นพบ แต่บางครั้งก็ไม่อาจรู้ได้ 00:10:34.263 --> 00:10:36.924 ที่อาจสร้างผลกระทบ ถึงขั้นเปลี่ยนชีวิตคนได้ NOTE Paragraph 00:10:37.958 --> 00:10:42.117 ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง ถูกตัดสินจำคุกหกปี 00:10:42.141 --> 00:10:43.496 ข้อหาหลบหนีตำรวจ 00:10:44.824 --> 00:10:46.010 เรื่องนี้คุณอาจไม่รู้ 00:10:46.034 --> 00:10:50.032 แต่เราให้อัลกอริธึ่มตัดสินใจเรื่อง การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ 00:10:50.056 --> 00:10:53.011 ผู้ต้องหาคนนั้นอยากรู้ว่า คะแนนนี้มีวิธีคำนวณอย่างไร 00:10:53.795 --> 00:10:55.460 อัลกอริธึ่มนีี้เป็นของบริษัทแสวงกำไร 00:10:55.484 --> 00:10:59.689 บริษัทนั้นปฎิเสธที่จะให้ ศาลไต่สวนอัลกอริธึ่มของตนเอง 00:11:00.396 --> 00:11:05.928 แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่หวังกำไร ตรวจสอบอัลกอริธึ่มนั้น 00:11:05.952 --> 00:11:07.968 โดยใช้ข้อมูลสาธารณะเท่าที่หาได้ 00:11:07.992 --> 00:11:10.308 และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่ 00:11:10.332 --> 00:11:13.961 ความสามารถในการทำนายย่ำแย่ ดีกว่าเดาสุ่มแค่นิดเดียว 00:11:13.985 --> 00:11:18.401 มันให้ผลลัพธ์ที่ผิดพลาดว่า ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต 00:11:18.425 --> 00:11:22.320 สูงเป็นสองเท่าของผู้ต้องหาผิวขาว NOTE Paragraph 00:11:23.891 --> 00:11:25.455 ลองดูอีกคดีหนึ่ง 00:11:26.103 --> 00:11:29.955 ผู้หญิงคนนี้ ไปรับน้องสาวบุญธรรม กลับจากโรงเรียน 00:11:29.979 --> 00:11:32.054 ในบรอเวิร์ด เคาน์ตี้ ฟลอริด้า สายกว่าเวลา 00:11:32.757 --> 00:11:35.113 เธอกับเพื่อน ๆ วิ่งกันไปตามถนน 00:11:35.137 --> 00:11:39.236 แล้วเจอจักรยานเด็ก และสกูตเตอร์วางทิ้งไว้ 00:11:39.260 --> 00:11:40.892 แล้วก็เอามาใช้อย่างไม่คิด 00:11:40.916 --> 00:11:43.515 ขณะที่กำลังจะปั่นจักรยานไป ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า 00:11:43.539 --> 00:11:45.744 "เฮ้ นั่นของลูกฉันนะ" 00:11:45.768 --> 00:11:49.062 พวกเธอเลยทิ้งจักรยาน รีบเดินหนี แล้วก็ถูกจับกุม NOTE Paragraph 00:11:49.086 --> 00:11:52.723 เธอผิดจริง เธอโง่เขลา แต่เธอก็อายุแค่ 18 ด้วย 00:11:52.747 --> 00:11:55.291 เธอเคยถูกจับด้วยข้อหาเล็ก ๆ น้อย ๆ มาก่อน 00:11:55.808 --> 00:12:00.993 ส่วนผู้ชายคนนั้น ถูกจับกุม ข้อหาขโมยของในโฮมดีโป้ 00:12:01.017 --> 00:12:03.941 มูลค่า 85 ดอลลาร์ เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน 00:12:04.766 --> 00:12:09.325 แต่เขามีประวัติกรรโชคทรัพย์ มาแล้วถึงสองครั้ง 00:12:09.955 --> 00:12:13.437 แต่อัลกอริธึ่มกลับให้คะแนน ความเสี่ยงเธอสูง ไม่ใช่เขา 00:12:14.746 --> 00:12:18.620 สองปีต่อมา โปรพับลิก้า พบว่า เธอไม่ได้กระทำผิดซ้ำอีก 00:12:18.644 --> 00:12:21.194 แต่ด้วยประวัติของเธอ ทำให้เธอหางานทำได้ยาก 00:12:21.218 --> 00:12:23.294 แต่ผู้ชายนั้น กลับทำความผิดซ้ำ 00:12:23.318 --> 00:12:27.154 และตอนนี้ ต้องโทษจำคุกแปดปี จากการทำผิดหนหลัง 00:12:28.088 --> 00:12:31.457 ฉะนั้น เราต้องตรวจสอบกล่องดำของเรา 00:12:31.481 --> 00:12:34.096 และไม่ปล่อยให้มันมีอำนาจโดย ไม่มีการถ่วงดุลเช่นนี้ NOTE Paragraph 00:12:34.120 --> 00:12:36.999 (เสียงปรบมือ) NOTE Paragraph 00:12:38.087 --> 00:12:42.329 การตรวจสอบเป็นเรื่องที่ดีและสำคัญ แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง 00:12:42.353 --> 00:12:45.101 ลองดูฟีดข่าวทรงอิทธิพล ของเฟซบุ้กเป็นตัวอย่าง 00:12:45.125 --> 00:12:49.968 อันที่จัดลำดับข่าวสารทุกอย่าง แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู 00:12:49.992 --> 00:12:52.276 โดยดูจากเพื่อนและเพจที่คุณติดตามนี่แหละ 00:12:52.898 --> 00:12:55.173 จะโชว์อะไรดีล่ะ รูปเด็กเล็ก NOTE Paragraph 00:12:55.197 --> 00:12:56.393 (เสียงหัวเราะ) NOTE Paragraph 00:12:56.417 --> 00:12:59.013 หรือโน้ตขึงขังที่คนรู้จักเขียน 00:12:59.449 --> 00:13:01.305 หรือจะเป็นข่าวชิ้นสำคัญแต่อ่านยาก 00:13:01.329 --> 00:13:02.811 ไม่มีคำตอบผิดถูก 00:13:02.835 --> 00:13:05.494 เฟซบุ้กให้ความสำคัญกับ การมีปฏิสัมพันธ์ต่อคอนเทนต์ 00:13:05.518 --> 00:13:06.933 ไลค์ แชร์ คอมเมนต์ NOTE Paragraph 00:13:08.168 --> 00:13:10.864 ในเดือนสิงหาคม ค.ศ. 2014 00:13:10.888 --> 00:13:13.550 เกิดการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่ 00:13:13.574 --> 00:13:17.991 หลังจากเหตุการณ์ที่ตำรวจผิวขาว ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย 00:13:18.015 --> 00:13:19.585 ในสภาพการณ์ที่ีน่าสงสัย 00:13:19.974 --> 00:13:21.981 ข่าวการประท้วงผุดเต็มฟีด 00:13:22.005 --> 00:13:24.690 บนหน้าทวิตเตอร์ ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน 00:13:24.714 --> 00:13:26.664 แต่หาไม่เจอบนเฟซบุ้กเลย 00:13:27.182 --> 00:13:28.916 เพราะเพื่อนบนเฟซบุ้กของฉันหรือ? 00:13:28.940 --> 00:13:30.972 ดิฉันบล็อกอัลกอริธึ่มของเฟซบุ้กเสีย 00:13:31.472 --> 00:13:34.320 ซึ่งทำได้ยาก เพราะเฟซบุ้ก จะยืนกรานแต่ให้คุณ 00:13:34.344 --> 00:13:36.380 อยู่ใต้บงการของอัลกอริธึ่ม 00:13:36.404 --> 00:13:38.642 แล้วก็พบว่า เพื่อน ๆ ของฉัน ต่างก็พูดถึงเรื่องนี้ 00:13:38.666 --> 00:13:41.175 แต่อัลกอริธึ่มมันไม่ยอม โชว์ให้ดิฉันดู 00:13:41.199 --> 00:13:44.241 ฉันค้นคว้าเรื่องนี้ต่อ และพบว่านี่เป็นปัญหาในวงกว้าง NOTE Paragraph 00:13:44.265 --> 00:13:48.078 ข่าวเฟอร์กูสัน ไม่เป็นมิตรกับอัลกอริธึ่ม 00:13:48.102 --> 00:13:49.273 เพราะมัน "ไม่มีคนไลค์" 00:13:49.297 --> 00:13:50.849 ใครจะไปกดไลค์ล่ะ 00:13:51.500 --> 00:13:53.706 ขนาดคอมเมนต์ยังยากเลย 00:13:53.730 --> 00:13:55.101 เมื่อไม่มีไลค์ หรือคอมเมนต์ 00:13:55.125 --> 00:13:58.417 อัลกอริธึ่มจึงมีแนวโน้ม จะโชว์ให้คนดูน้อยลงไปอีก 00:13:58.441 --> 00:13:59.983 เราเลยไม่เห็นข่าวนี้เลย 00:14:00.946 --> 00:14:02.174 แต่ในสัปดาห์นั้น 00:14:02.198 --> 00:14:04.496 สิ่งที่อัลกอริธึ่มของเฟซบุ้กให้ความสำคัญ 00:14:04.520 --> 00:14:06.746 คือ การท้าราดน้ำแข็งสู้โรค ALS 00:14:06.770 --> 00:14:10.512 จุดประสงค์ดี มีการราดน้ำแข็ง ได้บริจาคช่วยคน ดีค่ะ 00:14:10.536 --> 00:14:12.440 แต่ข่าวนี้ อัลกอริธึ่มก็จะชอบมาก ๆ ไปเลย 00:14:13.219 --> 00:14:15.832 เครื่องจักรตัดสินใจเรื่องแบบนี้ให้พวกเรา 00:14:15.856 --> 00:14:19.353 การสนทนาประเด็นยาก ๆ แต่สำคัญมาก ๆ แบบนี้ 00:14:19.377 --> 00:14:20.932 อาจถูกกำจัดออก 00:14:20.956 --> 00:14:23.652 หากมีเฟซบุ้กเป็นสื่อเพียงช่องทางเดียว NOTE Paragraph 00:14:24.117 --> 00:14:27.914 และท้ายที่สุด ระบบพวกนี้ ก็อาจผิดพลาด 00:14:27.938 --> 00:14:30.674 ในแบบที่ต่างจากระบบของมนุษย์ไปเลยก็ได้ 00:14:30.698 --> 00:14:33.620 พวกคุณคงรู้จักวัตสัน ระบบสมองประดิษฐ์ของ IBM 00:14:33.644 --> 00:14:36.772 ที่เอาชนะคู่แข่งมนุษย์ แบบขาดลอยในรายการเจพเปอร์ดี้ 00:14:37.131 --> 00:14:38.559 มันเล่นเกมเก่งมาก 00:14:38.583 --> 00:14:42.152 แต่ในเจพเปอร์ดี้รอบสุดท้าย วัตสันต้องตอบคำถามนี้ค่ะ 00:14:42.659 --> 00:14:45.591 "สนามบินที่ใหญ่ที่สุดของมัน ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2 00:14:45.615 --> 00:14:47.867 และเป็นสมรภูมิใหญ่เป็นที่สอง ในสงครามโลกครั้งที่ 2" NOTE Paragraph 00:14:47.891 --> 00:14:49.269 (ฮัมดนตรีรายการเจพเปอร์ดี้รอบสุดท้าย) NOTE Paragraph 00:14:49.582 --> 00:14:50.764 ชิคาโก้ค่ะ 00:14:50.788 --> 00:14:52.158 มนุษย์สองคนตอบถูกต้อง 00:14:52.697 --> 00:14:57.045 แต่วัตสัน ตอบว่า "โตรอนโต้" 00:14:57.069 --> 00:14:58.887 ทั้งที่คำถามเป็นหมวด เมืองในสหรัฐฯ! 00:14:59.596 --> 00:15:02.497 ระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง 00:15:02.521 --> 00:15:06.172 ในเรื่องที่มนุษย์ทั่วไป หรือกระทั้งเด็กประถมไม่มีทางพลาด NOTE Paragraph 00:15:06.823 --> 00:15:09.932 สมองประดิษฐ์อาจทำผิดพลาดได้ 00:15:09.956 --> 00:15:13.056 ด้วยพฤติการณ์คนละแบบกับของมนุษย์ 00:15:13.080 --> 00:15:16.030 ในรูปแบบที่เราจะคาดไม่ถึง และไม่ได้เตรียมรับมือ 00:15:16.054 --> 00:15:19.692 การไม่ได้งานทั้งที่คุณ มีคุณสมบัติพร้อมก็แย่อยู่แล้ว 00:15:19.716 --> 00:15:23.443 แต่คงแย่สุด ๆ ถ้าไม่ได้งาน เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์ 00:15:23.467 --> 00:15:24.899 ในซับรูทีนบางตัว NOTE Paragraph 00:15:24.923 --> 00:15:26.502 (เสียงหัวเราะ) NOTE Paragraph 00:15:26.526 --> 00:15:29.312 เมื่อเดือนพฤษภาคม 2010 00:15:29.336 --> 00:15:33.380 ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน เนื่องจากลูปป้อนกลับ 00:15:33.404 --> 00:15:36.432 ในอัลกอริธึ่มของวอลล์สตรีท 00:15:36.456 --> 00:15:40.640 ทำให้เงินในตลาดหายไป กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที 00:15:41.722 --> 00:15:43.909 ดิฉันไม่อยากคิดเลยว่า "ข้อบกพร่อง" จะเป็นแบบไหน 00:15:43.933 --> 00:15:47.522 ถ้าเกิดเปลี่ยนเป็น อาวุธอันตรายแบบอัตโนมัติแทน NOTE Paragraph 00:15:49.894 --> 00:15:53.684 มนุษย์ล้วนมีอคติกันทั้งนั้น 00:15:53.708 --> 00:15:55.884 ทั้งผู้ตัดสินใจ และผู้ดูแลกฎ 00:15:55.908 --> 00:15:59.401 ทั้งในศาล ในข่าว และในสงคราม 00:15:59.425 --> 00:16:02.463 พวกเขาผิดพลาดได้ทั้งนั้น แต่นั่นแหละ คือประเด็นของดิฉัน 00:16:02.487 --> 00:16:06.008 เราหลบเลี่ยงคำถามยาก ๆ แบบนี้ไม่ได้ 00:16:06.596 --> 00:16:10.112 เราจะถ่ายโอนความรับผิดชอบ ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้ NOTE Paragraph 00:16:10.676 --> 00:16:14.884 (เสียงปรบมือ) NOTE Paragraph 00:16:17.089 --> 00:16:21.536 ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา เป็นอิสระจากปัญหาเชิงจริยธรรม NOTE Paragraph 00:16:22.742 --> 00:16:26.123 นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing) 00:16:26.147 --> 00:16:27.536 เราต้องทำตรงกันข้าม 00:16:27.560 --> 00:16:32.948 เราต้องส่งเสริมการสีบสวน ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม 00:16:33.380 --> 00:16:36.578 เราต้องมั่นใจได้ว่าอัลกอริธึ่มที่ใช้ สามารถตรวจสอบย้อนกลับได้ 00:16:36.602 --> 00:16:39.047 ออดิทได้ และมีความโปร่งใสอย่างเป็นรูปธรรม 00:16:39.380 --> 00:16:42.614 เราต้องยอมรับว่า การเอาคณิตศาสตร์และคอมพิวเตอร์ 00:16:42.638 --> 00:16:45.608 มาใช้แก้ปัญหาของมนุษย์ที่กำกวม และแฝงความเชื่อทางสังคม 00:16:45.632 --> 00:16:48.016 ไม่ได้ทำให้เกิดความเที่ยงตรง อย่างภววิสัย 00:16:48.040 --> 00:16:51.673 แต่ความซับซ้อนของปัญหามนุษย์ จะเล่นงานอัลกอริธึ่มแทน 00:16:52.148 --> 00:16:55.635 จริงค่ะ คอมพิวเตอร์นั้น เราใช้ได้ และควรใช้ด้วย 00:16:55.659 --> 00:16:57.673 เพื่อให้เราตัดสินใจได้ดีขึ้น 00:16:57.697 --> 00:17:03.029 แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรม ในการตัดสินใจนั้น 00:17:03.053 --> 00:17:05.871 แล้วใช้อัลกอริธึ่มภายในขอบเขตนั้น 00:17:05.895 --> 00:17:10.830 ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน ความรับผิดชอบของเรา 00:17:10.854 --> 00:17:13.308 ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน NOTE Paragraph 00:17:13.807 --> 00:17:16.416 เรามีสมองประดิษฐ์ไว้ใช้แล้ว 00:17:16.440 --> 00:17:19.861 นั่นหมายความว่า เรายิ่งต้องยึดมั่น 00:17:19.885 --> 00:17:22.032 ในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์ NOTE Paragraph 00:17:22.056 --> 00:17:23.210 ขอบคุณค่ะ NOTE Paragraph 00:17:23.234 --> 00:17:28.254 (เสียงปรบมือ)