เมื่อมีปัญญาประดิษฐ์ ศีลธรรมมนุษย์ก็ยิ่งสำคัญ
-
0:01 - 0:05ดิฉันเริ่มทำงานครั้งแรก
เป็นคอมพิวเตอร์ โปรแกรมเมอร์ -
0:05 - 0:07ในปีแรกที่เรียนมหาวิทยาลัย
-
0:07 - 0:08ตั้งแต่ยังวัยรุ่น
-
0:09 - 0:11เริ่มทำงานเขียนโปรแกรม
-
0:11 - 0:12ให้บริษัทได้ไม่นาน
-
0:13 - 0:16ผู้จัดการคนหนึ่งในบริษัทนั้น
มาหาดิฉัน -
0:16 - 0:18แล้วกระซิบถามว่า
-
0:18 - 0:21"มันจับโกหกผมได้หรือเปล่า?"
-
0:22 - 0:24ตอนนั้น ไม่มีคนอื่นอยู่ในห้องอีก
-
0:25 - 0:29"ใครที่ไหนจับโกหกคุณได้เหรอ?
แล้วเราจะกระซิบกันทำไม?" -
0:30 - 0:33ผู้จัดการก็ชี้
ไปที่คอมพิวเตอร์ -
0:33 - 0:36"มันจับโกหกผมได้หรือเปล่า?"
-
0:38 - 0:42พอดีว่า ผู้จัดการคนนั้น
เป็นชู้อยู่กับพนักงานต้อนรับ -
0:42 - 0:43(เสียงหัวเราะ)
-
0:43 - 0:45ตอนนั้น ฉันยังเป็นแค่วัยรุ่น
-
0:45 - 0:47ฉันเลยกระซิบดัง ๆ กลับไปว่า
-
0:47 - 0:51"ใช่ ๆ คอมพิวเตอร์มันจับโกหกได้ค่ะ"
-
0:51 - 0:53(เสียงหัวเราะ)
-
0:53 - 0:56ดิฉันอำไปขำ ๆ แต่ตอนนี้
ดิฉันกลับขำไม่ออกเสียเอง -
0:56 - 0:59ปัจจุบัน มีระบบคอมพิวเตอร์
-
0:59 - 1:03ที่สามารถตรวจจับอารมณ์
หรือกระทั่งคำโกหกได้ -
1:03 - 1:05โดยการประมวลผลใบหน้ามนุษย์
-
1:05 - 1:09ทั้งบริษัทโฆษณาและรัฐบาล
ต่างก็สนใจอย่างมาก -
1:10 - 1:12ดิฉันทำอาชีพคอมพิวเตอร์ โปรแกรมเมอร์
-
1:12 - 1:15เพราะตอนเป็นเด็ก ดิฉันชอบคณิตศาสตร์
และวิทยาศาสตร์มาก ๆ -
1:16 - 1:19แต่พอโตขึ้น
ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์ -
1:19 - 1:22ซึ่งทำให้ดิฉันไม่สบายใจเรื่อง
จริยธรรมทางวิทยาศาสตร์เอามาก ๆ -
1:22 - 1:23ดิฉันรู้สึกไม่ดีเลย
-
1:23 - 1:26อย่างไรก็ตาม ด้วยความจำเป็นของครอบครัว
-
1:26 - 1:29ดิฉันต้องรีบหางานทำให้เร็วที่สุดให้ได้ด้วย
-
1:29 - 1:33ดิฉันเลยคิดว่า เอาอาชีพเชิงเทคนิค
-
1:33 - 1:34แบบที่ดิฉันจะได้งานง่าย ๆ
-
1:34 - 1:38และก็ไม่ต้องมาปวดหัวกับ
ปัญหาจริยธรรมอะไรก็แล้วกัน -
1:39 - 1:41ดิฉันเลยเลือกคอมพิวเตอร์
-
1:41 - 1:42(เสียงหัวเราะ)
-
1:42 - 1:45ฮ่า ฮ่า ฮ่า
ดิฉันนี่เองกลับขำไม่ออก -
1:45 - 1:48ปัจจุบัน นักวิทยาศาสตร์คอมพิวเตอร์
กำลังสร้างแพลตฟอร์ม -
1:48 - 1:52ที่ควบคุมสื่อซึ่งประชากร
เป็นพันล้านคนดูอยู่ทุกวัน -
1:53 - 1:57พวกเขากำลังสร้างรถ
ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้ -
1:58 - 2:01พวกเขาสร้างแม้กระทั่งเครื่องจักร และอาวุธ
-
2:01 - 2:03ที่คร่าชีวิตมนุษย์ในสงครามได้
-
2:03 - 2:06สิ่งเหล่านี้ ล้วนเกี่ยวกับจริยธรรม
-
2:07 - 2:09เครื่องจักร มีสติปัญญาแล้ว
-
2:10 - 2:13เราใช้คอมพิวเตอร์คำนวณ
เพื่อตัดสินใจเรื่องสารพัดอย่าง -
2:13 - 2:15รวมถึงการตัดสินใจรูปแบบใหม่ ๆ ด้วย
-
2:15 - 2:20เราเริ่มใช้คอมพิวเตอร์
เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว -
2:20 - 2:22คำถามอัตนัย
-
2:22 - 2:24ปลายเปิด และต้องใช้มุมมองในการตอบ
-
2:24 - 2:26คำถามอย่างเช่น
-
2:26 - 2:27"บริษัทควรจ้างใครดี"
-
2:28 - 2:31"ควรแสดงอัพเดตของเฟรนด์คนไหนดี"
-
2:31 - 2:33"นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก"
-
2:34 - 2:37"ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี"
-
2:37 - 2:40ใช่ค่ะ
เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว -
2:40 - 2:42แต่นี่ไม่เหมือนแต่ก่อน
-
2:42 - 2:44นี่คือจุดพลิกผันครั้งประวัติศาสตร์
-
2:44 - 2:49เพราะเป็นไปไม่ได้ ที่เราจะใช้คอมพิวเตอร์
มาช่วยแก้ปัญหาเชิงอัตวิสัย -
2:49 - 2:54แบบเดียวกับที่ใช้ช่วยสร้างเครื่องบิน
สร้างสะพาน -
2:54 - 2:56หรือไปดวงจันทร์
-
2:56 - 3:00เครื่องบินปลอดภัยขึ้นมั้ย
สะพานจะแกว่งหรือพังมั้ย -
3:00 - 3:04เรื่องแบบนี้ เรามีจุดตรวจสอบ
ที่จับต้อง เห็นตรงกันได้ -
3:04 - 3:06และเรามีกฎธรรมชาติช่วยนำทางให้
-
3:07 - 3:10แต่เราไม่มีหมุดหมายหรือจุดตรวจสอบเช่นนั้น
-
3:10 - 3:14สำหรับการตัดสิน
เรื่องธุระที่ยุ่งเหยิงของมนุษย์ -
3:14 - 3:18เรื่องยิ่งยุ่งยากขึ้นอีก
เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น -
3:18 - 3:22แต่ขณะเดียวกัน ก็โปร่งใสลดลง
และซับซ้อนมากขึ้น -
3:23 - 3:25ในทศวรรษที่ผ่านมา
-
3:25 - 3:27อัลกอริธึ่มระดับซับซ้อน
ก้าวล้ำรุดหน้าอย่างยิ่ง -
3:27 - 3:29พวกมันตรวจจับใบหน้ามนุษย์ได้
-
3:30 - 3:32แกะลายมือได้
-
3:32 - 3:35ตรวจหาการโกงบัตรเครดิต
-
3:35 - 3:36และบล็อกสแปมได้
-
3:36 - 3:38แปลภาษาได้หลากหลาย
-
3:38 - 3:40ค้นหาเนื้องอกผ่านระบบฉายภาพได้
-
3:40 - 3:43เล่นหมากรุกและโกะชนะมนุษย์ได้
-
3:43 - 3:48ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ
"แมคชีน เลิร์นนิ่ง" (Machine Learning) -
3:48 - 3:51แมคชีน เลิร์นนิ่ง ต่างจาก
การเขียนโปรแกรมทั่วไป -
3:51 - 3:55ที่คุณเขียนคำสั่งป้อนคอมพิวเตอร์
อย่างละเอียด เจาะจง และรัดกุม -
3:55 - 4:00กรณีนี้ เป็นเหมือนการป้อนข้อมูลจำนวนมาก
เข้าสู่ระบบ -
4:00 - 4:01ซึ่งรวมถึงข้อมูลที่ไม่มีโครงสร้าง
-
4:01 - 4:04แบบที่เกิดขึ้น เวลาเล่นอินเทอร์เนต
-
4:04 - 4:06จากนั้น ระบบจะเรียนรู้
โดยประมวลย่อยข้อมูลเหล่านั้น -
4:07 - 4:08และที่สำคัญ
-
4:08 - 4:13ระบบพวกนี้ไม่ได้ทำงาน
โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว -
4:13 - 4:16พวกมันจะไม่สร้างคำตอบแบบพื้น ๆ
แต่เป็นคำตอบที่อิงความน่าจะเป็น -
4:16 - 4:19"คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่"
-
4:20 - 4:23ซึ่งมีด้านดีคือ
วิธีการนี้ทรงพลังเอามาก ๆ -
4:23 - 4:25หัวหน้าระบบเอไอของกูเกิ้ลเรียกมันว่า
-
4:25 - 4:27"ประสิทธิผลอย่างไม่น่าเชื่อของดาต้า"
-
4:28 - 4:29แต่ด้าบลบก็คือ
-
4:30 - 4:33เรายังไม่เข้าใจเลยว่า
อะไรคือสิ่งที่ระบบเรียนรู้ -
4:33 - 4:34ซึ่งนี่เองคือจุดเด่นของมัน
-
4:35 - 4:39นี่ไม่ใช่การป้อนคำสั่งให้คอมพิวเตอร์
-
4:39 - 4:43แต่เป็นเหมือนการฝึกลูกหมา
ที่เผอิญเป็นคอมพิวเตอร์ -
4:43 - 4:46เราไม่ได้เข้าใจหรือควบคุมอะไรมันได้เลย
-
4:46 - 4:48นี่เองคือปัญหาของเรา
-
4:48 - 4:53จะเกิดปัญหาขึ้น เมื่อระบบเอไอ
พวกนี้ตีความข้อมูลผิด -
4:53 - 4:56และจะเกิดปัญหาเช่นกัน
แม้เมื่อมันตีความถูก -
4:56 - 5:00เพราะเราไม่รู้ด้วยซ้ำว่าอะไรผิดหรือถูก
เมื่อพูดถึงปัญหาแบบอัตนัย -
5:00 - 5:02เราไม่รู้ว่าเจ้าสิ่งนี้คิดอะไรอยู่กันแน่
-
5:03 - 5:07สมมติว่ามีอัลกอริธึ่มสำหรับจ้างพนักงาน
-
5:08 - 5:12ระบบที่ตัดสินใจจ้างพนักงาน
โดยใช้วิธีแมคชีน เลิร์นนิ่ง -
5:13 - 5:17ระบบเช่นนี้ จะถูกฝึกผ่านการป้อนข้อมูล
พนักงานที่เคยจ้างในอดีต -
5:17 - 5:19และถูกสั่งให้ค้นหาและว่าจ้าง
-
5:19 - 5:22คนที่มีคุณสมบัติเหมือนพนักงาน
ระดับเยี่ยมที่มีอยู่ในปัจจุบัน -
5:23 - 5:24ฟังดูดี
-
5:24 - 5:26ครั้งหนึ่ง ดิฉันเข้าประชุม
-
5:26 - 5:29งานเสวนาที่รวมเอา
ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์ -
5:29 - 5:30คนระดับสูง ๆ
-
5:30 - 5:32ที่ใช้ระบบแบบนี้ไว้จ้างงาน
-
5:32 - 5:34พวกเขาตื่นเต้นมาก ๆ
-
5:34 - 5:38พวกเขาคิดว่า ระบบจะทำให้การจ้างงาน
ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง -
5:38 - 5:41ทำให้ผู้หญิงและคนกลุ่มน้อย
มีโอกาสได้จ้างดีขึ้น -
5:41 - 5:44เมื่อเทียบกับใช้คนจ้างที่อาจมีอคติ
-
5:44 - 5:46การจ้างงานโดยใช้มนุษย์นั้นมีอคติค่ะ
-
5:47 - 5:48ฉันรู้ดี
-
5:48 - 5:51ช่วงที่ฉันเป็นโปรแกรมเมอร์ใหม่ ๆ
-
5:51 - 5:55บางครั้ง หัวหน้าของฉัน
จะมาหาฉัน -
5:55 - 5:59ตอนเช้ามาก ๆ หรือไม่ก็
ตอนบ่ายมาก ๆ -
5:59 - 6:02เธอบอกว่า "เซย์เน็ป
ไปกินข้าวเที่ยงกัน!" -
6:03 - 6:05พอดูเวลา ฉันก็จะงง
-
6:05 - 6:07บ่าย 4 ข้าวเที่ยงเหรอ?
-
6:07 - 6:10ตอนนั้น ฉันไม่มีเงิน
ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ -
6:11 - 6:13ต่อมา ดิฉันถึงเข้าใจเบื้องหลัง
-
6:13 - 6:17หัวหน้าของฉันไม่ได้
บอกผู้ใหญ่ตามตรงว่า -
6:17 - 6:20โปรแกรมเมอร์ที่พวกเขาจ้าง
มานั้น เป็นแค่วัยรุ่นผู้หญิง -
6:20 - 6:24ที่ใส่กางเกงยีนส์ รองเท้าผ้าใบมาทำงาน
-
6:25 - 6:27ดิฉันทำผลงานดี
แต่รูปลักษณ์นั้นไม่ผ่าน -
6:27 - 6:29ไม่ผ่านทั้งอายุ และเพศ
-
6:29 - 6:32แน่นอนว่า การจ้างงานโดย
ไม่คำนึงถึงเพศ และเชื้อชาติ -
6:32 - 6:34ถูกใจฉันแน่นอน
-
6:35 - 6:38แต่ถ้าเราใช้ระบบนี้
จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ -
6:39 - 6:45เพราะในปัจจุบันระบบคอมพิวเตอร์
สามารถคาดเดาเรื่องของคุณได้สารพัด -
6:45 - 6:47จากร่องรอยทางดิจิตอลของคุณ
-
6:47 - 6:49ถึงแม้คุณจะไม่เปิดเผย
ข้อมูลเหล่านั้นเลยก็ตาม -
6:50 - 6:52พวกมันคาดเดาได้
ทั้งรสนิยมทางเพศของคุณ -
6:53 - 6:54บุคลิกนิสัย
-
6:55 - 6:56แนวโน้มทางการเมือง
-
6:57 - 7:01พวกมันสามารถทำนายได้
ด้วยความแม่นยำสูง -
7:01 - 7:04อย่าลืมค่ะ นี่แค่เรื่อง
ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ -
7:04 - 7:06เป็นแค่การคาดเดา
-
7:06 - 7:09ดิฉันมีเพื่อนที่พัฒนา
ระบบคอมพิวเตอร์แบบนี้ -
7:09 - 7:13เพื่อทำนายความน่าจะเป็น
ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก -
7:13 - 7:14โดยใช้ข้อมูลโซเชียลมีเดีย
-
7:15 - 7:16ผลที่ได้ น่าประทับใจมาก
-
7:16 - 7:20ระบบของเธอสามารถทำนาย
แนวโน้มการเป็นโรคซึมเศร้า -
7:20 - 7:24ได้ล่วงหน้าหลายเดือนก่อนเกิดอาการขึ้นจริง
-
7:24 - 7:25รู้ล่วงหน้าหลายเดือน
-
7:25 - 7:27ยังไม่มีอาการ แต่เป็นแค่การทำนาย
-
7:27 - 7:32เธอหวังว่าจะใช้ระบบนี้
เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ! -
7:33 - 7:35ทีนี้ ลองเอาเรื่องนี้มาคิดกับการจ้างคน
-
7:36 - 7:39ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์
งานนี้ -
7:39 - 7:44ดิฉันพูดคุยกับผู้บริหารระดับสูง
ของบริษัทใหญ่ยักษ์แห่งหนึ่ง -
7:44 - 7:48ดิฉันถามเธอว่า "สมมติว่า
โดยที่คุณไม่ล่วงรู้" -
7:48 - 7:55ระบบคัดคนที่มีแนวโน้ม
เป็นโรคซึมเศร้าในอนาคตสูงออกไป -
7:56 - 7:59ไม่ใช่ว่าซึมเศร้าตอนนี้นะ
แค่อาจจะซึมเศร้าในอนาคต -
8:00 - 8:03ถ้ามันคัดผู้หญิงที่มีแนวโน้มสูง
ว่าจะตั้งครรภ์ -
8:03 - 8:06ในอีกปีสองปี
แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ -
8:07 - 8:12สมมติว่า มันจ้างคนบุคลิกก้าวร้าว
เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ -
8:13 - 8:16เรื่องเหล่านี้ คุณดูไม่ออก
โดยใช้แค่เพศจำแนก -
8:16 - 8:17มันอาจเหมือน ๆ กันก็ได้
-
8:17 - 8:21และเพราะว่านี่เป็น แมคชีน เลิร์นนิ่ง
ไม่ใช่การโปรแกรมแบบปกติ -
8:21 - 8:26จึงไม่มีตัวแปรที่ระบุว่า
"ความเสี่ยงซึมเศร้าสูง" -
8:26 - 8:28"ความเสี่ยงตั้งครรภ์สูง"
-
8:28 - 8:30"ระดับความก้าวร้าวสูง"
-
8:30 - 8:34คุณไม่เพียงไม่รู้ว่า
ระบบเลือกอะไรมา -
8:34 - 8:36คุณไม่รู้ด้วยซ้ำ
ว่าจะเริ่มหาจากตรงไหนดี -
8:36 - 8:37มันเหมือนกล่องดำ
-
8:37 - 8:40มันสามารถทำนายได้
แต่เราไม่อาจเข้าใจมันได้ -
8:40 - 8:43ฉันถาม "คุณจะใช้วิธีป้องกันใด
-
8:43 - 8:47เพื่อให้แน่ใจว่า กล่องดำของคุณ
ไม่ทำอะไรนอกลู่นอกทาง -
8:49 - 8:53เธอมองดิฉันกลับเหมือนดิฉันกำลัง
เหยียบหางลูกหมาอยู่ 10 ตัว -
8:53 - 8:54(เสียงหัวเราะ)
-
8:54 - 8:56เธอจ้องดิฉันกลับ และพูดว่า
-
8:57 - 9:01"อย่ามาพูดอะไรแบบนี้
ให้ฉันฟังอีกนะคะ" -
9:01 - 9:03แล้วเธอก็หันหน้า เดินหนีไป
-
9:04 - 9:06เธอไม่ได้หยาบคายหรอกค่ะ
-
9:06 - 9:12แค่ว่า อะไรที่ฉันไม่รู้ ไม่ใช่ปัญหาของฉัน
ไปไกล ๆ ไล่ด้วยสายตา -
9:12 - 9:13(เสียงหัวเราะ)
-
9:14 - 9:18ระบบแบบนั้น
อาจมีอคติน้อยกว่า -
9:18 - 9:20ผู้จัดการมนุษย์ในบางด้าน
-
9:20 - 9:22และอาจคุ้มค่าทางการเงินด้วยก็จริง
-
9:23 - 9:24แต่ก็อาจเป็นต้นเหตุ
-
9:24 - 9:29ที่ค่อย ๆ นำไปสู่การกีดกัน
คนที่มีแนวโน้มซึมเศร้า -
9:29 - 9:31ออกจากตลาดแรงงานไปเลย
โดยเราไม่รู้ตัว -
9:32 - 9:34นี่คือสังคมแบบที่เราอยาก
สร้างขึ้น -
9:34 - 9:37โดยที่เราไม่รู้ตัว เพราะเราให้การตัดสินใจ
-
9:37 - 9:41อยู่ในมือของเครื่องกลที่เราเอง
ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ -
9:41 - 9:43อีกปัญหาหนึ่งคือ
-
9:43 - 9:48ระบบเหล่านี้ มักถูกฝึกฝน
โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา -
9:48 - 9:50พฤติกรรมของมนุษย์
-
9:50 - 9:54ฉะนั้น มันอาจรับเอาอคติของเรา
-
9:54 - 9:58แล้วก็หยิบอคติเหล่านั้นออกมา
-
9:58 - 9:59ขยายให้รุนแรงขึ้น
-
9:59 - 10:00แล้วก็แสดงผลกลับมาให้เราดู
-
10:00 - 10:02ขณะที่เราพร่ำบอกตัวเองว่า
-
10:02 - 10:05"เรากำลังคำนวณอย่างเป็นกลาง
ตามข้อเท็จจริง" -
10:06 - 10:09นักวิจัยพบว่าบนกูเกิ้ล
-
10:10 - 10:15โฆษณางานรายได้สูงมีแนวโน้มจะแสดง
ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย -
10:16 - 10:19และถ้าเราเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน
-
10:19 - 10:24ก็มีแนวโน้มที่โฆษณาซึ่งเกี่ยวข้อง
กับประวัติอาชญากรรมจะแสดงขึ้นมา -
10:24 - 10:25แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม
-
10:27 - 10:30อคติซ่อนเร้น
และอัลกอริธึ่มกล่องดำแบบนี้เอง -
10:30 - 10:34ซึ่งบางครั้ง นักวิจัยก็เผอิญค้นพบ
แต่บางครั้งก็ไม่อาจรู้ได้ -
10:34 - 10:37ที่อาจสร้างผลกระทบ
ถึงขั้นเปลี่ยนชีวิตคนได้ -
10:38 - 10:42ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง
ถูกตัดสินจำคุกหกปี -
10:42 - 10:43ข้อหาหลบหนีตำรวจ
-
10:45 - 10:46เรื่องนี้คุณอาจไม่รู้
-
10:46 - 10:50แต่เราให้อัลกอริธึ่มตัดสินใจเรื่อง
การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ -
10:50 - 10:53ผู้ต้องหาคนนั้นอยากรู้ว่า
คะแนนนี้มีวิธีคำนวณอย่างไร -
10:54 - 10:55อัลกอริธึ่มนีี้เป็นของบริษัทแสวงกำไร
-
10:55 - 11:00บริษัทนั้นปฎิเสธที่จะให้
ศาลไต่สวนอัลกอริธึ่มของตนเอง -
11:00 - 11:06แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่หวังกำไร
ตรวจสอบอัลกอริธึ่มนั้น -
11:06 - 11:08โดยใช้ข้อมูลสาธารณะเท่าที่หาได้
-
11:08 - 11:10และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่
-
11:10 - 11:14ความสามารถในการทำนายย่ำแย่
ดีกว่าเดาสุ่มแค่นิดเดียว -
11:14 - 11:18มันให้ผลลัพธ์ที่ผิดพลาดว่า
ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต -
11:18 - 11:22สูงเป็นสองเท่าของผู้ต้องหาผิวขาว
-
11:24 - 11:25ลองดูอีกคดีหนึ่ง
-
11:26 - 11:30ผู้หญิงคนนี้ ไปรับน้องสาวบุญธรรม
กลับจากโรงเรียน -
11:30 - 11:32ในบรอเวิร์ด เคาน์ตี้ ฟลอริด้า
สายกว่าเวลา -
11:33 - 11:35เธอกับเพื่อน ๆ
วิ่งกันไปตามถนน -
11:35 - 11:39แล้วเจอจักรยานเด็ก
และสกูตเตอร์วางทิ้งไว้ -
11:39 - 11:41แล้วก็เอามาใช้อย่างไม่คิด
-
11:41 - 11:44ขณะที่กำลังจะปั่นจักรยานไป
ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า -
11:44 - 11:46"เฮ้ นั่นของลูกฉันนะ"
-
11:46 - 11:49พวกเธอเลยทิ้งจักรยาน
รีบเดินหนี แล้วก็ถูกจับกุม -
11:49 - 11:53เธอผิดจริง เธอโง่เขลา
แต่เธอก็อายุแค่ 18 ด้วย -
11:53 - 11:55เธอเคยถูกจับด้วยข้อหาเล็ก ๆ น้อย ๆ มาก่อน
-
11:56 - 12:01ส่วนผู้ชายคนนั้น ถูกจับกุม
ข้อหาขโมยของในโฮมดีโป้ -
12:01 - 12:04มูลค่า 85 ดอลลาร์
เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน -
12:05 - 12:09แต่เขามีประวัติกรรโชคทรัพย์
มาแล้วถึงสองครั้ง -
12:10 - 12:13แต่อัลกอริธึ่มกลับให้คะแนน
ความเสี่ยงเธอสูง ไม่ใช่เขา -
12:15 - 12:19สองปีต่อมา โปรพับลิก้า พบว่า
เธอไม่ได้กระทำผิดซ้ำอีก -
12:19 - 12:21แต่ด้วยประวัติของเธอ
ทำให้เธอหางานทำได้ยาก -
12:21 - 12:23แต่ผู้ชายนั้น กลับทำความผิดซ้ำ
-
12:23 - 12:27และตอนนี้ ต้องโทษจำคุกแปดปี
จากการทำผิดหนหลัง -
12:28 - 12:31ฉะนั้น เราต้องตรวจสอบกล่องดำของเรา
-
12:31 - 12:34และไม่ปล่อยให้มันมีอำนาจโดย
ไม่มีการถ่วงดุลเช่นนี้ -
12:34 - 12:37(เสียงปรบมือ)
-
12:38 - 12:42การตรวจสอบเป็นเรื่องที่ดีและสำคัญ
แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง -
12:42 - 12:45ลองดูฟีดข่าวทรงอิทธิพล
ของเฟซบุ้กเป็นตัวอย่าง -
12:45 - 12:50อันที่จัดลำดับข่าวสารทุกอย่าง
แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู -
12:50 - 12:52โดยดูจากเพื่อนและเพจที่คุณติดตามนี่แหละ
-
12:53 - 12:55จะโชว์อะไรดีล่ะ รูปเด็กเล็ก
-
12:55 - 12:56(เสียงหัวเราะ)
-
12:56 - 12:59หรือโน้ตขึงขังที่คนรู้จักเขียน
-
12:59 - 13:01หรือจะเป็นข่าวชิ้นสำคัญแต่อ่านยาก
-
13:01 - 13:03ไม่มีคำตอบผิดถูก
-
13:03 - 13:05เฟซบุ้กให้ความสำคัญกับ
การมีปฏิสัมพันธ์ต่อคอนเทนต์ -
13:06 - 13:07ไลค์ แชร์ คอมเมนต์
-
13:08 - 13:11ในเดือนสิงหาคม ค.ศ. 2014
-
13:11 - 13:14เกิดการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่
-
13:14 - 13:18หลังจากเหตุการณ์ที่ตำรวจผิวขาว
ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย -
13:18 - 13:20ในสภาพการณ์ที่ีน่าสงสัย
-
13:20 - 13:22ข่าวการประท้วงผุดเต็มฟีด
-
13:22 - 13:25บนหน้าทวิตเตอร์
ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน -
13:25 - 13:27แต่หาไม่เจอบนเฟซบุ้กเลย
-
13:27 - 13:29เพราะเพื่อนบนเฟซบุ้กของฉันหรือ?
-
13:29 - 13:31ดิฉันบล็อกอัลกอริธึ่มของเฟซบุ้กเสีย
-
13:31 - 13:34ซึ่งทำได้ยาก เพราะเฟซบุ้ก
จะยืนกรานแต่ให้คุณ -
13:34 - 13:36อยู่ใต้บงการของอัลกอริธึ่ม
-
13:36 - 13:39แล้วก็พบว่า เพื่อน ๆ ของฉัน
ต่างก็พูดถึงเรื่องนี้ -
13:39 - 13:41แต่อัลกอริธึ่มมันไม่ยอม
โชว์ให้ดิฉันดู -
13:41 - 13:44ฉันค้นคว้าเรื่องนี้ต่อ
และพบว่านี่เป็นปัญหาในวงกว้าง -
13:44 - 13:48ข่าวเฟอร์กูสัน
ไม่เป็นมิตรกับอัลกอริธึ่ม -
13:48 - 13:49เพราะมัน "ไม่มีคนไลค์"
-
13:49 - 13:51ใครจะไปกดไลค์ล่ะ
-
13:52 - 13:54ขนาดคอมเมนต์ยังยากเลย
-
13:54 - 13:55เมื่อไม่มีไลค์ หรือคอมเมนต์
-
13:55 - 13:58อัลกอริธึ่มจึงมีแนวโน้ม
จะโชว์ให้คนดูน้อยลงไปอีก -
13:58 - 14:00เราเลยไม่เห็นข่าวนี้เลย
-
14:01 - 14:02แต่ในสัปดาห์นั้น
-
14:02 - 14:04สิ่งที่อัลกอริธึ่มของเฟซบุ้กให้ความสำคัญ
-
14:05 - 14:07คือ การท้าราดน้ำแข็งสู้โรค ALS
-
14:07 - 14:11จุดประสงค์ดี มีการราดน้ำแข็ง
ได้บริจาคช่วยคน ดีค่ะ -
14:11 - 14:12แต่ข่าวนี้ อัลกอริธึ่มก็จะชอบมาก ๆ ไปเลย
-
14:13 - 14:16เครื่องจักรตัดสินใจเรื่องแบบนี้ให้พวกเรา
-
14:16 - 14:19การสนทนาประเด็นยาก ๆ
แต่สำคัญมาก ๆ แบบนี้ -
14:19 - 14:21อาจถูกกำจัดออก
-
14:21 - 14:24หากมีเฟซบุ้กเป็นสื่อเพียงช่องทางเดียว
-
14:24 - 14:28และท้ายที่สุด ระบบพวกนี้
ก็อาจผิดพลาด -
14:28 - 14:31ในแบบที่ต่างจากระบบของมนุษย์ไปเลยก็ได้
-
14:31 - 14:34พวกคุณคงรู้จักวัตสัน
ระบบสมองประดิษฐ์ของ IBM -
14:34 - 14:37ที่เอาชนะคู่แข่งมนุษย์
แบบขาดลอยในรายการเจพเปอร์ดี้ -
14:37 - 14:39มันเล่นเกมเก่งมาก
-
14:39 - 14:42แต่ในเจพเปอร์ดี้รอบสุดท้าย
วัตสันต้องตอบคำถามนี้ค่ะ -
14:43 - 14:46"สนามบินที่ใหญ่ที่สุดของมัน
ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2 -
14:46 - 14:48และเป็นสมรภูมิใหญ่เป็นที่สอง
ในสงครามโลกครั้งที่ 2" -
14:48 - 14:49(ฮัมดนตรีรายการเจพเปอร์ดี้รอบสุดท้าย)
-
14:50 - 14:51ชิคาโก้ค่ะ
-
14:51 - 14:52มนุษย์สองคนตอบถูกต้อง
-
14:53 - 14:57แต่วัตสัน ตอบว่า "โตรอนโต้"
-
14:57 - 14:59ทั้งที่คำถามเป็นหมวด เมืองในสหรัฐฯ!
-
15:00 - 15:02ระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง
-
15:03 - 15:06ในเรื่องที่มนุษย์ทั่วไป
หรือกระทั้งเด็กประถมไม่มีทางพลาด -
15:07 - 15:10สมองประดิษฐ์อาจทำผิดพลาดได้
-
15:10 - 15:13ด้วยพฤติการณ์คนละแบบกับของมนุษย์
-
15:13 - 15:16ในรูปแบบที่เราจะคาดไม่ถึง
และไม่ได้เตรียมรับมือ -
15:16 - 15:20การไม่ได้งานทั้งที่คุณ
มีคุณสมบัติพร้อมก็แย่อยู่แล้ว -
15:20 - 15:23แต่คงแย่สุด ๆ ถ้าไม่ได้งาน
เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์ -
15:23 - 15:25ในซับรูทีนบางตัว
-
15:25 - 15:27(เสียงหัวเราะ)
-
15:27 - 15:29เมื่อเดือนพฤษภาคม 2010
-
15:29 - 15:33ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน
เนื่องจากลูปป้อนกลับ -
15:33 - 15:36ในอัลกอริธึ่มของวอลล์สตรีท
-
15:36 - 15:41ทำให้เงินในตลาดหายไป
กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที -
15:42 - 15:44ดิฉันไม่อยากคิดเลยว่า
"ข้อบกพร่อง" จะเป็นแบบไหน -
15:44 - 15:48ถ้าเกิดเปลี่ยนเป็น
อาวุธอันตรายแบบอัตโนมัติแทน -
15:50 - 15:54มนุษย์ล้วนมีอคติกันทั้งนั้น
-
15:54 - 15:56ทั้งผู้ตัดสินใจ และผู้ดูแลกฎ
-
15:56 - 15:59ทั้งในศาล ในข่าว และในสงคราม
-
15:59 - 16:02พวกเขาผิดพลาดได้ทั้งนั้น
แต่นั่นแหละ คือประเด็นของดิฉัน -
16:02 - 16:06เราหลบเลี่ยงคำถามยาก ๆ แบบนี้ไม่ได้
-
16:07 - 16:10เราจะถ่ายโอนความรับผิดชอบ
ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้ -
16:11 - 16:15(เสียงปรบมือ)
-
16:17 - 16:22ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา
เป็นอิสระจากปัญหาเชิงจริยธรรม -
16:23 - 16:26นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน
เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing) -
16:26 - 16:28เราต้องทำตรงกันข้าม
-
16:28 - 16:33เราต้องส่งเสริมการสีบสวน
ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม -
16:33 - 16:37เราต้องมั่นใจได้ว่าอัลกอริธึ่มที่ใช้
สามารถตรวจสอบย้อนกลับได้ -
16:37 - 16:39ออดิทได้ และมีความโปร่งใสอย่างเป็นรูปธรรม
-
16:39 - 16:43เราต้องยอมรับว่า
การเอาคณิตศาสตร์และคอมพิวเตอร์ -
16:43 - 16:46มาใช้แก้ปัญหาของมนุษย์ที่กำกวม
และแฝงความเชื่อทางสังคม -
16:46 - 16:48ไม่ได้ทำให้เกิดความเที่ยงตรง
อย่างภววิสัย -
16:48 - 16:52แต่ความซับซ้อนของปัญหามนุษย์
จะเล่นงานอัลกอริธึ่มแทน -
16:52 - 16:56จริงค่ะ คอมพิวเตอร์นั้น
เราใช้ได้ และควรใช้ด้วย -
16:56 - 16:58เพื่อให้เราตัดสินใจได้ดีขึ้น
-
16:58 - 17:03แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรม
ในการตัดสินใจนั้น -
17:03 - 17:06แล้วใช้อัลกอริธึ่มภายในขอบเขตนั้น
-
17:06 - 17:11ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน
ความรับผิดชอบของเรา -
17:11 - 17:13ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน
-
17:14 - 17:16เรามีสมองประดิษฐ์ไว้ใช้แล้ว
-
17:16 - 17:20นั่นหมายความว่า เรายิ่งต้องยึดมั่น
-
17:20 - 17:22ในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์
-
17:22 - 17:23ขอบคุณค่ะ
-
17:23 - 17:28(เสียงปรบมือ)
- Title:
- เมื่อมีปัญญาประดิษฐ์ ศีลธรรมมนุษย์ก็ยิ่งสำคัญ
- Speaker:
- เซย์เน็พ ตูเฟ็คชี่ (Zeynep Tufekci)
- Description:
-
ปัญญาประดิษฐ์เกิดขึ้นแล้ว เรากำลังใช้ให้มันแก้ปัญหาในเรื่องที่ไม่มีคำตอบตายตัว แต่วิธีอันซับซ้อนที่เอไอใช้เรียนรู้และพัฒนาตนเอง ทำให้เราเข้าใจมันได้ยาก และยากยิ่งกว่าในการควบคุม ในทอล์กแฝงข้อเตือนใจนี้ นักเทคโนสังคมวิทยา เซย์เนป ตูเฟ็คจี อธิบายให้ฟังว่า ปัญญาประดิษฐ์อาจสร้างข้อผิดพลาดที่ผิดจากรูปการณ์แบบมนุษย์ได้ โดยที่เราอาจไม่สามารถคาดหรือเตรียมรับมือ "เราจะถ่ายโอนความรับผิดชอบของเราให้คอมพิวเตอร์ไม่ได้" เธอกล่าว "เรายิ่งต้องยึดมั่นในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์"
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Kelwalin Dhanasarnsombut approved Thai subtitles for Machine intelligence makes human morals more important | ||
Kelwalin Dhanasarnsombut edited Thai subtitles for Machine intelligence makes human morals more important | ||
Sritala Dhanasarnsombut accepted Thai subtitles for Machine intelligence makes human morals more important | ||
Sritala Dhanasarnsombut edited Thai subtitles for Machine intelligence makes human morals more important | ||
Teerachart Prasert edited Thai subtitles for Machine intelligence makes human morals more important | ||
Teerachart Prasert edited Thai subtitles for Machine intelligence makes human morals more important | ||
Teerachart Prasert edited Thai subtitles for Machine intelligence makes human morals more important | ||
Teerachart Prasert edited Thai subtitles for Machine intelligence makes human morals more important |