Return to Video

เมื่อมีปัญญาประดิษฐ์ ศีลธรรมมนุษย์ก็ยิ่งสำคัญ

  • 0:01 - 0:05
    ดิฉันเริ่มทำงานครั้งแรก
    เป็นคอมพิวเตอร์ โปรแกรมเมอร์
  • 0:05 - 0:07
    ในปีแรกที่เรียนมหาวิทยาลัย
  • 0:07 - 0:08
    ตั้งแต่ยังวัยรุ่น
  • 0:09 - 0:11
    เริ่มทำงานเขียนโปรแกรม
  • 0:11 - 0:12
    ให้บริษัทได้ไม่นาน
  • 0:13 - 0:16
    ผู้จัดการคนหนึ่งในบริษัทนั้น
    มาหาดิฉัน
  • 0:16 - 0:18
    แล้วกระซิบถามว่า
  • 0:18 - 0:21
    "มันจับโกหกผมได้หรือเปล่า?"
  • 0:22 - 0:24
    ตอนนั้น ไม่มีคนอื่นอยู่ในห้องอีก
  • 0:25 - 0:29
    "ใครที่ไหนจับโกหกคุณได้เหรอ?
    แล้วเราจะกระซิบกันทำไม?"
  • 0:30 - 0:33
    ผู้จัดการก็ชี้
    ไปที่คอมพิวเตอร์
  • 0:33 - 0:36
    "มันจับโกหกผมได้หรือเปล่า?"
  • 0:38 - 0:42
    พอดีว่า ผู้จัดการคนนั้น
    เป็นชู้อยู่กับพนักงานต้อนรับ
  • 0:42 - 0:43
    (เสียงหัวเราะ)
  • 0:43 - 0:45
    ตอนนั้น ฉันยังเป็นแค่วัยรุ่น
  • 0:45 - 0:47
    ฉันเลยกระซิบดัง ๆ กลับไปว่า
  • 0:47 - 0:51
    "ใช่ ๆ คอมพิวเตอร์มันจับโกหกได้ค่ะ"
  • 0:51 - 0:53
    (เสียงหัวเราะ)
  • 0:53 - 0:56
    ดิฉันอำไปขำ ๆ แต่ตอนนี้
    ดิฉันกลับขำไม่ออกเสียเอง
  • 0:56 - 0:59
    ปัจจุบัน มีระบบคอมพิวเตอร์
  • 0:59 - 1:03
    ที่สามารถตรวจจับอารมณ์
    หรือกระทั่งคำโกหกได้
  • 1:03 - 1:05
    โดยการประมวลผลใบหน้ามนุษย์
  • 1:05 - 1:09
    ทั้งบริษัทโฆษณาและรัฐบาล
    ต่างก็สนใจอย่างมาก
  • 1:10 - 1:12
    ดิฉันทำอาชีพคอมพิวเตอร์ โปรแกรมเมอร์
  • 1:12 - 1:15
    เพราะตอนเป็นเด็ก ดิฉันชอบคณิตศาสตร์
    และวิทยาศาสตร์มาก ๆ
  • 1:16 - 1:19
    แต่พอโตขึ้น
    ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์
  • 1:19 - 1:22
    ซึ่งทำให้ดิฉันไม่สบายใจเรื่อง
    จริยธรรมทางวิทยาศาสตร์เอามาก ๆ
  • 1:22 - 1:23
    ดิฉันรู้สึกไม่ดีเลย
  • 1:23 - 1:26
    อย่างไรก็ตาม ด้วยความจำเป็นของครอบครัว
  • 1:26 - 1:29
    ดิฉันต้องรีบหางานทำให้เร็วที่สุดให้ได้ด้วย
  • 1:29 - 1:33
    ดิฉันเลยคิดว่า เอาอาชีพเชิงเทคนิค
  • 1:33 - 1:34
    แบบที่ดิฉันจะได้งานง่าย ๆ
  • 1:34 - 1:38
    และก็ไม่ต้องมาปวดหัวกับ
    ปัญหาจริยธรรมอะไรก็แล้วกัน
  • 1:39 - 1:41
    ดิฉันเลยเลือกคอมพิวเตอร์
  • 1:41 - 1:42
    (เสียงหัวเราะ)
  • 1:42 - 1:45
    ฮ่า ฮ่า ฮ่า
    ดิฉันนี่เองกลับขำไม่ออก
  • 1:45 - 1:48
    ปัจจุบัน นักวิทยาศาสตร์คอมพิวเตอร์
    กำลังสร้างแพลตฟอร์ม
  • 1:48 - 1:52
    ที่ควบคุมสื่อซึ่งประชากร
    เป็นพันล้านคนดูอยู่ทุกวัน
  • 1:53 - 1:57
    พวกเขากำลังสร้างรถ
    ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้
  • 1:58 - 2:01
    พวกเขาสร้างแม้กระทั่งเครื่องจักร และอาวุธ
  • 2:01 - 2:03
    ที่คร่าชีวิตมนุษย์ในสงครามได้
  • 2:03 - 2:06
    สิ่งเหล่านี้ ล้วนเกี่ยวกับจริยธรรม
  • 2:07 - 2:09
    เครื่องจักร มีสติปัญญาแล้ว
  • 2:10 - 2:13
    เราใช้คอมพิวเตอร์คำนวณ
    เพื่อตัดสินใจเรื่องสารพัดอย่าง
  • 2:13 - 2:15
    รวมถึงการตัดสินใจรูปแบบใหม่ ๆ ด้วย
  • 2:15 - 2:20
    เราเริ่มใช้คอมพิวเตอร์
    เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว
  • 2:20 - 2:22
    คำถามอัตนัย
  • 2:22 - 2:24
    ปลายเปิด และต้องใช้มุมมองในการตอบ
  • 2:24 - 2:26
    คำถามอย่างเช่น
  • 2:26 - 2:27
    "บริษัทควรจ้างใครดี"
  • 2:28 - 2:31
    "ควรแสดงอัพเดตของเฟรนด์คนไหนดี"
  • 2:31 - 2:33
    "นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก"
  • 2:34 - 2:37
    "ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี"
  • 2:37 - 2:40
    ใช่ค่ะ
    เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว
  • 2:40 - 2:42
    แต่นี่ไม่เหมือนแต่ก่อน
  • 2:42 - 2:44
    นี่คือจุดพลิกผันครั้งประวัติศาสตร์
  • 2:44 - 2:49
    เพราะเป็นไปไม่ได้ ที่เราจะใช้คอมพิวเตอร์
    มาช่วยแก้ปัญหาเชิงอัตวิสัย
  • 2:49 - 2:54
    แบบเดียวกับที่ใช้ช่วยสร้างเครื่องบิน
    สร้างสะพาน
  • 2:54 - 2:56
    หรือไปดวงจันทร์
  • 2:56 - 3:00
    เครื่องบินปลอดภัยขึ้นมั้ย
    สะพานจะแกว่งหรือพังมั้ย
  • 3:00 - 3:04
    เรื่องแบบนี้ เรามีจุดตรวจสอบ
    ที่จับต้อง เห็นตรงกันได้
  • 3:04 - 3:06
    และเรามีกฎธรรมชาติช่วยนำทางให้
  • 3:07 - 3:10
    แต่เราไม่มีหมุดหมายหรือจุดตรวจสอบเช่นนั้น
  • 3:10 - 3:14
    สำหรับการตัดสิน
    เรื่องธุระที่ยุ่งเหยิงของมนุษย์
  • 3:14 - 3:18
    เรื่องยิ่งยุ่งยากขึ้นอีก
    เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น
  • 3:18 - 3:22
    แต่ขณะเดียวกัน ก็โปร่งใสลดลง
    และซับซ้อนมากขึ้น
  • 3:23 - 3:25
    ในทศวรรษที่ผ่านมา
  • 3:25 - 3:27
    อัลกอริธึ่มระดับซับซ้อน
    ก้าวล้ำรุดหน้าอย่างยิ่ง
  • 3:27 - 3:29
    พวกมันตรวจจับใบหน้ามนุษย์ได้
  • 3:30 - 3:32
    แกะลายมือได้
  • 3:32 - 3:35
    ตรวจหาการโกงบัตรเครดิต
  • 3:35 - 3:36
    และบล็อกสแปมได้
  • 3:36 - 3:38
    แปลภาษาได้หลากหลาย
  • 3:38 - 3:40
    ค้นหาเนื้องอกผ่านระบบฉายภาพได้
  • 3:40 - 3:43
    เล่นหมากรุกและโกะชนะมนุษย์ได้
  • 3:43 - 3:48
    ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ
    "แมคชีน เลิร์นนิ่ง" (Machine Learning)
  • 3:48 - 3:51
    แมคชีน เลิร์นนิ่ง ต่างจาก
    การเขียนโปรแกรมทั่วไป
  • 3:51 - 3:55
    ที่คุณเขียนคำสั่งป้อนคอมพิวเตอร์
    อย่างละเอียด เจาะจง และรัดกุม
  • 3:55 - 4:00
    กรณีนี้ เป็นเหมือนการป้อนข้อมูลจำนวนมาก
    เข้าสู่ระบบ
  • 4:00 - 4:01
    ซึ่งรวมถึงข้อมูลที่ไม่มีโครงสร้าง
  • 4:01 - 4:04
    แบบที่เกิดขึ้น เวลาเล่นอินเทอร์เนต
  • 4:04 - 4:06
    จากนั้น ระบบจะเรียนรู้
    โดยประมวลย่อยข้อมูลเหล่านั้น
  • 4:07 - 4:08
    และที่สำคัญ
  • 4:08 - 4:13
    ระบบพวกนี้ไม่ได้ทำงาน
    โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว
  • 4:13 - 4:16
    พวกมันจะไม่สร้างคำตอบแบบพื้น ๆ
    แต่เป็นคำตอบที่อิงความน่าจะเป็น
  • 4:16 - 4:19
    "คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่"
  • 4:20 - 4:23
    ซึ่งมีด้านดีคือ
    วิธีการนี้ทรงพลังเอามาก ๆ
  • 4:23 - 4:25
    หัวหน้าระบบเอไอของกูเกิ้ลเรียกมันว่า
  • 4:25 - 4:27
    "ประสิทธิผลอย่างไม่น่าเชื่อของดาต้า"
  • 4:28 - 4:29
    แต่ด้าบลบก็คือ
  • 4:30 - 4:33
    เรายังไม่เข้าใจเลยว่า
    อะไรคือสิ่งที่ระบบเรียนรู้
  • 4:33 - 4:34
    ซึ่งนี่เองคือจุดเด่นของมัน
  • 4:35 - 4:39
    นี่ไม่ใช่การป้อนคำสั่งให้คอมพิวเตอร์
  • 4:39 - 4:43
    แต่เป็นเหมือนการฝึกลูกหมา
    ที่เผอิญเป็นคอมพิวเตอร์
  • 4:43 - 4:46
    เราไม่ได้เข้าใจหรือควบคุมอะไรมันได้เลย
  • 4:46 - 4:48
    นี่เองคือปัญหาของเรา
  • 4:48 - 4:53
    จะเกิดปัญหาขึ้น เมื่อระบบเอไอ
    พวกนี้ตีความข้อมูลผิด
  • 4:53 - 4:56
    และจะเกิดปัญหาเช่นกัน
    แม้เมื่อมันตีความถูก
  • 4:56 - 5:00
    เพราะเราไม่รู้ด้วยซ้ำว่าอะไรผิดหรือถูก
    เมื่อพูดถึงปัญหาแบบอัตนัย
  • 5:00 - 5:02
    เราไม่รู้ว่าเจ้าสิ่งนี้คิดอะไรอยู่กันแน่
  • 5:03 - 5:07
    สมมติว่ามีอัลกอริธึ่มสำหรับจ้างพนักงาน
  • 5:08 - 5:12
    ระบบที่ตัดสินใจจ้างพนักงาน
    โดยใช้วิธีแมคชีน เลิร์นนิ่ง
  • 5:13 - 5:17
    ระบบเช่นนี้ จะถูกฝึกผ่านการป้อนข้อมูล
    พนักงานที่เคยจ้างในอดีต
  • 5:17 - 5:19
    และถูกสั่งให้ค้นหาและว่าจ้าง
  • 5:19 - 5:22
    คนที่มีคุณสมบัติเหมือนพนักงาน
    ระดับเยี่ยมที่มีอยู่ในปัจจุบัน
  • 5:23 - 5:24
    ฟังดูดี
  • 5:24 - 5:26
    ครั้งหนึ่ง ดิฉันเข้าประชุม
  • 5:26 - 5:29
    งานเสวนาที่รวมเอา
    ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์
  • 5:29 - 5:30
    คนระดับสูง ๆ
  • 5:30 - 5:32
    ที่ใช้ระบบแบบนี้ไว้จ้างงาน
  • 5:32 - 5:34
    พวกเขาตื่นเต้นมาก ๆ
  • 5:34 - 5:38
    พวกเขาคิดว่า ระบบจะทำให้การจ้างงาน
    ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง
  • 5:38 - 5:41
    ทำให้ผู้หญิงและคนกลุ่มน้อย
    มีโอกาสได้จ้างดีขึ้น
  • 5:41 - 5:44
    เมื่อเทียบกับใช้คนจ้างที่อาจมีอคติ
  • 5:44 - 5:46
    การจ้างงานโดยใช้มนุษย์นั้นมีอคติค่ะ
  • 5:47 - 5:48
    ฉันรู้ดี
  • 5:48 - 5:51
    ช่วงที่ฉันเป็นโปรแกรมเมอร์ใหม่ ๆ
  • 5:51 - 5:55
    บางครั้ง หัวหน้าของฉัน
    จะมาหาฉัน
  • 5:55 - 5:59
    ตอนเช้ามาก ๆ หรือไม่ก็
    ตอนบ่ายมาก ๆ
  • 5:59 - 6:02
    เธอบอกว่า "เซย์เน็ป
    ไปกินข้าวเที่ยงกัน!"
  • 6:03 - 6:05
    พอดูเวลา ฉันก็จะงง
  • 6:05 - 6:07
    บ่าย 4 ข้าวเที่ยงเหรอ?
  • 6:07 - 6:10
    ตอนนั้น ฉันไม่มีเงิน
    ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ
  • 6:11 - 6:13
    ต่อมา ดิฉันถึงเข้าใจเบื้องหลัง
  • 6:13 - 6:17
    หัวหน้าของฉันไม่ได้
    บอกผู้ใหญ่ตามตรงว่า
  • 6:17 - 6:20
    โปรแกรมเมอร์ที่พวกเขาจ้าง
    มานั้น เป็นแค่วัยรุ่นผู้หญิง
  • 6:20 - 6:24
    ที่ใส่กางเกงยีนส์ รองเท้าผ้าใบมาทำงาน
  • 6:25 - 6:27
    ดิฉันทำผลงานดี
    แต่รูปลักษณ์นั้นไม่ผ่าน
  • 6:27 - 6:29
    ไม่ผ่านทั้งอายุ และเพศ
  • 6:29 - 6:32
    แน่นอนว่า การจ้างงานโดย
    ไม่คำนึงถึงเพศ และเชื้อชาติ
  • 6:32 - 6:34
    ถูกใจฉันแน่นอน
  • 6:35 - 6:38
    แต่ถ้าเราใช้ระบบนี้
    จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ
  • 6:39 - 6:45
    เพราะในปัจจุบันระบบคอมพิวเตอร์
    สามารถคาดเดาเรื่องของคุณได้สารพัด
  • 6:45 - 6:47
    จากร่องรอยทางดิจิตอลของคุณ
  • 6:47 - 6:49
    ถึงแม้คุณจะไม่เปิดเผย
    ข้อมูลเหล่านั้นเลยก็ตาม
  • 6:50 - 6:52
    พวกมันคาดเดาได้
    ทั้งรสนิยมทางเพศของคุณ
  • 6:53 - 6:54
    บุคลิกนิสัย
  • 6:55 - 6:56
    แนวโน้มทางการเมือง
  • 6:57 - 7:01
    พวกมันสามารถทำนายได้
    ด้วยความแม่นยำสูง
  • 7:01 - 7:04
    อย่าลืมค่ะ นี่แค่เรื่อง
    ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ
  • 7:04 - 7:06
    เป็นแค่การคาดเดา
  • 7:06 - 7:09
    ดิฉันมีเพื่อนที่พัฒนา
    ระบบคอมพิวเตอร์แบบนี้
  • 7:09 - 7:13
    เพื่อทำนายความน่าจะเป็น
    ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก
  • 7:13 - 7:14
    โดยใช้ข้อมูลโซเชียลมีเดีย
  • 7:15 - 7:16
    ผลที่ได้ น่าประทับใจมาก
  • 7:16 - 7:20
    ระบบของเธอสามารถทำนาย
    แนวโน้มการเป็นโรคซึมเศร้า
  • 7:20 - 7:24
    ได้ล่วงหน้าหลายเดือนก่อนเกิดอาการขึ้นจริง
  • 7:24 - 7:25
    รู้ล่วงหน้าหลายเดือน
  • 7:25 - 7:27
    ยังไม่มีอาการ แต่เป็นแค่การทำนาย
  • 7:27 - 7:32
    เธอหวังว่าจะใช้ระบบนี้
    เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ!
  • 7:33 - 7:35
    ทีนี้ ลองเอาเรื่องนี้มาคิดกับการจ้างคน
  • 7:36 - 7:39
    ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์
    งานนี้
  • 7:39 - 7:44
    ดิฉันพูดคุยกับผู้บริหารระดับสูง
    ของบริษัทใหญ่ยักษ์แห่งหนึ่ง
  • 7:44 - 7:48
    ดิฉันถามเธอว่า "สมมติว่า
    โดยที่คุณไม่ล่วงรู้"
  • 7:48 - 7:55
    ระบบคัดคนที่มีแนวโน้ม
    เป็นโรคซึมเศร้าในอนาคตสูงออกไป
  • 7:56 - 7:59
    ไม่ใช่ว่าซึมเศร้าตอนนี้นะ
    แค่อาจจะซึมเศร้าในอนาคต
  • 8:00 - 8:03
    ถ้ามันคัดผู้หญิงที่มีแนวโน้มสูง
    ว่าจะตั้งครรภ์
  • 8:03 - 8:06
    ในอีกปีสองปี
    แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ
  • 8:07 - 8:12
    สมมติว่า มันจ้างคนบุคลิกก้าวร้าว
    เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ
  • 8:13 - 8:16
    เรื่องเหล่านี้ คุณดูไม่ออก
    โดยใช้แค่เพศจำแนก
  • 8:16 - 8:17
    มันอาจเหมือน ๆ กันก็ได้
  • 8:17 - 8:21
    และเพราะว่านี่เป็น แมคชีน เลิร์นนิ่ง
    ไม่ใช่การโปรแกรมแบบปกติ
  • 8:21 - 8:26
    จึงไม่มีตัวแปรที่ระบุว่า
    "ความเสี่ยงซึมเศร้าสูง"
  • 8:26 - 8:28
    "ความเสี่ยงตั้งครรภ์สูง"
  • 8:28 - 8:30
    "ระดับความก้าวร้าวสูง"
  • 8:30 - 8:34
    คุณไม่เพียงไม่รู้ว่า
    ระบบเลือกอะไรมา
  • 8:34 - 8:36
    คุณไม่รู้ด้วยซ้ำ
    ว่าจะเริ่มหาจากตรงไหนดี
  • 8:36 - 8:37
    มันเหมือนกล่องดำ
  • 8:37 - 8:40
    มันสามารถทำนายได้
    แต่เราไม่อาจเข้าใจมันได้
  • 8:40 - 8:43
    ฉันถาม "คุณจะใช้วิธีป้องกันใด
  • 8:43 - 8:47
    เพื่อให้แน่ใจว่า กล่องดำของคุณ
    ไม่ทำอะไรนอกลู่นอกทาง
  • 8:49 - 8:53
    เธอมองดิฉันกลับเหมือนดิฉันกำลัง
    เหยียบหางลูกหมาอยู่ 10 ตัว
  • 8:53 - 8:54
    (เสียงหัวเราะ)
  • 8:54 - 8:56
    เธอจ้องดิฉันกลับ และพูดว่า
  • 8:57 - 9:01
    "อย่ามาพูดอะไรแบบนี้
    ให้ฉันฟังอีกนะคะ"
  • 9:01 - 9:03
    แล้วเธอก็หันหน้า เดินหนีไป
  • 9:04 - 9:06
    เธอไม่ได้หยาบคายหรอกค่ะ
  • 9:06 - 9:12
    แค่ว่า อะไรที่ฉันไม่รู้ ไม่ใช่ปัญหาของฉัน
    ไปไกล ๆ ไล่ด้วยสายตา
  • 9:12 - 9:13
    (เสียงหัวเราะ)
  • 9:14 - 9:18
    ระบบแบบนั้น
    อาจมีอคติน้อยกว่า
  • 9:18 - 9:20
    ผู้จัดการมนุษย์ในบางด้าน
  • 9:20 - 9:22
    และอาจคุ้มค่าทางการเงินด้วยก็จริง
  • 9:23 - 9:24
    แต่ก็อาจเป็นต้นเหตุ
  • 9:24 - 9:29
    ที่ค่อย ๆ นำไปสู่การกีดกัน
    คนที่มีแนวโน้มซึมเศร้า
  • 9:29 - 9:31
    ออกจากตลาดแรงงานไปเลย
    โดยเราไม่รู้ตัว
  • 9:32 - 9:34
    นี่คือสังคมแบบที่เราอยาก
    สร้างขึ้น
  • 9:34 - 9:37
    โดยที่เราไม่รู้ตัว เพราะเราให้การตัดสินใจ
  • 9:37 - 9:41
    อยู่ในมือของเครื่องกลที่เราเอง
    ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ
  • 9:41 - 9:43
    อีกปัญหาหนึ่งคือ
  • 9:43 - 9:48
    ระบบเหล่านี้ มักถูกฝึกฝน
    โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา
  • 9:48 - 9:50
    พฤติกรรมของมนุษย์
  • 9:50 - 9:54
    ฉะนั้น มันอาจรับเอาอคติของเรา
  • 9:54 - 9:58
    แล้วก็หยิบอคติเหล่านั้นออกมา
  • 9:58 - 9:59
    ขยายให้รุนแรงขึ้น
  • 9:59 - 10:00
    แล้วก็แสดงผลกลับมาให้เราดู
  • 10:00 - 10:02
    ขณะที่เราพร่ำบอกตัวเองว่า
  • 10:02 - 10:05
    "เรากำลังคำนวณอย่างเป็นกลาง
    ตามข้อเท็จจริง"
  • 10:06 - 10:09
    นักวิจัยพบว่าบนกูเกิ้ล
  • 10:10 - 10:15
    โฆษณางานรายได้สูงมีแนวโน้มจะแสดง
    ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย
  • 10:16 - 10:19
    และถ้าเราเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน
  • 10:19 - 10:24
    ก็มีแนวโน้มที่โฆษณาซึ่งเกี่ยวข้อง
    กับประวัติอาชญากรรมจะแสดงขึ้นมา
  • 10:24 - 10:25
    แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม
  • 10:27 - 10:30
    อคติซ่อนเร้น
    และอัลกอริธึ่มกล่องดำแบบนี้เอง
  • 10:30 - 10:34
    ซึ่งบางครั้ง นักวิจัยก็เผอิญค้นพบ
    แต่บางครั้งก็ไม่อาจรู้ได้
  • 10:34 - 10:37
    ที่อาจสร้างผลกระทบ
    ถึงขั้นเปลี่ยนชีวิตคนได้
  • 10:38 - 10:42
    ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง
    ถูกตัดสินจำคุกหกปี
  • 10:42 - 10:43
    ข้อหาหลบหนีตำรวจ
  • 10:45 - 10:46
    เรื่องนี้คุณอาจไม่รู้
  • 10:46 - 10:50
    แต่เราให้อัลกอริธึ่มตัดสินใจเรื่อง
    การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ
  • 10:50 - 10:53
    ผู้ต้องหาคนนั้นอยากรู้ว่า
    คะแนนนี้มีวิธีคำนวณอย่างไร
  • 10:54 - 10:55
    อัลกอริธึ่มนีี้เป็นของบริษัทแสวงกำไร
  • 10:55 - 11:00
    บริษัทนั้นปฎิเสธที่จะให้
    ศาลไต่สวนอัลกอริธึ่มของตนเอง
  • 11:00 - 11:06
    แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่หวังกำไร
    ตรวจสอบอัลกอริธึ่มนั้น
  • 11:06 - 11:08
    โดยใช้ข้อมูลสาธารณะเท่าที่หาได้
  • 11:08 - 11:10
    และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่
  • 11:10 - 11:14
    ความสามารถในการทำนายย่ำแย่
    ดีกว่าเดาสุ่มแค่นิดเดียว
  • 11:14 - 11:18
    มันให้ผลลัพธ์ที่ผิดพลาดว่า
    ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต
  • 11:18 - 11:22
    สูงเป็นสองเท่าของผู้ต้องหาผิวขาว
  • 11:24 - 11:25
    ลองดูอีกคดีหนึ่ง
  • 11:26 - 11:30
    ผู้หญิงคนนี้ ไปรับน้องสาวบุญธรรม
    กลับจากโรงเรียน
  • 11:30 - 11:32
    ในบรอเวิร์ด เคาน์ตี้ ฟลอริด้า
    สายกว่าเวลา
  • 11:33 - 11:35
    เธอกับเพื่อน ๆ
    วิ่งกันไปตามถนน
  • 11:35 - 11:39
    แล้วเจอจักรยานเด็ก
    และสกูตเตอร์วางทิ้งไว้
  • 11:39 - 11:41
    แล้วก็เอามาใช้อย่างไม่คิด
  • 11:41 - 11:44
    ขณะที่กำลังจะปั่นจักรยานไป
    ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า
  • 11:44 - 11:46
    "เฮ้ นั่นของลูกฉันนะ"
  • 11:46 - 11:49
    พวกเธอเลยทิ้งจักรยาน
    รีบเดินหนี แล้วก็ถูกจับกุม
  • 11:49 - 11:53
    เธอผิดจริง เธอโง่เขลา
    แต่เธอก็อายุแค่ 18 ด้วย
  • 11:53 - 11:55
    เธอเคยถูกจับด้วยข้อหาเล็ก ๆ น้อย ๆ มาก่อน
  • 11:56 - 12:01
    ส่วนผู้ชายคนนั้น ถูกจับกุม
    ข้อหาขโมยของในโฮมดีโป้
  • 12:01 - 12:04
    มูลค่า 85 ดอลลาร์
    เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน
  • 12:05 - 12:09
    แต่เขามีประวัติกรรโชคทรัพย์
    มาแล้วถึงสองครั้ง
  • 12:10 - 12:13
    แต่อัลกอริธึ่มกลับให้คะแนน
    ความเสี่ยงเธอสูง ไม่ใช่เขา
  • 12:15 - 12:19
    สองปีต่อมา โปรพับลิก้า พบว่า
    เธอไม่ได้กระทำผิดซ้ำอีก
  • 12:19 - 12:21
    แต่ด้วยประวัติของเธอ
    ทำให้เธอหางานทำได้ยาก
  • 12:21 - 12:23
    แต่ผู้ชายนั้น กลับทำความผิดซ้ำ
  • 12:23 - 12:27
    และตอนนี้ ต้องโทษจำคุกแปดปี
    จากการทำผิดหนหลัง
  • 12:28 - 12:31
    ฉะนั้น เราต้องตรวจสอบกล่องดำของเรา
  • 12:31 - 12:34
    และไม่ปล่อยให้มันมีอำนาจโดย
    ไม่มีการถ่วงดุลเช่นนี้
  • 12:34 - 12:37
    (เสียงปรบมือ)
  • 12:38 - 12:42
    การตรวจสอบเป็นเรื่องที่ดีและสำคัญ
    แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง
  • 12:42 - 12:45
    ลองดูฟีดข่าวทรงอิทธิพล
    ของเฟซบุ้กเป็นตัวอย่าง
  • 12:45 - 12:50
    อันที่จัดลำดับข่าวสารทุกอย่าง
    แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู
  • 12:50 - 12:52
    โดยดูจากเพื่อนและเพจที่คุณติดตามนี่แหละ
  • 12:53 - 12:55
    จะโชว์อะไรดีล่ะ รูปเด็กเล็ก
  • 12:55 - 12:56
    (เสียงหัวเราะ)
  • 12:56 - 12:59
    หรือโน้ตขึงขังที่คนรู้จักเขียน
  • 12:59 - 13:01
    หรือจะเป็นข่าวชิ้นสำคัญแต่อ่านยาก
  • 13:01 - 13:03
    ไม่มีคำตอบผิดถูก
  • 13:03 - 13:05
    เฟซบุ้กให้ความสำคัญกับ
    การมีปฏิสัมพันธ์ต่อคอนเทนต์
  • 13:06 - 13:07
    ไลค์ แชร์ คอมเมนต์
  • 13:08 - 13:11
    ในเดือนสิงหาคม ค.ศ. 2014
  • 13:11 - 13:14
    เกิดการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่
  • 13:14 - 13:18
    หลังจากเหตุการณ์ที่ตำรวจผิวขาว
    ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย
  • 13:18 - 13:20
    ในสภาพการณ์ที่ีน่าสงสัย
  • 13:20 - 13:22
    ข่าวการประท้วงผุดเต็มฟีด
  • 13:22 - 13:25
    บนหน้าทวิตเตอร์
    ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน
  • 13:25 - 13:27
    แต่หาไม่เจอบนเฟซบุ้กเลย
  • 13:27 - 13:29
    เพราะเพื่อนบนเฟซบุ้กของฉันหรือ?
  • 13:29 - 13:31
    ดิฉันบล็อกอัลกอริธึ่มของเฟซบุ้กเสีย
  • 13:31 - 13:34
    ซึ่งทำได้ยาก เพราะเฟซบุ้ก
    จะยืนกรานแต่ให้คุณ
  • 13:34 - 13:36
    อยู่ใต้บงการของอัลกอริธึ่ม
  • 13:36 - 13:39
    แล้วก็พบว่า เพื่อน ๆ ของฉัน
    ต่างก็พูดถึงเรื่องนี้
  • 13:39 - 13:41
    แต่อัลกอริธึ่มมันไม่ยอม
    โชว์ให้ดิฉันดู
  • 13:41 - 13:44
    ฉันค้นคว้าเรื่องนี้ต่อ
    และพบว่านี่เป็นปัญหาในวงกว้าง
  • 13:44 - 13:48
    ข่าวเฟอร์กูสัน
    ไม่เป็นมิตรกับอัลกอริธึ่ม
  • 13:48 - 13:49
    เพราะมัน "ไม่มีคนไลค์"
  • 13:49 - 13:51
    ใครจะไปกดไลค์ล่ะ
  • 13:52 - 13:54
    ขนาดคอมเมนต์ยังยากเลย
  • 13:54 - 13:55
    เมื่อไม่มีไลค์ หรือคอมเมนต์
  • 13:55 - 13:58
    อัลกอริธึ่มจึงมีแนวโน้ม
    จะโชว์ให้คนดูน้อยลงไปอีก
  • 13:58 - 14:00
    เราเลยไม่เห็นข่าวนี้เลย
  • 14:01 - 14:02
    แต่ในสัปดาห์นั้น
  • 14:02 - 14:04
    สิ่งที่อัลกอริธึ่มของเฟซบุ้กให้ความสำคัญ
  • 14:05 - 14:07
    คือ การท้าราดน้ำแข็งสู้โรค ALS
  • 14:07 - 14:11
    จุดประสงค์ดี มีการราดน้ำแข็ง
    ได้บริจาคช่วยคน ดีค่ะ
  • 14:11 - 14:12
    แต่ข่าวนี้ อัลกอริธึ่มก็จะชอบมาก ๆ ไปเลย
  • 14:13 - 14:16
    เครื่องจักรตัดสินใจเรื่องแบบนี้ให้พวกเรา
  • 14:16 - 14:19
    การสนทนาประเด็นยาก ๆ
    แต่สำคัญมาก ๆ แบบนี้
  • 14:19 - 14:21
    อาจถูกกำจัดออก
  • 14:21 - 14:24
    หากมีเฟซบุ้กเป็นสื่อเพียงช่องทางเดียว
  • 14:24 - 14:28
    และท้ายที่สุด ระบบพวกนี้
    ก็อาจผิดพลาด
  • 14:28 - 14:31
    ในแบบที่ต่างจากระบบของมนุษย์ไปเลยก็ได้
  • 14:31 - 14:34
    พวกคุณคงรู้จักวัตสัน
    ระบบสมองประดิษฐ์ของ IBM
  • 14:34 - 14:37
    ที่เอาชนะคู่แข่งมนุษย์
    แบบขาดลอยในรายการเจพเปอร์ดี้
  • 14:37 - 14:39
    มันเล่นเกมเก่งมาก
  • 14:39 - 14:42
    แต่ในเจพเปอร์ดี้รอบสุดท้าย
    วัตสันต้องตอบคำถามนี้ค่ะ
  • 14:43 - 14:46
    "สนามบินที่ใหญ่ที่สุดของมัน
    ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2
  • 14:46 - 14:48
    และเป็นสมรภูมิใหญ่เป็นที่สอง
    ในสงครามโลกครั้งที่ 2"
  • 14:48 - 14:49
    (ฮัมดนตรีรายการเจพเปอร์ดี้รอบสุดท้าย)
  • 14:50 - 14:51
    ชิคาโก้ค่ะ
  • 14:51 - 14:52
    มนุษย์สองคนตอบถูกต้อง
  • 14:53 - 14:57
    แต่วัตสัน ตอบว่า "โตรอนโต้"
  • 14:57 - 14:59
    ทั้งที่คำถามเป็นหมวด เมืองในสหรัฐฯ!
  • 15:00 - 15:02
    ระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง
  • 15:03 - 15:06
    ในเรื่องที่มนุษย์ทั่วไป
    หรือกระทั้งเด็กประถมไม่มีทางพลาด
  • 15:07 - 15:10
    สมองประดิษฐ์อาจทำผิดพลาดได้
  • 15:10 - 15:13
    ด้วยพฤติการณ์คนละแบบกับของมนุษย์
  • 15:13 - 15:16
    ในรูปแบบที่เราจะคาดไม่ถึง
    และไม่ได้เตรียมรับมือ
  • 15:16 - 15:20
    การไม่ได้งานทั้งที่คุณ
    มีคุณสมบัติพร้อมก็แย่อยู่แล้ว
  • 15:20 - 15:23
    แต่คงแย่สุด ๆ ถ้าไม่ได้งาน
    เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์
  • 15:23 - 15:25
    ในซับรูทีนบางตัว
  • 15:25 - 15:27
    (เสียงหัวเราะ)
  • 15:27 - 15:29
    เมื่อเดือนพฤษภาคม 2010
  • 15:29 - 15:33
    ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน
    เนื่องจากลูปป้อนกลับ
  • 15:33 - 15:36
    ในอัลกอริธึ่มของวอลล์สตรีท
  • 15:36 - 15:41
    ทำให้เงินในตลาดหายไป
    กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที
  • 15:42 - 15:44
    ดิฉันไม่อยากคิดเลยว่า
    "ข้อบกพร่อง" จะเป็นแบบไหน
  • 15:44 - 15:48
    ถ้าเกิดเปลี่ยนเป็น
    อาวุธอันตรายแบบอัตโนมัติแทน
  • 15:50 - 15:54
    มนุษย์ล้วนมีอคติกันทั้งนั้น
  • 15:54 - 15:56
    ทั้งผู้ตัดสินใจ และผู้ดูแลกฎ
  • 15:56 - 15:59
    ทั้งในศาล ในข่าว และในสงคราม
  • 15:59 - 16:02
    พวกเขาผิดพลาดได้ทั้งนั้น
    แต่นั่นแหละ คือประเด็นของดิฉัน
  • 16:02 - 16:06
    เราหลบเลี่ยงคำถามยาก ๆ แบบนี้ไม่ได้
  • 16:07 - 16:10
    เราจะถ่ายโอนความรับผิดชอบ
    ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้
  • 16:11 - 16:15
    (เสียงปรบมือ)
  • 16:17 - 16:22
    ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา
    เป็นอิสระจากปัญหาเชิงจริยธรรม
  • 16:23 - 16:26
    นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน
    เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing)
  • 16:26 - 16:28
    เราต้องทำตรงกันข้าม
  • 16:28 - 16:33
    เราต้องส่งเสริมการสีบสวน
    ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม
  • 16:33 - 16:37
    เราต้องมั่นใจได้ว่าอัลกอริธึ่มที่ใช้
    สามารถตรวจสอบย้อนกลับได้
  • 16:37 - 16:39
    ออดิทได้ และมีความโปร่งใสอย่างเป็นรูปธรรม
  • 16:39 - 16:43
    เราต้องยอมรับว่า
    การเอาคณิตศาสตร์และคอมพิวเตอร์
  • 16:43 - 16:46
    มาใช้แก้ปัญหาของมนุษย์ที่กำกวม
    และแฝงความเชื่อทางสังคม
  • 16:46 - 16:48
    ไม่ได้ทำให้เกิดความเที่ยงตรง
    อย่างภววิสัย
  • 16:48 - 16:52
    แต่ความซับซ้อนของปัญหามนุษย์
    จะเล่นงานอัลกอริธึ่มแทน
  • 16:52 - 16:56
    จริงค่ะ คอมพิวเตอร์นั้น
    เราใช้ได้ และควรใช้ด้วย
  • 16:56 - 16:58
    เพื่อให้เราตัดสินใจได้ดีขึ้น
  • 16:58 - 17:03
    แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรม
    ในการตัดสินใจนั้น
  • 17:03 - 17:06
    แล้วใช้อัลกอริธึ่มภายในขอบเขตนั้น
  • 17:06 - 17:11
    ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน
    ความรับผิดชอบของเรา
  • 17:11 - 17:13
    ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน
  • 17:14 - 17:16
    เรามีสมองประดิษฐ์ไว้ใช้แล้ว
  • 17:16 - 17:20
    นั่นหมายความว่า เรายิ่งต้องยึดมั่น
  • 17:20 - 17:22
    ในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์
  • 17:22 - 17:23
    ขอบคุณค่ะ
  • 17:23 - 17:28
    (เสียงปรบมือ)
Title:
เมื่อมีปัญญาประดิษฐ์ ศีลธรรมมนุษย์ก็ยิ่งสำคัญ
Speaker:
เซย์เน็พ ตูเฟ็คชี่ (Zeynep Tufekci)
Description:

ปัญญาประดิษฐ์เกิดขึ้นแล้ว เรากำลังใช้ให้มันแก้ปัญหาในเรื่องที่ไม่มีคำตอบตายตัว แต่วิธีอันซับซ้อนที่เอไอใช้เรียนรู้และพัฒนาตนเอง ทำให้เราเข้าใจมันได้ยาก และยากยิ่งกว่าในการควบคุม ในทอล์กแฝงข้อเตือนใจนี้ นักเทคโนสังคมวิทยา เซย์เนป ตูเฟ็คจี อธิบายให้ฟังว่า ปัญญาประดิษฐ์อาจสร้างข้อผิดพลาดที่ผิดจากรูปการณ์แบบมนุษย์ได้ โดยที่เราอาจไม่สามารถคาดหรือเตรียมรับมือ "เราจะถ่ายโอนความรับผิดชอบของเราให้คอมพิวเตอร์ไม่ได้" เธอกล่าว "เรายิ่งต้องยึดมั่นในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์"

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Thai subtitles

Revisions