Return to Video

ยุคแห่งความเชื่องมงายในข้อมูลมหาศาล จะต้องสิ้นสุดลง

  • 0:01 - 0:03
    อัลกอริทึมอยู่ทุกหนแห่ง
  • 0:04 - 0:07
    มันคัดแยกและ
    กันผู้ชนะออกจากผู้แพ้
  • 0:08 - 0:10
    ผู้ชนะได้งาน
  • 0:10 - 0:12
    หรือได้ข้อเสนอบัตรเครดิตดีๆ
  • 0:12 - 0:15
    ผู้แพ้ไม่ได้แม้กระทั่งโอกาสเรียกสัมภาษณ์
  • 0:16 - 0:17
    หรือต้องจ่ายเบี้ยประกันแพงกว่า
  • 0:18 - 0:22
    เรากำลังถูกให้คะแนน
    จากสูตรลับที่เราไม่เข้าใจ
  • 0:23 - 0:26
    และโดยมากมักไม่มีระบบที่เราจะอุทธรณ์ได้
  • 0:27 - 0:29
    นั่นทำให้เกิดคำถามขึ้นว่า
  • 0:29 - 0:31
    แล้วถ้าอัลกอริทึมมันผิดล่ะ
  • 0:33 - 0:35
    ในการสร้างอัลกอริทึม คุณต้องการสองอย่าง
  • 0:35 - 0:37
    คุณต้องการข้อมูล สิ่งที่เกิดขึ้นในอดีต
  • 0:37 - 0:39
    และนิยามของความสำเร็จ
  • 0:39 - 0:41
    สิ่งที่คุณมองหา หรือหวังว่าจะเจอ
  • 0:41 - 0:46
    คุณฝึกสอนอัลกอริทึม โดยการมองหา
    และคำนวณ
  • 0:46 - 0:50
    อัลกอริทึมจะคำนวณหา
    ว่าอะไรที่มีส่วนเกี่ยวข้องกับความสำเร็จ
  • 0:50 - 0:52
    สถานการณ์อย่างไรที่จะนำ
    ไปสู่ความสำเร็จ
  • 0:53 - 0:55
    ความจริงแล้ว ทุกคนต่าง
    ก็ใช้อัลกอริทึม
  • 0:55 - 0:57
    เพียงแต่ไม่ได้เขียนเป็นโปรแกรม
    เป็นทางการ
  • 0:57 - 0:59
    ขอยกตัวอย่างนะคะ
  • 0:59 - 1:02
    ฉันใช้อัลกอริทึมทุกวัน
    เพื่อทำอาหารสำหรับครอบครัว
  • 1:02 - 1:04
    ข้อมูลที่ฉันใช้
  • 1:04 - 1:06
    คือวัตถุดิบที่มีในครัว
  • 1:06 - 1:08
    เวลาที่ฉันมี
  • 1:08 - 1:09
    ความตั้งใจที่มี
  • 1:09 - 1:11
    และฉันเองก็กลั่นกรองข้อมูลเหล่านั้น
  • 1:11 - 1:15
    ฉันไม่นับพวกบะหมี่กึ่งสำเร็จรูป
    ว่าเป็นอาหารนะคะ
  • 1:15 - 1:17
    (เสียงหัวเราะ)
  • 1:17 - 1:19
    นิยามความสำเร็จของฉันคือ
  • 1:19 - 1:21
    มื้ออาหารจะถือว่าสำเร็จ
    ถ้าเด็กๆ ยอมกินผัก
  • 1:22 - 1:25
    มันจะต่างออกไปมาก
    ถ้าลูกชายคนเล็กของฉันเป็นคนคุมครัว
  • 1:25 - 1:28
    เขาจะบอกว่า ความสำเร็จคือ
    เขาได้กินนูเทลล่าเยอะๆ
  • 1:29 - 1:31
    แต่ฉันเป็นคนเลือกนิยามความสำเร็จ
  • 1:31 - 1:34
    ฉันเป็นคนรับผิดชอบ ความเห็นของฉันสำคัญ
  • 1:34 - 1:37
    มันเป็นกฏข้อแรกของอัลกอริทึม
  • 1:37 - 1:40
    อัลกอริทึมคือความคิดเห็น
    ที่ถูกฝังลงในในโค้ดโปรแกรม
  • 1:42 - 1:45
    ซึ่งมันแตกต่างอย่างมาก กับที่คุณ
    หรือคนทั่วไปคิดถึงอัลกอริทึม
  • 1:45 - 1:50
    พวกเขาคิดว่า อัลกอริทึมมีความ
    ตรงไปตรงมา เป็นวิทยาศาสตร์
  • 1:50 - 1:52
    นั่นเป็นแค่กลทางการตลาด
  • 1:53 - 1:55
    และก็เป็นทริกการตลาดนี่แหละ
  • 1:55 - 1:59
    ที่คุกคามคุณด้วยอัลกอริทึม
  • 1:59 - 2:02
    เพื่อจะทำให้คุณเชื่อใจ และกลัวอัลกอริทึม
  • 2:02 - 2:04
    เพราะว่าคุณไว้ใจ และกลัวคณิตศาสตร์
  • 2:06 - 2:10
    อาจเกิดสิ่งผิดพลาดได้มากมาย เมื่อเรามีศรัทธา
    อย่างมืดบอดในข้อมูลมหาศาล (big data)
  • 2:12 - 2:15
    นี่คือ คิริ ซัวเรส เธอเป็นครูใหญ่
    โรงเรียนมัธยมแห่งหนึ่งในบรุคลิน
  • 2:15 - 2:18
    ปี 2011 เธอบอกฉันว่า ครูของเธอถูกให้คะแนนจาก
  • 2:18 - 2:20
    อัลกอริทึมที่ซับซ้อน และเป็นความลับ
  • 2:20 - 2:22
    ที่เรียกว่า "โมเดลเพิ่มคุณค่า"
  • 2:23 - 2:26
    ฉันบอกเธอว่า "เอาล่ะ
    มาดูกันว่าสูตรคืออะไร ให้ฉันดูหน่อย
  • 2:26 - 2:27
    ฉันจะอธิบายให้เธอฟังเอง"
  • 2:27 - 2:29
    เธอบอก "ฉันพยายามจะเอาสูตรมา
  • 2:29 - 2:32
    แต่ทางกระทรวงศึกษาธิการ
    แจ้งว่ามันเป็นคณิตศาสตร์
  • 2:32 - 2:34
    และฉันคงไม่เข้าใจ"
  • 2:35 - 2:37
    มันยิ่งแย่ลงไปกว่านั้นอีก
  • 2:37 - 2:40
    หนังสือพิมพ์นิวยอร์กโพสต์
    ทำเรื่องขอตามกฎหมายเสรีภาพข้อมูล
  • 2:40 - 2:43
    และได้ข้อมูลรายชื่อครู รวมถึงผลคะแนน
    ของครูแต่ละคน
  • 2:43 - 2:46
    แล้วนำมาตีพิมพ์
    เหมือนกับว่าจะประจานเหล่าครู
  • 2:47 - 2:51
    เมื่อฉันติดต่อเพื่อขอทราบสูตรการคำนวณ
    ผ่านช่องทางเดียวกัน
  • 2:51 - 2:53
    กลับได้รับการแจ้งว่า
    ไม่สามารถให้สูตรได้
  • 2:53 - 2:54
    ฉันถูกปฏิเสธ
  • 2:54 - 2:56
    และฉันมาพบภายหลังว่า
  • 2:56 - 2:58
    ไม่มีใครในนิวยอร์กสามารถเข้าถึงสูตรนั้นได้
  • 2:58 - 3:00
    ไม่มีใครเข้าใจมัน
  • 3:02 - 3:05
    จนกระทั่งคนที่ฉลาดมากคนหนึ่ง
    เข้ามาเกี่ยวข้องด้วย แกรี่ รูบินสไตน์
  • 3:05 - 3:09
    เขาพบข้อมูลเกี่ยวกับครู 665 คน
    จากข้อมูลของนิวยอร์คโพสต์
  • 3:09 - 3:11
    ที่ในความจริงแล้ว มีค่าคะแนนเป็นสองค่า
  • 3:11 - 3:13
    ซึ่งก็อาจจะเป็นไปได้หากพวกเขาสอน
  • 3:13 - 3:15
    คณิตศาสตร์ในชั้นเกรดเจ็ด และในชั้นเกรดแปด
  • 3:15 - 3:17
    เขาตัดสินใจนำข้อมูลพวกนั้นมาวาดกราฟ
  • 3:17 - 3:19
    แต่ละจุดแทนครูแต่ละคน
  • 3:19 - 3:21
    (เสียงหัวเราะ)
  • 3:22 - 3:23
    นั่นคืออะไร?
  • 3:23 - 3:24
    (เสียงหัวเราะ)
  • 3:24 - 3:28
    นั่นไม่ควรจะถูกเอามาใช้
    ในการประเมินรายบุคคล
  • 3:28 - 3:30
    มันเกือบจะเหมือนการสร้างตัวเลขแบบสุ่มเลย
  • 3:30 - 3:33
    (เสียงปรบมือ)
  • 3:33 - 3:34
    แต่ก็เป็นไปแล้ว
  • 3:34 - 3:35
    และนี่คือ ซาร่า ไวซอคกี
  • 3:35 - 3:37
    เธอถูกไล่ออก พร้อมกับ
    ครูคนอื่นๆ อีก 205 คน
  • 3:37 - 3:40
    จากเขตการศึกษาวอชิงตันดีซี
  • 3:40 - 3:43
    ถึงแม้ว่าเธอจะได้รับจดหมายแนะนำตัว
    ที่ดีมากจากครูใหญ่ของเธอ
  • 3:43 - 3:44
    และจากผู้ปกครองของนักเรียน
  • 3:45 - 3:47
    ฉันรู้ว่า พวกคุณคิดอะไรกันอยู่
  • 3:47 - 3:50
    โดยเฉพาะเหล่านักวิทยาการข้อมูล
    ที่เชี่ยวชาญ AI ในที่นี้
  • 3:50 - 3:54
    คุณคงคิดว่า "แหม ฉันคงไม่มีทาง
    สร้างอัลกอริทึมที่ไม่แน่นอนอย่างนี้หรอก"
  • 3:55 - 3:57
    แต่อัลกอริทึม ก็สามารถผิดพลาดได้
  • 3:57 - 4:01
    และถึงขนาดส่งผลเสียหายอย่างขนานใหญ่
    ทั้งๆ ที่มีเจตนาดีได้
  • 4:03 - 4:05
    นี่ไม่เหมือนกับการออกแบบเครื่องบินที่แย่
  • 4:05 - 4:07
    ซึ่งพอตกลงมา
    ทุกคนจะมองเห็นได้
  • 4:07 - 4:09
    แต่อัลกอริทึมที่ออกแบบไม่ดี
  • 4:10 - 4:14
    อาจจะถูกใช้งานอยู่ได้เป็นเวลานาน
    สร้างหายนะอย่างเงียบๆ ไม่มีใครเห็นได้
  • 4:16 - 4:17
    นี่คือโรเจอร์ เอลส์
  • 4:17 - 4:19
    (เสียงหัวเราะ)
  • 4:21 - 4:23
    เขาก่อตั้งฟอกซ์นิวส์ในปี 1996
  • 4:23 - 4:26
    มีผู้หญิงกว่า 20 คนร้องเรียนเรื่อง
    การคุกคามทางเพศ
  • 4:26 - 4:29
    พวกเธอกล่าวว่า พวกเธอไม่ได้รับโอกาส
    ที่จะประสบความสำเร็จในฟอกซ์นิวส์
  • 4:29 - 4:32
    เขาออกจากตำแหน่งเมื่อปีที่แล้ว
    แต่เราได้เห็นเร็วๆ นี้ว่า
  • 4:32 - 4:35
    ปัญหาเรื่องเพศ ยังคงมีอยู่
  • 4:36 - 4:37
    ซึ่งนั่นก่อให้เกิดคำถามว่า
  • 4:37 - 4:40
    ฟอกซ์นิวส์ควรจะทำอย่างไร
    เพื่อจะเปลี่ยนไปในทางที่ดีขึ้น
  • 4:41 - 4:44
    แล้วถ้าหากว่าพวกเขาเปลี่ยน
    กระบวนการว่าจ้าง
  • 4:44 - 4:46
    มาให้ใช้อัลกอริทึมที่
    เรียนรู้ด้วยเครื่อง (Machine Learning) ละ
  • 4:46 - 4:48
    นั่นฟังดูดีใช่มั้ยละ
  • 4:48 - 4:49
    ลองคิดดูดีๆ นะคะ
  • 4:49 - 4:51
    ข้อมูลที่ใช้ ข้อมูลอะไรที่จะนำมาใช้
  • 4:51 - 4:56
    ตัวเลือกที่สมเหตุสมผลคือใบสมัครงาน
    ของฟอกซ์นิวส์ใน 21 ปีที่ผ่านมา
  • 4:56 - 4:58
    สมเหตุสมผล
  • 4:58 - 4:59
    แล้วนิยามของความสำเร็จละ
  • 5:00 - 5:01
    ตัวเลือกที่ดูเหมาะสมก็คือ
  • 5:01 - 5:03
    คิดดูนะ ใครที่ประสบความสำเร็จ
    ที่ฟอกซ์นิวส์
  • 5:03 - 5:07
    ฉันเดาว่า น่าจะเป็นใครสักคนที่อยู่
    มาได้สัก 4 ปี
  • 5:07 - 5:08
    และได้เลื่อนตำแหน่ง
    อย่างน้อยหนึ่งครั้ง
  • 5:09 - 5:10
    ฟังดูเข้าท่าดีใช่มั้ยล่ะ
  • 5:10 - 5:13
    และอัลกอริทึมก็จะถูกฝึกสอน
  • 5:13 - 5:17
    มันจะถูกสอนให้มองหาผู้สมัคร
    มองหาลักษณะที่จะนำไปสู่ความสำเร็จ
  • 5:17 - 5:22
    ใบสมัครแบบไหน ที่จะประสบความสำเร็จ
    จากในอดีตที่ผ่านมา
  • 5:22 - 5:23
    ตามนิยามความสำเร็จ
  • 5:24 - 5:26
    ลองคิดดูซิว่า จะเกิดอะไรขึ้น
  • 5:26 - 5:29
    ถ้าเราเอามาประยุกต์ใช้กับ
    กลุ่มผู้สมัครในปัจจุบัน
  • 5:29 - 5:31
    มันจะคัดกรองเอาผู้หญิงออกไป
  • 5:32 - 5:36
    เพราะผู้หญิงดูไม่เหมือนกับ
    คนที่จะประสบความสำเร็จในอดีต
  • 5:40 - 5:42
    อัลกอริทึมไม่ได้
    ทำให้เกิดความยุติธรรมขึ้นนะคะ
  • 5:42 - 5:45
    ถ้าคุณแค่หลับหูหลับตา
    เอาอัลกอริทึมมาใช้
  • 5:45 - 5:47
    มันไม่ทำให้เกิดความเป็นธรรม
  • 5:47 - 5:49
    มันแค่ทำซ้ำสิ่งที่เคยปฏิบัติมาในอดีต
  • 5:49 - 5:50
    รูปแบบของเรา
  • 5:50 - 5:52
    มันแค่ทำสถานะปัจจุบันให้เป็นอัตโนมัติ
  • 5:53 - 5:55
    ซึ่งมันคงจะเป็นเรื่องเยี่ยม
    ถ้าเราอยู่ในโลกที่สมบูรณ์แบบ
  • 5:56 - 5:57
    แต่เราไม่ได้อยู่
  • 5:57 - 6:01
    และฉันจะเพิ่มเติมอีกว่า
    ถึงบริษัทส่วนใหญ่จะไม่ได้มีคดีอื้อฉาว
  • 6:02 - 6:05
    แต่เหล่านักวิทยาการข้อมูลในบริษัทเหล่านั้น
  • 6:05 - 6:07
    ได้รับคำสั่งให้ถือข้อมูลเป็นหลัก
  • 6:07 - 6:09
    ให้เน้นไปที่ความถูกต้องแม่นยำ
  • 6:10 - 6:12
    ลองคิดดูว่า
    นั่นหมายความว่าอย่างไร
  • 6:12 - 6:16
    เนื่องจากเราต่างก็มีอคติ
    มันหมายความว่า เรากำลังสร้างการเหยียดเพศ
  • 6:16 - 6:18
    หรือความอคติดื้อรั้นบางอย่างลงในระบบ
  • 6:19 - 6:21
    มาทดลองด้านความคิดกันหน่อย
  • 6:21 - 6:22
    เพราะฉันชอบทำ
  • 6:24 - 6:27
    สังคมแห่งหนึ่งที่มีความแบ่งแยกอย่างสมบูรณ์
  • 6:28 - 6:32
    แบ่งแยกกันด้านเชื้อชาติ ในทุกเมือง
    ทุกชุมชน
  • 6:32 - 6:35
    และเราส่งตำรวจไปแค่ที่ชุมชน
    ของคนกลุ่มเสียงข้างน้อยเท่านั้น
  • 6:35 - 6:36
    เพื่อตรวจหาอาชญากรรม
  • 6:36 - 6:39
    ข้อมูลการจับกุมก็จะมีความลำเอียงเป็นอย่างมาก
  • 6:40 - 6:42
    นอกจากนั้นแล้ว
    ถ้าเราหานักวิทยาการข้อมูลและจ้าง
  • 6:42 - 6:47
    ให้พวกเขาเหล่านั้น ทำนายว่า
    อาชญากรรมครั้งต่อไปจะเกิดที่ไหน
  • 6:47 - 6:49
    ชุมชนของคนกลุ่มน้อย
  • 6:49 - 6:52
    หรือเพื่อทำนายว่า อาชญากรคนต่อไปจะเป็นใคร?
  • 6:53 - 6:54
    คนกลุ่มน้อย
  • 6:56 - 6:59
    นักวิทยาการข้อมูลก็คงจะอวดโอ่
    ได้ว่าโมเดลของพวกเขานั้น
  • 7:00 - 7:01
    ยอดเยี่ยมและแม่นยำเพียงใด
  • 7:01 - 7:02
    และพวกเขาก็คงจะเป็นฝ่ายถูก
  • 7:04 - 7:09
    ในความเป็นจริงแล้ว มันคงไม่สุดขั้วขนาดนั้น
    แต่เราก็มีปัญหาการแบ่งแยกที่รุนแรง
  • 7:09 - 7:10
    ในหลายๆ เมืองทั้งเล็กและใหญ่
  • 7:10 - 7:12
    และเรายังมีหลักฐานอีกมากมาย
  • 7:12 - 7:15
    ของข้อมูลเกี่ยวกับ
    กระบวนการยุติธรรมที่มีอคติ
  • 7:16 - 7:18
    และเราก็มีการพยากรณ์จุดเสี่ยงจริงๆ
  • 7:18 - 7:20
    คือตำแหน่งที่จะเกิดอาชญากรรมขึ้น
  • 7:20 - 7:24
    และเราก็มีการพยากรณ์การเกิด
    อาชญากรรมจริงๆ
  • 7:24 - 7:26
    การเกิดอาชญากรรมของแต่ละบุคคล
  • 7:27 - 7:31
    องค์กรสื่อที่เรียกว่า โปรพับลิก้า
    ได้ทำการศึกษาเมื่อเร็วๆ นี้
  • 7:31 - 7:33
    เกี่ยวกับอัลกอริทึม ที่เรียกกันว่า
  • 7:33 - 7:34
    "ความเสี่ยงที่จะทำผิดซ้ำซาก"
  • 7:34 - 7:37
    ที่ถูกใช้ในรัฐฟลอริด้า
    ในระหว่างกระบวนการตัดสินของศาล
  • 7:38 - 7:42
    เบอร์นาร์ด ชายผิวดำ ทางด้านซ้าย
    ได้คะแนน 10 เต็ม 10
  • 7:43 - 7:45
    ส่วนดีแลน ทางด้านขวา
    ได้ 3 เต็ม 10
  • 7:45 - 7:48
    10 เต็ม 10 ความเสี่ยงสูง
    3 เต็ม 10 ความเสี่ยงต่ำ
  • 7:49 - 7:51
    พวกเราถูกคุมตัวมาด้วยข้อหา
    มียาเสพติดในครอบครอง
  • 7:51 - 7:52
    ทั้งคู่ต่างก็มีประวัติอาชญากรรม
  • 7:52 - 7:55
    แต่ดีแลนมีความผิดอุกฉกรรจ์ร่วมด้วย
  • 7:55 - 7:56
    แต่เบอร์นาร์ดไม่มี
  • 7:58 - 8:01
    เรื่องนี้เป็นประเด็น เพราะว่า
    ยิ่งคุณได้คะแนนสูงเท่าไหร่
  • 8:01 - 8:04
    ยิ่งมีโอกาสที่จะต้องโทษ
    เป็นเวลาที่ยาวนานกว่า
  • 8:06 - 8:08
    นี่มันเกิดอะไรขึ้น?
  • 8:09 - 8:10
    การฟอกข้อมูล
  • 8:11 - 8:15
    มันคือกระบวนการที่
    นักเทคโนโลยีซ่อนความจริงที่น่าเกลียด
  • 8:15 - 8:17
    เอาไว้ภายในกล่องดำของอัลกอริทึม
  • 8:17 - 8:19
    แล้วเรียกมันว่า ภววิสัย
  • 8:19 - 8:21
    เรียกมันว่า คุณธรรมนิยม
  • 8:23 - 8:26
    เมื่อมันเป็นความลับ มีความสำคัญ
    และมีอำนาจทำลายล้าง
  • 8:26 - 8:28
    ฉันเลยบัญญัติศัพท์เรียกอัลกอริทึมพวกนี้ว่า
  • 8:28 - 8:30
    "อาวุธทำลายล้างด้วยคณิตศาสตร์"
  • 8:30 - 8:32
    (เสียงหัวเราะ)
  • 8:32 - 8:35
    (เสียงปรบมือ)
  • 8:35 - 8:37
    พวกมันอยู่ทุกหนแห่ง
    และนี่ไม่ใช่ความผิดพลาด
  • 8:38 - 8:41
    นี่คือเหล่าบริษัทเอกชน
    ที่สร้างอัลกอริทึมภาคเอกชน
  • 8:41 - 8:43
    เพื่อผลประโยชน์ของเอกชน
  • 8:43 - 8:46
    แม้กระทั่งเรื่องที่ฉันพูดถึง
    เกี่ยวกับครูและตำรวจสาธารณะ
  • 8:46 - 8:48
    อัลกอริทึมเหล่านั้นถูกสร้างโดย
    บริษัทเอกชน
  • 8:48 - 8:51
    และขายให้กับหน่วยงานของรัฐ
  • 8:51 - 8:52
    พวกเขาเรียกมันว่า "สูตรลับ"
  • 8:52 - 8:55
    และนั่นเป็นสาเหตุที่พวกเขาบอกเราไม่ได้
  • 8:55 - 8:57
    และมันยังเป็นอำนาจของเอกชนด้วย
  • 8:58 - 9:03
    พวกเขาได้กำไรจากการใช้
    อำนาจที่ลึกลับและตรวจสอบไม่ได้
  • 9:05 - 9:08
    ถึงตอนนี้คุณอาจจะคิดว่า
    ในเมื่อของพวกนี้เป็นของเอกชน
  • 9:08 - 9:09
    และมันมีการแข่งขัน
  • 9:09 - 9:12
    บางทีสภาพตลาดเสรี
    อาจจะช่วยแก้ปัญหานี้ให้ได้
  • 9:12 - 9:13
    มันแก้ไม่ได้
  • 9:13 - 9:16
    เพราะมีความร่ำรวยมหาศาล
    ที่ถูกสร้างขึ้นมาได้จากความไม่ยุติธรรม
  • 9:17 - 9:20
    และอีกอย่าง คนเราก็ไม่ได้มีความ
    เป็นเหตุเป็นผลนักในทางเศรษฐศาสตร์
  • 9:21 - 9:22
    เราต่างก็มีอคติกันอยู่ทุกคน
  • 9:23 - 9:26
    เราต่างก็มีความเหยียดเชื้อชาติและอคติ
    ในแบบที่เราไม่คิดว่าจะมี
  • 9:26 - 9:28
    หรือในแบบที่เราเองก็ไม่รู้ตัว
  • 9:29 - 9:32
    แต่เรารู้ว่า ในภาพรวมระดับสังคม
    เรามีอคติเหล่านี้
  • 9:32 - 9:36
    เพราะว่านักสังคมวิทยา
    ได้สาธิตให้เราเห็นอคติเหล่านี้
  • 9:36 - 9:37
    อยู่บ่อยๆ ผ่านการทดลองต่างๆ
  • 9:37 - 9:40
    เช่นการส่งใบสมัครงานออกไป
  • 9:40 - 9:42
    โดยระบุคุณสมบัติพอๆ กัน
    แต่กลุ่มหนึ่งชื่อเหมือนคนขาว
  • 9:43 - 9:44
    อีกกลุ่มมีชื่อเหมือนคนผิวสี
  • 9:44 - 9:47
    และผลลัพธ์ที่ออกมาก็น่าผิดหวัง
    อยู่เสมอมา ตลอดมาจริงๆ
  • 9:48 - 9:49
    ดังนั้น พวกเรานี่เองแหละที่มีอคติ
  • 9:49 - 9:53
    และเรากำลังใส่อคติเหล่านั้น
    ลงไปในอัลกอริทึม
  • 9:53 - 9:55
    โดยผ่านการเลือกว่าจะเก็บข้อมูลอะไร
  • 9:55 - 9:57
    เหมือนที่ฉันเลือกที่จะไม่ใช้
    บะหมี่กึ่งสำเร็จรูป
  • 9:57 - 9:59
    ฉันตัดสินใจว่า มันไม่ถือเป็นอาหาร
  • 9:59 - 10:05
    แต่โดยการเชื่อข้อมูลที่เรา
    เก็บมาจากผลการกระทำในอดีต
  • 10:05 - 10:07
    และโดยการเลือกนิยามของความสำเร็จ
  • 10:07 - 10:11
    เราจะคาดหวังว่าอัลกอริทึมจะ
    ออกมาดีได้อย่างไร?
  • 10:11 - 10:13
    เราคาดหวังไม่ได้ เราต้องตรวจสอบมัน
  • 10:14 - 10:16
    เราต้องตรวจสอบมัน
    ในแง่ความเป็นธรรม
  • 10:16 - 10:19
    ข่าวดีก็คือ เราสามารถตรวจสอบ
    ความเป็นธรรมของมันได้
  • 10:19 - 10:22
    อัลกอริทึมสามารถถูกสอบสวนได้
  • 10:22 - 10:24
    และมันจะบอกความจริงเราทุกครั้ง
  • 10:24 - 10:27
    และเราสามารถซ่อมแซมมันได้
    เราทำให้มันดีขึ้นได้
  • 10:27 - 10:29
    ฉันเรียกมันว่า "การตรวจสอบอัลกอริทึม"
  • 10:29 - 10:31
    และฉันจะเล่าให้พวกคุณฟัง
  • 10:31 - 10:33
    สิ่งแรกคือ การตรวจสอบความสอดคล้องของข้อมูล
  • 10:34 - 10:37
    สำหรับอัลกอริทึมความเสี่ยง
    ที่จะทำผิดซ้ำที่ได้เล่าไปแล้ว
  • 10:38 - 10:41
    การตรวจสอบข้อมูลหมายถึง
    การที่เราต้องตระหนักความจริงที่ว่า
  • 10:41 - 10:45
    ในสหรัฐนั้น ทั้งคนขาวและคนดำ
    ต่างก็เสพยาในอัตราเดียวกัน
  • 10:45 - 10:47
    แต่คนดำนั้นมีโอกาสสูงกว่ามาก
    ที่จะถูกจับ
  • 10:47 - 10:50
    สูงกว่ามากถึง 4 หรือ 5 เท่า
    ขึ้นอยู่กับสถานที่
  • 10:51 - 10:54
    แล้วอคตินั้นเป็นอย่างไร
    ในอาชญากรรมประเภทอื่นๆ
  • 10:54 - 10:56
    แล้วเราจะนำปัจจัยมาพิจารณาอย่างไร
  • 10:56 - 10:59
    อย่างที่สอง เราควรจะคิดถึง
    นิยามของความสำเร็จ
  • 10:59 - 11:01
    ตรวจสอบนิยามเหล่านั้น
  • 11:01 - 11:03
    จำไว้ว่า ในอัลกอริทึมการว่าจ้าง
    ที่เราได้พูดถึงนั้น
  • 11:03 - 11:07
    ใครบางคนที่อยู่มาสี่ปีและได้
    เลื่อนขั้นอย่างน้อยครั้งหนึ่ง
  • 11:07 - 11:08
    นั่นถือว่าเป็นพนักงานที่ประสบความสำเร็จ
  • 11:08 - 11:11
    แต่นั่นก็เป็นพนักงานที่ได้รับการสนับสนุน
    จากวัฒนธรรมของพวกเขาด้วย
  • 11:12 - 11:14
    หมายความว่า
    มันสามารถที่จะลำเอียงได้มาก
  • 11:14 - 11:16
    เราจำเป็นต้องแยกสองอย่างนี้ออกจากกัน
  • 11:16 - 11:19
    เราน่าจะดูการปิดตาคัดตัว
    ที่ใช้ในวงออร์เคสตรา
  • 11:19 - 11:20
    เป็นตัวอย่าง
  • 11:20 - 11:23
    นั่นคือเมื่อคนที่กำลังทดสอบ
    ถูกกั้นอยู่หลังม่าน
  • 11:23 - 11:25
    สิ่งที่ฉันคิดก็คือ
  • 11:25 - 11:28
    นั่นทำให้คนที่กำลังฟังอยู่
    สามารถตัดสินใจได้ว่า อะไรเป็นสิ่งสำคัญ
  • 11:28 - 11:30
    และพวกเขาได้ตัดสินใจแล้วว่า
    อะไรไม่ใช่สิ่งสำคัญ
  • 11:30 - 11:32
    และจะไม่ยอมให้เกิดการ
    เบี่ยงเบนความสนใจไปได้
  • 11:33 - 11:36
    เมื่อเริ่มมีการคัดตัวสมาชิก
    วงออร์เคสตราแบบปิดตา
  • 11:36 - 11:39
    จำนวนของนักดนตรีหญิง
    ในวงออร์เคสตรา สูงขึ้นถึง 5 เท่า
  • 11:40 - 11:42
    ต่อมา เราจำเป็นต้องพิจารณาเรื่องความแม่นยำ
  • 11:43 - 11:47
    นี่คือจุดที่โมเดลคุณค่าเพิ่ม สำหรับครู
    จะล้มเหลวในทันที
  • 11:48 - 11:50
    จริงอยู่ที่ไม่มีอัลกอริทึมใดจะสมบูรณ์แบบ
  • 11:51 - 11:54
    ดังนั้นเราจะต้องพิจารณาถึง
    ความผิดพลาดต่างๆ ของทุกอัลกอริทึม
  • 11:55 - 11:59
    ความผิดพลาดเกิดบ่อยแค่ไหน
    และมันส่งผลเสียต่อใครบ้าง
  • 12:00 - 12:02
    ความเสียหายนั้นมีต้นทุนเป็นอย่างไร
  • 12:02 - 12:05
    และท้ายที่สุดแล้ว เรายังต้องพิจารณาถึง
  • 12:06 - 12:08
    ผลกระทบในระยะยาวของอัลกอริทึมต่างๆ
  • 12:09 - 12:11
    ที่เกิดจากวงจรของเสียงตอบรับ
  • 12:12 - 12:13
    นั่นฟังดูค่อนข้างเป็นนามธรรม
  • 12:13 - 12:16
    แต่ลองนึกภาพว่าถ้าวิศวกรของเฟซบุ๊ค
    ได้เคยหยุดคิดถึงผลกระทบ
  • 12:16 - 12:21
    ก่อนที่พวกเขาจะตัดสินใจแสดง
    แต่เฉพาะสิ่งที่เพื่อนๆ เราได้โพสไป
  • 12:22 - 12:25
    ฉันมีอีกสองประเด็นที่อยากบอก
    เรื่องแรกสำหรับนักวิทยาการข้อมูลทั้งหลาย
  • 12:25 - 12:29
    เราไม่ควรทำตัวเป็นผู้ชี้ขาดความจริง
  • 12:30 - 12:33
    เราควรเป็นผู้สื่อประเด็น
    ข้อถกเถียงทางศีลธรรมที่กำลังเกิดขึ้น
  • 12:33 - 12:35
    ในสังคมวงกว้าง
  • 12:36 - 12:38
    (เสียงปรบมือ)
  • 12:38 - 12:39
    และสำหรับคุณที่เหลือ
  • 12:40 - 12:41
    ที่ไม่ใช่นักวิทยาการข้อมูล
  • 12:41 - 12:43
    นี่ไม่ใช่การทดสอบทางคณิตศาสตร์
  • 12:44 - 12:45
    นี่เป็นการต่อสู้ทางการเมือง
  • 12:47 - 12:50
    เราจำเป็นต้องเรียกร้องความรับผิดชอบ
    ของผู้มีอำนาจบงการอัลกอริทึมเหล่านี้
  • 12:52 - 12:54
    (เสียงปรบมือ)
  • 12:54 - 12:58
    ยุคแห่งความเชื่อที่มืดบอด
    ในโลกแห่งข้อมูลมหาศาลจะต้องสิ้นสุดลง
  • 12:58 - 12:59
    ขอบคุณมากค่ะ
  • 12:59 - 13:04
    (เสียงปรบมือ)
Title:
ยุคแห่งความเชื่องมงายในข้อมูลมหาศาล จะต้องสิ้นสุดลง
Speaker:
แคที่ โอนีล
Description:

อัลกอริทึมเป็นตัวตัดสินว่าใครจะได้กู้เงิน ใครได้สัมภาษณ์งาน ใครได้ประกันภัย และอื่นๆ แต่มันไม่ได้ทำให้ทุกอย่างยุติธรรมโดยอัตโนมัติ นักคณิตศาสตร์และนักวิทยาการข้อมูล แคที่ โอนีล บัญญัติศัพท์สำหรับอัลกอริทึมที่เป็นความลับ มีความสำคัญ และเป็นอันตรายว่า "อาวุธทำลายล้างด้วยคณิตศาสตร์" ติดตามชมเกี่ยวกับประเด็นซ่อนเร้นในสูตรต่างๆ เหล่านั้นได้ในทอล์คนี้

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18

Thai subtitles

Revisions