ยุคแห่งความเชื่องมงายในข้อมูลมหาศาล จะต้องสิ้นสุดลง
-
0:01 - 0:03อัลกอริทึมอยู่ทุกหนแห่ง
-
0:04 - 0:07มันคัดแยกและ
กันผู้ชนะออกจากผู้แพ้ -
0:08 - 0:10ผู้ชนะได้งาน
-
0:10 - 0:12หรือได้ข้อเสนอบัตรเครดิตดีๆ
-
0:12 - 0:15ผู้แพ้ไม่ได้แม้กระทั่งโอกาสเรียกสัมภาษณ์
-
0:16 - 0:17หรือต้องจ่ายเบี้ยประกันแพงกว่า
-
0:18 - 0:22เรากำลังถูกให้คะแนน
จากสูตรลับที่เราไม่เข้าใจ -
0:23 - 0:26และโดยมากมักไม่มีระบบที่เราจะอุทธรณ์ได้
-
0:27 - 0:29นั่นทำให้เกิดคำถามขึ้นว่า
-
0:29 - 0:31แล้วถ้าอัลกอริทึมมันผิดล่ะ
-
0:33 - 0:35ในการสร้างอัลกอริทึม คุณต้องการสองอย่าง
-
0:35 - 0:37คุณต้องการข้อมูล สิ่งที่เกิดขึ้นในอดีต
-
0:37 - 0:39และนิยามของความสำเร็จ
-
0:39 - 0:41สิ่งที่คุณมองหา หรือหวังว่าจะเจอ
-
0:41 - 0:46คุณฝึกสอนอัลกอริทึม โดยการมองหา
และคำนวณ -
0:46 - 0:50อัลกอริทึมจะคำนวณหา
ว่าอะไรที่มีส่วนเกี่ยวข้องกับความสำเร็จ -
0:50 - 0:52สถานการณ์อย่างไรที่จะนำ
ไปสู่ความสำเร็จ -
0:53 - 0:55ความจริงแล้ว ทุกคนต่าง
ก็ใช้อัลกอริทึม -
0:55 - 0:57เพียงแต่ไม่ได้เขียนเป็นโปรแกรม
เป็นทางการ -
0:57 - 0:59ขอยกตัวอย่างนะคะ
-
0:59 - 1:02ฉันใช้อัลกอริทึมทุกวัน
เพื่อทำอาหารสำหรับครอบครัว -
1:02 - 1:04ข้อมูลที่ฉันใช้
-
1:04 - 1:06คือวัตถุดิบที่มีในครัว
-
1:06 - 1:08เวลาที่ฉันมี
-
1:08 - 1:09ความตั้งใจที่มี
-
1:09 - 1:11และฉันเองก็กลั่นกรองข้อมูลเหล่านั้น
-
1:11 - 1:15ฉันไม่นับพวกบะหมี่กึ่งสำเร็จรูป
ว่าเป็นอาหารนะคะ -
1:15 - 1:17(เสียงหัวเราะ)
-
1:17 - 1:19นิยามความสำเร็จของฉันคือ
-
1:19 - 1:21มื้ออาหารจะถือว่าสำเร็จ
ถ้าเด็กๆ ยอมกินผัก -
1:22 - 1:25มันจะต่างออกไปมาก
ถ้าลูกชายคนเล็กของฉันเป็นคนคุมครัว -
1:25 - 1:28เขาจะบอกว่า ความสำเร็จคือ
เขาได้กินนูเทลล่าเยอะๆ -
1:29 - 1:31แต่ฉันเป็นคนเลือกนิยามความสำเร็จ
-
1:31 - 1:34ฉันเป็นคนรับผิดชอบ ความเห็นของฉันสำคัญ
-
1:34 - 1:37มันเป็นกฏข้อแรกของอัลกอริทึม
-
1:37 - 1:40อัลกอริทึมคือความคิดเห็น
ที่ถูกฝังลงในในโค้ดโปรแกรม -
1:42 - 1:45ซึ่งมันแตกต่างอย่างมาก กับที่คุณ
หรือคนทั่วไปคิดถึงอัลกอริทึม -
1:45 - 1:50พวกเขาคิดว่า อัลกอริทึมมีความ
ตรงไปตรงมา เป็นวิทยาศาสตร์ -
1:50 - 1:52นั่นเป็นแค่กลทางการตลาด
-
1:53 - 1:55และก็เป็นทริกการตลาดนี่แหละ
-
1:55 - 1:59ที่คุกคามคุณด้วยอัลกอริทึม
-
1:59 - 2:02เพื่อจะทำให้คุณเชื่อใจ และกลัวอัลกอริทึม
-
2:02 - 2:04เพราะว่าคุณไว้ใจ และกลัวคณิตศาสตร์
-
2:06 - 2:10อาจเกิดสิ่งผิดพลาดได้มากมาย เมื่อเรามีศรัทธา
อย่างมืดบอดในข้อมูลมหาศาล (big data) -
2:12 - 2:15นี่คือ คิริ ซัวเรส เธอเป็นครูใหญ่
โรงเรียนมัธยมแห่งหนึ่งในบรุคลิน -
2:15 - 2:18ปี 2011 เธอบอกฉันว่า ครูของเธอถูกให้คะแนนจาก
-
2:18 - 2:20อัลกอริทึมที่ซับซ้อน และเป็นความลับ
-
2:20 - 2:22ที่เรียกว่า "โมเดลเพิ่มคุณค่า"
-
2:23 - 2:26ฉันบอกเธอว่า "เอาล่ะ
มาดูกันว่าสูตรคืออะไร ให้ฉันดูหน่อย -
2:26 - 2:27ฉันจะอธิบายให้เธอฟังเอง"
-
2:27 - 2:29เธอบอก "ฉันพยายามจะเอาสูตรมา
-
2:29 - 2:32แต่ทางกระทรวงศึกษาธิการ
แจ้งว่ามันเป็นคณิตศาสตร์ -
2:32 - 2:34และฉันคงไม่เข้าใจ"
-
2:35 - 2:37มันยิ่งแย่ลงไปกว่านั้นอีก
-
2:37 - 2:40หนังสือพิมพ์นิวยอร์กโพสต์
ทำเรื่องขอตามกฎหมายเสรีภาพข้อมูล -
2:40 - 2:43และได้ข้อมูลรายชื่อครู รวมถึงผลคะแนน
ของครูแต่ละคน -
2:43 - 2:46แล้วนำมาตีพิมพ์
เหมือนกับว่าจะประจานเหล่าครู -
2:47 - 2:51เมื่อฉันติดต่อเพื่อขอทราบสูตรการคำนวณ
ผ่านช่องทางเดียวกัน -
2:51 - 2:53กลับได้รับการแจ้งว่า
ไม่สามารถให้สูตรได้ -
2:53 - 2:54ฉันถูกปฏิเสธ
-
2:54 - 2:56และฉันมาพบภายหลังว่า
-
2:56 - 2:58ไม่มีใครในนิวยอร์กสามารถเข้าถึงสูตรนั้นได้
-
2:58 - 3:00ไม่มีใครเข้าใจมัน
-
3:02 - 3:05จนกระทั่งคนที่ฉลาดมากคนหนึ่ง
เข้ามาเกี่ยวข้องด้วย แกรี่ รูบินสไตน์ -
3:05 - 3:09เขาพบข้อมูลเกี่ยวกับครู 665 คน
จากข้อมูลของนิวยอร์คโพสต์ -
3:09 - 3:11ที่ในความจริงแล้ว มีค่าคะแนนเป็นสองค่า
-
3:11 - 3:13ซึ่งก็อาจจะเป็นไปได้หากพวกเขาสอน
-
3:13 - 3:15คณิตศาสตร์ในชั้นเกรดเจ็ด และในชั้นเกรดแปด
-
3:15 - 3:17เขาตัดสินใจนำข้อมูลพวกนั้นมาวาดกราฟ
-
3:17 - 3:19แต่ละจุดแทนครูแต่ละคน
-
3:19 - 3:21(เสียงหัวเราะ)
-
3:22 - 3:23นั่นคืออะไร?
-
3:23 - 3:24(เสียงหัวเราะ)
-
3:24 - 3:28นั่นไม่ควรจะถูกเอามาใช้
ในการประเมินรายบุคคล -
3:28 - 3:30มันเกือบจะเหมือนการสร้างตัวเลขแบบสุ่มเลย
-
3:30 - 3:33(เสียงปรบมือ)
-
3:33 - 3:34แต่ก็เป็นไปแล้ว
-
3:34 - 3:35และนี่คือ ซาร่า ไวซอคกี
-
3:35 - 3:37เธอถูกไล่ออก พร้อมกับ
ครูคนอื่นๆ อีก 205 คน -
3:37 - 3:40จากเขตการศึกษาวอชิงตันดีซี
-
3:40 - 3:43ถึงแม้ว่าเธอจะได้รับจดหมายแนะนำตัว
ที่ดีมากจากครูใหญ่ของเธอ -
3:43 - 3:44และจากผู้ปกครองของนักเรียน
-
3:45 - 3:47ฉันรู้ว่า พวกคุณคิดอะไรกันอยู่
-
3:47 - 3:50โดยเฉพาะเหล่านักวิทยาการข้อมูล
ที่เชี่ยวชาญ AI ในที่นี้ -
3:50 - 3:54คุณคงคิดว่า "แหม ฉันคงไม่มีทาง
สร้างอัลกอริทึมที่ไม่แน่นอนอย่างนี้หรอก" -
3:55 - 3:57แต่อัลกอริทึม ก็สามารถผิดพลาดได้
-
3:57 - 4:01และถึงขนาดส่งผลเสียหายอย่างขนานใหญ่
ทั้งๆ ที่มีเจตนาดีได้ -
4:03 - 4:05นี่ไม่เหมือนกับการออกแบบเครื่องบินที่แย่
-
4:05 - 4:07ซึ่งพอตกลงมา
ทุกคนจะมองเห็นได้ -
4:07 - 4:09แต่อัลกอริทึมที่ออกแบบไม่ดี
-
4:10 - 4:14อาจจะถูกใช้งานอยู่ได้เป็นเวลานาน
สร้างหายนะอย่างเงียบๆ ไม่มีใครเห็นได้ -
4:16 - 4:17นี่คือโรเจอร์ เอลส์
-
4:17 - 4:19(เสียงหัวเราะ)
-
4:21 - 4:23เขาก่อตั้งฟอกซ์นิวส์ในปี 1996
-
4:23 - 4:26มีผู้หญิงกว่า 20 คนร้องเรียนเรื่อง
การคุกคามทางเพศ -
4:26 - 4:29พวกเธอกล่าวว่า พวกเธอไม่ได้รับโอกาส
ที่จะประสบความสำเร็จในฟอกซ์นิวส์ -
4:29 - 4:32เขาออกจากตำแหน่งเมื่อปีที่แล้ว
แต่เราได้เห็นเร็วๆ นี้ว่า -
4:32 - 4:35ปัญหาเรื่องเพศ ยังคงมีอยู่
-
4:36 - 4:37ซึ่งนั่นก่อให้เกิดคำถามว่า
-
4:37 - 4:40ฟอกซ์นิวส์ควรจะทำอย่างไร
เพื่อจะเปลี่ยนไปในทางที่ดีขึ้น -
4:41 - 4:44แล้วถ้าหากว่าพวกเขาเปลี่ยน
กระบวนการว่าจ้าง -
4:44 - 4:46มาให้ใช้อัลกอริทึมที่
เรียนรู้ด้วยเครื่อง (Machine Learning) ละ -
4:46 - 4:48นั่นฟังดูดีใช่มั้ยละ
-
4:48 - 4:49ลองคิดดูดีๆ นะคะ
-
4:49 - 4:51ข้อมูลที่ใช้ ข้อมูลอะไรที่จะนำมาใช้
-
4:51 - 4:56ตัวเลือกที่สมเหตุสมผลคือใบสมัครงาน
ของฟอกซ์นิวส์ใน 21 ปีที่ผ่านมา -
4:56 - 4:58สมเหตุสมผล
-
4:58 - 4:59แล้วนิยามของความสำเร็จละ
-
5:00 - 5:01ตัวเลือกที่ดูเหมาะสมก็คือ
-
5:01 - 5:03คิดดูนะ ใครที่ประสบความสำเร็จ
ที่ฟอกซ์นิวส์ -
5:03 - 5:07ฉันเดาว่า น่าจะเป็นใครสักคนที่อยู่
มาได้สัก 4 ปี -
5:07 - 5:08และได้เลื่อนตำแหน่ง
อย่างน้อยหนึ่งครั้ง -
5:09 - 5:10ฟังดูเข้าท่าดีใช่มั้ยล่ะ
-
5:10 - 5:13และอัลกอริทึมก็จะถูกฝึกสอน
-
5:13 - 5:17มันจะถูกสอนให้มองหาผู้สมัคร
มองหาลักษณะที่จะนำไปสู่ความสำเร็จ -
5:17 - 5:22ใบสมัครแบบไหน ที่จะประสบความสำเร็จ
จากในอดีตที่ผ่านมา -
5:22 - 5:23ตามนิยามความสำเร็จ
-
5:24 - 5:26ลองคิดดูซิว่า จะเกิดอะไรขึ้น
-
5:26 - 5:29ถ้าเราเอามาประยุกต์ใช้กับ
กลุ่มผู้สมัครในปัจจุบัน -
5:29 - 5:31มันจะคัดกรองเอาผู้หญิงออกไป
-
5:32 - 5:36เพราะผู้หญิงดูไม่เหมือนกับ
คนที่จะประสบความสำเร็จในอดีต -
5:40 - 5:42อัลกอริทึมไม่ได้
ทำให้เกิดความยุติธรรมขึ้นนะคะ -
5:42 - 5:45ถ้าคุณแค่หลับหูหลับตา
เอาอัลกอริทึมมาใช้ -
5:45 - 5:47มันไม่ทำให้เกิดความเป็นธรรม
-
5:47 - 5:49มันแค่ทำซ้ำสิ่งที่เคยปฏิบัติมาในอดีต
-
5:49 - 5:50รูปแบบของเรา
-
5:50 - 5:52มันแค่ทำสถานะปัจจุบันให้เป็นอัตโนมัติ
-
5:53 - 5:55ซึ่งมันคงจะเป็นเรื่องเยี่ยม
ถ้าเราอยู่ในโลกที่สมบูรณ์แบบ -
5:56 - 5:57แต่เราไม่ได้อยู่
-
5:57 - 6:01และฉันจะเพิ่มเติมอีกว่า
ถึงบริษัทส่วนใหญ่จะไม่ได้มีคดีอื้อฉาว -
6:02 - 6:05แต่เหล่านักวิทยาการข้อมูลในบริษัทเหล่านั้น
-
6:05 - 6:07ได้รับคำสั่งให้ถือข้อมูลเป็นหลัก
-
6:07 - 6:09ให้เน้นไปที่ความถูกต้องแม่นยำ
-
6:10 - 6:12ลองคิดดูว่า
นั่นหมายความว่าอย่างไร -
6:12 - 6:16เนื่องจากเราต่างก็มีอคติ
มันหมายความว่า เรากำลังสร้างการเหยียดเพศ -
6:16 - 6:18หรือความอคติดื้อรั้นบางอย่างลงในระบบ
-
6:19 - 6:21มาทดลองด้านความคิดกันหน่อย
-
6:21 - 6:22เพราะฉันชอบทำ
-
6:24 - 6:27สังคมแห่งหนึ่งที่มีความแบ่งแยกอย่างสมบูรณ์
-
6:28 - 6:32แบ่งแยกกันด้านเชื้อชาติ ในทุกเมือง
ทุกชุมชน -
6:32 - 6:35และเราส่งตำรวจไปแค่ที่ชุมชน
ของคนกลุ่มเสียงข้างน้อยเท่านั้น -
6:35 - 6:36เพื่อตรวจหาอาชญากรรม
-
6:36 - 6:39ข้อมูลการจับกุมก็จะมีความลำเอียงเป็นอย่างมาก
-
6:40 - 6:42นอกจากนั้นแล้ว
ถ้าเราหานักวิทยาการข้อมูลและจ้าง -
6:42 - 6:47ให้พวกเขาเหล่านั้น ทำนายว่า
อาชญากรรมครั้งต่อไปจะเกิดที่ไหน -
6:47 - 6:49ชุมชนของคนกลุ่มน้อย
-
6:49 - 6:52หรือเพื่อทำนายว่า อาชญากรคนต่อไปจะเป็นใคร?
-
6:53 - 6:54คนกลุ่มน้อย
-
6:56 - 6:59นักวิทยาการข้อมูลก็คงจะอวดโอ่
ได้ว่าโมเดลของพวกเขานั้น -
7:00 - 7:01ยอดเยี่ยมและแม่นยำเพียงใด
-
7:01 - 7:02และพวกเขาก็คงจะเป็นฝ่ายถูก
-
7:04 - 7:09ในความเป็นจริงแล้ว มันคงไม่สุดขั้วขนาดนั้น
แต่เราก็มีปัญหาการแบ่งแยกที่รุนแรง -
7:09 - 7:10ในหลายๆ เมืองทั้งเล็กและใหญ่
-
7:10 - 7:12และเรายังมีหลักฐานอีกมากมาย
-
7:12 - 7:15ของข้อมูลเกี่ยวกับ
กระบวนการยุติธรรมที่มีอคติ -
7:16 - 7:18และเราก็มีการพยากรณ์จุดเสี่ยงจริงๆ
-
7:18 - 7:20คือตำแหน่งที่จะเกิดอาชญากรรมขึ้น
-
7:20 - 7:24และเราก็มีการพยากรณ์การเกิด
อาชญากรรมจริงๆ -
7:24 - 7:26การเกิดอาชญากรรมของแต่ละบุคคล
-
7:27 - 7:31องค์กรสื่อที่เรียกว่า โปรพับลิก้า
ได้ทำการศึกษาเมื่อเร็วๆ นี้ -
7:31 - 7:33เกี่ยวกับอัลกอริทึม ที่เรียกกันว่า
-
7:33 - 7:34"ความเสี่ยงที่จะทำผิดซ้ำซาก"
-
7:34 - 7:37ที่ถูกใช้ในรัฐฟลอริด้า
ในระหว่างกระบวนการตัดสินของศาล -
7:38 - 7:42เบอร์นาร์ด ชายผิวดำ ทางด้านซ้าย
ได้คะแนน 10 เต็ม 10 -
7:43 - 7:45ส่วนดีแลน ทางด้านขวา
ได้ 3 เต็ม 10 -
7:45 - 7:4810 เต็ม 10 ความเสี่ยงสูง
3 เต็ม 10 ความเสี่ยงต่ำ -
7:49 - 7:51พวกเราถูกคุมตัวมาด้วยข้อหา
มียาเสพติดในครอบครอง -
7:51 - 7:52ทั้งคู่ต่างก็มีประวัติอาชญากรรม
-
7:52 - 7:55แต่ดีแลนมีความผิดอุกฉกรรจ์ร่วมด้วย
-
7:55 - 7:56แต่เบอร์นาร์ดไม่มี
-
7:58 - 8:01เรื่องนี้เป็นประเด็น เพราะว่า
ยิ่งคุณได้คะแนนสูงเท่าไหร่ -
8:01 - 8:04ยิ่งมีโอกาสที่จะต้องโทษ
เป็นเวลาที่ยาวนานกว่า -
8:06 - 8:08นี่มันเกิดอะไรขึ้น?
-
8:09 - 8:10การฟอกข้อมูล
-
8:11 - 8:15มันคือกระบวนการที่
นักเทคโนโลยีซ่อนความจริงที่น่าเกลียด -
8:15 - 8:17เอาไว้ภายในกล่องดำของอัลกอริทึม
-
8:17 - 8:19แล้วเรียกมันว่า ภววิสัย
-
8:19 - 8:21เรียกมันว่า คุณธรรมนิยม
-
8:23 - 8:26เมื่อมันเป็นความลับ มีความสำคัญ
และมีอำนาจทำลายล้าง -
8:26 - 8:28ฉันเลยบัญญัติศัพท์เรียกอัลกอริทึมพวกนี้ว่า
-
8:28 - 8:30"อาวุธทำลายล้างด้วยคณิตศาสตร์"
-
8:30 - 8:32(เสียงหัวเราะ)
-
8:32 - 8:35(เสียงปรบมือ)
-
8:35 - 8:37พวกมันอยู่ทุกหนแห่ง
และนี่ไม่ใช่ความผิดพลาด -
8:38 - 8:41นี่คือเหล่าบริษัทเอกชน
ที่สร้างอัลกอริทึมภาคเอกชน -
8:41 - 8:43เพื่อผลประโยชน์ของเอกชน
-
8:43 - 8:46แม้กระทั่งเรื่องที่ฉันพูดถึง
เกี่ยวกับครูและตำรวจสาธารณะ -
8:46 - 8:48อัลกอริทึมเหล่านั้นถูกสร้างโดย
บริษัทเอกชน -
8:48 - 8:51และขายให้กับหน่วยงานของรัฐ
-
8:51 - 8:52พวกเขาเรียกมันว่า "สูตรลับ"
-
8:52 - 8:55และนั่นเป็นสาเหตุที่พวกเขาบอกเราไม่ได้
-
8:55 - 8:57และมันยังเป็นอำนาจของเอกชนด้วย
-
8:58 - 9:03พวกเขาได้กำไรจากการใช้
อำนาจที่ลึกลับและตรวจสอบไม่ได้ -
9:05 - 9:08ถึงตอนนี้คุณอาจจะคิดว่า
ในเมื่อของพวกนี้เป็นของเอกชน -
9:08 - 9:09และมันมีการแข่งขัน
-
9:09 - 9:12บางทีสภาพตลาดเสรี
อาจจะช่วยแก้ปัญหานี้ให้ได้ -
9:12 - 9:13มันแก้ไม่ได้
-
9:13 - 9:16เพราะมีความร่ำรวยมหาศาล
ที่ถูกสร้างขึ้นมาได้จากความไม่ยุติธรรม -
9:17 - 9:20และอีกอย่าง คนเราก็ไม่ได้มีความ
เป็นเหตุเป็นผลนักในทางเศรษฐศาสตร์ -
9:21 - 9:22เราต่างก็มีอคติกันอยู่ทุกคน
-
9:23 - 9:26เราต่างก็มีความเหยียดเชื้อชาติและอคติ
ในแบบที่เราไม่คิดว่าจะมี -
9:26 - 9:28หรือในแบบที่เราเองก็ไม่รู้ตัว
-
9:29 - 9:32แต่เรารู้ว่า ในภาพรวมระดับสังคม
เรามีอคติเหล่านี้ -
9:32 - 9:36เพราะว่านักสังคมวิทยา
ได้สาธิตให้เราเห็นอคติเหล่านี้ -
9:36 - 9:37อยู่บ่อยๆ ผ่านการทดลองต่างๆ
-
9:37 - 9:40เช่นการส่งใบสมัครงานออกไป
-
9:40 - 9:42โดยระบุคุณสมบัติพอๆ กัน
แต่กลุ่มหนึ่งชื่อเหมือนคนขาว -
9:43 - 9:44อีกกลุ่มมีชื่อเหมือนคนผิวสี
-
9:44 - 9:47และผลลัพธ์ที่ออกมาก็น่าผิดหวัง
อยู่เสมอมา ตลอดมาจริงๆ -
9:48 - 9:49ดังนั้น พวกเรานี่เองแหละที่มีอคติ
-
9:49 - 9:53และเรากำลังใส่อคติเหล่านั้น
ลงไปในอัลกอริทึม -
9:53 - 9:55โดยผ่านการเลือกว่าจะเก็บข้อมูลอะไร
-
9:55 - 9:57เหมือนที่ฉันเลือกที่จะไม่ใช้
บะหมี่กึ่งสำเร็จรูป -
9:57 - 9:59ฉันตัดสินใจว่า มันไม่ถือเป็นอาหาร
-
9:59 - 10:05แต่โดยการเชื่อข้อมูลที่เรา
เก็บมาจากผลการกระทำในอดีต -
10:05 - 10:07และโดยการเลือกนิยามของความสำเร็จ
-
10:07 - 10:11เราจะคาดหวังว่าอัลกอริทึมจะ
ออกมาดีได้อย่างไร? -
10:11 - 10:13เราคาดหวังไม่ได้ เราต้องตรวจสอบมัน
-
10:14 - 10:16เราต้องตรวจสอบมัน
ในแง่ความเป็นธรรม -
10:16 - 10:19ข่าวดีก็คือ เราสามารถตรวจสอบ
ความเป็นธรรมของมันได้ -
10:19 - 10:22อัลกอริทึมสามารถถูกสอบสวนได้
-
10:22 - 10:24และมันจะบอกความจริงเราทุกครั้ง
-
10:24 - 10:27และเราสามารถซ่อมแซมมันได้
เราทำให้มันดีขึ้นได้ -
10:27 - 10:29ฉันเรียกมันว่า "การตรวจสอบอัลกอริทึม"
-
10:29 - 10:31และฉันจะเล่าให้พวกคุณฟัง
-
10:31 - 10:33สิ่งแรกคือ การตรวจสอบความสอดคล้องของข้อมูล
-
10:34 - 10:37สำหรับอัลกอริทึมความเสี่ยง
ที่จะทำผิดซ้ำที่ได้เล่าไปแล้ว -
10:38 - 10:41การตรวจสอบข้อมูลหมายถึง
การที่เราต้องตระหนักความจริงที่ว่า -
10:41 - 10:45ในสหรัฐนั้น ทั้งคนขาวและคนดำ
ต่างก็เสพยาในอัตราเดียวกัน -
10:45 - 10:47แต่คนดำนั้นมีโอกาสสูงกว่ามาก
ที่จะถูกจับ -
10:47 - 10:50สูงกว่ามากถึง 4 หรือ 5 เท่า
ขึ้นอยู่กับสถานที่ -
10:51 - 10:54แล้วอคตินั้นเป็นอย่างไร
ในอาชญากรรมประเภทอื่นๆ -
10:54 - 10:56แล้วเราจะนำปัจจัยมาพิจารณาอย่างไร
-
10:56 - 10:59อย่างที่สอง เราควรจะคิดถึง
นิยามของความสำเร็จ -
10:59 - 11:01ตรวจสอบนิยามเหล่านั้น
-
11:01 - 11:03จำไว้ว่า ในอัลกอริทึมการว่าจ้าง
ที่เราได้พูดถึงนั้น -
11:03 - 11:07ใครบางคนที่อยู่มาสี่ปีและได้
เลื่อนขั้นอย่างน้อยครั้งหนึ่ง -
11:07 - 11:08นั่นถือว่าเป็นพนักงานที่ประสบความสำเร็จ
-
11:08 - 11:11แต่นั่นก็เป็นพนักงานที่ได้รับการสนับสนุน
จากวัฒนธรรมของพวกเขาด้วย -
11:12 - 11:14หมายความว่า
มันสามารถที่จะลำเอียงได้มาก -
11:14 - 11:16เราจำเป็นต้องแยกสองอย่างนี้ออกจากกัน
-
11:16 - 11:19เราน่าจะดูการปิดตาคัดตัว
ที่ใช้ในวงออร์เคสตรา -
11:19 - 11:20เป็นตัวอย่าง
-
11:20 - 11:23นั่นคือเมื่อคนที่กำลังทดสอบ
ถูกกั้นอยู่หลังม่าน -
11:23 - 11:25สิ่งที่ฉันคิดก็คือ
-
11:25 - 11:28นั่นทำให้คนที่กำลังฟังอยู่
สามารถตัดสินใจได้ว่า อะไรเป็นสิ่งสำคัญ -
11:28 - 11:30และพวกเขาได้ตัดสินใจแล้วว่า
อะไรไม่ใช่สิ่งสำคัญ -
11:30 - 11:32และจะไม่ยอมให้เกิดการ
เบี่ยงเบนความสนใจไปได้ -
11:33 - 11:36เมื่อเริ่มมีการคัดตัวสมาชิก
วงออร์เคสตราแบบปิดตา -
11:36 - 11:39จำนวนของนักดนตรีหญิง
ในวงออร์เคสตรา สูงขึ้นถึง 5 เท่า -
11:40 - 11:42ต่อมา เราจำเป็นต้องพิจารณาเรื่องความแม่นยำ
-
11:43 - 11:47นี่คือจุดที่โมเดลคุณค่าเพิ่ม สำหรับครู
จะล้มเหลวในทันที -
11:48 - 11:50จริงอยู่ที่ไม่มีอัลกอริทึมใดจะสมบูรณ์แบบ
-
11:51 - 11:54ดังนั้นเราจะต้องพิจารณาถึง
ความผิดพลาดต่างๆ ของทุกอัลกอริทึม -
11:55 - 11:59ความผิดพลาดเกิดบ่อยแค่ไหน
และมันส่งผลเสียต่อใครบ้าง -
12:00 - 12:02ความเสียหายนั้นมีต้นทุนเป็นอย่างไร
-
12:02 - 12:05และท้ายที่สุดแล้ว เรายังต้องพิจารณาถึง
-
12:06 - 12:08ผลกระทบในระยะยาวของอัลกอริทึมต่างๆ
-
12:09 - 12:11ที่เกิดจากวงจรของเสียงตอบรับ
-
12:12 - 12:13นั่นฟังดูค่อนข้างเป็นนามธรรม
-
12:13 - 12:16แต่ลองนึกภาพว่าถ้าวิศวกรของเฟซบุ๊ค
ได้เคยหยุดคิดถึงผลกระทบ -
12:16 - 12:21ก่อนที่พวกเขาจะตัดสินใจแสดง
แต่เฉพาะสิ่งที่เพื่อนๆ เราได้โพสไป -
12:22 - 12:25ฉันมีอีกสองประเด็นที่อยากบอก
เรื่องแรกสำหรับนักวิทยาการข้อมูลทั้งหลาย -
12:25 - 12:29เราไม่ควรทำตัวเป็นผู้ชี้ขาดความจริง
-
12:30 - 12:33เราควรเป็นผู้สื่อประเด็น
ข้อถกเถียงทางศีลธรรมที่กำลังเกิดขึ้น -
12:33 - 12:35ในสังคมวงกว้าง
-
12:36 - 12:38(เสียงปรบมือ)
-
12:38 - 12:39และสำหรับคุณที่เหลือ
-
12:40 - 12:41ที่ไม่ใช่นักวิทยาการข้อมูล
-
12:41 - 12:43นี่ไม่ใช่การทดสอบทางคณิตศาสตร์
-
12:44 - 12:45นี่เป็นการต่อสู้ทางการเมือง
-
12:47 - 12:50เราจำเป็นต้องเรียกร้องความรับผิดชอบ
ของผู้มีอำนาจบงการอัลกอริทึมเหล่านี้ -
12:52 - 12:54(เสียงปรบมือ)
-
12:54 - 12:58ยุคแห่งความเชื่อที่มืดบอด
ในโลกแห่งข้อมูลมหาศาลจะต้องสิ้นสุดลง -
12:58 - 12:59ขอบคุณมากค่ะ
-
12:59 - 13:04(เสียงปรบมือ)
- Title:
- ยุคแห่งความเชื่องมงายในข้อมูลมหาศาล จะต้องสิ้นสุดลง
- Speaker:
- แคที่ โอนีล
- Description:
-
อัลกอริทึมเป็นตัวตัดสินว่าใครจะได้กู้เงิน ใครได้สัมภาษณ์งาน ใครได้ประกันภัย และอื่นๆ แต่มันไม่ได้ทำให้ทุกอย่างยุติธรรมโดยอัตโนมัติ นักคณิตศาสตร์และนักวิทยาการข้อมูล แคที่ โอนีล บัญญัติศัพท์สำหรับอัลกอริทึมที่เป็นความลับ มีความสำคัญ และเป็นอันตรายว่า "อาวุธทำลายล้างด้วยคณิตศาสตร์" ติดตามชมเกี่ยวกับประเด็นซ่อนเร้นในสูตรต่างๆ เหล่านั้นได้ในทอล์คนี้
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
Unnawut Leepaisalsuwanna approved Thai subtitles for The era of blind faith in big data must end | ||
Unnawut Leepaisalsuwanna edited Thai subtitles for The era of blind faith in big data must end | ||
Thanyanuch Tantikul accepted Thai subtitles for The era of blind faith in big data must end | ||
Thanyanuch Tantikul edited Thai subtitles for The era of blind faith in big data must end | ||
Thanyanuch Tantikul edited Thai subtitles for The era of blind faith in big data must end | ||
PanaEk Warawit edited Thai subtitles for The era of blind faith in big data must end | ||
PanaEk Warawit edited Thai subtitles for The era of blind faith in big data must end | ||
PanaEk Warawit edited Thai subtitles for The era of blind faith in big data must end |