ดิฉันเริ่มทำงานครั้งแรก เป็นคอมพิวเตอร์ โปรแกรมเมอร์ ในปีแรกที่เรียนมหาวิทยาลัย ตั้งแต่ยังวัยรุ่น เริ่มทำงานเขียนโปรแกรม ให้บริษัทได้ไม่นาน ผู้จัดการคนหนึ่งในบริษัทนั้น มาหาดิฉัน แล้วกระซิบถามว่า "มันจับโกหกผมได้หรือเปล่า?" ตอนนั้น ไม่มีคนอื่นอยู่ในห้องอีก "ใครที่ไหนจับโกหกคุณได้เหรอ? แล้วเราจะกระซิบกันทำไม?" ผู้จัดการก็ชี้ ไปที่คอมพิวเตอร์ "มันจับโกหกผมได้หรือเปล่า?" พอดีว่า ผู้จัดการคนนั้น เป็นชู้อยู่กับพนักงานต้อนรับ (เสียงหัวเราะ) ตอนนั้น ฉันยังเป็นแค่วัยรุ่น ฉันเลยกระซิบดัง ๆ กลับไปว่า "ใช่ ๆ คอมพิวเตอร์มันจับโกหกได้ค่ะ" (เสียงหัวเราะ) ดิฉันอำไปขำ ๆ แต่ตอนนี้ ดิฉันกลับขำไม่ออกเสียเอง ปัจจุบัน มีระบบคอมพิวเตอร์ ที่สามารถตรวจจับอารมณ์ หรือกระทั่งคำโกหกได้ โดยการประมวลผลใบหน้ามนุษย์ ทั้งบริษัทโฆษณาและรัฐบาล ต่างก็สนใจอย่างมาก ดิฉันทำอาชีพคอมพิวเตอร์ โปรแกรมเมอร์ เพราะตอนเป็นเด็ก ดิฉันชอบคณิตศาสตร์ และวิทยาศาสตร์มาก ๆ แต่พอโตขึ้น ดิฉันก็ได้รู้เรื่องอาวุธนิวเคลียร์ ซึ่งทำให้ดิฉันไม่สบายใจเรื่อง จริยธรรมทางวิทยาศาสตร์เอามาก ๆ ดิฉันรู้สึกไม่ดีเลย อย่างไรก็ตาม ด้วยความจำเป็นของครอบครัว ดิฉันต้องรีบหางานทำให้เร็วที่สุดให้ได้ด้วย ดิฉันเลยคิดว่า เอาอาชีพเชิงเทคนิค แบบที่ดิฉันจะได้งานง่าย ๆ และก็ไม่ต้องมาปวดหัวกับ ปัญหาจริยธรรมอะไรก็แล้วกัน ดิฉันเลยเลือกคอมพิวเตอร์ (เสียงหัวเราะ) ฮ่า ฮ่า ฮ่า ดิฉันนี่เองกลับขำไม่ออก ปัจจุบัน นักวิทยาศาสตร์คอมพิวเตอร์ กำลังสร้างแพลตฟอร์ม ที่ควบคุมสื่อซึ่งประชากร เป็นพันล้านคนดูอยู่ทุกวัน พวกเขากำลังสร้างรถ ที่จะตัดสินใจว่าใครที่จะวิ่งชนได้ พวกเขาสร้างแม้กระทั่งเครื่องจักร และอาวุธ ที่คร่าชีวิตมนุษย์ในสงครามได้ สิ่งเหล่านี้ ล้วนเกี่ยวกับจริยธรรม เครื่องจักร มีสติปัญญาแล้ว เราใช้คอมพิวเตอร์คำนวณ เพื่อตัดสินใจเรื่องสารพัดอย่าง รวมถึงการตัดสินใจรูปแบบใหม่ ๆ ด้วย เราเริ่มใช้คอมพิวเตอร์ เพื่อตอบคำถามที่ไม่มีคำตอบตายตัว คำถามอัตนัย ปลายเปิด และต้องใช้มุมมองในการตอบ คำถามอย่างเช่น "บริษัทควรจ้างใครดี" "ควรแสดงอัพเดตของเฟรนด์คนไหนดี" "นักโทษคนไหนมีแนวโน้มทำผิดซ้ำอีก" "ควรแนะนำข่าวหรือหนังเรื่องอะไรให้คนดูดี" ใช่ค่ะ เราใช้คอมพิวเตอร์กันมาระยะนึงแล้ว แต่นี่ไม่เหมือนแต่ก่อน นี่คือจุดพลิกผันครั้งประวัติศาสตร์ เพราะเป็นไปไม่ได้ ที่เราจะใช้คอมพิวเตอร์ มาช่วยแก้ปัญหาเชิงอัตวิสัย แบบเดียวกับที่ใช้ช่วยสร้างเครื่องบิน สร้างสะพาน หรือไปดวงจันทร์ เครื่องบินปลอดภัยขึ้นมั้ย สะพานจะแกว่งหรือพังมั้ย เรื่องแบบนี้ เรามีจุดตรวจสอบ ที่จับต้อง เห็นตรงกันได้ และเรามีกฎธรรมชาติช่วยนำทางให้ แต่เราไม่มีหมุดหมายหรือจุดตรวจสอบเช่นนั้น สำหรับการตัดสิน เรื่องธุระที่ยุ่งเหยิงของมนุษย์ เรื่องยิ่งยุ่งยากขึ้นอีก เมื่อซอฟท์แวร์ของเราทรงพลังขึ้น แต่ขณะเดียวกัน ก็โปร่งใสลดลง และซับซ้อนมากขึ้น ในทศวรรษที่ผ่านมา อัลกอริธึ่มระดับซับซ้อน ก้าวล้ำรุดหน้าอย่างยิ่ง พวกมันตรวจจับใบหน้ามนุษย์ได้ แกะลายมือได้ ตรวจหาการโกงบัตรเครดิต และบล็อกสแปมได้ แปลภาษาได้หลากหลาย ค้นหาเนื้องอกผ่านระบบฉายภาพได้ เล่นหมากรุกและโกะชนะมนุษย์ได้ ความล้ำหน้าเหล่านี้เกิดจากกระบวนการ "แมคชีน เลิร์นนิ่ง" (Machine Learning) แมคชีน เลิร์นนิ่ง ต่างจาก การเขียนโปรแกรมทั่วไป ที่คุณเขียนคำสั่งป้อนคอมพิวเตอร์ อย่างละเอียด เจาะจง และรัดกุม กรณีนี้ เป็นเหมือนการป้อนข้อมูลจำนวนมาก เข้าสู่ระบบ ซึ่งรวมถึงข้อมูลที่ไม่มีโครงสร้าง แบบที่เกิดขึ้น เวลาเล่นอินเทอร์เนต จากนั้น ระบบจะเรียนรู้ โดยประมวลย่อยข้อมูลเหล่านั้น และที่สำคัญ ระบบพวกนี้ไม่ได้ทำงาน โดยใช้ชุดตรรกะที่ให้คำตอบตายตัว พวกมันจะไม่สร้างคำตอบแบบพื้น ๆ แต่เป็นคำตอบที่อิงความน่าจะเป็น "คำตอบนี้น่าจะเป็นสิ่งที่คุณมองหาอยู่" ซึ่งมีด้านดีคือ วิธีการนี้ทรงพลังเอามาก ๆ หัวหน้าระบบเอไอของกูเกิ้ลเรียกมันว่า "ประสิทธิผลอย่างไม่น่าเชื่อของดาต้า" แต่ด้าบลบก็คือ เรายังไม่เข้าใจเลยว่า อะไรคือสิ่งที่ระบบเรียนรู้ ซึ่งนี่เองคือจุดเด่นของมัน นี่ไม่ใช่การป้อนคำสั่งให้คอมพิวเตอร์ แต่เป็นเหมือนการฝึกลูกหมา ที่เผอิญเป็นคอมพิวเตอร์ เราไม่ได้เข้าใจหรือควบคุมอะไรมันได้เลย นี่เองคือปัญหาของเรา จะเกิดปัญหาขึ้น เมื่อระบบเอไอ พวกนี้ตีความข้อมูลผิด และจะเกิดปัญหาเช่นกัน แม้เมื่อมันตีความถูก เพราะเราไม่รู้ด้วยซ้ำว่าอะไรผิดหรือถูก เมื่อพูดถึงปัญหาแบบอัตนัย เราไม่รู้ว่าเจ้าสิ่งนี้คิดอะไรอยู่กันแน่ สมมติว่ามีอัลกอริธึ่มสำหรับจ้างพนักงาน ระบบที่ตัดสินใจจ้างพนักงาน โดยใช้วิธีแมคชีน เลิร์นนิ่ง ระบบเช่นนี้ จะถูกฝึกผ่านการป้อนข้อมูล พนักงานที่เคยจ้างในอดีต และถูกสั่งให้ค้นหาและว่าจ้าง คนที่มีคุณสมบัติเหมือนพนักงาน ระดับเยี่ยมที่มีอยู่ในปัจจุบัน ฟังดูดี ครั้งหนึ่ง ดิฉันเข้าประชุม งานเสวนาที่รวมเอา ผู้จัดการและผู้บริหารด้านทรัพยากรมนุษย์ คนระดับสูง ๆ ที่ใช้ระบบแบบนี้ไว้จ้างงาน พวกเขาตื่นเต้นมาก ๆ พวกเขาคิดว่า ระบบจะทำให้การจ้างงาน ตรงตามข้อเท็จจริงมากขึ้น มีอคติน้อยลง ทำให้ผู้หญิงและคนกลุ่มน้อย มีโอกาสได้จ้างดีขึ้น เมื่อเทียบกับใช้คนจ้างที่อาจมีอคติ การจ้างงานโดยใช้มนุษย์นั้นมีอคติค่ะ ฉันรู้ดี ช่วงที่ฉันเป็นโปรแกรมเมอร์ใหม่ ๆ บางครั้ง หัวหน้าของฉัน จะมาหาฉัน ตอนเช้ามาก ๆ หรือไม่ก็ ตอนบ่ายมาก ๆ เธอบอกว่า "เซย์เน็ป ไปกินข้าวเที่ยงกัน!" พอดูเวลา ฉันก็จะงง บ่าย 4 ข้าวเที่ยงเหรอ? ตอนนั้น ฉันไม่มีเงิน ฉะนั้น ข้าวเที่ยงฟรี ฉันพร้อมเสมอ ต่อมา ดิฉันถึงเข้าใจเบื้องหลัง หัวหน้าของฉันไม่ได้ บอกผู้ใหญ่ตามตรงว่า โปรแกรมเมอร์ที่พวกเขาจ้าง มานั้น เป็นแค่วัยรุ่นผู้หญิง ที่ใส่กางเกงยีนส์ รองเท้าผ้าใบมาทำงาน ดิฉันทำผลงานดี แต่รูปลักษณ์นั้นไม่ผ่าน ไม่ผ่านทั้งอายุ และเพศ แน่นอนว่า การจ้างงานโดย ไม่คำนึงถึงเพศ และเชื้อชาติ ถูกใจฉันแน่นอน แต่ถ้าเราใช้ระบบนี้ จะมีเรื่องยุ่งยากเพิ่มขึ้นค่ะ เพราะในปัจจุบันระบบคอมพิวเตอร์ สามารถคาดเดาเรื่องของคุณได้สารพัด จากร่องรอยทางดิจิตอลของคุณ ถึงแม้คุณจะไม่เปิดเผย ข้อมูลเหล่านั้นเลยก็ตาม พวกมันคาดเดาได้ ทั้งรสนิยมทางเพศของคุณ บุคลิกนิสัย แนวโน้มทางการเมือง พวกมันสามารถทำนายได้ ด้วยความแม่นยำสูง อย่าลืมค่ะ นี่แค่เรื่อง ที่คุณไม่ได้เปิดเผยเสียด้วยซ้ำ เป็นแค่การคาดเดา ดิฉันมีเพื่อนที่พัฒนา ระบบคอมพิวเตอร์แบบนี้ เพื่อทำนายความน่าจะเป็น ของการเป็นโรคซึมเศร้ารุนแรงหรือหลังคลอดลูก โดยใช้ข้อมูลโซเชียลมีเดีย ผลที่ได้ น่าประทับใจมาก ระบบของเธอสามารถทำนาย แนวโน้มการเป็นโรคซึมเศร้า ได้ล่วงหน้าหลายเดือนก่อนเกิดอาการขึ้นจริง รู้ล่วงหน้าหลายเดือน ยังไม่มีอาการ แต่เป็นแค่การทำนาย เธอหวังว่าจะใช้ระบบนี้ เพื่อป้องกันโรคแต่เนิ่น ๆ ดีค่ะ! ทีนี้ ลองเอาเรื่องนี้มาคิดกับการจ้างคน ที่งานประชุมของผู้จัดการทรัพยากรมนุษย์ งานนี้ ดิฉันพูดคุยกับผู้บริหารระดับสูง ของบริษัทใหญ่ยักษ์แห่งหนึ่ง ดิฉันถามเธอว่า "สมมติว่า โดยที่คุณไม่ล่วงรู้" ระบบคัดคนที่มีแนวโน้ม เป็นโรคซึมเศร้าในอนาคตสูงออกไป ไม่ใช่ว่าซึมเศร้าตอนนี้นะ แค่อาจจะซึมเศร้าในอนาคต ถ้ามันคัดผู้หญิงที่มีแนวโน้มสูง ว่าจะตั้งครรภ์ ในอีกปีสองปี แต่ไม่ได้ตั้งครรภ์ตอนนี้ออกไปล่ะ สมมติว่า มันจ้างคนบุคลิกก้าวร้าว เพราะว่ามันเป็นวัฒนธรรมองค์กรของคุณล่ะ เรื่องเหล่านี้ คุณดูไม่ออก โดยใช้แค่เพศจำแนก มันอาจเหมือน ๆ กันก็ได้ และเพราะว่านี่เป็น แมคชีน เลิร์นนิ่ง ไม่ใช่การโปรแกรมแบบปกติ จึงไม่มีตัวแปรที่ระบุว่า "ความเสี่ยงซึมเศร้าสูง" "ความเสี่ยงตั้งครรภ์สูง" "ระดับความก้าวร้าวสูง" คุณไม่เพียงไม่รู้ว่า ระบบเลือกอะไรมา คุณไม่รู้ด้วยซ้ำ ว่าจะเริ่มหาจากตรงไหนดี มันเหมือนกล่องดำ มันสามารถทำนายได้ แต่เราไม่อาจเข้าใจมันได้ ฉันถาม "คุณจะใช้วิธีป้องกันใด เพื่อให้แน่ใจว่า กล่องดำของคุณ ไม่ทำอะไรนอกลู่นอกทาง เธอมองดิฉันกลับเหมือนดิฉันกำลัง เหยียบหางลูกหมาอยู่ 10 ตัว (เสียงหัวเราะ) เธอจ้องดิฉันกลับ และพูดว่า "อย่ามาพูดอะไรแบบนี้ ให้ฉันฟังอีกนะคะ" แล้วเธอก็หันหน้า เดินหนีไป เธอไม่ได้หยาบคายหรอกค่ะ แค่ว่า อะไรที่ฉันไม่รู้ ไม่ใช่ปัญหาของฉัน ไปไกล ๆ ไล่ด้วยสายตา (เสียงหัวเราะ) ระบบแบบนั้น อาจมีอคติน้อยกว่า ผู้จัดการมนุษย์ในบางด้าน และอาจคุ้มค่าทางการเงินด้วยก็จริง แต่ก็อาจเป็นต้นเหตุ ที่ค่อย ๆ นำไปสู่การกีดกัน คนที่มีแนวโน้มซึมเศร้า ออกจากตลาดแรงงานไปเลย โดยเราไม่รู้ตัว นี่คือสังคมแบบที่เราอยาก สร้างขึ้น โดยที่เราไม่รู้ตัว เพราะเราให้การตัดสินใจ อยู่ในมือของเครื่องกลที่เราเอง ก็ไม่เข้าใจอย่างถ่องแท้อย่างนั้นหรือ อีกปัญหาหนึ่งคือ ระบบเหล่านี้ มักถูกฝึกฝน โดยใช้ข้อมูลที่เกิดจากพฤติกรรมของเรา พฤติกรรมของมนุษย์ ฉะนั้น มันอาจรับเอาอคติของเรา แล้วก็หยิบอคติเหล่านั้นออกมา ขยายให้รุนแรงขึ้น แล้วก็แสดงผลกลับมาให้เราดู ขณะที่เราพร่ำบอกตัวเองว่า "เรากำลังคำนวณอย่างเป็นกลาง ตามข้อเท็จจริง" นักวิจัยพบว่าบนกูเกิ้ล โฆษณางานรายได้สูงมีแนวโน้มจะแสดง ให้ผู้หญิงเห็นน้อยกว่าให้ผู้ชาย และถ้าเราเสิร์ชหาชื่อคนแอฟริกัน-อเมริกัน ก็มีแนวโน้มที่โฆษณาซึ่งเกี่ยวข้อง กับประวัติอาชญากรรมจะแสดงขึ้นมา แม้ว่าคนนั้น จะไม่มีประวัติเลยก็ตาม อคติซ่อนเร้น และอัลกอริธึ่มกล่องดำแบบนี้เอง ซึ่งบางครั้ง นักวิจัยก็เผอิญค้นพบ แต่บางครั้งก็ไม่อาจรู้ได้ ที่อาจสร้างผลกระทบ ถึงขั้นเปลี่ยนชีวิตคนได้ ในวิสคอนซิน ผู้ต้องหาคนหนึ่ง ถูกตัดสินจำคุกหกปี ข้อหาหลบหนีตำรวจ เรื่องนี้คุณอาจไม่รู้ แต่เราให้อัลกอริธึ่มตัดสินใจเรื่อง การสั่งทัณฑ์บนหรือจำคุกมากขึ้นเรื่อย ๆ ผู้ต้องหาคนนั้นอยากรู้ว่า คะแนนนี้มีวิธีคำนวณอย่างไร อัลกอริธึ่มนีี้เป็นของบริษัทแสวงกำไร บริษัทนั้นปฎิเสธที่จะให้ ศาลไต่สวนอัลกอริธึ่มของตนเอง แต่ โพรพับลิก้า (ProPublica) หน่วยงานสืบสวนไม่หวังกำไร ตรวจสอบอัลกอริธึ่มนั้น โดยใช้ข้อมูลสาธารณะเท่าที่หาได้ และพบว่า ผลลัพธ์ที่ได้มีอคติอยู่ ความสามารถในการทำนายย่ำแย่ ดีกว่าเดาสุ่มแค่นิดเดียว มันให้ผลลัพธ์ที่ผิดพลาดว่า ผู้ต้องหาผิวดำมีแนวโน้มเป็นอาชญากรในอนาคต สูงเป็นสองเท่าของผู้ต้องหาผิวขาว ลองดูอีกคดีหนึ่ง ผู้หญิงคนนี้ ไปรับน้องสาวบุญธรรม กลับจากโรงเรียน ในบรอเวิร์ด เคาน์ตี้ ฟลอริด้า สายกว่าเวลา เธอกับเพื่อน ๆ วิ่งกันไปตามถนน แล้วเจอจักรยานเด็ก และสกูตเตอร์วางทิ้งไว้ แล้วก็เอามาใช้อย่างไม่คิด ขณะที่กำลังจะปั่นจักรยานไป ผู้หญิงคนหนึ่งก็ออกมาตะโกนว่า "เฮ้ นั่นของลูกฉันนะ" พวกเธอเลยทิ้งจักรยาน รีบเดินหนี แล้วก็ถูกจับกุม เธอผิดจริง เธอโง่เขลา แต่เธอก็อายุแค่ 18 ด้วย เธอเคยถูกจับด้วยข้อหาเล็ก ๆ น้อย ๆ มาก่อน ส่วนผู้ชายคนนั้น ถูกจับกุม ข้อหาขโมยของในโฮมดีโป้ มูลค่า 85 ดอลลาร์ เป็นอาชญากรรมเล็ก ๆ น้อย ๆ เช่นกัน แต่เขามีประวัติกรรโชคทรัพย์ มาแล้วถึงสองครั้ง แต่อัลกอริธึ่มกลับให้คะแนน ความเสี่ยงเธอสูง ไม่ใช่เขา สองปีต่อมา โปรพับลิก้า พบว่า เธอไม่ได้กระทำผิดซ้ำอีก แต่ด้วยประวัติของเธอ ทำให้เธอหางานทำได้ยาก แต่ผู้ชายนั้น กลับทำความผิดซ้ำ และตอนนี้ ต้องโทษจำคุกแปดปี จากการทำผิดหนหลัง ฉะนั้น เราต้องตรวจสอบกล่องดำของเรา และไม่ปล่อยให้มันมีอำนาจโดย ไม่มีการถ่วงดุลเช่นนี้ (เสียงปรบมือ) การตรวจสอบเป็นเรื่องที่ดีและสำคัญ แต่ก็ไม่ได้แก้ปัญหาได้ทุกเรื่อง ลองดูฟีดข่าวทรงอิทธิพล ของเฟซบุ้กเป็นตัวอย่าง อันที่จัดลำดับข่าวสารทุกอย่าง แล้วตัดสินใจว่าจะโชว์อะไรให้คุณดู โดยดูจากเพื่อนและเพจที่คุณติดตามนี่แหละ จะโชว์อะไรดีล่ะ รูปเด็กเล็ก (เสียงหัวเราะ) หรือโน้ตขึงขังที่คนรู้จักเขียน หรือจะเป็นข่าวชิ้นสำคัญแต่อ่านยาก ไม่มีคำตอบผิดถูก เฟซบุ้กให้ความสำคัญกับ การมีปฏิสัมพันธ์ต่อคอนเทนต์ ไลค์ แชร์ คอมเมนต์ ในเดือนสิงหาคม ค.ศ. 2014 เกิดการประท้วงที่ เฟอร์กูสัน รัฐมิสซูรี่ หลังจากเหตุการณ์ที่ตำรวจผิวขาว ฆ่าวัยรุ่นแอฟริกันอเมริกันตาย ในสภาพการณ์ที่ีน่าสงสัย ข่าวการประท้วงผุดเต็มฟีด บนหน้าทวิตเตอร์ ที่ไม่มีอัลกอริธึ่มคัดกรองของดิฉัน แต่หาไม่เจอบนเฟซบุ้กเลย เพราะเพื่อนบนเฟซบุ้กของฉันหรือ? ดิฉันบล็อกอัลกอริธึ่มของเฟซบุ้กเสีย ซึ่งทำได้ยาก เพราะเฟซบุ้ก จะยืนกรานแต่ให้คุณ อยู่ใต้บงการของอัลกอริธึ่ม แล้วก็พบว่า เพื่อน ๆ ของฉัน ต่างก็พูดถึงเรื่องนี้ แต่อัลกอริธึ่มมันไม่ยอม โชว์ให้ดิฉันดู ฉันค้นคว้าเรื่องนี้ต่อ และพบว่านี่เป็นปัญหาในวงกว้าง ข่าวเฟอร์กูสัน ไม่เป็นมิตรกับอัลกอริธึ่ม เพราะมัน "ไม่มีคนไลค์" ใครจะไปกดไลค์ล่ะ ขนาดคอมเมนต์ยังยากเลย เมื่อไม่มีไลค์ หรือคอมเมนต์ อัลกอริธึ่มจึงมีแนวโน้ม จะโชว์ให้คนดูน้อยลงไปอีก เราเลยไม่เห็นข่าวนี้เลย แต่ในสัปดาห์นั้น สิ่งที่อัลกอริธึ่มของเฟซบุ้กให้ความสำคัญ คือ การท้าราดน้ำแข็งสู้โรค ALS จุดประสงค์ดี มีการราดน้ำแข็ง ได้บริจาคช่วยคน ดีค่ะ แต่ข่าวนี้ อัลกอริธึ่มก็จะชอบมาก ๆ ไปเลย เครื่องจักรตัดสินใจเรื่องแบบนี้ให้พวกเรา การสนทนาประเด็นยาก ๆ แต่สำคัญมาก ๆ แบบนี้ อาจถูกกำจัดออก หากมีเฟซบุ้กเป็นสื่อเพียงช่องทางเดียว และท้ายที่สุด ระบบพวกนี้ ก็อาจผิดพลาด ในแบบที่ต่างจากระบบของมนุษย์ไปเลยก็ได้ พวกคุณคงรู้จักวัตสัน ระบบสมองประดิษฐ์ของ IBM ที่เอาชนะคู่แข่งมนุษย์ แบบขาดลอยในรายการเจพเปอร์ดี้ มันเล่นเกมเก่งมาก แต่ในเจพเปอร์ดี้รอบสุดท้าย วัตสันต้องตอบคำถามนี้ค่ะ "สนามบินที่ใหญ่ที่สุดของมัน ตั้งชื่อตามวีรบุรุษสงครามโลกครั้งที่ 2 และเป็นสมรภูมิใหญ่เป็นที่สอง ในสงครามโลกครั้งที่ 2" (ฮัมดนตรีรายการเจพเปอร์ดี้รอบสุดท้าย) ชิคาโก้ค่ะ มนุษย์สองคนตอบถูกต้อง แต่วัตสัน ตอบว่า "โตรอนโต้" ทั้งที่คำถามเป็นหมวด เมืองในสหรัฐฯ! ระบบที่เก่งกาจ ยังรู้จักพลาดพลั้ง ในเรื่องที่มนุษย์ทั่วไป หรือกระทั้งเด็กประถมไม่มีทางพลาด สมองประดิษฐ์อาจทำผิดพลาดได้ ด้วยพฤติการณ์คนละแบบกับของมนุษย์ ในรูปแบบที่เราจะคาดไม่ถึง และไม่ได้เตรียมรับมือ การไม่ได้งานทั้งที่คุณ มีคุณสมบัติพร้อมก็แย่อยู่แล้ว แต่คงแย่สุด ๆ ถ้าไม่ได้งาน เพราะแค่เกิด สแต็ค โอเวอร์โฟลว์ ในซับรูทีนบางตัว (เสียงหัวเราะ) เมื่อเดือนพฤษภาคม 2010 ตลาดหุ้นวอลล์สตรีท เกิดล่มกระทันหัน เนื่องจากลูปป้อนกลับ ในอัลกอริธึ่มของวอลล์สตรีท ทำให้เงินในตลาดหายไป กว่าหนึ่งล้านล้านดอลลาร์ใน 36 นาที ดิฉันไม่อยากคิดเลยว่า "ข้อบกพร่อง" จะเป็นแบบไหน ถ้าเกิดเปลี่ยนเป็น อาวุธอันตรายแบบอัตโนมัติแทน มนุษย์ล้วนมีอคติกันทั้งนั้น ทั้งผู้ตัดสินใจ และผู้ดูแลกฎ ทั้งในศาล ในข่าว และในสงคราม พวกเขาผิดพลาดได้ทั้งนั้น แต่นั่นแหละ คือประเด็นของดิฉัน เราหลบเลี่ยงคำถามยาก ๆ แบบนี้ไม่ได้ เราจะถ่ายโอนความรับผิดชอบ ของเราเองนี้ไปให้คอมพิวเตอร์ไม่ได้ (เสียงปรบมือ) ปัญญาประดิษฐ์ ไม่ได้ทำให้เรา เป็นอิสระจากปัญหาเชิงจริยธรรม นักวิทยาศาสตร์ข้อมูล เฟรด เบเนนสัน เรียกเรื่องนี้ว่า แม็ธวอชชิ่ง (math-washing) เราต้องทำตรงกันข้าม เราต้องส่งเสริมการสีบสวน ตรวจตรา ตั้งข้อสงสัยในอัลกอริธึ่ม เราต้องมั่นใจได้ว่าอัลกอริธึ่มที่ใช้ สามารถตรวจสอบย้อนกลับได้ ออดิทได้ และมีความโปร่งใสอย่างเป็นรูปธรรม เราต้องยอมรับว่า การเอาคณิตศาสตร์และคอมพิวเตอร์ มาใช้แก้ปัญหาของมนุษย์ที่กำกวม และแฝงความเชื่อทางสังคม ไม่ได้ทำให้เกิดความเที่ยงตรง อย่างภววิสัย แต่ความซับซ้อนของปัญหามนุษย์ จะเล่นงานอัลกอริธึ่มแทน จริงค่ะ คอมพิวเตอร์นั้น เราใช้ได้ และควรใช้ด้วย เพื่อให้เราตัดสินใจได้ดีขึ้น แต่เราต้องไม่ลืมความรับผิดชอบทางศีลธรรม ในการตัดสินใจนั้น แล้วใช้อัลกอริธึ่มภายในขอบเขตนั้น ไม่ใช่เพื่อปลดเปลื้อง หรือถ่ายโอน ความรับผิดชอบของเรา ที่มีต่อผู้อื่น ในฐานะมนุษย์ด้วยกัน เรามีสมองประดิษฐ์ไว้ใช้แล้ว นั่นหมายความว่า เรายิ่งต้องยึดมั่น ในค่านิยมของมนุษย์ และจริยธรรมของมนุษย์ ขอบคุณค่ะ (เสียงปรบมือ)