Return to Video

เราจะสามารถสร้างปัญญาประดิษฐ์โดยไม่สูญเสียการควบคุมมันได้หรือไม่

  • 0:01 - 0:03
    ผมจะพูดถึงความล้มเหลว
    ของการหยั่งรู้โดยสัญชาตญาณ
  • 0:03 - 0:05
    ซึ่งพวกเราหลายคนประสบอยู่
  • 0:05 - 0:09
    แท้จริงแล้ว มันเป็นความล้มเหลว
    ของการสัมผัสได้ถึงอันตรายบางอย่าง
  • 0:09 - 0:11
    ผมกำลังจะอธิบายสถานการณ์หนึ่ง
  • 0:11 - 0:14
    ที่ผมคิดว่ามันทั้งน่าสะพรึงกลัว
  • 0:14 - 0:16
    และก็น่าจะเกิดขึ้นได้
  • 0:17 - 0:18
    และนั่นไม่ใช่ส่วนผสมที่ดีเลย
  • 0:19 - 0:20
    ดังที่ปรากฎออกมา
  • 0:20 - 0:23
    แต่แทนที่จะกลัว
    ท่านทั้งหลายส่วนใหญ่จะรู้สึกว่า
  • 0:23 - 0:25
    สิ่งที่ผมกำลังจะพูดถึงนั้น
    เป็นอะไรที่ดูเจ๋ง
  • 0:25 - 0:28
    ผมกำลังจะอธิบายให้ฟังว่า
    ผลประโยชน์ที่เราได้รับ
  • 0:28 - 0:30
    จากปัญญาประดิษฐ์
  • 0:30 - 0:32
    ในที่สุดแล้วอาจทำลายเราได้อย่างไร
  • 0:32 - 0:35
    และที่จริง ผมว่ามันยากมาก
    ที่จะเข้าใจว่าพวกมันจะไม่ทำลายเรา
  • 0:35 - 0:37
    หรือไม่ดลใจให้เรา
    ทำลายตัวเองได้อย่างไร
  • 0:37 - 0:39
    ถ้าหากว่าคุณเป็นอย่างผม
  • 0:39 - 0:42
    คุณจะพบว่ามันสนุกดี
    ที่จะคิดถึงเรื่องเหล่านี้
  • 0:42 - 0:45
    และการตอบสนองนั้น
    ก็เป็นส่วนหนึ่งของปัญหา
  • 0:45 - 0:48
    ใช่ไหมครับ การตอบรับนั้น
    น่าจะทำให้คุณกังวลใจ
  • 0:48 - 0:51
    ถ้าในการบรรยายนี้
    ผมต้องการโน้มน้าวคุณให้เชื่อว่า
  • 0:51 - 0:54
    เราน่าจะต้องประสบกับความทุกข์ยาก
    จากความอดอยากไปทั่วโลก
  • 0:54 - 0:57
    ไม่ว่าจะเป็นเพราะการเปลี่ยนแปลง
    สภาวะอากาศ หรือหายนะอย่างอื่น
  • 0:57 - 1:01
    และลูกหลานของพวกคุณ
    หรือของลูกหลานของพวกเขา
  • 1:01 - 1:02
    อาจจะต้องมีความเป็นอยู่แบบนี้
  • 1:03 - 1:05
    คุณคงจะไม่คิดหรอกว่า
  • 1:05 - 1:07
    "น่าสนใจนะ
  • 1:07 - 1:08
    ฉันชอบ TED Talk เรื่องนี้"
  • 1:09 - 1:11
    ความอดอยากนั้นไม่น่าสนุก
  • 1:12 - 1:15
    ในขณะที่ ความตาย
    ในนวนิยายวิทยาศาสตร์เป็นเรื่องสนุก
  • 1:15 - 1:19
    สิ่งหนึ่งที่ทำให้ผมกังวลที่สุดเกี่ยวกับ
    การพัฒนาปัญญาประดิษฐ์ขึ้นมา ณ ตอนนี้
  • 1:19 - 1:23
    ก็คือ ดูเหมือนว่าเราไม่สามารถสร้าง
    การตอบสนองทางอารมณ์ที่เหมาะสม
  • 1:23 - 1:25
    ต่ออันตรายที่อยู่เบื้องหน้าได้
  • 1:25 - 1:29
    ผมเองก็ไม่สามารถที่จะปลุกการตอบสนองนี้ได้
    ผมจึงต้องมาพูดเรื่องนี้
  • 1:30 - 1:33
    มันเหมือนกับว่า
    เรายืนอยู่ข้างหน้าประตูสองบาน
  • 1:33 - 1:34
    ด้านหลังประตูหมายเลขหนึ่ง
  • 1:34 - 1:37
    เราหยุดที่จะก้าวหน้าต่อไป
    ในการสร้างจักรกลที่ชาญฉลาด
  • 1:37 - 1:41
    คอมพิวเตอร์ฮาร์ดแวร์และซอฟแวร์
    ต่างหยุดพัฒนา ด้วยเหตุผลบางอย่าง
  • 1:41 - 1:45
    ลองใช้เวลาสักครู่เพื่อพิจารณานะครับ
    ว่าทำไมเรื่องแบบนี้อาจจะเกิดขึ้นได้
  • 1:45 - 1:49
    ผมหมายความว่า ด้วยคุณค่าของ
    ความฉลาดและความเป็นอัตโนมัตินั้น
  • 1:49 - 1:52
    เราจะยังคงพัฒนาเทคโนโลยีของเราต่อไป
    หากเรายังสามารถทำได้
  • 1:53 - 1:56
    อะไรล่ะจะหยุดเราไม่ไห้ทำสิ่งนี้
  • 1:56 - 1:58
    สงครามนิวเคลียร์เต็มรูปแบบหรือ
  • 1:59 - 2:01
    โรคที่ระบาดไปทั่วโลกหรือ
  • 2:02 - 2:04
    ดาวเคราะห์น้อยมาชนโลกหรือ
  • 2:06 - 2:08
    จัสติน บีเบอร์
    มาเป็นประธานาธิบดีของสหรัฐหรือ
  • 2:08 - 2:11
    (เสียงหัวเราะ)
  • 2:13 - 2:17
    ประเด็นก็คือ บางสิ่งบางอย่างจะต้อง
    มาทำลายอารยธรรมที่เรารู้จัก
  • 2:17 - 2:22
    คุณจะต้องจินตนาการเองว่า
    มันจะแย่ขนาดไหน
  • 2:22 - 2:25
    ที่จะมากีดกันเราจากการ
    ปรับปรุงเทคโนโลยีของเราให้ดีขึ้น
  • 2:25 - 2:26
    อย่างถาวร
  • 2:26 - 2:28
    ที่เกิดขึ้นยุคแล้วยุคเล่า
  • 2:28 - 2:30
    เกือบจะเรียกได้ว่า
    นี่คือสิ่งเลวร้ายที่สุด
  • 2:30 - 2:32
    ที่ได้เคยเกิดขึ้น
    ในประวัติศาสตร์มนุษยชาติ
  • 2:33 - 2:34
    ฉะนั้นตัวเลือกเดียวที่เหลือ
  • 2:34 - 2:36
    และนั่นคือสิ่งที่อยู่ด้านหลัง
    ประตูหมายเลขสอง
  • 2:36 - 2:39
    ก็คือ เรายังคงปรับปรุงจักรกลที่ฉลาด
    ของเรานี้ให้ดีขึ้นต่อไป
  • 2:39 - 2:41
    ปีแล้วปีเล่า
  • 2:42 - 2:45
    จนเมื่อถึงจุดหนึ่ง
    เราก็จะสร้างจักรกลที่ฉลาดกว่าเรา
  • 2:46 - 2:48
    และเมื่อเรามีจักรกล
    ที่ฉลาดกว่าเราแล้ว
  • 2:48 - 2:51
    มันก็จะเริ่มต้นปรับปรุงตัวมันเองให้ดีขึ้น
  • 2:51 - 2:53
    แล้วเราก็จะเสี่ยงกับ
    สิ่งที่นักคณิตศาสตร์ ไอเจ กูด เรียกว่า
  • 2:53 - 2:55
    "การระเบิดของความชาญฉลาด"
  • 2:55 - 2:57
    กระบวนการที่ซึ่งมนุษย์
    ไม่สามารถควบคุมมันได้
  • 2:58 - 3:01
    เรื่องนี้มักจะถูกทำเป็นการ์ตูนล้อเลียน
    อย่างที่แสดงให้ดูตรงนี้
  • 3:01 - 3:04
    เป็นความกลัวที่ทหารหุ่นยนต์ที่มุ่งร้าย
  • 3:04 - 3:05
    จะเข้ามาโจมตีทำร้ายเรา
  • 3:05 - 3:08
    แต่นั่นไม่ใช่สถานการณ์
    ที่น่าจะเป็นไปได้มากที่สุด
  • 3:08 - 3:13
    ไม่ใช่ว่าจักรกลของเรา
    จะกลายเป็นภัยอันตรายขึ้นมาเอง
  • 3:13 - 3:16
    ความกังวลจริง ๆ ก็คือ
    เราจะสร้างจักรกล
  • 3:16 - 3:18
    ที่มีความสามารถที่สูงกว่าเรามาก ๆ
  • 3:18 - 3:22
    ที่ความแตกต่างเพียงเล็กน้อยระหว่าง
    เป้าหมายของมันกับของเราเอง
  • 3:22 - 3:23
    ก็อาจจะทำลายเราได้
  • 3:24 - 3:26
    ลองแค่คิดดูว่า
    เรามีสัมพันธ์กับมดอย่างไร
  • 3:27 - 3:28
    เราไม่ได้เกลียดพวกมัน
  • 3:28 - 3:30
    เราไม่ได้ยอมลำบาก
    ใช้ความพยายามไปทำร้ายมัน
  • 3:30 - 3:33
    อันที่จริง บางครั้งเราต้องอดกลั้น
    ที่จะไม่ทำร้ายมัน
  • 3:33 - 3:35
    เราก้าวข้ามพวกมันไปบนทางเดิน
  • 3:35 - 3:37
    แต่เมื่อใดก็ตามที่การปรากฏอยู่ของมัน
  • 3:37 - 3:39
    ขัดแย้งอย่างรุนแรง
    กับเป้าหมายอย่างหนึ่งของเรา
  • 3:39 - 3:42
    ยกตัวอย่าง เมื่อก่อสร้างอาคาร
    เช่น อาคารนี้
  • 3:42 - 3:44
    เราทำลายล้างพวกมันได้อย่างสบายใจ
  • 3:44 - 3:47
    ความวิตกกังวลก็คือสักวันหนึ่ง
    เราจะสร้างจักรกล
  • 3:47 - 3:50
    ที่ไม่ว่าพวกมันจะมีความคิด
    อย่างมีสติหรือไม่ก็ตาม
  • 3:50 - 3:53
    จะทำกับเราได้อย่างเฉยเมย
    ในแบบเดียวกัน
  • 3:54 - 3:57
    ครับ ผมเข้าใจว่า สิ่งนี้ดูจะไกลจากความจริง
    สำหรับหลาย ๆ ท่าน
  • 3:57 - 4:03
    ผมมั่นใจว่ายังมีคนไม่เชื่อว่า
    ปัญญาประดิษฐ์ยอดอัจฉริยะจะเกิดขึ้นได้จริง
  • 4:03 - 4:06
    หรือไม่เชื่อว่ามันหลีกเลี่ยงไม่ได้
  • 4:06 - 4:09
    แต่คุณจะพบว่ามีบางอย่างที่ไม่ถูกต้อง
    ในสมมติฐานเบื้องต้นต่อไปนี้
  • 4:09 - 4:11
    ซึ่งก็มีเพียงสามอย่างเท่านั้น
  • 4:12 - 4:17
    หนึ่งคือ ความฉลาดเป็นเรื่องของการ
    ประมวลข้อมูลในระบบทางกายภาพ
  • 4:17 - 4:20
    แต่จริง ๆ แล้ว ข้อนี้มัน
    มากกว่าสมมติฐานเบื้องต้นสักหน่อย
  • 4:20 - 4:23
    เราใส่ความฉลาดในขอบเขตแคบ ๆ
    ไว้ในจักรกลของเราเรียบร้อยแล้ว
  • 4:23 - 4:25
    และจักรกลมากมายเหล่านี้ก็ทำงาน
  • 4:25 - 4:28
    ด้วยความฉลาดระดับเหนือมนุษย์อยู่แล้ว
  • 4:29 - 4:31
    และเราก็รู้ว่า แค่มีความฉลาดระดับนั้น
  • 4:31 - 4:34
    ก็ทำให้เกิดสิ่งที่เรียกว่า
    "ความฉลาดทั่วไป"
  • 4:34 - 4:38
    ซึ่งเป็นความสามารถที่จะคิด
    ได้อย่างยืดหยุ่นในหลาย ๆ ด้าน
  • 4:38 - 4:41
    ก็เพราะว่าสมองของเรานั้น
    ก็สามารถทำได้ ใช่ไหมล่ะครับ
  • 4:41 - 4:45
    ผมหมายความว่า
    มันก็แค่อะตอมในนี้
  • 4:45 - 4:49
    และตราบใดที่เรายังคงสร้าง
    ระบบของอะตอม
  • 4:49 - 4:52
    ที่แสดงพฤติกรรมชาญฉลาด
    มากขึ้นและมากขึ้น
  • 4:52 - 4:55
    ในที่สุดถ้าเราไม่ถูกขัดขวาง
  • 4:55 - 4:58
    เราก็จะสร้างความฉลาดทั่วไป
  • 4:58 - 4:59
    เอาไว้ในจักรกลของเรา
  • 4:59 - 5:03
    มันจำเป็นมากที่ต้องตระหนักว่า
    อัตราความก้าวหน้านั้นไม่สำคัญ
  • 5:03 - 5:06
    เพราะความก้าวหน้าใด ๆ ก็ตาม
    ก็เพียงพอที่จะพาเราเข้าสู่ช่วงสุดท้าย
  • 5:06 - 5:10
    ไม่จำเป็นต้องดำเนินไปตามกฎของมอร์
    ไม่จำเป็นต้องก้าวหน้าไปแบบยกกำลัง
  • 5:10 - 5:12
    เราแค่ต้องก้าวหน้าต่อไปเรื่อย ๆ
    เท่านั้นเอง
  • 5:13 - 5:17
    สมมติฐานเบื้องต้นข้อที่สอง
    คือเราจะก้าวหน้าต่อไปเรื่อย ๆ
  • 5:17 - 5:20
    เราจะยังคงปรับปรุงจักรกล
    ที่ชาญฉลาดของเราต่อไป
  • 5:21 - 5:25
    และด้วยคุณค่าของความฉลาด --
  • 5:25 - 5:29
    ผมหมายถึงว่า ไม่ว่าความฉลาด
    จะเป็นทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า
  • 5:29 - 5:32
    หรือเราต้องใช้มันเพื่อปกป้อง
    ทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า
  • 5:32 - 5:34
    มันก็เป็นสิ่งที่มีคุณค่าที่สุดของเรา
  • 5:34 - 5:36
    ฉะนั้น เราจึงต้องการทำสิ่งนี้
  • 5:36 - 5:39
    เรามีปัญหา
    ที่เราจำเป็นต้องแก้ไขอย่างเร่งด่วน
  • 5:39 - 5:42
    เราต้องการรักษาโรค
    อย่างเช่น อัลไซเมอร์และมะเร็ง
  • 5:43 - 5:47
    เราต้องการเข้าใจระบบเศรษฐกิจ
    เราต้องการปรับปรุงศาสตร์ภูมิอากาศวิทยา
  • 5:47 - 5:49
    เราจึงต้องทำสิ่งนี้
    หากเราสามารถทำได้
  • 5:49 - 5:52
    รถไฟได้ออกจากสถานีไปแล้ว
    และไม่มีเบรคที่จะดึงมันไว้ได้
  • 5:54 - 5:59
    ข้อสุดท้าย เราไม่ได้ยืนอยู่
    บนจุดสูงสุดของความฉลาด
  • 5:59 - 6:01
    ไม่แม้แต่จะใกล้เคียง
  • 6:01 - 6:04
    นี่เป็นความเข้าใจที่สำคัญยิ่ง
  • 6:04 - 6:06
    นี่แหละที่ทำให้สถานการณ์ของเรา
    ล่อแหลมต่ออันตรายยิ่ง
  • 6:06 - 6:10
    และนี่แหละที่ทำให้สัญชาตญาณของเรา
    ที่มีต่อความเสี่ยงนั้นเชื่อถือไม่ได้
  • 6:11 - 6:14
    ครับ แค่ลองพิจารณา
    ถึงคนฉลาดที่สุดที่เคยมีชีวิตอยู่
  • 6:15 - 6:18
    สำหรับทุกคนแล้ว หนึ่งในรายชื่อนั้น
    ก็คืออ จอห์น วอน นอยแมน
  • 6:18 - 6:21
    ผมหมายถึง ความประทับใจของผู้คน
    ที่มีต่อ วอน นอยแมน
  • 6:21 - 6:25
    และนั่นก็รวมถึงนักคณิตศาสตร์
    และนักฟิสิกส์ที่ยิ่งใหญ่ในยุคนั้น
  • 6:26 - 6:27
    ได้ถูกบันทีกไว้เป็นอย่างดี
  • 6:27 - 6:31
    ถ้าเรื่องราวของเขาสักครึ่งหนึ่งนั้น
    จะมีมูลความจริงอยู่ถึงสักครึ่ง
  • 6:31 - 6:32
    ก็ไม่ต้องกังขาเลยว่า
  • 6:33 - 6:35
    เขาเป็นคนฉลาดที่สุดในโลกคนหนึ่ง
  • 6:35 - 6:38
    เมื่อพิจารณาระดับช่วงของความฉลาด
  • 6:38 - 6:40
    ตรงนี้เรามี จอห์น วอน นอยแมน
  • 6:42 - 6:43
    แล้วเราก็มี คุณและผม
  • 6:44 - 6:45
    แล้วต่อมาก็มีไก่
  • 6:45 - 6:47
    (เสียงหัวเราะ)
  • 6:47 - 6:49
    ขอโทษครับ ไก่
  • 6:49 - 6:50
    (เสียงหัวเราะ)
  • 6:50 - 6:54
    ไม่มีเหตุผลอะไร ที่ผมจะทำให้
    การบรรยายนี้หดหู่ใจมากเกินจำเป็น
  • 6:54 - 6:55
    (เสียงหัวเราะ)
  • 6:56 - 7:00
    อย่างไรก็ตาม ดูจะเป็นไปได้มาก
    ที่ระดับช่วงของความฉลาดนั้น
  • 7:00 - 7:03
    ขยายออกไปได้ไกล
    มากกว่าที่เราตระหนักในปัจจุบัน
  • 7:04 - 7:07
    และถ้าเราสร้างจักรกลที่ฉลาดกว่าเรา
  • 7:07 - 7:09
    พวกมันก็น่าจะสำรวจตรวจค้น
    ความชาญฉลาดเหล่านี้
  • 7:09 - 7:11
    ในแบบที่เราคิดไม่ถึง
  • 7:11 - 7:14
    และเหนือกว่าเราในแบบที่เราคิดไม่ถึง
  • 7:15 - 7:19
    มันจำเป็นที่เราต้องยอมรับว่า
    สิ่งนี้เป็นจริงไปแล้ว ในเรื่องความเร็ว
  • 7:19 - 7:24
    ใช่ไหมครับ ลองคิดดูว่า ถ้าเราแค่สร้าง
    ปัญญาประดิษฐ์อัจฉริยะขึ้นมาสักเครื่อง
  • 7:24 - 7:28
    ที่ไม่ได้ฉลาดกว่ากลุ่มนักวิจัยทั่ว ๆ ไป
  • 7:28 - 7:30
    ที่แสตนฟอร์ดหรือเอ็มไอที
  • 7:30 - 7:33
    วงจรไฟฟ้านั้นทำงานได้เร็วกว่าวงจรชีวเคมี
  • 7:33 - 7:34
    ประมาณหนึ่งล้านเท่า
  • 7:35 - 7:38
    ดังนั้น จักรกลนี้ควรจะคิดได้เร็วกว่า
    ปัญญาของมนุษย์ผู้สร้างมันขึ้นมา
  • 7:38 - 7:39
    ประมาณหนึ่งล้านเท่า
  • 7:40 - 7:41
    เมื่อคุณเดินเครื่องนานหนึ่งสัปดาห์
  • 7:41 - 7:46
    มันจะทำงานได้เท่ากับการทำงานโดยใช้
    สติปัญญาในระดับของมนุษย์นาน 20,000 ปี
  • 7:46 - 7:48
    นานสัปดาห์แล้วสัปดาห์เล่า
  • 7:50 - 7:54
    เราจะไปเข้าใจ หรือแม้แต่จำกัดขอบเขต
    ของปัญญาประดิษฐ์
  • 7:54 - 7:56
    ที่สร้างความก้าวหน้าแบบนี้ได้อย่างไร
  • 7:57 - 7:59
    อีกเรื่องหนึ่งที่น่าวิตกกังวล
  • 7:59 - 8:04
    คือ ลองจินตนาการถึงสถานการณ์ที่ดีที่สุด
  • 8:04 - 8:08
    จินตนาการว่า เราค้นพบการออกแบบ
    ปัญญาประดิษฐ์อันชาญฉลาด
  • 8:08 - 8:10
    ที่ไม่มีปัญหาเรื่องความปลอดภัย
  • 8:10 - 8:13
    เรามีแบบที่สมบูรณ์เป็นครั้งแรก
  • 8:13 - 8:15
    ราวกับว่าเราได้รับคำพยากรณ์
  • 8:15 - 8:17
    ที่เป็นไปดังใจคิดเป๊ะ
  • 8:17 - 8:21
    ครับ จักรกลนี้ก็น่าจะเป็นเครื่องมือ
    ที่ประหยัดแรงงานได้อย่างสมบูรณ์แบบ
  • 8:22 - 8:24
    มันสามารถออกแบบจักรกล
    ที่สามารถสร้างจักรกล
  • 8:24 - 8:26
    ซึ่งสามารถทำงานเชิงกายภาพอะไรก็ได้
  • 8:26 - 8:27
    ใช้พลังจากแสงอาทิตย์
  • 8:27 - 8:30
    โดยมีต้นทุนแค่ค่าวัตถุดิบ
  • 8:30 - 8:33
    ดังนั้น เรากำลังพูดกันถึงการสิ้นสุด
    ของงานหนักที่น่าเบื่อของมนุษย์
  • 8:33 - 8:37
    เรากำลังพูดถึงการจบสิ้นของงาน
    ที่ใช้สติปัญญามากที่สุดด้วยเช่นกัน
  • 8:37 - 8:40
    แล้วลิงจ๋ออย่างพวกเรานั้น
    จะทำอย่างไรในสถานการณ์แบบนี้
  • 8:40 - 8:44
    ครับ เราก็ว่างที่จะไปเล่นจานร่อน
    แล้วก็ทำการนวดเฟ้นให้กันและกัน
  • 8:46 - 8:49
    เพิ่มการเสพสารแอลเอสดี
    และเสื้อผ้าที่ดูไม่ออกว่าเป็นแนวไหน
  • 8:49 - 8:51
    และโลกทั้งใบก็คงกลายเป็น
    งานเทศกาล Burning Man
  • 8:51 - 8:53
    (เสียงหัวเราะ)
  • 8:54 - 8:56
    ครับ นั่นอาจจะฟังดูค่อนข้างจะดี
  • 8:57 - 9:00
    แต่ลองถามตัวเองดูว่าจะเกิดอะไรขึ้น
  • 9:00 - 9:02
    ภายใต้ระเบียบการเมืองและเศรษฐกิจ
    ในปัจจุบันของเรานี้
  • 9:02 - 9:05
    ดูเหมือนว่าเราน่าจะได้เห็น
  • 9:05 - 9:09
    ความไม่เท่าเทียมของความมั่งคั่ง
    และอัตราการว่างงานที่สูง
  • 9:09 - 9:11
    อย่างที่เราไม่เคยได้เห็นมาก่อน
  • 9:11 - 9:13
    การขาดความเต็มใจ
    ที่จะรีบนำความมั่งคั่งที่เกิดขึ้นใหม่นี้
  • 9:13 - 9:15
    มารับใช้มนุษยชาติทั้งมวลในทันที
  • 9:16 - 9:19
    ทำให้เศรษฐีระดับพันล้านบางราย
    อาจเฉิดฉายบนปกนิตยสารธุรกิจ
  • 9:19 - 9:22
    ในขณะที่ส่วนอื่น ๆ ของโลก
    กำลังอดอยากปากแห้งกัน
  • 9:22 - 9:25
    แล้วคนรัสเซียหรือคนจีนจะทำอย่างไร
  • 9:25 - 9:27
    หากพวกเขารู้ว่าบางบริษัทในซิลิคอนแวลลีย์
  • 9:27 - 9:30
    กำลังจะนำปัญญาประดิษฐ์ที่ชาญฉลาดมาใช้
  • 9:30 - 9:33
    จักรกลที่ว่านี้อาจสามารถนำไปใช้
    ในการศึกสงครามได้
  • 9:33 - 9:35
    ไม่ว่าจะเป็นทางภาคพื้นโลก
    หรือทางอินเทอร์เน็ต
  • 9:35 - 9:37
    ด้วยพละกำลังที่ไม่อาจประเมินได้
  • 9:38 - 9:40
    นี่คือสถานการณ์แบบผู้ชนะได้ทุกอย่าง
  • 9:40 - 9:43
    เพื่อที่จะนำหน้าไปหกเดือน
    ในการแข่งขันนี้
  • 9:43 - 9:46
    คือการที่เราต้องนำหน้าอยู่ 500,000 ปี
  • 9:46 - 9:47
    เป็นอย่างน้อย
  • 9:47 - 9:52
    ฉะนั้น จึงเหมือนกับว่า แม้เพียงข่าวลือ
    ในเรื่องการค้นพบที่ยิ่งใหญ่แบบนี้
  • 9:52 - 9:55
    ก็อาจเป็นเหตุให้ชาติพันธุ์ของเรา
    บ้าระห่ำกันขึ้นมาได้
  • 9:55 - 9:58
    ครับ สิ่งหนึ่งที่น่าหวาดกลัวที่สุด
  • 9:58 - 10:00
    ในความเห็นของผม ในขณะนี้
  • 10:00 - 10:05
    คือ สิ่งที่พวกนักวิจัยปัญญาประดิษฐ์พูดกัน
  • 10:05 - 10:07
    เมื่อพวกเขาต้องการจะปลอบใจเรา
  • 10:07 - 10:10
    และเหตุผลที่ธรรมดาที่สุดที่เขาบอกพวกเรา
    ให้ไม่ต้องกังวลก็คือเรื่องเวลา
  • 10:10 - 10:13
    เรื่องนี้มันอีกนานนัก ไม่รู้หรอกหรือ
  • 10:13 - 10:15
    มันน่าจะเป็นอีก 50 หรือ 100 ปี ข้างหน้า
  • 10:16 - 10:17
    นักวิจัยคนหนึ่งเคยพูดว่า
  • 10:17 - 10:19
    "กังวลเรื่องความปลอดภัยของปัญญาประดิษฐ์
  • 10:19 - 10:21
    ก็จะเหมือนกับกังวล
    เรื่องประชากรจะล้นดาวอังคาร"
  • 10:22 - 10:24
    นี่เป็นเรื่องราวในรูปแบบของซิลิคอนแวลลีย์
  • 10:24 - 10:26
    ในการบอกว่า "ไม่ต้องเอาสมองน้อยๆ
    มากังวลเรื่องนี้หรอก"
  • 10:26 - 10:27
    (เสียงหัวเราะ)
  • 10:28 - 10:29
    ดูเหมือนจะไม่มีใครสังเกตเห็นว่า
  • 10:29 - 10:32
    การอ้างถึงขอบเขตของเวลา
  • 10:32 - 10:35
    เป็นคำพูดที่ไม่มีเหตุผลอย่างสิ้นเชิง
  • 10:35 - 10:38
    ถ้าหากว่าความชาญฉลาดเป็นเพียง
    เรื่องของการประมวลผลข้อมูล
  • 10:38 - 10:41
    และเรายังคงปรับปรุงจักรกลของเรา
    ให้ดียิ่งขึ้นต่อไป
  • 10:41 - 10:44
    เราก็จะผลิตอะไรบางอย่างในรูปแบบ
    สุดยอดความชาญฉลาดออกมา
  • 10:44 - 10:48
    และเราก็ไม่รู้เลยว่า
    เราจะใช้เวลานานแค่ไหน
  • 10:48 - 10:50
    เพื่อสร้างสภาวะที่จะทำสิ่งนั้น
    ได้อย่างปลอดภัย
  • 10:52 - 10:53
    ขอผมยํ้าอีกครั้ง
  • 10:54 - 10:57
    เราไม่รู้เลยว่าเราจะใช้เวลานานแค่ไหน
  • 10:57 - 11:00
    เพื่อสร้างสภาวะที่จะทำสิ่งนั้น
    ได้อย่างปลอดภัย
  • 11:01 - 11:04
    และถ้าคุณยังไม่ทันสังเกตอีกล่ะก็
    50 ปีนั้นไม่เป็นอย่างที่มันเคยเป็น
  • 11:04 - 11:07
    นี่คือ 50 ปีในอีกไม่กี่เดือน
  • 11:07 - 11:09
    เรามีไอโฟนมานานเท่านี้
  • 11:09 - 11:12
    "เดอะ ซิมพ์สันส์" ออกอากาศทางทีวี
    มานานแค่นี้
  • 11:13 - 11:15
    ห้าสิบปีไม่ใช่เวลาที่นานมาก
  • 11:15 - 11:18
    ที่จะพบกับสิ่งท้าทายที่ยิ่งใหญ่ที่สุด
    ที่ชาติพันธ์ุของเราจะเผชิญ
  • 11:20 - 11:24
    ยํ้าอีกครั้งนะครับ ดูเหมือนเรากำลังล้มเหลว
    ที่จะมีการตอบสนองทางอารมณ์ที่เหมาะสม
  • 11:24 - 11:27
    ต่อสิ่งที่เราเชื่อได้ด้วยเหตุผล
    ในทุก ๆ ด้าน ว่ามันกำลังมาถึง
  • 11:27 - 11:30
    นักวิทยาศาสตร์คอมพิวเตอร์ สจวร์ต รัสเซลล์
    เปรียบเทียบไว้เป็นอย่างดีในเรื่องนี้
  • 11:30 - 11:35
    เขาพูดว่า ลองจินตนาการดูว่า
    เราได้รับข้อความจากอารยธรรมต่างดาว
  • 11:35 - 11:37
    ความว่า
  • 11:37 - 11:39
    "มนุษย์โลก
  • 11:39 - 11:41
    เราจะไปถึงดาวเคราะห์ของท่านในอีก 50 ปี
  • 11:42 - 11:43
    เตรียมตัวให้พร้อมนะ"
  • 11:43 - 11:48
    แล้วตอนนี้เราจะแค่นับเดือนถอยหลัง
    จนยานแม่มาลงจอดบนพื้นโลกอย่างนั้นหรือ
  • 11:48 - 11:51
    เราน่าจะรู้สึกต้องรีบเร่งขึ้น
    กว่าที่เราเป็นอยู่บ้าง
  • 11:53 - 11:55
    อีกเหตุผลหนึ่ง ที่เขาบอกเราไม่ให้กังวล
  • 11:55 - 11:58
    คือจักรกลพวกนี้
    ยังไงก็จะมีค่านิยมเหมือนกับเรา
  • 11:58 - 12:00
    เพราะแท้จริงแล้วมันจะเป็น
    ส่วนต่อขยายออกไปของตัวเราเอง
  • 12:00 - 12:02
    พวกมันจะถูกเชื่อมต่อกับสมองของเรา
  • 12:02 - 12:05
    หรือที่จริงคือ เรากลายเป็นสมองระบบลิมบิก
    (ทำหน้าที่รับรู้อารมณ์) ของพวกมัน
  • 12:05 - 12:07
    ครับ มาพิจารณาสักครู่
  • 12:07 - 12:10
    ว่าวิถีทางเดียวที่ปลอดภัยและรอบคอบ
    ที่จะใช้ต่อไปข้างหน้า
  • 12:10 - 12:11
    ที่ได้รับการเสนอแนะมานั้น
  • 12:11 - 12:14
    คือการปลูกถ่ายเทคโนโลยีนี้
    เข้าสู่สมองของเราโดยตรง
  • 12:15 - 12:18
    ครับ จริง ๆ แล้วนี่อาจเป็นวิถีทางเดียว
    ที่ปลอดภัยและรอบคอบที่จะใช้ต่อไป
  • 12:18 - 12:21
    แต่โดยปกติ ความกังวลเรื่อง
    ความปลอดภัยของเทคโนโลยี
  • 12:21 - 12:25
    จะต้องได้รับการคลี่คลายให้ได้ไม่มากก็น้อย
    ก่อนที่จะเอามันไปติดเข้าไปในหัวของเรา
  • 12:25 - 12:27
    (เสียงหัวเราะ)
  • 12:27 - 12:32
    ปัญหาที่ลึกลํ้ากว่าก็คือการสร้าง
    ปัญญาประดิษฐ์อัจฉริยะขึ้นมา โดยตัวมันเอง
  • 12:32 - 12:34
    ดูน่าจะง่ายกว่า
  • 12:34 - 12:36
    การสร้างปัญญาประดิษฐ์อัจฉริยะ
  • 12:36 - 12:38
    โดยมีประสาทวิทยาศาสตร์ที่สมบูรณ์แบบ
  • 12:38 - 12:40
    ที่ทำให้เราหลอมรวมปัญญาความคิดของเรา
    เข้ากับมันได้อย่างแนบเนียน
  • 12:41 - 12:44
    และถ้าคิดถึงว่า บริษัทและรัฐบาลทั้งหลาย
    ที่กำลังทำงานนี้อยู่
  • 12:44 - 12:48
    น่าจะรู้ดีว่าพวกเขานั้นกำลังแข่งขันกันอยู่
  • 12:48 - 12:51
    เพราะว่าการเอาชนะการแข่งขันนี้ได้
    คือการที่จะได้ครองโลก
  • 12:51 - 12:53
    ถ้าคุณไม่ทำลายมันในวินาทีต่อมาไปซะก่อน
  • 12:53 - 12:56
    มันก็ดูน่าจะเป็นไปได้ว่า
    อะไรก็ตามที่ทำได้ง่ายกว่า
  • 12:56 - 12:58
    ก็จะถูกทำเป็นอันดับแรก
  • 12:59 - 13:01
    ครับ โชคไม่ดี ผมไม่มีวิธีแก้ปัญหานี้
  • 13:01 - 13:04
    นอกเหนือจากการแนะนำ
    ให้พวกเรานี้คิดถึงมันมากขึ้นกว่านี้
  • 13:04 - 13:06
    ผมว่าเราต้องการอะไร
    คล้ายๆ โครงการแมนฮัตตัน
  • 13:06 - 13:08
    ในหัวเรื่องปัญญาประดิษฐ์นี้
  • 13:08 - 13:12
    ไม่ใช่เพื่อจะสร้างมัน เพราะผมว่า
    มันต้องเกิดแน่ เลี่ยงไม่ได้อยู่แล้ว
  • 13:12 - 13:15
    แต่เพื่อให้เข้าใจถึงวิธีที่จะหลีกเลี่ยง
    การแข่งขันกันสะสมอาวุธ
  • 13:15 - 13:18
    และสร้างมันขึ้นมา ในแบบที่
    สอดคล้องกับผลประโยชน์ของเรา
  • 13:18 - 13:20
    เมื่อเราพูดกันถึงปัญญาประดิษฐ์อัจฉริยะ
  • 13:20 - 13:23
    ที่สามารถเปลี่ยนแปลงตัวมันได้เอง
  • 13:23 - 13:27
    ก็ดูเหมือนว่า เรามีเพียงโอกาสเดียว
    ที่จะทำให้สภาพการณ์เริ่มแรกนั้นถูกต้อง
  • 13:27 - 13:29
    และถึงกระนั้น เราก็จำเป็นจะต้องซึมซับ
  • 13:29 - 13:32
    ผลสืบเนื่องทางการเมืองและเศรษฐกิจ
    ของการที่ต้องทำให้มันถูกต้อง
  • 13:34 - 13:36
    แต่ ณ วินาทีที่เรายอมรับ
  • 13:36 - 13:40
    ว่าการประมวลข้อมูล
    เป็นแหล่งที่มาของความชาญฉลาด
  • 13:41 - 13:46
    ว่าระบบคอมพิวเตอร์ที่เหมาะสมบางอย่างนั้น
    คือสิ่งที่เป็นพื้นฐานของความชาญฉลาด
  • 13:46 - 13:50
    และเราก็ยอมรับว่า เราจะปรับปรุง
    ระบบเหล่านี้อย่างต่อเนื่อง
  • 13:51 - 13:56
    และเรายอมรับว่า มันเป็นไปได้มากว่า
    ขอบเขตของปัญญารู้คิดจะไกลเกินกว่า
  • 13:56 - 13:58
    สิ่งที่เรารู้ในปัจจุบัน
  • 13:58 - 14:00
    แล้วเราก็ต้องยอมรับ
  • 14:00 - 14:03
    ว่าเราอยู่ในกระบวนการ
    ของการสร้างเทพเจ้าบางอย่างขึ้นมา
  • 14:03 - 14:05
    ขณะนี้ จึงน่าจะเป็นช่วงเวลาที่ดี
  • 14:05 - 14:08
    ที่เราจะทำให้แน่ใจว่าเทพเจ้าองค์นั้น
    จะเป็นเทพที่อยู่ร่วมกับเราได้
  • 14:08 - 14:10
    ขอบคุณมากครับ
  • 14:10 - 14:15
    (เสียงปรบมือ)
Title:
เราจะสามารถสร้างปัญญาประดิษฐ์โดยไม่สูญเสียการควบคุมมันได้หรือไม่
Speaker:
แซม แฮร์ริส (Sam Harris)
Description:

คุณกลัวปัญญาประดิษฐ์ (AI) เจ้าปัญญาหรือไม่ครับ คุณควรจะกลัวนะ แซม แฮร์ริส นักปรัชญาและประสาทวิทยาศาสตร์ กล่าว -- แล้วก็ไม่ใช่แค่กลัวในเชิงทฤษฎีหรอกนะ แฮริสกล่าวว่า พวกเรากำลังจะสร้างจักรกลยอดมนุษย์ขึ้นมา แต่เรายังทำไม่สำเร็จในเรื่องการปลุกปลํ้าเพื่อเอาชนะปัญหาที่เกี่ยวกับการสร้างบางสิ่งบางอย่าง ที่อาจปฏิบัติต่อเราอย่างที่เราปฏิบัติกับพวกมด

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27
Kelwalin Dhanasarnsombut approved Thai subtitles for Can we build AI without losing control over it?
Kelwalin Dhanasarnsombut accepted Thai subtitles for Can we build AI without losing control over it?
Thipnapa Huansuriya rejected Thai subtitles for Can we build AI without losing control over it?
Thipnapa Huansuriya edited Thai subtitles for Can we build AI without losing control over it?
Thipnapa Huansuriya edited Thai subtitles for Can we build AI without losing control over it?
Kelwalin Dhanasarnsombut accepted Thai subtitles for Can we build AI without losing control over it?
Kelwalin Dhanasarnsombut edited Thai subtitles for Can we build AI without losing control over it?
Kelwalin Dhanasarnsombut edited Thai subtitles for Can we build AI without losing control over it?
Show all

Thai subtitles

Revisions