1 00:00:00,760 --> 00:00:04,600 ကျွန်တော် ကလေးဘဝတုန်းက စံပြုလောက်တဲ့ ချာတိတ် ဖြစ်ခဲ့တယ်။ 2 00:00:05,320 --> 00:00:07,496 ခင်ဗျားတို့ တချို့လည်း အလားတူ ဖြစ်ခဲ့ကြမှာပါ။ 3 00:00:07,520 --> 00:00:08,736 (ရယ်မောသံများ) 4 00:00:08,760 --> 00:00:11,976 ခုနက အကျယ်ဆုံး ရယ်လိုက်သူကတော့ အခုထက်ထိ အဲဒီလို ရှိနေပုံ ရတယ်။ 5 00:00:12,000 --> 00:00:14,256 (ရယ်မောသံများ) 6 00:00:14,280 --> 00:00:17,776 Texas မြောက်ပိုင်း ဖုန်ထူတဲ့ လွင်ပြင်က မြို့လေးမှာ ကြီးလာခဲ့ပြီး 7 00:00:17,800 --> 00:00:21,136 သင်းအုပ်ဆရာရဲ့ သားဖြစ်သူ ရဲအရာရှိမှ မွေးခဲ့တဲ့ သားတစ်ယောက်ပါ။ 8 00:00:21,160 --> 00:00:23,080 သူများ ဘဝကို ခက်ခဲအောင် မလုပ်တတ်ခဲ့ပါ။ 9 00:00:24,040 --> 00:00:27,296 ဒါ့အကြောင့် ကျွန်တော်ဟာ calculus အကြောင်း စာအုပ်တွေ ဖတ်လာခဲ့တယ်။ 10 00:00:27,320 --> 00:00:28,856 (ရယ်မောသံများ) 11 00:00:28,880 --> 00:00:30,576 ခင်ဗျားတို့လည်းဖတ်ခဲ့ကြမှာပါ။ 12 00:00:30,600 --> 00:00:34,336 ဒါနဲ့ ကျွန်တော်ဟာ လေဆာနဲ့ ကွန်ပျူတာတွေ၊ ဒုံးပျံပုံစံတွေ ဆောက်လာတတ်ခဲ့တယ်၊ 13 00:00:34,360 --> 00:00:37,360 အဲဒီကနေပြီး ကိုယ့်အိပ်ခန်းထဲမှာ ဒုံးပျံလောင်စာကို တီထွင်ခဲ့တယ်။ 14 00:00:37,960 --> 00:00:41,616 အခုတော့၊ သိပ္ပံပညာ အမြင်အရ 15 00:00:41,640 --> 00:00:44,896 သိပ်ကို ဆိုးတဲ့ အရာကြီးပေါ့။ 16 00:00:44,920 --> 00:00:46,136 (ရယ်မောသံများ) 17 00:00:46,160 --> 00:00:48,336 အဲဒီ အချိန် ဝန်းကျင်မှာပဲ၊ 18 00:00:48,360 --> 00:00:51,576 Stanley Kubrick ရဲ့ "2001: A Space Odyssey" ရုပ်ရှင် ထွက်လာခဲ့ရာ 19 00:00:51,600 --> 00:00:53,800 ကျွန်တော့ဘဝဟာ ထာဝရအတွက် ပြောင်းလဲသွားတော့တယ်။ 20 00:00:54,280 --> 00:00:56,336 အဲဒီ ရုပ်ရှင်ထဲက အရာရာတိုင်းကို၊ 21 00:00:56,360 --> 00:00:58,896 အထူးသဖြင့် HAL ၉၀၀၀ ကို သိပ်ကို နှစ်ခြိုက်ခဲ့တယ်။ 22 00:00:58,920 --> 00:01:00,976 အဲဒီ HAL ဟာ အာရုံခံစားနိုင်ခဲ့တဲ့ 23 00:01:01,000 --> 00:01:03,456 ကွန်ပျူတာ ဖြစ်ခဲ့ပြီး အာကာသယာဉ်ကို ကမ္ဘာဂြိုဟ်မှ 24 00:01:03,480 --> 00:01:06,016 ဂျူပီတာအထိ လမ်းညွှန်ပေးရန် ထုတ်လုပ်ခဲ့တဲ့ ကွန်ပျူတာပါ။ 25 00:01:06,040 --> 00:01:08,096 HAL ဟာ စိတ်ဓာတ် အားနည်ခဲ့သူပါ၊ 26 00:01:08,120 --> 00:01:12,400 နောက်ဆုံးတွင် ၎င်းဟာ လူသားရဲ့ အသက်ထက် တာဝန်ကို တန်ဖိုးထားရန် ရွေးခဲ့လို့ပါ။ 27 00:01:12,840 --> 00:01:14,936 HAL ဟာ စိတ်ကူးယဉ် ဖန်တီးလိုက်တဲ့ ဇာတ်ကောင်ပါ၊ 28 00:01:14,960 --> 00:01:17,616 ဒါတောင် ၎င်းဟာ ကျွန်တော်တို့ရဲ့ စိုးရိမ်ချက်တွေကို၊ 29 00:01:17,640 --> 00:01:19,736 ခံစားနိုင်စွမ်းမရှိတဲ့၊ လူသားတွေကို 30 00:01:19,760 --> 00:01:22,776 ဂရုမစိုက်တဲ့ ဦးနှောက် အတုပိုင်ရှင်ဘက်မှ ချုပ်ချယ်ခံရမယ့် 31 00:01:22,800 --> 00:01:24,760 စိုးရိမ်မှုတွေကို ထုတ်ဖေါ် ပြောခဲ့ပါတယ်။ 32 00:01:25,880 --> 00:01:28,456 အဲဒီကြောက်ရွံမှုတွေ အခြေအမြစ် မရှိဘူးလို့ ယုံကြည်တယ်။ 33 00:01:28,480 --> 00:01:31,176 တကယ်တမ်းတွင်၊ ကျွန်ုပ်တို့ဟာ လူသား သမိုင်းမှာ 34 00:01:31,200 --> 00:01:32,736 မှတ်သားစရာ ကာလထဲ ရှိနေကြပါတယ်၊ 35 00:01:32,760 --> 00:01:37,520 ကျွန်ုပ်တို့ ခန္ဓာကိုယ်နဲ့ ဦးနှောက်ရဲ့ ကန့်သတ်ချက်တွေကို လက်မခံနိုင်ကြလို့ 36 00:01:37,520 --> 00:01:39,456 ကျွန်ုပ်တို့ဟာ သိမ်မွေ့၊ လှပ ရှုပ်ထွေး 37 00:01:39,480 --> 00:01:43,096 ကျော့ရှင်းကြတဲ့ စက်ပစ္စည်းတွေကို ထုတ်လုပ်လာခဲ့ကြရာ ၎င်းတို့ဟာ စိတ်ကူးလို့ 38 00:01:43,120 --> 00:01:45,176 ရနိုင်တဲ့ လူတွေ လုပ်ကိုင်နိုင်ကြတာထက်ကို 39 00:01:45,200 --> 00:01:46,880 များစွာမှ သာလွန်သွားကြမှာပါ။ 40 00:01:47,720 --> 00:01:50,296 ကျွန်တော်ဟာ Air Force Academy မှာ လုပ်ကိုင်ရင်းကနေပြီး 41 00:01:50,320 --> 00:01:52,256 အခု Space Command ကို ရောက်လာလို့ 42 00:01:52,280 --> 00:01:53,976 စနစ်များရဲ့ အင်ဂျင်နီယာဖြစ်လာတယ်၊ 43 00:01:54,000 --> 00:01:56,736 မကြာခင်မီတွင် NASA ရဲ့ အင်္ဂါသို့ သွားရေး လုပ်ငန်းကြီးနဲ့ 44 00:01:56,760 --> 00:01:59,336 ဆက်စပ်နေတဲ့ အင်ဂျင်နီယာ ပြဿနာကို လေ့လာလာရပါတယ်။ 45 00:01:59,360 --> 00:02:01,856 လဆီကို သွားမယ့် ပျံသန်းမှုတွေ ဆိုရင် ပျံသန်းမှု 46 00:02:01,880 --> 00:02:05,016 ကိစ္စတွေအတွက် Houston ရှိနေတဲ့ ထိန်းချုပ်ရေးဌာနကို 47 00:02:05,040 --> 00:02:07,016 အားကိုးလို့ ရနိုင်တာ ရှင်းနေပါတယ်။ 48 00:02:07,040 --> 00:02:10,576 ဒါပေမဲ့ အင်္ဂါဂြိုဟ်ကျတော့ အဆ ၂၀၀ အထိကို ပိုဝေးနေပါတယ်၊ 49 00:02:10,600 --> 00:02:13,816 အဲဒါကြောင့် ကမ္ဘာဂြိုဟ်မှနေပြီး အင်္ဂါဂြိုဟ်ဆီ ပို့လိုက်တဲ့ 50 00:02:13,840 --> 00:02:16,976 အချက်ပြမှု အနေနဲ့ ရောက်ဖို့ အချိန် ပျမ်းမျှ ၁၃ မိနစ် ကြာပါတယ်။ 51 00:02:17,000 --> 00:02:20,400 ပြဿနာ တစ်ခုခု ပေါ်လာရင် အချိန် မလောက်နိုင်ပါ။ 52 00:02:20,840 --> 00:02:23,336 အဲဒါကြောင့် ပျံသန်းမှု ထိန်းချုပ်ရေးကို 53 00:02:23,360 --> 00:02:25,936 Orion အာကာသယာဉ်ရဲ့ နံရံများအတွင်းမှာကို ထည့်သွင်းရန် 54 00:02:25,960 --> 00:02:28,976 အင်ဂျင်နီယာ နည်းပညာက တောင်းဆိုလာပါတယ်။ 55 00:02:29,000 --> 00:02:31,896 အဲဒီပျံသန်းမှု ပရိုဖိုင်တွင် အင်္ဂါဂြိုဟ် ပေါ်တွင် လူသားပုံစံ 56 00:02:31,920 --> 00:02:34,816 robot တွေိကို နေရာချပေးရေး အံ့ဖွယ် စိတ်ကူးလည်း ပါရှိပါတယ်။ 57 00:02:34,840 --> 00:02:36,696 လူတွေ အဲဒီကို မရောက်ခင်တွင် လိုအပ်တာတွေ 58 00:02:36,720 --> 00:02:38,376 ဆောက်လုပ်ရန်နဲ့ နောက်ပိုင်းတွင် 59 00:02:38,400 --> 00:02:41,760 သိပ္ပံအဖွဲ့ထဲမှာ ပူးတွဲကူညီပေးမယ့် လုပ်အားအဖြစ် ထားရှိရန်ဖြစ်တယ်။ 60 00:02:43,400 --> 00:02:46,136 အဲဒါကို အင်ဂျင်နီယာ ရှုထောင့်မှ ကျွန်တော် သုံးသပ်ကြည့်ရာ၊ 61 00:02:46,160 --> 00:02:49,336 ကျွန်တော် ပုံစံထုတ်ပေးရမယ့်ဟာက တော်ပြီး လက်တွဲလုပ်ကိုင်နိုင်မယ့်၊ 62 00:02:49,360 --> 00:02:51,536 လူမှုရေးအရ တော်ရမယ့် 63 00:02:51,560 --> 00:02:53,936 အသိပညာ အတုစားမျိုး ဖြစ်ရပါမယ်။ 64 00:02:53,960 --> 00:02:58,256 တစ်မျိုးကို ရှင်းပြရပါက၊ ကျွန်တော်ဟာ HAL နဲ့ ဆင်တူဟာမျိုးကို ဆောက်လုပ်ပေးရမယ်၊ 65 00:02:58,280 --> 00:03:00,696 ကိုယ့်ကိုကိုယ် လုပ်ကြံရေး စိတ်တွေက လွဲလျက်ပေါ့လေ။ 66 00:03:00,720 --> 00:03:02,080 (ရယ်မောသံများ) 67 00:03:02,920 --> 00:03:04,736 ဒီနေရာမှာ ခဏ ရပ်လိုက်ကြပါစို့။ 68 00:03:04,760 --> 00:03:08,656 artificial intelligence (ဦးနှောက် အတု)ကို အဲဒီလို ဆောက်လုပ် နိုင်ပါသလား။ 69 00:03:08,680 --> 00:03:10,136 လက်တွေ့တွင် ရနိုင်ပါတယ်။ 70 00:03:10,160 --> 00:03:11,416 နည်းအမျိုးမျိုး ရှိတယ်၊ 71 00:03:11,440 --> 00:03:13,416 ဒါဟာ ခဲယဉ်းတဲ့ အင်ဂျင်နီယာ ပြဿနာဖြစ်ပြီး 72 00:03:13,440 --> 00:03:14,896 AI အစိတ်အပိုင်းတွေ ပါမယ်၊ 73 00:03:14,920 --> 00:03:19,616 ဖြေရှင်းပေးရမယ့် AI ပြဿနာတွေဟာ အသေးအမွှားတွေ မဟုတ်ကြပါ။ 74 00:03:19,640 --> 00:03:21,900 Alan Turing ပြောခဲ့ဘူးတာကို တမျိုး ပြန်ပြောရရင်၊ 75 00:03:21,900 --> 00:03:24,926 အာရုံခံစားနိုင်စွမ်း ရှိမယ့် စက် ဆောက်လုပ်ရန် စိတ်မဝင်စားပါ။ 76 00:03:24,926 --> 00:03:26,556 ကျွန်တော်ဟာ HAL တည်ဆောက်မှာ မဟုတ်ပါ။ 77 00:03:26,556 --> 00:03:28,736 ကျွန်တော် စဉ်းစားနေတာက သာမန် ဦးနှောက်ပါ၊ 78 00:03:28,760 --> 00:03:31,880 အသိပညာ ရှိသလို ခံစားရမယ့်ဟာ တစ်ခုခုကိုပါ။ 79 00:03:32,710 --> 00:03:35,580 HAL ကို ရုပ်ရှင်ထဲ မြင်ခဲ့ရတဲ့ နောက်ပိုင်း နှစ်များ အတွင်းမှာ 80 00:03:35,580 --> 00:03:37,660 တွက်ချက်မှု ပညာဟာ အတော်လေး ခရီးပေါက်ခဲ့လို့၊ 81 00:03:37,660 --> 00:03:40,870 ဒီနေ့သာ တီထွင်ရှင် Dr. Chandra သာ ဒီမှာ ရှိနေခဲ့ရင် ကျွန်တော်တို့အား 82 00:03:40,870 --> 00:03:43,546 မေးလိုက်မယ့် မေးခွန်းတွေ အတော့်ကို များမှာပါ။ 83 00:03:43,546 --> 00:03:45,516 စက်ကိရိယာတွေ သန်းပေါင်းများစွာ ရှိကြမယ့် 84 00:03:45,516 --> 00:03:49,080 စနစ်ကို အတူယူသွားပြီး ၎င်းတို့ရဲ့ ချွတ်ယွင်းချက်တွကို ခန့်မှန်းလျက် 85 00:03:49,080 --> 00:03:50,896 ကြိုတင်ပြီး အရေးယူဆောင်ရွက်နိုင်အောင် 86 00:03:50,920 --> 00:03:53,176 ၎င်းတို့ရဲ့ ဒေတာကို ဖတ်ပြီး လုပ်နိုင်မလား။ 87 00:03:53,200 --> 00:03:54,400 ရတယ်။ 88 00:03:54,400 --> 00:03:57,666 လူသားတွေနဲ့ ပုံမှန် ဘာသာစကားဖြင့် ဆက်သွယ်မယ့် စနစ်တွေ ဆောက်နိုင်မလား။ 89 00:03:57,666 --> 00:03:58,590 ရတယ်။ 90 00:03:58,590 --> 00:04:01,986 အရာတွေကို သိမှတ်နိုင်ကာ စိတ်ခံစားမှုကို ဖေါ်ထုတ်လျက် ၎င်းတို့ ကိုယ်တိုင် 91 00:04:01,986 --> 00:04:05,596 ခံစားချက်ကို ပြကာ ဂိမ်းတွေ ကစားလျက် နှုတ်ခမ်းဖတ်မယ့် စနစ်တွေ ဆောက်နိုင်မလား။ 92 00:04:05,596 --> 00:04:06,496 ရတယ်။ 93 00:04:06,520 --> 00:04:08,656 ကျွန်ုပ်တို့ဟာ ပန်းတိုင်တွေကို ချမှတ်လျက် 94 00:04:08,660 --> 00:04:12,476 ပန်းတိုင်များအတွက် စီမံကိန်းတွေ လုပ်ကိုင် ရင်း သင်ယူနိုင်တဲ့ စနစ် ဆောက်နိုင်လား။ 95 00:04:12,476 --> 00:04:13,536 ရတယ်။ 96 00:04:13,560 --> 00:04:16,896 စိတ်ဆိုတဲ့ သီအိုရီ ပါရှိမယ့် စနစ်တွေကို ဆောက်နိုင်လား။ 97 00:04:16,920 --> 00:04:18,416 အဲဒါကို လုပ်နိင်ရန် သင်နေကြတယ်။ 98 00:04:18,440 --> 00:04:21,920 ကျင့်စဉ် နဲ့ စိတ်ဓာတ်ဆိုင်ရာ အုတ်မြစ် ပါမယ့် စနစ်တွေကို ဆောက်နိုင်သလား။ 99 00:04:22,480 --> 00:04:24,520 အဲဒါ ဘယ်လို လုပ်ရမှာကို သင်ကြရပါမယ်။ 100 00:04:25,360 --> 00:04:26,736 အဲဒီလို တာဝန်များနဲ့ အခြား 101 00:04:26,760 --> 00:04:29,656 တာဝန်များအတွက် အသိဉာဏ်အတုကို ဆောက်လုပ်လို့ 102 00:04:29,680 --> 00:04:31,816 ရနိုင်တယ်လို့ ခဏလေး ခံယူကြပါစို့။ 103 00:04:31,840 --> 00:04:34,376 အဲနောက်မှာ ကိုယ့်ကိုကိုယ် မေးရမယ့် မေးခွန်းက အဲဒါကို 104 00:04:34,400 --> 00:04:35,856 ကျွန်ုပ်တို့ ကြောက်သင့်လား။ 105 00:04:35,880 --> 00:04:37,856 တကယ်တော့ နည်းပညာသစ် မှန်သမျှဟာ 106 00:04:37,880 --> 00:04:40,776 စိုးရိမ်စရာ တစ်စုံတစ်ခုနဲ့ စတင်တာချည်းပါပဲ။ 107 00:04:40,800 --> 00:04:42,496 ကားတွေကို ပထမဦးဆုံး မြင်တွေ့ခဲ့ရစဉ် 108 00:04:42,520 --> 00:04:46,536 မိသားစုတွေ ပြိုလဲကျတော့မယ်လို့ စိုးရိမ်နေခဲ့ကြတယ်။ 109 00:04:46,560 --> 00:04:49,256 တယ်လီဖုန်းတွေ ဘဝထဲ ခြေချဝင်လာတော့၊ 110 00:04:49,280 --> 00:04:52,176 လူတွေ စကားဝိုင်းဖွဲ့ ပြောဆိုမှု ချုပ်ငြိမ်းတော့မယ် ထင်ခဲ့တယ်။ 111 00:04:52,200 --> 00:04:56,136 စာတွေကို ပုံနှိပ်ထုတ်ဝေမှု ပေါ်လာတော့ ကျွန်ုပ်တို့ဟာ မှတ်ဉာဏ်တွေ 112 00:04:56,160 --> 00:04:58,656 ဆုံးရှုံးကြတော့မှာဘဲလို့ ထင်မြင်ခဲ့ကြတယ်။ 113 00:04:58,680 --> 00:05:00,736 အဲဒီလို အရာတွေဟာ တစ်စုံတစ်ရာအထိ မှန်ကန်တယ်၊ 114 00:05:00,760 --> 00:05:03,176 ဒါပေမဲ့ အဲဒီတချိန်တည်းမှာ အဲဒီလို နည်းပညာတွေဟာ 115 00:05:03,200 --> 00:05:06,576 လူတွေရဲ့ ဘဝအတွေ့အကြုံကို အံ့ဖွယ် နည်းလမ်းများဖြင့် မြှင့်တင်ပေး 116 00:05:06,600 --> 00:05:08,480 ခဲ့ကြတာကိုပါ အသိအမှတ် ပြုကြရပါမယ်။ 117 00:05:09,840 --> 00:05:12,120 ဒီအကြောင်းကို ရှေ့ဆက် ကြည့်ကြရအောင်။ 118 00:05:13,120 --> 00:05:17,856 ခုနကလို AI ဖန်တီးပေးမယ်ဆိုရင် ကျွန်ုပ်တို့ရဲ့ တန်ဖိုးထားချက်တွေ 119 00:05:17,880 --> 00:05:21,696 အဲဒီမှာ ထည့်သွင်းပါရှိမှာမို့ အဲဒါကို ကျွန်တော် မကြောက်ပါဘူး။ 120 00:05:21,720 --> 00:05:25,216 သိမြင်နိုင်တဲ့ စနစ်ကို ဆောက်လုပ်မှုဟာ အခြေခံအရကိုက 121 00:05:25,240 --> 00:05:28,536 အတိတ်ကာလက ဆော့ဝဲ အများအပြားကို သုံးတဲ့ သမရိုးကျ စနစ်နဲ့ ခြားနားတယ်။ 122 00:05:28,560 --> 00:05:31,016 ၎င်းတို့အတွက် ပရိုဂရမ်ကို မရေးဆွဲဘဲ သင်ပေးကြတယ်။ 123 00:05:31,040 --> 00:05:33,696 စနစ်တစ်ခုအား ပန်းတွေကို သိမှတ်လာရန် ကျွန်တော်ဟာ 124 00:05:33,720 --> 00:05:36,736 ကျွန်တော် ကြိုက်တဲ့ ပန်းတွေကို ထောင်ချီ ပြပေးပါတယ်။ 125 00:05:36,760 --> 00:05:39,016 စနစ်တစ်ခုအနေနဲ့ ဂိမ်း ကစားလာတတ်ရန် ကျွန်တော် 126 00:05:39,040 --> 00:05:41,000 လုပ်နိုင်၊ ခင်ဗျားတို့လည်း လုပ်နိုင်တယ်။ 127 00:05:42,600 --> 00:05:44,640 ကျွန်တော်က ပန်းတွေကို ကြိုက်တယ်။ တကယ်ပါ။ 128 00:05:45,440 --> 00:05:48,296 စနစ်တစ်ခုအနေနဲ့ Go လို ဂိမ်းကို ကစားလာနိုင်ရန် အတွက် 129 00:05:48,320 --> 00:05:50,376 ကျွန်တော်ဟာ Go ဂိမ်းကို ထောင်ချီ ကစားပြရင်း 130 00:05:50,400 --> 00:05:52,056 ကောင်းတဲ့ ဂိမ်းနဲ့ ဆိုးတဲ့ ဂိမ်း 131 00:05:52,080 --> 00:05:54,496 ခွဲခြားနိုင်ရေးကိုပါ သင်ပေးရမယ်။ 132 00:05:54,520 --> 00:05:58,216 တကယ်လို့ ကျွန်တော်ဟာ ဥပဒေရေးရာထဲ ကူညီပေးရမယ့် ဉာဏ်အတုကို ဖန်တီးချင်ရင်၊ 133 00:05:58,240 --> 00:06:00,016 ဥပဒေတွေ အများကြီးကို သင်ပေးရင်း 134 00:06:00,040 --> 00:06:02,896 ဥပဒေနဲ့ ခွဲခြားမရနိုင်တဲ့ ကရုဏာနဲ့ တရားမျှတမှု ဆိုတဲ့ 135 00:06:02,920 --> 00:06:05,800 သဘောတရားတွေကိုပါ ရိုက်သွင်းပေးဖို့ ကြိုးစားရပါမယ်။ 136 00:06:06,560 --> 00:06:09,536 သိပ္ပံပညာရှင်တွေက အဲဒါကို အခြေခံ အမှန်တရားလို့ ခေါ်ကြတယ်၊ 137 00:06:09,560 --> 00:06:11,576 ဒီမှာ အရေးကြီးတဲ့ အချက်က- 138 00:06:11,600 --> 00:06:13,056 ဒီလို စက်တွေကို ထုတ်လုပ်ရာတွင် 139 00:06:13,080 --> 00:06:16,496 ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ တန်ဖိုးတွေရဲ့ အနှစ်သာရကို သင်ပေးရမယ်။ 140 00:06:16,520 --> 00:06:19,656 အဲဒီနောက်မှာတော့၊ ကျွန်တော်ဟာ အသိဉာဏ်အတုကို ကောင်းမွန်စွာ 141 00:06:19,680 --> 00:06:23,320 သင်တန်းပေးထားတဲ့ လူသားနည်းတူ၊ ပိုတောင် ပုပြီး ယုံကြည်မှာပါ။ 142 00:06:24,080 --> 00:06:25,296 ဒါပေမဲ့၊ ကောက်ကျစ်တဲ့ 143 00:06:25,320 --> 00:06:27,936 ဆိုးဝါးတဲ့ အေဂျင့်တွေ၊ 144 00:06:27,960 --> 00:06:31,296 ငွေကြေး အများအပြားရကြတဲ့ အစိုးရ မဟုတ်တဲ့ အဖွဲ့အစည်းတွေ ကျတော့ကော။ 145 00:06:31,320 --> 00:06:35,136 လူဆိုး တစ်ယောက်ရဲ့ လက်ထဲက အသိဉာဏ်အတုကို ကျွန်တော် မကြောက်ပါ။ 146 00:06:35,160 --> 00:06:39,696 ကျွန်ုပ်တို့ဟာ အမှတ်တမဲ့ ဖြစ်လာနိုင်တဲ့ အကြမ်းဖက်မှုများမှ ကာကွယ် မရနိုင်ပေမဲ့၊ 147 00:06:39,720 --> 00:06:41,856 တကယ်ကျတော့ အဲဒီလို စနစ်ပေါ်လာဖို့ 148 00:06:41,880 --> 00:06:44,976 အတော့်ကို စနစ်တကျ လေ့ကျင့် သင်တန်း ပေးရန်လိုအပ်တာမို့လို့၊ 149 00:06:45,000 --> 00:06:47,296 လူပုဂ္ဂိုလ် တစ်ဦးဦးအနေနဲ့ တတ်နိုင်ရန် မလွယ်ပါ။ 150 00:06:47,320 --> 00:06:48,536 ဒီထက်ပိုပြီး၊ 151 00:06:48,560 --> 00:06:51,816 အဲဒါဟာ ဗိုင်းရပ်စ်ကို ခလုတ် တစ်ချက် နှိပ်ရုံနဲ့ တစ်ကမ္ဘာလုံးမှာ 152 00:06:51,840 --> 00:06:54,936 ပျံ့နှံ့သွားစေလျက် နေရာတိုင်းရှိ လက်တော့ သန်းချီ ပေါက်ကွဲစေရန် 153 00:06:54,960 --> 00:06:57,416 ကူးစက်နိုင်စေတာမျိုးနဲ့ လုံးဝမတူပါ။ 154 00:06:57,440 --> 00:07:00,256 အခုပြောနေတဲ့ အရာတွေဟာ များစွာမှ ပိုပြီး ကြီးမားကြမှာပါ၊ 155 00:07:00,280 --> 00:07:01,995 လာကြတာကို ကျွန်ုပ်တို့ မြင်ကြရမယ်။ 156 00:07:02,520 --> 00:07:05,576 အဲဒီလို အသိဉာဏ် အတုက လူသား တစ်ရပ်လုံးအား 157 00:07:05,600 --> 00:07:07,560 ခြိမ်းခြောက်မှာကို ကျွန်တော် ကြောက်ပါသလား။ 158 00:07:08,280 --> 00:07:12,656 ခင်ဗျားတို့ဟာ "The Matrix"၊ "Metropolis"၊ "The Terminator"၊ 159 00:07:12,680 --> 00:07:15,856 ရုပ်ရှင်တွေနဲ့ "Westworld"လို ရှိုးတွေကို ကြည့်ကြည့်ပါက၊ 160 00:07:15,880 --> 00:07:18,016 ၎င်းတို့ထဲမှာ ခုန ကြောက်စိတ် အကြောင်းပါတယ်။ 161 00:07:18,040 --> 00:07:22,336 ဒဿနိက ပညာရှင် Nick Bostrom ရဲ့ "Superintelligence" စာအုပ်ထဲတွင် 162 00:07:22,360 --> 00:07:23,896 အဲဒီအကြောင်းကို တင်ပြထားပြီး 163 00:07:23,920 --> 00:07:27,936 ဆူပါအသိဉာဏ်ဟာ အန္တရာယ်များရုံသာမက 164 00:07:27,960 --> 00:07:31,816 လူသားတို့အတွက် တကယ့်ခြိမ်းခြောက်မှု ဖြစ်လာမယ်လို့ ဆိုထားပါတယ်။ 165 00:07:31,840 --> 00:07:34,056 Dr. Bostrom ရဲ့ အဓိက ဆင်ခြေက 166 00:07:34,080 --> 00:07:36,816 အဲဒီလို စနစ်တွေဟာ အချက်အလက်တွေကို 167 00:07:36,840 --> 00:07:40,096 တိုးတိုး ရယူချင်ကြမှာ မို့လို့ ၎င်းတို့ဟာ 168 00:07:40,120 --> 00:07:43,016 ဘယ်လို သင်ယူနိုင်သလဲဆိုတာကို သင်ယူနိုင်ကြပြီး 169 00:07:43,040 --> 00:07:45,656 အဆုံးမှာ သူတို့ဆီမှာ ပေါ်ပေါက်လာကြမယ့် ပန်းတိုင်များဟာ 170 00:07:45,680 --> 00:07:47,976 လူသားရဲ့ လိုအပ်ချက်များနဲ့ ဆန့်ကျင်ဘက် ဖြစ်လာမယ်။ 171 00:07:48,000 --> 00:07:49,856 Dr. Bostrom ကို ထောက်ခံသူ များပါတယ်။ 172 00:07:49,880 --> 00:07:54,200 သူ့ကို Elon Musk နှင့် Stephen Hawking လို ပုဂ္ဂိုလ်တွေ ထောက်ခံကြတယ်။ 173 00:07:54,880 --> 00:07:57,280 အဲဒီမဟာပုဂ္ဂိုလ်ကြီးတွေရဲ့ အမြော်အမြင်ကို 174 00:07:58,160 --> 00:08:00,176 ထိုက်တန်စွာ လေးစားပေမဲ့၊ 175 00:08:00,200 --> 00:08:02,456 အခြေခံအရ သူတို့ မှားနေတယ်လို့ ကျွန်တော် ထင်တယ်။ 176 00:08:02,480 --> 00:08:05,656 Dr. Bostrom ရဲ့ အဆိုကို အသေးစိတ် ဆင်ခြေပေးရန် အချိန် အများကြီး 177 00:08:05,680 --> 00:08:07,816 လိုမှာမို့လို့ တိုတိုနဲ့ ပြောရရင် 178 00:08:07,840 --> 00:08:10,536 ဒီလို စဉ်းစားကြည့်စေလိုပါတယ်- 179 00:08:10,560 --> 00:08:14,140 ဆူပါ အသိဉာဏ်ဟာ ဆူပါ လုပ်ကိုင်မှုနဲ့ လုံးဝမတူ တခြားစီးပါ။ 180 00:08:14,140 --> 00:08:16,506 HAL ဟာ Discovery တဖွဲ့လုံးအတွက် ခြိမ်းခြောက်မှုပါ 181 00:08:16,506 --> 00:08:20,656 Discovery ရဲ့ မျက်နှာစာအားလုံးကို HAL က အမိန့်ပေးနေသရွေ့ မှန်ခဲ့တယ်။ 182 00:08:20,680 --> 00:08:23,176 အဲဒါကြောင့်မို့လို့ ၎င်းဟာ ဆူပါဦးနှောက် ဖြစ်ခဲ့တာပါ။ 183 00:08:23,200 --> 00:08:25,696 ကျွန်ုပ်တို့ ကမ္ဘာကြီးထဲ အားလုံး ချုပ်ကိုင်ခဲ့မှာ။ 184 00:08:25,720 --> 00:08:28,536 တဖန် "The Terminator" ထဲက Skynet ဆိုတဲ့ထဲမှာလည်း 185 00:08:28,560 --> 00:08:30,416 ဆူပါဦးနှောက် ရှိနေခဲ့ပြီး လူတွေရဲ့ 186 00:08:30,440 --> 00:08:31,816 စိတ်ဆန္ဒကို အမိန့်ခဲ့တယ်၊ 187 00:08:31,840 --> 00:08:35,696 ကမ္ဘာကြီးရဲ့ ဘယ်နေရာမှာပဲ ရှိရှိ ကိရိယာတိုင်းကို ၎င်းက ညွှန်ကြားခဲ့တယ်။ 188 00:08:35,720 --> 00:08:37,176 လက်တွေ့တွင် 189 00:08:37,200 --> 00:08:39,296 ဒါတွေ ဖြစ်လာမှာ မဟုတ်ပါဘူး။ 190 00:08:39,320 --> 00:08:42,376 ကျွန်ုပ်တို့ဟာ ရာသီဥတုကို ထိန်းချုပ်ခဲ့မယ့်၊ 191 00:08:42,400 --> 00:08:43,736 ဒီရေတွေကို ညွှန်ကြားပေးမယ့်၊ 192 00:08:43,760 --> 00:08:47,136 ပြောင်းလွယ်ပြီး ပရမ်းပတာနိုင်တဲ့ လူတွေကို အမိန့်ပေးဖို့ ဆောက်နေတာ မဟုတ်။ 193 00:08:47,160 --> 00:08:51,056 အဲဒီအပြင်၊ အဲဒီလို ဆူပါဦးနှောက်တု ရှိခဲ့မယ်ဆိုရင်၊ 194 00:08:51,080 --> 00:08:54,016 ၎င်းဟာ လူသားရဲ့ စီးပွားရေးနဲ့ ပြိုင်ဆိုင်ဖို့ လိုအပ်လာမယ်၊ 195 00:08:54,040 --> 00:08:56,720 ကျွန်ုပ်တို့နဲ့အတူ အရင်းအမြစ်များ အတွက် တိုက်ပွဲဝင်ရမယ်။ 196 00:08:57,200 --> 00:08:58,416 နောက်ဆုံးမှာတော့၊ 197 00:08:58,440 --> 00:08:59,680 အဲဒါ Siri ကို မပြောပါနဲ့- 198 00:09:00,440 --> 00:09:02,526 ကျွန်ုပ်တို့ အချိန်မရွေး ပိတ်ပစ်နိုင်တယ်။ 199 00:09:02,526 --> 00:09:04,300 (ရယ်မောသံများ) 200 00:09:04,670 --> 00:09:07,420 ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ရဲ့ စက်တွေနဲ့ အတူ 201 00:09:07,420 --> 00:09:10,336 ပူးတွဲလျက် ဆင့်ကဲ ပြောင်းလဲရေး အံ့ဖွယ် ခရီးကို နှင်နေကြတယ်။ 202 00:09:10,360 --> 00:09:12,856 ဒီနေ့ ကျွန်ုပ်တို့ လူသားတွေဟာ 203 00:09:12,880 --> 00:09:15,416 လာမယ့် နောင်လူသားတွေ မဟုတ်ပါ။ 204 00:09:15,440 --> 00:09:18,576 ဒီအချိန်မှာ ဆူပါဦးနှောက်တု ပေါ်ပေါက် လာမှာကို စိုးရိမ်နေခြင်းဟာ 205 00:09:18,600 --> 00:09:21,656 အန္တရာယ်များတဲ့ အာရုံလွှဲပြောင်းမှု ဖြစ်တယ်လို့ ဆိုချင်တယ်၊ 206 00:09:21,680 --> 00:09:24,016 ကွန်ပျူးတင်းတွေ ပေါ်ပေါက်လာခဲ့ကြလို့ 207 00:09:24,040 --> 00:09:27,056 လူသားနဲ့ လူမှုရေး ပြဿနာတွေ တပုံကြီး ပေါ်လာခဲ့ကြရာ 208 00:09:27,080 --> 00:09:29,210 အဲဒါတွေကို ကျွန်ုပ်တို့ ဂရုစိုက်ဖို့လိုတယ်။ 209 00:09:29,360 --> 00:09:32,160 လူသားရဲ့ လုပ်အား လိုအပ်ချက် နည်းလာတဲ့ အခါမှာ 210 00:09:32,160 --> 00:09:34,536 ကျွန်ုပ်တို့ လူ့အဖွဲ့အစည်းကို ဘယ်လို စည်းရုံးကြမလဲ။ 211 00:09:34,560 --> 00:09:37,920 ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ရဲ့ မတူ ကွဲပြားမှုတွေကို လေးစားရင်း 212 00:09:37,920 --> 00:09:40,176 နားလည်မှုရှိရန် ပညာသင်နိုင်ရန် ဘယ်လို လုပ်ကြမလဲ။ 213 00:09:40,200 --> 00:09:44,456 သိမှတ်မှု ကျန်းမာရေး စနစ်ဖြင့် ကျွန်ုပ်တို့ လူ့ဘဝကို ဘယ်လို မြှင့်တင်မလဲ။ 214 00:09:44,480 --> 00:09:47,336 ကွန်ပျူတာသုံးပြီး ကျွန်ုပ်တို့ ကြယ်တွေဆီ 215 00:09:47,360 --> 00:09:49,120 သွားနိုင်အောင် ဘယ်လို လုပ်ကိုင်ကြမလဲ။ 216 00:09:49,760 --> 00:09:51,800 အဲဒါတွေကမှ စိတ်လှုပ်ရှားစရာတွေပါ။ 217 00:09:52,400 --> 00:09:54,736 လူသားတွေရဲ့ ဘဝကို မြှင့်တင်ပေးနိုင်မယ့် 218 00:09:54,760 --> 00:09:56,296 ကွန်ပျူတာတွေရဲ့ အလားအလာတွေကို 219 00:09:56,320 --> 00:09:57,736 ကျွန်ုပ်တို့ လက်လှမ်းမှီတယ်၊ 220 00:09:57,760 --> 00:09:59,616 ဟိုမှာ ဒီမှာ ပြည့်နေကြတယ်၊ 221 00:09:59,640 --> 00:10:01,530 ပြီးတော့ ကျွန်ုပ်တို့ စရုံပဲ ရှိသေးတယ်။ 222 00:10:02,280 --> 00:10:03,496 အထူး ကျေးဇူးတင်ပါတယ်။ 223 00:10:03,520 --> 00:10:07,806 (လက်ခုပ်တီးသံများ)