0:00:06.681,0:00:08.873 ကစားပွဲ အစီအစဉ်တစ်ခုမှာ[br]သင် ပါဝင်တယ်ဆိုပါစို့။ 0:00:08.873,0:00:12.375 အပိုဆု နေရာကို သင်ရောက်တဲ့အခါ 0:00:12.375,0:00:14.851 ပထမ အလှည့်မှာ ဒေါ်လာ ၁၀၀၀ ရနှင့်ပြီ။ 0:00:14.851,0:00:16.657 အခု၊ သင့်မှာ ရွေးစရာ တစ်ခုရှိတယ်။ 0:00:16.657,0:00:20.131 အာမခံချက်ရှိတဲ ဒေါ်လာ ၅၀၀ ကို[br]သင် ယူနိုင်တယ်၊ 0:00:20.131,0:00:22.537 (သို့) ခေါင်းပန်း လှန်နိုင်တယ်။ 0:00:22.537,0:00:25.857 ခေါင်းကျရင် အပိုဆု ဒေါ်လာ ၁၀၀၀ ရတယ်။ 0:00:25.857,0:00:29.246 ပန်းကျရင် အပိုဆု လုံးဝ မရဘူး။ 0:00:29.246,0:00:34.269 ဒုတိယ အလှည့်မှာ ပြစ်ဒဏ် ဧရိယာကို [br]သင် ရောက်တဲ့အခါ သင် ဒေါ်လာ ၂၀၀၀ ရထားတယ်။ 0:00:34.269,0:00:36.384 အခု သင့်မှာ နောက်ထပ် ရွေးစရာတစ်ခုရှိတယ်။ 0:00:36.384,0:00:39.220 ဒေါ်လာ ၅၀၀ ကို သင် ယူနိုင်တယ်၊ 0:00:39.220,0:00:42.171 (သို့) ခေါင်းပန်းလှန်ပြီး ကံစမ်းနိုင်တယ်။ 0:00:42.171,0:00:44.372 ခေါင်းကျရင် သင် ဘာမှ မရှုံးပေမဲ့ 0:00:44.372,0:00:49.069 ပန်းကျရင်တော့ ဒီအစား[br]ဒေါ်လာ ၁၀၀၀ သင် ရှုံးလိမ့်မယ်။ 0:00:49.069,0:00:50.493 သင်ဟာ လူအများစုလို ဆိုရင်တော့ 0:00:50.493,0:00:54.284 ပထမ အလှည့်မှာ အာမခံရှိတဲ့[br]အပိုဆုကို ယူဖို့နဲ့ 0:00:54.284,0:00:57.254 ဒုတိယ အလှည့်မှာ ခေါင်းပန်း လှန်တာ[br]ရွေးလောက်တယ်။ 0:00:57.254,0:01:00.113 ဒါပေမဲ့ ဒါကို သင် တွေးကြည့်ရင်[br]ဒါဟာ အဓိပ္ပာယ်မရှိဘူး။ 0:01:00.113,0:01:04.205 နှစ်လှည့်စလုံးမှာရှိတဲ့ အလားအလာတွေနဲ့ [br]ရလဒ်တွေဟာ အတိအကျကိုတူနေတယ်။ 0:01:04.205,0:01:08.704 ဒီတော့ ဘာကြောင့် ဒုတိယ အလှည့်က[br]အများကြီး ပိုလန့်စရာလို့ ထင်ရတာလဲ။ 0:01:08.704,0:01:13.214 အဖြေက အရှုံး မနှစ်သက်မှုလို့ သိကြတဲ့[br]ဖြစ်ရပ်တစ်ခုမှာ တည်ရှိပါတယ်။ 0:01:13.214,0:01:15.106 ယုတ္တိတန်တဲ့ စီးပွားရေး အဆိုတစ်ခုအရ 0:01:15.106,0:01:18.846 လူတွေရဲ့ ဆုံးဖြတ်ချက်တွေဟာ [br]လောင်းကြေးမှာရှိတဲ့ ပမာဏနဲ့ ယှဉ်တဲ 0:01:18.846,0:01:23.055 စွန့်စားမှု အဆင့်ကို ချိန်ဆတဲ့ ရိုးရိုး[br]သင်္ချာ ညီမျှခြင်းတစ်ခုကို လိုက်နာသင့်တယ်။ 0:01:23.055,0:01:25.317 ဒါပေမဲ့ လေ့လာမှုတွေက တွေ့ရှိတာက[br]လူများစွာအတွက် 0:01:25.317,0:01:29.120 တစ်ခုခု ဆုံးရှုံးခြင်းကနေ ခံစားရတဲ့[br]အပျက်သဘော စိတ်ပညာဆိုင်ရာ သက်ရောက်မှုက 0:01:29.120,0:01:34.972 အလားတူ အရာကို ရရှိခြင်းရဲ့ အပြုသဘော[br]သက်ရောက်မှုထက် နှစ်ဆလောက် ပိုပြင်းတယ်တဲ့။ 0:01:34.972,0:01:39.765 အရှုံး မနှစ်သက်မှုဟာ စိစစ်ချက်ဆိုတာထက် [br]ယခင် အတွေ့အကြုံနဲ့ ဝမ်းတွင်းအသိကို 0:01:39.765,0:01:43.884 အခြေခံတဲ့ ကိုယ်တိုင်လေ့လာသိရှိတဲ့ [br]ပြဿနာ ဖြေရှင်းနည်းတွေကနေ 0:01:43.884,0:01:46.529 ပေါ်လာတဲ့ သိမှတ်မှုဆိုင်ရာ အစွဲတစ်ခုပါ။ 0:01:46.529,0:01:50.165 ဒီစိတ်ပိုင်း ဖြတ်လမ်းတွေက ဆင်ခြင်[br]တရားမဲ့တဲ့ဆုံးဖြတ်ချက်တွေ ဖြစ်စေနိုင်တယ်။ 0:01:50.165,0:01:51.459 ချစ်ကြိုက်တာတို့၊ 0:01:51.459,0:01:53.414 ကျောက်ဆောင်[br]ကြိုးလွှဲကစားခြင်နဲ့ မတူပေမဲ့ 0:01:53.414,0:01:57.834 မှားတယ်လို့ အလွယ်တကူ သက်သေပြနိုင်တဲ့[br]ယုတ္တိအမှားတွေပါ။ 0:01:57.834,0:02:03.591 ဖြစ်နိုင်ခြေတဲ့ အခြေအနေတွေဟာ ကိုယ်တိုင်[br]လေ့လာသိရှိမှုကို အသုံးချဖို့ဆိုးလွန်းတယ်။ 0:02:03.591,0:02:09.053 ဥပမာ အစိမ်းလေးဘက်နဲ့ အနီ နှစ်ဘက်ပါတဲ့[br]အန်စာတစ်တုံးကို အကြိမ်နှစ်ဆယ် 0:02:09.053,0:02:10.736 သင် လှိမ့်ရတော့မယ်ဆိုပါစို့။ 0:02:10.736,0:02:13.694 အောက်ပါ အလိမ့်အစဉ်တွေထဲက [br]တစ်ခုကို သင် ရွေးချယ်နိုင်ပြီး 0:02:13.694,0:02:17.018 ဒါ ပေါ်လာရင် [br]သင် ၂၅ ဒေါ်လာ ရမယ်။ 0:02:17.018,0:02:18.909 ဘယ်ဟာကို သင် ရွေးလိမ့်မလဲ။ 0:02:18.909,0:02:23.838 လေ့လာမှုတစ်ခုမှာ ကောလိပ် ကျောင်းသားတွေ[br]ဖြစ်ကြတဲ့ ပါဝင်သူ ၆၅% ဟာ 0:02:23.838,0:02:26.290 အစဉ် B ကို ရွေးတယ်။ 0:02:26.290,0:02:29.885 A က ပိုတိုပြီး B ထဲမှာ ပါဝင်နေတာတောင်ပါ။ 0:02:29.885,0:02:31.884 တစ်နည်းဆိုရရင် ပိုဖြစ်နိုင်ခြေရှိတာပါ။ 0:02:31.884,0:02:35.132 ဒါကို ပေါင်းဆုံမှု ယုတ္တိအမှားလို့[br]ခေါ်ပါတယ်။ 0:02:35.132,0:02:37.425 အစိမ်းရောင် အလိမ့်တွေ[br]မြင်ဖို့ မျှော်လင့်တော့ 0:02:37.425,0:02:41.607 ဦးနှောက်တွေက ဖြစ်နိုင်ခြေနည်းတဲ့[br]ရွေးစရာကို ရွေးဖို့ လှည့်စားနိုင်တယ်။ 0:02:41.607,0:02:45.822 ကိုယ်တိုင် လေ့လာသိရှိမှုတွေဟာ ယေဘုယျ[br]ကိန်းတွေကို ကိုင်တွယ်ရာမှာလည်း ဆိုးပါတယ်။ 0:02:45.822,0:02:49.393 သာဓက တစ်ခုမှာ ကျောင်းသားတွေကို[br]နှစ်စု ခွဲလိုက်တယ်။ 0:02:49.393,0:02:54.742 ပထမ အစုကို Mahatma Gandhi ဟာ အသက် ၉ နှစ် [br]မတိုင်ခင် (သို့) နောက်မှာ သေလားလို့ မေးစဉ် 0:02:54.742,0:03:00.279 ဒုတိယ အစုကို အသက် ၁၄၀ မတိုင်မီ(သို့)[br]နောက်ပိုင်းမှာ သေဆုံးခဲ့လားလို့ မေးတယ်။ 0:03:00.279,0:03:02.719 ကိန်းနှစ်ခုစလုံးဟာ သိသာစွာ [br]လမ်းလွှဲထားပေမဲ့ 0:03:02.719,0:03:07.257 သူသေသွားတဲ့ တကယ့်အသက်ကို မှန်းဆဖို့[br]ကျောင်းသားတွေကို မေးတဲ့အခါ 0:03:07.257,0:03:09.996 ပထမ အစုရဲ့ အဖြေတွေက [br]ပျမ်းမျှ ၅၀ အထိဖြစ်စဉ်မှာ 0:03:09.996,0:03:13.536 ဒုတိယ် အစုရဲ့ အဖြေက ပျမ်းမျှ ၆၇ အထိပါ။ 0:03:13.536,0:03:16.817 ကနဦး မေးခွန်းမှာ သတင်းအချက်အလက်က[br]ရှင်းရှင်းကြီး မှားနေတာတောင် 0:03:16.817,0:03:18.848 မဆီမဆိုင် ဖြစ်ခဲ့တာတောင် 0:03:18.848,0:03:21.746 ဒါက ကျောင်းသားတွေရဲ့ ထင်မြင်ချက်တွေကို[br]သက်ရောက်နေခဲ့တုန်းပါ။ 0:03:21.746,0:03:24.615 ဒါက မှီတွယ်နေတဲ့ သက်ရောက်မှု[br]သာဓကတစ်ခုပါ။ 0:03:24.615,0:03:27.539 လူတွေ ပေးချင်စိတ်ရှိမယ့် [br]စျေးနှုန်းတွေ မြှင့်တင်ဖို့ 0:03:27.539,0:03:31.111 စျေးကွက်ဖော်ခြင်းနဲ့ ညှိနှိုင်းခြင်းတွေမှာ[br]မကြာခဏ သုံးပါတယ်။ 0:03:31.111,0:03:34.559 ဒီတော့ ကိုယ်တိုင် လေ့လာသိရှိမှုတွေက[br]ဒီဆုံးဖြတ်ချက်အမှားတွေဆီ ဦးတည်စေရင် 0:03:34.559,0:03:36.998 ဘာကြောင့် ဒါတွေရှိတောင်နေရတာလဲ။ 0:03:36.998,0:03:39.772 ကောင်းပြီ၊ ဒါတွေက [br]အတော်လေး ထိရောက်နိုင်လို့ပါ။ 0:03:39.772,0:03:41.444 လူ့သမိုင်း အများစုအတွင်းမှာ 0:03:41.444,0:03:45.724 ရှင်ကျန်မှုက ကန့်သတ်တဲ့ သတင်းအချက်နဲ့ [br]လျင်မြန်တဲ့ဆုံးဖြတ်ချက်ချတာမှာ မူတည်တယ်။ 0:03:45.724,0:03:49.751 ဖြစ်နိုင်ခြေအားလုံးကို ယုတ္တိရှိရှိ [br]စိစစ်ဖို့ အချိန်မရှိတဲ့အခါ 0:03:49.751,0:03:52.775 တစ်ခါတစ်ရံ ကိုယ်တိုင် လေ့လာသိရှိမှုတွေက[br]အသက်တွေကို ကယ်နိုင်တယ်။ 0:03:52.775,0:03:56.605 ဒါပေမဲ့ ဒီနေ့ ဝန်းကျင်က အများကြီး [br]ပိုရှုပ်တဲ့ ဆုံးဖြတ်ချက်ချတာတွေ လိုအပ်ပြီး 0:03:56.605,0:04:01.180 ဒီဆုံးဖြတ်ချက်တွေကို ကျွန်ုပ်တို့ ထင်တာထက်[br]မသိစိတ် အကြောင်းရပ်တွေကနေ ပိုယိမ်းစေတယ်။ 0:04:01.180,0:04:03.558 ကျန်းမာရေးကနေ ပညာရေး၊ ဘဏ္ဍာရေးကနေ [br]ရာဇဝတ်ဆိုင်ရာ 0:04:03.558,0:04:06.172 တရားမျှတမှုအထိ[br]အရာရာကို ထိခိုက်စေတာပါ။ 0:04:06.172,0:04:08.482 ဦးနှောက်ရဲ့ကိုယ်တိုင်လေ့လာသိရှိမှုတွေကို[br]ပိတ်လို့ 0:04:08.482,0:04:11.187 မရပေမဲ့ ဒါတွေကို သတိရှိဖို့တော့ [br]သင်ယူနိုင်ပါတယ်။ 0:04:11.187,0:04:13.629 ကိန်းဂဏန်းတွေ၊ ဖြစ်နိုင်ခြေ[br](သို့) ရွေးစရာ 0:04:13.629,0:04:14.859 အသေးစိတ်တွေ ပါဝင်တဲ့ 0:04:14.859,0:04:16.723 အခြေအနေတစ်ခုနဲ့ ကြုံရတဲ့ခါ 0:04:16.723,0:04:18.040 ခဏလေး ရပ်ပြီး 0:04:18.040,0:04:23.348 အဆုံးမှာတော့ အလိုလိုသိတဲ့ အဖြေဟာ အမှန်[br]တစ်ခု မဟုတ်လောက်ဘူးလို့ ယူဆလိုက်ပါ။