1 00:00:01,000 --> 00:00:03,216 ვაპირებ იმ ინტუიციურ სისუსტეზე ვისაუბრო, 2 00:00:03,240 --> 00:00:05,290 რომელიც ბევრ ჩვენგანს ახასიათებს. 3 00:00:05,480 --> 00:00:08,860 ეს გარკვეული საფრთხის ამოცნობის უუნარობაა. 4 00:00:09,360 --> 00:00:11,096 ვაპირებ აღვწერო სცენარი, 5 00:00:11,120 --> 00:00:14,376 რომელიც ერთდროულად შემაძრწუნებელიცაა 6 00:00:14,400 --> 00:00:16,210 და მოსალოდნელიც. 7 00:00:16,840 --> 00:00:18,496 რაც, როგორც ირკვევა 8 00:00:18,520 --> 00:00:20,056 არაა კარგი კომბინაცია. 9 00:00:20,080 --> 00:00:22,536 მიუხედავად ამისა, საშიშის ნაცვლად უმეტესობა 10 00:00:22,560 --> 00:00:25,050 სახალისოდ აღიქვამს იმას, რაზეც ვაპირებ ვისაუბრო. 11 00:00:25,200 --> 00:00:28,176 ვაპირებ აღვწერო, თუ როგორ შეიძლება 12 00:00:28,200 --> 00:00:29,976 ხელოვნური ინტელექტის სფეროში წინსვლამ 13 00:00:30,000 --> 00:00:31,776 საბოლოოდ გაგვანადგუროს. 14 00:00:31,800 --> 00:00:34,270 პრინციპში, ვფიქრობ, ძნელი წარმოსადგენიც კია, 15 00:00:34,270 --> 00:00:37,610 როგორ შეიძლება არ გაგვანადგუროს, ან არ გვიბიძგოს თვითგანადგურებისკენ. 16 00:00:37,610 --> 00:00:39,256 თუმცა, თუ თქვენც ჩემნაირი ხართ, 17 00:00:39,280 --> 00:00:41,936 გეგონებათ, რომ ასეთ რამეებზე ფიქრი სახალისოა. 18 00:00:41,960 --> 00:00:45,336 თავად ასეთი რეაქციაც პრობლემის ნაწილია. 19 00:00:45,360 --> 00:00:47,560 ამ რეაქციამ უნდა შეგაწუხოთ. 20 00:00:47,920 --> 00:00:50,576 ახლა, ამ საუბარში, თუ დაგაწრმუნებთ, 21 00:00:50,600 --> 00:00:54,016 რომ კლიმატის ცვლილებით, ან სხვა რამე კატასტროფით გამოწვეული 22 00:00:54,040 --> 00:00:57,096 გლობალური შიმშილობაა მოსალონდელი 23 00:00:57,120 --> 00:01:00,536 და რომ თქვენმა შვილიშვილებმა, ან მათმა შვილიშვილებმა 24 00:01:00,560 --> 00:01:02,820 დიდი შანსია ამ პირობებში იცხოვრონ, 25 00:01:03,200 --> 00:01:04,400 თქვენ არ იფიქრებთ: 26 00:01:05,440 --> 00:01:06,776 "საინტერესოა, 27 00:01:06,800 --> 00:01:08,580 მომწონს ეს TED talk-ი" 28 00:01:09,200 --> 00:01:11,410 შიმშილობა არაა სახალისო. 29 00:01:11,800 --> 00:01:15,236 სამეცნიერო ფანტასტიკის ხელით სიკვდილი კი სახალისოა. 30 00:01:15,236 --> 00:01:19,316 ერთ-ერთი, რაც ხელოვნური ინტელექტის შექმნასთან დაკავშირებით მაწუხებს ისაა, 31 00:01:19,316 --> 00:01:23,296 რომ ჩვენ თითქოს არ შეგვწევს უნარი გვქონდეს ადექვატური ემოციური რეაქცია 32 00:01:23,320 --> 00:01:25,136 მოსალოდნელ საფრთხეებზე. 33 00:01:25,160 --> 00:01:29,270 არც მე ძალმიძს ამ რეაქიის გამომუშავება, თუმცა ამ თემაზე გამოვდივარ. 34 00:01:30,120 --> 00:01:32,816 თითქოს ორი კარის წინ ვდგავართ. 35 00:01:32,840 --> 00:01:34,096 პირველ კარს მიღმა, 36 00:01:34,120 --> 00:01:37,416 ხელოვნური ინტელექტის განვითარების პროგრესი ჩერდება. 37 00:01:37,440 --> 00:01:41,456 ჩვენი კოპიუტერების აპარატული და პროგრამული საშუალებები რატომღაც აღარ უმჯობესდება. 38 00:01:41,480 --> 00:01:44,850 ერთი წამით დაფიქრდით, რატომ შეიძლება ეს მოხდეს. 39 00:01:45,080 --> 00:01:48,736 იმის გათვალისწინებით, თუ რა ფასეულია მანქანური ინტელექტი და ავტომატიზაცია, 40 00:01:48,760 --> 00:01:52,800 ჩვენ აუცილებლად განვაგრძობთ ტექნოლოგიურ წინსვლას, თუ შეგვეძლება. 41 00:01:53,200 --> 00:01:55,567 რამ შეიძლება ეს შეაჩეროს? 42 00:01:55,800 --> 00:01:58,450 სრულმასშტაბიანმა ბირთვულმა ომმა? 43 00:01:59,000 --> 00:02:01,340 გლობალურმა პანდემიამ? 44 00:02:02,320 --> 00:02:04,880 ასტეროიდის დაჯახებამ? 45 00:02:05,640 --> 00:02:08,216 ჯასტინ ბიბერის პრეზიდენტობამ? 46 00:02:08,240 --> 00:02:10,520 (სიცილი) 47 00:02:12,760 --> 00:02:16,680 მოკლედ, რაღაც ისეთი უნდა იყოს, რაც არსებულ ცივილიზაციას დაანგრევს. 48 00:02:17,360 --> 00:02:21,656 წარმოიდგინეთ, რა ცუდი რამ უნდა იყოს, 49 00:02:21,680 --> 00:02:25,016 რომ ტექნოლოგიური პროგრესი შეაჩეროს 50 00:02:25,040 --> 00:02:26,256 სამუდამოდ, 51 00:02:26,280 --> 00:02:27,910 თაობიდან თაობამდე. 52 00:02:27,950 --> 00:02:30,380 განმარტებიდან გამომდინარე, ეს ყველაზე უარესი რამეა, 53 00:02:30,380 --> 00:02:32,576 რაც კი ოდესმე მომხდარა კაცობრიობის ისტორიაში. 54 00:02:32,576 --> 00:02:33,936 ამის ერთადერთი ალტერნატივა, 55 00:02:33,936 --> 00:02:36,176 რომელიც მეორე კარს მიღმაა, არის რეალობა, 56 00:02:36,200 --> 00:02:39,336 რომლის მიხედვით ჩვენ ვაგძელებთ გონიერი მანქანების გაუმჯობესებას 57 00:02:39,360 --> 00:02:41,350 წლიდან წლამდე. 58 00:02:41,720 --> 00:02:45,520 რაღაც მომენტში, ჩვენ შევქმნით მანქანებს, რომლებიც ჩვენზე ჭკვიანები იქნებიან 59 00:02:45,790 --> 00:02:48,340 და რა დროსაც ეს მოხდება, 60 00:02:48,340 --> 00:02:50,696 ისინი საკუთარი თავების გაუმჯობესებას შეუდგებიან 61 00:02:50,720 --> 00:02:53,100 და დავდგებით, როგორც ამას ი. დ. გუდმა უწოდა, 62 00:02:53,100 --> 00:02:55,256 "ინტელექტის აფეთქების" საფრთხის წინაშე, 63 00:02:55,280 --> 00:02:57,920 რითიც შეიძლება პროცესები ხელიდან გაგვექცეს. 64 00:02:58,120 --> 00:03:00,936 ხშირად ეს მსგავსი კარიკატურების სახითაა გამოსახული. 65 00:03:00,960 --> 00:03:04,176 როგორც ბოროტი რობოტების არმიები, 66 00:03:04,200 --> 00:03:05,456 რომლებიც თავს გვესხმიან, 67 00:03:05,480 --> 00:03:08,176 მაგრამ ეს არაა ყველაზე სავარაუდო სცენარი. 68 00:03:08,200 --> 00:03:12,480 ჩვენი მანქანები, მყისიერად კი არ გაბოროტდებიან. 69 00:03:12,480 --> 00:03:15,600 სინამდვილეში წუხილი იმაზეა, რომ ჩვენ ისეთ მანქანებს შევქმნით, 70 00:03:15,600 --> 00:03:18,276 რომლებიც ჩვენზე იმდენად უფრო კომპეტენტურები იქნებიან, 71 00:03:18,276 --> 00:03:21,576 რომ ჩვენსა და მათ მიზნებს შორის მცირედმა უთანხმოებამაც კი 72 00:03:21,600 --> 00:03:23,520 შეიძლება გაგვანადგუროს. 73 00:03:23,960 --> 00:03:26,380 დაფიქრდით, რა აზრის ვართ ჭიანჭველებზე. 74 00:03:26,600 --> 00:03:28,256 ჩვენ ისინი არ გვძულს. 75 00:03:28,280 --> 00:03:30,336 ჩვენ მიზანი არაა მათ ვავნოთ. 76 00:03:30,360 --> 00:03:32,736 პრინციპში ზოგჯერ ვცდილობთ კიდეც არ ვავნოთ. 77 00:03:32,760 --> 00:03:34,776 ფეხს არ ვადგამთ ტროტუარზე. 78 00:03:34,800 --> 00:03:36,936 მაგრამ როცა კი მათი არსებობა, 79 00:03:36,960 --> 00:03:39,456 ჩვენს მიზნებს სერიოზულად ეწინააღმდეგება, 80 00:03:39,480 --> 00:03:41,957 მაგალითად ამნაირი შენობის აგებისას, 81 00:03:41,981 --> 00:03:44,241 ჩვენ ყოყმანის გარეშე ვანადგურებთ მათ. 82 00:03:44,480 --> 00:03:47,416 მე ის მაწუხებს, რომ ერთ დღესაც ჩვენ შევქმნით მანქანებს, 83 00:03:47,440 --> 00:03:50,176 რომელებიც, ცნობიერები იქნებიან თუ არა, 84 00:03:50,200 --> 00:03:53,180 შეიძლება მსგავსი გულგრილობით მოგვეკიდონ. 85 00:03:53,760 --> 00:03:57,290 ეჭვი მაქვს ბევრ თქვენგანს, ეს ზედმეტ გაზვიადებად ეჩვენება. 86 00:03:57,360 --> 00:04:01,940 დარმწუნებული ვარ ზოგი თქვენგანი, ზეგონიერი ხელოვნური ინტელექტის შექმნის 87 00:04:01,940 --> 00:04:05,376 არათუ გარდაუვალობას, არამედ შესაძლებლობასაც კი ეჭვქვეშ აყენებს, 88 00:04:05,400 --> 00:04:09,020 მაგრამ მაშინ თქვენ პრობლემა უნდა იპოვოთ შემდეგი დაშვებებიდან ერთ-ერთში. 89 00:04:09,044 --> 00:04:11,066 სულ სამია ასეთი. 90 00:04:11,800 --> 00:04:16,979 ინტელექტი ფიზიკურ სისტემებში ინფორმაციის დამუშავებას წარმოადგენს. 91 00:04:17,320 --> 00:04:19,935 პრინციპში, ეს დაშვებაზე ცოტა უფრო მეტიცაა. 92 00:04:19,959 --> 00:04:23,416 ჩვენ უკვე შევქმენით მანქანები ვიწრო ინტელექტით 93 00:04:23,440 --> 00:04:25,456 და ბევრი მათქგანი მუშაობს კიდეც 94 00:04:25,480 --> 00:04:28,520 ზეადამიანის შესაბამისი ინტელექტის დონეზე. 95 00:04:28,840 --> 00:04:31,416 ასევე ვიცით, რომ მატერიას 96 00:04:31,440 --> 00:04:34,056 შეუძლია წამოქმნას ე.წ. "ზოგადი ინტელექტი", 97 00:04:34,080 --> 00:04:37,736 სხვადასხვა სფეროებაში მოქნილად აზროვნების უნარი, 98 00:04:37,760 --> 00:04:40,896 რადგან ჩვენი ტვინები ახერხებენ ამას. 99 00:04:40,920 --> 00:04:44,856 აქ ხომ მხოლოდ ატომებია 100 00:04:44,880 --> 00:04:49,376 და თუ ატომებისგან შემდგარი ისეთი სისტემების შექმნას განვაგრძობთ, 101 00:04:49,400 --> 00:04:52,096 რომლებიც სულ უფრო მეტ გონიერ საქციელს გამოავლენენ, 102 00:04:52,120 --> 00:04:54,656 რაღაცამ თუ არ შეგვაჩერა, 103 00:04:54,680 --> 00:04:58,056 საბოლოოდ ზოგადი ინტელექტის მქონე 104 00:04:58,080 --> 00:04:59,376 მანქანებს შევქმნით. 105 00:04:59,400 --> 00:05:03,056 მნიშვნელოვანია გავიაზროთ, რომ პროგრესის ტემპს არ აქვს მნიშვნელობა, 106 00:05:03,080 --> 00:05:06,256 რადგან ნებისმიერი ტემპი საკმარისია, რომ ბოლოში გავიდეთ. 107 00:05:06,280 --> 00:05:10,246 ჩვენ არ გვჭირდება მურის კანონი ამისთვის. არ გვჭირდება ექსპონენციალური პროგრესი. 108 00:05:10,246 --> 00:05:13,140 ჩვენ მხოლოდ წინსვლა გვჭირდება. 109 00:05:13,480 --> 00:05:16,850 მეორე დაშვება ისაა, რომ ჩვენ განვაგრძობთ პროგრესს. 110 00:05:17,000 --> 00:05:20,470 განვაგრძობთ გონიერი მანქანების შექმნას. 111 00:05:21,000 --> 00:05:25,376 თუ ინტელექტის ფასს გავითვალისწინებთ... 112 00:05:25,400 --> 00:05:28,430 ინტელექტი, ან ყველაფერ იმის წყაროა რასაც ვაფასებთ, 113 00:05:28,430 --> 00:05:31,736 ან გვჭირდება იმისთვის, რომ დავიცვათ ყველაფერი ის რასაც ვაფასებთ. 114 00:05:31,760 --> 00:05:34,016 ის ჩვენი ყველაზე ფასეული რესურსია. 115 00:05:34,040 --> 00:05:35,576 ამიტომ გვინდა ამის კეთება. 116 00:05:35,600 --> 00:05:38,936 ჩვენ გვაქვს პრობლემები, რომელთა გადაწყვეტა აუცილებელია. 117 00:05:38,960 --> 00:05:42,620 ჩვენ გვინდა ალცჰაიმერის და კიბოს მაგვარი დაავადებების განკურნება. 118 00:05:42,960 --> 00:05:46,896 გვინდა ეკონომიკური სისტემებში გარკვევა. და კლიმატური მეცნიერების გაუმჯობესება. 119 00:05:46,920 --> 00:05:49,176 ამიტომ თუ შევძელით, ამას აუცილებლად ვიზამთ. 120 00:05:49,200 --> 00:05:53,496 მატარებელი უკვე დაიძრა და მას მუხრუჭი არ აქვს. 121 00:05:53,880 --> 00:05:59,336 ბოლოს, ჩვენ არ წარმოვადგენთ ინტელექტის პიკს. 122 00:05:59,360 --> 00:06:01,500 მასთან ახლოსაც კი არ ვართ. 123 00:06:01,640 --> 00:06:03,536 ეს მართლაც საკვანძო აზრია. 124 00:06:03,560 --> 00:06:06,296 ეს არის ის, რაც ჩვენს მდგომარეობას ასე არასაიმედოს 125 00:06:06,296 --> 00:06:10,980 და რისკების მიმართ ჩვენს ინტუიციას, ასე არასანდოს ხდის. 126 00:06:11,120 --> 00:06:14,280 განვიხილოთ ყველა დროის უჭკვიანესი ადამიანი. 127 00:06:14,640 --> 00:06:18,056 ერთ-ერთ ასეთად თითქმის ყველა ჯონ ვან ნოიმანს დაასახელებს. 128 00:06:18,080 --> 00:06:21,416 შთაბეჭდილება, რომელიც ვან ნოიმანმა მის გარშემომყოფებზე მოახდინა, 129 00:06:21,440 --> 00:06:25,496 მისი თანამედროვე უდედესი მათემატიკოსების და ფიზიკოსების ჩათვლით, 130 00:06:25,520 --> 00:06:27,456 კარგადაა დოკუმენტირებული. 131 00:06:27,480 --> 00:06:31,256 ამ ისტორიების მხოლოდ ნახევარიც რომ იყოს ნახევრად მართალი, 132 00:06:31,280 --> 00:06:32,496 ეჭვგარეშეა, 133 00:06:32,520 --> 00:06:34,976 რომ ის ყველა დროის ერთ-ერთი უჭკვიანესი ადამიანი იყო. 134 00:06:35,000 --> 00:06:37,830 განვიხილოთ ინტელექტის სპექტრი. 135 00:06:38,320 --> 00:06:40,599 აქ არის ჯონ ვან ნოიმანი. 136 00:06:41,560 --> 00:06:43,474 აქ კი, ვართ მე და თქვენ 137 00:06:44,050 --> 00:06:45,416 და აქ კი - ქათამია. 138 00:06:45,440 --> 00:06:47,376 (სიცილი) 139 00:06:47,400 --> 00:06:48,616 უკაცრავად, ქათამი. 140 00:06:48,640 --> 00:06:49,896 (სიცილი) 141 00:06:49,920 --> 00:06:53,656 საჭირო არაა ეს საუბარი, კიდევ უფრო დეპრესიული გავხადოთ. 142 00:06:53,680 --> 00:06:55,280 (სიცილი) 143 00:06:56,339 --> 00:06:59,816 დიდად სავარაუდოა, რომ ინტელექტის სპექტრი, 144 00:06:59,840 --> 00:07:02,960 ბევრად უფრო შორს მიდის, ვიდრე ჩვენ ამჟამად წარმოგვიდგენია 145 00:07:03,880 --> 00:07:07,096 და თუ ჩვენ შევქმნით მანქანებს, რომლებსაც ჩვენზე დიდი ინტელექტი აქვთ, 146 00:07:07,120 --> 00:07:09,070 დიდი ალბათობით ისინი ამ სპექტრის 147 00:07:09,070 --> 00:07:11,296 ჩვენთვის წარმოუდგენელ სივრცეებს აითვისებენ 148 00:07:11,320 --> 00:07:14,590 და ისე გვაჯობებენ, რომ ვერც კი წარმოვიდგენთ. 149 00:07:15,000 --> 00:07:19,336 მნიშვნელოვანია ვხვდებოდეთ, რომ ეს ასეა მხოლოდ სისწრაფის შემთხვევაშიც კი. 150 00:07:19,360 --> 00:07:24,416 წარმოიდგინეთ, რომ შევქმენით ზეგონიერი ხელოვნური ინტელექტი, 151 00:07:24,440 --> 00:07:27,896 რომელიც სტენფორდის, ან MIT-ის 152 00:07:27,920 --> 00:07:30,216 საშუალო დონის მკვლევართა ჯგუფზე ჭკვიანი არაა. 153 00:07:30,240 --> 00:07:33,576 ელექტრონული სქემები დაახლოებით მილიონჯერ უფრო სწრაფად ფუნქციონირებენ, 154 00:07:33,576 --> 00:07:34,496 ვიდრე ბიოქიმიური. 155 00:07:34,520 --> 00:07:37,656 ამიტომ ეს მანქანა იაზროვნებს დაახლოებით მილიონჯერ სწრაფად, 156 00:07:37,680 --> 00:07:39,496 ვიდრე ტვინები რომლებმაც ის შექმნეს. 157 00:07:39,520 --> 00:07:41,176 თუ მას ერთი კვირა ვამუშვებთ, 158 00:07:41,200 --> 00:07:46,160 ის შეასრულებს ადამიანის დონის 20 000 წლის ინტელეტქუალურ სამუშაოს 159 00:07:46,400 --> 00:07:48,360 კვირიდან კვირამდე. 160 00:07:49,130 --> 00:07:53,356 ამის შემდეგ, არათუ როგორ შევზღუდავთ, არამედ როგორ გავუგებთ ტვინს, 161 00:07:53,356 --> 00:07:56,450 რომელიც ასე პროგრესირებს? 162 00:07:56,840 --> 00:08:00,426 კიდევ ერთი რამ, რაც გულწრფელად მაწუხებს ისაა 163 00:08:00,426 --> 00:08:03,330 რომ საუკეთესო ვარიანტში, 164 00:08:03,330 --> 00:08:08,176 წარმოიდგინეთ დავაპროექტეთ ისეთი ზეგონიერი ხელოვნური ინტელექტი, 165 00:08:08,200 --> 00:08:10,196 რომელსაც უსაფრთხოების პრობლემა არ აქვს. 166 00:08:10,196 --> 00:08:12,856 ჩვენ პირველივე ჯერზე გვაქვს იდეალური პროექტი. 167 00:08:12,880 --> 00:08:15,096 თითქოს ზეციდან გვებოძა პროექტი, 168 00:08:15,120 --> 00:08:17,136 რომელიც ისე მუშაობს როგორც ჩავიფიქრეთ. 169 00:08:17,160 --> 00:08:20,880 ასეთი მანქანა იდეალური იქნებოდა შრომის შესამსუბუქებლად. 170 00:08:21,210 --> 00:08:24,179 მან შეიძლება დააპროექტოს მანქანა, რომელიც შექმნის მანქანას, 171 00:08:24,179 --> 00:08:25,300 რომელსაც შეუძლია 172 00:08:25,300 --> 00:08:27,876 ნებისმიერი ფიზიკური სამუშაოს შესრულება მზის ენერგიით, 173 00:08:27,876 --> 00:08:30,096 მეტ-ნაკლებად ნედლეულის ფასად. 174 00:08:30,120 --> 00:08:33,376 ანუ ლაპარაკია ადამიანის დამქანცველი შრომის დასასრულზე. 175 00:08:33,400 --> 00:08:36,810 ლაპარაკია ასევე უმეტესი ინტელექტულაური შრომის დასასრულზე. 176 00:08:37,200 --> 00:08:40,256 მაშ, რას გააკეთებენ ჩვენნაირი პრიმატები ამ სიტუაციაში? 177 00:08:40,280 --> 00:08:45,160 თავისუფლად შევძლებთ ვითამაშოთ ფრისბი და მასაჟი ვუკეთოთ ერთმანეთს. 178 00:08:45,840 --> 00:08:48,696 დავამატოთ ცოტა LSD, ცოტა უცნაური ტანსაცმელი 179 00:08:48,720 --> 00:08:51,736 და მთელი მსოფლიო "Burning Man"-ის ფესტივალს დაემსგავსება. 180 00:08:51,736 --> 00:08:53,470 (სიცილი) 181 00:08:54,320 --> 00:08:56,690 ეს შეიძლება მშვენივრად ჟღერდეს, 182 00:08:57,280 --> 00:08:59,656 მაგრამ ჰკითხეთ საკუთარ თავებს, 183 00:08:59,680 --> 00:09:02,416 რა მოხდება არსებულ ეკონომიკურ და პოლიტიკურ წყობაში? 184 00:09:02,440 --> 00:09:04,856 სავარაუდოა, რომ მივიღოთ 185 00:09:04,880 --> 00:09:09,016 უთანასწორობის და უმუშევრობის ისეთი დონე, 186 00:09:09,040 --> 00:09:10,536 როგორიც არასდროს გვინახავს. 187 00:09:10,560 --> 00:09:13,506 ამ ახალი სიმდიდრის მთელი კაცობირობის სასარგებლოდ 188 00:09:13,506 --> 00:09:15,590 გაღების სურვილის არ ქონის პირობებში, 189 00:09:15,640 --> 00:09:19,406 მილიარდელების მცირე ჯგუფი, დაამშვენებს ბიზნესჟურნალების გარეკანებს, 190 00:09:19,406 --> 00:09:22,160 მაშინ როცა დანარჩენები იშიმშილებენ. 191 00:09:22,320 --> 00:09:24,616 რას იზამენ რუსები, ან ჩინელები, 192 00:09:24,640 --> 00:09:27,256 თუ გაიგებენ, რომ სილიკონის ველზე რომელიღაც კომპანია, 193 00:09:27,280 --> 00:09:30,016 აპირებს ზეგონიერი ხელოვნური ინტელექტი აამუშაოს? 194 00:09:30,040 --> 00:09:32,896 ამ მანქანას არნახული ძალით შეეძლება 195 00:09:32,920 --> 00:09:35,136 აწარმოოს ომი, 196 00:09:35,160 --> 00:09:37,650 როგორც სახმელეთო, ისე კიბერომი. 197 00:09:38,120 --> 00:09:40,836 ეს ის სცენარია, რომელშიც გამარჯვებული იღებს ყველაფერს. 198 00:09:40,836 --> 00:09:43,606 ამ შეჯიბრში 6 თვით წინ ყოფნა, 199 00:09:43,606 --> 00:09:47,046 მინიმუმ 500 000 წლით წინ ყოფნას ნიშნავს. 200 00:09:47,480 --> 00:09:52,216 ამიტომ, ასეთი გარღვევის შესახებ ჭირებმაც კი, 201 00:09:52,240 --> 00:09:54,616 შეიძლება გადარიოს ჩვენი სახეობა. 202 00:09:54,640 --> 00:09:57,536 ერთ-ერთი ყველაზე საშიში რამ, 203 00:09:57,560 --> 00:10:00,336 ამჟამად, ჩემი აზრით 204 00:10:00,360 --> 00:10:04,656 არის ის რასაც ხელოვნური ინტელექტის მკვლევარები ამბობენ, 205 00:10:04,680 --> 00:10:06,660 როცა უნდათ, რომ იმედი მოგვცენ. 206 00:10:07,000 --> 00:10:10,456 ყველაზე ხშირად ნათქვამი მიზეზი იმისა, რომ არ ვიღელვოთ, არის დრო. 207 00:10:10,480 --> 00:10:12,536 ხომ იცით, იქამდე ჯერ კიდევ შორია. 208 00:10:12,560 --> 00:10:15,450 სავარაუდოდ სადღაც 50 -100 წელია იქამდე. 209 00:10:15,720 --> 00:10:16,976 ერთმა მკვლევარმა თქვა: 210 00:10:17,000 --> 00:10:18,576 "ხელოვნურ ინტელექტზე ნერვიულობა, 211 00:10:18,600 --> 00:10:21,470 იგივეა რაც ინერვიულოთ მარსის გადამეტდასახლებულობაზე" 212 00:10:21,546 --> 00:10:24,126 ეს, "ამაზე ფიქრით ტვინს ნუ დაიღლით "-ის 213 00:10:24,126 --> 00:10:26,576 სილიკონის ველისეული ვერსიაა 214 00:10:26,576 --> 00:10:27,496 (სიცილი) 215 00:10:27,520 --> 00:10:29,416 თითქოს ვერავინ ამჩნევს, 216 00:10:29,440 --> 00:10:32,056 რომ დროითი ფაქტორის მოყვანა 217 00:10:32,080 --> 00:10:34,656 სრულიად უადგილოა. 218 00:10:34,680 --> 00:10:37,936 თუ ინტელექტი მხოლოდ ინფორმაციის დამუშავების ამბავია 219 00:10:37,960 --> 00:10:40,616 და ჩვენ განვაგრძობთ მანქანების გაუმჯობესებას, 220 00:10:40,640 --> 00:10:44,080 მაშინ მივიღებთ რაღაც ტიპის სუპერინტელექტს 221 00:10:44,320 --> 00:10:47,976 და ჩვენ წარმოდგენა არ გვაქვს, რა დრო დაგვჭირდება იმისთვის, 222 00:10:48,000 --> 00:10:51,010 რომ მივიღოთ შესაბამისი უსაფრთხოების ზომები. 223 00:10:51,670 --> 00:10:53,496 ნება მომეცით, კიდევ გავიმეორო. 224 00:10:53,520 --> 00:10:57,336 ჩვენ წარმოდგენა არ გვაქვს, რა დრო დაგვჭირდება იმისთვის, 225 00:10:57,360 --> 00:11:00,510 რომ მივიღოთ შესაბამისი უსაფრთხოების ზომები. 226 00:11:00,920 --> 00:11:04,376 თუ ვერ შეამჩნიეთ, გეტყვით, რომ ეს ის 50 წელი არ არის, რაც უწინ იყო. 227 00:11:04,400 --> 00:11:06,856 ეს არის 50 წელი თვეებში. 228 00:11:06,880 --> 00:11:09,060 ამდენი ხანია რაც აიფონები გვაქვს. 229 00:11:09,440 --> 00:11:12,500 ამდენი ხანია რაც "სიმფსონები" გადის. 230 00:11:12,680 --> 00:11:15,056 50 წელი არც ისე დიდი დროა იმისთვის, 231 00:11:15,080 --> 00:11:19,140 რომ ჩვენი სახეობისთვის ერთ-ერთ უდიდეს გამოწვევას შევეგებოთ. 232 00:11:19,640 --> 00:11:23,656 კიდევ ერთხელ, თითქოს არ შეგვწევს უნარი გვქონდეს ადექვატური ემოციური რეაქცია, 233 00:11:23,680 --> 00:11:26,376 იმის მიმართ, რაც აშკარად მოსალოდნელია. 234 00:11:26,400 --> 00:11:30,376 კომპიუტერულმა მეცნიერმა სტიურატ რასელმა კარგი ანალოგია გააკეთა. 235 00:11:30,400 --> 00:11:35,296 მან თქვა, წარმოიდგინეთ, რომ უცხოპლანეტელი ცივილიზაციისგან მივიღეთ გზავნილი, 236 00:11:35,320 --> 00:11:37,016 რომელიც ამბობს: 237 00:11:37,040 --> 00:11:38,576 "დედამიწის მოსახლეობავ, 238 00:11:38,600 --> 00:11:41,500 ჩვენ გეწვევით თქვენ პლანეტაზე 50 წელიწადში. 239 00:11:41,800 --> 00:11:43,376 მოემზადეთ" 240 00:11:43,400 --> 00:11:47,656 და ამის შემდეგ თვეების თვლას დავიწყებთ, სანამ ხომალდი არ ჩამოვა? 241 00:11:47,680 --> 00:11:51,340 ალბათ, ამაზე ცოტა უფრო მეტ გადაუდებლობას ვიგრძნობდით. 242 00:11:51,730 --> 00:11:54,160 კიდევ ერთი მიზეზი, რასაც დასამშვიდებლად ამბობენ, 243 00:11:54,160 --> 00:11:57,956 არის რომ ამ მანქანებს ჩვენი ფასეულობების გაზიარების გარდა სხვა გზა არ ექნებათ, 244 00:11:58,056 --> 00:12:00,216 რადგან ისინი ჩვენი გაგრძელებები იქნებიან. 245 00:12:00,240 --> 00:12:02,056 ისინი ჩვენს ტვინს მიუერთდებიან, 246 00:12:02,080 --> 00:12:05,010 ჩვენ კი მათი ლიმბური სისტემა გავხდებით. 247 00:12:05,140 --> 00:12:06,536 ერთი წამით დავფიქრდეთ, 248 00:12:06,560 --> 00:12:09,736 რომ ყველაზე უსაფრთხო და ერთადერთი წინდახედული, 249 00:12:09,760 --> 00:12:11,096 რეკომენდებული გზა, 250 00:12:11,120 --> 00:12:14,350 არის ამ ტექნოლოგიების პირდაპირ ჩვენ ტვინში ჩანერგვა. 251 00:12:14,600 --> 00:12:17,976 ეს შეიძლება მართლაც ყველაზე უსაფრთხო და ერთადერთი წინდახედული გზა იყოს, 252 00:12:18,000 --> 00:12:21,056 მაგრამ როგორც წესი, ტექნოლოგიის უსაფრთხოებაზე ზრუნვა, 253 00:12:21,080 --> 00:12:24,736 მანამ უნდა იყოს დამთავრებული, სანამ მას თავში შევიტენით. 254 00:12:24,760 --> 00:12:26,776 (სიცილი) 255 00:12:26,800 --> 00:12:32,136 უფრო სიღრმისეული პრობლემა ისაა, რომ ზეგონიერი ხელოვნური ინტელექტის შექმნა, 256 00:12:32,160 --> 00:12:33,896 თავისთავად უფრო მარტივი ჩანს, 257 00:12:33,920 --> 00:12:35,090 ვიდრე მისი შექმნა 258 00:12:35,090 --> 00:12:37,576 და შემდეგ ნეირომეცნიერების სრული შესწავლა, 259 00:12:37,600 --> 00:12:40,760 რაც საშუალებას მოგვცემს მოვახდინოთ ჩვენ ტვინში მისი ინტეგრაცია. 260 00:12:40,800 --> 00:12:43,976 იმის გათვალისწინებით, რომ კომპანიები და მთავრობები, 261 00:12:44,000 --> 00:12:47,656 რომლებიც ამას აკეთებენ, თავს ყველა დანარჩენთან შეჯიბრში აღიქვამენ 262 00:12:47,680 --> 00:12:50,936 და რომ ამ შეჯიბრის მოგება, მსოფლიოს მოგებას ნიშნავს, 263 00:12:50,960 --> 00:12:53,416 თუ მეორე წამს ამ მსოფლიოს არ გაანადგურებენ, 264 00:12:53,440 --> 00:12:56,056 მაშინ სავარაუდოა, რომ პირველ რიგში იმას გააკეთებენ, 265 00:12:56,080 --> 00:12:58,260 რისი გაკეთებაც ყველაზე მარტივია. 266 00:12:58,560 --> 00:13:01,416 სამწუხაროდ მე არ მაქვს ამ პრობლემაზე პასუხი, 267 00:13:01,440 --> 00:13:03,970 გარდა რჩევისა, რომ უფრო მეტმა ჩვენგანმა იფიქროს ამაზე. 268 00:13:03,970 --> 00:13:06,586 ვფიქრობ, რაღაც "მანჰეტენის პროექტის" მაგვარი გვჭირდება 269 00:13:06,586 --> 00:13:08,256 ხელოვნური ინტელექტის მიმართულებით. 270 00:13:08,256 --> 00:13:11,446 არა იმისთვის, რომ ის შევქმნათ, რადგან ვფიქრობ ეს გარდაუვლად მოხდება, 271 00:13:11,446 --> 00:13:14,616 არამედ, რომ გავარკვიოთ, თუ როგორ ავიცილოთ თავიდან სამხედრო შეჯიბრი 272 00:13:14,640 --> 00:13:18,136 და შევქმნათ ეს მანქანა ისე, რომ ის თანხვედრაში იყოს, ჩვენ ინტერესთან. 273 00:13:18,160 --> 00:13:20,436 როცა ვლაპარაკობთ ზეგონიერ ხელოვნურ ინტელექტზე, 274 00:13:20,436 --> 00:13:22,576 რომელსაც საკუთარი თავის შეცვლა შეუძლია, 275 00:13:22,600 --> 00:13:27,216 მგონია, რომ ერთი შანსი გვაქვს, სწორ საწყის პირობებს მივაგნით 276 00:13:27,240 --> 00:13:29,296 და ამ შემთხვევაშიც დაგვჭირდება, 277 00:13:29,320 --> 00:13:33,180 რომ ამის პოლიტიკური და ეკონომიკური შედეგები გადავხარშოთ. 278 00:13:33,760 --> 00:13:35,816 თუმცა, როგორც კი ვაღიარებთ, 279 00:13:35,840 --> 00:13:40,290 რომ ინტელექტის წყარო ინფორმაციის დამუშავებაა, 280 00:13:40,720 --> 00:13:45,520 რომ რაღაც შესაბამისი გამოთვლითი სისტემა წარმოდაგენს ინტელექტის ბაზისს, 281 00:13:46,360 --> 00:13:50,910 ვაღიარებთ, რომ ჩვენ უწყვეტად გავაუმჯობესებთ ამ სისტემებს 282 00:13:51,280 --> 00:13:55,736 და ვაღიარებთ, რომ გონებრივი შესაძლებლობის ჰორიზონტი იმაზე ბევრად უფრო შორს მიდის, 283 00:13:55,760 --> 00:13:57,900 ვიდრე ჩვენ დღეს წარმოგვიდგენია, 284 00:13:58,120 --> 00:13:59,336 მაშინ უნდა ვაღიაროთ, 285 00:13:59,360 --> 00:14:02,560 რომ ჩვენ ვართ რაღაც ტიპის ღმერთის შექმნის პროცესში. 286 00:14:02,670 --> 00:14:05,746 ახლა ის დროა, ვიზრუნოთ იმაზე, რომ ეს ისეთი ღმერთი იყოს, 287 00:14:05,746 --> 00:14:07,993 რომელთანაც შევძლებთ თანაცხოვრებას. 288 00:14:08,120 --> 00:14:09,656 დიდი მადლობა. 289 00:14:09,680 --> 00:14:14,773 (აპლოდისმენტები)