1 00:00:00,760 --> 00:00:04,600 Mən uşaq ikən, hədsiz dərəcədə "nerd" idim. 2 00:00:05,320 --> 00:00:07,496 Düşünürəm ki, elə bəziləriniz də. 3 00:00:07,520 --> 00:00:08,736 (Gülüş) 4 00:00:08,760 --> 00:00:11,976 Və siz, yüksəkdən gülən cənab, böyük ehtimal hələ də eləsiniz. 5 00:00:12,000 --> 00:00:14,256 (Gülüş) 6 00:00:14,280 --> 00:00:17,776 Mən Teksasın şimalında tozlu düzənliklərdə yerləşən kiçik qəsəbədə böyümüşəm. 7 00:00:17,800 --> 00:00:21,136 Babam keşiş, atam isə şerif idi. 8 00:00:21,160 --> 00:00:23,080 Başıma dərd açmaq kimi bir seçimim yox idi. 9 00:00:24,040 --> 00:00:27,296 Ona görə də məzə üçün riyaziyyat kitablarını oxumağa başladım. 10 00:00:27,320 --> 00:00:28,856 (Gülüş) 11 00:00:28,880 --> 00:00:30,576 Siz də elə etmisiniz. 12 00:00:30,600 --> 00:00:34,336 Bu mənim lazer, kompüter və raket modelləri düzəltməyimə gətirib çıxardı. 13 00:00:34,360 --> 00:00:37,360 Ona gətirib çıxardı ki, mən öz yataq otağımda raket yanacağı düzəltdim. 14 00:00:37,960 --> 00:00:41,616 İndi, elmi nöqteyi-nəzərdən 15 00:00:41,640 --> 00:00:44,896 biz bunu "pis fikir" adlandırırıq. 16 00:00:44,920 --> 00:00:46,136 (Gülüş) 17 00:00:46,160 --> 00:00:48,336 Təxminən həmin zaman, 18 00:00:48,360 --> 00:00:51,576 Stenli Kubrik-in "2001: Kosmik Odissey" filmi kinoteatr ekranlarına gəldi 19 00:00:51,600 --> 00:00:53,800 və mənim həyatım həmişəlik dəyişdi. 20 00:00:54,280 --> 00:00:56,336 Mən filmdəki hər şeyi sevdim, 21 00:00:56,360 --> 00:00:58,896 xüsusilə də HAL 9000-i. 22 00:00:58,920 --> 00:01:00,976 Deməli, HAL ağıllı kompüter idi. 23 00:01:01,000 --> 00:01:03,456 Discovery kosmik gəmisinə 24 00:01:03,480 --> 00:01:06,016 Yerdən Yupiterə qədər bələdçilik üçün dizayn olunmuşdu. 25 00:01:06,040 --> 00:01:08,096 HAL həmçinin qüsurlu bir personaj idi. 26 00:01:08,120 --> 00:01:12,400 Məqsəd üçün o öz missiyasını insan həyatından daha üstün tutdu. 27 00:01:12,840 --> 00:01:14,936 HAL uydurma bir personaj olsa da, 28 00:01:14,960 --> 00:01:17,616 bizim qorxularımızdan bəhs edir. 29 00:01:17,640 --> 00:01:19,736 Hansısa hissiyyatı olmayan süni intellektə 30 00:01:19,760 --> 00:01:22,776 tabe edilmə qorxularımızdan bəhs edir. 31 00:01:22,800 --> 00:01:24,760 O bizim insanlığa yad biridir. 32 00:01:25,880 --> 00:01:28,456 Bu qorxuların əsassız olduğu qənaətindəyəm. 33 00:01:28,480 --> 00:01:31,176 Biz insanlıq tarixinin gözəl bir 34 00:01:31,200 --> 00:01:32,736 zamanındayıq. 35 00:01:32,760 --> 00:01:37,736 Öz vücud və ağlımızın məhdudiyyətlərini qəbul etməyərək 36 00:01:37,760 --> 00:01:39,456 maşınlar düzəldirik. 37 00:01:39,480 --> 00:01:43,096 İncə, gözəl və qəliz maşınlar 38 00:01:43,120 --> 00:01:45,176 insanın imkanlarını düşündüyümüzdən də 39 00:01:45,200 --> 00:01:46,880 artıq genişləndirir. 40 00:01:47,720 --> 00:01:50,296 Hava Qüvvələri Akademiyasındakı 41 00:01:50,320 --> 00:01:52,256 Kosmik Əməliyyatlar fəaliyyətindən sonra 42 00:01:52,280 --> 00:01:53,976 Mən sistem mühəndisi oldum. 43 00:01:54,000 --> 00:01:56,736 Bu yaxınlarda yeni bir mühəndislik layihəsinə qoşuldum ki, 44 00:01:56,760 --> 00:01:59,336 NASA-nın Mars missiyası ilə əlaqəlidir. 45 00:01:59,360 --> 00:02:01,856 Beləliklə, Aya uçuş üçün 46 00:02:01,880 --> 00:02:05,016 biz Hyustondakı uçuşa nəzarət məntəqəsinə arxayın ola bilərik, 47 00:02:05,040 --> 00:02:07,016 uçuşun bütün aspektlərini izləyə bilərik. 48 00:02:07,040 --> 00:02:10,576 Lakin, Mars 200 dəfə daha uzaqdır 49 00:02:10,600 --> 00:02:13,816 və nəticə etibarilə bir siqnalın Yerdən Marsa çatması üçün 50 00:02:13,840 --> 00:02:16,976 orta hesabla 13 dəqiqə vaxt lazımdır. 51 00:02:17,000 --> 00:02:20,400 Hər hansı bir problem olarsa, zaman bəs etməz. 52 00:02:20,840 --> 00:02:23,336 Ona görə də uyğun bir mühəndis həlli tələb edir ki, 53 00:02:23,360 --> 00:02:25,936 Orion kosmik gəmisində 54 00:02:25,960 --> 00:02:28,976 nəzarət məntəqəsi yerləşdirək. 55 00:02:29,000 --> 00:02:31,896 Uçuş missiyasındakı başqa bir maraqlı ideya də odur ki, 56 00:02:31,920 --> 00:02:34,816 Marsın səthinə humanoid robotları göndərilsin ki, 57 00:02:34,840 --> 00:02:36,696 insanların özlərinin oraya gəlib çatmasından 58 00:02:36,720 --> 00:02:38,376 öncə şərait qursunlar 59 00:02:38,400 --> 00:02:41,760 və sonra tədqiqat komandasının üzvləri kimi çalışsınlar. 60 00:02:43,400 --> 00:02:46,136 Beləliklə, bu məsələyə mühəndis gözü ilə baxdıqda 61 00:02:46,160 --> 00:02:49,336 aydın oldu ki, mən elə bir sistem inşa etməliyəm ki, 62 00:02:49,360 --> 00:02:51,536 ağıllı, əməkdaşlıq edən, 63 00:02:51,560 --> 00:02:53,936 sosial məsuliyyətli süni intellekt olsun. 64 00:02:53,960 --> 00:02:58,256 Başqa sözlə, mən HAL-a bənzər bir şey qurmalıyam, amma 65 00:02:58,280 --> 00:03:00,696 adam öldürməyə meyli olmayan birini. 66 00:03:00,720 --> 00:03:02,080 (Gülüş) 67 00:03:02,920 --> 00:03:04,736 Bir qədər fasilə verək. 68 00:03:04,760 --> 00:03:08,656 Həqiqətən belə bir süni intellekt yaratmaq mükündürmü? 69 00:03:08,680 --> 00:03:10,136 Əslində, mümkündür. 70 00:03:10,160 --> 00:03:11,416 Ümumiyyətlə, bu qəliz 71 00:03:11,440 --> 00:03:13,416 bir mühəndislik problemidir ki, 72 00:03:13,440 --> 00:03:14,896 süni intellekt elementlərinə malikdir. 73 00:03:14,920 --> 00:03:19,616 Heç də qurulması bəsit bir süni intellekt məsələsi deyil. 74 00:03:19,640 --> 00:03:22,296 Alan Türinqdən sitat gətirsək, 75 00:03:22,320 --> 00:03:24,696 Hissiyatlı bir maşın düzəltmək fikrində deyiləm. 76 00:03:24,720 --> 00:03:26,296 Mən HAL robotu yaratmıram. 77 00:03:26,320 --> 00:03:28,736 İstədiyim yalnız sadə bir beyindir, 78 00:03:28,760 --> 00:03:31,880 nə cürsə intellektin illüziyalarını yaratsın. 79 00:03:33,000 --> 00:03:36,136 HAL ekranlara çıxandan bəri İnformatika elmi uzun 80 00:03:36,160 --> 00:03:37,656 bir yol keçmişdir. 81 00:03:37,680 --> 00:03:40,896 Təsəvvür edin onun ixtiraçısı Dr. Çandra burada olsaydı 82 00:03:40,920 --> 00:03:43,256 bizə çoxlu suallar verərdi. 83 00:03:43,280 --> 00:03:45,376 Həqiqətən də mümkündürmü ki, 84 00:03:45,400 --> 00:03:49,416 milyonlarla qurğudan ibarət bir sistem quraq və 85 00:03:49,440 --> 00:03:50,896 məlumatları oxuyaraq 86 00:03:50,920 --> 00:03:53,176 xətaları müəyyən etsin və öncədən tədbir görsün? 87 00:03:53,200 --> 00:03:54,416 Bəli. 88 00:03:54,440 --> 00:03:57,616 Elə bir sistem qura bilərik ki, insanların dilində danışsın? 89 00:03:57,640 --> 00:03:58,856 Bəli. 90 00:03:58,880 --> 00:04:01,856 Elə sistem qura bilərik ki, obyektləri tanısın, hisləri anlasın, 91 00:04:01,880 --> 00:04:05,256 öz emosiyalarını ifadə etsin, oyun oynasın və hətta dodaqlarımızı oxusun? 92 00:04:05,280 --> 00:04:06,496 Bəli. 93 00:04:06,520 --> 00:04:08,656 Elə sistem qura bilərik ki, özünə hədəflər 94 00:04:08,680 --> 00:04:12,296 qoyub onlara çatmaq üçün plan qursun və öyrənsin? 95 00:04:12,320 --> 00:04:13,536 Bəli. 96 00:04:13,560 --> 00:04:16,896 Şüuru olan sistem qura bilərik? 97 00:04:16,920 --> 00:04:18,416 Hazırda bunu öyrənirik. 98 00:04:18,440 --> 00:04:21,920 Etik və mənəvi əsasları anlayan sistem qura bilərik? 99 00:04:22,480 --> 00:04:24,520 Bunu necə edəcəyimizi öyrənməliyik. 100 00:04:25,360 --> 00:04:26,736 Bir anlığa qəbul edək ki, 101 00:04:26,760 --> 00:04:29,656 belə bir süni intellektin bu kimi missiyalar üçün 102 00:04:29,680 --> 00:04:31,816 yaradılması mümkündür. 103 00:04:31,840 --> 00:04:34,376 Özünüzə verəcəyiniz növbəti sual belədir ki, 104 00:04:34,400 --> 00:04:35,856 biz bundan qorxmalıyıqmı? 105 00:04:35,880 --> 00:04:37,856 Ümumiyyətlə, hər bir yeni texnologiya 106 00:04:37,880 --> 00:04:40,776 özü ilə müəyyən qədər narahatlıq gətirir. 107 00:04:40,800 --> 00:04:42,496 İlk dəfə avtomobilləri görəndə 108 00:04:42,520 --> 00:04:46,536 insanlar narahatçılıq keçirdilər ki, ailələr dağılacaq. 109 00:04:46,560 --> 00:04:49,256 Biz ilk dəfə telefonları görəndə insanlar 110 00:04:49,280 --> 00:04:52,176 narahat oldular ki, bütün insan müzakirələrini məhv edəcək. 111 00:04:52,200 --> 00:04:56,136 Nə vaxtsa gördük ki, yazı kəşf edildi 112 00:04:56,160 --> 00:04:58,656 insanlar hafizələrinin itəcəyini düşündülər. 113 00:04:58,680 --> 00:05:00,736 Bütün bunlar müəyyən dərəcədə həqiqətdir, 114 00:05:00,760 --> 00:05:03,176 amma eyni zamanda, bu texnologiyalar 115 00:05:03,200 --> 00:05:06,576 özləri ilə müəyyən mənada imkanlarımızı 116 00:05:06,600 --> 00:05:08,480 genişləndirən şeylərə gətirib çıxardı. 117 00:05:09,840 --> 00:05:12,120 Bir az da irəli gedək. 118 00:05:13,120 --> 00:05:17,856 Mən bu cür Sİ yaradılmasından qorxmuram, 119 00:05:17,880 --> 00:05:21,696 çünki zamanla bizim bəzi dəyərlərimizi təcəssüm etdirəcək. 120 00:05:21,720 --> 00:05:25,216 Bunu düşünün: süni intellekt sistemi yaratmaq fundamental olaraq 121 00:05:25,240 --> 00:05:28,536 ənənəvi proqram təminatı sistemləri yaratmaqdan fərqlidir. 122 00:05:28,560 --> 00:05:31,016 Biz onları proqramlaşdırmırıq. Onları öyrədirik. 123 00:05:31,040 --> 00:05:33,696 Sistemin çiçəkləri tanıması üçün 124 00:05:33,720 --> 00:05:36,736 ona xoşladığım minlərlə çiçək göstərməliyəm. 125 00:05:36,760 --> 00:05:39,016 Sistemə oyun oynamağı öyrətmək üçün -- 126 00:05:39,040 --> 00:05:41,000 Bəli, edərdim. Elə siz də edərdiniz. 127 00:05:42,600 --> 00:05:44,640 Mən gülləri sevirəm. Yaxşı görək. 128 00:05:45,440 --> 00:05:48,296 Sistemi Go oyununu oynamağı öyrətmək üçün 129 00:05:48,320 --> 00:05:50,376 mən min dəfələrlə Go oyunu oynamalıyam. 130 00:05:50,400 --> 00:05:52,056 Eyni zamanda öyrənmə vaxtı 131 00:05:52,080 --> 00:05:54,496 izah etməliyəm ki, yaxşı və pis oyunu necə ayırsın. 132 00:05:54,520 --> 00:05:58,216 Əgər mən süni intellektli hüquq məsləhətçisi yaratmaq istəsəm, 133 00:05:58,240 --> 00:06:00,016 mən ona qanunvericiliyi öyrədəcəm. 134 00:06:00,040 --> 00:06:02,896 Eyni zamanda öyrədəcəyim həm də 135 00:06:02,920 --> 00:06:05,800 mərhəmət və ədalətdir ki, bu da hüququn bir hissəsidir. 136 00:06:06,560 --> 00:06:09,536 Elmi olaraq, buna əsas istinad həqiqətləri deyirik. 137 00:06:09,560 --> 00:06:11,576 Burada əsas məqam odur ki: 138 00:06:11,600 --> 00:06:13,056 onları yaradan zaman 139 00:06:13,080 --> 00:06:16,496 biz onlara öz dəyərlərimizi də aşılayırıq. 140 00:06:16,520 --> 00:06:19,656 Bu səbəbdən mən süni intellektə inanıram. 141 00:06:19,680 --> 00:06:23,320 Çox da yox, amma yaxşı öyrədilmiş bir insan kimi. 142 00:06:24,080 --> 00:06:25,296 Soruşa bilərsiniz ki, 143 00:06:25,320 --> 00:06:27,936 bəs yaramaz casuslar, 144 00:06:27,960 --> 00:06:31,296 maliyyələşdirilmiş bəzi qeyri-hökumət təşkilatları necə? 145 00:06:31,320 --> 00:06:35,136 Belə tənhaların əlində olan süni intellektdən qorxmuram. 146 00:06:35,160 --> 00:06:39,696 Daha dəqiq desək, biz özümüzü bütün təsadüfi zorakılıqlardan qoruya bilmərik. 147 00:06:39,720 --> 00:06:41,856 Həqiqət ondan ibarətdir ki, belə bir sistem 148 00:06:41,880 --> 00:06:44,976 fərdi resurslardan qat-qat artıq olan 149 00:06:45,000 --> 00:06:47,296 əsaslı təlim və ciddi hazırlıq tələb edir. 150 00:06:47,320 --> 00:06:48,536 Həm də bu, 151 00:06:48,560 --> 00:06:51,816 dünyaya bir internet virusunu yoluxdurmağa oxşar bir şey deyil. 152 00:06:51,840 --> 00:06:54,936 Necə ki, bir düyməyə basmaqla milyonlarla yerə yayılsın 153 00:06:54,960 --> 00:06:57,416 və laptoplar hər yerdə partlamağa başlasın. 154 00:06:57,440 --> 00:07:00,256 Bu cür şeylər daha qlobaldır 155 00:07:00,280 --> 00:07:01,995 və zamanla biz onlarla tanış olacağıq. 156 00:07:02,520 --> 00:07:05,576 Elə bir süni intellektdən qorxurammı ki, 157 00:07:05,600 --> 00:07:07,560 o insanlığa təhlükə yarada bilər? 158 00:07:08,280 --> 00:07:12,656 "Matrix", "Metropolis", "Terminator" kimi filmlərdə və ya 159 00:07:12,680 --> 00:07:15,856 "Westworld" kimi seriallarda bu kimi 160 00:07:15,880 --> 00:07:18,016 qorxudan bəhs edilir. 161 00:07:18,040 --> 00:07:22,336 Təbii ki, filosof Nik Bostromun "Superinellekt" kitabında 162 00:07:22,360 --> 00:07:23,896 bunlardan bəhs edilir 163 00:07:23,920 --> 00:07:27,936 və o, superintellektin yalnız təhlükəli olduğunu deyil, 164 00:07:27,960 --> 00:07:31,816 hətta insan varlığına böyük təhlükə gətirə biləcəyini qeyd edir. 165 00:07:31,840 --> 00:07:34,056 Dr. Bostrumun əsas arqumenti odur ki, 166 00:07:34,080 --> 00:07:36,816 bu cür sistemlərdə zamanla 167 00:07:36,840 --> 00:07:40,096 elə informasiyalara hərislik yaranacaq ki, 168 00:07:40,120 --> 00:07:43,016 onlar öyrənməyi də öyrənəcəklər 169 00:07:43,040 --> 00:07:45,656 və zamanla anlayacaqlar ki, onların hədəfləri 170 00:07:45,680 --> 00:07:47,976 insanların əleyhinə ola bilər. 171 00:07:48,000 --> 00:07:49,856 Dr. Bostromun çoxlu izləyiciləri var. 172 00:07:49,880 --> 00:07:54,200 Onu Elon Musk və Stiven Haukinq kimi şəxslər də izləyir. 173 00:07:54,880 --> 00:07:57,280 Bu şəxslərə dərin hörmətim var. 174 00:07:58,160 --> 00:08:00,176 Buna baxmayaraq inanıram ki, 175 00:08:00,200 --> 00:08:02,456 onlar fundamental olaraq səhv edirlər. 176 00:08:02,480 --> 00:08:05,656 Dr. Bostromun bir çox arqumentlərini sadalamaq olardı, 177 00:08:05,680 --> 00:08:07,816 amma buna mənim indi vaxtım çatmaz. 178 00:08:07,840 --> 00:08:10,536 Ümumi olaraq onu deyim ki: 179 00:08:10,560 --> 00:08:14,296 super bilik və super bacarıq tamam fərqli şeylərdir. 180 00:08:14,320 --> 00:08:16,216 HAL Discovery heyəti üçün təhlükə idi 181 00:08:16,240 --> 00:08:20,656 çünki HAL Discoverinin bütün idarəsinə məsul idi. 182 00:08:20,680 --> 00:08:23,176 Superintellekt ilə də belədir. 183 00:08:23,200 --> 00:08:25,696 Bütün dünyanı nəzarətinə götürməli idi. 184 00:08:25,720 --> 00:08:28,536 Bu eynilə "Terminator" filmindəki Skynetdir. 185 00:08:28,560 --> 00:08:30,416 O superintellekt 186 00:08:30,440 --> 00:08:31,816 insanları idarə edirdi, 187 00:08:31,840 --> 00:08:35,696 bütün dünyada olan hər bir qurğunu idarə edirdi. 188 00:08:35,720 --> 00:08:37,176 Praktiki baxımdan, 189 00:08:37,200 --> 00:08:39,296 bu baş verməyəcək. 190 00:08:39,320 --> 00:08:42,376 Biz elə bir Sİ yaratmırıq ki, havanı idarə etsin, 191 00:08:42,400 --> 00:08:43,736 axınları yönləndirsin, 192 00:08:43,760 --> 00:08:47,136 bizim kimi, nazlı, xaotik insanları idarə etsin. 193 00:08:47,160 --> 00:08:51,056 Hətta, əgər belə bir Sİ olsaydı, 194 00:08:51,080 --> 00:08:54,016 o, insan iqtisadiyyatı ilə rəqabətə girməli olardı 195 00:08:54,040 --> 00:08:56,560 və bizimlə resurslar uğrunda yarışardı. 196 00:08:57,200 --> 00:08:58,416 Sonda onu deyim ki, -- 197 00:08:58,440 --> 00:08:59,680 bunu Siri-yə söyləməyin -- 198 00:09:00,440 --> 00:09:01,816 biz hər zaman onları söndürə bilərik. 199 00:09:01,840 --> 00:09:03,960 (Gülüş) 200 00:09:05,360 --> 00:09:07,816 Biz öz maşınlarımızla birgə 201 00:09:07,840 --> 00:09:10,336 həyəcanlı bir səyahətdəyik. 202 00:09:10,360 --> 00:09:12,856 Bu günkü insanlar 203 00:09:12,880 --> 00:09:15,416 gələcəkdəkilər kimi deyil. 204 00:09:15,440 --> 00:09:18,576 Superintellektin yüksəlişi barədə hazırda narahat olmaq 205 00:09:18,600 --> 00:09:21,656 təhlükəli bir fikir dağınıqlığıdır. 206 00:09:21,680 --> 00:09:24,016 Çünki kompüterləşmənin yüksəlişi 207 00:09:24,040 --> 00:09:27,056 özü ilə ilə birgə çoxlu fərdi və sosial suallar gətirir ki, 208 00:09:27,080 --> 00:09:28,720 biz onları indi həll etməliyik. 209 00:09:29,360 --> 00:09:32,176 İnsan əməyinə tələbat azaldığı halda 210 00:09:32,200 --> 00:09:34,536 cəmiyyəti necə idarə edəcəyik? 211 00:09:34,560 --> 00:09:38,376 Anlayışı və təhsili bütün dünyaya necə aşılayaq və eyni zamanda 212 00:09:38,400 --> 00:09:40,176 fərqliliklərimizə də hörmət edək? 213 00:09:40,200 --> 00:09:44,456 Zehni səhiyyə ilə insan həyatını necə uzadaq və yaxşılaşdıraq? 214 00:09:44,480 --> 00:09:47,336 İnformatikanı necə istifadə edək ki, 215 00:09:47,360 --> 00:09:49,120 bizi ulduzlara aparsın? 216 00:09:49,760 --> 00:09:51,800 Bu çox həyəcanvericidir. 217 00:09:52,400 --> 00:09:54,736 İnformatikanın insan həyatını 218 00:09:54,760 --> 00:09:56,296 yaxşılaşdırmaq üçün imkanları 219 00:09:56,320 --> 00:09:57,736 bizim əlimizdədir. 220 00:09:57,760 --> 00:09:59,616 Bu gün və burada. 221 00:09:59,640 --> 00:10:01,320 Biz hələ başlanğıcdayıq. 222 00:10:02,280 --> 00:10:03,496 Təşəkkür edirəm. 223 00:10:03,520 --> 00:10:07,806 (Alqışlar)