WEBVTT 00:00:00.760 --> 00:00:04.600 Mən uşaq ikən, hədsiz dərəcədə "nerd" idim. 00:00:05.320 --> 00:00:07.496 Düşünürəm ki, elə bəziləriniz də. NOTE Paragraph 00:00:07.520 --> 00:00:08.736 (Gülüş) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 Və siz, yüksəkdən gülən cənab, böyük ehtimal hələ də eləsiniz. NOTE Paragraph 00:00:12.000 --> 00:00:14.256 (Gülüş) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 Mən Teksasın şimalında tozlu düzənliklərdə yerləşən kiçik qəsəbədə böyümüşəm. 00:00:17.800 --> 00:00:21.136 Babam keşiş, atam isə şerif idi. 00:00:21.160 --> 00:00:23.080 Başıma dərd açmaq kimi bir seçimim yox idi. 00:00:24.040 --> 00:00:27.296 Ona görə də məzə üçün riyaziyyat kitablarını oxumağa başladım. NOTE Paragraph 00:00:27.320 --> 00:00:28.856 (Gülüş) NOTE Paragraph 00:00:28.880 --> 00:00:30.576 Siz də elə etmisiniz. 00:00:30.600 --> 00:00:34.336 Bu mənim lazer, kompüter və raket modelləri düzəltməyimə gətirib çıxardı. 00:00:34.360 --> 00:00:37.360 Ona gətirib çıxardı ki, mən öz yataq otağımda raket yanacağı düzəltdim. 00:00:37.960 --> 00:00:41.616 İndi, elmi nöqteyi-nəzərdən 00:00:41.640 --> 00:00:44.896 biz bunu "pis fikir" adlandırırıq. NOTE Paragraph 00:00:44.920 --> 00:00:46.136 (Gülüş) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 Təxminən həmin zaman, 00:00:48.360 --> 00:00:51.576 Stenli Kubrik-in "2001: Kosmik Odissey" filmi kinoteatr ekranlarına gəldi 00:00:51.600 --> 00:00:53.800 və mənim həyatım həmişəlik dəyişdi. 00:00:54.280 --> 00:00:56.336 Mən filmdəki hər şeyi sevdim, 00:00:56.360 --> 00:00:58.896 xüsusilə də HAL 9000-i. 00:00:58.920 --> 00:01:00.976 Deməli, HAL ağıllı kompüter idi. 00:01:01.000 --> 00:01:03.456 Discovery kosmik gəmisinə 00:01:03.480 --> 00:01:06.016 Yerdən Yupiterə qədər bələdçilik üçün dizayn olunmuşdu. 00:01:06.040 --> 00:01:08.096 HAL həmçinin qüsurlu bir personaj idi. 00:01:08.120 --> 00:01:12.400 Məqsəd üçün o öz missiyasını insan həyatından daha üstün tutdu. 00:01:12.840 --> 00:01:14.936 HAL uydurma bir personaj olsa da, 00:01:14.960 --> 00:01:17.616 bizim qorxularımızdan bəhs edir. 00:01:17.640 --> 00:01:19.736 Hansısa hissiyyatı olmayan süni intellektə 00:01:19.760 --> 00:01:22.776 tabe edilmə qorxularımızdan bəhs edir. 00:01:22.800 --> 00:01:24.760 O bizim insanlığa yad biridir. NOTE Paragraph 00:01:25.880 --> 00:01:28.456 Bu qorxuların əsassız olduğu qənaətindəyəm. 00:01:28.480 --> 00:01:31.176 Biz insanlıq tarixinin gözəl bir 00:01:31.200 --> 00:01:32.736 zamanındayıq. 00:01:32.760 --> 00:01:37.736 Öz vücud və ağlımızın məhdudiyyətlərini qəbul etməyərək 00:01:37.760 --> 00:01:39.456 maşınlar düzəldirik. 00:01:39.480 --> 00:01:43.096 İncə, gözəl və qəliz maşınlar 00:01:43.120 --> 00:01:45.176 insanın imkanlarını düşündüyümüzdən də 00:01:45.200 --> 00:01:46.880 artıq genişləndirir. NOTE Paragraph 00:01:47.720 --> 00:01:50.296 Hava Qüvvələri Akademiyasındakı 00:01:50.320 --> 00:01:52.256 Kosmik Əməliyyatlar fəaliyyətindən sonra 00:01:52.280 --> 00:01:53.976 Mən sistem mühəndisi oldum. 00:01:54.000 --> 00:01:56.736 Bu yaxınlarda yeni bir mühəndislik layihəsinə qoşuldum ki, 00:01:56.760 --> 00:01:59.336 NASA-nın Mars missiyası ilə əlaqəlidir. 00:01:59.360 --> 00:02:01.856 Beləliklə, Aya uçuş üçün 00:02:01.880 --> 00:02:05.016 biz Hyustondakı uçuşa nəzarət məntəqəsinə arxayın ola bilərik, 00:02:05.040 --> 00:02:07.016 uçuşun bütün aspektlərini izləyə bilərik. 00:02:07.040 --> 00:02:10.576 Lakin, Mars 200 dəfə daha uzaqdır 00:02:10.600 --> 00:02:13.816 və nəticə etibarilə bir siqnalın Yerdən Marsa çatması üçün 00:02:13.840 --> 00:02:16.976 orta hesabla 13 dəqiqə vaxt lazımdır. 00:02:17.000 --> 00:02:20.400 Hər hansı bir problem olarsa, zaman bəs etməz. 00:02:20.840 --> 00:02:23.336 Ona görə də uyğun bir mühəndis həlli tələb edir ki, 00:02:23.360 --> 00:02:25.936 Orion kosmik gəmisində 00:02:25.960 --> 00:02:28.976 nəzarət məntəqəsi yerləşdirək. 00:02:29.000 --> 00:02:31.896 Uçuş missiyasındakı başqa bir maraqlı ideya də odur ki, 00:02:31.920 --> 00:02:34.816 Marsın səthinə humanoid robotları göndərilsin ki, 00:02:34.840 --> 00:02:36.696 insanların özlərinin oraya gəlib çatmasından 00:02:36.720 --> 00:02:38.376 öncə şərait qursunlar 00:02:38.400 --> 00:02:41.760 və sonra tədqiqat komandasının üzvləri kimi çalışsınlar. NOTE Paragraph 00:02:43.400 --> 00:02:46.136 Beləliklə, bu məsələyə mühəndis gözü ilə baxdıqda 00:02:46.160 --> 00:02:49.336 aydın oldu ki, mən elə bir sistem inşa etməliyəm ki, 00:02:49.360 --> 00:02:51.536 ağıllı, əməkdaşlıq edən, 00:02:51.560 --> 00:02:53.936 sosial məsuliyyətli süni intellekt olsun. 00:02:53.960 --> 00:02:58.256 Başqa sözlə, mən HAL-a bənzər bir şey qurmalıyam, amma 00:02:58.280 --> 00:03:00.696 adam öldürməyə meyli olmayan birini. NOTE Paragraph 00:03:00.720 --> 00:03:02.080 (Gülüş) NOTE Paragraph 00:03:02.920 --> 00:03:04.736 Bir qədər fasilə verək. 00:03:04.760 --> 00:03:08.656 Həqiqətən belə bir süni intellekt yaratmaq mükündürmü? 00:03:08.680 --> 00:03:10.136 Əslində, mümkündür. 00:03:10.160 --> 00:03:11.416 Ümumiyyətlə, bu qəliz 00:03:11.440 --> 00:03:13.416 bir mühəndislik problemidir ki, 00:03:13.440 --> 00:03:14.896 süni intellekt elementlərinə malikdir. 00:03:14.920 --> 00:03:19.616 Heç də qurulması bəsit bir süni intellekt məsələsi deyil. 00:03:19.640 --> 00:03:22.296 Alan Türinqdən sitat gətirsək, 00:03:22.320 --> 00:03:24.696 Hissiyatlı bir maşın düzəltmək fikrində deyiləm. 00:03:24.720 --> 00:03:26.296 Mən HAL robotu yaratmıram. 00:03:26.320 --> 00:03:28.736 İstədiyim yalnız sadə bir beyindir, 00:03:28.760 --> 00:03:31.880 nə cürsə intellektin illüziyalarını yaratsın. NOTE Paragraph 00:03:33.000 --> 00:03:36.136 HAL ekranlara çıxandan bəri İnformatika elmi uzun 00:03:36.160 --> 00:03:37.656 bir yol keçmişdir. 00:03:37.680 --> 00:03:40.896 Təsəvvür edin onun ixtiraçısı Dr. Çandra burada olsaydı 00:03:40.920 --> 00:03:43.256 bizə çoxlu suallar verərdi. 00:03:43.280 --> 00:03:45.376 Həqiqətən də mümkündürmü ki, 00:03:45.400 --> 00:03:49.416 milyonlarla qurğudan ibarət bir sistem quraq və 00:03:49.440 --> 00:03:50.896 məlumatları oxuyaraq 00:03:50.920 --> 00:03:53.176 xətaları müəyyən etsin və öncədən tədbir görsün? 00:03:53.200 --> 00:03:54.416 Bəli. 00:03:54.440 --> 00:03:57.616 Elə bir sistem qura bilərik ki, insanların dilində danışsın? 00:03:57.640 --> 00:03:58.856 Bəli. 00:03:58.880 --> 00:04:01.856 Elə sistem qura bilərik ki, obyektləri tanısın, hisləri anlasın, 00:04:01.880 --> 00:04:05.256 öz emosiyalarını ifadə etsin, oyun oynasın və hətta dodaqlarımızı oxusun? 00:04:05.280 --> 00:04:06.496 Bəli. 00:04:06.520 --> 00:04:08.656 Elə sistem qura bilərik ki, özünə hədəflər 00:04:08.680 --> 00:04:12.296 qoyub onlara çatmaq üçün plan qursun və öyrənsin? 00:04:12.320 --> 00:04:13.536 Bəli. 00:04:13.560 --> 00:04:16.896 Şüuru olan sistem qura bilərik? 00:04:16.920 --> 00:04:18.416 Hazırda bunu öyrənirik. 00:04:18.440 --> 00:04:21.920 Etik və mənəvi əsasları anlayan sistem qura bilərik? 00:04:22.480 --> 00:04:24.520 Bunu necə edəcəyimizi öyrənməliyik. 00:04:25.360 --> 00:04:26.736 Bir anlığa qəbul edək ki, 00:04:26.760 --> 00:04:29.656 belə bir süni intellektin bu kimi missiyalar üçün 00:04:29.680 --> 00:04:31.816 yaradılması mümkündür. NOTE Paragraph 00:04:31.840 --> 00:04:34.376 Özünüzə verəcəyiniz növbəti sual belədir ki, 00:04:34.400 --> 00:04:35.856 biz bundan qorxmalıyıqmı? 00:04:35.880 --> 00:04:37.856 Ümumiyyətlə, hər bir yeni texnologiya 00:04:37.880 --> 00:04:40.776 özü ilə müəyyən qədər narahatlıq gətirir. 00:04:40.800 --> 00:04:42.496 İlk dəfə avtomobilləri görəndə 00:04:42.520 --> 00:04:46.536 insanlar narahatçılıq keçirdilər ki, ailələr dağılacaq. 00:04:46.560 --> 00:04:49.256 Biz ilk dəfə telefonları görəndə insanlar 00:04:49.280 --> 00:04:52.176 narahat oldular ki, bütün insan müzakirələrini məhv edəcək. 00:04:52.200 --> 00:04:56.136 Nə vaxtsa gördük ki, yazı kəşf edildi 00:04:56.160 --> 00:04:58.656 insanlar hafizələrinin itəcəyini düşündülər. 00:04:58.680 --> 00:05:00.736 Bütün bunlar müəyyən dərəcədə həqiqətdir, 00:05:00.760 --> 00:05:03.176 amma eyni zamanda, bu texnologiyalar 00:05:03.200 --> 00:05:06.576 özləri ilə müəyyən mənada imkanlarımızı 00:05:06.600 --> 00:05:08.480 genişləndirən şeylərə gətirib çıxardı. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 Bir az da irəli gedək. 00:05:13.120 --> 00:05:17.856 Mən bu cür Sİ yaradılmasından qorxmuram, 00:05:17.880 --> 00:05:21.696 çünki zamanla bizim bəzi dəyərlərimizi təcəssüm etdirəcək. 00:05:21.720 --> 00:05:25.216 Bunu düşünün: süni intellekt sistemi yaratmaq fundamental olaraq 00:05:25.240 --> 00:05:28.536 ənənəvi proqram təminatı sistemləri yaratmaqdan fərqlidir. 00:05:28.560 --> 00:05:31.016 Biz onları proqramlaşdırmırıq. Onları öyrədirik. 00:05:31.040 --> 00:05:33.696 Sistemin çiçəkləri tanıması üçün 00:05:33.720 --> 00:05:36.736 ona xoşladığım minlərlə çiçək göstərməliyəm. 00:05:36.760 --> 00:05:39.016 Sistemə oyun oynamağı öyrətmək üçün -- 00:05:39.040 --> 00:05:41.000 Bəli, edərdim. Elə siz də edərdiniz. 00:05:42.600 --> 00:05:44.640 Mən gülləri sevirəm. Yaxşı görək. 00:05:45.440 --> 00:05:48.296 Sistemi Go oyununu oynamağı öyrətmək üçün 00:05:48.320 --> 00:05:50.376 mən min dəfələrlə Go oyunu oynamalıyam. 00:05:50.400 --> 00:05:52.056 Eyni zamanda öyrənmə vaxtı 00:05:52.080 --> 00:05:54.496 izah etməliyəm ki, yaxşı və pis oyunu necə ayırsın. 00:05:54.520 --> 00:05:58.216 Əgər mən süni intellektli hüquq məsləhətçisi yaratmaq istəsəm, 00:05:58.240 --> 00:06:00.016 mən ona qanunvericiliyi öyrədəcəm. 00:06:00.040 --> 00:06:02.896 Eyni zamanda öyrədəcəyim həm də 00:06:02.920 --> 00:06:05.800 mərhəmət və ədalətdir ki, bu da hüququn bir hissəsidir. 00:06:06.560 --> 00:06:09.536 Elmi olaraq, buna əsas istinad həqiqətləri deyirik. 00:06:09.560 --> 00:06:11.576 Burada əsas məqam odur ki: 00:06:11.600 --> 00:06:13.056 onları yaradan zaman 00:06:13.080 --> 00:06:16.496 biz onlara öz dəyərlərimizi də aşılayırıq. 00:06:16.520 --> 00:06:19.656 Bu səbəbdən mən süni intellektə inanıram. 00:06:19.680 --> 00:06:23.320 Çox da yox, amma yaxşı öyrədilmiş bir insan kimi. NOTE Paragraph 00:06:24.080 --> 00:06:25.296 Soruşa bilərsiniz ki, 00:06:25.320 --> 00:06:27.936 bəs yaramaz casuslar, 00:06:27.960 --> 00:06:31.296 maliyyələşdirilmiş bəzi qeyri-hökumət təşkilatları necə? 00:06:31.320 --> 00:06:35.136 Belə tənhaların əlində olan süni intellektdən qorxmuram. 00:06:35.160 --> 00:06:39.696 Daha dəqiq desək, biz özümüzü bütün təsadüfi zorakılıqlardan qoruya bilmərik. 00:06:39.720 --> 00:06:41.856 Həqiqət ondan ibarətdir ki, belə bir sistem 00:06:41.880 --> 00:06:44.976 fərdi resurslardan qat-qat artıq olan 00:06:45.000 --> 00:06:47.296 əsaslı təlim və ciddi hazırlıq tələb edir. 00:06:47.320 --> 00:06:48.536 Həm də bu, 00:06:48.560 --> 00:06:51.816 dünyaya bir internet virusunu yoluxdurmağa oxşar bir şey deyil. 00:06:51.840 --> 00:06:54.936 Necə ki, bir düyməyə basmaqla milyonlarla yerə yayılsın 00:06:54.960 --> 00:06:57.416 və laptoplar hər yerdə partlamağa başlasın. 00:06:57.440 --> 00:07:00.256 Bu cür şeylər daha qlobaldır 00:07:00.280 --> 00:07:01.995 və zamanla biz onlarla tanış olacağıq. NOTE Paragraph 00:07:02.520 --> 00:07:05.576 Elə bir süni intellektdən qorxurammı ki, 00:07:05.600 --> 00:07:07.560 o insanlığa təhlükə yarada bilər? 00:07:08.280 --> 00:07:12.656 "Matrix", "Metropolis", "Terminator" kimi filmlərdə və ya 00:07:12.680 --> 00:07:15.856 "Westworld" kimi seriallarda bu kimi 00:07:15.880 --> 00:07:18.016 qorxudan bəhs edilir. 00:07:18.040 --> 00:07:22.336 Təbii ki, filosof Nik Bostromun "Superinellekt" kitabında 00:07:22.360 --> 00:07:23.896 bunlardan bəhs edilir 00:07:23.920 --> 00:07:27.936 və o, superintellektin yalnız təhlükəli olduğunu deyil, 00:07:27.960 --> 00:07:31.816 hətta insan varlığına böyük təhlükə gətirə biləcəyini qeyd edir. 00:07:31.840 --> 00:07:34.056 Dr. Bostrumun əsas arqumenti odur ki, 00:07:34.080 --> 00:07:36.816 bu cür sistemlərdə zamanla 00:07:36.840 --> 00:07:40.096 elə informasiyalara hərislik yaranacaq ki, 00:07:40.120 --> 00:07:43.016 onlar öyrənməyi də öyrənəcəklər 00:07:43.040 --> 00:07:45.656 və zamanla anlayacaqlar ki, onların hədəfləri 00:07:45.680 --> 00:07:47.976 insanların əleyhinə ola bilər. 00:07:48.000 --> 00:07:49.856 Dr. Bostromun çoxlu izləyiciləri var. 00:07:49.880 --> 00:07:54.200 Onu Elon Musk və Stiven Haukinq kimi şəxslər də izləyir. 00:07:54.880 --> 00:07:57.280 Bu şəxslərə dərin hörmətim var. 00:07:58.160 --> 00:08:00.176 Buna baxmayaraq inanıram ki, 00:08:00.200 --> 00:08:02.456 onlar fundamental olaraq səhv edirlər. 00:08:02.480 --> 00:08:05.656 Dr. Bostromun bir çox arqumentlərini sadalamaq olardı, 00:08:05.680 --> 00:08:07.816 amma buna mənim indi vaxtım çatmaz. 00:08:07.840 --> 00:08:10.536 Ümumi olaraq onu deyim ki: 00:08:10.560 --> 00:08:14.296 super bilik və super bacarıq tamam fərqli şeylərdir. 00:08:14.320 --> 00:08:16.216 HAL Discovery heyəti üçün təhlükə idi 00:08:16.240 --> 00:08:20.656 çünki HAL Discoverinin bütün idarəsinə məsul idi. 00:08:20.680 --> 00:08:23.176 Superintellekt ilə də belədir. 00:08:23.200 --> 00:08:25.696 Bütün dünyanı nəzarətinə götürməli idi. 00:08:25.720 --> 00:08:28.536 Bu eynilə "Terminator" filmindəki Skynetdir. 00:08:28.560 --> 00:08:30.416 O superintellekt 00:08:30.440 --> 00:08:31.816 insanları idarə edirdi, 00:08:31.840 --> 00:08:35.696 bütün dünyada olan hər bir qurğunu idarə edirdi. 00:08:35.720 --> 00:08:37.176 Praktiki baxımdan, 00:08:37.200 --> 00:08:39.296 bu baş verməyəcək. 00:08:39.320 --> 00:08:42.376 Biz elə bir Sİ yaratmırıq ki, havanı idarə etsin, 00:08:42.400 --> 00:08:43.736 axınları yönləndirsin, 00:08:43.760 --> 00:08:47.136 bizim kimi, nazlı, xaotik insanları idarə etsin. 00:08:47.160 --> 00:08:51.056 Hətta, əgər belə bir Sİ olsaydı, 00:08:51.080 --> 00:08:54.016 o, insan iqtisadiyyatı ilə rəqabətə girməli olardı 00:08:54.040 --> 00:08:56.560 və bizimlə resurslar uğrunda yarışardı. 00:08:57.200 --> 00:08:58.416 Sonda onu deyim ki, -- 00:08:58.440 --> 00:08:59.680 bunu Siri-yə söyləməyin -- 00:09:00.440 --> 00:09:01.816 biz hər zaman onları söndürə bilərik. NOTE Paragraph 00:09:01.840 --> 00:09:03.960 (Gülüş) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 Biz öz maşınlarımızla birgə 00:09:07.840 --> 00:09:10.336 həyəcanlı bir səyahətdəyik. 00:09:10.360 --> 00:09:12.856 Bu günkü insanlar 00:09:12.880 --> 00:09:15.416 gələcəkdəkilər kimi deyil. 00:09:15.440 --> 00:09:18.576 Superintellektin yüksəlişi barədə hazırda narahat olmaq 00:09:18.600 --> 00:09:21.656 təhlükəli bir fikir dağınıqlığıdır. 00:09:21.680 --> 00:09:24.016 Çünki kompüterləşmənin yüksəlişi 00:09:24.040 --> 00:09:27.056 özü ilə ilə birgə çoxlu fərdi və sosial suallar gətirir ki, 00:09:27.080 --> 00:09:28.720 biz onları indi həll etməliyik. 00:09:29.360 --> 00:09:32.176 İnsan əməyinə tələbat azaldığı halda 00:09:32.200 --> 00:09:34.536 cəmiyyəti necə idarə edəcəyik? 00:09:34.560 --> 00:09:38.376 Anlayışı və təhsili bütün dünyaya necə aşılayaq və eyni zamanda 00:09:38.400 --> 00:09:40.176 fərqliliklərimizə də hörmət edək? 00:09:40.200 --> 00:09:44.456 Zehni səhiyyə ilə insan həyatını necə uzadaq və yaxşılaşdıraq? 00:09:44.480 --> 00:09:47.336 İnformatikanı necə istifadə edək ki, 00:09:47.360 --> 00:09:49.120 bizi ulduzlara aparsın? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 Bu çox həyəcanvericidir. 00:09:52.400 --> 00:09:54.736 İnformatikanın insan həyatını 00:09:54.760 --> 00:09:56.296 yaxşılaşdırmaq üçün imkanları 00:09:56.320 --> 00:09:57.736 bizim əlimizdədir. 00:09:57.760 --> 00:09:59.616 Bu gün və burada. 00:09:59.640 --> 00:10:01.320 Biz hələ başlanğıcdayıq. NOTE Paragraph 00:10:02.280 --> 00:10:03.496 Təşəkkür edirəm. NOTE Paragraph 00:10:03.520 --> 00:10:07.806 (Alqışlar)