Return to Video

Süni İntellektdən qorxmayın

  • 0:01 - 0:05
    Mən uşaq ikən,
    hədsiz dərəcədə "nerd" idim.
  • 0:05 - 0:07
    Düşünürəm ki, elə bəziləriniz də.
  • 0:08 - 0:09
    (Gülüş)
  • 0:09 - 0:12
    Və siz, yüksəkdən gülən cənab, böyük ehtimal
    hələ də eləsiniz.
  • 0:12 - 0:14
    (Gülüş)
  • 0:14 - 0:18
    Mən Teksasın şimalında tozlu düzənliklərdə
    yerləşən kiçik qəsəbədə böyümüşəm.
  • 0:18 - 0:21
    Babam keşiş, atam isə şerif idi.
  • 0:21 - 0:23
    Başıma dərd açmaq kimi bir seçimim yox idi.
  • 0:24 - 0:27
    Ona görə də məzə üçün riyaziyyat kitablarını oxumağa başladım.
  • 0:27 - 0:29
    (Gülüş)
  • 0:29 - 0:31
    Siz də elə etmisiniz.
  • 0:31 - 0:34
    Bu mənim lazer, kompüter və raket modelləri düzəltməyimə gətirib çıxardı.
  • 0:34 - 0:37
    Ona gətirib çıxardı ki, mən öz yataq otağımda raket yanacağı düzəltdim.
  • 0:38 - 0:42
    İndi, elmi nöqteyi-nəzərdən
  • 0:42 - 0:45
    biz bunu "pis fikir" adlandırırıq.
  • 0:45 - 0:46
    (Gülüş)
  • 0:46 - 0:48
    Təxminən həmin zaman,
  • 0:48 - 0:52
    Stenli Kubrik-in "2001: Kosmik Odissey" filmi
    kinoteatr ekranlarına gəldi
  • 0:52 - 0:54
    və mənim həyatım həmişəlik dəyişdi.
  • 0:54 - 0:56
    Mən filmdəki hər şeyi sevdim,
  • 0:56 - 0:59
    xüsusilə də HAL 9000-i.
  • 0:59 - 1:01
    Deməli, HAL ağıllı kompüter idi.
  • 1:01 - 1:03
    Discovery kosmik gəmisinə
  • 1:03 - 1:06
    Yerdən Yupiterə qədər bələdçilik üçün dizayn olunmuşdu.
  • 1:06 - 1:08
    HAL həmçinin qüsurlu bir personaj idi.
  • 1:08 - 1:12
    Məqsəd üçün o öz missiyasını insan
    həyatından daha üstün tutdu.
  • 1:13 - 1:15
    HAL uydurma bir personaj olsa da,
  • 1:15 - 1:18
    bizim qorxularımızdan bəhs edir.
  • 1:18 - 1:20
    Hansısa hissiyyatı olmayan süni intellektə
  • 1:20 - 1:23
    tabe edilmə qorxularımızdan bəhs edir.
  • 1:23 - 1:25
    O bizim insanlığa yad biridir.
  • 1:26 - 1:28
    Bu qorxuların əsassız olduğu qənaətindəyəm.
  • 1:28 - 1:31
    Biz insanlıq tarixinin gözəl bir
  • 1:31 - 1:33
    zamanındayıq.
  • 1:33 - 1:38
    Öz vücud və ağlımızın məhdudiyyətlərini
    qəbul etməyərək
  • 1:38 - 1:39
    maşınlar düzəldirik.
  • 1:39 - 1:43
    İncə, gözəl və qəliz maşınlar
  • 1:43 - 1:45
    insanın imkanlarını düşündüyümüzdən də
  • 1:45 - 1:47
    artıq genişləndirir.
  • 1:48 - 1:50
    Hava Qüvvələri Akademiyasındakı
  • 1:50 - 1:52
    Kosmik Əməliyyatlar fəaliyyətindən sonra
  • 1:52 - 1:54
    Mən sistem mühəndisi oldum.
  • 1:54 - 1:57
    Bu yaxınlarda yeni bir mühəndislik
    layihəsinə qoşuldum ki,
  • 1:57 - 1:59
    NASA-nın Mars missiyası ilə əlaqəlidir.
  • 1:59 - 2:02
    Beləliklə, Aya uçuş üçün
  • 2:02 - 2:05
    biz Hyustondakı uçuşa nəzarət
    məntəqəsinə arxayın ola bilərik,
  • 2:05 - 2:07
    uçuşun bütün aspektlərini
    izləyə bilərik.
  • 2:07 - 2:11
    Lakin, Mars 200 dəfə daha uzaqdır
  • 2:11 - 2:14
    və nəticə etibarilə bir siqnalın
    Yerdən Marsa çatması üçün
  • 2:14 - 2:17
    orta hesabla 13 dəqiqə
    vaxt lazımdır.
  • 2:17 - 2:20
    Hər hansı bir problem olarsa,
    zaman bəs etməz.
  • 2:21 - 2:23
    Ona görə də uyğun bir mühəndis
    həlli tələb edir ki,
  • 2:23 - 2:26
    Orion kosmik gəmisində
  • 2:26 - 2:29
    nəzarət məntəqəsi yerləşdirək.
  • 2:29 - 2:32
    Uçuş missiyasındakı başqa
    bir maraqlı ideya də odur ki,
  • 2:32 - 2:35
    Marsın səthinə humanoid robotları
    göndərilsin ki,
  • 2:35 - 2:37
    insanların özlərinin oraya
    gəlib çatmasından
  • 2:37 - 2:38
    öncə şərait qursunlar
  • 2:38 - 2:42
    və sonra tədqiqat komandasının
    üzvləri kimi çalışsınlar.
  • 2:43 - 2:46
    Beləliklə, bu məsələyə
    mühəndis gözü ilə baxdıqda
  • 2:46 - 2:49
    aydın oldu ki, mən elə bir
    sistem inşa etməliyəm ki,
  • 2:49 - 2:52
    ağıllı, əməkdaşlıq edən,
  • 2:52 - 2:54
    sosial məsuliyyətli süni intellekt olsun.
  • 2:54 - 2:58
    Başqa sözlə, mən HAL-a bənzər
    bir şey qurmalıyam, amma
  • 2:58 - 3:01
    adam öldürməyə meyli olmayan birini.
  • 3:01 - 3:02
    (Gülüş)
  • 3:03 - 3:05
    Bir qədər fasilə verək.
  • 3:05 - 3:09
    Həqiqətən belə bir süni intellekt yaratmaq mükündürmü?
  • 3:09 - 3:10
    Əslində, mümkündür.
  • 3:10 - 3:11
    Ümumiyyətlə, bu qəliz
  • 3:11 - 3:13
    bir mühəndislik problemidir ki,
  • 3:13 - 3:15
    süni intellekt elementlərinə malikdir.
  • 3:15 - 3:20
    Heç də qurulması bəsit bir
    süni intellekt məsələsi deyil.
  • 3:20 - 3:22
    Alan Türinqdən sitat gətirsək,
  • 3:22 - 3:25
    Hissiyatlı bir maşın düzəltmək
    fikrində deyiləm.
  • 3:25 - 3:26
    Mən HAL robotu yaratmıram.
  • 3:26 - 3:29
    İstədiyim yalnız sadə bir beyindir,
  • 3:29 - 3:32
    nə cürsə intellektin illüziyalarını
    yaratsın.
  • 3:33 - 3:36
    HAL ekranlara çıxandan bəri
    İnformatika elmi uzun
  • 3:36 - 3:38
    bir yol keçmişdir.
  • 3:38 - 3:41
    Təsəvvür edin onun ixtiraçısı
    Dr. Çandra burada olsaydı
  • 3:41 - 3:43
    bizə çoxlu suallar verərdi.
  • 3:43 - 3:45
    Həqiqətən də mümkündürmü ki,
  • 3:45 - 3:49
    milyonlarla qurğudan ibarət
    bir sistem quraq və
  • 3:49 - 3:51
    məlumatları oxuyaraq
  • 3:51 - 3:53
    xətaları müəyyən etsin və
    öncədən tədbir görsün?
  • 3:53 - 3:54
    Bəli.
  • 3:54 - 3:58
    Elə bir sistem qura bilərik ki,
    insanların dilində danışsın?
  • 3:58 - 3:59
    Bəli.
  • 3:59 - 4:02
    Elə sistem qura bilərik ki,
    obyektləri tanısın, hisləri anlasın,
  • 4:02 - 4:05
    öz emosiyalarını ifadə etsin, oyun
    oynasın və hətta dodaqlarımızı oxusun?
  • 4:05 - 4:06
    Bəli.
  • 4:07 - 4:09
    Elə sistem qura bilərik ki,
    özünə hədəflər
  • 4:09 - 4:12
    qoyub onlara çatmaq üçün plan qursun
    və öyrənsin?
  • 4:12 - 4:14
    Bəli.
  • 4:14 - 4:17
    Şüuru olan sistem qura bilərik?
  • 4:17 - 4:18
    Hazırda bunu öyrənirik.
  • 4:18 - 4:22
    Etik və mənəvi əsasları anlayan
    sistem qura bilərik?
  • 4:22 - 4:25
    Bunu necə edəcəyimizi öyrənməliyik.
  • 4:25 - 4:27
    Bir anlığa qəbul edək ki,
  • 4:27 - 4:30
    belə bir süni intellektin
    bu kimi missiyalar üçün
  • 4:30 - 4:32
    yaradılması mümkündür.
  • 4:32 - 4:34
    Özünüzə verəcəyiniz növbəti
    sual belədir ki,
  • 4:34 - 4:36
    biz bundan qorxmalıyıqmı?
  • 4:36 - 4:38
    Ümumiyyətlə, hər bir yeni texnologiya
  • 4:38 - 4:41
    özü ilə müəyyən qədər narahatlıq gətirir.
  • 4:41 - 4:42
    İlk dəfə avtomobilləri görəndə
  • 4:43 - 4:47
    insanlar narahatçılıq keçirdilər ki,
    ailələr dağılacaq.
  • 4:47 - 4:49
    Biz ilk dəfə telefonları görəndə insanlar
  • 4:49 - 4:52
    narahat oldular ki, bütün
    insan müzakirələrini məhv edəcək.
  • 4:52 - 4:56
    Nə vaxtsa gördük ki, yazı kəşf edildi
  • 4:56 - 4:59
    insanlar hafizələrinin
    itəcəyini düşündülər.
  • 4:59 - 5:01
    Bütün bunlar müəyyən dərəcədə həqiqətdir,
  • 5:01 - 5:03
    amma eyni zamanda,
    bu texnologiyalar
  • 5:03 - 5:07
    özləri ilə müəyyən mənada imkanlarımızı
  • 5:07 - 5:08
    genişləndirən şeylərə gətirib çıxardı.
  • 5:10 - 5:12
    Bir az da irəli gedək.
  • 5:13 - 5:18
    Mən bu cür Sİ yaradılmasından
    qorxmuram,
  • 5:18 - 5:22
    çünki zamanla bizim bəzi
    dəyərlərimizi təcəssüm etdirəcək.
  • 5:22 - 5:25
    Bunu düşünün: süni intellekt sistemi
    yaratmaq fundamental olaraq
  • 5:25 - 5:29
    ənənəvi proqram təminatı sistemləri
    yaratmaqdan fərqlidir.
  • 5:29 - 5:31
    Biz onları proqramlaşdırmırıq.
    Onları öyrədirik.
  • 5:31 - 5:34
    Sistemin çiçəkləri tanıması üçün
  • 5:34 - 5:37
    ona xoşladığım minlərlə
    çiçək göstərməliyəm.
  • 5:37 - 5:39
    Sistemə oyun oynamağı öyrətmək üçün --
  • 5:39 - 5:41
    Bəli, edərdim. Elə siz də edərdiniz.
  • 5:43 - 5:45
    Mən gülləri sevirəm. Yaxşı görək.
  • 5:45 - 5:48
    Sistemi Go oyununu oynamağı
    öyrətmək üçün
  • 5:48 - 5:50
    mən min dəfələrlə Go oyunu oynamalıyam.
  • 5:50 - 5:52
    Eyni zamanda öyrənmə vaxtı
  • 5:52 - 5:54
    izah etməliyəm ki, yaxşı və pis oyunu
    necə ayırsın.
  • 5:55 - 5:58
    Əgər mən süni intellektli
    hüquq məsləhətçisi yaratmaq istəsəm,
  • 5:58 - 6:00
    mən ona qanunvericiliyi öyrədəcəm.
  • 6:00 - 6:03
    Eyni zamanda öyrədəcəyim həm də
  • 6:03 - 6:06
    mərhəmət və ədalətdir ki,
    bu da hüququn bir hissəsidir.
  • 6:07 - 6:10
    Elmi olaraq,
    buna əsas istinad həqiqətləri deyirik.
  • 6:10 - 6:12
    Burada əsas məqam odur ki:
  • 6:12 - 6:13
    onları yaradan zaman
  • 6:13 - 6:16
    biz onlara öz dəyərlərimizi də
    aşılayırıq.
  • 6:17 - 6:20
    Bu səbəbdən mən süni
    intellektə inanıram.
  • 6:20 - 6:23
    Çox da yox, amma
    yaxşı öyrədilmiş bir insan kimi.
  • 6:24 - 6:25
    Soruşa bilərsiniz ki,
  • 6:25 - 6:28
    bəs yaramaz casuslar,
  • 6:28 - 6:31
    maliyyələşdirilmiş bəzi
    qeyri-hökumət təşkilatları necə?
  • 6:31 - 6:35
    Belə tənhaların əlində olan
    süni intellektdən qorxmuram.
  • 6:35 - 6:40
    Daha dəqiq desək, biz özümüzü bütün
    təsadüfi zorakılıqlardan qoruya bilmərik.
  • 6:40 - 6:42
    Həqiqət ondan ibarətdir ki,
    belə bir sistem
  • 6:42 - 6:45
    fərdi resurslardan qat-qat artıq olan
  • 6:45 - 6:47
    əsaslı təlim və ciddi hazırlıq tələb edir.
  • 6:47 - 6:49
    Həm də bu,
  • 6:49 - 6:52
    dünyaya bir internet virusunu
    yoluxdurmağa oxşar bir şey deyil.
  • 6:52 - 6:55
    Necə ki, bir düyməyə basmaqla
    milyonlarla yerə yayılsın
  • 6:55 - 6:57
    və laptoplar hər yerdə
    partlamağa başlasın.
  • 6:57 - 7:00
    Bu cür şeylər daha qlobaldır
  • 7:00 - 7:02
    və zamanla biz onlarla
    tanış olacağıq.
  • 7:03 - 7:06
    Elə bir süni intellektdən
    qorxurammı ki,
  • 7:06 - 7:08
    o insanlığa təhlükə yarada bilər?
  • 7:08 - 7:13
    "Matrix", "Metropolis", "Terminator" kimi
    filmlərdə və ya
  • 7:13 - 7:16
    "Westworld" kimi seriallarda bu kimi
  • 7:16 - 7:18
    qorxudan bəhs edilir.
  • 7:18 - 7:22
    Təbii ki, filosof Nik Bostromun
    "Superinellekt" kitabında
  • 7:22 - 7:24
    bunlardan bəhs edilir
  • 7:24 - 7:28
    və o, superintellektin yalnız
    təhlükəli olduğunu deyil,
  • 7:28 - 7:32
    hətta insan varlığına böyük
    təhlükə gətirə biləcəyini qeyd edir.
  • 7:32 - 7:34
    Dr. Bostrumun əsas arqumenti odur ki,
  • 7:34 - 7:37
    bu cür sistemlərdə zamanla
  • 7:37 - 7:40
    elə informasiyalara hərislik yaranacaq ki,
  • 7:40 - 7:43
    onlar öyrənməyi də öyrənəcəklər
  • 7:43 - 7:46
    və zamanla anlayacaqlar ki,
    onların hədəfləri
  • 7:46 - 7:48
    insanların əleyhinə ola bilər.
  • 7:48 - 7:50
    Dr. Bostromun çoxlu izləyiciləri var.
  • 7:50 - 7:54
    Onu Elon Musk və Stiven Haukinq kimi
    şəxslər də izləyir.
  • 7:55 - 7:57
    Bu şəxslərə dərin hörmətim var.
  • 7:58 - 8:00
    Buna baxmayaraq inanıram ki,
  • 8:00 - 8:02
    onlar fundamental
    olaraq səhv edirlər.
  • 8:02 - 8:06
    Dr. Bostromun bir çox arqumentlərini
    sadalamaq olardı,
  • 8:06 - 8:08
    amma buna mənim indi vaxtım çatmaz.
  • 8:08 - 8:11
    Ümumi olaraq onu deyim ki:
  • 8:11 - 8:14
    super bilik və super bacarıq tamam
    fərqli şeylərdir.
  • 8:14 - 8:16
    HAL Discovery heyəti üçün təhlükə idi
  • 8:16 - 8:21
    çünki HAL Discoverinin bütün idarəsinə
    məsul idi.
  • 8:21 - 8:23
    Superintellekt ilə də belədir.
  • 8:23 - 8:26
    Bütün dünyanı nəzarətinə götürməli idi.
  • 8:26 - 8:29
    Bu eynilə "Terminator" filmindəki
    Skynetdir.
  • 8:29 - 8:30
    O superintellekt
  • 8:30 - 8:32
    insanları idarə edirdi,
  • 8:32 - 8:36
    bütün dünyada olan hər bir
    qurğunu idarə edirdi.
  • 8:36 - 8:37
    Praktiki baxımdan,
  • 8:37 - 8:39
    bu baş verməyəcək.
  • 8:39 - 8:42
    Biz elə bir Sİ yaratmırıq ki,
    havanı idarə etsin,
  • 8:42 - 8:44
    axınları yönləndirsin,
  • 8:44 - 8:47
    bizim kimi, nazlı, xaotik
    insanları idarə etsin.
  • 8:47 - 8:51
    Hətta, əgər belə bir Sİ olsaydı,
  • 8:51 - 8:54
    o, insan iqtisadiyyatı ilə
    rəqabətə girməli olardı
  • 8:54 - 8:57
    və bizimlə resurslar uğrunda yarışardı.
  • 8:57 - 8:58
    Sonda onu deyim ki, --
  • 8:58 - 9:00
    bunu Siri-yə söyləməyin --
  • 9:00 - 9:02
    biz hər zaman onları
    söndürə bilərik.
  • 9:02 - 9:04
    (Gülüş)
  • 9:05 - 9:08
    Biz öz maşınlarımızla birgə
  • 9:08 - 9:10
    həyəcanlı bir səyahətdəyik.
  • 9:10 - 9:13
    Bu günkü insanlar
  • 9:13 - 9:15
    gələcəkdəkilər kimi deyil.
  • 9:15 - 9:19
    Superintellektin yüksəlişi barədə
    hazırda narahat olmaq
  • 9:19 - 9:22
    təhlükəli bir fikir dağınıqlığıdır.
  • 9:22 - 9:24
    Çünki kompüterləşmənin yüksəlişi
  • 9:24 - 9:27
    özü ilə ilə birgə çoxlu fərdi və sosial
    suallar gətirir ki,
  • 9:27 - 9:29
    biz onları indi həll etməliyik.
  • 9:29 - 9:32
    İnsan əməyinə tələbat azaldığı halda
  • 9:32 - 9:35
    cəmiyyəti necə idarə edəcəyik?
  • 9:35 - 9:38
    Anlayışı və təhsili bütün dünyaya necə
    aşılayaq və eyni zamanda
  • 9:38 - 9:40
    fərqliliklərimizə də hörmət edək?
  • 9:40 - 9:44
    Zehni səhiyyə ilə insan həyatını
    necə uzadaq və yaxşılaşdıraq?
  • 9:44 - 9:47
    İnformatikanı necə istifadə edək ki,
  • 9:47 - 9:49
    bizi ulduzlara aparsın?
  • 9:50 - 9:52
    Bu çox həyəcanvericidir.
  • 9:52 - 9:55
    İnformatikanın insan həyatını
  • 9:55 - 9:56
    yaxşılaşdırmaq üçün imkanları
  • 9:56 - 9:58
    bizim əlimizdədir.
  • 9:58 - 10:00
    Bu gün və burada.
  • 10:00 - 10:01
    Biz hələ başlanğıcdayıq.
  • 10:02 - 10:03
    Təşəkkür edirəm.
  • 10:04 - 10:08
    (Alqışlar)
Title:
Süni İntellektdən qorxmayın
Speaker:
Qredi Buç
Description:

Elm adamı və filosof Qredi Buç deyir ki: "Yeni texnologiyalar yeni narahatçılıqlar ortaya çıxarır, amma çox güclü hisləri olmayan bir süni intellektdən qorxmağımıza gərək yoxdur". Buç güclü bir süni kompüterlər haqqında (fantastik əsərlərdən qaynaqlanmış) ən pis qorxularımızı aradan götürür. Onlara dəyərlərimizi yalnız proqramlaşdırmaqla deyil, öyrətməklə necə aşılayacağımızı izah edir. Ehtimalı az olan təhlükələr barədə deyil, onların insan həyatını necə yaxşılaşdıracağı barədə söhbət açır.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Azerbaijani subtitles

Revisions