Return to Video

Kontrolü kaybetmeden Yapay Zekâ üretebilir miyiz?

  • 0:01 - 0:03
    Birçoğumuzun muzdarip olduğu
  • 0:03 - 0:05
    bir önsezi yetersizliğinden bahsedeceğim.
  • 0:05 - 0:09
    Belirli tür bir tehlikeyi
    sezmek gerçekten bir yetersizliktir.
  • 0:09 - 0:11
    Bir senaryo anlatacağım,
  • 0:11 - 0:14
    korkunç olduğunu düşündüğüm
  • 0:14 - 0:16
    ve gerçekleşmesi muhtemel olan
  • 0:17 - 0:18
    ve görünen o ki
  • 0:19 - 0:20
    iyi bir kombinasyon da değil.
  • 0:20 - 0:23
    Yine de korkmak yerine
    çoğunuz, bahsettiklerimin
  • 0:23 - 0:25
    havalı olduğunu düşüneceksiniz.
  • 0:25 - 0:28
    Yapay zekâdaki kazanımlarımızın
  • 0:28 - 0:30
    nihayetinde bizi nasıl
  • 0:30 - 0:32
    mahvedeceğinden bahsedeceğim.
  • 0:32 - 0:35
    Hatta bence, bizi mahvetmeyeceğini
    veya kendimizi mahvetmeyi bize
  • 0:35 - 0:37
    aşılamayacağını düşünmek çok güç.
  • 0:37 - 0:39
    Fakat sizler de benim gibiyseniz,
  • 0:39 - 0:42
    bunları düşünmenin zevkli
    olacağını keşfedeceksiniz.
  • 0:42 - 0:45
    Ve bu yanıtta sorunun bir parçası.
  • 0:45 - 0:47
    Bu yanıt sizi endişelendirmeli.
  • 0:48 - 0:51
    Bu konuşmada sizi, olası bir
    küresel bir kıtlığa,
  • 0:51 - 0:54
    iklim değişikliği veya
    başka bir afetten dolayı,
  • 0:54 - 0:57
    torunlarınız veya
    onların torunlarının muhtemelen
  • 0:57 - 1:01
    bu şekilde yaşama durumuna
  • 1:01 - 1:02
    yakın olduğuna ikna ediyor olsaydım,
  • 1:03 - 1:04
    "İlginç.
  • 1:05 - 1:07
    Bu TED konuşmasını beğendim."
  • 1:07 - 1:08
    diye düşünmezdiniz.
  • 1:09 - 1:11
    Kıtlık eğlenceli değildir.
  • 1:12 - 1:14
    Diğer taraftan bilim
    kurgudaki ölüm ise eğlencelidir
  • 1:14 - 1:17
    ve bu noktada beni yapay zekâdaki
  • 1:17 - 1:19
    en çok endişelendiren gelişmelerden biri,
  • 1:19 - 1:23
    önümüzde uzanan tehlikelere,
    uygun duyarlı bir yanıtı
  • 1:23 - 1:25
    sıralayamıyor gibi görünüyoruz.
  • 1:25 - 1:28
    Bu yanıtı sıralayamıyorum ve
    bu konuşmayı yapıyorum.
  • 1:30 - 1:33
    İki kapının önünde duruyoruz gibi.
  • 1:33 - 1:34
    1 numaralı kapının ardında
  • 1:34 - 1:37
    zeki makine üretmedeki
    gelişmeleri durduruyoruz.
  • 1:37 - 1:39
    Her nedense bilgisayarlarımızın donanım
  • 1:39 - 1:41
    ve yazılımı daha iyi olmayı durduruyor.
  • 1:41 - 1:43
    Şimdi bir dakikanızı ayırın ve bunun
  • 1:43 - 1:45
    neden olabileceğini değerlendirin.
  • 1:45 - 1:47
    Yani, zekâ ve otomasyonun ne kadar
  • 1:47 - 1:49
    değerli olduğu göz önüne alındığında,
  • 1:49 - 1:52
    yapabilirsek, teknolojimizi geliştirmeye
    devam edeceğiz.
  • 1:53 - 1:55
    Bunu yapmamızı ne engelleyebilir?
  • 1:56 - 1:58
    Büyük çaplı bir nükleer savaş mı?
  • 1:59 - 2:01
    Küresel bir salgın mı?
  • 2:02 - 2:04
    Asteroit çarpması mı?
  • 2:06 - 2:08
    Justin Bieber'in Amerika Başkanı
    olması mı?
  • 2:08 - 2:11
    (Kahkahalar)
  • 2:13 - 2:14
    Mesele şu ki, bildiğimiz üzere
  • 2:14 - 2:17
    bir şeyler medeniyeti yok etmeli.
  • 2:17 - 2:22
    Ne kadar kötü
    olabileceğini hayal etmelisiniz,
  • 2:22 - 2:25
    teknolojimizde iyileştirme
    yapmamızı engellemenin,
  • 2:25 - 2:26
    daimi olarak,
  • 2:26 - 2:28
    nesilden nesile.
  • 2:28 - 2:30
    Neredeyse, doğası gereği
  • 2:30 - 2:32
    bu, insan tarihinde gerçekleşen
    en kötü şey.
  • 2:33 - 2:34
    Bu yüzden tek alternatif,
  • 2:34 - 2:36
    ikinci kapının ardındaki,
  • 2:36 - 2:39
    akıllı makinelerimizi yıllar geçtikçe
  • 2:39 - 2:41
    geliştirmeye devam etmemiz.
  • 2:42 - 2:45
    Bir noktada da bizden daha
    akıllı makineler inşa edeceğiz
  • 2:46 - 2:49
    ve bizden akıllı makinelerimiz
    olduğunda onlar,
  • 2:49 - 2:51
    kendilerini geliştirmeye başlayacaklar.
  • 2:51 - 2:53
    Ve sonra, matematikçi IJ Good'un
    "zekâ patlaması" olarak
  • 2:53 - 2:55
    adlandırdığı bu süreçle,
  • 2:55 - 2:57
    bizden kurtulabilecekler.
  • 2:58 - 3:01
    Sıklıkla karikatürize edilir,
    benim de burada yaptığım gibi,
  • 3:01 - 3:04
    korku kötücül robot ordularının
  • 3:04 - 3:05
    bize saldırmaları.
  • 3:05 - 3:08
    Ama bu çok da olası bir senaryo değil.
  • 3:08 - 3:13
    Kendiliğinden makinelerimiz
    kötücül olacak değil.
  • 3:13 - 3:16
    Asıl kaygılandıran ise;
    bizden o kadar çok daha yetkin
  • 3:16 - 3:18
    makineler üreteceğiz ki bizim ve onların
  • 3:18 - 3:22
    amaçları arasındaki
    en küçük bir fark, bizi
  • 3:22 - 3:23
    ortadan kaldırabilecek.
  • 3:24 - 3:26
    Nasıl da karıncalar gibi
    olacağımızı bir düşünün.
  • 3:27 - 3:28
    Onlardan nefret etmiyoruz.
  • 3:28 - 3:30
    Onlara zarar vermek için
    yolumuzu değiştirmiyoruz.
  • 3:30 - 3:33
    Üstelik bazen onlara zarar
    vermemeye çalışıyoruz.
  • 3:33 - 3:35
    Kaldırımlarda üzerlerinden geçiyoruz.
  • 3:35 - 3:37
    Ancak ne zaman onların varlıkları
  • 3:37 - 3:39
    bizim hedeflerimizle çakışsa,
  • 3:39 - 3:42
    diyelim ki bu gibi bir bina inşa ederken,
  • 3:42 - 3:44
    tereddütsüz imha edebiliyoruz onları.
  • 3:44 - 3:47
    Endişe uyandıran ise bir gün,
    bilinçli olsun veya olmasın
  • 3:47 - 3:50
    bize de benzer bir umursamazlıkla
    muamele edebilecek
  • 3:50 - 3:52
    makineler üreteceğiz.
  • 3:54 - 3:57
    Zannederim ki bir çoğunuza ihtimal
    dışı görünüyor bu durum.
  • 3:57 - 4:01
    Eminim ki bazılarınız süper zeki
  • 4:01 - 4:03
    Yapay Zekâ'nın kaçınılmaz olması
    şöyle dursun,
  • 4:03 - 4:05
    mümkünlüğünden dahi şüphe duyuyor.
  • 4:05 - 4:07
    Ancak sonra ileriki varsayımlardan
  • 4:07 - 4:09
    bazılarında bir tuhaflık bulmalısınız.
  • 4:09 - 4:11
    Ve sadece üç tanesi var.
  • 4:12 - 4:17
    Zekâ, fiziksel sistemlerde
    bilgi işleme ile ilgilidir.
  • 4:17 - 4:20
    Aslında bu bir varsayımdan biraz fazla.
  • 4:20 - 4:23
    Zaten makinelerimizde kısıtlı
    zekâyı kurduk ve
  • 4:23 - 4:25
    bu makinelerin çoğu çoktan
  • 4:25 - 4:28
    üstün insan seviyesinde bir
    performansta.
  • 4:29 - 4:31
    Ve biliyoruz ki bu mutlak mesele,
  • 4:31 - 4:34
    "genel zekâ" denilen birçok
    alanda esneklikle
  • 4:34 - 4:38
    düşünebilme yeteneğine sebep olabilir,
  • 4:38 - 4:41
    çünkü beyinlerimiz bunu başardı değil mi?
  • 4:41 - 4:45
    Yani sadece atomlar var burada
  • 4:45 - 4:49
    ve biz gitgide daha zeki
    davranışlar sergileyen atomlar
  • 4:49 - 4:52
    sistemi kurmaya devam ettikçe,
  • 4:52 - 4:55
    nihayetinde makinelerimize
  • 4:55 - 4:58
    genel zekâyı kurabileceğiz,
  • 4:58 - 4:59
    engellenmedikçe.
  • 4:59 - 5:03
    İlerlemenin seviyesinin önemli
    olmadığının farkına varmak çok mühim,
  • 5:03 - 5:06
    çünkü herhangi bir gelişme
    bizi sayı çizgisine getirmeye yetebilir.
  • 5:06 - 5:08
    Devam etmek için Moore
    kanununa gerek yok.
  • 5:08 - 5:10
    Üstel bir gelişime ihtiyacımız yok.
  • 5:10 - 5:12
    Sadece devam etmeliyiz.
  • 5:13 - 5:16
    İkinci varsayım ise devam etmemiz.
  • 5:17 - 5:20
    Akıllı makinelerimizi geliştirmeye
    devam edeceğiz.
  • 5:21 - 5:25
    Ve zekânın değeri göz önüne alınırsa,
  • 5:25 - 5:29
    yani zekâ ya bütün değer
    verdiklerimizin kaynağıdır ya da
  • 5:29 - 5:30
    değer verdiğimiz her şeyi
  • 5:30 - 5:32
    korumak için ona ihtiyacımız vardır.
  • 5:32 - 5:34
    Bizim en değerli kaynağımızdır.
  • 5:34 - 5:36
    O yüzden bunu yapmak isteriz.
  • 5:36 - 5:39
    Umutsuzca çözmek istediğimiz
    problemlerimiz vardır.
  • 5:39 - 5:42
    Alzheimer ve kanser gibi
    hastalıkları tedavi etmek isteriz.
  • 5:43 - 5:45
    Ekonomi sistemlerini anlamak isteriz.
  • 5:45 - 5:47
    İklim bilimini ilerletmek isteriz.
  • 5:47 - 5:49
    Yani yapabilirsek bunu yapacağız.
  • 5:49 - 5:52
    Tren çoktan istasyondan çıktı ve
    basılabilecek bir fren yok.
  • 5:54 - 5:59
    Velhasıl, zekânın zirvesinde duramayız
  • 5:59 - 6:01
    ya da yakınında herhangi bir yerde.
  • 6:02 - 6:04
    Ve bu gerçekten mühim bir öngörüdür.
  • 6:04 - 6:06
    Durumumuzu istikrarsız yapan ve
  • 6:06 - 6:10
    risk hakkındaki sezgilerimizi güvenilmez
    kılan bu durum.
  • 6:11 - 6:14
    Şimdi yaşamış en zeki insanı düşünün.
  • 6:15 - 6:18
    Buradaki hemen hemen herkesin
    son listesinde John von Neumann vardır.
  • 6:18 - 6:21
    Yani, John von Neumann' nın çevresindeki
    insanlardaki etkisi,
  • 6:21 - 6:25
    zamanının en iyi matematikçileri
    ve fizikçileri de dâhil olmak üzere,
  • 6:26 - 6:27
    oldukça detaylı olarak hazırlanmış.
  • 6:27 - 6:31
    Hakkında anlatılanların yarısı
    yarı gerçek ise
  • 6:31 - 6:32
    şimdiye dek yaşamış
  • 6:33 - 6:35
    en zeki insan olduğuna şüphe yok.
  • 6:35 - 6:38
    Öyleyse zekâ spektrumunu bir düşünün.
  • 6:38 - 6:40
    Bir tarafta John von Neumann
  • 6:42 - 6:43
    ve diğer tarafta siz ve ben.
  • 6:44 - 6:45
    Ve bir de tavuk.
  • 6:45 - 6:47
    (Gülüşmeler)
  • 6:47 - 6:49
    Pardon, bir tavuk.
  • 6:49 - 6:50
    (Gülüşmeler)
  • 6:50 - 6:54
    Bu konuşmayı gereğinden daha
    depresif yapmama gerek yok.
  • 6:54 - 6:55
    (Gülüşmeler)
  • 6:56 - 7:00
    Ezici bir üstünlükle olası görünüyor
    ancak zekâ spektrumu
  • 7:00 - 7:03
    şu anda tasarlayabileceğimizden
    daha da ileriye uzanıyor
  • 7:04 - 7:07
    ve kendimizden daha zeki
    makineler üretirsek
  • 7:07 - 7:09
    büyük ihtimalle bu spektrumu
    hayal edemeyeceğimiz
  • 7:09 - 7:11
    ölçüde keşfedecekler
  • 7:11 - 7:14
    ve o ölçüde bizi aşacaklar.
  • 7:15 - 7:19
    Ve hızın fazileti gereği bunun
    doğru olduğunu anlamak önemli.
  • 7:19 - 7:24
    Değil mi? Stanford veya MIT'deki
    ortalama araştırmacı takımınızdan
  • 7:24 - 7:28
    daha zeki olmayan süper zeki
    Yapay Zekâ
  • 7:28 - 7:30
    geliştirdiğimizi düşünün.
  • 7:30 - 7:33
    Elektronik devreler,
    biyokimyasallardan milyon kez
  • 7:33 - 7:34
    daha hızlı çalışır, yani
  • 7:35 - 7:38
    bu makine onu yapan beyinlerden
    milyon kez daha
  • 7:38 - 7:39
    hızlı çalışmalıdır.
  • 7:40 - 7:41
    Bir haftalığına çalışmaya ayarlasanız
  • 7:41 - 7:46
    ve insan seviyesinde 20.000 yıl
    sürecek zihinsel
  • 7:46 - 7:48
    işleri yapacak, haftalarca.
  • 7:50 - 7:53
    Engellemek şöyle dursun,
    bu tarz bir zihinsel
  • 7:53 - 7:55
    ilerlemeyi nasıl durdurabiliriz ki?
  • 7:57 - 7:59
    Endişe uyandıran diğer bir şey ise,
  • 7:59 - 8:04
    açıkcası, olabilecek en iyi
    senaryoyu düşünün.
  • 8:04 - 8:08
    Hiçbir kaygı barındırmayan
    bir süper zeki Yapay Zekâ
  • 8:08 - 8:10
    tasarımı keşfettiğimizi düşünün.
  • 8:10 - 8:13
    İlk seferde en iyi tasarımı bulduk.
  • 8:13 - 8:15
    Tam da istenilen şekilde davranan bir
  • 8:15 - 8:17
    kâhin bize verilmiş gibi.
  • 8:17 - 8:21
    Bu makine müthiş bir işten
    tasarruf ettiren bir aygıt olurdu.
  • 8:22 - 8:24
    Güneş ışığıyla çalışan, herhangi
    bir fiziksel işi yapabilen,
  • 8:24 - 8:26
    aşağı yukarı ham maddeleri
  • 8:26 - 8:27
    maliyetinde olan makineyi
  • 8:27 - 8:30
    yapabilecek makineyi tasarlayabilir.
  • 8:30 - 8:33
    Yani insanların yaptığı angarya
    işlerin sonundan bahsediyoruz.
  • 8:33 - 8:36
    Aynı zamanda çoğu zihinsel işlerin de
    sonundan bahsediyoruz.
  • 8:37 - 8:40
    Böyle bir durumda biz
    maymunlar ne yapardık?
  • 8:40 - 8:44
    Birbirimize masaj yapabilir ve
    frizbi oynayabiliriz.
  • 8:46 - 8:49
    Biraz LSD ve tartışmaya açık
    giysi seçimlerini de ekleyin
  • 8:49 - 8:51
    ve bütün dünya Burning
    Man (festival) gibi olabilir.
  • 8:51 - 8:53
    (Gülüşmeler)
  • 8:54 - 8:56
    Şimdi kulağa hoş gelebilir ama
  • 8:57 - 9:00
    kendinize şu anki ekonomik
    ve siyasi düzenimizde
  • 9:00 - 9:02
    ne olabileceğini sorun.
  • 9:02 - 9:05
    Daha önce görmediğimiz düzeyde
  • 9:05 - 9:09
    eşitsiz bir zenginlik ve işsizliğe
  • 9:09 - 9:11
    tanık olurduk gibi görünüyor.
  • 9:11 - 9:13
    Bu yeni zenginliği derhal tüm
    insanlığın hizmetine
  • 9:13 - 9:15
    sunmadaki isteksizlikle,
  • 9:16 - 9:19
    dünyanın geri kalanı açlıktan
    ölürken birkaç trilyoner
  • 9:19 - 9:22
    ekonomi dergilerimizin
    kapaklarını süslüyor olabilir.
  • 9:22 - 9:25
    Peki ya Ruslar ya da Çinliler,
    Silikon Vadisi'ndeki
  • 9:25 - 9:27
    bazı şirketlerin üstün zeki
    Yapay Zekâ'yı dağıtmak
  • 9:27 - 9:30
    üzere olduğunu duysa ne yaparlardı?
  • 9:30 - 9:33
    Karasal ya da siber, bu makine
  • 9:33 - 9:35
    tahmin edilemez bir güçle savaş
  • 9:35 - 9:37
    çıkarabilecek potansiyelde olurdu.
  • 9:38 - 9:40
    Bu kazananın her şeyi
    aldığı bir senaryo.
  • 9:40 - 9:43
    Buradaki rekabetten 6 ay
    ilerde olmak
  • 9:43 - 9:46
    minimum 500.000 yıl
  • 9:46 - 9:47
    ileride olmaktır.
  • 9:47 - 9:52
    Demek ki bu tür bir atılımın
    sadece söylentisi bile
  • 9:52 - 9:55
    türümüzün çıldırmasına yol açabiliyor.
  • 9:55 - 9:58
    Şimdi en korkutucu şeylerden bir tanesi
  • 9:58 - 10:00
    bana göre, şu anda,
  • 10:00 - 10:05
    Yapay Zekâ araştırmacılarının
    güven verici olmak istediklerinde
  • 10:05 - 10:06
    söyledikleri şeyler.
  • 10:07 - 10:08
    Ve en sık bize endişe etmememiz
  • 10:08 - 10:10
    için söylenen neden ise zaman.
  • 10:10 - 10:13
    Çok çok uzakta, haberin yok mu?
  • 10:13 - 10:15
    Muhtemelen 50 ya da 100 yıl kadar uzakta.
  • 10:16 - 10:17
    Bir araştırmacı dedi ki;
  • 10:17 - 10:19
    "Yapay Zekâ güvenliği için endişelenmek
  • 10:19 - 10:21
    Mars'ta aşırı nüfus artışına
    endişelenmek gibi."
  • 10:22 - 10:24
    Bu Silikon Vadisi'nin
  • 10:24 - 10:26
    "Sıkmayın tatlı canınızı" versiyonu.
  • 10:26 - 10:27
    (Gülüşmeler)
  • 10:28 - 10:29
    Zamana referanslamanın
  • 10:29 - 10:32
    tamamen yersiz bir deyim
  • 10:32 - 10:35
    olduğunu kimse fark etmiyor.
  • 10:35 - 10:38
    Zekâ eğer bilgi işlemeden ibaretse
  • 10:38 - 10:41
    ve biz makinelerimizi geliştirmeye
    devam edersek
  • 10:41 - 10:44
    bir tür süper zekâ üreteceğiz.
  • 10:44 - 10:48
    Ve güvenli bir biçimde yapmak için
    gerekli şartları yaratmanın
  • 10:48 - 10:50
    ne kadar süreceği hakkında
    hiçbir fikrimiz yok.
  • 10:52 - 10:53
    Bir daha söyleyeyim.
  • 10:54 - 10:57
    Güvenli bir biçimde yapmak için
    gerekli şartları yaratmanın
  • 10:57 - 11:00
    ne kadar süreceği hakkında
    hiçbir fikrimiz yok.
  • 11:01 - 11:04
    Ve eğer fark etmediyseniz,
    50 yıl eskisi gibi değil artık.
  • 11:04 - 11:07
    Bu ay olarak 50 yıl.
  • 11:07 - 11:09
    Bu kadar zamandır iPhone var.
  • 11:09 - 11:12
    Bu kadar zamandır "The Simpsons"
    (Simpsonlar) televizyonda.
  • 11:13 - 11:15
    50 yıl, türümüzün karşılaşabileceği
  • 11:15 - 11:18
    en büyük zorluklar için
    fazla bir zaman değil.
  • 11:20 - 11:24
    Bir defa daha uygun duygusal karşılık
    vermede başarısız gibiyiz,
  • 11:24 - 11:26
    yaklaştığına inanmamız için
    tüm gerekçelere sahipken.
  • 11:26 - 11:30
    Bilgisayar bilimcisi Stuart Russell'ın
    güzel bir benzetimi var.
  • 11:30 - 11:35
    Diyor ki; uzaylı bir medeniyetten
    bir mektup aldığımızı düşünün,
  • 11:35 - 11:37
    şöyle diyor:
  • 11:37 - 11:39
    "Dünya Halkı,
  • 11:39 - 11:41
    50 yıl içinde gezegeninize ulaşacağız.
  • 11:42 - 11:43
    Hazırlanın."
  • 11:43 - 11:48
    Ve şimdi, ana gemi varana kadar
    ay ay geri mi sayacağız?
  • 11:48 - 11:51
    Normalden biraz daha fazla
    aciliyet hissederdik.
  • 11:53 - 11:54
    Endişelenmememiz söylenen
  • 11:54 - 11:55
    bir diğer gerekçe ise
  • 11:55 - 11:58
    bu makinelerin istemeden bizim
    değerlerimizi paylaşacak
  • 11:58 - 12:00
    olmaları, çünkü
    bizim devamımız gibi olacaklar.
  • 12:00 - 12:02
    Beyinlerimize aşılanacaklar
  • 12:02 - 12:04
    ve temelde onların limbik
    sistemi olacağız.
  • 12:05 - 12:07
    Şimdi bir dakikanızı ayırın ve
  • 12:07 - 12:10
    önümüzdeki en sağlam ve ihtiyatlı yolun,
  • 12:10 - 12:11
    önerilenin, bu teknolojiyi
  • 12:11 - 12:12
    direkt olarak beyinlerimize
  • 12:12 - 12:15
    yerleştirmek olduğunu değerlendirin.
  • 12:15 - 12:18
    Belki de bu, önümüzdeki en güvenli
    ve özenli yol olabilir
  • 12:18 - 12:21
    ama genelde kişinin teknoloji hakkındaki
    güvenlik endişelerinin
  • 12:21 - 12:25
    kafasının içine bir şey yerleştirmeden
    çözülmesi gerekir.
  • 12:25 - 12:27
    (Kahkahalar)
  • 12:27 - 12:32
    Daha derindeki problem ise süper zeki
    YZ geliştirmek başlı başına
  • 12:32 - 12:34
    daha kolay gibi görünüyor,
  • 12:34 - 12:36
    sorunsuzca zihinlerimizle entegre
  • 12:36 - 12:38
    olabilen tamamlanmış sinirbilimli
  • 12:38 - 12:40
    bir yapay zekâ geliştirmektense.
  • 12:41 - 12:44
    Ve farz edelim ki devletlerin ve
    şirketlerin bunu yapıyorken
  • 12:44 - 12:48
    birbirleriyle yarış
    içerisindeymişçe algılamaları
  • 12:48 - 12:51
    ve bu yarışı kazanmalarının da
    dünyayı kazanmak sanmaları,
  • 12:51 - 12:53
    peşi sıra mahvetmemek şartıyla,
  • 12:53 - 12:56
    sonrasında hangisi en kolaysa
  • 12:56 - 12:58
    ilk o yapılacakmış gibi görünüyor.
  • 12:59 - 13:01
    Şu an ne yazık ki bu soruna bir
    çözümüm yok,
  • 13:01 - 13:04
    çoğumuza bunu düşünmeyi önermek dışında.
  • 13:04 - 13:06
    Yapay Zekâ konusunda Manhattan
    Projesi gibi
  • 13:06 - 13:08
    bir şeye ihtiyacımız var.
  • 13:09 - 13:10
    Geliştirmek için değil, çünkü
  • 13:10 - 13:12
    kaçınılamaz bir şekilde
    yapacağız bana göre,
  • 13:12 - 13:15
    ama silahlanma yarışından
    nasıl kaçıncağımızı anlamak
  • 13:15 - 13:18
    ve menfaatlerimiz doğrultusunda
    inşa etmek için.
  • 13:18 - 13:20
    Süper zeki YZ 'nın kendi
    başına değişiklikler
  • 13:20 - 13:23
    yapabileceğinden bahsederken,
  • 13:23 - 13:27
    ana koşulları doğru anlamada tek
    şansımız varmış gibi görünüyor
  • 13:27 - 13:29
    ve o zaman dahi bunları doğru anlamanın
  • 13:29 - 13:32
    siyasi ve ekonomik sonuçlarını
    özümsememiz gerekecektir.
  • 13:34 - 13:36
    Bilgi işlemenin yapay zekânın
  • 13:36 - 13:40
    kaynağı olduğunu kabul ettiğimiz an,
  • 13:41 - 13:46
    bu bazı uygun hesaplama sistemlerinin
    zekânın temeli olduğunu
  • 13:46 - 13:50
    ve bu sistemleri aralıksız
    geliştireceğimizi kabul ettiğimizde
  • 13:51 - 13:56
    ve bilişin ufkunun bildiğimizden
    daha uzaklara uzandığını
  • 13:56 - 13:57
    kabul ettiğimizde,
  • 13:58 - 13:59
    bir çeşit yaratıcı
  • 13:59 - 14:01
    geliştirme sürecinde olduğumuzu
  • 14:01 - 14:03
    kabul etmek durumunda olacağız.
  • 14:03 - 14:06
    Şu an ise bu yaratıcıyla
    yaşayabilme durumumuza
  • 14:06 - 14:07
    karar vermek için doğru zaman olabilir.
  • 14:08 - 14:10
    Çok teşekkürler.
  • 14:10 - 14:15
    (Alkışlar)
Title:
Kontrolü kaybetmeden Yapay Zekâ üretebilir miyiz?
Speaker:
Sam Harris
Description:

Süper zeki Yapay Zekâ'dan korkuyor musunuz? Sinirbilimci ve filozof Sam Harris, Korkmalısın! --ve sadece teorik olarak değil-- diyor. İnsanüstü makineler üreteceğiz ancak karıncalara davrandığımız gibi bizlere de aynı şekilde davranabilecek bir şeyi üretmeyle ilgili sorunlarla henüz boğuşmadık diyor Harris.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Turkish subtitles

Revisions