Return to Video

Dünyanın sonunu önleyebilir miyiz?

  • 0:00 - 0:03
    On yıl önce "Son Yüzyılımız?" adını verdiğim
  • 0:03 - 0:06
    bir kitap yazdım.
  • 0:06 - 0:09
    Yayımcılarım soru işaretini kestiler. (Kahkaha)
  • 0:09 - 0:12
    Amerikan yayımcılar ise başlığımızı
  • 0:12 - 0:15
    ''Son Saatimiz'' olarak değiştirdiler.
  • 0:15 - 0:19
    Amerikalılar anlık zevklerden ve ters yüz etmekten hoşlanırlar.
  • 0:19 - 0:20
    (Kahkaha)
  • 0:20 - 0:22
    Benim temam şuydu:
  • 0:22 - 0:26
    Dünyamız 45 milyon yüzyıldır varlığını sürdürdü,
  • 0:26 - 0:28
    Ama bu seferki farklı —
  • 0:28 - 0:31
    Bu, dünyanın geleceğinin tek bir türün,
  • 0:31 - 0:34
    bizim türümüzün elinde bulunduğu ilk zaman.
  • 0:34 - 0:36
    Neredeyse tüm Dünya tarihi boyunca
  • 0:36 - 0:38
    tehditler hep doğadan geldi —
  • 0:38 - 0:42
    salgınlar, depremler, göktaşı ve daha fazlası —
  • 0:42 - 0:47
    Ama bundan sonra, en kötü tehditler bizden geliyor.
  • 0:47 - 0:50
    Sadece nükleer tehdit de değil;
  • 0:50 - 0:52
    her şeyin birbirine bağlı olduğu dünyamızda,
  • 0:52 - 0:56
    şebeke aksaklıkları küresel biçimde katlanarak artabilir;
  • 0:56 - 0:59
    uçak yolculuğu birkaç günde salgınları dünyaya yayabilir
  • 0:59 - 1:03
    ve sosyal medya tam olarak ışık hızında
  • 1:03 - 1:05
    panik ve dedikodu yayabilir.
  • 1:06 - 1:09
    Küçük tehlikeler için çok fazla endişeleniyoruz —
  • 1:09 - 1:13
    Olasılıksız uçak kazaları, yiyeceklerdeki kansorejenler,
  • 1:13 - 1:15
    düşük radyasyon miktarı ve daha fazlası —
  • 1:15 - 1:18
    ama biz ve politik başkanlarımız
  • 1:18 - 1:22
    yok edici senaryoları inkar ediyoruz.
  • 1:22 - 1:25
    Şükür ki en kötüsü daha yaşanmadı.
  • 1:25 - 1:28
    Aslında, belki de yaşanmayacak.
  • 1:28 - 1:31
    Ama eğer bir olayın yıkıcı olma ihtimali varsa,
  • 1:31 - 1:34
    gerçekleşme ihtimali olmasa bile, ondan korunmak için
  • 1:34 - 1:38
    ona önemli bir öncelik vermeye değer demektir,
  • 1:38 - 1:41
    tıpkı evimize yangın sigortası yaptırmamız gibi.
  • 1:42 - 1:47
    Ve bilim daha büyük bir güç ve umut vaat ettiği için
  • 1:47 - 1:51
    dezavantajları daha korkutucu hale geliyor.
  • 1:51 - 1:53
    Gittikçe daha savunmasız hale geliyoruz.
  • 1:53 - 1:55
    Gelecek on - onbeş yıl içinde,
  • 1:55 - 1:59
    milyonlarca kişi tıpkı bugün siber teknolojiyi kötüye kullandıkları gibi
  • 1:59 - 2:01
    biyoteknolojiyi de kötüye kullanma
  • 2:01 - 2:04
    gücüne kavuşacaklar.
  • 2:04 - 2:07
    Bir TED konuşmasında Freeman Dyson,
  • 2:07 - 2:11
    tıpkı kendi jenerasyonunun kimya aletleriyle oynadığı gibi
  • 2:11 - 2:15
    gelecekteki çocukların yeni organizmalar tasarlayıp yaratacaklarını öngörmüştü.
  • 2:15 - 2:18
    Bu, uç noktada bir bilim kurgu olabilir;
  • 2:18 - 2:21
    ama şayet senaryosunun bir parçası bile gerçekleşecek olursa,
  • 2:21 - 2:24
    ekolojimiz ve hatta türümüz
  • 2:24 - 2:27
    kesinlikle uzun süre sağ salim kalmayacaktır.
  • 2:28 - 2:31
    Örneğin, insan sayısının çok daha az olmasının
  • 2:31 - 2:34
    gezegen için, Gaia için daha iyi olacağını düşünen
  • 2:34 - 2:37
    bazı aşırı çevreciler var.
  • 2:37 - 2:40
    Böyle düşünen insanlar, 2050 yılına kadar dünya çapında
  • 2:40 - 2:43
    yayılmış olacak sentetik biyoloji
  • 2:43 - 2:45
    alanında uzmanlaşırsa ne olur?
  • 2:45 - 2:48
    İşte o zaman başka bilim kurgu kabusları
  • 2:48 - 2:50
    gerçeğe dönüşebilir:
  • 2:50 - 2:52
    serserileşen kalın kafalı robotlar
  • 2:52 - 2:54
    veya kendi beynini yaratan ağlar
  • 2:54 - 2:57
    hepimizi tehdit eder.
  • 2:57 - 3:00
    Evet, peki biz bir düzenlemeyle bu risklerden korunabilir miyiz?
  • 3:00 - 3:03
    Kesinlikle denemeliyiz ama bu girişimler
  • 3:03 - 3:05
    öyle zorlu, öyle küresel
  • 3:05 - 3:08
    ve ticari baskı tarafından öyle yönlendirilmiş ki;
  • 3:08 - 3:11
    yapılabilecek herhangi bir şey, bir yerlerde mutlaka yapılacaktır;
  • 3:11 - 3:13
    düzenlemeler ne derse desin.
  • 3:13 - 3:17
    Bu tıpkı uyuşturucu yasaları gibi — düzenlemeye çalışırız ama yapamayız.
  • 3:17 - 3:20
    Küresel köyün ahmak köylüleri de olacaktır
  • 3:20 - 3:23
    ve onların küresel çeşitlilikleri olacaktır.
  • 3:23 - 3:26
    Yani kitabımda söylediğim gibi,
  • 3:26 - 3:29
    bu yüzyılda sıkıntılarla karşılaşacağız.
  • 3:29 - 3:32
    Toplumumuzda aksaklıklar olabilir —
  • 3:32 - 3:36
    aslında, büyük bir aksaklığın olma ihtimali yüzde 50.
  • 3:36 - 3:39
    Ama daha kötüye gidebilecek
  • 3:39 - 3:41
    akla gelen olaylar var mıdır,
  • 3:41 - 3:45
    tüm yaşamı yok edecek olaylar?
  • 3:45 - 3:48
    Yeni bir parçacık hızlandırıcısı devreye girdiğinde,
  • 3:48 - 3:49
    bazı insanlar endişeyle sordular:
  • 3:49 - 3:52
    bu Dünyayı yok edebilir miydi, ya da daha kötüsü
  • 3:52 - 3:54
    uzayın yapısını parçalara ayırabilir miydi?
  • 3:54 - 3:58
    Neyse ki, iç rahatlatan şeyler sunulabildi.
  • 3:58 - 4:00
    Ben ve bir kaç başka kişi
  • 4:00 - 4:02
    doğanın, kozmik ışın çarpışmaları yoluyla
  • 4:02 - 4:04
    aynı deneyleri zaten
  • 4:04 - 4:06
    milyarlarca defa yaptığını belirttik.
  • 4:06 - 4:09
    Ama bilim adamları tabi ki doğal dünyada
  • 4:09 - 4:11
    benzeri görülmemiş koşullar yaratan
  • 4:11 - 4:14
    deneyler söz konusuysa, tedbirli olmalıdır.
  • 4:14 - 4:17
    Biyologlar, genetiğiyle oynanmış, hasar verme potansiyeli olan
  • 4:17 - 4:20
    patojenleri açığa çıkarmaktan kaçınmalıdır.
  • 4:20 - 4:24
    Bu arada, bizim gerçek varoluşsal felaket risklerine
  • 4:24 - 4:27
    karşı olan çekincemiz, özellikle
  • 4:27 - 4:30
    felsefik ve etik bir soruya dayanır.
  • 4:30 - 4:32
    Soru şudur:
  • 4:32 - 4:34
    İki senaryo düşünün.
  • 4:34 - 4:39
    A senaryosu insanlığın yüzde 90'ını yok ediyor.
  • 4:39 - 4:43
    B senaryosu yüzde 100'ünü yok ediyor.
  • 4:43 - 4:46
    B, A'dan ne kadar daha kötü?
  • 4:46 - 4:49
    Bazıları yüzde 10 daha kötü olduğunu söyleyecektir.
  • 4:49 - 4:53
    Kişi sayısı yüzde 10 daha fazla.
  • 4:53 - 4:55
    Ama benim düşüncem, B kıyaslanamaz derecede daha kötü.
  • 4:55 - 4:58
    Bir gökbilimci olarak, ben insanların hikayenin
  • 4:58 - 5:01
    sonu olduğuna inanamam.
  • 5:01 - 5:04
    Güneşin sönmesine daha 5 milyar yıl var
  • 5:04 - 5:07
    ve evren sonsuza kadar var olabilir.
  • 5:07 - 5:09
    Yani insandan sonra Dünya'da
  • 5:09 - 5:11
    ve ötesinde gerçekleşecek evrim,
  • 5:11 - 5:14
    bizi ortaya çıkaran Darwinsel süreç kadar uzun
  • 5:14 - 5:17
    ve belki daha harika olabilir.
  • 5:17 - 5:20
    Ve aslında, gelecek evrim daha hızlı gerçekleşecek,
  • 5:20 - 5:22
    teknolojik zaman periyodunda,
  • 5:22 - 5:24
    doğal seçilim periyodunda değil.
  • 5:24 - 5:28
    Yani, biz tabi ki bu büyük tehlikelerden ötürü,
  • 5:28 - 5:32
    insanlığın yok olmasının
  • 5:32 - 5:34
    bu büyük potansiyeli önlemesinin
  • 5:34 - 5:36
    milyarda bir riski bile kabul etmemeliyiz.
  • 5:36 - 5:38
    Öngörülen bazı senaryolar
  • 5:38 - 5:40
    daha çok bilim kurgu olabilir
  • 5:40 - 5:43
    ama diğerleri rahatsız edecek derecede gerçek olabilir.
  • 5:43 - 5:46
    Şu atasözünün söylediği önemlidir:
  • 5:46 - 5:49
    Alışılmadık demek, olasılıksız demek değildir.
  • 5:49 - 5:51
    Aslında bu yüzden biz Cambridge Üniversitesi'nde
  • 5:51 - 5:55
    bu varoluşsal riskleri azaltmaya çalışmak için
  • 5:55 - 5:57
    bir merkez kuruyoruz.
  • 5:57 - 6:00
    Öyle görünüyor ki bu olası felaketler sadece birkaç
  • 6:00 - 6:02
    kişi işin önemli.
  • 6:02 - 6:05
    Ve başkalarından gelebilecek bütün yardımlara ihtiyacımız var,
  • 6:05 - 6:08
    çünkü biz sonsuz evrende bulunan,
  • 6:08 - 6:11
    değerli bir soluk mavi noktanın koruyucularıyız,
  • 6:11 - 6:14
    önünde 50 milyon yüzyılı daha olan bir gezegenin.
  • 6:14 - 6:17
    Öyleyse bu geleceği tehlikeye atmayalım.
  • 6:17 - 6:19
    Konuşmamı Peter Madawar adındaki büyük bir
  • 6:19 - 6:22
    bilimciden alıntı yaparak sonlandırmak istiyorum.
  • 6:22 - 6:26
    ''İnsanlık için çalan çanlar,
  • 6:26 - 6:28
    Alp dağlarının sığırlarının çanlarına benzer.
  • 6:28 - 6:30
    Onlar bizim boyunlarımıza bağlılar ve eğer
  • 6:30 - 6:33
    uyumlu ve melodili sesler çıkarmıyorlarsa,
  • 6:33 - 6:35
    bu bizim hatamızdır.''
  • 6:35 - 6:38
    Çok teşekkür ederim.
  • 6:38 - 6:40
    (Alkış)
Title:
Dünyanın sonunu önleyebilir miyiz?
Speaker:
Sir Martin Rees
Description:

Kıyamet sonrası bir Dünya, insansız, bilim kurgu televizyonlarının ve filmlerin uydurması gibi görünüyor.Ama bu kısa, şaşırtıcı konuşmada Lord Martin Rees bizden gerçek riskler hakkında düşünmemizi istiyor — insanlığı yok edecek doğal ve insan yapımı tehditler. İnsan ırkının ilgili bir üyesi olarak şunu soruyor: Gerçekleşebilecek en kötü şey nedir?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

Turkish subtitles

Revisions