1 00:00:00,485 --> 00:00:03,477 On yıl önce "Son Yüzyılımız?" adını verdiğim 2 00:00:03,477 --> 00:00:05,800 bir kitap yazdım. 3 00:00:05,800 --> 00:00:09,377 Yayımcılarım soru işaretini kestiler. (Kahkaha) 4 00:00:09,377 --> 00:00:11,799 Amerikan yayımcılar ise başlığımızı 5 00:00:11,799 --> 00:00:14,668 ''Son Saatimiz'' olarak değiştirdiler. 6 00:00:15,168 --> 00:00:18,660 Amerikalılar anlık zevklerden ve ters yüz etmekten hoşlanırlar. 7 00:00:18,660 --> 00:00:20,368 (Kahkaha) 8 00:00:20,368 --> 00:00:22,118 Benim temam şuydu: 9 00:00:22,118 --> 00:00:26,074 Dünyamız 45 milyon yüzyıldır varlığını sürdürdü, 10 00:00:26,074 --> 00:00:28,297 Ama bu seferki farklı — 11 00:00:28,297 --> 00:00:31,313 Bu, dünyanın geleceğinin tek bir türün, 12 00:00:31,313 --> 00:00:34,115 bizim türümüzün elinde bulunduğu ilk zaman. 13 00:00:34,115 --> 00:00:36,105 Neredeyse tüm Dünya tarihi boyunca 14 00:00:36,105 --> 00:00:38,041 tehditler hep doğadan geldi — 15 00:00:38,041 --> 00:00:41,537 salgınlar, depremler, göktaşı ve daha fazlası — 16 00:00:41,537 --> 00:00:46,859 Ama bundan sonra, en kötü tehditler bizden geliyor. 17 00:00:47,209 --> 00:00:50,260 Sadece nükleer tehdit de değil; 18 00:00:50,260 --> 00:00:52,381 her şeyin birbirine bağlı olduğu dünyamızda, 19 00:00:52,381 --> 00:00:55,614 şebeke aksaklıkları küresel biçimde katlanarak artabilir; 20 00:00:55,614 --> 00:00:59,350 uçak yolculuğu birkaç günde salgınları dünyaya yayabilir 21 00:00:59,350 --> 00:01:02,677 ve sosyal medya tam olarak ışık hızında 22 00:01:02,677 --> 00:01:05,354 panik ve dedikodu yayabilir. 23 00:01:05,894 --> 00:01:09,119 Küçük tehlikeler için çok fazla endişeleniyoruz — 24 00:01:09,119 --> 00:01:13,150 Olasılıksız uçak kazaları, yiyeceklerdeki kansorejenler, 25 00:01:13,150 --> 00:01:15,376 düşük radyasyon miktarı ve daha fazlası — 26 00:01:15,376 --> 00:01:18,201 ama biz ve politik başkanlarımız 27 00:01:18,201 --> 00:01:22,404 yok edici senaryoları inkar ediyoruz. 28 00:01:22,404 --> 00:01:25,442 Şükür ki en kötüsü daha yaşanmadı. 29 00:01:25,442 --> 00:01:27,638 Aslında, belki de yaşanmayacak. 30 00:01:27,638 --> 00:01:30,823 Ama eğer bir olayın yıkıcı olma ihtimali varsa, 31 00:01:30,823 --> 00:01:33,691 gerçekleşme ihtimali olmasa bile, ondan korunmak için 32 00:01:33,691 --> 00:01:37,527 ona önemli bir öncelik vermeye değer demektir, 33 00:01:37,527 --> 00:01:40,930 tıpkı evimize yangın sigortası yaptırmamız gibi. 34 00:01:42,040 --> 00:01:47,037 Ve bilim daha büyük bir güç ve umut vaat ettiği için 35 00:01:47,037 --> 00:01:50,903 dezavantajları daha korkutucu hale geliyor. 36 00:01:50,903 --> 00:01:53,142 Gittikçe daha savunmasız hale geliyoruz. 37 00:01:53,142 --> 00:01:55,150 Gelecek on - onbeş yıl içinde, 38 00:01:55,150 --> 00:01:59,030 milyonlarca kişi tıpkı bugün siber teknolojiyi kötüye kullandıkları gibi 39 00:01:59,030 --> 00:02:01,191 biyoteknolojiyi de kötüye kullanma 40 00:02:01,191 --> 00:02:03,594 gücüne kavuşacaklar. 41 00:02:03,884 --> 00:02:07,083 Bir TED konuşmasında Freeman Dyson, 42 00:02:07,083 --> 00:02:10,679 tıpkı kendi jenerasyonunun kimya aletleriyle oynadığı gibi 43 00:02:10,679 --> 00:02:15,190 gelecekteki çocukların yeni organizmalar tasarlayıp yaratacaklarını öngörmüştü. 44 00:02:15,190 --> 00:02:17,718 Bu, uç noktada bir bilim kurgu olabilir; 45 00:02:17,718 --> 00:02:21,461 ama şayet senaryosunun bir parçası bile gerçekleşecek olursa, 46 00:02:21,461 --> 00:02:23,638 ekolojimiz ve hatta türümüz 47 00:02:23,638 --> 00:02:27,237 kesinlikle uzun süre sağ salim kalmayacaktır. 48 00:02:27,627 --> 00:02:31,490 Örneğin, insan sayısının çok daha az olmasının 49 00:02:31,490 --> 00:02:34,429 gezegen için, Gaia için daha iyi olacağını düşünen 50 00:02:34,429 --> 00:02:37,092 bazı aşırı çevreciler var. 51 00:02:37,402 --> 00:02:40,299 Böyle düşünen insanlar, 2050 yılına kadar dünya çapında 52 00:02:40,299 --> 00:02:42,696 yayılmış olacak sentetik biyoloji 53 00:02:42,696 --> 00:02:45,108 alanında uzmanlaşırsa ne olur? 54 00:02:45,108 --> 00:02:48,150 İşte o zaman başka bilim kurgu kabusları 55 00:02:48,150 --> 00:02:49,860 gerçeğe dönüşebilir: 56 00:02:49,860 --> 00:02:51,930 serserileşen kalın kafalı robotlar 57 00:02:51,930 --> 00:02:54,347 veya kendi beynini yaratan ağlar 58 00:02:54,347 --> 00:02:56,606 hepimizi tehdit eder. 59 00:02:56,936 --> 00:03:00,206 Evet, peki biz bir düzenlemeyle bu risklerden korunabilir miyiz? 60 00:03:00,206 --> 00:03:02,613 Kesinlikle denemeliyiz ama bu girişimler 61 00:03:02,613 --> 00:03:05,242 öyle zorlu, öyle küresel 62 00:03:05,242 --> 00:03:08,122 ve ticari baskı tarafından öyle yönlendirilmiş ki; 63 00:03:08,122 --> 00:03:11,407 yapılabilecek herhangi bir şey, bir yerlerde mutlaka yapılacaktır; 64 00:03:11,407 --> 00:03:13,443 düzenlemeler ne derse desin. 65 00:03:13,443 --> 00:03:16,930 Bu tıpkı uyuşturucu yasaları gibi — düzenlemeye çalışırız ama yapamayız. 66 00:03:16,930 --> 00:03:19,974 Küresel köyün ahmak köylüleri de olacaktır 67 00:03:19,974 --> 00:03:23,470 ve onların küresel çeşitlilikleri olacaktır. 68 00:03:23,470 --> 00:03:25,761 Yani kitabımda söylediğim gibi, 69 00:03:25,761 --> 00:03:28,650 bu yüzyılda sıkıntılarla karşılaşacağız. 70 00:03:28,650 --> 00:03:32,140 Toplumumuzda aksaklıklar olabilir — 71 00:03:32,140 --> 00:03:36,255 aslında, büyük bir aksaklığın olma ihtimali yüzde 50. 72 00:03:36,255 --> 00:03:38,996 Ama daha kötüye gidebilecek 73 00:03:39,027 --> 00:03:41,330 akla gelen olaylar var mıdır, 74 00:03:41,330 --> 00:03:44,760 tüm yaşamı yok edecek olaylar? 75 00:03:44,760 --> 00:03:47,686 Yeni bir parçacık hızlandırıcısı devreye girdiğinde, 76 00:03:47,686 --> 00:03:49,475 bazı insanlar endişeyle sordular: 77 00:03:49,475 --> 00:03:51,725 bu Dünyayı yok edebilir miydi, ya da daha kötüsü 78 00:03:51,725 --> 00:03:54,384 uzayın yapısını parçalara ayırabilir miydi? 79 00:03:54,384 --> 00:03:57,927 Neyse ki, iç rahatlatan şeyler sunulabildi. 80 00:03:57,927 --> 00:03:59,741 Ben ve bir kaç başka kişi 81 00:03:59,741 --> 00:04:02,104 doğanın, kozmik ışın çarpışmaları yoluyla 82 00:04:02,104 --> 00:04:03,740 aynı deneyleri zaten 83 00:04:03,740 --> 00:04:05,855 milyarlarca defa yaptığını belirttik. 84 00:04:05,855 --> 00:04:08,909 Ama bilim adamları tabi ki doğal dünyada 85 00:04:08,909 --> 00:04:11,489 benzeri görülmemiş koşullar yaratan 86 00:04:11,489 --> 00:04:13,972 deneyler söz konusuysa, tedbirli olmalıdır. 87 00:04:13,972 --> 00:04:17,395 Biyologlar, genetiğiyle oynanmış, hasar verme potansiyeli olan 88 00:04:17,395 --> 00:04:20,110 patojenleri açığa çıkarmaktan kaçınmalıdır. 89 00:04:20,110 --> 00:04:23,627 Bu arada, bizim gerçek varoluşsal felaket risklerine 90 00:04:23,627 --> 00:04:27,088 karşı olan çekincemiz, özellikle 91 00:04:27,088 --> 00:04:30,363 felsefik ve etik bir soruya dayanır. 92 00:04:30,363 --> 00:04:32,033 Soru şudur: 93 00:04:32,033 --> 00:04:34,341 İki senaryo düşünün. 94 00:04:34,341 --> 00:04:38,917 A senaryosu insanlığın yüzde 90'ını yok ediyor. 95 00:04:38,917 --> 00:04:43,473 B senaryosu yüzde 100'ünü yok ediyor. 96 00:04:43,473 --> 00:04:46,391 B, A'dan ne kadar daha kötü? 97 00:04:46,391 --> 00:04:49,414 Bazıları yüzde 10 daha kötü olduğunu söyleyecektir. 98 00:04:49,414 --> 00:04:52,564 Kişi sayısı yüzde 10 daha fazla. 99 00:04:52,564 --> 00:04:55,470 Ama benim düşüncem, B kıyaslanamaz derecede daha kötü. 100 00:04:55,470 --> 00:04:58,099 Bir gökbilimci olarak, ben insanların hikayenin 101 00:04:58,099 --> 00:05:00,566 sonu olduğuna inanamam. 102 00:05:00,566 --> 00:05:03,889 Güneşin sönmesine daha 5 milyar yıl var 103 00:05:03,889 --> 00:05:06,600 ve evren sonsuza kadar var olabilir. 104 00:05:06,600 --> 00:05:08,892 Yani insandan sonra Dünya'da 105 00:05:08,892 --> 00:05:11,082 ve ötesinde gerçekleşecek evrim, 106 00:05:11,082 --> 00:05:13,796 bizi ortaya çıkaran Darwinsel süreç kadar uzun 107 00:05:13,796 --> 00:05:17,077 ve belki daha harika olabilir. 108 00:05:17,077 --> 00:05:19,741 Ve aslında, gelecek evrim daha hızlı gerçekleşecek, 109 00:05:19,741 --> 00:05:21,940 teknolojik zaman periyodunda, 110 00:05:21,940 --> 00:05:24,239 doğal seçilim periyodunda değil. 111 00:05:24,239 --> 00:05:28,434 Yani, biz tabi ki bu büyük tehlikelerden ötürü, 112 00:05:28,434 --> 00:05:31,820 insanlığın yok olmasının 113 00:05:31,820 --> 00:05:34,049 bu büyük potansiyeli önlemesinin 114 00:05:34,049 --> 00:05:36,359 milyarda bir riski bile kabul etmemeliyiz. 115 00:05:36,359 --> 00:05:38,131 Öngörülen bazı senaryolar 116 00:05:38,131 --> 00:05:39,950 daha çok bilim kurgu olabilir 117 00:05:39,950 --> 00:05:43,336 ama diğerleri rahatsız edecek derecede gerçek olabilir. 118 00:05:43,336 --> 00:05:46,210 Şu atasözünün söylediği önemlidir: 119 00:05:46,210 --> 00:05:48,907 Alışılmadık demek, olasılıksız demek değildir. 120 00:05:48,907 --> 00:05:51,305 Aslında bu yüzden biz Cambridge Üniversitesi'nde 121 00:05:51,305 --> 00:05:54,680 bu varoluşsal riskleri azaltmaya çalışmak için 122 00:05:54,680 --> 00:05:56,712 bir merkez kuruyoruz. 123 00:05:56,712 --> 00:06:00,095 Öyle görünüyor ki bu olası felaketler sadece birkaç 124 00:06:00,095 --> 00:06:02,091 kişi işin önemli. 125 00:06:02,091 --> 00:06:05,104 Ve başkalarından gelebilecek bütün yardımlara ihtiyacımız var, 126 00:06:05,104 --> 00:06:07,583 çünkü biz sonsuz evrende bulunan, 127 00:06:07,583 --> 00:06:11,066 değerli bir soluk mavi noktanın koruyucularıyız, 128 00:06:11,066 --> 00:06:14,444 önünde 50 milyon yüzyılı daha olan bir gezegenin. 129 00:06:14,444 --> 00:06:17,000 Öyleyse bu geleceği tehlikeye atmayalım. 130 00:06:17,000 --> 00:06:18,795 Konuşmamı Peter Madawar adındaki büyük bir 131 00:06:18,795 --> 00:06:22,296 bilimciden alıntı yaparak sonlandırmak istiyorum. 132 00:06:22,296 --> 00:06:25,569 ''İnsanlık için çalan çanlar, 133 00:06:25,569 --> 00:06:28,213 Alp dağlarının sığırlarının çanlarına benzer. 134 00:06:28,213 --> 00:06:30,499 Onlar bizim boyunlarımıza bağlılar ve eğer 135 00:06:30,499 --> 00:06:33,174 uyumlu ve melodili sesler çıkarmıyorlarsa, 136 00:06:33,174 --> 00:06:35,305 bu bizim hatamızdır.'' 137 00:06:35,305 --> 00:06:37,572 Çok teşekkür ederim. 138 00:06:37,572 --> 00:06:39,685 (Alkış)