1 00:00:01,000 --> 00:00:03,236 Birçoğumuzun muzdarip olduğu 2 00:00:03,256 --> 00:00:05,330 bir önsezi yetersizliğinden bahsedeceğim. 3 00:00:05,480 --> 00:00:08,520 Belirli tür bir tehlikeyi sezmek gerçekten bir yetersizliktir. 4 00:00:09,360 --> 00:00:11,096 Bir senaryo anlatacağım, 5 00:00:11,120 --> 00:00:14,376 korkunç olduğunu düşündüğüm 6 00:00:14,400 --> 00:00:16,160 ve gerçekleşmesi muhtemel olan 7 00:00:16,840 --> 00:00:18,496 ve görünen o ki 8 00:00:18,520 --> 00:00:20,056 iyi bir kombinasyon da değil. 9 00:00:20,080 --> 00:00:22,536 Yine de korkmak yerine çoğunuz, bahsettiklerimin 10 00:00:22,560 --> 00:00:24,640 havalı olduğunu düşüneceksiniz. 11 00:00:25,200 --> 00:00:28,176 Yapay zekâdaki kazanımlarımızın 12 00:00:28,200 --> 00:00:29,976 nihayetinde bizi nasıl 13 00:00:30,000 --> 00:00:31,776 mahvedeceğinden bahsedeceğim. 14 00:00:31,800 --> 00:00:35,256 Hatta bence, bizi mahvetmeyeceğini veya kendimizi mahvetmeyi bize 15 00:00:35,280 --> 00:00:36,960 aşılamayacağını düşünmek çok güç. 16 00:00:37,400 --> 00:00:39,256 Fakat sizler de benim gibiyseniz, 17 00:00:39,280 --> 00:00:41,936 bunları düşünmenin zevkli olacağını keşfedeceksiniz. 18 00:00:41,960 --> 00:00:45,336 Ve bu yanıtta sorunun bir parçası. 19 00:00:45,360 --> 00:00:47,080 Bu yanıt sizi endişelendirmeli. 20 00:00:47,920 --> 00:00:50,576 Bu konuşmada sizi, olası bir küresel bir kıtlığa, 21 00:00:50,600 --> 00:00:54,016 iklim değişikliği veya başka bir afetten dolayı, 22 00:00:54,040 --> 00:00:57,096 torunlarınız veya onların torunlarının muhtemelen 23 00:00:57,120 --> 00:01:00,536 bu şekilde yaşama durumuna 24 00:01:00,560 --> 00:01:02,360 yakın olduğuna ikna ediyor olsaydım, 25 00:01:03,200 --> 00:01:04,400 "İlginç. 26 00:01:05,440 --> 00:01:06,776 Bu TED konuşmasını beğendim." 27 00:01:06,800 --> 00:01:08,000 diye düşünmezdiniz. 28 00:01:09,200 --> 00:01:10,720 Kıtlık eğlenceli değildir. 29 00:01:11,800 --> 00:01:14,280 Diğer taraftan bilim kurgudaki ölüm ise eğlencelidir 30 00:01:14,280 --> 00:01:16,850 ve bu noktada beni yapay zekâdaki 31 00:01:16,850 --> 00:01:19,200 en çok endişelendiren gelişmelerden biri, 32 00:01:19,200 --> 00:01:23,296 önümüzde uzanan tehlikelere, uygun duyarlı bir yanıtı 33 00:01:23,320 --> 00:01:25,136 sıralayamıyor gibi görünüyoruz. 34 00:01:25,160 --> 00:01:28,360 Bu yanıtı sıralayamıyorum ve bu konuşmayı yapıyorum. 35 00:01:30,120 --> 00:01:32,816 İki kapının önünde duruyoruz gibi. 36 00:01:32,840 --> 00:01:34,096 1 numaralı kapının ardında 37 00:01:34,120 --> 00:01:37,416 zeki makine üretmedeki gelişmeleri durduruyoruz. 38 00:01:37,440 --> 00:01:39,360 Her nedense bilgisayarlarımızın donanım 39 00:01:39,360 --> 00:01:41,480 ve yazılımı daha iyi olmayı durduruyor. 40 00:01:41,480 --> 00:01:43,300 Şimdi bir dakikanızı ayırın ve bunun 41 00:01:43,300 --> 00:01:45,080 neden olabileceğini değerlendirin. 42 00:01:45,080 --> 00:01:46,770 Yani, zekâ ve otomasyonun ne kadar 43 00:01:46,770 --> 00:01:48,760 değerli olduğu göz önüne alındığında, 44 00:01:48,760 --> 00:01:52,280 yapabilirsek, teknolojimizi geliştirmeye devam edeceğiz. 45 00:01:53,200 --> 00:01:54,867 Bunu yapmamızı ne engelleyebilir? 46 00:01:55,800 --> 00:01:57,600 Büyük çaplı bir nükleer savaş mı? 47 00:01:59,000 --> 00:02:00,560 Küresel bir salgın mı? 48 00:02:02,320 --> 00:02:03,640 Asteroit çarpması mı? 49 00:02:05,640 --> 00:02:08,140 Justin Bieber'in Amerika Başkanı olması mı? 50 00:02:08,140 --> 00:02:10,520 (Kahkahalar) 51 00:02:12,760 --> 00:02:14,360 Mesele şu ki, bildiğimiz üzere 52 00:02:14,360 --> 00:02:17,360 bir şeyler medeniyeti yok etmeli. 53 00:02:17,360 --> 00:02:21,656 Ne kadar kötü olabileceğini hayal etmelisiniz, 54 00:02:21,680 --> 00:02:25,016 teknolojimizde iyileştirme yapmamızı engellemenin, 55 00:02:25,040 --> 00:02:26,256 daimi olarak, 56 00:02:26,280 --> 00:02:28,296 nesilden nesile. 57 00:02:28,320 --> 00:02:30,410 Neredeyse, doğası gereği 58 00:02:30,410 --> 00:02:32,496 bu, insan tarihinde gerçekleşen en kötü şey. 59 00:02:32,520 --> 00:02:33,816 Bu yüzden tek alternatif, 60 00:02:33,840 --> 00:02:36,176 ikinci kapının ardındaki, 61 00:02:36,200 --> 00:02:39,336 akıllı makinelerimizi yıllar geçtikçe 62 00:02:39,360 --> 00:02:40,960 geliştirmeye devam etmemiz. 63 00:02:41,720 --> 00:02:45,360 Bir noktada da bizden daha akıllı makineler inşa edeceğiz 64 00:02:46,080 --> 00:02:48,696 ve bizden akıllı makinelerimiz olduğunda onlar, 65 00:02:48,720 --> 00:02:50,696 kendilerini geliştirmeye başlayacaklar. 66 00:02:50,720 --> 00:02:53,456 Ve sonra, matematikçi IJ Good'un "zekâ patlaması" olarak 67 00:02:53,480 --> 00:02:55,256 adlandırdığı bu süreçle, 68 00:02:55,280 --> 00:02:57,280 bizden kurtulabilecekler. 69 00:02:58,120 --> 00:03:00,936 Sıklıkla karikatürize edilir, benim de burada yaptığım gibi, 70 00:03:00,960 --> 00:03:04,176 korku kötücül robot ordularının 71 00:03:04,200 --> 00:03:05,456 bize saldırmaları. 72 00:03:05,480 --> 00:03:08,176 Ama bu çok da olası bir senaryo değil. 73 00:03:08,200 --> 00:03:13,056 Kendiliğinden makinelerimiz kötücül olacak değil. 74 00:03:13,080 --> 00:03:15,696 Asıl kaygılandıran ise; bizden o kadar çok daha yetkin 75 00:03:15,720 --> 00:03:17,776 makineler üreteceğiz ki bizim ve onların 76 00:03:17,800 --> 00:03:21,576 amaçları arasındaki en küçük bir fark, bizi 77 00:03:21,600 --> 00:03:22,800 ortadan kaldırabilecek. 78 00:03:23,960 --> 00:03:26,260 Nasıl da karıncalar gibi olacağımızı bir düşünün. 79 00:03:26,600 --> 00:03:28,030 Onlardan nefret etmiyoruz. 80 00:03:28,030 --> 00:03:30,406 Onlara zarar vermek için yolumuzu değiştirmiyoruz. 81 00:03:30,406 --> 00:03:32,736 Üstelik bazen onlara zarar vermemeye çalışıyoruz. 82 00:03:32,760 --> 00:03:34,776 Kaldırımlarda üzerlerinden geçiyoruz. 83 00:03:34,800 --> 00:03:36,936 Ancak ne zaman onların varlıkları 84 00:03:36,960 --> 00:03:39,456 bizim hedeflerimizle çakışsa, 85 00:03:39,480 --> 00:03:41,957 diyelim ki bu gibi bir bina inşa ederken, 86 00:03:41,981 --> 00:03:43,941 tereddütsüz imha edebiliyoruz onları. 87 00:03:44,480 --> 00:03:47,416 Endişe uyandıran ise bir gün, bilinçli olsun veya olmasın 88 00:03:47,440 --> 00:03:50,176 bize de benzer bir umursamazlıkla muamele edebilecek 89 00:03:50,200 --> 00:03:52,200 makineler üreteceğiz. 90 00:03:53,760 --> 00:03:56,520 Zannederim ki bir çoğunuza ihtimal dışı görünüyor bu durum. 91 00:03:57,360 --> 00:04:00,720 Eminim ki bazılarınız süper zeki 92 00:04:00,720 --> 00:04:03,480 Yapay Zekâ'nın kaçınılmaz olması şöyle dursun, 93 00:04:03,480 --> 00:04:05,376 mümkünlüğünden dahi şüphe duyuyor. 94 00:04:05,400 --> 00:04:07,120 Ancak sonra ileriki varsayımlardan 95 00:04:07,120 --> 00:04:09,044 bazılarında bir tuhaflık bulmalısınız. 96 00:04:09,044 --> 00:04:10,616 Ve sadece üç tanesi var. 97 00:04:11,800 --> 00:04:16,519 Zekâ, fiziksel sistemlerde bilgi işleme ile ilgilidir. 98 00:04:17,320 --> 00:04:19,935 Aslında bu bir varsayımdan biraz fazla. 99 00:04:19,959 --> 00:04:23,416 Zaten makinelerimizde kısıtlı zekâyı kurduk ve 100 00:04:23,440 --> 00:04:25,456 bu makinelerin çoğu çoktan 101 00:04:25,480 --> 00:04:28,120 üstün insan seviyesinde bir performansta. 102 00:04:28,840 --> 00:04:31,416 Ve biliyoruz ki bu mutlak mesele, 103 00:04:31,440 --> 00:04:34,056 "genel zekâ" denilen birçok alanda esneklikle 104 00:04:34,080 --> 00:04:37,736 düşünebilme yeteneğine sebep olabilir, 105 00:04:37,760 --> 00:04:40,896 çünkü beyinlerimiz bunu başardı değil mi? 106 00:04:40,920 --> 00:04:44,856 Yani sadece atomlar var burada 107 00:04:44,880 --> 00:04:49,376 ve biz gitgide daha zeki davranışlar sergileyen atomlar 108 00:04:49,400 --> 00:04:52,096 sistemi kurmaya devam ettikçe, 109 00:04:52,120 --> 00:04:54,656 nihayetinde makinelerimize 110 00:04:54,680 --> 00:04:58,056 genel zekâyı kurabileceğiz, 111 00:04:58,080 --> 00:04:59,376 engellenmedikçe. 112 00:04:59,400 --> 00:05:03,056 İlerlemenin seviyesinin önemli olmadığının farkına varmak çok mühim, 113 00:05:03,080 --> 00:05:06,240 çünkü herhangi bir gelişme bizi sayı çizgisine getirmeye yetebilir. 114 00:05:06,240 --> 00:05:08,390 Devam etmek için Moore kanununa gerek yok. 115 00:05:08,390 --> 00:05:10,080 Üstel bir gelişime ihtiyacımız yok. 116 00:05:10,080 --> 00:05:11,680 Sadece devam etmeliyiz. 117 00:05:13,480 --> 00:05:16,400 İkinci varsayım ise devam etmemiz. 118 00:05:17,000 --> 00:05:19,760 Akıllı makinelerimizi geliştirmeye devam edeceğiz. 119 00:05:21,000 --> 00:05:25,376 Ve zekânın değeri göz önüne alınırsa, 120 00:05:25,400 --> 00:05:28,770 yani zekâ ya bütün değer verdiklerimizin kaynağıdır ya da 121 00:05:28,770 --> 00:05:30,000 değer verdiğimiz her şeyi 122 00:05:30,000 --> 00:05:31,760 korumak için ona ihtiyacımız vardır. 123 00:05:31,760 --> 00:05:34,016 Bizim en değerli kaynağımızdır. 124 00:05:34,040 --> 00:05:35,576 O yüzden bunu yapmak isteriz. 125 00:05:35,600 --> 00:05:38,936 Umutsuzca çözmek istediğimiz problemlerimiz vardır. 126 00:05:38,960 --> 00:05:42,160 Alzheimer ve kanser gibi hastalıkları tedavi etmek isteriz. 127 00:05:42,960 --> 00:05:44,920 Ekonomi sistemlerini anlamak isteriz. 128 00:05:44,920 --> 00:05:46,920 İklim bilimini ilerletmek isteriz. 129 00:05:46,920 --> 00:05:49,176 Yani yapabilirsek bunu yapacağız. 130 00:05:49,200 --> 00:05:52,486 Tren çoktan istasyondan çıktı ve basılabilecek bir fren yok. 131 00:05:53,880 --> 00:05:59,336 Velhasıl, zekânın zirvesinde duramayız 132 00:05:59,360 --> 00:06:01,160 ya da yakınında herhangi bir yerde. 133 00:06:01,640 --> 00:06:03,536 Ve bu gerçekten mühim bir öngörüdür. 134 00:06:03,560 --> 00:06:05,976 Durumumuzu istikrarsız yapan ve 135 00:06:06,000 --> 00:06:10,040 risk hakkındaki sezgilerimizi güvenilmez kılan bu durum. 136 00:06:11,120 --> 00:06:13,840 Şimdi yaşamış en zeki insanı düşünün. 137 00:06:14,640 --> 00:06:18,056 Buradaki hemen hemen herkesin son listesinde John von Neumann vardır. 138 00:06:18,080 --> 00:06:21,416 Yani, John von Neumann' nın çevresindeki insanlardaki etkisi, 139 00:06:21,440 --> 00:06:25,496 zamanının en iyi matematikçileri ve fizikçileri de dâhil olmak üzere, 140 00:06:25,520 --> 00:06:27,456 oldukça detaylı olarak hazırlanmış. 141 00:06:27,480 --> 00:06:31,256 Hakkında anlatılanların yarısı yarı gerçek ise 142 00:06:31,280 --> 00:06:32,496 şimdiye dek yaşamış 143 00:06:32,520 --> 00:06:34,976 en zeki insan olduğuna şüphe yok. 144 00:06:35,000 --> 00:06:37,520 Öyleyse zekâ spektrumunu bir düşünün. 145 00:06:38,320 --> 00:06:39,749 Bir tarafta John von Neumann 146 00:06:41,560 --> 00:06:42,894 ve diğer tarafta siz ve ben. 147 00:06:44,120 --> 00:06:45,416 Ve bir de tavuk. 148 00:06:45,440 --> 00:06:47,376 (Gülüşmeler) 149 00:06:47,400 --> 00:06:48,616 Pardon, bir tavuk. 150 00:06:48,640 --> 00:06:49,896 (Gülüşmeler) 151 00:06:49,920 --> 00:06:53,656 Bu konuşmayı gereğinden daha depresif yapmama gerek yok. 152 00:06:53,680 --> 00:06:55,280 (Gülüşmeler) 153 00:06:56,339 --> 00:06:59,816 Ezici bir üstünlükle olası görünüyor ancak zekâ spektrumu 154 00:06:59,840 --> 00:07:02,960 şu anda tasarlayabileceğimizden daha da ileriye uzanıyor 155 00:07:03,880 --> 00:07:07,096 ve kendimizden daha zeki makineler üretirsek 156 00:07:07,120 --> 00:07:09,416 büyük ihtimalle bu spektrumu hayal edemeyeceğimiz 157 00:07:09,440 --> 00:07:11,296 ölçüde keşfedecekler 158 00:07:11,320 --> 00:07:13,840 ve o ölçüde bizi aşacaklar. 159 00:07:15,000 --> 00:07:19,336 Ve hızın fazileti gereği bunun doğru olduğunu anlamak önemli. 160 00:07:19,360 --> 00:07:24,416 Değil mi? Stanford veya MIT'deki ortalama araştırmacı takımınızdan 161 00:07:24,440 --> 00:07:27,896 daha zeki olmayan süper zeki Yapay Zekâ 162 00:07:27,920 --> 00:07:30,216 geliştirdiğimizi düşünün. 163 00:07:30,240 --> 00:07:33,216 Elektronik devreler, biyokimyasallardan milyon kez 164 00:07:33,240 --> 00:07:34,496 daha hızlı çalışır, yani 165 00:07:34,520 --> 00:07:37,656 bu makine onu yapan beyinlerden milyon kez daha 166 00:07:37,680 --> 00:07:39,496 hızlı çalışmalıdır. 167 00:07:39,520 --> 00:07:41,406 Bir haftalığına çalışmaya ayarlasanız 168 00:07:41,406 --> 00:07:45,760 ve insan seviyesinde 20.000 yıl sürecek zihinsel 169 00:07:46,400 --> 00:07:48,360 işleri yapacak, haftalarca. 170 00:07:49,640 --> 00:07:52,736 Engellemek şöyle dursun, bu tarz bir zihinsel 171 00:07:52,760 --> 00:07:55,040 ilerlemeyi nasıl durdurabiliriz ki? 172 00:07:56,840 --> 00:07:58,976 Endişe uyandıran diğer bir şey ise, 173 00:07:59,000 --> 00:08:03,976 açıkcası, olabilecek en iyi senaryoyu düşünün. 174 00:08:04,000 --> 00:08:08,080 Hiçbir kaygı barındırmayan bir süper zeki Yapay Zekâ 175 00:08:08,080 --> 00:08:09,576 tasarımı keşfettiğimizi düşünün. 176 00:08:09,600 --> 00:08:12,856 İlk seferde en iyi tasarımı bulduk. 177 00:08:12,880 --> 00:08:15,096 Tam da istenilen şekilde davranan bir 178 00:08:15,120 --> 00:08:17,136 kâhin bize verilmiş gibi. 179 00:08:17,160 --> 00:08:20,880 Bu makine müthiş bir işten tasarruf ettiren bir aygıt olurdu. 180 00:08:21,680 --> 00:08:24,299 Güneş ışığıyla çalışan, herhangi bir fiziksel işi yapabilen, 181 00:08:24,299 --> 00:08:25,896 aşağı yukarı ham maddeleri 182 00:08:25,920 --> 00:08:27,376 maliyetinde olan makineyi 183 00:08:27,400 --> 00:08:30,096 yapabilecek makineyi tasarlayabilir. 184 00:08:30,120 --> 00:08:33,376 Yani insanların yaptığı angarya işlerin sonundan bahsediyoruz. 185 00:08:33,400 --> 00:08:36,200 Aynı zamanda çoğu zihinsel işlerin de sonundan bahsediyoruz. 186 00:08:37,200 --> 00:08:40,256 Böyle bir durumda biz maymunlar ne yapardık? 187 00:08:40,280 --> 00:08:44,360 Birbirimize masaj yapabilir ve frizbi oynayabiliriz. 188 00:08:45,840 --> 00:08:48,550 Biraz LSD ve tartışmaya açık giysi seçimlerini de ekleyin 189 00:08:48,550 --> 00:08:51,006 ve bütün dünya Burning Man (festival) gibi olabilir. 190 00:08:51,006 --> 00:08:52,560 (Gülüşmeler) 191 00:08:54,320 --> 00:08:56,320 Şimdi kulağa hoş gelebilir ama 192 00:08:57,280 --> 00:08:59,656 kendinize şu anki ekonomik ve siyasi düzenimizde 193 00:08:59,680 --> 00:09:02,416 ne olabileceğini sorun. 194 00:09:02,440 --> 00:09:04,856 Daha önce görmediğimiz düzeyde 195 00:09:04,880 --> 00:09:09,016 eşitsiz bir zenginlik ve işsizliğe 196 00:09:09,040 --> 00:09:10,536 tanık olurduk gibi görünüyor. 197 00:09:10,560 --> 00:09:13,176 Bu yeni zenginliği derhal tüm insanlığın hizmetine 198 00:09:13,200 --> 00:09:14,680 sunmadaki isteksizlikle, 199 00:09:15,640 --> 00:09:19,256 dünyanın geri kalanı açlıktan ölürken birkaç trilyoner 200 00:09:19,280 --> 00:09:21,780 ekonomi dergilerimizin kapaklarını süslüyor olabilir. 201 00:09:22,260 --> 00:09:24,616 Peki ya Ruslar ya da Çinliler, Silikon Vadisi'ndeki 202 00:09:24,640 --> 00:09:27,256 bazı şirketlerin üstün zeki Yapay Zekâ'yı dağıtmak 203 00:09:27,280 --> 00:09:30,016 üzere olduğunu duysa ne yaparlardı? 204 00:09:30,040 --> 00:09:32,896 Karasal ya da siber, bu makine 205 00:09:32,920 --> 00:09:35,136 tahmin edilemez bir güçle savaş 206 00:09:35,160 --> 00:09:36,840 çıkarabilecek potansiyelde olurdu. 207 00:09:38,120 --> 00:09:40,076 Bu kazananın her şeyi aldığı bir senaryo. 208 00:09:40,076 --> 00:09:43,136 Buradaki rekabetten 6 ay ilerde olmak 209 00:09:43,160 --> 00:09:45,936 minimum 500.000 yıl 210 00:09:45,960 --> 00:09:47,456 ileride olmaktır. 211 00:09:47,480 --> 00:09:52,216 Demek ki bu tür bir atılımın sadece söylentisi bile 212 00:09:52,240 --> 00:09:54,616 türümüzün çıldırmasına yol açabiliyor. 213 00:09:54,640 --> 00:09:57,536 Şimdi en korkutucu şeylerden bir tanesi 214 00:09:57,560 --> 00:10:00,336 bana göre, şu anda, 215 00:10:00,360 --> 00:10:04,656 Yapay Zekâ araştırmacılarının güven verici olmak istediklerinde 216 00:10:04,680 --> 00:10:06,240 söyledikleri şeyler. 217 00:10:06,920 --> 00:10:08,490 Ve en sık bize endişe etmememiz 218 00:10:08,490 --> 00:10:10,480 için söylenen neden ise zaman. 219 00:10:10,480 --> 00:10:12,536 Çok çok uzakta, haberin yok mu? 220 00:10:12,560 --> 00:10:15,000 Muhtemelen 50 ya da 100 yıl kadar uzakta. 221 00:10:15,720 --> 00:10:16,930 Bir araştırmacı dedi ki; 222 00:10:16,930 --> 00:10:18,756 "Yapay Zekâ güvenliği için endişelenmek 223 00:10:18,756 --> 00:10:20,990 Mars'ta aşırı nüfus artışına endişelenmek gibi." 224 00:10:22,116 --> 00:10:23,736 Bu Silikon Vadisi'nin 225 00:10:23,760 --> 00:10:26,136 "Sıkmayın tatlı canınızı" versiyonu. 226 00:10:26,160 --> 00:10:27,496 (Gülüşmeler) 227 00:10:27,520 --> 00:10:29,416 Zamana referanslamanın 228 00:10:29,440 --> 00:10:32,056 tamamen yersiz bir deyim 229 00:10:32,080 --> 00:10:34,656 olduğunu kimse fark etmiyor. 230 00:10:34,680 --> 00:10:37,936 Zekâ eğer bilgi işlemeden ibaretse 231 00:10:37,960 --> 00:10:40,616 ve biz makinelerimizi geliştirmeye devam edersek 232 00:10:40,640 --> 00:10:43,520 bir tür süper zekâ üreteceğiz. 233 00:10:44,320 --> 00:10:47,976 Ve güvenli bir biçimde yapmak için gerekli şartları yaratmanın 234 00:10:48,000 --> 00:10:50,400 ne kadar süreceği hakkında hiçbir fikrimiz yok. 235 00:10:52,200 --> 00:10:53,496 Bir daha söyleyeyim. 236 00:10:53,520 --> 00:10:57,336 Güvenli bir biçimde yapmak için gerekli şartları yaratmanın 237 00:10:57,360 --> 00:10:59,600 ne kadar süreceği hakkında hiçbir fikrimiz yok. 238 00:11:00,920 --> 00:11:04,376 Ve eğer fark etmediyseniz, 50 yıl eskisi gibi değil artık. 239 00:11:04,400 --> 00:11:06,856 Bu ay olarak 50 yıl. 240 00:11:06,880 --> 00:11:08,720 Bu kadar zamandır iPhone var. 241 00:11:09,440 --> 00:11:12,040 Bu kadar zamandır "The Simpsons" (Simpsonlar) televizyonda. 242 00:11:12,680 --> 00:11:15,056 50 yıl, türümüzün karşılaşabileceği 243 00:11:15,080 --> 00:11:18,240 en büyük zorluklar için fazla bir zaman değil. 244 00:11:19,640 --> 00:11:23,656 Bir defa daha uygun duygusal karşılık vermede başarısız gibiyiz, 245 00:11:23,680 --> 00:11:26,376 yaklaştığına inanmamız için tüm gerekçelere sahipken. 246 00:11:26,400 --> 00:11:30,376 Bilgisayar bilimcisi Stuart Russell'ın güzel bir benzetimi var. 247 00:11:30,400 --> 00:11:35,296 Diyor ki; uzaylı bir medeniyetten bir mektup aldığımızı düşünün, 248 00:11:35,320 --> 00:11:37,016 şöyle diyor: 249 00:11:37,040 --> 00:11:38,576 "Dünya Halkı, 250 00:11:38,600 --> 00:11:40,960 50 yıl içinde gezegeninize ulaşacağız. 251 00:11:41,800 --> 00:11:43,376 Hazırlanın." 252 00:11:43,400 --> 00:11:47,656 Ve şimdi, ana gemi varana kadar ay ay geri mi sayacağız? 253 00:11:47,680 --> 00:11:50,680 Normalden biraz daha fazla aciliyet hissederdik. 254 00:11:52,680 --> 00:11:54,312 Endişelenmememiz söylenen 255 00:11:54,312 --> 00:11:55,394 bir diğer gerekçe ise 256 00:11:55,394 --> 00:11:58,046 bu makinelerin istemeden bizim değerlerimizi paylaşacak 257 00:11:58,046 --> 00:12:00,216 olmaları, çünkü bizim devamımız gibi olacaklar. 258 00:12:00,240 --> 00:12:02,056 Beyinlerimize aşılanacaklar 259 00:12:02,080 --> 00:12:04,440 ve temelde onların limbik sistemi olacağız. 260 00:12:05,120 --> 00:12:06,696 Şimdi bir dakikanızı ayırın ve 261 00:12:06,696 --> 00:12:09,736 önümüzdeki en sağlam ve ihtiyatlı yolun, 262 00:12:09,760 --> 00:12:11,096 önerilenin, bu teknolojiyi 263 00:12:11,120 --> 00:12:12,400 direkt olarak beyinlerimize 264 00:12:12,400 --> 00:12:14,600 yerleştirmek olduğunu değerlendirin. 265 00:12:14,600 --> 00:12:17,976 Belki de bu, önümüzdeki en güvenli ve özenli yol olabilir 266 00:12:18,000 --> 00:12:21,056 ama genelde kişinin teknoloji hakkındaki güvenlik endişelerinin 267 00:12:21,080 --> 00:12:24,736 kafasının içine bir şey yerleştirmeden çözülmesi gerekir. 268 00:12:24,760 --> 00:12:26,776 (Kahkahalar) 269 00:12:26,800 --> 00:12:32,136 Daha derindeki problem ise süper zeki YZ geliştirmek başlı başına 270 00:12:32,160 --> 00:12:33,896 daha kolay gibi görünüyor, 271 00:12:33,920 --> 00:12:35,776 sorunsuzca zihinlerimizle entegre 272 00:12:35,800 --> 00:12:37,576 olabilen tamamlanmış sinirbilimli 273 00:12:37,600 --> 00:12:40,280 bir yapay zekâ geliştirmektense. 274 00:12:40,800 --> 00:12:43,976 Ve farz edelim ki devletlerin ve şirketlerin bunu yapıyorken 275 00:12:44,000 --> 00:12:47,656 birbirleriyle yarış içerisindeymişçe algılamaları 276 00:12:47,680 --> 00:12:50,936 ve bu yarışı kazanmalarının da dünyayı kazanmak sanmaları, 277 00:12:50,960 --> 00:12:53,416 peşi sıra mahvetmemek şartıyla, 278 00:12:53,440 --> 00:12:56,056 sonrasında hangisi en kolaysa 279 00:12:56,080 --> 00:12:57,830 ilk o yapılacakmış gibi görünüyor. 280 00:12:58,560 --> 00:13:01,416 Şu an ne yazık ki bu soruna bir çözümüm yok, 281 00:13:01,440 --> 00:13:04,056 çoğumuza bunu düşünmeyi önermek dışında. 282 00:13:04,080 --> 00:13:06,456 Yapay Zekâ konusunda Manhattan Projesi gibi 283 00:13:06,480 --> 00:13:08,496 bir şeye ihtiyacımız var. 284 00:13:08,520 --> 00:13:09,840 Geliştirmek için değil, çünkü 285 00:13:09,840 --> 00:13:11,870 kaçınılamaz bir şekilde yapacağız bana göre, 286 00:13:11,870 --> 00:13:14,616 ama silahlanma yarışından nasıl kaçıncağımızı anlamak 287 00:13:14,640 --> 00:13:18,136 ve menfaatlerimiz doğrultusunda inşa etmek için. 288 00:13:18,160 --> 00:13:20,296 Süper zeki YZ 'nın kendi başına değişiklikler 289 00:13:20,320 --> 00:13:22,576 yapabileceğinden bahsederken, 290 00:13:22,600 --> 00:13:27,216 ana koşulları doğru anlamada tek şansımız varmış gibi görünüyor 291 00:13:27,240 --> 00:13:29,296 ve o zaman dahi bunları doğru anlamanın 292 00:13:29,320 --> 00:13:32,360 siyasi ve ekonomik sonuçlarını özümsememiz gerekecektir. 293 00:13:33,760 --> 00:13:35,816 Bilgi işlemenin yapay zekânın 294 00:13:35,840 --> 00:13:39,840 kaynağı olduğunu kabul ettiğimiz an, 295 00:13:40,720 --> 00:13:45,520 bu bazı uygun hesaplama sistemlerinin zekânın temeli olduğunu 296 00:13:46,360 --> 00:13:50,120 ve bu sistemleri aralıksız geliştireceğimizi kabul ettiğimizde 297 00:13:51,280 --> 00:13:55,736 ve bilişin ufkunun bildiğimizden daha uzaklara uzandığını 298 00:13:55,760 --> 00:13:56,960 kabul ettiğimizde, 299 00:13:58,120 --> 00:13:59,336 bir çeşit yaratıcı 300 00:13:59,360 --> 00:14:01,070 geliştirme sürecinde olduğumuzu 301 00:14:01,070 --> 00:14:03,310 kabul etmek durumunda olacağız. 302 00:14:03,310 --> 00:14:05,506 Şu an ise bu yaratıcıyla yaşayabilme durumumuza 303 00:14:05,506 --> 00:14:07,423 karar vermek için doğru zaman olabilir. 304 00:14:08,120 --> 00:14:09,656 Çok teşekkürler. 305 00:14:09,680 --> 00:14:14,773 (Alkışlar)