1 00:00:01,000 --> 00:00:03,216 میخواهم درباره فقدانِ بصیرتی صحبت کنم 2 00:00:03,240 --> 00:00:04,840 که بسیاری از ما از آن زیان میبینیم. 3 00:00:05,480 --> 00:00:08,520 این، در واقع ناکامی در پیدا کردنِ نوع خاصی ازخطر است. 4 00:00:09,360 --> 00:00:11,096 میخواهم سناریویی را شرح دهم 5 00:00:11,120 --> 00:00:14,376 که فکر میکنم هم ترسناک است 6 00:00:14,400 --> 00:00:16,160 و هم وقوع آن محتمل، 7 00:00:16,840 --> 00:00:18,496 و آنطوری که معلوم میشود ترکیب 8 00:00:18,520 --> 00:00:20,056 خوبی نیست. 9 00:00:20,080 --> 00:00:22,536 و بجای این که وحشت کنید، اغلب شما احساس خواهید کرد 10 00:00:22,560 --> 00:00:24,640 که موضوع مورد صحبت یکجورهایی باحال است. 11 00:00:25,200 --> 00:00:28,176 میخواهم شرح دهم که چطور یافتههای ما 12 00:00:28,200 --> 00:00:29,976 در هوش مصنوعی میتواند 13 00:00:30,000 --> 00:00:31,776 درنهایت به نابودی ما بیانجامد. 14 00:00:31,800 --> 00:00:35,256 و در واقع، فکر میکنم خیلی سخت است که ببینیم چطور نابودمان نخواهند کرد 15 00:00:35,280 --> 00:00:36,960 یا ما را به نابود کردن خودمان سوق ندهند. 16 00:00:37,400 --> 00:00:39,256 و در عین حال اگر مثل من باشید 17 00:00:39,280 --> 00:00:41,936 خواهید دید فکر کردن به این چیزها جالب است. 18 00:00:41,960 --> 00:00:45,336 و آن واکنش بخشی از مشکل است. 19 00:00:45,360 --> 00:00:47,080 درسته؟ آن واکنش باید نگرانتان کند. 20 00:00:47,920 --> 00:00:50,576 و اگر قرار بود در این سخنرانی متقاعدتان کنم 21 00:00:50,600 --> 00:00:54,016 که احتمالا از یک قحطی جهانی بخاطر 22 00:00:54,040 --> 00:00:57,096 تغییرات جوی یا هر فاجعه دیگری رنج ببریم 23 00:00:57,120 --> 00:01:00,536 و این که نوههای ما یا نوههای آنها 24 00:01:00,560 --> 00:01:02,360 هم احتمال زندگی این شکلی را دشته باشند، 25 00:01:03,200 --> 00:01:04,400 با خودتان فکر نمیکردید، 26 00:01:05,440 --> 00:01:06,776 «جالبه. 27 00:01:06,800 --> 00:01:08,000 از این سخنرانی TED خوشم میآید.» 28 00:01:09,200 --> 00:01:10,720 قحطی جالب نیست. 29 00:01:11,800 --> 00:01:15,176 از سوی دیگر مرگ ناشی از ژانر علمی تخیلی جالب است، 30 00:01:15,200 --> 00:01:19,176 و یکی از چیزهایی که بیش از همه نسبت به توسعه هوش صنوعی در این مرحله نگرانم میکند 31 00:01:19,200 --> 00:01:23,296 این است که به نظر میرسد ما قادر به ایجاد واکنش عاطفی مناسبی 32 00:01:23,320 --> 00:01:25,136 به خطرات در پیشِ روی خود نبودهایم. 33 00:01:25,160 --> 00:01:28,360 حتی من که این سخنرانی را انجام میدهم، قادر نیستم این واکنش را ایجاد کنم. 34 00:01:30,120 --> 00:01:32,816 مثل ایستادن در برابر دو در میماند. 35 00:01:32,840 --> 00:01:34,096 پشت درب شماره یک 36 00:01:34,120 --> 00:01:37,416 ما دست از پیشرفت در ساخت ماشینهای هوشمند میکشیم. 37 00:01:37,440 --> 00:01:41,456 سخت افزار و نرم افزار کامپیوترمان به دلیلی دست از بهتر شدن بر میدارد. 38 00:01:41,480 --> 00:01:44,480 چند لحظه در مورد چرایی این اتفاق تامل کنید. 39 00:01:45,080 --> 00:01:48,736 منظورم این است که با فرض به دانستن این که هوش و ماشینی شدن چقدر با ارزشند، 40 00:01:48,760 --> 00:01:52,280 ما به بهبود فناوری خود ادمه خواهیم داد اگر امکانش باشد. 41 00:01:53,200 --> 00:01:54,867 چه چیزی قادر است سد راهمان شود؟ 42 00:01:55,800 --> 00:01:57,600 یک جنگ هستهای تمام عیار؟ 43 00:01:59,000 --> 00:02:00,560 یک بیماری فراگیر جهانی؟ 44 00:02:02,320 --> 00:02:03,640 اصابت یک اخترواره؟ 45 00:02:05,640 --> 00:02:08,216 جاستین بیبر رییس جمهور آمریکا شود؟ 46 00:02:08,240 --> 00:02:10,520 (خنده) 47 00:02:12,760 --> 00:02:16,680 نکته این است که باید چیزی باشد که تمدن را نابود کند. 48 00:02:17,360 --> 00:02:21,656 باید تصور کنید چقدر بد باید باشد 49 00:02:21,680 --> 00:02:25,016 تا برای همیشه مانع ما در انجام اصلاحات در این فناوری 50 00:02:25,040 --> 00:02:26,256 گردد، 51 00:02:26,280 --> 00:02:28,296 در همه نسلها. 52 00:02:28,320 --> 00:02:30,456 تقریبا طبق تعریف این بدترین چیزی است 53 00:02:30,480 --> 00:02:32,496 که تابحال در تاریخ بشر اتفاق افتاده. 54 00:02:32,520 --> 00:02:33,816 بنابراین تنها جایگزین 55 00:02:33,840 --> 00:02:36,176 که خب پشت درب شماره دو خوابیده 56 00:02:36,200 --> 00:02:39,336 این است که به بهسازی ماشینهای هوشمند هر سالی که بگذرد 57 00:02:39,360 --> 00:02:40,960 ادامه دهیم. 58 00:02:41,720 --> 00:02:45,360 در یک نقطه خاص، ماشینهایی را خواهیم است که از ما باهوشتر هستند، 59 00:02:46,080 --> 00:02:48,696 و وقتی ماشینهایی بسازیم که از ما باهوشتر باشند، 60 00:02:48,720 --> 00:02:50,696 آنها شروع به اصلاح خود می کنند. 61 00:02:50,720 --> 00:02:53,456 و بعد خطر چیزی را خواهیم داشت که ای جی گود ریاضیدان 62 00:02:53,480 --> 00:02:55,256 «انفجار هوش» نامید، 63 00:02:55,280 --> 00:02:57,280 این که این پروسه از کنترل ما خارج شود. 64 00:02:58,120 --> 00:03:00,936 این مساله بیشتر به شکلی که من اینجا نشان میدهم 65 00:03:00,960 --> 00:03:04,176 مثل ترس از این که ارتشهایی از رباتهای بدطینت 66 00:03:04,200 --> 00:03:05,456 به ما حمله کنند، ترسیم شده. 67 00:03:05,480 --> 00:03:08,176 اما این، سناریوی چندان محتملی نیست. 68 00:03:08,200 --> 00:03:13,056 اینطور نیست که ماشینهای ساخت دست ما به یکباره هیولا شوند. 69 00:03:13,080 --> 00:03:15,696 نگرانی اینجاست که ماشینهایی خواهیم ساخت 70 00:03:15,720 --> 00:03:17,776 که بسیار توانمندتر از ما هستند 71 00:03:17,800 --> 00:03:21,576 جوریکه کمترین انحراف در بین اهداف ما و آنها 72 00:03:21,600 --> 00:03:22,800 می تواند ما را نابود کند. 73 00:03:23,960 --> 00:03:26,040 فقط به نحوه ارتباط ما با مورچه فکر کنید. 74 00:03:26,600 --> 00:03:28,256 از آنها متنفر نیستیم. 75 00:03:28,280 --> 00:03:30,336 راه مان را برای کشتنشان کج نمیکنیم. 76 00:03:30,360 --> 00:03:32,736 در واقع، گاهی برای آسیب نرساندن به آنها خود را به زحمت میاندازیم. 77 00:03:32,760 --> 00:03:34,776 در پیاده رو از رویشان میپریم. 78 00:03:34,800 --> 00:03:36,936 اما هر وقت در جایی حضورشان 79 00:03:36,960 --> 00:03:39,456 بطور جدی با یکی از اهداف ما منافعات داشته باشد، 80 00:03:39,480 --> 00:03:41,957 برای مثال وقتی ساختمانی مثل این را بسازیم، 81 00:03:41,981 --> 00:03:43,941 آنها را بیدرنگ قلع و قمع میکنیم. 82 00:03:44,480 --> 00:03:47,416 نگرانی این است که یک روز ماشینهایی را خواهیم ساخت 83 00:03:47,440 --> 00:03:50,176 که چه آگاه باشند یا نباشند 84 00:03:50,200 --> 00:03:52,200 میتوانند این چنین بیملاحظه با ما رفتار کنند. 85 00:03:53,760 --> 00:03:56,520 البته خیلی از شما آن را خطری در دراز مدت میببینید. 86 00:03:57,360 --> 00:04:03,696 شرط میبندم کسانی در بین شما هستند که به احتمال این ماشین ابرهوشمند شک داشته 87 00:04:03,720 --> 00:04:05,376 و آن را کمابیش بعید میدانند. 88 00:04:05,400 --> 00:04:09,020 اما بعد باید به غلط بودن یکی از فرضیههای زیر برسید. 89 00:04:09,044 --> 00:04:10,616 و آنها سه تا بیشتر نیستند. 90 00:04:11,800 --> 00:04:16,519 هوشمندی موضوع پردازش اطلاعات در سیستمهای فیزیکی است. 91 00:04:17,320 --> 00:04:19,935 راستش کمی بیشتر از یک فرض است. 92 00:04:19,959 --> 00:04:23,416 درحال حاضر میزان اندکی از هوشمندی را در داخل ماشینهایمان بکار بردیم، 93 00:04:23,440 --> 00:04:25,456 و خیلی از این ماشینها همین الان نیز 94 00:04:25,480 --> 00:04:28,120 عملکردی در سطح هوش یک انسان فوق العاده باهوش دارند. 95 00:04:28,840 --> 00:04:31,416 و میدانیم که خود این مسله صرفا میتواند 96 00:04:31,440 --> 00:04:34,056 منجر به پیداش به اصطلاح « هوشمندی عمومی» شود، 97 00:04:34,080 --> 00:04:37,736 توانایی اندیشیدنِ منعطف در سرتاسر حوزههای مختلف، 98 00:04:37,760 --> 00:04:40,896 چون که مغزهایمان در انجامش موفق بودند، اینطور نیست؟ 99 00:04:40,920 --> 00:04:44,856 منظورم این است که در اینجا فقط اتم است، 100 00:04:44,880 --> 00:04:49,376 و تا مادامی که سیستمی اتمی را میسازیم 101 00:04:49,400 --> 00:04:52,096 که رفتار هوشمندانه بیشتر و بیشتری نشان میدهند، 102 00:04:52,120 --> 00:04:54,656 مگر این که دچار وقفه شویم، وگرنه 103 00:04:54,680 --> 00:04:58,056 ما نهایتا هومندیش عمومی را در ماشینهایمان 104 00:04:58,080 --> 00:04:59,376 بکار خواهیم برد. 105 00:04:59,400 --> 00:05:03,056 مهم است که تشخیص دهیم میزان پیشرفت اهمیت ندارد، 106 00:05:03,080 --> 00:05:06,256 زیرا هر پیشرفتی برای رساندن ما به منطقه نهایی کافی است. 107 00:05:06,280 --> 00:05:10,056 برای ادامه نیاز به قانون مورفی نداریم. نیاز به پیشرفت تصاعدی نداریم. 108 00:05:10,080 --> 00:05:11,680 فقط باید ادامه دهیم. 109 00:05:13,480 --> 00:05:16,400 فرض دوم این است که ادامه خواهیم داد. 110 00:05:17,000 --> 00:05:19,760 به بهسازی ماشینهای هوشمند خود ادامه میدهیم. 111 00:05:21,000 --> 00:05:25,376 و با فرض ارزش هوشمندی-- 112 00:05:25,400 --> 00:05:28,936 منظورم این است که خواه هوشمندی منبع همه چیزهایی است که برایمان ارزش دارد 113 00:05:28,960 --> 00:05:31,736 یا که برای محافظت از چیزهای باارزشمان به آن نیاز داریم. 114 00:05:31,760 --> 00:05:34,016 مهمترین منبع باارزش ما است. 115 00:05:34,040 --> 00:05:35,576 بنابراین میخواهیم این را انجام دهیم. 116 00:05:35,600 --> 00:05:38,936 مشکلاتی که مایوسانه نیاز به حل شان داریم. 117 00:05:38,960 --> 00:05:42,160 میخواهیم امراضی چون آلزایمر و سرطان را درمان کنیم. 118 00:05:42,960 --> 00:05:46,896 میخواهیم سیستمهای اقتصادی را بفهمیم. میخواهیم دانش اقلیمی خویش را بهبود ببخشیم. 119 00:05:46,920 --> 00:05:49,176 پس اگر بتوانیم این کار را میکنیم. 120 00:05:49,200 --> 00:05:52,486 قطار دیگر از ایستگاه خارج شده، و ترمزی برای کشیدن نیست. 121 00:05:53,880 --> 00:05:59,336 سرآخر این که احتمالا ما در راس هوش یا جایی نزدیک آن 122 00:05:59,360 --> 00:06:01,160 نخواهیم ایستاد. 123 00:06:01,640 --> 00:06:03,536 و این یک بینش واقعا ضروری است. 124 00:06:03,560 --> 00:06:05,976 این چیزی است که شرایط ما را پرمخاطره میکند، 125 00:06:06,000 --> 00:06:10,040 و این چیزی است که درک ما از ریسک را شدیدا غیرقابل اتکا میکند. 126 00:06:11,120 --> 00:06:13,840 الان باهوشترین فردی که تا به امروز زیسته را در نظر بگیرید. 127 00:06:14,640 --> 00:06:18,056 اینجا تقریبا در فهرست کوتاه همه جان فان نیومن وجود دارد. 128 00:06:18,080 --> 00:06:21,416 منظورم تاثیری است که فان نیومن بر اطرافیانش داشته 129 00:06:21,440 --> 00:06:25,496 و این دربرگیرنده بزرگترین ریاضیدانها و فیزیکدانهای هم دورهاش میشود، 130 00:06:25,520 --> 00:06:27,456 که نسبتا بخوبی ثبت شده است. 131 00:06:27,480 --> 00:06:31,256 اگر فقط بخشی از نیمی از داستانهای درباره او درست باشد 132 00:06:31,280 --> 00:06:32,496 شکی نیست 133 00:06:32,520 --> 00:06:34,976 که او از باهوشترین آدمهایی است که تابحال زیسته. 134 00:06:35,000 --> 00:06:37,520 بنابراین گستره هوش را در نظر بگیرید. 135 00:06:38,320 --> 00:06:39,749 در اینجا جان فان نیومن را داریم. 136 00:06:41,560 --> 00:06:42,894 و بعد نیز امثال من و شما. 137 00:06:44,120 --> 00:06:45,416 و البته مرغ را هم داریم. 138 00:06:45,440 --> 00:06:47,376 (خنده) 139 00:06:47,400 --> 00:06:48,616 متاسفم، یک مرغ. 140 00:06:48,640 --> 00:06:49,896 (خنده) 141 00:06:49,920 --> 00:06:53,656 دلیلی ندارم که این سخنرانی را نامیدکنندهتر از حد نیاز کنم. 142 00:06:53,680 --> 00:06:55,280 (خنده) 143 00:06:56,339 --> 00:06:59,816 بحد قابل توجهی همینطور است،هر چند گستره هوش 144 00:06:59,840 --> 00:07:02,960 خیلی وسیعتر از برداشت کنونی ما است، 145 00:07:03,880 --> 00:07:07,096 و اگر ماشینهایی را بسازیم که از ما هوشمندترند، 146 00:07:07,120 --> 00:07:09,416 آنها احتمالا این گستره را بررسی خواهند کرد 147 00:07:09,440 --> 00:07:11,296 به ترتیبی که ما قادر به تصورش نیستیم، 148 00:07:11,320 --> 00:07:13,840 و طوری از ما پیشی خواهند گرفت که تصورش را هم نمیکنیم. 149 00:07:15,000 --> 00:07:19,336 و تشخیص این نکته مهم است که این مساله بواسطه خصیصه سرعت معتبر است. 150 00:07:19,360 --> 00:07:24,416 درسته؟ پس ساخت یک هوش مصنوعی ابرهوشمندی را تصور کنید 151 00:07:24,440 --> 00:07:27,896 که باهوشتر از یک تیم معمولی تحقیقاتی شما 152 00:07:27,920 --> 00:07:30,216 در استانفورد یا MIT نباشد. 153 00:07:30,240 --> 00:07:33,216 خب، مدارهای الکترونیکی کارکردی حدود یک میلیون بار سریعتر 154 00:07:33,240 --> 00:07:34,496 از انواع زیست شیمی دارند 155 00:07:34,520 --> 00:07:37,656 بنابراین این ماشین شاید یک میلیون بار سریعتر از ذهنهایی 156 00:07:37,680 --> 00:07:39,496 که آن را ساختند فکر کند. 157 00:07:39,520 --> 00:07:41,176 پس یک هفتهای که از راهاندازیش بگذرد، 158 00:07:41,200 --> 00:07:45,760 هر هفتهای که سپری بگذرد عملکردی برابر ۲۰٫۰۰۰ سال 159 00:07:46,400 --> 00:07:48,360 کار اندیشمدانه در سطح بشر خواهد داشت. 160 00:07:49,640 --> 00:07:52,736 ما چطور قادر به درک ذهنی باشیم که چنین نوعی از پیشرفت را ایجاد میکند 161 00:07:52,760 --> 00:07:55,040 چه برسد به محدود کردن آن؟ 162 00:07:56,840 --> 00:07:58,976 صادقانه بگویم، یک از چیزهای دیگری که نگران کننده است، 163 00:07:59,000 --> 00:08:03,976 این است که - بهترین سناریوی ممکن را تصور کنید. 164 00:08:04,000 --> 00:08:08,176 تصور کنید به طراحی از یک هوش مصنوعی ابرهوشمند رسیدهایم 165 00:08:08,200 --> 00:08:09,576 که هیچ مشکل امنیتی ندارد. 166 00:08:09,600 --> 00:08:12,856 برای اولین بار بهترین طراحی را داریم. 167 00:08:12,880 --> 00:08:15,096 مثل این میماند که ما به دانشمندی دست پیدا کردهایم 168 00:08:15,120 --> 00:08:17,136 که عینا طبق خواسته رفتار میکند. 169 00:08:17,160 --> 00:08:20,880 خب این ماشین میتواند بهترین وسیله در صرفهجویی نیروی کار باشد. 170 00:08:21,680 --> 00:08:24,109 میتواند ماشینی را طراحی کند که خود ماشینی را بسازد 171 00:08:24,133 --> 00:08:25,896 که توان انجام هر کار فیزیکی را دارد، 172 00:08:25,920 --> 00:08:27,376 با استفاده از نور خورشید، 173 00:08:27,400 --> 00:08:30,096 کمابیش بخاطر هزینه مصالح خام. 174 00:08:30,120 --> 00:08:33,376 پس درباره به پایان رسیدن جان کندن بشر صحبت میکنیم. 175 00:08:33,400 --> 00:08:36,200 و همچنین به پایان رسیدن اغلب کارهایی که با عقل و خِرَد سروکار دارند. 176 00:08:37,200 --> 00:08:40,256 پس در شرایط این چنینی چه بر سر میمونهایی مثل ما میآید؟ 177 00:08:40,280 --> 00:08:44,360 خب، ما در فریزبی بازی کردن و ماساژ دادن یکدیگر آزاد خواهیم بود. 178 00:08:45,840 --> 00:08:48,696 و همینطور یکسری داروهای روانگردان و انتخابهای سوالبرانگیز توی کمد لباس، 179 00:08:48,720 --> 00:08:50,896 و کل دنیا چیزی شبیه به جشنواره مرد سوزان میشود. 180 00:08:50,920 --> 00:08:52,560 (خنده) 181 00:08:54,320 --> 00:08:56,320 الان شاید خوشایند به گوش برسد 182 00:08:57,280 --> 00:08:59,656 اما از خود سوال کنید چه اتفاقی برای 183 00:08:59,680 --> 00:09:02,416 نظام سیاسی و اقتصادی کنونی ما خواهد افتاد؟ 184 00:09:02,440 --> 00:09:04,856 محتمل است که ما شاهد سطحی از نابرابری 185 00:09:04,880 --> 00:09:09,016 ثروت و بیکاری باشیم 186 00:09:09,040 --> 00:09:10,536 که بیسابقه است. 187 00:09:10,560 --> 00:09:13,176 فقدان اراده در بکارگیری فوری این ثروت تازه 188 00:09:13,200 --> 00:09:14,680 در خدمت کل بشریت. 189 00:09:15,640 --> 00:09:19,256 اندک تریلیونرها قادر به عرض اندام در روی جلد مجلات تجاری هستند 190 00:09:19,280 --> 00:09:21,720 در حالیکه بقیه دنیا از گرسنگی رنج خواهد بردد. 191 00:09:22,320 --> 00:09:24,616 روسها یا چینیها چه کار میکنند 192 00:09:24,640 --> 00:09:27,256 اگر بشنوند که یک کمپانی در سیلیکون ولی 193 00:09:27,280 --> 00:09:30,016 در آستانه بکارگیری هوش مصنوعی اَبَرهوشمند است؟ 194 00:09:30,040 --> 00:09:32,896 ماشینی که قادر به ادامه جنگ است، 195 00:09:32,920 --> 00:09:35,136 خواه زمینی یا سایبری، 196 00:09:35,160 --> 00:09:36,840 با قدرتی بیسابقه. 197 00:09:38,120 --> 00:09:39,976 این یک سناریوییست که در آن برنده همه چیز را بدست میآورد. 198 00:09:40,000 --> 00:09:43,136 در این رقابت شش ماه پیش بودن 199 00:09:43,160 --> 00:09:45,936 یعنی حداقل ۵۰۰٫۰۰۰ سال 200 00:09:45,960 --> 00:09:47,456 جلوتر بودن. 201 00:09:47,480 --> 00:09:52,216 پس به نظر میرسد که حتی شایعات بیشتر از این پیشرفتها 202 00:09:52,240 --> 00:09:54,616 میتواند منجر به از خود بیخود شدن نوع بشر شود. 203 00:09:54,640 --> 00:09:57,536 الان یکی از وحشتناکترین چیزها از دیدگاه من 204 00:09:57,560 --> 00:10:00,336 در این لحظه همه آن چیزهایی هست 205 00:10:00,360 --> 00:10:04,656 که محققان هوش مصنوعی 206 00:10:04,680 --> 00:10:06,240 به ما میگویند، وقتی که میخواهند اطمینان بخش باشند. 207 00:10:07,000 --> 00:10:10,456 و شایعترین دلیلی که برای نگران نبودن به ما میگویند زمان است. 208 00:10:10,480 --> 00:10:12,536 کلی زمانبر است، مگر خبر ندارید. 209 00:10:12,560 --> 00:10:15,000 شاید ۵۰ یا ۱۰۰ سال بعد. 210 00:10:15,720 --> 00:10:16,976 یک محققی میگفت، 211 00:10:17,000 --> 00:10:18,576 «نگران بودن درباره امنیت هوش مصنوعی 212 00:10:18,600 --> 00:10:20,880 مثل نگران بودن درباره رشد بیحد جمعیت در مریخ است.» 213 00:10:22,116 --> 00:10:23,736 در واقع آنها میگویند: 214 00:10:23,760 --> 00:10:26,136 « فکرهای کوچک تان را در این مورد نگران نکنید.» 215 00:10:26,160 --> 00:10:27,496 (خنده) 216 00:10:27,520 --> 00:10:29,416 به نظر نمیاید کسی متوجه باشد 217 00:10:29,440 --> 00:10:32,056 که ارجاع دادن به افق زمانی 218 00:10:32,080 --> 00:10:34,656 کلا نامربوط است. 219 00:10:34,680 --> 00:10:37,936 اگر هوش صرفا مساله پردازش اطلاعات باشد 220 00:10:37,960 --> 00:10:40,616 و ما به اصلاح ماشینهای خود ادامه دهیم، 221 00:10:40,640 --> 00:10:43,520 شکلی از هوش ماورایی را تولید خواهیم کرد. 222 00:10:44,320 --> 00:10:47,976 و ایدهای نداریم که چقدر زمان میبرد 223 00:10:48,000 --> 00:10:50,400 تا شرایط انجام این کار را به شکل ایمن فراهم کنیم. 224 00:10:52,200 --> 00:10:53,496 بگذارید باز هم بگویم. 225 00:10:53,520 --> 00:10:57,336 ایدهای نداریم که چقدر زمان میبرد 226 00:10:57,360 --> 00:10:59,600 تا شرایط انجام این کار را به شکل ایمن فراهم کنیم. 227 00:11:00,920 --> 00:11:04,376 و اگر متوجه نشده باشید ۵۰ سال، دیگر مثل سابق نیست. 228 00:11:04,400 --> 00:11:06,856 این، ماههای تشکیل دهندهی ۵۰ سال است. 229 00:11:06,880 --> 00:11:08,720 این، مدتیست که ما صاحب آیفون هستیم. 230 00:11:09,440 --> 00:11:12,040 در این مدت سریال خانواده سیمپسون پخش شده. 231 00:11:12,680 --> 00:11:15,056 پنجاه سال زمان چندان زیادی 232 00:11:15,080 --> 00:11:18,240 برای روبرو شدن با یکی از بزرگترین چالشهایی که نوع بشر با آن روبروست، نیست. 233 00:11:19,640 --> 00:11:23,656 یکبار دیگر به نظر میاید که ما در داشتن جواب عاطفی مناسب نسبت به آنچه 234 00:11:23,680 --> 00:11:26,376 که دلایل کافی برای ظهورش را داریم ناموفق عمل کردهایم. 235 00:11:26,400 --> 00:11:30,376 دانشمند علوم رایانه استورات راسل قیاس جالبی دارد. 236 00:11:30,400 --> 00:11:35,296 او گفت، تصور کنید پیغامی را از یک تمدن فضایی دریافت کنیم 237 00:11:35,320 --> 00:11:37,016 که میگوید، 238 00:11:37,040 --> 00:11:38,576 «مردم زمین، 239 00:11:38,600 --> 00:11:40,960 ما ۵۰ سال دیگر به سیاره شما میرسیم. 240 00:11:41,800 --> 00:11:43,376 آماده باشید.» 241 00:11:43,400 --> 00:11:47,656 و اکنون ما فقط به شمارش معکوس ماهها مشغولیم تا ناوِ فضایی فرود بیاید؟ 242 00:11:47,680 --> 00:11:50,680 لازم است که کمی بیشتر در این باره احساس ضرورت کنیم. 243 00:11:52,680 --> 00:11:54,536 دلیل دیگری که به ما میگویند نگران نباشید 244 00:11:54,560 --> 00:11:57,576 این است که این ماشینها راهی جز سهیم شدن در ارزشهای ما ندارند 245 00:11:57,600 --> 00:12:00,216 چون که آنها به معنای واقعی کلمه، ما را بسط میدهند. 246 00:12:00,240 --> 00:12:02,056 آنها به مغزهای ما پیوند زده میشوند 247 00:12:02,080 --> 00:12:04,440 و ما در اصل دستگاههای کنارهای (Limbic system) آنها خواهیم شد. 248 00:12:05,120 --> 00:12:06,536 الان لحظهای به این فکر کنید 249 00:12:06,560 --> 00:12:09,736 که ایمنترین و تنها مسیر محتاط رو به جلوی 250 00:12:09,760 --> 00:12:11,096 توصیه شده 251 00:12:11,120 --> 00:12:13,920 تعبیه مستقیم این فناوری در مغزهای ما باشد. 252 00:12:14,600 --> 00:12:17,976 اکنون، شاید این ایمنترین و تنها مسیر محتاط رو به جلوست، 253 00:12:18,000 --> 00:12:21,056 اما معمولا دغدغههای ایمنی یک نفر درباره فناوری 254 00:12:21,080 --> 00:12:24,736 باید حسابی مورد بررسی قرار گرفته باشد پیش از این بخواهید که آن را تو کله خود فرو کنید. 255 00:12:24,760 --> 00:12:26,776 (خنده) 256 00:12:26,800 --> 00:12:32,136 مشکل عمیقتر این است که ساختن هوش مصنوعی ابرهوشمند مستقل 257 00:12:32,160 --> 00:12:33,896 به نظر آسانتر از ساختن 258 00:12:33,920 --> 00:12:35,776 هوش مصنوعی ابرهوشمند 259 00:12:35,800 --> 00:12:37,576 و داشتن علم عصب شناسی کاملی میاید 260 00:12:37,600 --> 00:12:40,280 که به ما اجازه یکپارچه کردن بیدرز ذهنهای خویش با آن را میدهد. 261 00:12:40,800 --> 00:12:43,976 و با فرض این که کمپانیها و دولتهایی این کار را میکنند 262 00:12:44,000 --> 00:12:47,656 محتمل به پی بردن به موجودیت خود در این مسابقه علیه دیگران هستند، 263 00:12:47,680 --> 00:12:50,936 با این فرض که بردن این مسابقه به معنی بردن جهان است، 264 00:12:50,960 --> 00:12:53,416 به شرطی که در لحظه بعدی آن را نابود نکنید، 265 00:12:53,440 --> 00:12:56,056 که احتمال وقوع هر چیزی که آسانتر باشد 266 00:12:56,080 --> 00:12:57,280 اول از همه میرود. 267 00:12:58,560 --> 00:13:01,416 شوربختانه الان راهحلی برای این مشکل ندارم 268 00:13:01,440 --> 00:13:04,056 بجز توصیهام برای بیشتر فکردن کردن درباره آن. 269 00:13:04,080 --> 00:13:06,456 فکر میکنم بیشتر به چیزی مثل پروژه منهتن در موضوع 270 00:13:06,480 --> 00:13:08,496 هوش مصنوعی نیاز داریم. 271 00:13:08,520 --> 00:13:11,256 نه درباره ساختن آن، چون به نظرم بالاخره این کار را خواهیم کرد، 272 00:13:11,280 --> 00:13:14,616 بلکه درک نحوه اجتناب از یک مسابقه تسلیحاتی 273 00:13:14,640 --> 00:13:18,136 و ساخت آن به نحوی که هم راستا با منافع ما باشد. 274 00:13:18,160 --> 00:13:20,296 زمانی که راجع به هوش مصنوعی ابرهوشمند صحبت میکنید 275 00:13:20,320 --> 00:13:22,576 که قادر به انجام تغییرات در خویش است، 276 00:13:22,600 --> 00:13:27,216 به نظر میاید که ما تنها از یک شانس برای رسیدن به شرایط آغازین صحیح برخورداریم 277 00:13:27,240 --> 00:13:29,296 و حتی بعد لازم است به جذب 278 00:13:29,320 --> 00:13:32,360 پیامدهای سیاسی و اقتصادی درست بودن آنها بپردازیم. 279 00:13:33,760 --> 00:13:35,816 اما لحظهای که میپذیریم 280 00:13:35,840 --> 00:13:39,840 پردازش اطلاعات منبع هوشمندی است، 281 00:13:40,720 --> 00:13:45,520 که یک نظام محاسباتی مناسب مبنای هوشمندی است، 282 00:13:46,360 --> 00:13:50,120 و بپذیریم که این نظامها را در ادامه اصلاح خواهیم کرد، 283 00:13:51,280 --> 00:13:55,736 و بپذیریم که افق فرایند یادگیری و شناخت به احتمال زیاد فراتر 284 00:13:55,760 --> 00:13:56,960 از دانش فعلی ما میرود 285 00:13:58,120 --> 00:13:59,336 در ادامه باید بپذیریم 286 00:13:59,360 --> 00:14:02,000 که ما در فرایند ساخت نوعی از خدا هستیم. 287 00:14:03,400 --> 00:14:04,976 الان زمان خوبی است 288 00:14:05,000 --> 00:14:06,953 مطمئن شویم خدایی است که میتوان با آن زندگی کرد. 289 00:14:08,120 --> 00:14:09,656 از شما خیلی ممنونم. 290 00:14:09,680 --> 00:14:14,773 (تشویق)