Return to Video

آیا ما میتوانیم از پایان جهان جلوگیری کنیم؟

  • 0:00 - 0:03
    ده سال پیش کتابی با عنوان
  • 0:03 - 0:06
    "قرن نهایی ما؟"نوشتم با علامت سوال.
  • 0:06 - 0:09
    ناشرهای من علامت سوال را حذف کردند.
    (صدای خنده)
  • 0:09 - 0:11
    ناشرهای آمریکایی عنوان ما را
  • 0:11 - 0:15
    به "ساعت نهایی ما" تغییر دادند.
  • 0:15 - 0:19
    آمریکایی ها لذت آنی و تغییر را دوست دارند.
  • 0:19 - 0:20
    (صدای خنده حضار)
  • 0:20 - 0:22
    و داستان من از این قرار بود:
  • 0:22 - 0:26
    زمین ما برای ۴۵ میلیون قرن می زیسته است،
  • 0:26 - 0:28
    اما این یکی (قرن) خاص است ---
  • 0:28 - 0:31
    این اولین برای است که یک گونه، ما،
  • 0:31 - 0:34
    آینده سیاره اش را در دست دارند.
  • 0:34 - 0:36
    تقریبا در کل تاریخ زمین،
  • 0:36 - 0:38
    تهدید ها از جانب طبیعت بوده اند __
  • 0:38 - 0:42
    امراض، زلزله ها، اجسام سماوی
    و از این قبیل__
  • 0:42 - 0:47
    ولی از این زمان به بعد، بیش ترین خطرها
    از جانب ما خواهد بود .
  • 0:47 - 0:50
    و اکنون این تنها تهدید هسته ای نیست؛
  • 0:50 - 0:52
    در دنیای به هم مرتبط ما،
  • 0:52 - 0:55
    اختلالات شبکه ای می توانند
    در همه جهان منتشر شوند؛
  • 0:55 - 0:59
    سفرهای هوایی میتوانند بیماریهای همه گیر را
    در عرض چند روز در سرتاسر جهان پخش کنند؛
  • 0:59 - 1:03
    و رسانه های اجتماعی می توانند
    وحشت و شایعه را
  • 1:03 - 1:06
    به واقع به سرعت برق پخش کنند.
  • 1:06 - 1:09
    ما بیش از حد در مورد خطرات کوچک نگرانیم _
  • 1:09 - 1:13
    تصادفات هوایی غیرمحتمل،
    مواد سرطانزای موجود در مواد غذایی،
  • 1:13 - 1:15
    میزان تشعشعات ضعیف و از این قبیل، ____
  • 1:15 - 1:18
    اما ما و سیاستمدارهای ما
  • 1:18 - 1:22
    این سناریوهای فاجعه آمیز را رد می کنند.
  • 1:22 - 1:25
    که خوشبختانه بدترین آن هنوز اتفاق نیافتاده
  • 1:25 - 1:28
    در واقع، شاید اتفاق هم نیافتند.
  • 1:28 - 1:31
    اما اگر یک واقعه بالقوه ویرانگر باشد،
  • 1:31 - 1:34
    شایسته است که برای آن
    بهای قابل توجهی
  • 1:34 - 1:38
    برای حفاظت در برابر آن، هر چند بعید، را بپردازیم،
  • 1:38 - 1:42
    همان طور که ما خانه یمان را
    بیمه آتش سوزی می کنیم.
  • 1:42 - 1:47
    و همان طور که علم قدرت و نوید های بیشتر
    را ارائه می کند،
  • 1:47 - 1:51
    آن طرفی دیگر مسئله ترسناک تر می شود.
  • 1:51 - 1:53
    ما حتی آسیب پذیرتر هم می شویم.
  • 1:53 - 1:55
    در عرض چند دهه،
  • 1:55 - 1:57
    میلیون ها (انسان) توانایی خواهند داشت
  • 1:57 - 2:00
    تا به سرعت از فناورهای زیستی پیشرو
    سوء استفاده بکنند.
  • 2:00 - 2:04
    درست همانطور که آنها امروزه از فنآوریهای سایبری
    سوء استفاده می کنند.
  • 2:04 - 2:07
    فریمن دایسون، در سخنرانی خود در "تد"،
  • 2:07 - 2:11
    پیشبینی کرد که بچه ها موجودات جدیدی را
    طراحی و ایجاد خواهند کرد
  • 2:11 - 2:15
    درست همانطوری که نسل او با
    مجموعه های شیمی بازی میکردند.
  • 2:15 - 2:18
    خوب، این شاید در حاشیه
    داستانهای علمی-تخیلی باشد،
  • 2:18 - 2:21
    اما حتی قسمتی از سناریوی او بود
    که اتفاق خواهد افتاد،
  • 2:21 - 2:24
    بوم شناسی ما و حتی نوع ما
  • 2:24 - 2:28
    مطمئنا از آسیب طولانی مدت
    نجات پیدا نخواهد کرد.
  • 2:28 - 2:31
    برای مثال، بعضی از
    طرفداران افراطی محیط زیست هستند
  • 2:31 - 2:34
    که فکر می کنند برای سیاره ،
    زمین، بهتر است اگر
  • 2:34 - 2:37
    انسان های کمتری وجود داشته باشند.
  • 2:37 - 2:40
    چه اتفاقی خواهد افتاد وقتی اینگونه انسانها
  • 2:40 - 2:42
    بر روشهای زیست شناسی ترکیبی
    که در سال ۲۰۵۰
  • 2:42 - 2:45
    که در سراسر دنیا پراکنده خواهد شد، مسلط شوند؟
  • 2:45 - 2:48
    و از آن به بعد، بقیه کابوسهای
    افسانه های علمی-تخیلی
  • 2:48 - 2:50
    ممکن است به واقعیت تبدیل شوند:
  • 2:50 - 2:52
    رباتهای کندذهن سرکش شوند،
  • 2:52 - 2:54
    یا یک شبکه که حافظه خودش را ارتقا داده
  • 2:54 - 2:57
    همه ما را تهدید کند.
  • 2:57 - 3:00
    خوب، آیا ما میتوانیم از خودمان در مقابل
    اینگونه خطرات با مقررات محافظت کنیم؟
  • 3:00 - 3:03
    ما می بایستی سعی کنیم، ولی این گونه فعالیتها اقتصدی
  • 3:03 - 3:06
    توسط فشارهای تجاری بسیار رقابتی، بسیار جهانی
  • 3:06 - 3:08
    و بسیار پیش رونده هستند،
  • 3:08 - 3:11
    که هر کاری را که می شود انجام داد ، در جایی انجام خواهد شد،
  • 3:11 - 3:13
    هر آنچه که مقررات میگوید.
  • 3:13 - 3:17
    این مثل قانون مواد مخدر است-
    ما تلاش میکنیم تنظیم شود، اما نمیتوانیم.
  • 3:17 - 3:20
    و دهکده جهانی ابله های خودش را خواهد داشت،
  • 3:20 - 3:23
    و آنها یک گستره جهانی خواهند داشت.
  • 3:23 - 3:26
    بنابراین همانطور که من در کتابم گفتم،
  • 3:26 - 3:29
    ما راه پر دست اندازی را در طول
    این قرن در پیش خواهیم داشت.
  • 3:29 - 3:32
    ممکن است موانعی برای جامعه ما
    وجود داشته داشته باشد---
  • 3:32 - 3:36
    در واقع، یک شانس ۵۰ درصدی از یک مانع جدی.
  • 3:36 - 3:39
    اما آیا وقایع قابل تصوری که میتوانند
  • 3:39 - 3:41
    بدتر هم باشند وجود دارند،
  • 3:41 - 3:45
    وقایعی که بتوانند همه
    زندگی ما را نابود کنند؟
  • 3:45 - 3:48
    وقتی که یک ذره شتابدهنده فعال شد،
  • 3:48 - 3:49
    بعضی از مردم با نگرانی پرسیدند:
  • 3:49 - 3:52
    آیا آن میتواند زمین را نابود کند
    یا، حتی بدتر،
  • 3:52 - 3:54
    تار و پود فضا را متلاشی کند؟
  • 3:54 - 3:58
    خوب خوشبختانه، (به شما)
    اطمینان داده میشود.
  • 3:58 - 4:00
    من و دیگران اشاره کردیم که طبیعت قبلا
  • 4:00 - 4:02
    آزمایشات مشابهی را هزاران هزار بار
  • 4:02 - 4:04
    از طریق تصادفات کیهانی
  • 4:04 - 4:06
    انجام داده است.
  • 4:06 - 4:09
    اما مطمئنا دانشمندان باید درباره
  • 4:09 - 4:11
    آزمایشاتی که وضعیتهای بی سابقه ای را در
  • 4:11 - 4:14
    دنیای طبیعی بوجود میاورند، محتاط باشند.
  • 4:14 - 4:17
    زیست شناسان باید از آزادسازی پاتوژن های
  • 4:17 - 4:20
    بالقوه ویرانگر اصلاح شده ژنتیکی دوری کنند.
  • 4:20 - 4:24
    به هر حال، بیزاری ویژه ما از
  • 4:24 - 4:27
    خطر فاجعه به حوادث وجودی و مرتبط باهستی بشر
  • 4:27 - 4:30
    بستگی به یک سؤال فلسفی و اخلاقی دارد،
  • 4:30 - 4:32
    و آن این است:
  • 4:32 - 4:34
    دو سناریو را در نظر بگیرید:
  • 4:34 - 4:40
    سناریو "آ"
    ۹۰درصد از نوع بشر را نابود میکند.
  • 4:40 - 4:43
    سناریو "ب" ۱۰۰ درصد را از بین میبرد.
  • 4:43 - 4:46
    تا چه حد "ب" از "آ" بدتر است؟
  • 4:46 - 4:49
    شاید بعضی ها بگویند ۱۰ درصد بدتر است.
  • 4:49 - 4:53
    تعداد انسانها ۱۰ درصد بیشتر است.
  • 4:53 - 4:55
    اما من میگویم که "ب" بدون مقایسه بدتر است.
  • 4:55 - 4:58
    به عنوان یک ستاره شناس،
    من نمیتوانم باور کنم که
  • 4:58 - 5:01
    نوع بشر آخر این ماجرا باشد.
  • 5:01 - 5:04
    این ۵ بیلیون سال سال قبل از اینکه
    خورشید درخشان شود است،
  • 5:04 - 5:07
    و شاید کیهان برای همیشه در حرکت باشد،
  • 5:07 - 5:09
    بنابراین تحول (موجود) فراانسانی
  • 5:09 - 5:11
    در روی زمین و فراسوی آن،
  • 5:11 - 5:14
    میتواند به درازا ، و حتی شگفت انگیزتر، از
  • 5:14 - 5:17
    تکامل داروینی باشد که به ما ختم شده است.
  • 5:17 - 5:20
    در واقع، تکامل آینده خیلی سریعتر در یک
  • 5:20 - 5:22
    جدول زمانی فن آوری شده به وقوع خواهد پیوست
  • 5:22 - 5:24
    و نه در یک جدول زمانبندی انتخاب طبیعی.
  • 5:24 - 5:28
    پس با توجه به آن مخاطرات بسیار زیاد،
  • 5:28 - 5:32
    ما نباید حتی یک خطر از بیلیونها خطری را
  • 5:32 - 5:34
    که بطور بالقوه منجر به نابودی انسان میشود را
  • 5:34 - 5:36
    بپذیریم.
  • 5:36 - 5:38
    بعضی سناریوها که پیش بینی شده
  • 5:38 - 5:40
    ممکن است واقعا داستان علمی-تخیلی باشند،
  • 5:40 - 5:43
    اما بقیه ممکن است
    به طرز آشفته ای واقعی باشند.
  • 5:43 - 5:46
    این یک قاعده مهم است که ناشناخته ها
  • 5:46 - 5:49
    مثل غیرمحتمل ها نیستند،
  • 5:49 - 5:51
    و در واقع، به همین دلیل است که ما
    در دانشگاه کمبریج
  • 5:51 - 5:55
    در حال تأسیس یک مرکز برای مطالعه چگونگی
  • 5:55 - 5:57
    کاهش این خطرهای وجودی و مرتبط با هستی بشر هستیم.
  • 5:57 - 6:00
    فکر کردن درباره این فاجعه بالقوه
  • 6:00 - 6:02
    فقط برای عده کمی از مردم
    با ارزش به نظر میرسد.
  • 6:02 - 6:05
    و ما محتاج تمامی آنچه که دیگران می توانند به ما بدهند هستیم،
  • 6:05 - 6:08
    زیرا ما خدمه های یک نقطه آبی
  • 6:08 - 6:11
    روشن گرانبها در پهنه گسترده کیهان هستیم،
  • 6:11 - 6:14
    یک سیاره با ۵۰ میلیون قرن در پیش رو.
  • 6:14 - 6:17
    پس اجازه بدهید تا آن آینده را
    به خطر نیاندازیم.
  • 6:17 - 6:19
    و میخواهم که با یک نقل قول از
    یک دانشمند بزرگ
  • 6:19 - 6:22
    به نام "پیتر مدوار"
    صحبتم را به پایان برسانم:
  • 6:22 - 6:26
    "ناقوسهایی که برای بشریت به صدا درمی آیند
  • 6:26 - 6:28
    شبیه به زنگوله های گاوهای آلپ هستند.
  • 6:28 - 6:30
    آنها به گردن های ما بسته شده اند،
  • 6:30 - 6:33
    و این تقصیر ما است اگر از آنها
  • 6:33 - 6:35
    صدای خوش آهنگ و دلپذیری تولید نمی شود."
  • 6:35 - 6:38
    با سپاس فراوان از شما.
  • 6:38 - 6:40
    (صدای دست حضار)
Title:
آیا ما میتوانیم از پایان جهان جلوگیری کنیم؟
Speaker:
سِر مارتین ریس
Description:

زمین پس از آخرالزمان، خالی از بشر، به نظر شبیه به داستانهای علمی-تخیلی تلوزیون و سینما می رسد. اما در این سخنرانی کوتاه و شگفت انگیز، لرد مارتین ریس از ما می خواهد تا درباره خطرهای واقعی مرتبط با هستی ( بشر) فکر کنیم--- خطرهای طبیعی و بشرساخته ای که می توانند بشریت را نابود کنند. به عنوان یکی از اعضا علاقمند از گروه انسان ها، او پرسیده است: بدترین اتفاقی که ممکن است بیافتد، چیست؟

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

Persian subtitles

Revisions