Return to Video

Liệu ta có thể ngăn chặn ngày tận thế?

  • 0:00 - 0:03
    Mười năm trước, tôi đã viết
    một cuốn sách có tựa
  • 0:03 - 0:06
    "Thế kỷ cuối cùng của chúng ta?"
    Chấm hỏi.
  • 0:06 - 0:09
    Nhà xuất bản đã cắt bỏ dấu chấm hỏi.
    (Tiếng cười)
  • 0:09 - 0:12
    Các nhà xuất bản Mỹ
    thay đổi tựa đề thành
  • 0:12 - 0:15
    "Giờ cuối của chúng ta."
  • 0:15 - 0:19
    Người Mỹ thích thưởng nóng và ngược lại.
  • 0:19 - 0:20
    (Tiếng cười)
  • 0:20 - 0:22
    Và chủ đề của tôi là:
  • 0:22 - 0:26
    Trái đất đã tồn tại 45 triệu thế kỷ
  • 0:26 - 0:28
    nhưng thế kỷ này đặc biệt --
  • 0:28 - 0:31
    đó là lần đầu tiên loài người chúng ta
  • 0:31 - 0:34
    nắm trong tay tương lai
    của cả hành tinh này.
  • 0:34 - 0:36
    Gần như suốt lịch sử Trái đất,
  • 0:36 - 0:38
    các mối đe dọa tới từ thiên nhiên --
  • 0:38 - 0:42
    bệnh tật, động đất,
    thiên thạch và nhiều nữa...
  • 0:42 - 0:47
    nhưng từ nay trở đi,
    hiểm họa đáng sợ nhất đến từ chúng ta.
  • 0:47 - 0:50
    Giờ đây, không chỉ là hiểm họa hạt nhân;
  • 0:50 - 0:52
    trong thế giới kết nối của chúng ta,
  • 0:52 - 0:55
    sự sụp đổ internet
    có thể diễn ra ở phạm vi toàn cầu;
  • 0:55 - 1:00
    đại dịch có thể lan khắp thế giới
    trong vài ngày bằng đường hàng không
  • 1:00 - 1:03
    và mạng xã hội có thể lan truyền
    sự hoảng sợ và tin đồn
  • 1:03 - 1:06
    với tốc độ ánh sáng
    theo đúng nghĩa đen.
  • 1:06 - 1:10
    Chúng ta phải lo lắng quá nhiều
    về những mối nguy hiểm cỏn con
  • 1:10 - 1:13
    tai nạn máy bay hiếm hoi,
    chất gây ung thư trong thực phẩm,
  • 1:13 - 1:15
    độ phóng xạ liều lượng thấp,
    và nhiều nữa
  • 1:15 - 1:18
    nhưng chúng ta và những
    bậc thầy về chính trị
  • 1:18 - 1:22
    đang phủ nhận tất cả
    các kịch bản thảm họa khác.
  • 1:22 - 1:25
    Điều tồi tệ nhất, may thay,
    vẫn chưa xảy đến.
  • 1:25 - 1:28
    Chúng có thể sẽ không đến.
  • 1:28 - 1:31
    Nhưng nếu có một hiểm họa tiềm tàng,
  • 1:31 - 1:34
    rất đáng để đóng một khoản bảo hiểm
  • 1:34 - 1:38
    để bảo vệ ta khỏi nó,
    dù xác suất xảy ra là rất thấp,
  • 1:38 - 1:42
    cũng như việc đóng bảo hiểm hỏa hoạn
    cho căn nhà của mình.
  • 1:42 - 1:47
    Cũng như khoa học đề xuất
    nhiều năng lượng và hứa hẹn hơn,
  • 1:47 - 1:51
    mặt trái là càng nhiều lo sợ hơn.
  • 1:51 - 1:53
    Chúng ta
    lại càng dễ bị tổn thương hơn.
  • 1:53 - 1:55
    Chỉ trong vài thập kỷ,
  • 1:55 - 1:57
    hàng triệu người sẽ có khả năng
  • 1:57 - 2:00
    sử dụng sai một cách nhanh chóng
    công nghệ sinh học tiên tiến,
  • 2:00 - 2:04
    cũng như sử dụng sai
    công nghệ số ngày nay.
  • 2:04 - 2:07
    Freeman Dyson, trong một buổi TED Talk,
  • 2:07 - 2:11
    đã tiên đoán rằng trẻ em sẽ thiết kế và
    tạo nên các vi sinh vật mới
  • 2:11 - 2:15
    cũng đều đặn như thế hệ của ông
    làm việc với các tập hóa chất.
  • 2:15 - 2:18
    Vâng, đây có thể chỉ là
    khoa học viễn tưởng,
  • 2:18 - 2:21
    nhưng nếu chỉ một phần tiên đoán đó
    thành hiện thực,
  • 2:21 - 2:24
    hệ sinh thái của chúng ta,
    thậm chí chính loài người
  • 2:24 - 2:28
    đã không thể tồn tại lâu đến vậy.
  • 2:28 - 2:31
    Ví dụ, một số nhà sinh thái học
    cực đoan cho rằng
  • 2:31 - 2:34
    sẽ tốt hơn cho hành tinh
  • 2:34 - 2:37
    cho mẹ trái đất, nếu có ít con người hơn.
  • 2:37 - 2:40
    Điều gì xảy ra nếu những kẻ đó nắm rõ
  • 2:40 - 2:42
    các kỹ thuật về sinh học tổng hợp
  • 2:42 - 2:45
    thứ sẽ được phổ biến trước 2050?
  • 2:45 - 2:48
    Và từ đó, nhiều ác mộng viễn tưởng khác
  • 2:48 - 2:50
    có thể thành hiện thực:
  • 2:50 - 2:52
    những robot vô tri trở nên tinh ranh,
  • 2:52 - 2:54
    hoặc một mạng lưới biết tự suy nghĩ
  • 2:54 - 2:57
    đe dọa tất cả chúng ta.
  • 2:57 - 3:00
    Liệu có thể phòng ngừa
    những hiểm họa đó bằng luật lệ?
  • 3:00 - 3:03
    Chúng ta chắc chắn phải cố,
    nhưng những tổ chức đó
  • 3:03 - 3:06
    cạnh tranh như thế,
    toàn cầu như thế,
  • 3:06 - 3:08
    bị chi phối như thế
    bởi những áp lực thương mại
  • 3:08 - 3:11
    rằng việc gì có thể xảy đến
    sẽ xảy đến đâu đó,
  • 3:11 - 3:13
    dù luật lệ có
    quy định gì đi nữa.
  • 3:13 - 3:17
    Cũng như luật chống ma túy
    chúng ta cố, nhưng không thể.
  • 3:17 - 3:20
    Ngôi làng toàn cầu sẽ có
    những kẻ ngốc của chính nó,
  • 3:20 - 3:23
    và chúng sẽ có quy mô toàn cầu.
  • 3:23 - 3:26
    Thế nên, như tôi đã nói
    trong sách của mình,
  • 3:26 - 3:29
    chúng ta có một đoạn đường gập ghềnh
    trong thế kỷ này.
  • 3:29 - 3:32
    Chúng có thể đem cả xã hội này
    trở về điểm xuất phát.
  • 3:32 - 3:36
    Thực tế là xác suất
    của sự quay ngược thảm khốc là 50%.
  • 3:36 - 3:39
    Nhưng liệu có tồn tại những biến cố
    có thể nhận thấy
  • 3:39 - 3:41
    thậm chí là tồi tệ hơn nữa,
  • 3:41 - 3:45
    những biến cố có thể tận diệt
    tất cả sự sống?
  • 3:45 - 3:48
    Khi một thí nghiệm gia tốc hạt mới
    được vận hành.
  • 3:48 - 3:49
    một số người lo lắng hỏi:
  • 3:49 - 3:52
    "Liệu nó có thể phá hủy trái đất,
    hay tệ hơn
  • 3:52 - 3:54
    là xé toạc kết cấu của vũ trụ?"
  • 3:54 - 3:58
    May thay, người ta có thể đưa ra
    sự bảo đảm nhất định.
  • 3:58 - 4:00
    Tôi và một số người
    đã chỉ ra rằng
  • 4:00 - 4:04
    thiên nhiên đã làm những thí nghiệm
    tương tự vô số lần trước đó,
  • 4:04 - 4:06
    thông qua va chạm các tia vũ trụ.
  • 4:06 - 4:09
    Nhưng các nhà khoa học
    chắc chắn là nên đề phòng
  • 4:09 - 4:11
    việc các thí nghiệm tạo ra các điều kiện
  • 4:11 - 4:14
    chưa có tiền lệ trong
    thế giới tự nhiên.
  • 4:14 - 4:17
    Các nhà sinh học nên tránh phóng thích
    các mầm bệnh biến đổi gen
  • 4:17 - 4:20
    tiềm tàng nguy hiểm.
  • 4:20 - 4:24
    Và tiện thể,
    sự ác cảm đặc biệt của chúng ta
  • 4:24 - 4:27
    dành cho nguy cơ
    thảm họa tuyệt chủng
  • 4:27 - 4:30
    phụ thuộc vào một câu hỏi
    triết học và đạo đức,
  • 4:30 - 4:32
    đó là:
  • 4:32 - 4:34
    Suy xét hai kịch bản.
  • 4:34 - 4:40
    Kịch bản A quét sạch 90% nhân loại.
  • 4:40 - 4:43
    Kịch bản B quét sạch 100%.
  • 4:43 - 4:46
    B tồi tệ hơn A bao nhiêu?
  • 4:46 - 4:49
    Một số người sẽ nói 10% tồi tệ hơn.
  • 4:49 - 4:53
    Số cá thể đếm được là 10% cao hơn.
  • 4:53 - 4:56
    Tôi nói rằng B tồi tệ hơn
    một cách không thể so sánh được.
  • 4:56 - 4:58
    Là một nhà thiên văn học,
    tôi không thể tin
  • 4:58 - 5:01
    rằng loài người là kết thúc
    của câu chuyện.
  • 5:01 - 5:04
    Còn năm tỷ năm
    trước khi mặt trời nổ tung,
  • 5:04 - 5:07
    và vũ trụ có thể vẫn tiếp tục mãi,
  • 5:07 - 5:09
    cũng như sự tiến hóa hậu nhân loại,
  • 5:09 - 5:11
    tại đây trên trái đất và xa hơn nữa,
  • 5:11 - 5:14
    có thể sẽ được kéo dài
    như tiến trình Darwin
  • 5:14 - 5:17
    đã dẫn đến chúng ta,
    thậm chí còn tuyệt vời hơn.
  • 5:17 - 5:20
    Thực tế, tiến hóa trong tương lai
    sẽ xảy ra nhanh hơn,
  • 5:20 - 5:22
    trên phạm vi thời gian về kỹ thuật,
  • 5:22 - 5:24
    thay vì phạm vi thời gian
    về chọn lọc tự nhiên.
  • 5:24 - 5:28
    Vậy thì chúng ta chắc hẳn,
    nhìn vào những điều to tát đó,
  • 5:28 - 5:32
    không nên chấp nhận thậm chí
    một hiểm họa có xác suất một phần tỷ
  • 5:32 - 5:34
    rằng sự tuyệt chủng nhân loại
    có thể đặt dấu chấm hết
  • 5:34 - 5:36
    cho tiến trình vĩ đại này.
  • 5:36 - 5:38
    Một số kịch bản mà ta
    dự tính
  • 5:38 - 5:40
    thực sự có thể là khoa học viễn tưởng,
  • 5:40 - 5:43
    nhưng một số trở thành hiện thực
    một cách đáng lo ngại.
  • 5:43 - 5:46
    Có một câu châm ngôn là
  • 5:46 - 5:49
    điều xa lạ
    không giống với điều ít xảy ra,
  • 5:49 - 5:52
    đó là lý do tại sao chúng tôi
    tại ĐH Cambridge
  • 5:52 - 5:55
    đang thiết lập một trung tâm nghiên cứu
    cách giảm nhẹ
  • 5:55 - 5:57
    những nguy hiểm tiềm tàng đó.
  • 5:57 - 6:00
    Dường như, chỉ một số ít người
  • 6:00 - 6:02
    quan tâm
    về những thảm họa tiềm tàng.
  • 6:02 - 6:05
    Và chúng tôi cần tất cả sự giúp đỡ có thể,
  • 6:05 - 6:08
    bởi vì chúng tôi là những người bảo trợ
  • 6:08 - 6:11
    cho một chấm xanh le lói tuyệt đẹp
    trong vũ trụ rộng lớn,
  • 6:11 - 6:14
    một hành tinh còn 50 triệu thế kỷ
    phía trước.
  • 6:14 - 6:17
    Vậy nên xin đừng gây nguy hại
    cho tương lai đó.
  • 6:17 - 6:19
    Tôi muốn kết thúc bằng trích dẫn
  • 6:19 - 6:22
    từ nhà khoa học vĩ đại Peter Medawar:
  • 6:22 - 6:26
    "Những cái chuông rung cho nhân loại
  • 6:26 - 6:28
    giống như những cái chuông gia súc
    trên dãy An-pơ
  • 6:28 - 6:30
    Chúng được đeo trên cổ
    của chính chúng ta,
  • 6:30 - 6:33
    và là lỗi của chính ta nếu
    chúng không rung
  • 6:33 - 6:35
    một giai điệu du dương êm ái."
  • 6:35 - 6:38
    Xin cảm ơn rất nhiều.
  • 6:38 - 6:40
    (Tiếng vỗ tay)
Title:
Liệu ta có thể ngăn chặn ngày tận thế?
Speaker:
Sir Martin Rees
Description:

Một trái đất sau ngày tận thế, không còn loài người, dường như chỉ là chuyện khoa học viễn tưởng. Nhưng trong bài diễn văn ngắn, đầy bất ngờ này, Lord Martin Rees yêu cầu chúng ta hãy nghĩ về những hiểm họa tiềm tàng - những mối đe dọa do thiên nhiên hay con người làm ra có thể tận diệt loài người. Quan ngại cho số phận loài người, ông đặt ra câu hỏi: Điều tồi tệ nhất có thể xảy ra là gì?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
06:52

Vietnamese subtitles

Revisions