1 00:00:00,000 --> 00:00:02,707 Mười năm trước, tôi đã viết một cuốn sách có tựa 2 00:00:02,707 --> 00:00:05,800 "Thế kỷ cuối cùng của chúng ta?" Chấm hỏi. 3 00:00:05,800 --> 00:00:09,377 Nhà xuất bản đã cắt bỏ dấu chấm hỏi. (Tiếng cười) 4 00:00:09,377 --> 00:00:11,739 Các nhà xuất bản Mỹ thay đổi tựa đề thành 5 00:00:11,739 --> 00:00:15,168 "Giờ cuối của chúng ta." 6 00:00:15,168 --> 00:00:18,660 Người Mỹ thích thưởng nóng và ngược lại. 7 00:00:18,660 --> 00:00:20,368 (Tiếng cười) 8 00:00:20,368 --> 00:00:22,118 Và chủ đề của tôi là: 9 00:00:22,118 --> 00:00:26,284 Trái đất đã tồn tại 45 triệu thế kỷ 10 00:00:26,284 --> 00:00:28,297 nhưng thế kỷ này đặc biệt -- 11 00:00:28,297 --> 00:00:31,313 đó là lần đầu tiên loài người chúng ta 12 00:00:31,313 --> 00:00:34,115 nắm trong tay tương lai của cả hành tinh này. 13 00:00:34,115 --> 00:00:36,105 Gần như suốt lịch sử Trái đất, 14 00:00:36,105 --> 00:00:38,041 các mối đe dọa tới từ thiên nhiên -- 15 00:00:38,041 --> 00:00:41,537 bệnh tật, động đất, thiên thạch và nhiều nữa... 16 00:00:41,537 --> 00:00:47,209 nhưng từ nay trở đi, hiểm họa đáng sợ nhất đến từ chúng ta. 17 00:00:47,209 --> 00:00:50,480 Giờ đây, không chỉ là hiểm họa hạt nhân; 18 00:00:50,480 --> 00:00:52,481 trong thế giới kết nối của chúng ta, 19 00:00:52,481 --> 00:00:55,394 sự sụp đổ internet có thể diễn ra ở phạm vi toàn cầu; 20 00:00:55,394 --> 00:00:59,580 đại dịch có thể lan khắp thế giới trong vài ngày bằng đường hàng không 21 00:00:59,580 --> 00:01:02,677 và mạng xã hội có thể lan truyền sự hoảng sợ và tin đồn 22 00:01:02,677 --> 00:01:05,894 với tốc độ ánh sáng theo đúng nghĩa đen. 23 00:01:05,894 --> 00:01:09,529 Chúng ta phải lo lắng quá nhiều về những mối nguy hiểm cỏn con 24 00:01:09,529 --> 00:01:13,150 tai nạn máy bay hiếm hoi, chất gây ung thư trong thực phẩm, 25 00:01:13,150 --> 00:01:15,376 độ phóng xạ liều lượng thấp, và nhiều nữa 26 00:01:15,376 --> 00:01:18,201 nhưng chúng ta và những bậc thầy về chính trị 27 00:01:18,201 --> 00:01:22,404 đang phủ nhận tất cả các kịch bản thảm họa khác. 28 00:01:22,404 --> 00:01:25,442 Điều tồi tệ nhất, may thay, vẫn chưa xảy đến. 29 00:01:25,442 --> 00:01:27,638 Chúng có thể sẽ không đến. 30 00:01:27,638 --> 00:01:30,823 Nhưng nếu có một hiểm họa tiềm tàng, 31 00:01:30,823 --> 00:01:33,691 rất đáng để đóng một khoản bảo hiểm 32 00:01:33,691 --> 00:01:37,527 để bảo vệ ta khỏi nó, dù xác suất xảy ra là rất thấp, 33 00:01:37,527 --> 00:01:42,040 cũng như việc đóng bảo hiểm hỏa hoạn cho căn nhà của mình. 34 00:01:42,040 --> 00:01:47,037 Cũng như khoa học đề xuất nhiều năng lượng và hứa hẹn hơn, 35 00:01:47,037 --> 00:01:50,903 mặt trái là càng nhiều lo sợ hơn. 36 00:01:50,903 --> 00:01:53,142 Chúng ta lại càng dễ bị tổn thương hơn. 37 00:01:53,142 --> 00:01:54,980 Chỉ trong vài thập kỷ, 38 00:01:54,980 --> 00:01:57,210 hàng triệu người sẽ có khả năng 39 00:01:57,210 --> 00:02:00,331 sử dụng sai một cách nhanh chóng công nghệ sinh học tiên tiến, 40 00:02:00,331 --> 00:02:03,884 cũng như sử dụng sai công nghệ số ngày nay. 41 00:02:03,884 --> 00:02:07,083 Freeman Dyson, trong một buổi TED Talk, 42 00:02:07,083 --> 00:02:10,939 đã tiên đoán rằng trẻ em sẽ thiết kế và tạo nên các vi sinh vật mới 43 00:02:10,939 --> 00:02:15,190 cũng đều đặn như thế hệ của ông làm việc với các tập hóa chất. 44 00:02:15,190 --> 00:02:17,718 Vâng, đây có thể chỉ là khoa học viễn tưởng, 45 00:02:17,718 --> 00:02:20,901 nhưng nếu chỉ một phần tiên đoán đó thành hiện thực, 46 00:02:20,901 --> 00:02:23,638 hệ sinh thái của chúng ta, thậm chí chính loài người 47 00:02:23,638 --> 00:02:27,627 đã không thể tồn tại lâu đến vậy. 48 00:02:27,627 --> 00:02:31,490 Ví dụ, một số nhà sinh thái học cực đoan cho rằng 49 00:02:31,490 --> 00:02:33,999 sẽ tốt hơn cho hành tinh 50 00:02:33,999 --> 00:02:37,402 cho mẹ trái đất, nếu có ít con người hơn. 51 00:02:37,402 --> 00:02:40,119 Điều gì xảy ra nếu những kẻ đó nắm rõ 52 00:02:40,119 --> 00:02:42,256 các kỹ thuật về sinh học tổng hợp 53 00:02:42,256 --> 00:02:45,108 thứ sẽ được phổ biến trước 2050? 54 00:02:45,108 --> 00:02:48,150 Và từ đó, nhiều ác mộng viễn tưởng khác 55 00:02:48,150 --> 00:02:49,860 có thể thành hiện thực: 56 00:02:49,860 --> 00:02:51,930 những robot vô tri trở nên tinh ranh, 57 00:02:51,930 --> 00:02:54,347 hoặc một mạng lưới biết tự suy nghĩ 58 00:02:54,347 --> 00:02:56,936 đe dọa tất cả chúng ta. 59 00:02:56,936 --> 00:03:00,206 Liệu có thể phòng ngừa những hiểm họa đó bằng luật lệ? 60 00:03:00,206 --> 00:03:02,613 Chúng ta chắc chắn phải cố, nhưng những tổ chức đó 61 00:03:02,613 --> 00:03:05,552 cạnh tranh như thế, toàn cầu như thế, 62 00:03:05,552 --> 00:03:08,122 bị chi phối như thế bởi những áp lực thương mại 63 00:03:08,122 --> 00:03:11,017 rằng việc gì có thể xảy đến sẽ xảy đến đâu đó, 64 00:03:11,017 --> 00:03:13,443 dù luật lệ có quy định gì đi nữa. 65 00:03:13,443 --> 00:03:17,280 Cũng như luật chống ma túy chúng ta cố, nhưng không thể. 66 00:03:17,280 --> 00:03:20,474 Ngôi làng toàn cầu sẽ có những kẻ ngốc của chính nó, 67 00:03:20,474 --> 00:03:23,470 và chúng sẽ có quy mô toàn cầu. 68 00:03:23,470 --> 00:03:25,761 Thế nên, như tôi đã nói trong sách của mình, 69 00:03:25,761 --> 00:03:28,650 chúng ta có một đoạn đường gập ghềnh trong thế kỷ này. 70 00:03:28,650 --> 00:03:32,140 Chúng có thể đem cả xã hội này trở về điểm xuất phát. 71 00:03:32,140 --> 00:03:36,255 Thực tế là xác suất của sự quay ngược thảm khốc là 50%. 72 00:03:36,255 --> 00:03:39,169 Nhưng liệu có tồn tại những biến cố có thể nhận thấy 73 00:03:39,169 --> 00:03:41,330 thậm chí là tồi tệ hơn nữa, 74 00:03:41,330 --> 00:03:44,760 những biến cố có thể tận diệt tất cả sự sống? 75 00:03:44,760 --> 00:03:47,686 Khi một thí nghiệm gia tốc hạt mới được vận hành. 76 00:03:47,686 --> 00:03:49,475 một số người lo lắng hỏi: 77 00:03:49,475 --> 00:03:51,725 "Liệu nó có thể phá hủy trái đất, hay tệ hơn 78 00:03:51,725 --> 00:03:54,384 là xé toạc kết cấu của vũ trụ?" 79 00:03:54,384 --> 00:03:57,927 May thay, người ta có thể đưa ra sự bảo đảm nhất định. 80 00:03:57,927 --> 00:03:59,971 Tôi và một số người đã chỉ ra rằng 81 00:03:59,971 --> 00:04:04,084 thiên nhiên đã làm những thí nghiệm tương tự vô số lần trước đó, 82 00:04:04,090 --> 00:04:06,235 thông qua va chạm các tia vũ trụ. 83 00:04:06,235 --> 00:04:08,909 Nhưng các nhà khoa học chắc chắn là nên đề phòng 84 00:04:08,909 --> 00:04:11,489 việc các thí nghiệm tạo ra các điều kiện 85 00:04:11,489 --> 00:04:13,972 chưa có tiền lệ trong thế giới tự nhiên. 86 00:04:13,972 --> 00:04:17,395 Các nhà sinh học nên tránh phóng thích các mầm bệnh biến đổi gen 87 00:04:17,395 --> 00:04:20,110 tiềm tàng nguy hiểm. 88 00:04:20,110 --> 00:04:23,627 Và tiện thể, sự ác cảm đặc biệt của chúng ta 89 00:04:23,627 --> 00:04:27,088 dành cho nguy cơ thảm họa tuyệt chủng 90 00:04:27,088 --> 00:04:30,363 phụ thuộc vào một câu hỏi triết học và đạo đức, 91 00:04:30,363 --> 00:04:32,033 đó là: 92 00:04:32,033 --> 00:04:34,341 Suy xét hai kịch bản. 93 00:04:34,341 --> 00:04:39,577 Kịch bản A quét sạch 90% nhân loại. 94 00:04:39,577 --> 00:04:43,473 Kịch bản B quét sạch 100%. 95 00:04:43,473 --> 00:04:46,391 B tồi tệ hơn A bao nhiêu? 96 00:04:46,391 --> 00:04:49,414 Một số người sẽ nói 10% tồi tệ hơn. 97 00:04:49,414 --> 00:04:52,564 Số cá thể đếm được là 10% cao hơn. 98 00:04:52,564 --> 00:04:55,780 Tôi nói rằng B tồi tệ hơn một cách không thể so sánh được. 99 00:04:55,780 --> 00:04:58,099 Là một nhà thiên văn học, tôi không thể tin 100 00:04:58,099 --> 00:05:00,566 rằng loài người là kết thúc của câu chuyện. 101 00:05:00,566 --> 00:05:03,889 Còn năm tỷ năm trước khi mặt trời nổ tung, 102 00:05:03,889 --> 00:05:06,600 và vũ trụ có thể vẫn tiếp tục mãi, 103 00:05:06,600 --> 00:05:08,892 cũng như sự tiến hóa hậu nhân loại, 104 00:05:08,892 --> 00:05:11,082 tại đây trên trái đất và xa hơn nữa, 105 00:05:11,082 --> 00:05:13,796 có thể sẽ được kéo dài như tiến trình Darwin 106 00:05:13,796 --> 00:05:17,077 đã dẫn đến chúng ta, thậm chí còn tuyệt vời hơn. 107 00:05:17,077 --> 00:05:20,011 Thực tế, tiến hóa trong tương lai sẽ xảy ra nhanh hơn, 108 00:05:20,011 --> 00:05:21,940 trên phạm vi thời gian về kỹ thuật, 109 00:05:21,940 --> 00:05:24,499 thay vì phạm vi thời gian về chọn lọc tự nhiên. 110 00:05:24,499 --> 00:05:28,434 Vậy thì chúng ta chắc hẳn, nhìn vào những điều to tát đó, 111 00:05:28,434 --> 00:05:31,820 không nên chấp nhận thậm chí một hiểm họa có xác suất một phần tỷ 112 00:05:31,820 --> 00:05:34,499 rằng sự tuyệt chủng nhân loại có thể đặt dấu chấm hết 113 00:05:34,499 --> 00:05:36,359 cho tiến trình vĩ đại này. 114 00:05:36,359 --> 00:05:38,131 Một số kịch bản mà ta dự tính 115 00:05:38,131 --> 00:05:40,250 thực sự có thể là khoa học viễn tưởng, 116 00:05:40,250 --> 00:05:43,336 nhưng một số trở thành hiện thực một cách đáng lo ngại. 117 00:05:43,336 --> 00:05:46,210 Có một câu châm ngôn là 118 00:05:46,210 --> 00:05:48,907 điều xa lạ không giống với điều ít xảy ra, 119 00:05:48,907 --> 00:05:51,545 đó là lý do tại sao chúng tôi tại ĐH Cambridge 120 00:05:51,545 --> 00:05:54,680 đang thiết lập một trung tâm nghiên cứu cách giảm nhẹ 121 00:05:54,680 --> 00:05:56,712 những nguy hiểm tiềm tàng đó. 122 00:05:56,712 --> 00:05:59,775 Dường như, chỉ một số ít người 123 00:05:59,775 --> 00:06:02,091 quan tâm về những thảm họa tiềm tàng. 124 00:06:02,091 --> 00:06:05,104 Và chúng tôi cần tất cả sự giúp đỡ có thể, 125 00:06:05,104 --> 00:06:07,583 bởi vì chúng tôi là những người bảo trợ 126 00:06:07,583 --> 00:06:11,066 cho một chấm xanh le lói tuyệt đẹp trong vũ trụ rộng lớn, 127 00:06:11,066 --> 00:06:14,444 một hành tinh còn 50 triệu thế kỷ phía trước. 128 00:06:14,444 --> 00:06:17,270 Vậy nên xin đừng gây nguy hại cho tương lai đó. 129 00:06:17,270 --> 00:06:19,265 Tôi muốn kết thúc bằng trích dẫn 130 00:06:19,265 --> 00:06:22,296 từ nhà khoa học vĩ đại Peter Medawar: 131 00:06:22,296 --> 00:06:25,569 "Những cái chuông rung cho nhân loại 132 00:06:25,569 --> 00:06:28,213 giống như những cái chuông gia súc trên dãy An-pơ 133 00:06:28,213 --> 00:06:30,499 Chúng được đeo trên cổ của chính chúng ta, 134 00:06:30,499 --> 00:06:33,174 và là lỗi của chính ta nếu chúng không rung 135 00:06:33,174 --> 00:06:35,485 một giai điệu du dương êm ái." 136 00:06:35,485 --> 00:06:37,572 Xin cảm ơn rất nhiều. 137 00:06:37,572 --> 00:06:39,685 (Tiếng vỗ tay)