0:00:00.000,0:00:02.707 Mười năm trước, tôi đã viết [br]một cuốn sách có tựa 0:00:02.707,0:00:05.800 "Thế kỷ cuối cùng của chúng ta?" [br]Chấm hỏi. 0:00:05.800,0:00:09.377 Nhà xuất bản đã cắt bỏ dấu chấm hỏi. [br](Tiếng cười) 0:00:09.377,0:00:11.739 Các nhà xuất bản Mỹ [br]thay đổi tựa đề thành 0:00:11.739,0:00:15.168 "Giờ cuối của chúng ta." 0:00:15.168,0:00:18.660 Người Mỹ thích thưởng nóng và ngược lại. 0:00:18.660,0:00:20.368 (Tiếng cười) 0:00:20.368,0:00:22.118 Và chủ đề của tôi là: 0:00:22.118,0:00:26.284 Trái đất đã tồn tại 45 triệu thế kỷ 0:00:26.284,0:00:28.297 nhưng thế kỷ này đặc biệt -- 0:00:28.297,0:00:31.313 đó là lần đầu tiên loài người chúng ta 0:00:31.313,0:00:34.115 nắm trong tay tương lai [br]của cả hành tinh này. 0:00:34.115,0:00:36.105 Gần như suốt lịch sử Trái đất, 0:00:36.105,0:00:38.041 các mối đe dọa tới từ thiên nhiên -- 0:00:38.041,0:00:41.537 bệnh tật, động đất, [br]thiên thạch và nhiều nữa... 0:00:41.537,0:00:47.209 nhưng từ nay trở đi,[br]hiểm họa đáng sợ nhất đến từ chúng ta. 0:00:47.209,0:00:50.480 Giờ đây, không chỉ là hiểm họa hạt nhân; 0:00:50.480,0:00:52.481 trong thế giới kết nối của chúng ta, 0:00:52.481,0:00:55.394 sự sụp đổ internet [br]có thể diễn ra ở phạm vi toàn cầu; 0:00:55.394,0:00:59.580 đại dịch có thể lan khắp thế giới[br]trong vài ngày bằng đường hàng không 0:00:59.580,0:01:02.677 và mạng xã hội có thể lan truyền[br]sự hoảng sợ và tin đồn 0:01:02.677,0:01:05.894 với tốc độ ánh sáng [br]theo đúng nghĩa đen. 0:01:05.894,0:01:09.529 Chúng ta phải lo lắng quá nhiều [br]về những mối nguy hiểm cỏn con 0:01:09.529,0:01:13.150 tai nạn máy bay hiếm hoi, [br]chất gây ung thư trong thực phẩm, 0:01:13.150,0:01:15.376 độ phóng xạ liều lượng thấp, [br]và nhiều nữa 0:01:15.376,0:01:18.201 nhưng chúng ta và những [br]bậc thầy về chính trị 0:01:18.201,0:01:22.404 đang phủ nhận tất cả [br]các kịch bản thảm họa khác. 0:01:22.404,0:01:25.442 Điều tồi tệ nhất, may thay,[br]vẫn chưa xảy đến. 0:01:25.442,0:01:27.638 Chúng có thể sẽ không đến. 0:01:27.638,0:01:30.823 Nhưng nếu có một hiểm họa tiềm tàng, 0:01:30.823,0:01:33.691 rất đáng để đóng một khoản bảo hiểm 0:01:33.691,0:01:37.527 để bảo vệ ta khỏi nó, [br]dù xác suất xảy ra là rất thấp, 0:01:37.527,0:01:42.040 cũng như việc đóng bảo hiểm hỏa hoạn[br]cho căn nhà của mình. 0:01:42.040,0:01:47.037 Cũng như khoa học đề xuất [br]nhiều năng lượng và hứa hẹn hơn, 0:01:47.037,0:01:50.903 mặt trái là càng nhiều lo sợ hơn. 0:01:50.903,0:01:53.142 Chúng ta [br]lại càng dễ bị tổn thương hơn. 0:01:53.142,0:01:54.980 Chỉ trong vài thập kỷ, 0:01:54.980,0:01:57.210 hàng triệu người sẽ có khả năng 0:01:57.210,0:02:00.331 sử dụng sai một cách nhanh chóng[br]công nghệ sinh học tiên tiến, 0:02:00.331,0:02:03.884 cũng như sử dụng sai [br]công nghệ số ngày nay. 0:02:03.884,0:02:07.083 Freeman Dyson, trong một buổi TED Talk, 0:02:07.083,0:02:10.939 đã tiên đoán rằng trẻ em sẽ thiết kế và[br]tạo nên các vi sinh vật mới 0:02:10.939,0:02:15.190 cũng đều đặn như thế hệ của ông [br]làm việc với các tập hóa chất. 0:02:15.190,0:02:17.718 Vâng, đây có thể chỉ là [br]khoa học viễn tưởng, 0:02:17.718,0:02:20.901 nhưng nếu chỉ một phần tiên đoán đó [br]thành hiện thực, 0:02:20.901,0:02:23.638 hệ sinh thái của chúng ta,[br]thậm chí chính loài người 0:02:23.638,0:02:27.627 đã không thể tồn tại lâu đến vậy. 0:02:27.627,0:02:31.490 Ví dụ, một số nhà sinh thái học[br]cực đoan cho rằng 0:02:31.490,0:02:33.999 sẽ tốt hơn cho hành tinh 0:02:33.999,0:02:37.402 cho mẹ trái đất, nếu có ít con người hơn. 0:02:37.402,0:02:40.119 Điều gì xảy ra nếu những kẻ đó nắm rõ 0:02:40.119,0:02:42.256 các kỹ thuật về sinh học tổng hợp 0:02:42.256,0:02:45.108 thứ sẽ được phổ biến trước 2050? 0:02:45.108,0:02:48.150 Và từ đó, nhiều ác mộng viễn tưởng khác 0:02:48.150,0:02:49.860 có thể thành hiện thực: 0:02:49.860,0:02:51.930 những robot vô tri trở nên tinh ranh, 0:02:51.930,0:02:54.347 hoặc một mạng lưới biết tự suy nghĩ 0:02:54.347,0:02:56.936 đe dọa tất cả chúng ta. 0:02:56.936,0:03:00.206 Liệu có thể phòng ngừa [br]những hiểm họa đó bằng luật lệ? 0:03:00.206,0:03:02.613 Chúng ta chắc chắn phải cố,[br]nhưng những tổ chức đó 0:03:02.613,0:03:05.552 cạnh tranh như thế, [br]toàn cầu như thế, 0:03:05.552,0:03:08.122 bị chi phối như thế[br]bởi những áp lực thương mại 0:03:08.122,0:03:11.017 rằng việc gì có thể xảy đến[br]sẽ xảy đến đâu đó, 0:03:11.017,0:03:13.443 dù luật lệ có [br]quy định gì đi nữa. 0:03:13.443,0:03:17.280 Cũng như luật chống ma túy[br]chúng ta cố, nhưng không thể. 0:03:17.280,0:03:20.474 Ngôi làng toàn cầu sẽ có [br]những kẻ ngốc của chính nó, 0:03:20.474,0:03:23.470 và chúng sẽ có quy mô toàn cầu. 0:03:23.470,0:03:25.761 Thế nên, như tôi đã nói [br]trong sách của mình, 0:03:25.761,0:03:28.650 chúng ta có một đoạn đường gập ghềnh[br]trong thế kỷ này. 0:03:28.650,0:03:32.140 Chúng có thể đem cả xã hội này[br]trở về điểm xuất phát. 0:03:32.140,0:03:36.255 Thực tế là xác suất [br]của sự quay ngược thảm khốc là 50%. 0:03:36.255,0:03:39.169 Nhưng liệu có tồn tại những biến cố[br]có thể nhận thấy 0:03:39.169,0:03:41.330 thậm chí là tồi tệ hơn nữa, 0:03:41.330,0:03:44.760 những biến cố có thể tận diệt[br]tất cả sự sống? 0:03:44.760,0:03:47.686 Khi một thí nghiệm gia tốc hạt mới[br]được vận hành. 0:03:47.686,0:03:49.475 một số người lo lắng hỏi: 0:03:49.475,0:03:51.725 "Liệu nó có thể phá hủy trái đất, [br]hay tệ hơn 0:03:51.725,0:03:54.384 là xé toạc kết cấu của vũ trụ?" 0:03:54.384,0:03:57.927 May thay, người ta có thể đưa ra[br]sự bảo đảm nhất định. 0:03:57.927,0:03:59.971 Tôi và một số người [br]đã chỉ ra rằng 0:03:59.971,0:04:04.084 thiên nhiên đã làm những thí nghiệm [br]tương tự vô số lần trước đó, 0:04:04.090,0:04:06.235 thông qua va chạm các tia vũ trụ. 0:04:06.235,0:04:08.909 Nhưng các nhà khoa học [br]chắc chắn là nên đề phòng 0:04:08.909,0:04:11.489 việc các thí nghiệm tạo ra các điều kiện 0:04:11.489,0:04:13.972 chưa có tiền lệ trong [br]thế giới tự nhiên. 0:04:13.972,0:04:17.395 Các nhà sinh học nên tránh phóng thích[br]các mầm bệnh biến đổi gen 0:04:17.395,0:04:20.110 tiềm tàng nguy hiểm. 0:04:20.110,0:04:23.627 Và tiện thể, [br]sự ác cảm đặc biệt của chúng ta 0:04:23.627,0:04:27.088 dành cho nguy cơ [br]thảm họa tuyệt chủng 0:04:27.088,0:04:30.363 phụ thuộc vào một câu hỏi[br]triết học và đạo đức, 0:04:30.363,0:04:32.033 đó là: 0:04:32.033,0:04:34.341 Suy xét hai kịch bản. 0:04:34.341,0:04:39.577 Kịch bản A quét sạch 90% nhân loại. 0:04:39.577,0:04:43.473 Kịch bản B quét sạch 100%. 0:04:43.473,0:04:46.391 B tồi tệ hơn A bao nhiêu? 0:04:46.391,0:04:49.414 Một số người sẽ nói 10% tồi tệ hơn. 0:04:49.414,0:04:52.564 Số cá thể đếm được là 10% cao hơn. 0:04:52.564,0:04:55.780 Tôi nói rằng B tồi tệ hơn [br]một cách không thể so sánh được. 0:04:55.780,0:04:58.099 Là một nhà thiên văn học,[br]tôi không thể tin 0:04:58.099,0:05:00.566 rằng loài người là kết thúc [br]của câu chuyện. 0:05:00.566,0:05:03.889 Còn năm tỷ năm [br]trước khi mặt trời nổ tung, 0:05:03.889,0:05:06.600 và vũ trụ có thể vẫn tiếp tục mãi, 0:05:06.600,0:05:08.892 cũng như sự tiến hóa hậu nhân loại, 0:05:08.892,0:05:11.082 tại đây trên trái đất và xa hơn nữa, 0:05:11.082,0:05:13.796 có thể sẽ được kéo dài[br]như tiến trình Darwin 0:05:13.796,0:05:17.077 đã dẫn đến chúng ta,[br]thậm chí còn tuyệt vời hơn. 0:05:17.077,0:05:20.011 Thực tế, tiến hóa trong tương lai [br]sẽ xảy ra nhanh hơn, 0:05:20.011,0:05:21.940 trên phạm vi thời gian về kỹ thuật, 0:05:21.940,0:05:24.499 thay vì phạm vi thời gian [br]về chọn lọc tự nhiên. 0:05:24.499,0:05:28.434 Vậy thì chúng ta chắc hẳn, [br]nhìn vào những điều to tát đó, 0:05:28.434,0:05:31.820 không nên chấp nhận thậm chí [br]một hiểm họa có xác suất một phần tỷ 0:05:31.820,0:05:34.499 rằng sự tuyệt chủng nhân loại[br]có thể đặt dấu chấm hết 0:05:34.499,0:05:36.359 cho tiến trình vĩ đại này. 0:05:36.359,0:05:38.131 Một số kịch bản mà ta [br]dự tính 0:05:38.131,0:05:40.250 thực sự có thể là khoa học viễn tưởng, 0:05:40.250,0:05:43.336 nhưng một số trở thành hiện thực [br]một cách đáng lo ngại. 0:05:43.336,0:05:46.210 Có một câu châm ngôn là 0:05:46.210,0:05:48.907 điều xa lạ [br]không giống với điều ít xảy ra, 0:05:48.907,0:05:51.545 đó là lý do tại sao chúng tôi [br]tại ĐH Cambridge 0:05:51.545,0:05:54.680 đang thiết lập một trung tâm nghiên cứu[br]cách giảm nhẹ 0:05:54.680,0:05:56.712 những nguy hiểm tiềm tàng đó. 0:05:56.712,0:05:59.775 Dường như, chỉ một số ít người 0:05:59.775,0:06:02.091 quan tâm[br]về những thảm họa tiềm tàng. 0:06:02.091,0:06:05.104 Và chúng tôi cần tất cả sự giúp đỡ có thể, 0:06:05.104,0:06:07.583 bởi vì chúng tôi là những người bảo trợ 0:06:07.583,0:06:11.066 cho một chấm xanh le lói tuyệt đẹp[br]trong vũ trụ rộng lớn, 0:06:11.066,0:06:14.444 một hành tinh còn 50 triệu thế kỷ[br]phía trước. 0:06:14.444,0:06:17.270 Vậy nên xin đừng gây nguy hại [br]cho tương lai đó. 0:06:17.270,0:06:19.265 Tôi muốn kết thúc bằng trích dẫn 0:06:19.265,0:06:22.296 từ nhà khoa học vĩ đại Peter Medawar: 0:06:22.296,0:06:25.569 "Những cái chuông rung cho nhân loại 0:06:25.569,0:06:28.213 giống như những cái chuông gia súc[br]trên dãy An-pơ 0:06:28.213,0:06:30.499 Chúng được đeo trên cổ [br]của chính chúng ta, 0:06:30.499,0:06:33.174 và là lỗi của chính ta nếu [br]chúng không rung 0:06:33.174,0:06:35.485 một giai điệu du dương êm ái." 0:06:35.485,0:06:37.572 Xin cảm ơn rất nhiều. 0:06:37.572,0:06:39.685 (Tiếng vỗ tay)