Return to Video

Ta có thể xây dựng trí thông minh nhân tạo mà không làm mất kiểm soát chúng?

  • 0:01 - 0:03
    Tôi chuẩn bị nói về
    sự thất bại của trực giác
  • 0:03 - 0:05
    mà nhiều người trong chúng ta
    thường gặp phải.
  • 0:05 - 0:09
    Nó thật ra là sự thất bại trong việc
    phát hiện một mối nguy hiểm nhất định.
  • 0:09 - 0:11
    Tôi sẽ mô tả một viễn cảnh
  • 0:11 - 0:14
    mà tôi nghĩ vừa kinh khủng
  • 0:14 - 0:17
    vừa có thể sẽ xảy ra,
  • 0:17 - 0:18
    và đây không phải sự kết hợp tốt
  • 0:19 - 0:20
    khi nó xảy ra.
  • 0:20 - 0:23
    Thế nhưng thay vì sợ,
    hầu hết các bạn sẽ cảm thấy
  • 0:23 - 0:25
    rằng điều tôi đang nói thật ra rất tuyệt
  • 0:25 - 0:28
    Tôi sẽ mô tả cách mà
    những thứ ta gặt hái được
  • 0:28 - 0:30
    từ trí thông minh nhân tạo (AI)
  • 0:30 - 0:32
    có thể hủy diệt chúng ta.
  • 0:32 - 0:35
    Thực ra, tôi nghĩ rất khó để xem làm sao
    chúng có thể không tiêu diệt chúng ta
  • 0:35 - 0:37
    hoặc làm cho chúng ta tự hủy diệt mình.
  • 0:37 - 0:39
    Nhưng nếu các bạn giống tôi,
  • 0:39 - 0:42
    bạn sẽ thấy rằng nó rất vui
    khi nghĩ về những điều này.
  • 0:42 - 0:45
    Và phản ứng đó là một phần của vấn đề.
  • 0:45 - 0:48
    OK? Phản ứng đó sẽ làm bạn lo lắng.
  • 0:48 - 0:51
    Và nếu tôi thuyết phục được các bạn
    trong buổi nói chuyện này
  • 0:51 - 0:54
    rằng chúng ta có thể sẽ phải
    hứng chịu một nạn đói toàn cầu,
  • 0:54 - 0:57
    hoặc do biến đổi khí hậu hoặc
    do một số thiên tai khác,
  • 0:57 - 1:01
    và rằng cháu chắt của các bạn hay của họ,
  • 1:01 - 1:03
    rất có thể sẽ phải sống như thế này,
  • 1:03 - 1:05
    thì bạn sẽ không nghĩ,
  • 1:05 - 1:07
    "Tuyệt vời.
  • 1:07 - 1:09
    Tôi thích buổi nói chuyện này."
  • 1:09 - 1:12
    Nạn đói không vui vẻ gì đâu.
  • 1:12 - 1:15
    Tuy nhiên cái chết do khoa học
    viễn tưởng lại rất hài hước.
  • 1:15 - 1:19
    mà một trong số những thứ làm tôi
    lo lắng nhất về việc phát triển AI
  • 1:19 - 1:23
    là chúng ta dường như không thể sắp xếp
    một phản ứng cảm xúc thích hợp nào
  • 1:23 - 1:25
    cho những mối nguy hiểm trước mắt.
  • 1:25 - 1:30
    Tôi không thể sắp xếp thứ phản ứng này,
    nên tôi mới đưa ra buổi nói chuyện này.
  • 1:30 - 1:33
    Nó như thể chúng ta
    đứng trước hai cánh cửa.
  • 1:33 - 1:34
    Sau cánh cửa thứ nhất,
  • 1:34 - 1:37
    chúng ta ngưng quá trình xây dựng
    các loại máy móc thông minh.
  • 1:37 - 1:41
    Phần cứng và phần mềm máy tính
    không cải tiến tốt hơn nữa vì vài lí do.
  • 1:41 - 1:45
    Giờ hãy dành thời gian suy nghĩ
    tại sao điều này có thể xảy ra.
  • 1:45 - 1:49
    Ý tôi là, dựa vào giá trị của
    trí thông minh và sự tự động hóa,
  • 1:49 - 1:52
    chúng ta vẫn sẽ tiếp tục cải tiến
    công nghệ nếu ta hoàn toàn có thể.
  • 1:53 - 1:56
    Điều gì có thể khiến chúng ta
    dừng làm việc này?
  • 1:56 - 1:59
    Một cuộc chiến hạt nhân quy mô lớn?
  • 1:59 - 2:02
    Một đại dịch toàn cầu?
  • 2:02 - 2:06
    Va chạm thiên thạch?
  • 2:06 - 2:08
    Hay Justin Bieber trở thành tổng thống Mỹ?
  • 2:08 - 2:11
    (Cười)
  • 2:13 - 2:17
    Vấn đề là, thứ gì đó sẽ phải hủy diệt
    nền văn minh như chúng ta đã biết.
  • 2:17 - 2:22
    Bạn phải tưởng tượng nó
    sẽ phải tồi tệ như thế nào
  • 2:22 - 2:25
    để ngăn chúng ta tiếp tục
    cải tiến công nghệ
  • 2:25 - 2:26
    vĩnh viễn,
  • 2:26 - 2:28
    thế hệ này qua thế hệ khác.
  • 2:28 - 2:30
    Gần như theo định nghĩa,
    đây là thứ tồi tệ nhất
  • 2:30 - 2:32
    xảy ra trong lịch sử nhân loại.
  • 2:33 - 2:34
    Vậy nên lựa chọn duy nhất,
  • 2:34 - 2:36
    và nó nằm sau cánh cửa số hai,
  • 2:36 - 2:39
    đó là chúng ta tiếp tục cải tiến
    các máy móc thông minh
  • 2:39 - 2:41
    năm này qua năm khác.
  • 2:41 - 2:46
    Tới một thời điểm nhất định, chúng ta sẽ
    tạo ra những cỗ máy thông minh hơn mình,
  • 2:46 - 2:49
    và một khi chúng ta sở hữu
    các cỗ máy thông minh hơn mình,
  • 2:49 - 2:51
    chúng sẽ bắt đầu tự cải tiến.
  • 2:51 - 2:54
    Sau đó, chúng ta mạo hiểm với thứ
    mà nhà toán học Ij Good gọi là
  • 2:54 - 2:55
    sự "bùng nổ trí tuệ"
  • 2:55 - 2:58
    và quá trình đó có thể sẽ
    tiến xa ra khỏi chúng ta.
  • 2:58 - 3:01
    Và giờ, điều này thường hay bị biếm họa,
    như tôi có ở đây,
  • 3:01 - 3:04
    nỗi sợ trước một đội quân robot độc ác
  • 3:04 - 3:05
    sẽ tấn công chúng ta.
  • 3:05 - 3:08
    Nhưng đó chưa phải là viễn cảnh
    dễ xảy ra nhất.
  • 3:08 - 3:13
    Không phải những cỗ máy của chúng ta
    tự nhiên trở nên ác độc
  • 3:13 - 3:16
    Mối lo thật sự là khi
    chúng ta tạo ra những cỗ máy
  • 3:16 - 3:18
    tài giỏi hơn chúng ta quá nhiều
  • 3:18 - 3:22
    để rồi, dù chỉ một khác biệt nhỏ nhất
    giữa mục tiêu của chúng và ta thôi
  • 3:22 - 3:24
    cũng có thể hủy diệt chúng ta.
  • 3:24 - 3:27
    Hãy nghĩ đến mối quan hệ
    giữa chúng ta loài kiến.
  • 3:27 - 3:28
    Chúng ta không ghét chúng.
  • 3:28 - 3:30
    Chúng ta không cố tình làm hại chúng.
  • 3:30 - 3:33
    Thực tế đôi khi chúng ta cố gắng
    không làm hại chúng.
  • 3:33 - 3:35
    Chúng ta bước qua chúng trên vỉa hè.
  • 3:35 - 3:37
    Nhưng mỗi khi sự xuất hiện của chúng
  • 3:37 - 3:40
    xung đột cực kì với một
    trong các mục đích của chúng ta,
  • 3:40 - 3:42
    Ví dụ như khi xây dựng
    một tòa nhà như thế này,
  • 3:42 - 3:44
    chúng ta tiêu diệt chúng không lo lắng.
  • 3:44 - 3:47
    Có nghĩa là một ngày nào đó
    khi chúng ta tạo ra các cỗ máy
  • 3:47 - 3:50
    cho dù chúng có ý thức hay không,
  • 3:50 - 3:54
    cũng sẽ đối xử với chúng ta
    theo sự bất chấp tương tự như thế.
  • 3:54 - 3:57
    Bây giờ, tôi nghi ngờ rằng điều này có vẻ
    quá xa với nhiều người
  • 3:57 - 4:04
    Tôi cá là có một số người đang nghi ngờ
    rằng AI siêu thông minh có thể xảy ra,
  • 4:04 - 4:05
    ít nhiều không thể tránh khỏi.
  • 4:05 - 4:09
    Nhưng sau đó bạn phải tìm ra điều sai
    với một trong các giả định sau.
  • 4:09 - 4:12
    Và chỉ có 3 giả định.
  • 4:12 - 4:17
    Trí thông minh là một vấn đề của quá trình
    xử lí thông tin trong các hệ thống vật lí.
  • 4:17 - 4:20
    Thực ra, điều này hơn một chút
    so với giả định.
  • 4:20 - 4:23
    Chúng ta đã tạo ra trí thông minh hạn hẹp
    trong các cỗ máy của mình rồi,
  • 4:23 - 4:25
    Và rất nhiều máy móc cũng đã hoạt động
  • 4:25 - 4:29
    ở mức độ của trí thông minh siêu việt rồi.
  • 4:29 - 4:31
    Và chúng ta biết rằng chỉ có vật chất
  • 4:31 - 4:34
    mới có thể tạo cơ hội cho
    "trí thông minh không giới hạn,"
  • 4:34 - 4:38
    một khả năng suy nghĩ linh hoạt
    trên nhiều lĩnh vực,
  • 4:38 - 4:41
    bởi vì bộ não chúng ta quản lí nó.
    Đúng chứ?
  • 4:41 - 4:45
    Ý tôi là, chỉ có các hạt nhân trong đây,
  • 4:45 - 4:49
    và miễn là chúng ta tiếp tục xây dựng
    hệ thống các nguyên tử
  • 4:49 - 4:52
    để biểu lộ những hành động
    thông minh nhiều hơn nữa,
  • 4:52 - 4:55
    cuối cùng chúng ta sẽ,
    trừ khi chúng ta bị gián đoạn,
  • 4:55 - 4:58
    cuối cùng chúng ta sẽ xây dựng được
    trí tuệ không giới hạn
  • 4:58 - 4:59
    cho máy móc của mình.
  • 4:59 - 5:03
    Cần phải nhận ra rằng
    tiến độ không quan trọng.
  • 5:03 - 5:06
    bởi vì bất kì quá trình nào cũng đủ
    để đưa chúng ta vào khu vực kết thúc.
  • 5:06 - 5:10
    Ta không cần định luật Moore để tiếp tục.
    Ta không cần phát triển theo cấp số nhân.
  • 5:10 - 5:13
    Chúng ta chỉ cần tiếp tục bước đi.
  • 5:13 - 5:17
    Giả định thứ hai là
    chúng ta sẽ tiếp tục đi.
  • 5:17 - 5:21
    Chúng ta tiếp tục cải tiến
    những cỗ máy thông minh của mình.
  • 5:21 - 5:25
    Và dựa vào giá trị của trí thông minh --
  • 5:25 - 5:29
    Ý tôi là, trí thông minh hoặc là nguồn gốc
    của tất cả mọi thứ chúng ta đánh giá
  • 5:29 - 5:32
    hoặc chúng ta cần nó để bảo vệ
    tất cả mọi thứ chúng ta coi trọng.
  • 5:32 - 5:34
    Nó là tài nguyên quý giá nhất
    của chúng ta.
  • 5:34 - 5:36
    Vì thế chúng ta muốn làm điều này.
  • 5:36 - 5:39
    Chúng ta có những vần đề nhất định
    phải liều mạng giải quyết.
  • 5:39 - 5:43
    Chúng ta muốn chữa khỏi các căn bệnh
    như Alzheimer hay ung thư.
  • 5:43 - 5:47
    Chúng ta muốn nắm vững hệ thống kinh tế.
    Chúng ta muốn cải thiện khoa học khí hậu.
  • 5:47 - 5:49
    Cho nên chúng ta sẽ làm nó nếu có thể.
  • 5:49 - 5:54
    Tàu đã rời khỏi trạm,
    và không thể kéo phanh nữa.
  • 5:54 - 5:59
    Và điều cuối: chúng ta không đứng trên
    đỉnh cao của trí thông minh,
  • 5:59 - 6:01
    hay có thể là chỗ nào đó gần nó.
  • 6:01 - 6:04
    Và điều này thực sự là
    cái nhìn sâu sắc quan trọng.
  • 6:04 - 6:06
    Đây là thứ làm tình trạng của
    chúng ta bất ổn,
  • 6:06 - 6:10
    và nó cũng làm trực giác của chúng ta
    về rủi ro trở nên không đáng tin.
  • 6:11 - 6:15
    Bây giờ hãy xem xét một người
    thông minh nhất trên đời.
  • 6:15 - 6:18
    Hầu như trong danh sách của các bạn
    đều sẽ có tên John von Neumann.
  • 6:18 - 6:21
    Ý tôi là, ấn tượng mà von Neumann tạo ra
    đối với mọi người xung quanh,
  • 6:21 - 6:25
    và nó cũng bao gồm những nhà toán học
    và vật lí vĩ đại ở thời của ông ta,
  • 6:26 - 6:27
    được lưu truyền khá tốt.
  • 6:27 - 6:31
    Nếu một nửa câu chuyện về ông
    chỉ đúng 50%,
  • 6:31 - 6:32
    không cần bàn cãi
  • 6:33 - 6:35
    ông là người thông minh nhất
    từng sống trên đời.
  • 6:35 - 6:38
    Vậy hãy xét về chuỗi phân bố
    của trí thông minh.
  • 6:38 - 6:40
    Ở đây là John von Neumann.
  • 6:42 - 6:43
    Tiếp theo là các bạn và tôi.
  • 6:44 - 6:45
    Và tiếp là con gà.
  • 6:45 - 6:47
    (Cười)
  • 6:47 - 6:49
    Xin lỗi, một con gà.
  • 6:49 - 6:50
    (Cười)
  • 6:50 - 6:54
    Không lí do gì tôi phải làm buổi
    nói chuyện này tệ hại hơn cần thiết.
  • 6:54 - 6:55
    (Cười)
  • 6:56 - 7:00
    Tuy nhiên, có vẻ có khả năng rất lớn là
    chuỗi phân bố trí thông minh
  • 7:00 - 7:04
    mở rộng ra xa hơn nhiều so với
    những gì chúng ta tưởng tượng,
  • 7:04 - 7:07
    và nếu chúng ta tạo ra
    những cỗ máy thông minh hơn mình,
  • 7:07 - 7:09
    chúng có thể sẽ khai phá dải phân bố này
  • 7:09 - 7:11
    theo cách ta không thể tưởng tượng,
  • 7:11 - 7:15
    và vượt xa chúng ta theo cách
    ta không thể tưởng tượng.
  • 7:15 - 7:19
    Và quan trọng là nhận ra rằng điều này
    đúng với tính hấp dẫn của sự mau lẹ.
  • 7:19 - 7:24
    Đúng chứ? Hãy cứ tưởng tượng nếu ta
    tạo ra một AI siêu thông minh
  • 7:24 - 7:28
    mà không tài giỏi hơn
    nhóm các nhà nghiên cứu trung bình
  • 7:28 - 7:30
    ở Stanford hay MIT.
  • 7:30 - 7:33
    Vâng, các mạch điện tử hoạt động
    nhanh hơn khoảng một triệu lần
  • 7:33 - 7:34
    so với các mạch sinh hóa,
  • 7:35 - 7:38
    nên cỗ máy này có thể suy nghĩ
    nhanh hơn khoảng một triệu lần
  • 7:38 - 7:39
    so với trí não đã tạo ra nó.
  • 7:40 - 7:41
    Rồi bạn cài đặt nó chạy một tuần,
  • 7:41 - 7:46
    và nó sẽ thực hiện 20.000 năm làm việc
    ở trình độ trí tuệ của con người,
  • 7:46 - 7:50
    tuần này qua tuần khác.
  • 7:50 - 7:53
    Thậm chí làm sao ta hiểu được,
    dù ít nhiều hạn chế,
  • 7:53 - 7:57
    một bộ óc thực hiện
    kiểu quá trình như vậy?
  • 7:57 - 7:59
    Một điều khác thật sự đáng lo lắng,
  • 7:59 - 8:04
    đó là, tưởng tượng ra
    một viễn cảnh tốt nhất.
  • 8:04 - 8:08
    Nào hãy tưởng tượng chúng ta tìm ra
    một thiết kế cho AI siêu thông minh
  • 8:08 - 8:10
    mà không có các vấn đề an toàn.
  • 8:10 - 8:13
    Lần đầu tiên chúng ta có được
    một bản thiết kế hoàn hảo.
  • 8:13 - 8:15
    Nó như thể chúng ta nhận được
    một lời tiên tri
  • 8:15 - 8:17
    xảy ra chính xác như trong dự định.
  • 8:17 - 8:21
    Vâng, cỗ máy này sẽ là một thiết bị
    tuyệt vời giúp tiết kiệm nhân lực.
  • 8:21 - 8:24
    Nó có thể thiết kế một cỗ máy
    có khả năng tạo ra cỗ máy khác
  • 8:24 - 8:26
    thực hiện các công việc thể chất,
  • 8:26 - 8:27
    chạy bằng ánh sáng mặt trời,
  • 8:27 - 8:30
    nhiều hơn hoặc ít hơn cho
    các chi phí nguyên liệu.
  • 8:30 - 8:33
    Vậy chúng ta đang nói tới sự kết thúc
    cho nỗi cực nhọc của con người.
  • 8:33 - 8:36
    Chúng ta cũng nói về sự chấm dứt
    cho các công việc trí óc.
  • 8:36 - 8:40
    Vậy loài khỉ giống chúng ta sẽ làm gì
    trong tình huống này?
  • 8:40 - 8:46
    Vâng, chúng ta được tự do chơi Frisbee
    và nhắn tin với từng người.
  • 8:46 - 8:49
    Thêm vài LSD và vài lựa chọn cho
    bộ quần áo đáng ngờ,
  • 8:49 - 8:51
    và cả thế giới sẽ như ở Burning Man.
  • 8:51 - 8:53
    (Cười)
  • 8:54 - 8:57
    Bây giờ, điều đó có lẽ nghe rất tốt,
  • 8:57 - 9:00
    nhưng thử hỏi bản thân xem
    điều gì sẽ xảy ra
  • 9:00 - 9:02
    dưới trật tự kinh tế và chính trị
    của chúng ta bây giờ?
  • 9:02 - 9:05
    Có vẻ là chúng ta sẽ chứng kiến
  • 9:05 - 9:09
    một mức độ phân biệt giàu nghèo
    và nạn thất nghiệp
  • 9:09 - 9:11
    chưa từng thấy trước đây.
  • 9:11 - 9:14
    Sự thiếu tự nguyện trong việc lập tức
    đưa sự giàu có mới này
  • 9:14 - 9:16
    vào phục vụ cho toàn nhân loại,
  • 9:16 - 9:19
    một vài "tỷ tỷ phú" đươc vinh danh
    trên trang bìa của các tờ tạp chí kinh tế
  • 9:19 - 9:22
    trong khi phần còn lại của thế giới
    thì chịu cảnh chết đói
  • 9:22 - 9:24
    Người Nga và Trung Quốc sẽ làm gì
  • 9:24 - 9:27
    khi họ nghe được tin một số công ty
    trong Thung lũng Silicon
  • 9:27 - 9:30
    chuẩn bị triển khai
    một AI siêu thông minh?
  • 9:30 - 9:33
    Cỗ máy này có khả năng sẽ
    tiến hành chiến tranh
  • 9:33 - 9:35
    dù cho trên mặt đất hay trên mạng,
  • 9:35 - 9:38
    với sức mạnh chưa từng có.
  • 9:38 - 9:40
    Đây là viễn cảnh "thắng làm vua".
  • 9:40 - 9:43
    Dẫn trước sáu tháng trong cuộc đua này
  • 9:43 - 9:46
    tương đương với
    bị dẫn trước 500.000 năm,
  • 9:46 - 9:47
    ít nhất là vậy.
  • 9:47 - 9:52
    Vì vậy, thậm chí nó có vẻ chỉ là
    những tin đồn cho kiểu đột phá như thế
  • 9:52 - 9:55
    nhưng cũng đủ khiến loài người cáu tiết.
  • 9:55 - 9:58
    Và giờ, một trong những điều đáng sợ nhất,
  • 9:58 - 10:00
    theo tôi nghĩ ngay tại thời điểm này,
  • 10:00 - 10:05
    chính là những thứ mà
    các nhà nghiên cứu về AI nói
  • 10:05 - 10:07
    khi họ muốn được yên tâm.
  • 10:07 - 10:10
    Và thời gian là lí do thường nhất cho việc
    chúng ta không cần phải lo lắng.
  • 10:10 - 10:13
    Các bạn biết không,
    đây là một con đường dài.
  • 10:13 - 10:16
    Có thể là 50 hay 100 năm nữa.
  • 10:16 - 10:17
    Một nhà nghiên cứu đã nói,
  • 10:17 - 10:19
    "lo lắng về độ an toàn của AI
  • 10:19 - 10:22
    cũng như lo lắng về
    bùng nổ dân số trên sao Hỏa."
  • 10:22 - 10:24
    Đây là phiên bản của Thung lũng Silicon
  • 10:24 - 10:26
    về việc "đừng làm cái đầu nhỏ
    của bạn lo lắng về nó."
  • 10:26 - 10:27
    (Cười)
  • 10:28 - 10:29
    Có vẻ chả ai chú ý
  • 10:29 - 10:32
    rằng xem xét trên phạm vi thời gian
  • 10:32 - 10:35
    là hoàn toàn vô căn cứ.
  • 10:35 - 10:38
    Nếu trí thông minh chỉ là một vấn đề
    về xử lí thông tin,
  • 10:38 - 10:41
    và chúng ta tiếp tục cải tiến các cỗ máy,
  • 10:41 - 10:44
    chúng ta sẽ tạo ra được
    vài dạng của siêu trí tuệ.
  • 10:44 - 10:48
    Và chúng ta không biết
    sẽ tốn bao nhiêu thời gian
  • 10:48 - 10:52
    để tạo ra những điều kiện
    thực hiện việc này một cách an toàn.
  • 10:52 - 10:53
    Tôi xin nhắc lại.
  • 10:54 - 10:57
    Chúng ta không biết
    sẽ tốn bao nhiêu thời gian
  • 10:57 - 11:01
    để tạo ra những điều kiện
    thực hiện việc này một cách an toàn.
  • 11:01 - 11:04
    Và nếu bạn chưa nhận ra,
    50 năm không còn như xưa
  • 11:04 - 11:07
    Đây là 50 năm tính theo nhiều tháng.
  • 11:07 - 11:09
    Đây là thời gian chúng ta tạo ra iPhone.
  • 11:09 - 11:12
    Đây là thời gian "Gia đình Simpson"
    được chiếu trên TV.
  • 11:13 - 11:15
    50 năm không quá nhiều
  • 11:15 - 11:20
    để thực hiện một trong số những thử thách
    lớn nhất mà loài người từng đối mặt.
  • 11:20 - 11:24
    Một lần nữa, chúng ta có vẻ không thế
    đưa ra một phản ứng cảm xúc phù hợp
  • 11:24 - 11:26
    cho thứ mà chúng ta có đủ lí do
    để tin rằng nó sẽ xảy ra.
  • 11:26 - 11:30
    Nhà khoa học máy tính Stuart Russell
    có một phép loại suy rất hay ở đây.
  • 11:30 - 11:35
    Ông nói, tưởng tượng chúng ta nhận được
    tin nhắn từ nền văn minh ngoài hành tinh,
  • 11:35 - 11:37
    ghi rằng:
  • 11:37 - 11:39
    "Loài người trên Trái Đất,
  • 11:39 - 11:42
    Chúng ta sẽ đáp xuống
    hành tinh các người trong 50 năm nữa.
  • 11:42 - 11:43
    Chuẩn bị đi."
  • 11:43 - 11:48
    Và giờ chúng ta chỉ đếm ngược từng tháng
    đến khi phi thuyền mẹ đáp xuống?
  • 11:48 - 11:52
    Chúng ta sẽ cảm thấy nhiều cấp bách hơn.
  • 11:52 - 11:54
    Một lí do khác bảo
    chúng ta không nên lo lắng
  • 11:54 - 11:58
    là các cỗ máy này không làm gì khác
    ngoài chia sẻ giá trị với chúng ta
  • 11:58 - 12:00
    bởi vì chúng thật sự sẽ là
    những phần mở rộng của chúng ta.
  • 12:00 - 12:02
    Chúng sẽ được cấy vào não chúng ta,
  • 12:02 - 12:05
    và chúng ta về cơ bản trở thành
    hệ thống cảm xúc của chúng.
  • 12:05 - 12:07
    Giờ hãy xem xét
  • 12:07 - 12:10
    rằng con đường an toàn và
    đầy thận trọng duy nhất phía trước,
  • 12:10 - 12:11
    được đề xuất,
  • 12:11 - 12:14
    chính là cấy trực tiếp công nghệ này
    vào não chúng ta.
  • 12:15 - 12:18
    Hiện giờ nó có lẽ thật sự là con đường
    an toàn, thận trọng duy nhất,
  • 12:18 - 12:21
    nhưng thường thì mối lo lắng an toàn
    của một người về công nghệ
  • 12:21 - 12:25
    phải được tính toán khá kĩ càng
    trước khi bạn đính nó vào đầu mình.
  • 12:25 - 12:27
    (Cười)
  • 12:27 - 12:32
    Vấn đề sâu hơn là xây dựng
    một AI siêu thông minh riêng lẻ
  • 12:32 - 12:34
    có vẻ dễ dàng hơn
  • 12:34 - 12:36
    là tạo ra một AI siêu thông minh
  • 12:36 - 12:38
    và có được ngành
    khoa học thần kinh hoàn chỉnh
  • 12:38 - 12:41
    mà cho phép chúng ta chúng ta
    tích hợp trí óc của mình và nó.
  • 12:41 - 12:44
    Và giả sử các công ty và
    các chính phủ làm việc này
  • 12:44 - 12:48
    có thể sẽ nhận ra bản thân đang trong
    cuộc đua chống lại loài người,
  • 12:48 - 12:51
    giả sử rằng thắng cuộc đua này
    là có cả thế giới,
  • 12:51 - 12:53
    miễn là bạn không hủy diệt nó
    vào thời điểm kế tiếp,
  • 12:53 - 12:56
    thì nó có vẻ như là bất kể cái gì dễ hơn
  • 12:56 - 12:58
    sẽ được hoàn thành trước.
  • 12:59 - 13:01
    Bây giờ, đáng tiếc là tôi không có
    giải pháp cho vấn đề này,
  • 13:01 - 13:04
    ngoại trừ đề nghị chúng ta
    cần nghĩ về nó nhiều hơn.
  • 13:04 - 13:06
    Tôi nghĩ chúng ta cần thứ gì đó
    như Manhattan Project
  • 13:06 - 13:08
    trong chủ đề về trí thông minh nhân tạo.
  • 13:08 - 13:12
    Không vì để tạo ra nó, bởi tôi nghĩ
    chúng ta chắc chắn sẽ làm được,
  • 13:12 - 13:15
    mà để hiểu cách ngăn ngừa
    cuộc chạy đua vũ trang
  • 13:15 - 13:18
    và xây dựng nó theo cách phù hợp
    với lợi ích của chúng ta.
  • 13:18 - 13:20
    Khi chúng ta nói về AI siêu thông minh
  • 13:20 - 13:23
    có thể tự thay đổi,
  • 13:23 - 13:27
    có vẻ như chúng ta chỉ có một cơ hội
    để làm những điều kiện ban đầu đúng đắn,
  • 13:27 - 13:30
    và thậm chí sau đó chúng ta
    sẽ cần phải ta hứng chịu
  • 13:30 - 13:34
    những hậu quả kinh tế chính trị
    khi làm nó đúng đắn.
  • 13:34 - 13:36
    Nhưng khoảnh khác ta thừa nhận
  • 13:36 - 13:41
    rằng xử lí thông tin là
    nguồn gốc của trí thông minh,
  • 13:41 - 13:46
    rằng một số hệ thống tính toán phù hợp
    là nền tảng cho trí thông minh
  • 13:46 - 13:51
    và chúng ta thừa nhận rằng chúng ta
    tiếp tục cải tiến những hệ thống này,
  • 13:51 - 13:56
    và chúng ta thừa nhận rằng
    chân trời của nhận thức có thể rất xa
  • 13:56 - 13:58
    so với những gì chúng ta đang biết,
  • 13:58 - 13:59
    thì chúng ta phải công nhận
  • 13:59 - 14:03
    rằng chúng ta đang trong quá trình
    tạo ra một loại thánh thần.
  • 14:03 - 14:05
    Bây giờ sẽ là thời điểm tốt
  • 14:05 - 14:08
    để chắc chắn rằng nó là thánh thần
    mà chúng ta có thể sống chung
  • 14:08 - 14:10
    Cảm ơn các bạn rất nhiều.
  • 14:10 - 14:15
    (Vỗ tay)
Title:
Ta có thể xây dựng trí thông minh nhân tạo mà không làm mất kiểm soát chúng?
Speaker:
Sam Harris
Description:

Lo sợ trước AI siêu thông minh? Theo nhà khoa học thần kinh và triết gia Sam Harris thì bạn nên làm thế - và không chỉ ở một số cách lí thuyết. Chúng ta sẽ xây dựng các máy siêu nhân, Harris nói, nhưng chúng ta chưa vật lộn với những vấn đề liên quan đến việc tạo ra một cái gì đó mà có thể đối xử với chúng ta theo cách chúng ta đối xử với con kiến.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Vietnamese subtitles

Revisions