Return to Video

Trí tuệ nhân tạo khiến đạo đức con người trở nên quan trọng hơn.

  • 0:00 - 0:04
    Vì thế, tôi đã có công việc đầu tiên của mình
    là một lập trình viên máy tính
  • 0:04 - 0:07
    ngay trong những năm học đại học đầu tiên
  • 0:07 - 0:08
    về cơ bản, khi vẫn là một thiếu niên
  • 0:08 - 0:11
    Không lâu sau khi tôi bắt đầu công việc,
  • 0:11 - 0:13
    trong lúc đang viết phần mềm cho công ty,
  • 0:13 - 0:16
    thì người quản lý ở đó tiến đến chỗ tôi
  • 0:16 - 0:18
    và thì thầm vào tai tôi
  • 0:18 - 0:21
    "Hắn có phát hiện nếu tôi nói dối không?"
  • 0:22 - 0:24
    Không có một ai khác trong phòng cả.
  • 0:25 - 0:30
    "Ai có thể nhận ra anh đang nói dối?"
    "Và tại sao ta phải nói thầm?"
  • 0:30 - 0:34
    Ông quản lý chỉ tay vào chiếc máy tính
    trong phòng.
  • 0:34 - 0:36
    "Hắn có phát hiện nếu tôi nói dối không?"
  • 0:38 - 0:42
    Vâng, ông quản lý này đang ngoại tình
    với cô tiếp tân.
  • 0:42 - 0:43
    ( Cười)
  • 0:43 - 0:45
    Và tôi vẫn chỉ là một đứa oắt con.
  • 0:45 - 0:47
    nên tôi nói thầm lại với anh ta,
  • 0:47 - 0:51
    " Có chứ, nó biết khi nào
    ông nói dối đấy."
  • 0:51 - 0:53
    (Cười)
  • 0:53 - 0:56
    Vâng, tôi cười nhưng thực ra
    là cười bản thân.
  • 0:56 - 0:59
    Ngày nay, có những hệ thống máy tính
  • 0:59 - 1:03
    có thể nhận diện trạng thái cảm xúc,
    ngay cả việc nói dối
  • 1:03 - 1:05
    thông qua phân tích nhân diện.
  • 1:05 - 1:09
    Các nhà quảng cáo và thậm chí cả
    chính quyền rất hứng thú với điều này.
  • 1:10 - 1:12
    Tôi đã trở thành 1 lập trình viên
  • 1:12 - 1:15
    vì tôi từng là đứa trẻ say mê Toán và
    Khoa học.
  • 1:16 - 1:19
    Nhưng khoảng thời gian đó, tôi cũng học
    về vũ khí hạt nhân.
  • 1:19 - 1:22
    và tôi trở nên rất quan ngại về vấn đề
    đạo đức của khoa học.
  • 1:22 - 1:23
    Tôi đã rất bối rối.
  • 1:23 - 1:26
    Tuy nhiên, do hoàn cảnh gia đình,
  • 1:26 - 1:29
    tôi cần phải bắt đầu làm việc
    càng sớm càng tốt.
  • 1:29 - 1:33
    Vì vậy nên tôi nói với bản thân,
    này, hãy chọn một ngành kỹ thuật
  • 1:33 - 1:34
    giúp tôi có thể dễ dàng kiếm việc
  • 1:34 - 1:38
    mà lại không phải quan tâm đến những
    câu hỏi đạo đức phiền phức.
  • 1:39 - 1:41
    Vì vậy nên tôi chọn máy tính.
  • 1:41 - 1:42
    (Cười lớn)
  • 1:42 - 1:45
    Vậy đấy! haha
    Tôi cười vì chính mình!
  • 1:45 - 1:48
    Ngày nay, các nhà khoa học máy tính
    xây dựng hệ điều hành
  • 1:48 - 1:52
    có thể điều khiển thứ mà một tỉ người
    xem hằng ngày.
  • 1:53 - 1:57
    Họ đang phát triển những chiếc xe có thể
    tự quyết định nó sẽ cán qua ai.
  • 1:58 - 2:01
    Họ thậm chí còn đang tạo ra nhiều
    máy móc, vũ khí,
  • 2:01 - 2:03
    có thể tiêu diệt loài người
    trong chiến tranh.
  • 2:03 - 2:06
    Chung quy lại đều liên quan tới đạo đức
  • 2:07 - 2:09
    Trí tuệ nhân tạo là đây.
  • 2:10 - 2:13
    Ta không chỉ sử dụng những thuật toán để
    đưa ra mọi quyết định
  • 2:13 - 2:15
    mà còn cả những chuyện chưa từng xảy ra
  • 2:15 - 2:20
    Ta đưa cho máy móc những câu hỏi không có
    một đáp án đúng nào cả,
  • 2:20 - 2:22
    những câu hỏi chủ quan
  • 2:22 - 2:24
    những câu hỏi mở và mang tính giả định.
  • 2:24 - 2:26
    Chúng ta hỏi những câu hỏi như,
  • 2:26 - 2:27
    "Công ty nên thuê ai?"
  • 2:28 - 2:31
    "Những gì bạn nên được biết từ bạn bè?"
  • 2:31 - 2:33
    "Phạm nhân nào có khả năng tái phạm cao?"
  • 2:34 - 2:37
    "Dòng tin hay bộ phim nào nên được
    đề xuất cho mọi người?"
  • 2:37 - 2:40
    Nhìn xem, đúng, chúng ta đã sử dụng
    máy tính một thời gian dài,
  • 2:40 - 2:42
    nhưng lần này thì khác.
  • 2:42 - 2:44
    Đây là một bước ngoặt lịch sử,
  • 2:44 - 2:49
    vì ta không thể trông cậy vào sự tính
    toán cho các quyết định chủ quan thế này
  • 2:49 - 2:54
    như cái cách chúng ta dựa vào nó
    để lái máy bay, xây cầu,
  • 2:54 - 2:56
    để đi lên mặt trăng.
  • 2:56 - 3:00
    Máy bay liệu có an toàn hơn?
    Cây cầu có lắc lư và sập không?
  • 3:00 - 3:04
    Thế đấy, chúng ta đều có một chuẩn mực
    thống nhất và khá rõ ràng,
  • 3:04 - 3:06
    và ta có những quy luật của tự nhiên
    hướng dẫn.
  • 3:07 - 3:10
    Chúng ta không hề có những điểm tựa hay
    tiêu chuẩn như vậy
  • 3:10 - 3:14
    cho các quyết định về những vấn đề
    phức tạp của con người.
  • 3:14 - 3:18
    Để làm vấn đề phức tạp hơn, phần mềm
    của ta ngày càng trở nên hùng mạnh,
  • 3:18 - 3:22
    nhưng nó đồng thời trở nên khó hiểu
    và phức tạp hơn.
  • 3:23 - 3:25
    Gần đây, trong thập kỷ gần đây,
  • 3:25 - 3:27
    các thuật toán phức tạp đã đạt được
    những bước tiến lớn.
  • 3:27 - 3:29
    Chúng có thể nhận diện khuôn mặt người.
  • 3:30 - 3:32
    Chúng có thể giải mã được chữ viết tay.
  • 3:32 - 3:35
    Chúng có thể nhận biết thẻ tín dụng giả
  • 3:35 - 3:36
    và chặn tin rác
  • 3:36 - 3:38
    và chúng có thể phiên dịch ngôn ngữ.
  • 3:38 - 3:40
    Chúng có thể phát hiện khối u trong
    phim chụp y khoa.
  • 3:40 - 3:43
    Chúng đánh bại con người
    trong cờ vua và Go.
  • 3:43 - 3:48
    Đa phần những tiến bộ này đến từ
    phương pháp "máy tính tự học"
  • 3:48 - 3:51
    Máy tính tự học khác với lập trình
    truyền thống,
  • 3:51 - 3:55
    ở chỗ bạn đưa ra những hướng dẫn
    cụ thể, chính xác, kỹ lưỡng cho máy tính.
  • 3:55 - 4:00
    Đúng hơn là bạn cho một đống dữ liệu
    vào hệ thống,
  • 4:00 - 4:01
    bao gồm dữ liệu chưa được
    sắp xếp,
  • 4:01 - 4:04
    như loại chúng ta tạo ra trong thế giới số
  • 4:04 - 4:06
    Và hệ thống học bằng cách lướt qua
    các dữ liệu này.
  • 4:07 - 4:08
    Và quan trọng hơn,
  • 4:08 - 4:13
    những hệ thống này không hoạt động dựa
    trên logic một-câu-trả-lời-duy-nhất.
  • 4:13 - 4:16
    Chúng không cho ra câu trả lời đơn giản mà
    có tính xác suất hơn
  • 4:16 - 4:19
    "Cái này có nhiều khả năng là cái bạn
    đang muốn tìm."
  • 4:20 - 4:23
    Lợi thế ở đây là: biện pháp này
    rất hiệu quả.
  • 4:23 - 4:25
    Trưởng hệ thống Al của Google gọi nó là,
  • 4:25 - 4:27
    "sự hiệu quả bất hợp lý của dữ liệu."
  • 4:28 - 4:29
    Bất lợi ở đây là,
  • 4:30 - 4:33
    ta không thật sự hiểu cái mà hệ thống
    học được.
  • 4:33 - 4:34
    Thực tế, đó là sức mạnh của nó.
  • 4:35 - 4:39
    Cái này khác với việc đưa ra hướng dẫn
    cho máy tính;
  • 4:39 - 4:43
    Nó giống hơn với việc huấn luyện một loại
    chó cưng bằng máy
  • 4:43 - 4:46
    mà chúng ta không thật sự hiểu
    hay kiểm soát.
  • 4:46 - 4:48
    Vậy nên đó là vấn đề của ta.
  • 4:48 - 4:53
    Nó là vấn đề khi mà hệ thống
    trí tuệ nhân tạo hiểu sai sự việc.
  • 4:53 - 4:56
    Nó cũng là vấn đề khi nó hiểu đúng
    sự việc,
  • 4:56 - 5:00
    bởi vì chúng ta không thể phân biệt được
    khi nó là một vấn đề chủ quan.
  • 5:00 - 5:02
    Chúng ta không biết được vật này
    đang nghĩ gì.
  • 5:03 - 5:07
    Thử xem xét một thuật toán thuê --
  • 5:08 - 5:12
    một hệ thống dùng để thuê nhân viên,
    dựa vào hệ thống máy móc tự học.
  • 5:13 - 5:17
    Một hệ thống như vậy sẽ được đào tạo
    dựa trên dự liệu của nhân viên cũ
  • 5:17 - 5:19
    và được hướng dẫn để tìm và thuê
  • 5:19 - 5:22
    những người tương tự với nhân viên
    xuất sắc hiện có ở công ty.
  • 5:23 - 5:24
    Nghe có vẻ tốt đấy.
  • 5:24 - 5:26
    Tôi từng tham dự một hội nghị
  • 5:26 - 5:29
    bao gồm quản lý nhân sự và các lãnh đạo,
  • 5:29 - 5:30
    những nhân vật cấp cao,
  • 5:30 - 5:32
    dùng hệ thống như vậy khi thuê
  • 5:32 - 5:34
    Họ cực kỳ phấn khích về việc đó.
  • 5:34 - 5:38
    Họ nghĩ rằng hệ thống này sẽ giúp việc
    thuê người khách quan và ít thiên vị hơn,
  • 5:38 - 5:41
    và cho phụ nữ và người thiểu số
    một cơ hội tốt hơn
  • 5:41 - 5:44
    chống lại những người quản lý thiên vị.
  • 5:44 - 5:46
    Đúng là người thuê người thường
    có sự thiên vị.
  • 5:47 - 5:48
    Tôi biết vậy.
  • 5:48 - 5:51
    Trong những việc đầu tiên của tôi với
    vai trò lập trình viên,
  • 5:51 - 5:55
    quản lý trực tiếp của tôi thỉnh thoảng
    sẽ đến chỗ tôi
  • 5:55 - 5:59
    rất sớm vào buổi sáng hoặc rất muộn
    vào buổi chiều,
  • 5:59 - 6:02
    để nói, "Zeynep, cùng đi ăn trưa nào!"
  • 6:03 - 6:05
    Tôi bị bối rối bởi giờ giấc
    thất thường.
  • 6:05 - 6:07
    Bây giờ là 4g chiều mà ăn trưa ư?
  • 6:07 - 6:10
    Tôi thì thiếu tiền, mà bữa trưa miễn phí.
    Cho nên tôi luôn đi
  • 6:11 - 6:13
    Sau đó tôi nhận ra chuyện gì
    đang diễn ra.
  • 6:13 - 6:17
    Những quản lý trực tiếp của tôi chưa hề
    thông báo với cấp trên
  • 6:17 - 6:20
    rằng lập trình viên họ thuê cho việc
    quan trọng là một thiếu nữ
  • 6:20 - 6:24
    mặc quần jeans và đi giày thể thao đi làm.
  • 6:25 - 6:27
    Tôi làm tốt việc, chỉ ăn mặc không đúng
  • 6:27 - 6:29
    và sai độ tuổi và giới tính.
  • 6:29 - 6:32
    Cho nên việc tuyển chọn không dựa theo
    giới tính và sắc tộc
  • 6:32 - 6:34
    rõ ràng tốt cho tôi.
  • 6:35 - 6:38
    Nhưng với những hệ thống này, nó
    phức tạp hơn, và đây là lý do:
  • 6:39 - 6:45
    Bây giờ, hệ thống tính toán có thể đưa ra
    đủ mọi loại kết luận vể bạn
  • 6:45 - 6:47
    dựa trên những vết tích số của bạn,
  • 6:47 - 6:49
    ngay cả khi bạn không hề tiết lộ
    những việc đó.
  • 6:50 - 6:52
    Chúng có thể đưa ra kết luận về xu hướng
    tình dục của bạn,
  • 6:53 - 6:54
    tính cách bạn,
  • 6:55 - 6:56
    quan điểm chính trị của bạn.
  • 6:57 - 7:01
    Chúng có sức mạnh dự đoán với
    sự chuẩn xác cao.
  • 7:01 - 7:04
    Nhớ rằng - ngay cả những việc bạn
    không hề tiết lộ.
  • 7:04 - 7:06
    Đây chỉ mới là việc suy luận
  • 7:06 - 7:09
    Tôi có một người bạn thiết kế những
    hệ thống tính toán như vậy
  • 7:09 - 7:13
    để dự đoán khả năng mắc bệnh trầm cảm
    lâm sàng hoặc hậu thai sản
  • 7:13 - 7:14
    từ những dự liệu truyền thông xã hội.
  • 7:15 - 7:16
    Kết quả thật đáng ấn tượng.
  • 7:16 - 7:20
    Hệ thống của cô ấy có thể dự đoán được
    khả năng mắc trầm cảm
  • 7:20 - 7:24
    hàng tháng trước khi các triệu chứng
    xuất hiện --
  • 7:24 - 7:25
    hàng tháng trước.
  • 7:25 - 7:27
    Không hề có triệu chứng, nhưng
    lại có dự đoán.
  • 7:27 - 7:32
    Cô mong rằng nó được sử dụng cho việc
    can thiệp sớm. Tuyệt vời!
  • 7:33 - 7:35
    Nhưng giờ đặt nó vào viễn cảnh
    tuyển chọn.
  • 7:36 - 7:39
    Ở buổi họp quản lý nhân sự này,
  • 7:39 - 7:44
    tôi tiếp cận một quản lý cấp cao của
    một công ty lớn,
  • 7:44 - 7:48
    và nói rằng, "Này, nếu như, ngoài sự
    hiểu biết của bạn,
  • 7:48 - 7:55
    hệ thống của bạn đang gạt bỏ người có thể
    bị trầm cảm cao trong tương lai?
  • 7:56 - 7:59
    Hiện tại họ không hề bị trầm cảm, chỉ là
    trong tương lai có khả năng.
  • 8:00 - 8:03
    Nếu như hệ thống loại bỏ những phụ nữ
    có khả năng mang thai
  • 8:03 - 8:06
    trong một vài năm tới nhưng hiện
    không mang thai?
  • 8:07 - 8:12
    Nếu nó chọn những người có tính hung hăng
    vì đó là bản chất làm việc ở đây?"
  • 8:13 - 8:16
    Bạn không thể thấy điều này qua việc
    xem tỉ lệ giới tính
  • 8:16 - 8:17
    Điều đó có thể được
    cân bằng.
  • 8:17 - 8:21
    Và vì đây là máy móc tự học, chứ
    không phải mã hóa truyền thống,
  • 8:21 - 8:26
    không hề có một biến số nào có tên
    "có khả năng trầm cảm cao",
  • 8:26 - 8:28
    "có khả năng mang thai cao",
  • 8:28 - 8:30
    "tính cách hung hăng".
  • 8:30 - 8:34
    Bạn không chỉ không biết hệ thống của bạn
    lựa chọn dựa trên tiêu chí gì,
  • 8:34 - 8:36
    bạn còn không biết phải bắt đầu
    tìm từ đâu.
  • 8:36 - 8:37
    Nó là một hộp đen.
  • 8:37 - 8:40
    Nó có khả năng tiên đoán, nhưng bạn
    không hiểu nó.
  • 8:40 - 8:43
    Tôi hỏi cô, "Bạn có chốt an toàn nào
  • 8:43 - 8:47
    để đảm bảo rằng hộp đen của bạn
    không làm gì mờ ám?"
  • 8:49 - 8:53
    Cô ấy nhìn tôi như thể tôi vừa đạp lên
    10 cái đuôi chó.
  • 8:53 - 8:54
    (Cười lớn)
  • 8:54 - 8:56
    Cô nhìn tôi chằm chằm và nói,
  • 8:57 - 9:01
    "Tôi không muốn nghe thêm một từ nào
    về vấn đề này nữa."
  • 9:01 - 9:03
    Và cô ấy bỏ đi.
  • 9:04 - 9:06
    Cho bạn biết- cô ấy không thô lỗ
  • 9:06 - 9:12
    Rõ ràng rằng: điều tôi không biết không phải
    là vấn đề của tôi, đi đi, ánh nhìn chết người.
  • 9:12 - 9:13
    (Cười lớn)
  • 9:14 - 9:18
    Một hệ thống như vậy có thể ít thiên vị hơn
  • 9:18 - 9:20
    những người quản lý theo cách nào đó.
  • 9:20 - 9:22
    Và nó có khả năng ra quyết định tài chính.
  • 9:23 - 9:24
    Nhưng nó cũng có thể dẫn đến
  • 9:24 - 9:29
    một thị trường việc làm ổn định nhưng lén lút cô lập
  • 9:29 - 9:31
    những người có khả năng trầm cảm cao.
  • 9:32 - 9:34
    Liệu đây có phải là xã hội mà chúng ta muốn gầy dựng,
  • 9:34 - 9:37
    khi mà chúng ta còn thậm chí không biết chúng ta làm vậy,
  • 9:37 - 9:41
    bởi vì chúng ta phó thác việc ra quyết định cho những cỗ máy mà chính chúng ta cũng không hiểu rõ?
  • 9:41 - 9:43
    Một vấn đề khác là:
  • 9:43 - 9:48
    những hệ thống này được huấn luyện dựa trên những dữ liệu lấy từ các hành động của chúng ta,
  • 9:48 - 9:50
    dấu ấn của con người.
  • 9:50 - 9:54
    Chúng có thể phản ánh những thiên vị của chúng ta,
  • 9:54 - 9:58
    và những hệ thống này có thể bắt nhịp những thiên vị của chúng ta
  • 9:58 - 9:59
    và phóng đại chúng
  • 9:59 - 10:00
    và thể hiện chúng lại cho chúng ta,
  • 10:00 - 10:02
    trong khi chúng ta lại tự bảo bản thân,
  • 10:02 - 10:05
    "Chúng ta đang tính toán một cách trung lập, khách quan."
  • 10:06 - 10:09
    Các nhà nghiên cứu tìm ra rằng trên Google,
  • 10:10 - 10:15
    phụ nữ ít được cho thấy những thông cáo việc làm lương cao hơn đàn ông.
  • 10:16 - 10:19
    Và các tìm kiếm tên của người Mỹ gốc Phi
  • 10:19 - 10:24
    sẽ dễ dẫn đến những cảnh báo tiền án tội phạm hơn,
  • 10:24 - 10:25
    ngay cả khi người đó không hề phạm tội.
  • 10:27 - 10:30
    Những thiên vị tiềm ẩn và những thuật toán hộp-đen như vậy
  • 10:30 - 10:34
    được các nhà nghiên cứu thỉnh thoảng tìm ra nhưng thỉnh thoảng chúng ta không hề biết,
  • 10:34 - 10:37
    có thể có các hậu quả nặng nề.
  • 10:38 - 10:42
    Ở Wisconsin, một bị cáo bị kết án sáu năm tù
  • 10:42 - 10:43
    vì trốn tránh cảnh sát.
  • 10:45 - 10:46
    Bạn có thể không biết rằng,
  • 10:46 - 10:50
    các thuật toán ngày càng được sử dụng trong việc ân xá và kết án nhiều hơn.
  • 10:50 - 10:53
    Ông ta muốn biết: Kết quả này được tính toán như thế nào?
  • 10:54 - 10:55
    Nó là một hộp đen thương hiệu.
  • 10:55 - 11:00
    Công ty từ chối để cho thuật toán của mình bị chất vấn ở các phiên tòa mở.
  • 11:00 - 11:06
    Nhưng ProPublica, một tổ chức điều tra phi lợi nhuận, đã kiểm tra chính thuật toán
  • 11:06 - 11:08
    họ dùng để tra cứu các dữ liệu công cộng,
  • 11:08 - 11:10
    và nhận ra rằng các kết quả của chúng rất thiên vị
  • 11:10 - 11:14
    và khả năng dự đoán của nó rất ảm đạm, chẳng hơn đoán mò bao nhiêu,
  • 11:14 - 11:18
    và nó kết luận sai các bị cáo da đen có thể thành phạm nhân tương lai
  • 11:18 - 11:22
    nhiều gấp đôi bị cáo da trắng.
  • 11:24 - 11:25
    Thử nhìn vào vụ án này:
  • 11:26 - 11:30
    Người phụ nữ này đón chị đỡ đầu của bà trễ
  • 11:30 - 11:32
    từ một trường ở quận Broward, Florida,
  • 11:33 - 11:35
    chạy xuống phố với một người bạn của bà.
  • 11:35 - 11:39
    Họ nhìn thấy một chiếc xe đạp trẻ em không khóa và một chiếc xe máy trên hiên nhà
  • 11:39 - 11:41
    và họ nghịch ngợm nhảy lên nó.
  • 11:41 - 11:44
    Trong khi họ đang tăng tốc, một người phụ nữ chạy ra và la lên rằng,
  • 11:44 - 11:46
    "Hey, đó là xe đạp của con tôi!"
  • 11:46 - 11:49
    Họ quăng chiếc xe lại, chạy đi, nhưng họ bị bắt.
  • 11:49 - 11:53
    Cô sai, cô ngu ngốc, nhưng cô vẫn chỉ mới 18 tuổi.
  • 11:53 - 11:55
    Cô đã phạm một vài tội vị thành niên.
  • 11:56 - 12:01
    Trong khi đó, một người đàn ông bị bắt vì trộm đồ ở Home Depot --
  • 12:01 - 12:04
    một mớ đồ trị giá $85, một tội ăn cắp vặt.
  • 12:05 - 12:09
    Nhưng ông có hai tiền án cướp có vũ khí.
  • 12:10 - 12:13
    Nhưng thuật toán lại chấm điểm cô ấy có khả năng phạm tội cao hơn ông ta.
  • 12:15 - 12:19
    Hai năm sau, ProPublica nhận thấy rằng cô ấy không hề tái phạm.
  • 12:19 - 12:21
    Nhưng cô ấy chỉ khó kiếm được việc làm với tiền án như v6a5y.
  • 12:21 - 12:23
    Ngược lại, ông ta tái phậm
  • 12:23 - 12:27
    và hiện đang bị ở tù tám năm cho tội ác sau này.
  • 12:28 - 12:31
    Rõ ràng, chúng ta cần kiểm tra các hộp đen của chúng ta
  • 12:31 - 12:34
    và không để chúng có những sức mạnh không kiểm soát này.
  • 12:34 - 12:37
    (Vỗ tay)
  • 12:38 - 12:42
    Kiểm tra rất tuyệt vời và quan trọng, nhưng chúng không giải quyết hết các vấn đề của chúng ta.
  • 12:42 - 12:45
    Ví dụ như thuật toán trang chủ hùng mạnh của Facebook --
  • 12:45 - 12:50
    bạn biết đấy, cái đánh giá mọi thứ và quyết định sẽ cho bạn xem cái gì
  • 12:50 - 12:52
    từ bạn bè và những trang bạn theo dõi.
  • 12:53 - 12:55
    Liệu bạn có nên được cho xem thêm một bức ảnh trẻ con nữa?
  • 12:55 - 12:56
    (Cười lớn)
  • 12:56 - 12:59
    Một thông điệp u tối từ một người quen?
  • 12:59 - 13:01
    Một mẩu tin quan trọng nhưng phức tạp?
  • 13:01 - 13:03
    Không hề có câu trả lời đúng nào.
  • 13:03 - 13:05
    Facebook tối đa hóa các tương tác trên trang chủ:
  • 13:06 - 13:07
    thích, chia sẻ, bình luận.
  • 13:08 - 13:11
    Vào tháng 8/2014,
  • 13:11 - 13:14
    biểu tình diễn ra ở Ferguson, Missouri,
  • 13:14 - 13:18
    sau vụ thảm sát một thiếu niên Mỹ Phi bởi một cảnh sát da trắng,
  • 13:18 - 13:20
    dưới điều kiện mờ ám.
  • 13:20 - 13:22
    Tin tức về các buổi biểu tình tràn ngập
  • 13:22 - 13:25
    trên trang chủ Twitter không được thanh lọc bởi thuật toán,
  • 13:25 - 13:27
    nhưng không hề hiện ra trên Facebook của tôi.
  • 13:27 - 13:29
    Liệu đó có phải do các bạn trên Facebook của tôi?
  • 13:29 - 13:31
    Tôi tắt thuật toán của Facebook,
  • 13:31 - 13:34
    và rất khó để làm vậy vì Facebook luôn muốn bạn
  • 13:34 - 13:36
    ở dưới sự kiểm soát của thuật toán,
  • 13:36 - 13:39
    và thấy rằng bạn bè tôi đang nói về vấn đề đó.
  • 13:39 - 13:41
    Chỉ là do thuật toán không cho tôi thấy điều đó.
  • 13:41 - 13:44
    Tôi đi tìm hiểu và phát hiện ra rằng đây là một vấn đề phổ biến.
  • 13:44 - 13:48
    Câu chuyện ở Ferguson không hề thân thiện với thuật toán.
  • 13:48 - 13:49
    Nó không được "yêu thích".
  • 13:49 - 13:51
    Ai sẽ bấm "thích"?
  • 13:52 - 13:54
    Nó không hề đơn giản để bình luận.
  • 13:54 - 13:55
    Thiếu các lượt yêu thích và bình luận,
  • 13:55 - 13:58
    thuật toán lại hiển thị nó cho càng ít người,
  • 13:58 - 14:00
    cho nên chúng ta không hề thấy nó.
  • 14:01 - 14:02
    Thay vào đó, trong tuần đó,
  • 14:02 - 14:04
    Thuật toán của Facebook lại làm nổi bật mẩu tin
  • 14:05 - 14:07
    về ALS Thử Thách Chậu Đá.
  • 14:07 - 14:11
    Một động cơ cao cả; đổ chậu nước đá, quyên góp từ thiện, tốt thôi.
  • 14:11 - 14:12
    Nhưng nó rất được thuật toán yêu thích.
  • 14:13 - 14:16
    Cỗ máy đưa ra quyết định này cho chúng ta.
  • 14:16 - 14:19
    Một cuộc hội thoại quan trọng nhưng khó khăn
  • 14:19 - 14:21
    có thể vừa bị giết chết,
  • 14:21 - 14:24
    nếu như Facebook là cổng thông tin duy nhất.
  • 14:24 - 14:28
    Cuối cùng, các hệ thống này có thể phạm lỗi
  • 14:28 - 14:31
    theo nhiều cách không giống gì hệ thống con người.
  • 14:31 - 14:34
    Quý vị còn nhớ Watson, hệ thống máy móc thông minh của IBM
  • 14:34 - 14:37
    quét sạch các người thi con người trong trò Jeopardy?
  • 14:37 - 14:39
    Nó là một người chơi tuyệt vời.
  • 14:39 - 14:42
    Nhưng ở màn cuối của Jeopardy, khi được hỏi:
  • 14:43 - 14:46
    "Sân bay lớn nhất của thành phố này được đặt tên theo một anh hùng Thế Chiến II,
  • 14:46 - 14:48
    sân bay lớn nhì được đặt tên theo một trận đánh trong Thế Chiến II."
  • 14:48 - 14:49
    (Nhạc nền Jeopardy)
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:52
    Hai người chơi con người đoán đúng.
  • 14:53 - 14:57
    Ngược lại, Watson lại trả lời "Toronto" --
  • 14:57 - 14:59
    cho một phân mục thành phố Mỹ!
  • 15:00 - 15:02
    Một hệ thống ấn tượng phạm một lỗi
  • 15:03 - 15:06
    mà không một con người nào sẽ mắc phải, ngay cả một học sinh cấp 2.
  • 15:07 - 15:10
    Cỗ máy thông minh của chúng ta đã thất bại
  • 15:10 - 15:13
    theo nhiều cách không hề giống con người,
  • 15:13 - 15:16
    theo những cách chúng ta không ngờ tới và không chuẩn bị cho.
  • 15:16 - 15:20
    Sẽ thật tệ nếu như một người không được nhận vào một công việc mà họ đủ tiêu chuẩn,
  • 15:20 - 15:23
    nhưng nó sẽ còn tệ gấp ba lần nếu như lý do là vì sự tắc nghẽn thông tin
  • 15:23 - 15:25
    trong một thủ tục phụ nào đó.
  • 15:25 - 15:27
    (Cười lớn)
  • 15:27 - 15:29
    Vào tháng 5/2010,
  • 15:29 - 15:33
    một khủng hoảng nhỏ ở Wall Street xảy ra do hệ thống phản hồi
  • 15:33 - 15:36
    trong thuật toán "bán" của Wall Street
  • 15:36 - 15:41
    làm bốc hơi một trị giá 1000 tỉ đô trong 36 phút.
  • 15:42 - 15:44
    Tôi không hề muốn nghĩ đến "lỗi" đó là gì
  • 15:44 - 15:48
    khi nói đến các vũ khí tự phát nguy hiểm.
  • 15:50 - 15:54
    Cho nên vâng, con người luôn thiên vị.
  • 15:54 - 15:56
    Các người đưa ra quyết định và những người gác cổng,
  • 15:56 - 15:59
    trong tòa án, trên báo chí, trong chiến tranh,...
  • 15:59 - 16:02
    họ phạm sai lầm; nhưng đó chính xác là điều tôi muốn nói.
  • 16:02 - 16:06
    Chúng ta không thể trốn tránh những câu hỏi khó.
  • 16:07 - 16:10
    Chúng ta không thể phó thác trách nhiệm của chúng ta cho máy móc.
  • 16:11 - 16:15
    (Vỗ tay)
  • 16:17 - 16:22
    Trí tuệ nhân tạo không cho chúng ta một thẻ "Trốn tránh đạo đức miễn phí"
  • 16:23 - 16:26
    Nhà khoa học dữ liệu Fred Benenson gọi đây là tẩy rửa toán học.
  • 16:26 - 16:28
    Chúng ta cần điều ngược lại.
  • 16:28 - 16:33
    Chúng ta cần nuôi dưỡng các hoài nghi về các thuật toán, các khó khăn và điều tra.
  • 16:33 - 16:37
    Chúng ta cần đảm bảo tính trung thực của các thuật toán,
  • 16:37 - 16:39
    sự rõ ràng ý nghĩa và qua kiểm tra.
  • 16:39 - 16:43
    Chúng ta cần chấp nhận rằng khi đem toán học và tính toán
  • 16:43 - 16:46
    vào các vấn đề phức tạp, nhiều tầng giá trị của con người
  • 16:46 - 16:48
    không hề đem đến tính khách quan;
  • 16:48 - 16:52
    mà ngược lại, sự phức tạp của các vấn đề của con người xâm lấn các thuật toán.
  • 16:52 - 16:56
    Vâng, chúng ta có thể và nên sử dụng tính toán
  • 16:56 - 16:58
    để giúp chúng ta đưa ra các quyết định đúng đắn hơn.
  • 16:58 - 17:03
    Nhưng chúng ta cần chịu trách nhiệm cho các quyết định mang tính đạo đức của chúng ta,
  • 17:03 - 17:06
    và sử dụng thuật toán nội trong khuôn khổ đó,
  • 17:06 - 17:11
    chứ không phải như một phương tiện để từ bỏ và phó thác trách nhiệm của chúng ta
  • 17:11 - 17:13
    cho người khác giữa người với người.
  • 17:14 - 17:16
    Máy móc thông minh tồn tại ở đây.
  • 17:16 - 17:20
    Điều đó có nghĩa là chúng ta cần .... hơn
  • 17:20 - 17:22
    các giá trị nhân bản và đạo đức nhân văn.
  • 17:22 - 17:23
    Xin cám ơn.
  • 17:23 - 17:28
    (Vỗ tay)
Title:
Trí tuệ nhân tạo khiến đạo đức con người trở nên quan trọng hơn.
Speaker:
Zeynep Tufekci
Description:

Trí tuệ nhân tạo đang ở đây, và chúng ta sử dụng nó để đưa ra những quyết định chủ quan. Nhưng cách thức phức tạp mà TTNT phát triển và hoàn thiện làm cho nó trở nên khó hiểu và thậm chí khó kiểm soát hơn. Trong bài nói chuyện thận trọng này, nhà kỹ thuật xã hội học Zeynep Tufekci giải thích việc các cỗ máy thông minh có thể trở nên như thế nào khi không phù hợp với các thiếu sót của con người - và theo những cách chúng ta không mong đợi hoặc không kịp chuẩn bị trước. "Chúng ta không thể giao phó trách nhiệm của mình vào máy móc", cô nói. "Chúng ta phải giữ chặt hơn các giá trị và đạo đức của con người."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Vietnamese subtitles

Revisions