Trí tuệ nhân tạo khiến đạo đức con người trở nên quan trọng hơn.
-
0:00 - 0:04Vì thế, tôi đã có công việc đầu tiên của mình
là một lập trình viên máy tính -
0:04 - 0:07ngay trong những năm học đại học đầu tiên
-
0:07 - 0:08về cơ bản, khi vẫn là một thiếu niên
-
0:08 - 0:11Không lâu sau khi tôi bắt đầu công việc,
-
0:11 - 0:13trong lúc đang viết phần mềm cho công ty,
-
0:13 - 0:16thì người quản lý ở đó tiến đến chỗ tôi
-
0:16 - 0:18và thì thầm vào tai tôi
-
0:18 - 0:21"Hắn có phát hiện nếu tôi nói dối không?"
-
0:22 - 0:24Không có một ai khác trong phòng cả.
-
0:25 - 0:30"Ai có thể nhận ra anh đang nói dối?"
"Và tại sao ta phải nói thầm?" -
0:30 - 0:34Ông quản lý chỉ tay vào chiếc máy tính
trong phòng. -
0:34 - 0:36"Hắn có phát hiện nếu tôi nói dối không?"
-
0:38 - 0:42Vâng, ông quản lý này đang ngoại tình
với cô tiếp tân. -
0:42 - 0:43( Cười)
-
0:43 - 0:45Và tôi vẫn chỉ là một đứa oắt con.
-
0:45 - 0:47nên tôi nói thầm lại với anh ta,
-
0:47 - 0:51" Có chứ, nó biết khi nào
ông nói dối đấy." -
0:51 - 0:53(Cười)
-
0:53 - 0:56Vâng, tôi cười nhưng thực ra
là cười bản thân. -
0:56 - 0:59Ngày nay, có những hệ thống máy tính
-
0:59 - 1:03có thể nhận diện trạng thái cảm xúc,
ngay cả việc nói dối -
1:03 - 1:05thông qua phân tích nhân diện.
-
1:05 - 1:09Các nhà quảng cáo và thậm chí cả
chính quyền rất hứng thú với điều này. -
1:10 - 1:12Tôi đã trở thành 1 lập trình viên
-
1:12 - 1:15vì tôi từng là đứa trẻ say mê Toán và
Khoa học. -
1:16 - 1:19Nhưng khoảng thời gian đó, tôi cũng học
về vũ khí hạt nhân. -
1:19 - 1:22và tôi trở nên rất quan ngại về vấn đề
đạo đức của khoa học. -
1:22 - 1:23Tôi đã rất bối rối.
-
1:23 - 1:26Tuy nhiên, do hoàn cảnh gia đình,
-
1:26 - 1:29tôi cần phải bắt đầu làm việc
càng sớm càng tốt. -
1:29 - 1:33Vì vậy nên tôi nói với bản thân,
này, hãy chọn một ngành kỹ thuật -
1:33 - 1:34giúp tôi có thể dễ dàng kiếm việc
-
1:34 - 1:38mà lại không phải quan tâm đến những
câu hỏi đạo đức phiền phức. -
1:39 - 1:41Vì vậy nên tôi chọn máy tính.
-
1:41 - 1:42(Cười lớn)
-
1:42 - 1:45Vậy đấy! haha
Tôi cười vì chính mình! -
1:45 - 1:48Ngày nay, các nhà khoa học máy tính
xây dựng hệ điều hành -
1:48 - 1:52có thể điều khiển thứ mà một tỉ người
xem hằng ngày. -
1:53 - 1:57Họ đang phát triển những chiếc xe có thể
tự quyết định nó sẽ cán qua ai. -
1:58 - 2:01Họ thậm chí còn đang tạo ra nhiều
máy móc, vũ khí, -
2:01 - 2:03có thể tiêu diệt loài người
trong chiến tranh. -
2:03 - 2:06Chung quy lại đều liên quan tới đạo đức
-
2:07 - 2:09Trí tuệ nhân tạo là đây.
-
2:10 - 2:13Ta không chỉ sử dụng những thuật toán để
đưa ra mọi quyết định -
2:13 - 2:15mà còn cả những chuyện chưa từng xảy ra
-
2:15 - 2:20Ta đưa cho máy móc những câu hỏi không có
một đáp án đúng nào cả, -
2:20 - 2:22những câu hỏi chủ quan
-
2:22 - 2:24những câu hỏi mở và mang tính giả định.
-
2:24 - 2:26Chúng ta hỏi những câu hỏi như,
-
2:26 - 2:27"Công ty nên thuê ai?"
-
2:28 - 2:31"Những gì bạn nên được biết từ bạn bè?"
-
2:31 - 2:33"Phạm nhân nào có khả năng tái phạm cao?"
-
2:34 - 2:37"Dòng tin hay bộ phim nào nên được
đề xuất cho mọi người?" -
2:37 - 2:40Nhìn xem, đúng, chúng ta đã sử dụng
máy tính một thời gian dài, -
2:40 - 2:42nhưng lần này thì khác.
-
2:42 - 2:44Đây là một bước ngoặt lịch sử,
-
2:44 - 2:49vì ta không thể trông cậy vào sự tính
toán cho các quyết định chủ quan thế này -
2:49 - 2:54như cái cách chúng ta dựa vào nó
để lái máy bay, xây cầu, -
2:54 - 2:56để đi lên mặt trăng.
-
2:56 - 3:00Máy bay liệu có an toàn hơn?
Cây cầu có lắc lư và sập không? -
3:00 - 3:04Thế đấy, chúng ta đều có một chuẩn mực
thống nhất và khá rõ ràng, -
3:04 - 3:06và ta có những quy luật của tự nhiên
hướng dẫn. -
3:07 - 3:10Chúng ta không hề có những điểm tựa hay
tiêu chuẩn như vậy -
3:10 - 3:14cho các quyết định về những vấn đề
phức tạp của con người. -
3:14 - 3:18Để làm vấn đề phức tạp hơn, phần mềm
của ta ngày càng trở nên hùng mạnh, -
3:18 - 3:22nhưng nó đồng thời trở nên khó hiểu
và phức tạp hơn. -
3:23 - 3:25Gần đây, trong thập kỷ gần đây,
-
3:25 - 3:27các thuật toán phức tạp đã đạt được
những bước tiến lớn. -
3:27 - 3:29Chúng có thể nhận diện khuôn mặt người.
-
3:30 - 3:32Chúng có thể giải mã được chữ viết tay.
-
3:32 - 3:35Chúng có thể nhận biết thẻ tín dụng giả
-
3:35 - 3:36và chặn tin rác
-
3:36 - 3:38và chúng có thể phiên dịch ngôn ngữ.
-
3:38 - 3:40Chúng có thể phát hiện khối u trong
phim chụp y khoa. -
3:40 - 3:43Chúng đánh bại con người
trong cờ vua và Go. -
3:43 - 3:48Đa phần những tiến bộ này đến từ
phương pháp "máy tính tự học" -
3:48 - 3:51Máy tính tự học khác với lập trình
truyền thống, -
3:51 - 3:55ở chỗ bạn đưa ra những hướng dẫn
cụ thể, chính xác, kỹ lưỡng cho máy tính. -
3:55 - 4:00Đúng hơn là bạn cho một đống dữ liệu
vào hệ thống, -
4:00 - 4:01bao gồm dữ liệu chưa được
sắp xếp, -
4:01 - 4:04như loại chúng ta tạo ra trong thế giới số
-
4:04 - 4:06Và hệ thống học bằng cách lướt qua
các dữ liệu này. -
4:07 - 4:08Và quan trọng hơn,
-
4:08 - 4:13những hệ thống này không hoạt động dựa
trên logic một-câu-trả-lời-duy-nhất. -
4:13 - 4:16Chúng không cho ra câu trả lời đơn giản mà
có tính xác suất hơn -
4:16 - 4:19"Cái này có nhiều khả năng là cái bạn
đang muốn tìm." -
4:20 - 4:23Lợi thế ở đây là: biện pháp này
rất hiệu quả. -
4:23 - 4:25Trưởng hệ thống Al của Google gọi nó là,
-
4:25 - 4:27"sự hiệu quả bất hợp lý của dữ liệu."
-
4:28 - 4:29Bất lợi ở đây là,
-
4:30 - 4:33ta không thật sự hiểu cái mà hệ thống
học được. -
4:33 - 4:34Thực tế, đó là sức mạnh của nó.
-
4:35 - 4:39Cái này khác với việc đưa ra hướng dẫn
cho máy tính; -
4:39 - 4:43Nó giống hơn với việc huấn luyện một loại
chó cưng bằng máy -
4:43 - 4:46mà chúng ta không thật sự hiểu
hay kiểm soát. -
4:46 - 4:48Vậy nên đó là vấn đề của ta.
-
4:48 - 4:53Nó là vấn đề khi mà hệ thống
trí tuệ nhân tạo hiểu sai sự việc. -
4:53 - 4:56Nó cũng là vấn đề khi nó hiểu đúng
sự việc, -
4:56 - 5:00bởi vì chúng ta không thể phân biệt được
khi nó là một vấn đề chủ quan. -
5:00 - 5:02Chúng ta không biết được vật này
đang nghĩ gì. -
5:03 - 5:07Thử xem xét một thuật toán thuê --
-
5:08 - 5:12một hệ thống dùng để thuê nhân viên,
dựa vào hệ thống máy móc tự học. -
5:13 - 5:17Một hệ thống như vậy sẽ được đào tạo
dựa trên dự liệu của nhân viên cũ -
5:17 - 5:19và được hướng dẫn để tìm và thuê
-
5:19 - 5:22những người tương tự với nhân viên
xuất sắc hiện có ở công ty. -
5:23 - 5:24Nghe có vẻ tốt đấy.
-
5:24 - 5:26Tôi từng tham dự một hội nghị
-
5:26 - 5:29bao gồm quản lý nhân sự và các lãnh đạo,
-
5:29 - 5:30những nhân vật cấp cao,
-
5:30 - 5:32dùng hệ thống như vậy khi thuê
-
5:32 - 5:34Họ cực kỳ phấn khích về việc đó.
-
5:34 - 5:38Họ nghĩ rằng hệ thống này sẽ giúp việc
thuê người khách quan và ít thiên vị hơn, -
5:38 - 5:41và cho phụ nữ và người thiểu số
một cơ hội tốt hơn -
5:41 - 5:44chống lại những người quản lý thiên vị.
-
5:44 - 5:46Đúng là người thuê người thường
có sự thiên vị. -
5:47 - 5:48Tôi biết vậy.
-
5:48 - 5:51Trong những việc đầu tiên của tôi với
vai trò lập trình viên, -
5:51 - 5:55quản lý trực tiếp của tôi thỉnh thoảng
sẽ đến chỗ tôi -
5:55 - 5:59rất sớm vào buổi sáng hoặc rất muộn
vào buổi chiều, -
5:59 - 6:02để nói, "Zeynep, cùng đi ăn trưa nào!"
-
6:03 - 6:05Tôi bị bối rối bởi giờ giấc
thất thường. -
6:05 - 6:07Bây giờ là 4g chiều mà ăn trưa ư?
-
6:07 - 6:10Tôi thì thiếu tiền, mà bữa trưa miễn phí.
Cho nên tôi luôn đi -
6:11 - 6:13Sau đó tôi nhận ra chuyện gì
đang diễn ra. -
6:13 - 6:17Những quản lý trực tiếp của tôi chưa hề
thông báo với cấp trên -
6:17 - 6:20rằng lập trình viên họ thuê cho việc
quan trọng là một thiếu nữ -
6:20 - 6:24mặc quần jeans và đi giày thể thao đi làm.
-
6:25 - 6:27Tôi làm tốt việc, chỉ ăn mặc không đúng
-
6:27 - 6:29và sai độ tuổi và giới tính.
-
6:29 - 6:32Cho nên việc tuyển chọn không dựa theo
giới tính và sắc tộc -
6:32 - 6:34rõ ràng tốt cho tôi.
-
6:35 - 6:38Nhưng với những hệ thống này, nó
phức tạp hơn, và đây là lý do: -
6:39 - 6:45Bây giờ, hệ thống tính toán có thể đưa ra
đủ mọi loại kết luận vể bạn -
6:45 - 6:47dựa trên những vết tích số của bạn,
-
6:47 - 6:49ngay cả khi bạn không hề tiết lộ
những việc đó. -
6:50 - 6:52Chúng có thể đưa ra kết luận về xu hướng
tình dục của bạn, -
6:53 - 6:54tính cách bạn,
-
6:55 - 6:56quan điểm chính trị của bạn.
-
6:57 - 7:01Chúng có sức mạnh dự đoán với
sự chuẩn xác cao. -
7:01 - 7:04Nhớ rằng - ngay cả những việc bạn
không hề tiết lộ. -
7:04 - 7:06Đây chỉ mới là việc suy luận
-
7:06 - 7:09Tôi có một người bạn thiết kế những
hệ thống tính toán như vậy -
7:09 - 7:13để dự đoán khả năng mắc bệnh trầm cảm
lâm sàng hoặc hậu thai sản -
7:13 - 7:14từ những dự liệu truyền thông xã hội.
-
7:15 - 7:16Kết quả thật đáng ấn tượng.
-
7:16 - 7:20Hệ thống của cô ấy có thể dự đoán được
khả năng mắc trầm cảm -
7:20 - 7:24hàng tháng trước khi các triệu chứng
xuất hiện -- -
7:24 - 7:25hàng tháng trước.
-
7:25 - 7:27Không hề có triệu chứng, nhưng
lại có dự đoán. -
7:27 - 7:32Cô mong rằng nó được sử dụng cho việc
can thiệp sớm. Tuyệt vời! -
7:33 - 7:35Nhưng giờ đặt nó vào viễn cảnh
tuyển chọn. -
7:36 - 7:39Ở buổi họp quản lý nhân sự này,
-
7:39 - 7:44tôi tiếp cận một quản lý cấp cao của
một công ty lớn, -
7:44 - 7:48và nói rằng, "Này, nếu như, ngoài sự
hiểu biết của bạn, -
7:48 - 7:55hệ thống của bạn đang gạt bỏ người có thể
bị trầm cảm cao trong tương lai? -
7:56 - 7:59Hiện tại họ không hề bị trầm cảm, chỉ là
trong tương lai có khả năng. -
8:00 - 8:03Nếu như hệ thống loại bỏ những phụ nữ
có khả năng mang thai -
8:03 - 8:06trong một vài năm tới nhưng hiện
không mang thai? -
8:07 - 8:12Nếu nó chọn những người có tính hung hăng
vì đó là bản chất làm việc ở đây?" -
8:13 - 8:16Bạn không thể thấy điều này qua việc
xem tỉ lệ giới tính -
8:16 - 8:17Điều đó có thể được
cân bằng. -
8:17 - 8:21Và vì đây là máy móc tự học, chứ
không phải mã hóa truyền thống, -
8:21 - 8:26không hề có một biến số nào có tên
"có khả năng trầm cảm cao", -
8:26 - 8:28"có khả năng mang thai cao",
-
8:28 - 8:30"tính cách hung hăng".
-
8:30 - 8:34Bạn không chỉ không biết hệ thống của bạn
lựa chọn dựa trên tiêu chí gì, -
8:34 - 8:36bạn còn không biết phải bắt đầu
tìm từ đâu. -
8:36 - 8:37Nó là một hộp đen.
-
8:37 - 8:40Nó có khả năng tiên đoán, nhưng bạn
không hiểu nó. -
8:40 - 8:43Tôi hỏi cô, "Bạn có chốt an toàn nào
-
8:43 - 8:47để đảm bảo rằng hộp đen của bạn
không làm gì mờ ám?" -
8:49 - 8:53Cô ấy nhìn tôi như thể tôi vừa đạp lên
10 cái đuôi chó. -
8:53 - 8:54(Cười lớn)
-
8:54 - 8:56Cô nhìn tôi chằm chằm và nói,
-
8:57 - 9:01"Tôi không muốn nghe thêm một từ nào
về vấn đề này nữa." -
9:01 - 9:03Và cô ấy bỏ đi.
-
9:04 - 9:06Cho bạn biết- cô ấy không thô lỗ
-
9:06 - 9:12Rõ ràng rằng: điều tôi không biết không phải
là vấn đề của tôi, đi đi, ánh nhìn chết người. -
9:12 - 9:13(Cười lớn)
-
9:14 - 9:18Một hệ thống như vậy có thể ít thiên vị hơn
-
9:18 - 9:20những người quản lý theo cách nào đó.
-
9:20 - 9:22Và nó có khả năng ra quyết định tài chính.
-
9:23 - 9:24Nhưng nó cũng có thể dẫn đến
-
9:24 - 9:29một thị trường việc làm ổn định nhưng lén lút cô lập
-
9:29 - 9:31những người có khả năng trầm cảm cao.
-
9:32 - 9:34Liệu đây có phải là xã hội mà chúng ta muốn gầy dựng,
-
9:34 - 9:37khi mà chúng ta còn thậm chí không biết chúng ta làm vậy,
-
9:37 - 9:41bởi vì chúng ta phó thác việc ra quyết định cho những cỗ máy mà chính chúng ta cũng không hiểu rõ?
-
9:41 - 9:43Một vấn đề khác là:
-
9:43 - 9:48những hệ thống này được huấn luyện dựa trên những dữ liệu lấy từ các hành động của chúng ta,
-
9:48 - 9:50dấu ấn của con người.
-
9:50 - 9:54Chúng có thể phản ánh những thiên vị của chúng ta,
-
9:54 - 9:58và những hệ thống này có thể bắt nhịp những thiên vị của chúng ta
-
9:58 - 9:59và phóng đại chúng
-
9:59 - 10:00và thể hiện chúng lại cho chúng ta,
-
10:00 - 10:02trong khi chúng ta lại tự bảo bản thân,
-
10:02 - 10:05"Chúng ta đang tính toán một cách trung lập, khách quan."
-
10:06 - 10:09Các nhà nghiên cứu tìm ra rằng trên Google,
-
10:10 - 10:15phụ nữ ít được cho thấy những thông cáo việc làm lương cao hơn đàn ông.
-
10:16 - 10:19Và các tìm kiếm tên của người Mỹ gốc Phi
-
10:19 - 10:24sẽ dễ dẫn đến những cảnh báo tiền án tội phạm hơn,
-
10:24 - 10:25ngay cả khi người đó không hề phạm tội.
-
10:27 - 10:30Những thiên vị tiềm ẩn và những thuật toán hộp-đen như vậy
-
10:30 - 10:34được các nhà nghiên cứu thỉnh thoảng tìm ra nhưng thỉnh thoảng chúng ta không hề biết,
-
10:34 - 10:37có thể có các hậu quả nặng nề.
-
10:38 - 10:42Ở Wisconsin, một bị cáo bị kết án sáu năm tù
-
10:42 - 10:43vì trốn tránh cảnh sát.
-
10:45 - 10:46Bạn có thể không biết rằng,
-
10:46 - 10:50các thuật toán ngày càng được sử dụng trong việc ân xá và kết án nhiều hơn.
-
10:50 - 10:53Ông ta muốn biết: Kết quả này được tính toán như thế nào?
-
10:54 - 10:55Nó là một hộp đen thương hiệu.
-
10:55 - 11:00Công ty từ chối để cho thuật toán của mình bị chất vấn ở các phiên tòa mở.
-
11:00 - 11:06Nhưng ProPublica, một tổ chức điều tra phi lợi nhuận, đã kiểm tra chính thuật toán
-
11:06 - 11:08họ dùng để tra cứu các dữ liệu công cộng,
-
11:08 - 11:10và nhận ra rằng các kết quả của chúng rất thiên vị
-
11:10 - 11:14và khả năng dự đoán của nó rất ảm đạm, chẳng hơn đoán mò bao nhiêu,
-
11:14 - 11:18và nó kết luận sai các bị cáo da đen có thể thành phạm nhân tương lai
-
11:18 - 11:22nhiều gấp đôi bị cáo da trắng.
-
11:24 - 11:25Thử nhìn vào vụ án này:
-
11:26 - 11:30Người phụ nữ này đón chị đỡ đầu của bà trễ
-
11:30 - 11:32từ một trường ở quận Broward, Florida,
-
11:33 - 11:35chạy xuống phố với một người bạn của bà.
-
11:35 - 11:39Họ nhìn thấy một chiếc xe đạp trẻ em không khóa và một chiếc xe máy trên hiên nhà
-
11:39 - 11:41và họ nghịch ngợm nhảy lên nó.
-
11:41 - 11:44Trong khi họ đang tăng tốc, một người phụ nữ chạy ra và la lên rằng,
-
11:44 - 11:46"Hey, đó là xe đạp của con tôi!"
-
11:46 - 11:49Họ quăng chiếc xe lại, chạy đi, nhưng họ bị bắt.
-
11:49 - 11:53Cô sai, cô ngu ngốc, nhưng cô vẫn chỉ mới 18 tuổi.
-
11:53 - 11:55Cô đã phạm một vài tội vị thành niên.
-
11:56 - 12:01Trong khi đó, một người đàn ông bị bắt vì trộm đồ ở Home Depot --
-
12:01 - 12:04một mớ đồ trị giá $85, một tội ăn cắp vặt.
-
12:05 - 12:09Nhưng ông có hai tiền án cướp có vũ khí.
-
12:10 - 12:13Nhưng thuật toán lại chấm điểm cô ấy có khả năng phạm tội cao hơn ông ta.
-
12:15 - 12:19Hai năm sau, ProPublica nhận thấy rằng cô ấy không hề tái phạm.
-
12:19 - 12:21Nhưng cô ấy chỉ khó kiếm được việc làm với tiền án như v6a5y.
-
12:21 - 12:23Ngược lại, ông ta tái phậm
-
12:23 - 12:27và hiện đang bị ở tù tám năm cho tội ác sau này.
-
12:28 - 12:31Rõ ràng, chúng ta cần kiểm tra các hộp đen của chúng ta
-
12:31 - 12:34và không để chúng có những sức mạnh không kiểm soát này.
-
12:34 - 12:37(Vỗ tay)
-
12:38 - 12:42Kiểm tra rất tuyệt vời và quan trọng, nhưng chúng không giải quyết hết các vấn đề của chúng ta.
-
12:42 - 12:45Ví dụ như thuật toán trang chủ hùng mạnh của Facebook --
-
12:45 - 12:50bạn biết đấy, cái đánh giá mọi thứ và quyết định sẽ cho bạn xem cái gì
-
12:50 - 12:52từ bạn bè và những trang bạn theo dõi.
-
12:53 - 12:55Liệu bạn có nên được cho xem thêm một bức ảnh trẻ con nữa?
-
12:55 - 12:56(Cười lớn)
-
12:56 - 12:59Một thông điệp u tối từ một người quen?
-
12:59 - 13:01Một mẩu tin quan trọng nhưng phức tạp?
-
13:01 - 13:03Không hề có câu trả lời đúng nào.
-
13:03 - 13:05Facebook tối đa hóa các tương tác trên trang chủ:
-
13:06 - 13:07thích, chia sẻ, bình luận.
-
13:08 - 13:11Vào tháng 8/2014,
-
13:11 - 13:14biểu tình diễn ra ở Ferguson, Missouri,
-
13:14 - 13:18sau vụ thảm sát một thiếu niên Mỹ Phi bởi một cảnh sát da trắng,
-
13:18 - 13:20dưới điều kiện mờ ám.
-
13:20 - 13:22Tin tức về các buổi biểu tình tràn ngập
-
13:22 - 13:25trên trang chủ Twitter không được thanh lọc bởi thuật toán,
-
13:25 - 13:27nhưng không hề hiện ra trên Facebook của tôi.
-
13:27 - 13:29Liệu đó có phải do các bạn trên Facebook của tôi?
-
13:29 - 13:31Tôi tắt thuật toán của Facebook,
-
13:31 - 13:34và rất khó để làm vậy vì Facebook luôn muốn bạn
-
13:34 - 13:36ở dưới sự kiểm soát của thuật toán,
-
13:36 - 13:39và thấy rằng bạn bè tôi đang nói về vấn đề đó.
-
13:39 - 13:41Chỉ là do thuật toán không cho tôi thấy điều đó.
-
13:41 - 13:44Tôi đi tìm hiểu và phát hiện ra rằng đây là một vấn đề phổ biến.
-
13:44 - 13:48Câu chuyện ở Ferguson không hề thân thiện với thuật toán.
-
13:48 - 13:49Nó không được "yêu thích".
-
13:49 - 13:51Ai sẽ bấm "thích"?
-
13:52 - 13:54Nó không hề đơn giản để bình luận.
-
13:54 - 13:55Thiếu các lượt yêu thích và bình luận,
-
13:55 - 13:58thuật toán lại hiển thị nó cho càng ít người,
-
13:58 - 14:00cho nên chúng ta không hề thấy nó.
-
14:01 - 14:02Thay vào đó, trong tuần đó,
-
14:02 - 14:04Thuật toán của Facebook lại làm nổi bật mẩu tin
-
14:05 - 14:07về ALS Thử Thách Chậu Đá.
-
14:07 - 14:11Một động cơ cao cả; đổ chậu nước đá, quyên góp từ thiện, tốt thôi.
-
14:11 - 14:12Nhưng nó rất được thuật toán yêu thích.
-
14:13 - 14:16Cỗ máy đưa ra quyết định này cho chúng ta.
-
14:16 - 14:19Một cuộc hội thoại quan trọng nhưng khó khăn
-
14:19 - 14:21có thể vừa bị giết chết,
-
14:21 - 14:24nếu như Facebook là cổng thông tin duy nhất.
-
14:24 - 14:28Cuối cùng, các hệ thống này có thể phạm lỗi
-
14:28 - 14:31theo nhiều cách không giống gì hệ thống con người.
-
14:31 - 14:34Quý vị còn nhớ Watson, hệ thống máy móc thông minh của IBM
-
14:34 - 14:37quét sạch các người thi con người trong trò Jeopardy?
-
14:37 - 14:39Nó là một người chơi tuyệt vời.
-
14:39 - 14:42Nhưng ở màn cuối của Jeopardy, khi được hỏi:
-
14:43 - 14:46"Sân bay lớn nhất của thành phố này được đặt tên theo một anh hùng Thế Chiến II,
-
14:46 - 14:48sân bay lớn nhì được đặt tên theo một trận đánh trong Thế Chiến II."
-
14:48 - 14:49(Nhạc nền Jeopardy)
-
14:50 - 14:51Chicago.
-
14:51 - 14:52Hai người chơi con người đoán đúng.
-
14:53 - 14:57Ngược lại, Watson lại trả lời "Toronto" --
-
14:57 - 14:59cho một phân mục thành phố Mỹ!
-
15:00 - 15:02Một hệ thống ấn tượng phạm một lỗi
-
15:03 - 15:06mà không một con người nào sẽ mắc phải, ngay cả một học sinh cấp 2.
-
15:07 - 15:10Cỗ máy thông minh của chúng ta đã thất bại
-
15:10 - 15:13theo nhiều cách không hề giống con người,
-
15:13 - 15:16theo những cách chúng ta không ngờ tới và không chuẩn bị cho.
-
15:16 - 15:20Sẽ thật tệ nếu như một người không được nhận vào một công việc mà họ đủ tiêu chuẩn,
-
15:20 - 15:23nhưng nó sẽ còn tệ gấp ba lần nếu như lý do là vì sự tắc nghẽn thông tin
-
15:23 - 15:25trong một thủ tục phụ nào đó.
-
15:25 - 15:27(Cười lớn)
-
15:27 - 15:29Vào tháng 5/2010,
-
15:29 - 15:33một khủng hoảng nhỏ ở Wall Street xảy ra do hệ thống phản hồi
-
15:33 - 15:36trong thuật toán "bán" của Wall Street
-
15:36 - 15:41làm bốc hơi một trị giá 1000 tỉ đô trong 36 phút.
-
15:42 - 15:44Tôi không hề muốn nghĩ đến "lỗi" đó là gì
-
15:44 - 15:48khi nói đến các vũ khí tự phát nguy hiểm.
-
15:50 - 15:54Cho nên vâng, con người luôn thiên vị.
-
15:54 - 15:56Các người đưa ra quyết định và những người gác cổng,
-
15:56 - 15:59trong tòa án, trên báo chí, trong chiến tranh,...
-
15:59 - 16:02họ phạm sai lầm; nhưng đó chính xác là điều tôi muốn nói.
-
16:02 - 16:06Chúng ta không thể trốn tránh những câu hỏi khó.
-
16:07 - 16:10Chúng ta không thể phó thác trách nhiệm của chúng ta cho máy móc.
-
16:11 - 16:15(Vỗ tay)
-
16:17 - 16:22Trí tuệ nhân tạo không cho chúng ta một thẻ "Trốn tránh đạo đức miễn phí"
-
16:23 - 16:26Nhà khoa học dữ liệu Fred Benenson gọi đây là tẩy rửa toán học.
-
16:26 - 16:28Chúng ta cần điều ngược lại.
-
16:28 - 16:33Chúng ta cần nuôi dưỡng các hoài nghi về các thuật toán, các khó khăn và điều tra.
-
16:33 - 16:37Chúng ta cần đảm bảo tính trung thực của các thuật toán,
-
16:37 - 16:39sự rõ ràng ý nghĩa và qua kiểm tra.
-
16:39 - 16:43Chúng ta cần chấp nhận rằng khi đem toán học và tính toán
-
16:43 - 16:46vào các vấn đề phức tạp, nhiều tầng giá trị của con người
-
16:46 - 16:48không hề đem đến tính khách quan;
-
16:48 - 16:52mà ngược lại, sự phức tạp của các vấn đề của con người xâm lấn các thuật toán.
-
16:52 - 16:56Vâng, chúng ta có thể và nên sử dụng tính toán
-
16:56 - 16:58để giúp chúng ta đưa ra các quyết định đúng đắn hơn.
-
16:58 - 17:03Nhưng chúng ta cần chịu trách nhiệm cho các quyết định mang tính đạo đức của chúng ta,
-
17:03 - 17:06và sử dụng thuật toán nội trong khuôn khổ đó,
-
17:06 - 17:11chứ không phải như một phương tiện để từ bỏ và phó thác trách nhiệm của chúng ta
-
17:11 - 17:13cho người khác giữa người với người.
-
17:14 - 17:16Máy móc thông minh tồn tại ở đây.
-
17:16 - 17:20Điều đó có nghĩa là chúng ta cần .... hơn
-
17:20 - 17:22các giá trị nhân bản và đạo đức nhân văn.
-
17:22 - 17:23Xin cám ơn.
-
17:23 - 17:28(Vỗ tay)
- Title:
- Trí tuệ nhân tạo khiến đạo đức con người trở nên quan trọng hơn.
- Speaker:
- Zeynep Tufekci
- Description:
-
Trí tuệ nhân tạo đang ở đây, và chúng ta sử dụng nó để đưa ra những quyết định chủ quan. Nhưng cách thức phức tạp mà TTNT phát triển và hoàn thiện làm cho nó trở nên khó hiểu và thậm chí khó kiểm soát hơn. Trong bài nói chuyện thận trọng này, nhà kỹ thuật xã hội học Zeynep Tufekci giải thích việc các cỗ máy thông minh có thể trở nên như thế nào khi không phù hợp với các thiếu sót của con người - và theo những cách chúng ta không mong đợi hoặc không kịp chuẩn bị trước. "Chúng ta không thể giao phó trách nhiệm của mình vào máy móc", cô nói. "Chúng ta phải giữ chặt hơn các giá trị và đạo đức của con người."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
TED Translators admin approved Vietnamese subtitles for Machine intelligence makes human morals more important | ||
Le Huong accepted Vietnamese subtitles for Machine intelligence makes human morals more important | ||
Le Huong edited Vietnamese subtitles for Machine intelligence makes human morals more important | ||
Le Huong edited Vietnamese subtitles for Machine intelligence makes human morals more important | ||
Mai Tran declined Vietnamese subtitles for Machine intelligence makes human morals more important | ||
Mai Tran edited Vietnamese subtitles for Machine intelligence makes human morals more important | ||
Mai Tran edited Vietnamese subtitles for Machine intelligence makes human morals more important | ||
Mai Tran edited Vietnamese subtitles for Machine intelligence makes human morals more important |