0:00:00.000,0:00:04.482 Vì thế, tôi đã có công việc đầu tiên của mình [br]là một lập trình viên máy tính 0:00:04.482,0:00:06.595 ngay trong những năm học đại học đầu tiên 0:00:06.595,0:00:08.449 về cơ bản, khi vẫn là một thiếu niên 0:00:08.449,0:00:10.621 Không lâu sau khi tôi bắt đầu công việc, 0:00:10.645,0:00:12.655 trong lúc đang viết phần mềm cho công ty, 0:00:12.799,0:00:16.434 thì người quản lý ở đó tiến đến chỗ tôi 0:00:16.458,0:00:17.726 và thì thầm vào tai tôi 0:00:18.229,0:00:21.090 "Hắn có phát hiện nếu tôi nói dối không?" 0:00:21.806,0:00:23.882 Không có một ai khác trong phòng cả. 0:00:24.781,0:00:29.501 "Ai có thể nhận ra anh đang nói dối?"[br]"Và tại sao ta phải nói thầm?" 0:00:29.501,0:00:33.596 Ông quản lý chỉ tay vào chiếc máy tính [br]trong phòng. 0:00:33.596,0:00:36.493 "Hắn có phát hiện nếu tôi nói dối không?" 0:00:37.613,0:00:41.975 Vâng, ông quản lý này đang ngoại tình[br]với cô tiếp tân. 0:00:41.999,0:00:43.111 ( Cười) 0:00:43.135,0:00:44.901 Và tôi vẫn chỉ là một đứa oắt con. 0:00:45.447,0:00:47.466 nên tôi nói thầm lại với anh ta, 0:00:47.490,0:00:51.114 " Có chứ, nó biết khi nào [br]ông nói dối đấy." 0:00:51.138,0:00:52.944 (Cười) 0:00:52.968,0:00:55.891 Vâng, tôi cười nhưng thực ra[br]là cười bản thân. 0:00:55.915,0:00:59.183 Ngày nay, có những hệ thống máy tính 0:00:59.207,0:01:02.755 có thể nhận diện trạng thái cảm xúc, [br]ngay cả việc nói dối 0:01:02.779,0:01:04.823 thông qua phân tích nhân diện. 0:01:05.248,0:01:09.401 Các nhà quảng cáo và thậm chí cả [br]chính quyền rất hứng thú với điều này. 0:01:10.319,0:01:12.181 Tôi đã trở thành 1 lập trình viên 0:01:12.205,0:01:15.318 vì tôi từng là đứa trẻ say mê Toán và [br]Khoa học. 0:01:15.942,0:01:19.050 Nhưng khoảng thời gian đó, tôi cũng học [br]về vũ khí hạt nhân. 0:01:19.074,0:01:22.026 và tôi trở nên rất quan ngại về vấn đề [br]đạo đức của khoa học. 0:01:22.050,0:01:23.254 Tôi đã rất bối rối. 0:01:23.278,0:01:25.919 Tuy nhiên, do hoàn cảnh gia đình, 0:01:25.943,0:01:29.241 tôi cần phải bắt đầu làm việc [br]càng sớm càng tốt. 0:01:29.265,0:01:32.564 Vì vậy nên tôi nói với bản thân,[br]này, hãy chọn một ngành kỹ thuật 0:01:32.588,0:01:34.384 giúp tôi có thể dễ dàng kiếm việc 0:01:34.408,0:01:38.426 mà lại không phải quan tâm đến những [br]câu hỏi đạo đức phiền phức. 0:01:39.022,0:01:40.551 Vì vậy nên tôi chọn máy tính. 0:01:40.575,0:01:41.679 (Cười lớn) 0:01:41.703,0:01:45.113 Vậy đấy! haha[br]Tôi cười vì chính mình! 0:01:45.137,0:01:47.891 Ngày nay, các nhà khoa học máy tính[br]xây dựng hệ điều hành 0:01:47.915,0:01:52.124 có thể điều khiển thứ mà một tỉ người [br]xem hằng ngày. 0:01:53.052,0:01:56.874 Họ đang phát triển những chiếc xe có thể [br]tự quyết định nó sẽ cán qua ai. 0:01:57.707,0:02:00.920 Họ thậm chí còn đang tạo ra nhiều [br]máy móc, vũ khí, 0:02:00.944,0:02:03.229 có thể tiêu diệt loài người [br]trong chiến tranh. 0:02:03.253,0:02:06.024 Chung quy lại đều liên quan tới đạo đức 0:02:07.183,0:02:09.241 Trí tuệ nhân tạo là đây. 0:02:09.823,0:02:13.297 Ta không chỉ sử dụng những thuật toán để [br]đưa ra mọi quyết định 0:02:13.321,0:02:15.207 mà còn cả những chuyện chưa từng xảy ra 0:02:15.231,0:02:20.403 Ta đưa cho máy móc những câu hỏi không có[br]một đáp án đúng nào cả, 0:02:20.427,0:02:21.629 những câu hỏi chủ quan 0:02:21.653,0:02:23.978 những câu hỏi mở và mang tính giả định. 0:02:24.002,0:02:25.760 Chúng ta hỏi những câu hỏi như, 0:02:25.784,0:02:27.434 "Công ty nên thuê ai?" 0:02:28.096,0:02:30.855 "Những gì bạn nên được biết từ bạn bè?" 0:02:30.879,0:02:33.145 "Phạm nhân nào có khả năng tái phạm cao?" 0:02:33.514,0:02:36.568 "Dòng tin hay bộ phim nào nên được [br]đề xuất cho mọi người?" 0:02:36.592,0:02:39.964 Nhìn xem, đúng, chúng ta đã sử dụng [br]máy tính một thời gian dài, 0:02:39.988,0:02:41.505 nhưng lần này thì khác. 0:02:41.529,0:02:43.596 Đây là một bước ngoặt lịch sử, 0:02:43.620,0:02:48.957 vì ta không thể trông cậy vào sự tính [br]toán cho các quyết định chủ quan thế này 0:02:48.981,0:02:54.401 như cái cách chúng ta dựa vào nó [br]để lái máy bay, xây cầu, 0:02:54.425,0:02:55.684 để đi lên mặt trăng. 0:02:56.449,0:02:59.708 Máy bay liệu có an toàn hơn? [br]Cây cầu có lắc lư và sập không? 0:02:59.732,0:03:04.230 Thế đấy, chúng ta đều có một chuẩn mực [br]thống nhất và khá rõ ràng, 0:03:04.254,0:03:06.493 và ta có những quy luật của tự nhiên [br]hướng dẫn. 0:03:06.517,0:03:09.911 Chúng ta không hề có những điểm tựa hay [br]tiêu chuẩn như vậy 0:03:09.935,0:03:13.898 cho các quyết định về những vấn đề [br]phức tạp của con người. 0:03:13.922,0:03:18.159 Để làm vấn đề phức tạp hơn, phần mềm [br]của ta ngày càng trở nên hùng mạnh, 0:03:18.183,0:03:21.956 nhưng nó đồng thời trở nên khó hiểu[br]và phức tạp hơn. 0:03:22.542,0:03:24.582 Gần đây, trong thập kỷ gần đây, 0:03:24.606,0:03:27.335 các thuật toán phức tạp đã đạt được [br]những bước tiến lớn. 0:03:27.359,0:03:29.349 Chúng có thể nhận diện khuôn mặt người. 0:03:29.985,0:03:32.040 Chúng có thể giải mã được chữ viết tay. 0:03:32.436,0:03:34.502 Chúng có thể nhận biết thẻ tín dụng giả 0:03:34.526,0:03:35.715 và chặn tin rác 0:03:35.739,0:03:37.776 và chúng có thể phiên dịch ngôn ngữ. 0:03:37.800,0:03:40.374 Chúng có thể phát hiện khối u trong [br]phim chụp y khoa. 0:03:40.398,0:03:42.603 Chúng đánh bại con người [br]trong cờ vua và Go. 0:03:43.264,0:03:47.768 Đa phần những tiến bộ này đến từ [br]phương pháp "máy tính tự học" 0:03:48.175,0:03:51.362 Máy tính tự học khác với lập trình [br]truyền thống, 0:03:51.386,0:03:54.971 ở chỗ bạn đưa ra những hướng dẫn [br]cụ thể, chính xác, kỹ lưỡng cho máy tính. 0:03:55.378,0:03:59.560 Đúng hơn là bạn cho một đống dữ liệu [br]vào hệ thống, 0:03:59.584,0:04:01.240 bao gồm dữ liệu chưa được [br]sắp xếp, 0:04:01.264,0:04:03.542 như loại chúng ta tạo ra trong thế giới số 0:04:03.566,0:04:06.296 Và hệ thống học bằng cách lướt qua [br]các dữ liệu này. 0:04:06.669,0:04:08.195 Và quan trọng hơn, 0:04:08.219,0:04:12.599 những hệ thống này không hoạt động dựa [br]trên logic một-câu-trả-lời-duy-nhất. 0:04:12.623,0:04:15.582 Chúng không cho ra câu trả lời đơn giản mà[br]có tính xác suất hơn 0:04:15.606,0:04:19.089 "Cái này có nhiều khả năng là cái bạn [br]đang muốn tìm." 0:04:20.023,0:04:23.093 Lợi thế ở đây là: biện pháp này [br]rất hiệu quả. 0:04:23.117,0:04:25.193 Trưởng hệ thống Al của Google gọi nó là, 0:04:25.217,0:04:27.414 "sự hiệu quả bất hợp lý của dữ liệu." 0:04:27.791,0:04:29.144 Bất lợi ở đây là, 0:04:29.738,0:04:32.809 ta không thật sự hiểu cái mà hệ thống [br]học được. 0:04:32.833,0:04:34.420 Thực tế, đó là sức mạnh của nó. 0:04:34.946,0:04:38.744 Cái này khác với việc đưa ra hướng dẫn [br]cho máy tính; 0:04:39.200,0:04:43.264 Nó giống hơn với việc huấn luyện một loại [br]chó cưng bằng máy 0:04:43.288,0:04:45.659 mà chúng ta không thật sự hiểu [br]hay kiểm soát. 0:04:46.362,0:04:47.913 Vậy nên đó là vấn đề của ta. 0:04:48.427,0:04:52.689 Nó là vấn đề khi mà hệ thống [br]trí tuệ nhân tạo hiểu sai sự việc. 0:04:52.713,0:04:56.253 Nó cũng là vấn đề khi nó hiểu đúng [br]sự việc, 0:04:56.277,0:04:59.905 bởi vì chúng ta không thể phân biệt được [br]khi nó là một vấn đề chủ quan. 0:04:59.929,0:05:02.268 Chúng ta không biết được vật này [br]đang nghĩ gì. 0:05:03.493,0:05:07.176 Thử xem xét một thuật toán thuê -- 0:05:08.123,0:05:12.434 một hệ thống dùng để thuê nhân viên, [br]dựa vào hệ thống máy móc tự học. 0:05:13.052,0:05:16.631 Một hệ thống như vậy sẽ được đào tạo [br]dựa trên dự liệu của nhân viên cũ 0:05:16.655,0:05:19.246 và được hướng dẫn để tìm và thuê 0:05:19.270,0:05:22.308 những người tương tự với nhân viên [br]xuất sắc hiện có ở công ty. 0:05:22.814,0:05:23.967 Nghe có vẻ tốt đấy. 0:05:23.991,0:05:25.990 Tôi từng tham dự một hội nghị 0:05:26.014,0:05:29.139 bao gồm quản lý nhân sự và các lãnh đạo, 0:05:29.163,0:05:30.369 những nhân vật cấp cao, 0:05:30.393,0:05:31.952 dùng hệ thống như vậy khi thuê 0:05:31.976,0:05:33.622 Họ cực kỳ phấn khích về việc đó. 0:05:33.646,0:05:38.299 Họ nghĩ rằng hệ thống này sẽ giúp việc [br]thuê người khách quan và ít thiên vị hơn, 0:05:38.323,0:05:41.323 và cho phụ nữ và người thiểu số [br]một cơ hội tốt hơn 0:05:41.347,0:05:43.535 chống lại những người quản lý thiên vị. 0:05:43.559,0:05:46.402 Đúng là người thuê người thường [br]có sự thiên vị. 0:05:47.099,0:05:48.284 Tôi biết vậy. 0:05:48.308,0:05:51.313 Trong những việc đầu tiên của tôi với [br]vai trò lập trình viên, 0:05:51.337,0:05:55.205 quản lý trực tiếp của tôi thỉnh thoảng [br]sẽ đến chỗ tôi 0:05:55.229,0:05:58.982 rất sớm vào buổi sáng hoặc rất muộn [br]vào buổi chiều, 0:05:59.006,0:06:02.068 để nói, "Zeynep, cùng đi ăn trưa nào!" 0:06:02.724,0:06:04.891 Tôi bị bối rối bởi giờ giấc [br]thất thường. 0:06:04.915,0:06:07.044 Bây giờ là 4g chiều mà ăn trưa ư? 0:06:07.068,0:06:10.162 Tôi thì thiếu tiền, mà bữa trưa miễn phí. [br]Cho nên tôi luôn đi 0:06:10.618,0:06:12.685 Sau đó tôi nhận ra chuyện gì [br]đang diễn ra. 0:06:12.709,0:06:17.255 Những quản lý trực tiếp của tôi chưa hề [br]thông báo với cấp trên 0:06:17.279,0:06:20.392 rằng lập trình viên họ thuê cho việc [br]quan trọng là một thiếu nữ 0:06:20.416,0:06:24.346 mặc quần jeans và đi giày thể thao đi làm. 0:06:25.174,0:06:27.376 Tôi làm tốt việc, chỉ ăn mặc không đúng 0:06:27.400,0:06:29.099 và sai độ tuổi và giới tính. 0:06:29.123,0:06:32.469 Cho nên việc tuyển chọn không dựa theo [br]giới tính và sắc tộc 0:06:32.493,0:06:34.358 rõ ràng tốt cho tôi. 0:06:35.031,0:06:38.372 Nhưng với những hệ thống này, nó [br]phức tạp hơn, và đây là lý do: 0:06:38.968,0:06:44.759 Bây giờ, hệ thống tính toán có thể đưa ra [br]đủ mọi loại kết luận vể bạn 0:06:44.783,0:06:46.655 dựa trên những vết tích số của bạn, 0:06:46.679,0:06:49.012 ngay cả khi bạn không hề tiết lộ [br]những việc đó. 0:06:49.506,0:06:52.433 Chúng có thể đưa ra kết luận về xu hướng [br]tình dục của bạn, 0:06:52.994,0:06:54.300 tính cách bạn, 0:06:54.859,0:06:56.232 quan điểm chính trị của bạn. 0:06:56.830,0:07:00.515 Chúng có sức mạnh dự đoán với [br]sự chuẩn xác cao. 0:07:01.362,0:07:03.940 Nhớ rằng - ngay cả những việc bạn [br]không hề tiết lộ. 0:07:03.964,0:07:05.555 Đây chỉ mới là việc suy luận 0:07:05.579,0:07:08.840 Tôi có một người bạn thiết kế những [br]hệ thống tính toán như vậy 0:07:08.864,0:07:12.505 để dự đoán khả năng mắc bệnh trầm cảm [br]lâm sàng hoặc hậu thai sản 0:07:12.529,0:07:13.945 từ những dự liệu truyền thông xã hội. 0:07:14.676,0:07:16.103 Kết quả thật đáng ấn tượng. 0:07:16.492,0:07:19.849 Hệ thống của cô ấy có thể dự đoán được [br]khả năng mắc trầm cảm 0:07:19.873,0:07:23.776 hàng tháng trước khi các triệu chứng [br]xuất hiện -- 0:07:23.800,0:07:25.173 hàng tháng trước. 0:07:25.197,0:07:27.443 Không hề có triệu chứng, nhưng [br]lại có dự đoán. 0:07:27.467,0:07:32.279 Cô mong rằng nó được sử dụng cho việc [br]can thiệp sớm. Tuyệt vời! 0:07:32.911,0:07:34.951 Nhưng giờ đặt nó vào viễn cảnh [br]tuyển chọn. 0:07:36.027,0:07:39.073 Ở buổi họp quản lý nhân sự này, 0:07:39.097,0:07:43.806 tôi tiếp cận một quản lý cấp cao của [br]một công ty lớn, 0:07:43.830,0:07:48.408 và nói rằng, "Này, nếu như, ngoài sự [br]hiểu biết của bạn, 0:07:48.432,0:07:54.981 hệ thống của bạn đang gạt bỏ người có thể [br]bị trầm cảm cao trong tương lai? 0:07:55.761,0:07:59.137 Hiện tại họ không hề bị trầm cảm, chỉ là [br]trong tương lai có khả năng. 0:07:59.923,0:08:03.329 Nếu như hệ thống loại bỏ những phụ nữ [br]có khả năng mang thai 0:08:03.353,0:08:05.939 trong một vài năm tới nhưng hiện [br]không mang thai? 0:08:06.844,0:08:12.480 Nếu nó chọn những người có tính hung hăng [br]vì đó là bản chất làm việc ở đây?" 0:08:13.173,0:08:15.864 Bạn không thể thấy điều này qua việc [br]xem tỉ lệ giới tính 0:08:15.888,0:08:17.390 Điều đó có thể được [br]cân bằng. 0:08:17.414,0:08:20.971 Và vì đây là máy móc tự học, chứ [br]không phải mã hóa truyền thống, 0:08:20.995,0:08:25.902 không hề có một biến số nào có tên [br]"có khả năng trầm cảm cao", 0:08:25.926,0:08:27.759 "có khả năng mang thai cao", 0:08:27.783,0:08:29.517 "tính cách hung hăng". 0:08:29.995,0:08:33.674 Bạn không chỉ không biết hệ thống của bạn [br]lựa chọn dựa trên tiêu chí gì, 0:08:33.698,0:08:36.021 bạn còn không biết phải bắt đầu [br]tìm từ đâu. 0:08:36.045,0:08:37.291 Nó là một hộp đen. 0:08:37.315,0:08:40.122 Nó có khả năng tiên đoán, nhưng bạn [br]không hiểu nó. 0:08:40.486,0:08:42.855 Tôi hỏi cô, "Bạn có chốt an toàn nào 0:08:42.879,0:08:46.552 để đảm bảo rằng hộp đen của bạn [br]không làm gì mờ ám?" 0:08:48.863,0:08:52.741 Cô ấy nhìn tôi như thể tôi vừa đạp lên [br]10 cái đuôi chó. 0:08:52.765,0:08:54.013 (Cười lớn) 0:08:54.037,0:08:56.078 Cô nhìn tôi chằm chằm và nói, 0:08:56.556,0:09:00.889 "Tôi không muốn nghe thêm một từ nào [br]về vấn đề này nữa." 0:09:01.458,0:09:03.492 Và cô ấy bỏ đi. 0:09:04.064,0:09:05.550 Cho bạn biết- cô ấy không thô lỗ 0:09:05.574,0:09:11.882 Rõ ràng rằng: điều tôi không biết không phải [br]là vấn đề của tôi, đi đi, ánh nhìn chết người. 0:09:11.906,0:09:13.152 (Cười lớn) 0:09:13.862,0:09:17.701 Một hệ thống như vậy có thể ít thiên vị hơn 0:09:17.725,0:09:19.828 những người quản lý theo cách nào đó. 0:09:19.852,0:09:21.998 Và nó có khả năng ra quyết định tài chính. 0:09:22.573,0:09:24.223 Nhưng nó cũng có thể dẫn đến 0:09:24.247,0:09:28.995 một thị trường việc làm ổn định nhưng lén lút cô lập 0:09:29.019,0:09:31.312 những người có khả năng trầm cảm cao. 0:09:31.753,0:09:34.349 Liệu đây có phải là xã hội mà chúng ta muốn gầy dựng, 0:09:34.373,0:09:36.658 khi mà chúng ta còn thậm chí không biết chúng ta làm vậy, 0:09:36.682,0:09:40.646 bởi vì chúng ta phó thác việc ra quyết định cho những cỗ máy mà chính chúng ta cũng không hiểu rõ? 0:09:41.265,0:09:42.723 Một vấn đề khác là: 0:09:43.314,0:09:47.766 những hệ thống này được huấn luyện dựa trên những dữ liệu lấy từ các hành động của chúng ta, 0:09:47.790,0:09:49.606 dấu ấn của con người. 0:09:50.188,0:09:53.996 Chúng có thể phản ánh những thiên vị của chúng ta, 0:09:54.020,0:09:57.613 và những hệ thống này có thể bắt nhịp những thiên vị của chúng ta 0:09:57.637,0:09:58.950 và phóng đại chúng 0:09:58.974,0:10:00.392 và thể hiện chúng lại cho chúng ta, 0:10:00.416,0:10:01.878 trong khi chúng ta lại tự bảo bản thân, 0:10:01.902,0:10:05.019 "Chúng ta đang tính toán một cách trung lập, khách quan." 0:10:06.314,0:10:08.991 Các nhà nghiên cứu tìm ra rằng trên Google, 0:10:10.134,0:10:15.447 phụ nữ ít được cho thấy những thông cáo việc làm lương cao hơn đàn ông. 0:10:16.463,0:10:18.993 Và các tìm kiếm tên của người Mỹ gốc Phi 0:10:19.017,0:10:23.723 sẽ dễ dẫn đến những cảnh báo tiền án tội phạm hơn, 0:10:23.747,0:10:25.314 ngay cả khi người đó không hề phạm tội. 0:10:26.693,0:10:30.242 Những thiên vị tiềm ẩn và những thuật toán hộp-đen như vậy 0:10:30.266,0:10:34.239 được các nhà nghiên cứu thỉnh thoảng tìm ra nhưng thỉnh thoảng chúng ta không hề biết, 0:10:34.263,0:10:36.924 có thể có các hậu quả nặng nề. 0:10:37.958,0:10:42.117 Ở Wisconsin, một bị cáo bị kết án sáu năm tù 0:10:42.141,0:10:43.496 vì trốn tránh cảnh sát. 0:10:44.824,0:10:46.010 Bạn có thể không biết rằng, 0:10:46.034,0:10:50.032 các thuật toán ngày càng được sử dụng trong việc ân xá và kết án nhiều hơn. 0:10:50.056,0:10:53.011 Ông ta muốn biết: Kết quả này được tính toán như thế nào? 0:10:53.795,0:10:55.460 Nó là một hộp đen thương hiệu. 0:10:55.484,0:10:59.689 Công ty từ chối để cho thuật toán của mình bị chất vấn ở các phiên tòa mở. 0:11:00.396,0:11:05.928 Nhưng ProPublica, một tổ chức điều tra phi lợi nhuận, đã kiểm tra chính thuật toán 0:11:05.952,0:11:07.968 họ dùng để tra cứu các dữ liệu công cộng, 0:11:07.992,0:11:10.308 và nhận ra rằng các kết quả của chúng rất thiên vị 0:11:10.332,0:11:13.961 và khả năng dự đoán của nó rất ảm đạm, chẳng hơn đoán mò bao nhiêu, 0:11:13.985,0:11:18.401 và nó kết luận sai các bị cáo da đen có thể thành phạm nhân tương lai 0:11:18.425,0:11:22.320 nhiều gấp đôi bị cáo da trắng. 0:11:23.891,0:11:25.455 Thử nhìn vào vụ án này: 0:11:26.103,0:11:29.955 Người phụ nữ này đón chị đỡ đầu của bà trễ 0:11:29.979,0:11:32.054 từ một trường ở quận Broward, Florida, 0:11:32.757,0:11:35.113 chạy xuống phố với một người bạn của bà. 0:11:35.137,0:11:39.236 Họ nhìn thấy một chiếc xe đạp trẻ em không khóa và một chiếc xe máy trên hiên nhà 0:11:39.260,0:11:40.892 và họ nghịch ngợm nhảy lên nó. 0:11:40.916,0:11:43.515 Trong khi họ đang tăng tốc, một người phụ nữ chạy ra và la lên rằng, 0:11:43.539,0:11:45.744 "Hey, đó là xe đạp của con tôi!" 0:11:45.768,0:11:49.062 Họ quăng chiếc xe lại, chạy đi, nhưng họ bị bắt. 0:11:49.086,0:11:52.723 Cô sai, cô ngu ngốc, nhưng cô vẫn chỉ mới 18 tuổi. 0:11:52.747,0:11:55.291 Cô đã phạm một vài tội vị thành niên. 0:11:55.808,0:12:00.993 Trong khi đó, một người đàn ông bị bắt vì trộm đồ ở Home Depot -- 0:12:01.017,0:12:03.941 một mớ đồ trị giá $85, một tội ăn cắp vặt. 0:12:04.766,0:12:09.325 Nhưng ông có hai tiền án cướp có vũ khí. 0:12:09.955,0:12:13.437 Nhưng thuật toán lại chấm điểm cô ấy có khả năng phạm tội cao hơn ông ta. 0:12:14.746,0:12:18.620 Hai năm sau, ProPublica nhận thấy rằng cô ấy không hề tái phạm. 0:12:18.644,0:12:21.194 Nhưng cô ấy chỉ khó kiếm được việc làm với tiền án như v6a5y. 0:12:21.218,0:12:23.294 Ngược lại, ông ta tái phậm 0:12:23.318,0:12:27.154 và hiện đang bị ở tù tám năm cho tội ác sau này. 0:12:28.088,0:12:31.457 Rõ ràng, chúng ta cần kiểm tra các hộp đen của chúng ta 0:12:31.481,0:12:34.096 và không để chúng có những sức mạnh không kiểm soát này. 0:12:34.120,0:12:36.999 (Vỗ tay) 0:12:38.087,0:12:42.329 Kiểm tra rất tuyệt vời và quan trọng, nhưng chúng không giải quyết hết các vấn đề của chúng ta. 0:12:42.353,0:12:45.101 Ví dụ như thuật toán trang chủ hùng mạnh của Facebook -- 0:12:45.125,0:12:49.968 bạn biết đấy, cái đánh giá mọi thứ và quyết định sẽ cho bạn xem cái gì 0:12:49.992,0:12:52.276 từ bạn bè và những trang bạn theo dõi. 0:12:52.898,0:12:55.173 Liệu bạn có nên được cho xem thêm một bức ảnh trẻ con nữa? 0:12:55.197,0:12:56.393 (Cười lớn) 0:12:56.417,0:12:59.013 Một thông điệp u tối từ một người quen? 0:12:59.449,0:13:01.305 Một mẩu tin quan trọng nhưng phức tạp? 0:13:01.329,0:13:02.811 Không hề có câu trả lời đúng nào. 0:13:02.835,0:13:05.494 Facebook tối đa hóa các tương tác trên trang chủ: 0:13:05.518,0:13:06.933 thích, chia sẻ, bình luận. 0:13:08.168,0:13:10.864 Vào tháng 8/2014, 0:13:10.888,0:13:13.550 biểu tình diễn ra ở Ferguson, Missouri, 0:13:13.574,0:13:17.991 sau vụ thảm sát một thiếu niên Mỹ Phi bởi một cảnh sát da trắng, 0:13:18.015,0:13:19.585 dưới điều kiện mờ ám. 0:13:19.974,0:13:21.981 Tin tức về các buổi biểu tình tràn ngập 0:13:22.005,0:13:24.690 trên trang chủ Twitter không được thanh lọc bởi thuật toán, 0:13:24.714,0:13:26.664 nhưng không hề hiện ra trên Facebook của tôi. 0:13:27.182,0:13:28.916 Liệu đó có phải do các bạn trên Facebook của tôi? 0:13:28.940,0:13:30.972 Tôi tắt thuật toán của Facebook, 0:13:31.472,0:13:34.320 và rất khó để làm vậy vì Facebook luôn muốn bạn 0:13:34.344,0:13:36.380 ở dưới sự kiểm soát của thuật toán, 0:13:36.404,0:13:38.642 và thấy rằng bạn bè tôi đang nói về vấn đề đó. 0:13:38.666,0:13:41.175 Chỉ là do thuật toán không cho tôi thấy điều đó. 0:13:41.199,0:13:44.241 Tôi đi tìm hiểu và phát hiện ra rằng đây là một vấn đề phổ biến. 0:13:44.265,0:13:48.078 Câu chuyện ở Ferguson không hề thân thiện với thuật toán. 0:13:48.102,0:13:49.273 Nó không được "yêu thích". 0:13:49.297,0:13:50.849 Ai sẽ bấm "thích"? 0:13:51.500,0:13:53.706 Nó không hề đơn giản để bình luận. 0:13:53.730,0:13:55.101 Thiếu các lượt yêu thích và bình luận, 0:13:55.125,0:13:58.417 thuật toán lại hiển thị nó cho càng ít người, 0:13:58.441,0:13:59.983 cho nên chúng ta không hề thấy nó. 0:14:00.946,0:14:02.174 Thay vào đó, trong tuần đó, 0:14:02.198,0:14:04.496 Thuật toán của Facebook lại làm nổi bật mẩu tin 0:14:04.520,0:14:06.746 về ALS Thử Thách Chậu Đá. 0:14:06.770,0:14:10.512 Một động cơ cao cả; đổ chậu nước đá, quyên góp từ thiện, tốt thôi. 0:14:10.536,0:14:12.440 Nhưng nó rất được thuật toán yêu thích. 0:14:13.219,0:14:15.832 Cỗ máy đưa ra quyết định này cho chúng ta. 0:14:15.856,0:14:19.353 Một cuộc hội thoại quan trọng nhưng khó khăn 0:14:19.377,0:14:20.932 có thể vừa bị giết chết, 0:14:20.956,0:14:23.652 nếu như Facebook là cổng thông tin duy nhất. 0:14:24.117,0:14:27.914 Cuối cùng, các hệ thống này có thể phạm lỗi 0:14:27.938,0:14:30.674 theo nhiều cách không giống gì hệ thống con người. 0:14:30.698,0:14:33.620 Quý vị còn nhớ Watson, hệ thống máy móc thông minh của IBM 0:14:33.644,0:14:36.772 quét sạch các người thi con người trong trò Jeopardy? 0:14:37.131,0:14:38.559 Nó là một người chơi tuyệt vời. 0:14:38.583,0:14:42.152 Nhưng ở màn cuối của Jeopardy, khi được hỏi: 0:14:42.659,0:14:45.591 "Sân bay lớn nhất của thành phố này được đặt tên theo một anh hùng Thế Chiến II, 0:14:45.615,0:14:47.867 sân bay lớn nhì được đặt tên theo một trận đánh trong Thế Chiến II." 0:14:47.891,0:14:49.269 (Nhạc nền Jeopardy) 0:14:49.582,0:14:50.764 Chicago. 0:14:50.788,0:14:52.158 Hai người chơi con người đoán đúng. 0:14:52.697,0:14:57.045 Ngược lại, Watson lại trả lời "Toronto" -- 0:14:57.069,0:14:58.887 cho một phân mục thành phố Mỹ! 0:14:59.596,0:15:02.497 Một hệ thống ấn tượng phạm một lỗi 0:15:02.521,0:15:06.172 mà không một con người nào sẽ mắc phải, ngay cả một học sinh cấp 2. 0:15:06.823,0:15:09.932 Cỗ máy thông minh của chúng ta đã thất bại 0:15:09.956,0:15:13.056 theo nhiều cách không hề giống con người, 0:15:13.080,0:15:16.030 theo những cách chúng ta không ngờ tới và không chuẩn bị cho. 0:15:16.054,0:15:19.692 Sẽ thật tệ nếu như một người không được nhận vào một công việc mà họ đủ tiêu chuẩn, 0:15:19.716,0:15:23.443 nhưng nó sẽ còn tệ gấp ba lần nếu như lý do là vì sự tắc nghẽn thông tin 0:15:23.467,0:15:24.899 trong một thủ tục phụ nào đó. 0:15:24.923,0:15:26.502 (Cười lớn) 0:15:26.526,0:15:29.312 Vào tháng 5/2010, 0:15:29.336,0:15:33.380 một khủng hoảng nhỏ ở Wall Street xảy ra do hệ thống phản hồi 0:15:33.404,0:15:36.432 trong thuật toán "bán" của Wall Street 0:15:36.456,0:15:40.640 làm bốc hơi một trị giá 1000 tỉ đô trong 36 phút. 0:15:41.722,0:15:43.909 Tôi không hề muốn nghĩ đến "lỗi" đó là gì 0:15:43.933,0:15:47.522 khi nói đến các vũ khí tự phát nguy hiểm. 0:15:49.894,0:15:53.684 Cho nên vâng, con người luôn thiên vị. 0:15:53.708,0:15:55.884 Các người đưa ra quyết định và những người gác cổng, 0:15:55.908,0:15:59.401 trong tòa án, trên báo chí, trong chiến tranh,... 0:15:59.425,0:16:02.463 họ phạm sai lầm; nhưng đó chính xác là điều tôi muốn nói. 0:16:02.487,0:16:06.008 Chúng ta không thể trốn tránh những câu hỏi khó. 0:16:06.596,0:16:10.112 Chúng ta không thể phó thác trách nhiệm của chúng ta cho máy móc. 0:16:10.676,0:16:14.884 (Vỗ tay) 0:16:17.089,0:16:21.536 Trí tuệ nhân tạo không cho chúng ta một thẻ "Trốn tránh đạo đức miễn phí" 0:16:22.742,0:16:26.123 Nhà khoa học dữ liệu Fred Benenson gọi đây là tẩy rửa toán học. 0:16:26.147,0:16:27.536 Chúng ta cần điều ngược lại. 0:16:27.560,0:16:32.948 Chúng ta cần nuôi dưỡng các hoài nghi về các thuật toán, các khó khăn và điều tra. 0:16:33.380,0:16:36.578 Chúng ta cần đảm bảo tính trung thực của các thuật toán, 0:16:36.602,0:16:39.047 sự rõ ràng ý nghĩa và qua kiểm tra. 0:16:39.380,0:16:42.614 Chúng ta cần chấp nhận rằng khi đem toán học và tính toán 0:16:42.638,0:16:45.608 vào các vấn đề phức tạp, nhiều tầng giá trị của con người 0:16:45.632,0:16:48.016 không hề đem đến tính khách quan; 0:16:48.040,0:16:51.673 mà ngược lại, sự phức tạp của các vấn đề của con người xâm lấn các thuật toán. 0:16:52.148,0:16:55.635 Vâng, chúng ta có thể và nên sử dụng tính toán 0:16:55.659,0:16:57.673 để giúp chúng ta đưa ra các quyết định đúng đắn hơn. 0:16:57.697,0:17:03.029 Nhưng chúng ta cần chịu trách nhiệm cho các quyết định mang tính đạo đức của chúng ta, 0:17:03.053,0:17:05.871 và sử dụng thuật toán nội trong khuôn khổ đó, 0:17:05.895,0:17:10.830 chứ không phải như một phương tiện để từ bỏ và phó thác trách nhiệm của chúng ta 0:17:10.854,0:17:13.308 cho người khác giữa người với người. 0:17:13.807,0:17:16.416 Máy móc thông minh tồn tại ở đây. 0:17:16.440,0:17:19.861 Điều đó có nghĩa là chúng ta cần .... hơn 0:17:19.885,0:17:22.032 các giá trị nhân bản và đạo đức nhân văn. 0:17:22.056,0:17:23.210 Xin cám ơn. 0:17:23.234,0:17:28.254 (Vỗ tay)