Vì thế, tôi đã có công việc đầu tiên của mình
là một lập trình viên máy tính
ngay trong những năm học đại học đầu tiên
về cơ bản, khi vẫn là một thiếu niên
Không lâu sau khi tôi bắt đầu công việc,
trong lúc đang viết phần mềm cho công ty,
thì người quản lý ở đó tiến đến chỗ tôi
và thì thầm vào tai tôi
"Hắn có phát hiện nếu tôi nói dối không?"
Không có một ai khác trong phòng cả.
"Ai có thể nhận ra anh đang nói dối?"
"Và tại sao ta phải nói thầm?"
Ông quản lý chỉ tay vào chiếc máy tính
trong phòng.
"Hắn có phát hiện nếu tôi nói dối không?"
Vâng, ông quản lý này đang ngoại tình
với cô tiếp tân.
( Cười)
Và tôi vẫn chỉ là một đứa oắt con.
nên tôi nói thầm lại với anh ta,
" Có chứ, nó biết khi nào
ông nói dối đấy."
(Cười)
Vâng, tôi cười nhưng thực ra
là cười bản thân.
Ngày nay, có những hệ thống máy tính
có thể nhận diện trạng thái cảm xúc,
ngay cả việc nói dối
thông qua phân tích nhân diện.
Các nhà quảng cáo và thậm chí cả
chính quyền rất hứng thú với điều này.
Tôi đã trở thành 1 lập trình viên
vì tôi từng là đứa trẻ say mê Toán và
Khoa học.
Nhưng khoảng thời gian đó, tôi cũng học
về vũ khí hạt nhân.
và tôi trở nên rất quan ngại về vấn đề
đạo đức của khoa học.
Tôi đã rất bối rối.
Tuy nhiên, do hoàn cảnh gia đình,
tôi cần phải bắt đầu làm việc
càng sớm càng tốt.
Vì vậy nên tôi nói với bản thân,
này, hãy chọn một ngành kỹ thuật
giúp tôi có thể dễ dàng kiếm việc
mà lại không phải quan tâm đến những
câu hỏi đạo đức phiền phức.
Vì vậy nên tôi chọn máy tính.
(Cười lớn)
Vậy đấy! haha
Tôi cười vì chính mình!
Ngày nay, các nhà khoa học máy tính
xây dựng hệ điều hành
có thể điều khiển thứ mà một tỉ người
xem hằng ngày.
Họ đang phát triển những chiếc xe có thể
tự quyết định nó sẽ cán qua ai.
Họ thậm chí còn đang tạo ra nhiều
máy móc, vũ khí,
có thể tiêu diệt loài người
trong chiến tranh.
Chung quy lại đều liên quan tới đạo đức
Trí tuệ nhân tạo là đây.
Ta không chỉ sử dụng những thuật toán để
đưa ra mọi quyết định
mà còn cả những chuyện chưa từng xảy ra
Ta đưa cho máy móc những câu hỏi không có
một đáp án đúng nào cả,
những câu hỏi chủ quan
những câu hỏi mở và mang tính giả định.
Chúng ta hỏi những câu hỏi như,
"Công ty nên thuê ai?"
"Những gì bạn nên được biết từ bạn bè?"
"Phạm nhân nào có khả năng tái phạm cao?"
"Dòng tin hay bộ phim nào nên được
đề xuất cho mọi người?"
Nhìn xem, đúng, chúng ta đã sử dụng
máy tính một thời gian dài,
nhưng lần này thì khác.
Đây là một bước ngoặt lịch sử,
vì ta không thể trông cậy vào sự tính
toán cho các quyết định chủ quan thế này
như cái cách chúng ta dựa vào nó
để lái máy bay, xây cầu,
để đi lên mặt trăng.
Máy bay liệu có an toàn hơn?
Cây cầu có lắc lư và sập không?
Thế đấy, chúng ta đều có một chuẩn mực
thống nhất và khá rõ ràng,
và ta có những quy luật của tự nhiên
hướng dẫn.
Chúng ta không hề có những điểm tựa hay
tiêu chuẩn như vậy
cho các quyết định về những vấn đề
phức tạp của con người.
Để làm vấn đề phức tạp hơn, phần mềm
của ta ngày càng trở nên hùng mạnh,
nhưng nó đồng thời trở nên khó hiểu
và phức tạp hơn.
Gần đây, trong thập kỷ gần đây,
các thuật toán phức tạp đã đạt được
những bước tiến lớn.
Chúng có thể nhận diện khuôn mặt người.
Chúng có thể giải mã được chữ viết tay.
Chúng có thể nhận biết thẻ tín dụng giả
và chặn tin rác
và chúng có thể phiên dịch ngôn ngữ.
Chúng có thể phát hiện khối u trong
phim chụp y khoa.
Chúng đánh bại con người
trong cờ vua và Go.
Đa phần những tiến bộ này đến từ
phương pháp "máy tính tự học"
Máy tính tự học khác với lập trình
truyền thống,
ở chỗ bạn đưa ra những hướng dẫn
cụ thể, chính xác, kỹ lưỡng cho máy tính.
Đúng hơn là bạn cho một đống dữ liệu
vào hệ thống,
bao gồm dữ liệu chưa được
sắp xếp,
như loại chúng ta tạo ra trong thế giới số
Và hệ thống học bằng cách lướt qua
các dữ liệu này.
Và quan trọng hơn,
những hệ thống này không hoạt động dựa
trên logic một-câu-trả-lời-duy-nhất.
Chúng không cho ra câu trả lời đơn giản mà
có tính xác suất hơn
"Cái này có nhiều khả năng là cái bạn
đang muốn tìm."
Lợi thế ở đây là: biện pháp này
rất hiệu quả.
Trưởng hệ thống Al của Google gọi nó là,
"sự hiệu quả bất hợp lý của dữ liệu."
Bất lợi ở đây là,
ta không thật sự hiểu cái mà hệ thống
học được.
Thực tế, đó là sức mạnh của nó.
Cái này khác với việc đưa ra hướng dẫn
cho máy tính;
Nó giống hơn với việc huấn luyện một loại
chó cưng bằng máy
mà chúng ta không thật sự hiểu
hay kiểm soát.
Vậy nên đó là vấn đề của ta.
Nó là vấn đề khi mà hệ thống
trí tuệ nhân tạo hiểu sai sự việc.
Nó cũng là vấn đề khi nó hiểu đúng
sự việc,
bởi vì chúng ta không thể phân biệt được
khi nó là một vấn đề chủ quan.
Chúng ta không biết được vật này
đang nghĩ gì.
Thử xem xét một thuật toán thuê --
một hệ thống dùng để thuê nhân viên,
dựa vào hệ thống máy móc tự học.
Một hệ thống như vậy sẽ được đào tạo
dựa trên dự liệu của nhân viên cũ
và được hướng dẫn để tìm và thuê
những người tương tự với nhân viên
xuất sắc hiện có ở công ty.
Nghe có vẻ tốt đấy.
Tôi từng tham dự một hội nghị
bao gồm quản lý nhân sự và các lãnh đạo,
những nhân vật cấp cao,
dùng hệ thống như vậy khi thuê
Họ cực kỳ phấn khích về việc đó.
Họ nghĩ rằng hệ thống này sẽ giúp việc
thuê người khách quan và ít thiên vị hơn,
và cho phụ nữ và người thiểu số
một cơ hội tốt hơn
chống lại những người quản lý thiên vị.
Đúng là người thuê người thường
có sự thiên vị.
Tôi biết vậy.
Trong những việc đầu tiên của tôi với
vai trò lập trình viên,
quản lý trực tiếp của tôi thỉnh thoảng
sẽ đến chỗ tôi
rất sớm vào buổi sáng hoặc rất muộn
vào buổi chiều,
để nói, "Zeynep, cùng đi ăn trưa nào!"
Tôi bị bối rối bởi giờ giấc
thất thường.
Bây giờ là 4g chiều mà ăn trưa ư?
Tôi thì thiếu tiền, mà bữa trưa miễn phí.
Cho nên tôi luôn đi
Sau đó tôi nhận ra chuyện gì
đang diễn ra.
Những quản lý trực tiếp của tôi chưa hề
thông báo với cấp trên
rằng lập trình viên họ thuê cho việc
quan trọng là một thiếu nữ
mặc quần jeans và đi giày thể thao đi làm.
Tôi làm tốt việc, chỉ ăn mặc không đúng
và sai độ tuổi và giới tính.
Cho nên việc tuyển chọn không dựa theo
giới tính và sắc tộc
rõ ràng tốt cho tôi.
Nhưng với những hệ thống này, nó
phức tạp hơn, và đây là lý do:
Bây giờ, hệ thống tính toán có thể đưa ra
đủ mọi loại kết luận vể bạn
dựa trên những vết tích số của bạn,
ngay cả khi bạn không hề tiết lộ
những việc đó.
Chúng có thể đưa ra kết luận về xu hướng
tình dục của bạn,
tính cách bạn,
quan điểm chính trị của bạn.
Chúng có sức mạnh dự đoán với
sự chuẩn xác cao.
Nhớ rằng - ngay cả những việc bạn
không hề tiết lộ.
Đây chỉ mới là việc suy luận
Tôi có một người bạn thiết kế những
hệ thống tính toán như vậy
để dự đoán khả năng mắc bệnh trầm cảm
lâm sàng hoặc hậu thai sản
từ những dự liệu truyền thông xã hội.
Kết quả thật đáng ấn tượng.
Hệ thống của cô ấy có thể dự đoán được
khả năng mắc trầm cảm
hàng tháng trước khi các triệu chứng
xuất hiện --
hàng tháng trước.
Không hề có triệu chứng, nhưng
lại có dự đoán.
Cô mong rằng nó được sử dụng cho việc
can thiệp sớm. Tuyệt vời!
Nhưng giờ đặt nó vào viễn cảnh
tuyển chọn.
Ở buổi họp quản lý nhân sự này,
tôi tiếp cận một quản lý cấp cao của
một công ty lớn,
và nói rằng, "Này, nếu như, ngoài sự
hiểu biết của bạn,
hệ thống của bạn đang gạt bỏ người có thể
bị trầm cảm cao trong tương lai?
Hiện tại họ không hề bị trầm cảm, chỉ là
trong tương lai có khả năng.
Nếu như hệ thống loại bỏ những phụ nữ
có khả năng mang thai
trong một vài năm tới nhưng hiện
không mang thai?
Nếu nó chọn những người có tính hung hăng
vì đó là bản chất làm việc ở đây?"
Bạn không thể thấy điều này qua việc
xem tỉ lệ giới tính
Điều đó có thể được
cân bằng.
Và vì đây là máy móc tự học, chứ
không phải mã hóa truyền thống,
không hề có một biến số nào có tên
"có khả năng trầm cảm cao",
"có khả năng mang thai cao",
"tính cách hung hăng".
Bạn không chỉ không biết hệ thống của bạn
lựa chọn dựa trên tiêu chí gì,
bạn còn không biết phải bắt đầu
tìm từ đâu.
Nó là một hộp đen.
Nó có khả năng tiên đoán, nhưng bạn
không hiểu nó.
Tôi hỏi cô, "Bạn có chốt an toàn nào
để đảm bảo rằng hộp đen của bạn
không làm gì mờ ám?"
Cô ấy nhìn tôi như thể tôi vừa đạp lên
10 cái đuôi chó.
(Cười lớn)
Cô nhìn tôi chằm chằm và nói,
"Tôi không muốn nghe thêm một từ nào
về vấn đề này nữa."
Và cô ấy bỏ đi.
Cho bạn biết- cô ấy không thô lỗ
Rõ ràng rằng: điều tôi không biết không phải
là vấn đề của tôi, đi đi, ánh nhìn chết người.
(Cười lớn)
Một hệ thống như vậy có thể ít thiên vị hơn
những người quản lý theo cách nào đó.
Và nó có khả năng ra quyết định tài chính.
Nhưng nó cũng có thể dẫn đến
một thị trường việc làm ổn định nhưng lén lút cô lập
những người có khả năng trầm cảm cao.
Liệu đây có phải là xã hội mà chúng ta muốn gầy dựng,
khi mà chúng ta còn thậm chí không biết chúng ta làm vậy,
bởi vì chúng ta phó thác việc ra quyết định cho những cỗ máy mà chính chúng ta cũng không hiểu rõ?
Một vấn đề khác là:
những hệ thống này được huấn luyện dựa trên những dữ liệu lấy từ các hành động của chúng ta,
dấu ấn của con người.
Chúng có thể phản ánh những thiên vị của chúng ta,
và những hệ thống này có thể bắt nhịp những thiên vị của chúng ta
và phóng đại chúng
và thể hiện chúng lại cho chúng ta,
trong khi chúng ta lại tự bảo bản thân,
"Chúng ta đang tính toán một cách trung lập, khách quan."
Các nhà nghiên cứu tìm ra rằng trên Google,
phụ nữ ít được cho thấy những thông cáo việc làm lương cao hơn đàn ông.
Và các tìm kiếm tên của người Mỹ gốc Phi
sẽ dễ dẫn đến những cảnh báo tiền án tội phạm hơn,
ngay cả khi người đó không hề phạm tội.
Những thiên vị tiềm ẩn và những thuật toán hộp-đen như vậy
được các nhà nghiên cứu thỉnh thoảng tìm ra nhưng thỉnh thoảng chúng ta không hề biết,
có thể có các hậu quả nặng nề.
Ở Wisconsin, một bị cáo bị kết án sáu năm tù
vì trốn tránh cảnh sát.
Bạn có thể không biết rằng,
các thuật toán ngày càng được sử dụng trong việc ân xá và kết án nhiều hơn.
Ông ta muốn biết: Kết quả này được tính toán như thế nào?
Nó là một hộp đen thương hiệu.
Công ty từ chối để cho thuật toán của mình bị chất vấn ở các phiên tòa mở.
Nhưng ProPublica, một tổ chức điều tra phi lợi nhuận, đã kiểm tra chính thuật toán
họ dùng để tra cứu các dữ liệu công cộng,
và nhận ra rằng các kết quả của chúng rất thiên vị
và khả năng dự đoán của nó rất ảm đạm, chẳng hơn đoán mò bao nhiêu,
và nó kết luận sai các bị cáo da đen có thể thành phạm nhân tương lai
nhiều gấp đôi bị cáo da trắng.
Thử nhìn vào vụ án này:
Người phụ nữ này đón chị đỡ đầu của bà trễ
từ một trường ở quận Broward, Florida,
chạy xuống phố với một người bạn của bà.
Họ nhìn thấy một chiếc xe đạp trẻ em không khóa và một chiếc xe máy trên hiên nhà
và họ nghịch ngợm nhảy lên nó.
Trong khi họ đang tăng tốc, một người phụ nữ chạy ra và la lên rằng,
"Hey, đó là xe đạp của con tôi!"
Họ quăng chiếc xe lại, chạy đi, nhưng họ bị bắt.
Cô sai, cô ngu ngốc, nhưng cô vẫn chỉ mới 18 tuổi.
Cô đã phạm một vài tội vị thành niên.
Trong khi đó, một người đàn ông bị bắt vì trộm đồ ở Home Depot --
một mớ đồ trị giá $85, một tội ăn cắp vặt.
Nhưng ông có hai tiền án cướp có vũ khí.
Nhưng thuật toán lại chấm điểm cô ấy có khả năng phạm tội cao hơn ông ta.
Hai năm sau, ProPublica nhận thấy rằng cô ấy không hề tái phạm.
Nhưng cô ấy chỉ khó kiếm được việc làm với tiền án như v6a5y.
Ngược lại, ông ta tái phậm
và hiện đang bị ở tù tám năm cho tội ác sau này.
Rõ ràng, chúng ta cần kiểm tra các hộp đen của chúng ta
và không để chúng có những sức mạnh không kiểm soát này.
(Vỗ tay)
Kiểm tra rất tuyệt vời và quan trọng, nhưng chúng không giải quyết hết các vấn đề của chúng ta.
Ví dụ như thuật toán trang chủ hùng mạnh của Facebook --
bạn biết đấy, cái đánh giá mọi thứ và quyết định sẽ cho bạn xem cái gì
từ bạn bè và những trang bạn theo dõi.
Liệu bạn có nên được cho xem thêm một bức ảnh trẻ con nữa?
(Cười lớn)
Một thông điệp u tối từ một người quen?
Một mẩu tin quan trọng nhưng phức tạp?
Không hề có câu trả lời đúng nào.
Facebook tối đa hóa các tương tác trên trang chủ:
thích, chia sẻ, bình luận.
Vào tháng 8/2014,
biểu tình diễn ra ở Ferguson, Missouri,
sau vụ thảm sát một thiếu niên Mỹ Phi bởi một cảnh sát da trắng,
dưới điều kiện mờ ám.
Tin tức về các buổi biểu tình tràn ngập
trên trang chủ Twitter không được thanh lọc bởi thuật toán,
nhưng không hề hiện ra trên Facebook của tôi.
Liệu đó có phải do các bạn trên Facebook của tôi?
Tôi tắt thuật toán của Facebook,
và rất khó để làm vậy vì Facebook luôn muốn bạn
ở dưới sự kiểm soát của thuật toán,
và thấy rằng bạn bè tôi đang nói về vấn đề đó.
Chỉ là do thuật toán không cho tôi thấy điều đó.
Tôi đi tìm hiểu và phát hiện ra rằng đây là một vấn đề phổ biến.
Câu chuyện ở Ferguson không hề thân thiện với thuật toán.
Nó không được "yêu thích".
Ai sẽ bấm "thích"?
Nó không hề đơn giản để bình luận.
Thiếu các lượt yêu thích và bình luận,
thuật toán lại hiển thị nó cho càng ít người,
cho nên chúng ta không hề thấy nó.
Thay vào đó, trong tuần đó,
Thuật toán của Facebook lại làm nổi bật mẩu tin
về ALS Thử Thách Chậu Đá.
Một động cơ cao cả; đổ chậu nước đá, quyên góp từ thiện, tốt thôi.
Nhưng nó rất được thuật toán yêu thích.
Cỗ máy đưa ra quyết định này cho chúng ta.
Một cuộc hội thoại quan trọng nhưng khó khăn
có thể vừa bị giết chết,
nếu như Facebook là cổng thông tin duy nhất.
Cuối cùng, các hệ thống này có thể phạm lỗi
theo nhiều cách không giống gì hệ thống con người.
Quý vị còn nhớ Watson, hệ thống máy móc thông minh của IBM
quét sạch các người thi con người trong trò Jeopardy?
Nó là một người chơi tuyệt vời.
Nhưng ở màn cuối của Jeopardy, khi được hỏi:
"Sân bay lớn nhất của thành phố này được đặt tên theo một anh hùng Thế Chiến II,
sân bay lớn nhì được đặt tên theo một trận đánh trong Thế Chiến II."
(Nhạc nền Jeopardy)
Chicago.
Hai người chơi con người đoán đúng.
Ngược lại, Watson lại trả lời "Toronto" --
cho một phân mục thành phố Mỹ!
Một hệ thống ấn tượng phạm một lỗi
mà không một con người nào sẽ mắc phải, ngay cả một học sinh cấp 2.
Cỗ máy thông minh của chúng ta đã thất bại
theo nhiều cách không hề giống con người,
theo những cách chúng ta không ngờ tới và không chuẩn bị cho.
Sẽ thật tệ nếu như một người không được nhận vào một công việc mà họ đủ tiêu chuẩn,
nhưng nó sẽ còn tệ gấp ba lần nếu như lý do là vì sự tắc nghẽn thông tin
trong một thủ tục phụ nào đó.
(Cười lớn)
Vào tháng 5/2010,
một khủng hoảng nhỏ ở Wall Street xảy ra do hệ thống phản hồi
trong thuật toán "bán" của Wall Street
làm bốc hơi một trị giá 1000 tỉ đô trong 36 phút.
Tôi không hề muốn nghĩ đến "lỗi" đó là gì
khi nói đến các vũ khí tự phát nguy hiểm.
Cho nên vâng, con người luôn thiên vị.
Các người đưa ra quyết định và những người gác cổng,
trong tòa án, trên báo chí, trong chiến tranh,...
họ phạm sai lầm; nhưng đó chính xác là điều tôi muốn nói.
Chúng ta không thể trốn tránh những câu hỏi khó.
Chúng ta không thể phó thác trách nhiệm của chúng ta cho máy móc.
(Vỗ tay)
Trí tuệ nhân tạo không cho chúng ta một thẻ "Trốn tránh đạo đức miễn phí"
Nhà khoa học dữ liệu Fred Benenson gọi đây là tẩy rửa toán học.
Chúng ta cần điều ngược lại.
Chúng ta cần nuôi dưỡng các hoài nghi về các thuật toán, các khó khăn và điều tra.
Chúng ta cần đảm bảo tính trung thực của các thuật toán,
sự rõ ràng ý nghĩa và qua kiểm tra.
Chúng ta cần chấp nhận rằng khi đem toán học và tính toán
vào các vấn đề phức tạp, nhiều tầng giá trị của con người
không hề đem đến tính khách quan;
mà ngược lại, sự phức tạp của các vấn đề của con người xâm lấn các thuật toán.
Vâng, chúng ta có thể và nên sử dụng tính toán
để giúp chúng ta đưa ra các quyết định đúng đắn hơn.
Nhưng chúng ta cần chịu trách nhiệm cho các quyết định mang tính đạo đức của chúng ta,
và sử dụng thuật toán nội trong khuôn khổ đó,
chứ không phải như một phương tiện để từ bỏ và phó thác trách nhiệm của chúng ta
cho người khác giữa người với người.
Máy móc thông minh tồn tại ở đây.
Điều đó có nghĩa là chúng ta cần .... hơn
các giá trị nhân bản và đạo đức nhân văn.
Xin cám ơn.
(Vỗ tay)