Return to Video

Câu hỏi "xoắn": Vì sao lượt "Like" trên mạng xã hội tiết lộ về bạn nhiều hơn bạn nghĩ?

  • 0:01 - 0:02
    Nếu bạn vẫn còn nhớ
  • 0:02 - 0:04
    thập kỷ đầu của website
  • 0:04 - 0:05
    thật sự rất trì trệ.
  • 0:05 - 0:07
    Bạn có thể lên mạng,
  • 0:07 - 0:08
    xem những trang web
  • 0:08 - 0:09
    chúng được xây dựng
  • 0:09 - 0:10
    bởi đội ngũ
  • 0:10 - 0:11
    thuộc các tổ chức
  • 0:11 - 0:12
    hay các cá nhân
  • 0:12 - 0:13
    thành thạo về công nghệ
  • 0:13 - 0:15
    lúc bấy giờ.
  • 0:15 - 0:17
    Với sự phát triển của
  • 0:17 - 0:18
    truyền thông
  • 0:18 - 0:19
    và mạng xã hội
  • 0:19 - 0:20
    những năm đầu thế kỷ 21,
  • 0:20 - 0:21
    trang web đã hoàn toàn
  • 0:21 - 0:24
    trở thành một nơi mà phần lớn
  • 0:24 - 0:26
    nội dung tương tác
  • 0:26 - 0:28
    được xây dựng
  • 0:28 - 0:29
    bởi người dùng thông thường
  • 0:29 - 0:31
    đó có thể là video trên Youtube,
  • 0:31 - 0:32
    bài viết trên blog
  • 0:32 - 0:33
    đánh giá sản phẩm
  • 0:33 - 0:34
    hoặc những bài post.
  • 0:34 - 0:36
    Nó cũng mang tính
  • 0:36 - 0:38
    tương tác ngày một cao hơn,
  • 0:38 - 0:39
    mọi người tương tác với nhau
  • 0:39 - 0:41
    bình luận, chia sẻ
  • 0:41 - 0:43
    chứ không đơn thuần là đọc.
  • 0:43 - 0:45
    Facebook không phải nơi duy nhất
    nhưng lại phổ biến nhất,
  • 0:45 - 0:47
    và những con số sau
  • 0:47 - 0:48
    sẽ minh họa cho điều đó.
  • 0:48 - 0:51
    Mỗi tháng FB có thêm
    1,2 tỷ người dùng
  • 0:51 - 0:53
    nghĩa là 1/2 số người dùng Internet
  • 0:53 - 0:54
    toàn cầu đang sử dụng FB.
  • 0:54 - 0:56
    Nơi này, cùng những trang khác
  • 0:56 - 0:58
    cho phép con người tạo ra
  • 0:58 - 1:01
    cá tính trên mạng mà không đòi hỏi
    nhiều kỹ xảo công nghệ
  • 1:01 - 1:03
    và người ta hưởng ứng nó
  • 1:03 - 1:04
    bằng cách đưa lên mạng
  • 1:04 - 1:06
    lượng lớn thông tin cá nhân.
  • 1:06 - 1:08
    Kết quả là chúng ta có được dữ liệu
  • 1:08 - 1:10
    về hành vi, thiên hướng, nhân khẩu
  • 1:10 - 1:12
    của hàng trăm triệu người,
  • 1:12 - 1:14
    điều này chưa từng có tiền lệ
  • 1:14 - 1:15
    trong lịch sử.
  • 1:15 - 1:17
    Là nhà khoa học máy tính,
  • 1:17 - 1:18
    điều đó có nghĩa là
  • 1:18 - 1:22
    tôi có thể xây dựng sản phẩm
    dự đoán đặc tính tiềm ẩn của bạn
  • 1:22 - 1:23
    mà bạn không hề biết rằng
  • 1:23 - 1:25
    mình là người
    đã chia sẻ thông tin đó.
  • 1:25 - 1:27
    Bằng cách đó,
  • 1:27 - 1:28
    chúng tôi cải thiện
  • 1:28 - 1:30
    cách người ta tương tác online
  • 1:30 - 1:33
    nhưng ứng dụng vì người dùng
    lại ít đi
  • 1:33 - 1:35
    vấn đề là
    người dùng không thật sự hiểu
  • 1:35 - 1:37
    kỹ thuật và cách chúng hoạt động,
  • 1:37 - 1:40
    thậm chí nếu hiểu, họ cũng không
    điều khiển được chúng.
  • 1:40 - 1:42
    Cho nên, tôi muốn nói
  • 1:42 - 1:43
    với các bạn hôm nay
  • 1:43 - 1:45
    một vài điều
    ta có thể làm
  • 1:45 - 1:47
    để hiểu rõ về việc
  • 1:47 - 1:49
    làm thế nào người dùng
    có thể lấy lại
  • 1:49 - 1:50
    phần nào kiểm soát.
  • 1:50 - 1:52
    Đây là công ty Target,
  • 1:52 - 1:53
    tôi không chỉ để logo
  • 1:53 - 1:55
    lên bụng bà bầu đáng thương này.
  • 1:55 - 1:57
    Có thể bạn đã thấy mẩu chuyện này
  • 1:57 - 1:59
    trên tạp chí Forbes
  • 1:59 - 2:00
    kể về việc công ty Target
  • 2:00 - 2:02
    gửi đến cô bé 15 tuổi này
  • 2:02 - 2:02
    tờ rơi, quảng cáo
  • 2:02 - 2:04
    và phiếu mua hàng
  • 2:04 - 2:06
    cho bình sữa, tã giấy và nôi trẻ em
  • 2:06 - 2:08
    2 tuần trước khi cô nói với cha mẹ
  • 2:08 - 2:09
    mình đang mang thai.
  • 2:09 - 2:11
    Đúng vậy, người cha
  • 2:11 - 2:12
    thật sự đã rất buồn.
  • 2:12 - 2:16
    Ông nói: "Làm cách nào Target
    biết được con bé đang mang thai
  • 2:16 - 2:18
    trước khi nó nói với cha mẹ cơ chứ?"
  • 2:18 - 2:19
    Hóa ra là họ có được
  • 2:19 - 2:21
    lịch sử mua sắm
  • 2:21 - 2:22
    của hàng trăm ngàn khách hàng
  • 2:22 - 2:24
    và họ tính toán cái được gọi là
  • 2:24 - 2:26
    "chỉ số mang thai"
  • 2:26 - 2:28
    không chỉ cho phép phát hiện
    phụ nữ mang thai
  • 2:28 - 2:30
    mà còn biết được ngày sinh nở.
  • 2:30 - 2:31
    Họ tính toán điều đó
  • 2:31 - 2:32
    không dựa trên những gì trước mắt
  • 2:32 - 2:34
    như việc cô ấy mua nôi
  • 2:34 - 2:36
    hay quần áo trẻ sơ sinh
  • 2:36 - 2:37
    mà là dựa vào việc cô ấy
  • 2:37 - 2:38
    mua nhiều vitaminn
  • 2:38 - 2:39
    hơn bình thường
  • 2:39 - 2:41
    hay là mua một cái túi xách
  • 2:41 - 2:43
    đủ to để đựng tã.
  • 2:43 - 2:45
    Bản thân những món hàng ấy
  • 2:45 - 2:46
    dường như cũng không
  • 2:46 - 2:48
    nói lên được gì nhiều
  • 2:48 - 2:49
    nhưng kiểu hành vi đó
  • 2:49 - 2:50
    khi bạn đặt vào
  • 2:50 - 2:51
    hoàn cảnh cụ thể
  • 2:51 - 2:52
    của hàng ngàn người khác
  • 2:52 - 2:54
    nó sẽ tiết lộ
  • 2:54 - 2:55
    vài chuyện đằng sau đó.
  • 2:55 - 2:57
    Đó là công việc
    mà chúng tôi đang làm,
  • 2:57 - 3:00
    suy đoán về bạn
    trên truyền thông xã hội.
  • 3:00 - 3:01
    Chúng tôi tìm kiếm
    những mẩu hành vi,
  • 3:01 - 3:05
    một khi được phát hiện
    giữa hàng triệu người
  • 3:05 - 3:07
    mọi chuyện sẽ được hé mở.
  • 3:07 - 3:09
    Vì thế, trong phòng thí nghiệm
    cùng với đồng nghiệp
  • 3:09 - 3:12
    chúng tôi đã phát triển các cơ chế
    suy đoán khá chính xác
  • 3:12 - 3:13
    ví dụ như
  • 3:13 - 3:14
    thiên hướng chính trị,
  • 3:14 - 3:16
    tính cách, nhân phẩm,
  • 3:16 - 3:18
    khuynh hướng tính dục
  • 3:18 - 3:19
    tôn giáo, độ tuổi,
  • 3:19 - 3:21
    trí thông minh.
  • 3:21 - 3:22
    Ngoài ra, còn có:
  • 3:22 - 3:24
    "Bạn tin người quen
    đến mức nào?"
  • 3:24 - 3:26
    hay: "Quan hệ của bạn
    bền chặt đến đâu?"
  • 3:26 - 3:28
    Chúng tôi có thể làm tốt nó.
  • 3:28 - 3:29
    Xin nhắc lại,
  • 3:29 - 3:32
    nó không xuất phát từ những thứ
    bạn cho là hiển nhiên.
  • 3:32 - 3:35
    Ví dụ yêu thích của tôi
    là từ nghiên cứu này,
  • 3:35 - 3:38
    được xuất bản năm nay
    trong tập san của Viện Hàn Lâm Quốc Gia.
  • 3:38 - 3:39
    Bạn có thể tìm trên Google.
  • 3:39 - 3:41
    Nghiên cứu dài 4 trang
    và dễ đọc.
  • 3:41 - 3:43
    Những nhà nghiên cứu chỉ tập trung
  • 3:43 - 3:45
    vào lượt "Like" trên FB,
  • 3:45 - 3:47
    và họ sẽ dùng nó để suy đoán
  • 3:47 - 3:48
    những đặc điểm trên,
  • 3:48 - 3:49
    cùng một số khác.
  • 3:49 - 3:51
    Trong bài nghiên cứu, họ đưa ra
  • 3:51 - 3:53
    5 lượt like
    thể hiện rõ nét nhất
  • 3:53 - 3:55
    chỉ số thông minh vượt trội.
  • 3:55 - 3:59
    Một trong số đó là
    "like" trang về khoai tây chiên xoắn.
  • 3:59 - 4:00
    (Cười)
  • 4:00 - 4:01
    Khoai tây chiên xoắn rất ngon,
  • 4:01 - 4:03
    nhưng việc bạn "Like" chúng
  • 4:03 - 4:04
    không nhất thiết là
  • 4:04 - 4:07
    bạn thông minh
    hơn người.
  • 4:07 - 4:08
    Vậy nên, làm thế nào
  • 4:08 - 4:11
    một trong những biểu hiện
    rõ nét nhất về trí thông minh
  • 4:11 - 4:13
    lại là việc bấm "Like" trang này
    khi mà nội dung của nó
  • 4:13 - 4:17
    hoàn toàn không liên quan gì
    đến đặc điểm suy đoán?
  • 4:17 - 4:18
    Thật ra, phải xem xét
  • 4:18 - 4:21
    rất nhiều lý thuyết cơ sở
    để hiểu được
  • 4:21 - 4:23
    làm thế nào
    ta làm được điều này?
  • 4:23 - 4:25
    Một trong số đó là
    lý thuyết xã hội học:
  • 4:25 - 4:26
    "Sự đồng chất",
    nói rằng
  • 4:26 - 4:29
    người ta thường kết bạn
    với người giống mình.
  • 4:29 - 4:32
    Nếu thông mình, bạn thường
    chơi với người thông minh,
  • 4:32 - 4:34
    Nếu trẻ, bạn thường
    kết bạn với người trẻ
  • 4:34 - 4:37
    Lý thuyết này đã tồn tại
    hàng trăm năm nay.
  • 4:37 - 4:38
    Chúng tôi cũng biết rất nhiều
  • 4:38 - 4:39
    về cách mà thông tin lan rộng
  • 4:39 - 4:41
    thông qua các mạng lưới.
  • 4:41 - 4:43
    Hóa ra
    video lan truyền của Youtube,
  • 4:43 - 4:45
    "Like" Facebook hay những thứ khác
  • 4:45 - 4:47
    đều được lan truyền
    hệt như cách mà
  • 4:47 - 4:49
    những mối nguy hại lan truyền
    trên mạng xã hội.
  • 4:49 - 4:51
    Chúng tôi đã nghiên cứu
    trong thời gian dài
  • 4:51 - 4:53
    và có được những hình mẫu giá trị.
  • 4:53 - 4:55
    Bạn có thể gộp mọi thứ lại
  • 4:55 - 4:56
    rồi từ từ nhận ra làm thế nào
  • 4:56 - 4:58
    những điều tương tự có thể xảy ra.
  • 4:58 - 5:00
    Vậy nên, nếu tôi đặt giả thuyết
  • 5:00 - 5:03
    rằng một gã thông minh nào đó
    đã lập ra trang này
  • 5:03 - 5:06
    hay một trong những người nhấn "Like"
    đầu tiên đã đạt điểm số cao.
  • 5:06 - 5:09
    Họ nhấn "Like",
    rồi bạn bè họ thấy
  • 5:09 - 5:11
    theo thuyết "Đồng chất",
    ta biết được
  • 5:11 - 5:13
    anh ta có bạn thông minh
    nó lan truyền đến họ,
  • 5:13 - 5:16
    một trong số đó bấm "Like"
    họ lại có bạn thông minh
  • 5:16 - 5:17
    rồi thì nó lan truyền đến họ.
  • 5:17 - 5:19
    Điều này được
    truyền đi qua mạng lưới
  • 5:19 - 5:22
    đến một lượng lớn
    những người thông minh
  • 5:22 - 5:23
    và bằng cách đó, hành động
  • 5:23 - 5:26
    "Like" trang FB khoai tây xoắn
  • 5:26 - 5:28
    sẽ biểu thị chỉ số thông minh cao
  • 5:28 - 5:29
    không phải vì nội dung,
  • 5:29 - 5:32
    mà vì chính hành động nhấn "Like"
  • 5:32 - 5:34
    phản ánh đặc tính chung
  • 5:34 - 5:36
    của người thực hiện.
  • 5:36 - 5:39
    Khá phức tạp đúng không?
  • 5:39 - 5:42
    Không dễ để có thể
    giải thích chuyện này
  • 5:42 - 5:43
    cho một người bình thường
  • 5:43 - 5:45
    thậm chí, nếu có thể,
    một người bình thường
  • 5:45 - 5:47
    có thể làm gì được?
  • 5:47 - 5:49
    Làm thế nào bạn biết được
    việc thích thứ gì đó
  • 5:49 - 5:51
    biểu hiện một đặc tính cá nhân
  • 5:51 - 5:54
    trong khi nó chẳng liên quan gì
    đến nội dung bạn thích?
  • 5:54 - 5:56
    Người dùng mạng không có
    nhiều quyền hạn
  • 5:56 - 5:59
    để quản lý việc sử dụng
    những dữ liệu này.
  • 5:59 - 6:01
    Và một vấn đề thực sự
    đang phát sinh.
  • 6:01 - 6:04
    Nên tôi cho rằng cần xem xét
    có một số hướng đi
  • 6:04 - 6:08
    nếu muốn người dùng có thêm
    quyền hạn để quản lý
  • 6:08 - 6:10
    vì không phải lúc nào
    nó cũng được dùng
  • 6:10 - 6:12
    để phục vụ lợi ích của họ.
  • 6:12 - 6:13
    Một ví dụ tôi thường đưa ra là
  • 6:13 - 6:16
    nếu chán làm giảng viên
    tôi sẽ mở một công ty
  • 6:16 - 6:18
    chuyên dự đoán đặc tính
    và những thứ như:
  • 6:18 - 6:20
    bạn làm việc nhóm giỏi tới đâu,
  • 6:20 - 6:22
    liệu bạn có dùng ma túy
    hay nghiện rượu.
  • 6:22 - 6:25
    Chúng tôi biết cách dự đoán
    và sẽ bán các báo cáo đó
  • 6:25 - 6:28
    cho công ty nhân sự và doanh nghiệp nào
    muốn thuê bạn.
  • 6:28 - 6:31
    Hoàn toàn có thể làm được .
  • 6:31 - 6:32
    Tôi có thể bắt đầu
    ngay ngày mai.
  • 6:32 - 6:36
    Bạn sẽ không thể quản lý
    việc tôi muốn dùng dữ liệu của bạn.
  • 6:36 - 6:39
    Với tôi, dường như
    đó là một vấn đề.
  • 6:39 - 6:41
    Cho nên, một trong những hướng
    có thể chọn
  • 6:41 - 6:43
    là Luật pháp.
  • 6:43 - 6:46
    Xét trên một số phương diện,
    tôi nghĩ nó hiệu quả nhất
  • 6:46 - 6:48
    nhưng vấn đề là liệu
    có cần phải làm thế.
  • 6:48 - 6:52
    Khi quan sát quá trình
    đi vào hoạt động của nhà nước,
  • 6:52 - 6:54
    tôi nghĩ khó có thể xảy ra việc
  • 6:54 - 6:59
    hàng loạt đại biểu chịu ngồi xuống
    tìm hiểu và rồi tiến hành
  • 6:59 - 7:02
    những cải cách quan trọng về
    luật sở hữu trí tuệ tại Mỹ
  • 7:02 - 7:04
    để người dùng tự quản lý
    dữ liệu cá nhân.
  • 7:04 - 7:05
    Ta có thể nhờ đến chính sách
  • 7:05 - 7:07
    mà công ty truyền thông
    vẫn thường nói
  • 7:07 - 7:11
    "Bạn sở hữu dữ liệu.
    Bạn có toàn quyền sử dụng."
  • 7:11 - 7:13
    Vấn đề là mô hình doanh thu
  • 7:13 - 7:14
    của những công ty này
  • 7:14 - 7:18
    lại phụ thuộc vào việc chia sẻ
    hay khai thác dữ liệu người dùng.
  • 7:18 - 7:20
    Đôi khi, ta nói trên Facebook
  • 7:20 - 7:23
    người dùng không phải khách hàng
    mà chính là sản phẩm.
  • 7:23 - 7:28
    Làm thế nào bắt một công ty
    nhượng lại quyền quản lý "tài sản" chính
  • 7:28 - 7:29
    cho người dùng FB?
  • 7:29 - 7:33
    Điều đó có thể xảy ra,
    nhưng sẽ không phải một sớm một chiều.
  • 7:33 - 7:37
    Nên tôi nghĩ đến một hướng khác
    mà có lẽ sẽ hiệu quả hơn :
  • 7:37 - 7:38
    khoa học.
  • 7:38 - 7:41
    Chính khoa học đã giúp ta phát triển
  • 7:41 - 7:43
    những bộ máy tính toán
  • 7:43 - 7:45
    dữ liệu cá nhân này đầu tiên.
  • 7:45 - 7:47
    Ta cũng cần phải
  • 7:47 - 7:48
    làm một nghiên cứu tương tự
  • 7:48 - 7:52
    nếu muốn xây dựng hệ thống
    nói cho người dùng rằng:
  • 7:52 - 7:55
    "Đây là hiểm họa
    mà hành động của bạn tạo ra."
  • 7:55 - 7:56
    Bằng việc "Like" các trang trên FB
  • 7:56 - 7:59
    đến việc chia sẻ
    thông tin cá nhân nào đó,
  • 7:59 - 8:01
    bạn đang giúp tôi nâng cao
    khả năng dự đoán
  • 8:01 - 8:05
    liệu bạn có đang dùng ma túy
    hay hòa nhập được với nơi làm việc.
  • 8:05 - 8:07
    Điều đó có thể ảnh hưởng đến việc
  • 8:08 - 8:11
    mọi người chia sẻ thông tin
    hay giữ chúng cho riêng mình,
  • 8:11 - 8:12
    hoặc đặt chế độ ẩn.
  • 8:12 - 8:14
    Chúng ta có thể xét đến việc
  • 8:14 - 8:17
    cho phép mã hóa dữ liệu
    được đăng tải,
  • 8:17 - 8:20
    thông tin sẽ bị ẩn và không còn giá trị
    với những trang như FB
  • 8:20 - 8:22
    hay dịch vụ của bên thứ ba
  • 8:22 - 8:27
    nhưng nó sẽ lựa chọn người dùng nào
    sẽ có quyền đăng hay truy cập
  • 8:27 - 8:29
    thông tin được đăng tải.
  • 8:29 - 8:32
    Nghiên cứu này cực kỳ thú vị
    xét về phương diện tri thức
  • 8:32 - 8:34
    các nhà khoa học sẽ hào hứng
    bắt tay thực hiện.
  • 8:34 - 8:37
    Điều tạo cho chúng tôi thuận lợi
    trên phương diện pháp lý.
  • 8:37 - 8:39
    Một trong những vấn đề
    thường được đề cập
  • 8:39 - 8:41
    khi tôi bàn về việc này là:
  • 8:41 - 8:44
    "Nếu mọi người bắt đầu
    giữ chúng cho riêng mình,
  • 8:44 - 8:48
    những phương pháp cô thực hiện
    để dự đoán đặc tính của họ sẽ thất bại.
  • 8:48 - 8:52
    Và tôi nói: "Với tôi đó là thành công."
  • 8:52 - 8:53
    Vì là một nhà khoa học
  • 8:53 - 8:56
    mục tiêu của tôi không phải là
  • 8:56 - 8:57
    suy đoán thông tin người dùng,
  • 8:57 - 9:00
    mà là cải thiện cách
    con người tương tác trên mạng.
  • 9:00 - 9:03
    Đôi khi, nó dính đến việc
    phải suy đoán về họ,
  • 9:03 - 9:06
    nhưng nếu người dùng
    không muốn tôi dùng những dữ liệu đó
  • 9:06 - 9:08
    họ có quyền làm thế.
  • 9:08 - 9:11
    Tôi muốn họ được biết và chấp thuận
  • 9:11 - 9:13
    công cụ mà chúng tôi đang phát triển.
  • 9:13 - 9:16
    Vậy nên, tôi cho rằng
    việc khuyến khích lĩnh vực này
  • 9:16 - 9:19
    và ủng hộ các nhà nghiên cứu,
    những người muốn trả lại
  • 9:19 - 9:23
    cho người dùng quyền kiểm soát,
    tách khỏi các công ty truyền thông
  • 9:23 - 9:27
    đồng nghĩa với việc tiến về trước
    khi công cụ được phát triển và cải tiến,
  • 9:27 - 9:30
    rằng sẽ có một thế hệ người dùng mạng
    được huấn luyện và tiếp sức,
  • 9:30 - 9:34
    tôi nghĩ tất cả chúng ta đều đồng ý
    rằng đó là con đường lý tưởng để tiến lên.
  • 9:34 - 9:36
    Xin cảm ơn.
Title:
Câu hỏi "xoắn": Vì sao lượt "Like" trên mạng xã hội tiết lộ về bạn nhiều hơn bạn nghĩ?
Speaker:
Jennifer Golbeck
Description:

Bạn có thích khoai tây chiên xoắn không? Bạn có từng "Like" chúng trên Facebook ? Hãy xem bài nói chuyện này để thấy được những điều bất ngờ mà Facebook (và những trang khác) có thể suy đoán về bạn từ những cú click "Like" và "Share". Nhà khoa học máy tính, Jennifer Golbeck, giải thích làm thế nào điều đó có thể xảy ra, tại sao một số ứng dụng công nghệ không "dễ thương" như ta vẫn nghĩ, và vì sao Jennifer nghĩ rằng cần giao trả quyền hạn quản lý thông tin về cho chủ sở hữu.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01
  • Chào bạn,

    Phụ đề của bạn khá tốt.
    Để có thể làm tốt hơn, lưu ý giùm mình những điều sau:
    - Canh phụ đề hợp với lời nói của diễn giả
    - Cố gắng trong mỗi ô phụ đề, giữ cho tốc độ chars/ sec (số ký tự mỗi giây) không quá 21. Đây là tốc độ cho phép người xem theo dõi phụ đề được tốt nhất.

    Bạn xem qua lại bài sửa của mình nếu có thời gian nhé.

    Xem thêm những hướng dẫn và quy định của TED tại đây:
    https://www.youtube.com/user/OTPTED

    Hi vọng sẽ nhận được nhiều bài dịch hơn nữa từ bạn. :)

    Thân,
    Như

  • Em chào chị Như.
    Em xin chân thành cảm ơn bài review và những góp ý từ chị ạ. Vì em mới lần đầu dịch TED Talks nên chắc chắn còn nhiều thiếu sót. Về sau em sẽ chú ý hơn ạ. Em mong sau này còn được học hỏi nhiều thêm từ chị và mọi người. :)
    Thân ái.

  • Welcome to the team em :)

    Best,
    Như

  • Hihi dạ em cảm ơn chị nhiều. :))

Vietnamese subtitles

Revisions