0:00:00.556,0:00:04.573 Cảm xúc của chúng ta ảnh hưởng tới [br]mọi khía cạnh của cuộc sống, 0:00:04.573,0:00:08.149 từ sức khoẻ và học tập,[br]cho đến làm thế nào để kinh doanh và ra các quyết định, 0:00:08.149,0:00:09.922 những điều lớn lao và nhỏ bé. 0:00:10.672,0:00:14.162 Cảm xúc của chúng ta cũng ảnh hưởng tới[br]cách mà chúng ta giao tiếp với người khác. 0:00:15.132,0:00:19.108 Chúng ta đã tiến hoá để sống[br]trong một thế giới như thế này, 0:00:19.108,0:00:23.427 nhưng thay vào đó, chúng ta đang ngày càng[br]sống giống như thế này -- 0:00:23.427,0:00:26.561 đây là tin nhắn từ con gái tôi tối qua-- 0:00:26.561,0:00:29.301 trong một thế giới mà ở đó không có cảm xúc 0:00:29.301,0:00:31.252 Vì thế tôi có nhiệm vụ thay đổi điều đó. 0:00:31.252,0:00:35.343 Tôi muốn mang cảm xúc trở lại [br]trong các trải nghiệm trên thiết bị điện tử. 0:00:36.223,0:00:39.300 Tôi đã bắt đầu công việc này từ 15 năm về trước. 0:00:39.300,0:00:41.366 Tôi mà một nhà khoa học về máy tính ở Ai Cập, 0:00:41.366,0:00:45.871 và tôi đã được chấp nhận vào chương trình tiến sĩ[br]tại Đại học tổng hợp Cambridge. 0:00:45.871,0:00:47.984 Vì thế tôi đã làm một số điều không bình thường 0:00:47.984,0:00:52.209 đối với một người vợ trẻ mới cưới theo đạo hồi ở Ai Cập: 0:00:53.599,0:00:56.598 Với sự ủng hộ từ chồng tôi, [br]anh đã phải ở lại Ai Cập 0:00:56.598,0:00:59.616 Tôi đã sắp xếp hành lý và đi tới Anh 0:00:59.616,0:01:02.844 tại Đại học Cambridge, cách xa nhà hàng nghìn cây số, 0:01:02.844,0:01:06.257 Tôi đã nhận ra rằng tôi đã dành nhiều thời gian [br]cho cái máy tính xách tay của tôi 0:01:06.257,0:01:08.486 hơn là giao tiếp với mọi người xung quanh. 0:01:08.486,0:01:13.339 Cho dù gần gũi như vậy, nhưng cái máy tính của tôi[br]hoàn toàn không biết cảm giác của tôi thế nào 0:01:13.339,0:01:16.550 Nó không hiểu là tôi hạnh phúc, 0:01:16.550,0:01:19.538 có một ngày tồi tệ, hoặc căng thẳng, bối rối, 0:01:19.538,0:01:22.460 và thật là vô dụng. 0:01:23.600,0:01:28.831 Thậm chí tồi tệ hơn, khi tôi nói chuyện trực tiếp [br]với gia đình của tôi ở nhà, 0:01:29.421,0:01:32.703 Tôi cảm giác rằng toàn bộ cảm xúc của tôi[br]đã tiêu biến đi trong không gian ảo. 0:01:32.703,0:01:37.858 Tôi dã nhớ nhà, tôi cảm thấy cô đơn, [br]và vào một số ngày thực sự tôi đã khóc, 0:01:37.858,0:01:42.786 nhưng cái thứ mà tôi phải dùng để giao tiếp[br]chỉ là những thứ như thế này. 0:01:42.786,0:01:44.806 (Khán giả cười) 0:01:44.806,0:01:49.780 Công nghệ hiện này có quá nhiều thứ về IQ, [br]nhưng chưa đề cập tới EQ; 0:01:49.780,0:01:52.956 có rất nhiều trí tuệ nhân tạo về nhận thức, [br]nhưng không có trí tuệ nhân tạo về cảm xúc. 0:01:52.956,0:01:55.153 Vì thế điều đó đã khiến tôi suy nghĩ, 0:01:55.153,0:01:58.777 Điều gì sẽ sảy ra nếu công nghệ có thể [br]cảm nhận được cảm xúc của chúng ta? 0:01:58.777,0:02:02.853 Điều gì sẽ sảy ra nếu các thiết bị có thể cảm nhận được[br]chúng ta đang cảm thấy thế nào và đáp ứng lại một cách hợp lý, 0:02:02.853,0:02:05.866 liệu có thể đáp lại theo cách mà một người bạn có cảm xúc? 0:02:06.666,0:02:10.230 Những câu hỏi này đã dẫn dắt tôi và nhóm của tôi 0:02:10.230,0:02:14.607 sáng tạo ra các công nghệ mà chúng có thể đọc[br]và đáp ứng lại cảm xúc của chúng ta, 0:02:14.607,0:02:17.697 và khởi đầu của chúng tôi là từ khuôn mặt của con người. 0:02:18.577,0:02:21.750 Vì khuôn mặt của chúng ta là một trong những [br]kênh mạnh mẽ nhất[br] 0:02:21.750,0:02:25.766 để tất cả chúng ta tạo ra các trạng thái [br]giao tiếp xã hội và cảm xúc, 0:02:25.766,0:02:28.776 tất cả mọi thứ từ hứng thú, ngạc nhiên, 0:02:28.776,0:02:32.979 đồng cảm và tò mò. 0:02:32.979,0:02:37.907 Trong khoa học về cảm xúc, chúng tôi gọi mỗi [br]một chuyển động cơ mặt mà một đơn vị hành động. 0:02:37.907,0:02:40.832 Vì thế, ví dụ như đơn vị hành động số 12, 0:02:40.832,0:02:42.870 nó không phải là một bộ phim bom tất của Hollywood, 0:02:42.870,0:02:46.312 mà thực sự nó là một cái nhếch môi,[br]đây là một thành tố chính của một nụ cười. 0:02:46.312,0:02:49.300 Mọi người hày làm thử xem nào. Hãy để những[br]nụ cười tiếp tục. 0:02:49.300,0:02:51.954 Một ví dụ khác là đơn vị hành động số 4,[br]nó có nghĩa là cái nhíu lông mày. 0:02:51.954,0:02:54.192 Đó là khi bạn kéo lông mày của bạn cùng lúc 0:02:54.192,0:02:56.459 và bạn đã tạo ra các kết cấu và nếp nhăn này. 0:02:56.459,0:03:00.754 Chúng ta không thích chúng, nhưng đây là những[br]chỉ điểm mạnh mẽ cho một cảm xúc tiêu cực. 0:03:00.754,0:03:02.960 Như vậy chúng ta có khoảng 45 đơn vị hành động loại này, 0:03:02.960,0:03:06.350 và chúng kết hợp với nhau để bộc lộ[br]hàng trăm cảm xúc khác nhau. 0:03:06.350,0:03:10.251 Dạy cho máy tinhd đọc được những cảm xúc[br]của khuôn mặt này thật khó, 0:03:10.251,0:03:13.223 bởi vì những đơn vị hành động này, [br]chúng có thể diễn ra rất nhanh, tinh tế,[br] 0:03:13.223,0:03:15.777 và chúng được kết hợp bằng rất nhiều cách khác nhau, 0:03:15.777,0:03:19.515 Vì thế thử lấy một ví dụ về[br]nụ cười thoải mái và nụ cười bực bội. 0:03:19.515,0:03:23.268 Trông chúng có vẻ giống nhau, [br]nhưng thực tế chúng có ý nghĩa rất khác nhau. 0:03:23.268,0:03:24.986 (Khán giả cười) 0:03:24.986,0:03:27.990 Trong khi cười thoải mái có ý nghĩa tích cực, 0:03:27.990,0:03:29.260 thì cười bực bội thường là tiêu cực. 0:03:29.260,0:03:33.136 Đôi khi cười bực bội có thể khiến bạn[br]trở nên nổi tiếng. 0:03:33.136,0:03:35.960 Nhưng, rất quan trọng đối với máy tính[br]để chúng có thể 0:03:35.960,0:03:38.815 đưa ra sự khác biệt giữa 2 cách [br]biểu lộ cảm xúc đo. 0:03:38.815,0:03:40.627 Vậy thì làm thế nào để chúng tôi làm được điều đó? 0:03:40.627,0:03:42.414 Chúng tôi đưa ra các thuật toán cảu chúng tôi 0:03:42.414,0:03:46.524 với hàng ngàn ví dụ mà chúng ta biết về [br]nụ cười của mọi người, 0:03:46.524,0:03:49.589 với sự khác nhau về dân tộc, tuổi tác, giới tính, 0:03:49.589,0:03:52.400 và chúng tôi cũng làm giống như vậy đối với nụ cười bực bội. 0:03:52.400,0:03:53.954 Và sau đó, phân tích thật kỹ càng, 0:03:53.954,0:03:56.810 thuật toán đã tìm kiếm toàn bộ các kết cấu và nếp nhăn 0:03:56.810,0:03:59.390 và các hình dạng thay đổi trên khuôn mặt của chúng ta, 0:03:59.390,0:04:02.592 và nhận thấy về cơ bản tất cả các nụ cười đều[br]có những đặc tính chung, 0:04:02.592,0:04:05.773 toàn bộ nhụ cười bực bội có các đặc tính khác biệt. 0:04:05.773,0:04:08.141 Và với lần sau khi máy tính nhìn vào một khuôn mặt mới, 0:04:08.141,0:04:10.440 nó có thể nhận ra thực tế là 0:04:10.440,0:04:13.473 khuôn mặt này có các đặc tính giống với một nụ cười, 0:04:13.473,0:04:17.751 và nó sẽ nói răng, "Ồ, tôi đã nhận ra điều này.[br]Đây là cách biểu lộ một nụ cười." 0:04:18.381,0:04:21.181 Vậy thì cách tốt nhất để mô tả công nghệ này [br]hoạt động như thế nào 0:04:21.181,0:04:23.317 là chúng ta thử nghiệm trực tiếp tại đây, 0:04:23.317,0:04:27.230 nào bây giờ tôi cần một tình nguyện viên, [br]ưu tiên ai đó có một cái mặt. 0:04:27.230,0:04:29.564 (Khán giả cười) 0:04:29.564,0:04:32.335 Chị Cloe sẽ là tình nguyện viên của chúng ta hôm nay. 0:04:33.325,0:04:37.783 Vì lẽ đó mà trong vòng 5 năm qua, chúng tôi đã [br]chuyển một dự án nghiên cứu tại MIT 0:04:37.783,0:04:38.939 thành một công ty, 0:04:38.939,0:04:42.131 mà ở đó nhóm của tôi đã làm việc rất vất vả [br]để khiến cho công nghệ này hoạt động, 0:04:42.131,0:04:44.540 như là cách mà chúng tôi muốn nói, bằng một cách hoang dại. 0:04:44.540,0:04:47.210 Và chugns tôi cũng đã rút gọn chúng lại [br]để làm sao các thành phần cảm xúc cốt lõi 0:04:47.210,0:04:50.530 có thể hoạt động với bất kỳ thiết bị di động nào[br]có camera, giống như chiếc iPad này. 0:04:50.530,0:04:53.316 Giờ chúng ta cùng thử nghiệm. 0:04:54.756,0:04:58.680 Như các bạn thấy, thuật toán về cơ bản đã [br]tìm ra khuôn mặt của chi Chloe, 0:04:58.680,0:05:00.372 đó là khung bao màu trắng, 0:05:00.372,0:05:02.943 và nó theo dõi các điểm đặc tính chính trên[br]khuôn mặt của cô ấy, 0:05:02.943,0:05:05.799 đó là lông mày, mắt, miệng và mũi của cô ấy. 0:05:05.799,0:05:08.786 Câu hỏi ở đây là, [br]liệu nó có thể nhận biết được các biểu lộ của cô ấy? 0:05:08.786,0:05:10.457 Nào giờ chúng ta cùng thử nghiệm cái máy này. 0:05:10.457,0:05:14.643 Trước tiên, hãy cho chúng tôi thấy một bộ mặt phớt đời.[br]Vâng, tuyệt vời. (Khán giả cười) 0:05:14.643,0:05:17.456 Và sau đây là cô ấy cười,[br]một nụ cười thực sự, thật tuyệt. 0:05:17.456,0:05:19.756 Như vậy các bạn đã nhìn thấy các cột màu xanh tăng lên[br]khi mà cô ấy cười. 0:05:19.756,0:05:20.978 Nào bây giờ là một nụ cười lớn. 0:05:20.978,0:05:24.021 Bạn có thể thể hiện một nụ cười thật tinh tế[br]để xem máy tính có nhận ra không? 0:05:24.021,0:05:26.352 Nó cũng đã nhận ra một nụ cười tinh tế. 0:05:26.352,0:05:28.477 Chúng tôi đã làm việc rất vất vả[br]để tạo ra điều này. 0:05:28.477,0:05:31.439 Và khi lông mày nhếc lên, [br]đó là chỉ điểm của sự ngạc nhiên. 0:05:31.439,0:05:35.688 Cái nhíu mày là chỉ điểm của sự bối rối. 0:05:35.688,0:05:39.695 Cái cau mày. Đúng, tuyệt vời. 0:05:39.695,0:05:43.188 Có thể thấy đây là toàn bộ những đơn vị hành động khác nhau.[br]Thực tế chúng còn có nhiều hơn nữa. 0:05:43.188,0:05:45.220 Đây chỉ là một trình diễn đơn giản. 0:05:45.220,0:05:48.368 Nhưng chúng ta có thể coi mỗi một lần đọc cảm xúc[br]là một điểm dữ liệu, 0:05:48.368,0:05:51.337 và sau đó chúng có thể tổng hợp lại [br]và đưa ra một chân dung với các cảm xúc khác nhau. 0:05:51.337,0:05:55.990 Vì thế ở phía bên phải của bản trình diễn--[br]giống như là bạn đang hạnh phúc. 0:05:55.990,0:05:57.444 Vì thế sự vui mừng đó. Vui mừng được bùng phát lên. 0:05:57.444,0:05:59.371 Và sau đó làm cho tôi mọt bộ mặt ghê tởm. 0:05:59.371,0:06:03.643 Cố gắng nhớ tới điều đó đã như thế nào [br]khi Zayn rời khỏi One Direction. 0:06:03.643,0:06:05.153 (Khán giả cười) 0:06:05.153,0:06:09.495 Vâng, nào hãy nhăn mũi. Tuyệt vời. 0:06:09.495,0:06:13.226 Và trị số tương đối là âm tính, vì thế bạn[br]chắc phải là một người hâm mộ lớn. 0:06:13.226,0:06:15.926 Vì thế trị số chỉ ra những trải nghiệm tích cực[br]hoặc tiêu cực như thế nào, 0:06:15.926,0:06:18.712 và sự tham gia cũng là cách biểu lộ của cô ấy. 0:06:18.712,0:06:22.126 Vì thế tưởng tượng rằng chị Chloe tham gia [br]vào chuỗi cảm xúc thực này, 0:06:22.126,0:06:24.935 và chị ấy có thể chia sẻ not với [br]bất kỳ ai mà chị ấy muốn. 0:06:24.935,0:06:27.858 Cảm ơn. 0:06:27.858,0:06:32.479 (Khán giả vỗ tay) 0:06:33.749,0:06:39.019 Cho tới nay, chúng tôi đã tích lỹ được[br]khoảng 12 tỷ dữ liệu cảm xúc như vậy. 0:06:39.019,0:06:41.630 Đây là một cơ sở dữ liệu cảm xúc lớn nhất thế giới. 0:06:41.630,0:06:44.593 Chúng tôi đã thu thập nó từ [br]khoảng hơn 2,9 triệu video về khuôn mặt, 0:06:44.593,0:06:47.193 của những người đã đồng ý chia sẻ [br]những cảm xúc của họ với chúng tôi, 0:06:47.193,0:06:50.398 và họ đến từ 75 quốc gia trên thế giới. 0:06:50.398,0:06:52.113 Nó gia tăng từng ngày. 0:06:52.603,0:06:54.670 Nó đã thổi bay tâm trí của tôi 0:06:54.670,0:06:57.865 theo đó chúng tôi giờ đây có thể lượng hoá [br]một số cảm xúc cá nhân của chúng ta, 0:06:57.865,0:07:00.100 và chúng tôi có thể thực hiện nó ở mức độ như thế này. 0:07:00.100,0:07:02.277 Vậy thì chúng tôi đã học được gì cho tới nay? 0:07:03.057,0:07:05.388 Giới tính. 0:07:05.388,0:07:09.034 Dữ liệu của chúng tôi đã xác định được một số điều[br]mà các bạn có thể hoài nghi. 0:07:09.034,0:07:10.891 Phụ nữ thường biểu cảm nhiều hơn nam giới. 0:07:10.891,0:07:13.574 Không chỉ là họ cười nhiều hơn, [br]mà nụ cười của họ còn kéo dài hơn, 0:07:13.574,0:07:16.478 và chúng tôi giờ đây có thể thực sự lượng hoá được [br]điều gì khiến nam giới và phụ nữ 0:07:16.478,0:07:18.614 đáp ứng khác nhau. 0:07:18.614,0:07:20.904 Nào cùng xem xét khía cạnh văn hoá: Ở Mỹ 0:07:20.904,0:07:24.108 phụ nữ có biểu cảm nhiều hơn nam giới tới 40%, 0:07:24.108,0:07:27.753 nhưng đáng ngạc nhiên, chúng tôi không thấy sự khác biệt[br]giữa nam giới và phụ nữ ở Anh. 0:07:27.753,0:07:30.259 (Khán giả cười) 0:07:31.296,0:07:35.323 Độ tuổi: Người trên 50 tuổi 0:07:35.323,0:07:38.759 biểu lộ cảm xúc nhiều hơn người trẻ 25%. 0:07:39.899,0:07:43.751 Phụ nữ ở độ tuổi 20 cười nhiều hơn rất nhiều[br]so với nam giới ở cùng độ tuổi, 0:07:43.751,0:07:47.590 có thể đó là điều cần thiết cho việc hẹn hò. 0:07:47.590,0:07:50.207 Nhưng có thế điều mà gây cho chúng tôi nhiều [br]ngạc nhiên nhất về số liệu này 0:07:50.207,0:07:53.410 đó là chúng ta luôn luôn biểu lộ cảm xúc, 0:07:53.410,0:07:56.243 thậm chí ngay cả khi chúng ta ngồi [br]một mình trước các thiết bị điện tử, 0:07:56.243,0:07:59.517 và không chỉ là khi chúng ta đang xem[br]một video về mèo trên Facebook. 0:08:00.217,0:08:03.227 Chúng ta bộc lộ cảm xúc khi chúng ta gửi thư điện tử,[br]chúng ta nhắn tin, chúng ta mua bán trực tuyến, 0:08:03.227,0:08:05.527 và thậm chí khi chúng ta khai báo thuế. 0:08:05.527,0:08:07.919 Vậy thì số liệu này được dùng ở đâu hiện nay? 0:08:07.919,0:08:10.682 để hiểu biết việc chúng ta liên hệ thế nào với truyền thông, 0:08:10.682,0:08:13.166 hiểu về mức độ là truyền [br]và thái độ bỏ phiếu, 0:08:13.166,0:08:15.906 và cũng là làm mạnh mẽ và khả thi hơn công nghệ về cảm xúc, 0:08:15.906,0:08:20.527 và tôi muốn chia sẻ một vài ví dụ [br]mà chúng đặc biệt nằm trong trái tim tôi. 0:08:21.197,0:08:24.265 Một chiếc kính cảm xúc có thể giúp người mù[br][br] 0:08:24.265,0:08:27.493 đọc được cảm xúc trên mặt người khác, 0:08:27.493,0:08:31.680 và nó có thể giúp những người tự kỷ[br]thể hiện cảm xúc của họ, 0:08:31.680,0:08:34.458 những điều mà họ thực sự phải đối mặt. 0:08:35.918,0:08:38.777 Đối với giáo dục, tưởng tượng rằng[br]ứng dụng học tập của bạn 0:08:38.777,0:08:41.587 có thể cảm nhận được là bạn đang bối rối và đang đuối sức, 0:08:41.587,0:08:43.444 hoặc khi bạn cảm thấy nhàm chán, [br]thì nó sẽ tăng tốc lên, 0:08:43.444,0:08:46.413 giống như là một giáo viên tuyệt với ở lớp vậy. 0:08:47.043,0:08:49.644 Đó là khi đồng hồ đeo tay của bạn [br]sẽ theo dõi cảm xúc của bạn, 0:08:49.644,0:08:52.337 hoặc ô tô của bản cảm nhận được bạn đang mệt mỏi, 0:08:52.337,0:08:54.885 hoặc có thể tủ lạnh của bạn biết rằng[br]bạn đang căng thẳng 0:08:54.885,0:09:00.951 vì thế nó sẽ tự động khoá lại[br]giúp bạn tránh được ăn uống vô độ. (Khán giả cười) 0:09:00.951,0:09:03.668 Tất nhiên tôi thích điều đó. 0:09:03.668,0:09:05.595 Đó là, khi tôi ở Cambridge, 0:09:05.595,0:09:07.908 Tôi đã tạo ra một dòng cảm xúc theo thời gian thực, 0:09:07.908,0:09:11.437 và có thể chia sẻ nó với gia đình tại quê nhà[br]theo một cách tự nhiên nhất, 0:09:11.437,0:09:15.408 nó giống như tất cả chúng tôi đang[br]ở trong một căn phòng với nhau vậy phải không? 0:09:15.408,0:09:18.550 Tôi nghĩ rằng trong vòng 5 năm nữa, 0:09:18.550,0:09:20.887 toàn bộ các thiết bị điện tử [br]sẽ có các con chíp cảm xúc, 0:09:20.887,0:09:24.951 và chúng ta không nhớ điều đó đã thế nào[br]khi chúng ta không nhíu mày trước thiết bị điện tử 0:09:24.951,0:09:29.200 và cái thiết bị điện tử của chúng ta sẽ nói: "Hừm, [br]bạn đã không thích điều đó, phải không?" 0:09:29.200,0:09:32.961 Trở ngại lớn nhất của chúng tôi hiện nay là [br]có quá nhiều các ứng dụng của công nghệ này, 0:09:32.961,0:09:35.864 tôi và nhóm của tôi nhận ra rằng [br]chúng tôi không thể tự phát triển toàn bộ chúng, 0:09:35.864,0:09:39.360 do đó chúng tôi đã làm cho công nghệ này sẵn sàng[br]để các nhà phát triển khác [br] 0:09:39.360,0:09:41.474 có thể tiếp tục xây dựng và sáng tạo. 0:09:41.474,0:09:45.560 Chúng tôi nhìn nhận rằng[br]có những rủi ro tiềm ẩn 0:09:45.560,0:09:47.627 và những sự lạm dụng tiềm ẩn, 0:09:47.627,0:09:50.576 nhưng về cá nhân tôi, khi đã dành rất nhiều năm cho nó, 0:09:50.576,0:09:53.548 tôi tin tưởng rằng các lợi ích mang lại cho con người 0:09:53.548,0:09:55.823 từ công nghệ cảm xúc thông minh 0:09:55.823,0:09:59.399 vượt xa ngoài những rủi ro tiềm ẩn. 0:09:59.399,0:10:01.930 Và tôi xin mời toàn bộ các bạn tham gia vào cuộc thảo luận này. 0:10:01.930,0:10:04.484 Càng nhiều người biết về công nghệ này, 0:10:04.484,0:10:07.661 chúng ta sẽ càng có tiếng nói đối với [br]việc làm sao để sử dụng đúng công nghệ này. 0:10:09.081,0:10:13.655 Vì thế khi mà càng ngày cuộc sống của chúng ta[br]càng trở nên số hoá, 0:10:13.655,0:10:17.153 chúng ta đang thua cuộc trong trận chiến[br]chống lại việc sử dụng các thiết bị điện tử của chúng ta 0:10:17.153,0:10:19.382 nhằm dành lại cảm xúc của chúng ta. 0:10:20.622,0:10:24.536 Vì thế thay vào đó, điều mà tôi đang cố gắng làm[br]đó là đưa cảm xúc vào trong công nghệ của chúng ta 0:10:24.536,0:10:26.765 và làm cho công nghệ của chúng ta trở nên[br]tương tác nhiều hơn. 0:10:26.765,0:10:29.435 Vì thế tôi muốn rằng những thiết bị điện tử[br]đang làm chia rẽ chúng ta[br] 0:10:29.435,0:10:31.897 sẽ mang chúng ta trở lại với nhau. 0:10:31.897,0:10:36.485 Và bởi những công nghệ phục vụ con người, [br]chúng ta có một cơ hội vàng 0:10:36.485,0:10:39.782 để hình dung lại cách mà chúng ta kết nối với máy móc, 0:10:39.782,0:10:44.263 và do đó, là những con người, làm thế nào chúng ta 0:10:44.263,0:10:46.167 kết nối với những người khác. 0:10:46.167,0:10:48.327 Cảm ơn. 0:10:48.327,0:10:51.640 (Khán giả vỗ tay)