1 00:00:00,556 --> 00:00:04,573 Cảm xúc của chúng ta ảnh hưởng tới mọi khía cạnh của cuộc sống, 2 00:00:04,573 --> 00:00:08,149 từ sức khoẻ và học tập, cho đến làm thế nào để kinh doanh và ra các quyết định, 3 00:00:08,149 --> 00:00:09,922 những điều lớn lao và nhỏ bé. 4 00:00:10,672 --> 00:00:14,162 Cảm xúc của chúng ta cũng ảnh hưởng tới cách mà chúng ta giao tiếp với người khác. 5 00:00:15,132 --> 00:00:19,108 Chúng ta đã tiến hoá để sống trong một thế giới như thế này, 6 00:00:19,108 --> 00:00:23,427 nhưng thay vào đó, chúng ta đang ngày càng sống giống như thế này -- 7 00:00:23,427 --> 00:00:26,561 đây là tin nhắn từ con gái tôi tối qua-- 8 00:00:26,561 --> 00:00:29,301 trong một thế giới mà ở đó không có cảm xúc 9 00:00:29,301 --> 00:00:31,252 Vì thế tôi có nhiệm vụ thay đổi điều đó. 10 00:00:31,252 --> 00:00:35,343 Tôi muốn mang cảm xúc trở lại trong các trải nghiệm trên thiết bị điện tử. 11 00:00:36,223 --> 00:00:39,300 Tôi đã bắt đầu công việc này từ 15 năm về trước. 12 00:00:39,300 --> 00:00:41,366 Tôi mà một nhà khoa học về máy tính ở Ai Cập, 13 00:00:41,366 --> 00:00:45,871 và tôi đã được chấp nhận vào chương trình tiến sĩ tại Đại học tổng hợp Cambridge. 14 00:00:45,871 --> 00:00:47,984 Vì thế tôi đã làm một số điều không bình thường 15 00:00:47,984 --> 00:00:52,209 đối với một người vợ trẻ mới cưới theo đạo hồi ở Ai Cập: 16 00:00:53,599 --> 00:00:56,598 Với sự ủng hộ từ chồng tôi, anh đã phải ở lại Ai Cập 17 00:00:56,598 --> 00:00:59,616 Tôi đã sắp xếp hành lý và đi tới Anh 18 00:00:59,616 --> 00:01:02,844 tại Đại học Cambridge, cách xa nhà hàng nghìn cây số, 19 00:01:02,844 --> 00:01:06,257 Tôi đã nhận ra rằng tôi đã dành nhiều thời gian cho cái máy tính xách tay của tôi 20 00:01:06,257 --> 00:01:08,486 hơn là giao tiếp với mọi người xung quanh. 21 00:01:08,486 --> 00:01:13,339 Cho dù gần gũi như vậy, nhưng cái máy tính của tôi hoàn toàn không biết cảm giác của tôi thế nào 22 00:01:13,339 --> 00:01:16,550 Nó không hiểu là tôi hạnh phúc, 23 00:01:16,550 --> 00:01:19,538 có một ngày tồi tệ, hoặc căng thẳng, bối rối, 24 00:01:19,538 --> 00:01:22,460 và thật là vô dụng. 25 00:01:23,600 --> 00:01:28,831 Thậm chí tồi tệ hơn, khi tôi nói chuyện trực tiếp với gia đình của tôi ở nhà, 26 00:01:29,421 --> 00:01:32,703 Tôi cảm giác rằng toàn bộ cảm xúc của tôi đã tiêu biến đi trong không gian ảo. 27 00:01:32,703 --> 00:01:37,858 Tôi dã nhớ nhà, tôi cảm thấy cô đơn, và vào một số ngày thực sự tôi đã khóc, 28 00:01:37,858 --> 00:01:42,786 nhưng cái thứ mà tôi phải dùng để giao tiếp chỉ là những thứ như thế này. 29 00:01:42,786 --> 00:01:44,806 (Khán giả cười) 30 00:01:44,806 --> 00:01:49,780 Công nghệ hiện này có quá nhiều thứ về IQ, nhưng chưa đề cập tới EQ; 31 00:01:49,780 --> 00:01:52,956 có rất nhiều trí tuệ nhân tạo về nhận thức, nhưng không có trí tuệ nhân tạo về cảm xúc. 32 00:01:52,956 --> 00:01:55,153 Vì thế điều đó đã khiến tôi suy nghĩ, 33 00:01:55,153 --> 00:01:58,777 Điều gì sẽ sảy ra nếu công nghệ có thể cảm nhận được cảm xúc của chúng ta? 34 00:01:58,777 --> 00:02:02,853 Điều gì sẽ sảy ra nếu các thiết bị có thể cảm nhận được chúng ta đang cảm thấy thế nào và đáp ứng lại một cách hợp lý, 35 00:02:02,853 --> 00:02:05,866 liệu có thể đáp lại theo cách mà một người bạn có cảm xúc? 36 00:02:06,666 --> 00:02:10,230 Những câu hỏi này đã dẫn dắt tôi và nhóm của tôi 37 00:02:10,230 --> 00:02:14,607 sáng tạo ra các công nghệ mà chúng có thể đọc và đáp ứng lại cảm xúc của chúng ta, 38 00:02:14,607 --> 00:02:17,697 và khởi đầu của chúng tôi là từ khuôn mặt của con người. 39 00:02:18,577 --> 00:02:21,750 Vì khuôn mặt của chúng ta là một trong những kênh mạnh mẽ nhất 40 00:02:21,750 --> 00:02:25,766 để tất cả chúng ta tạo ra các trạng thái giao tiếp xã hội và cảm xúc, 41 00:02:25,766 --> 00:02:28,776 tất cả mọi thứ từ hứng thú, ngạc nhiên, 42 00:02:28,776 --> 00:02:32,979 đồng cảm và tò mò. 43 00:02:32,979 --> 00:02:37,907 Trong khoa học về cảm xúc, chúng tôi gọi mỗi một chuyển động cơ mặt mà một đơn vị hành động. 44 00:02:37,907 --> 00:02:40,832 Vì thế, ví dụ như đơn vị hành động số 12, 45 00:02:40,832 --> 00:02:42,870 nó không phải là một bộ phim bom tất của Hollywood, 46 00:02:42,870 --> 00:02:46,312 mà thực sự nó là một cái nhếch môi, đây là một thành tố chính của một nụ cười. 47 00:02:46,312 --> 00:02:49,300 Mọi người hày làm thử xem nào. Hãy để những nụ cười tiếp tục. 48 00:02:49,300 --> 00:02:51,954 Một ví dụ khác là đơn vị hành động số 4, nó có nghĩa là cái nhíu lông mày. 49 00:02:51,954 --> 00:02:54,192 Đó là khi bạn kéo lông mày của bạn cùng lúc 50 00:02:54,192 --> 00:02:56,459 và bạn đã tạo ra các kết cấu và nếp nhăn này. 51 00:02:56,459 --> 00:03:00,754 Chúng ta không thích chúng, nhưng đây là những chỉ điểm mạnh mẽ cho một cảm xúc tiêu cực. 52 00:03:00,754 --> 00:03:02,960 Như vậy chúng ta có khoảng 45 đơn vị hành động loại này, 53 00:03:02,960 --> 00:03:06,350 và chúng kết hợp với nhau để bộc lộ hàng trăm cảm xúc khác nhau. 54 00:03:06,350 --> 00:03:10,251 Dạy cho máy tinhd đọc được những cảm xúc của khuôn mặt này thật khó, 55 00:03:10,251 --> 00:03:13,223 bởi vì những đơn vị hành động này, chúng có thể diễn ra rất nhanh, tinh tế, 56 00:03:13,223 --> 00:03:15,777 và chúng được kết hợp bằng rất nhiều cách khác nhau, 57 00:03:15,777 --> 00:03:19,515 Vì thế thử lấy một ví dụ về nụ cười thoải mái và nụ cười bực bội. 58 00:03:19,515 --> 00:03:23,268 Trông chúng có vẻ giống nhau, nhưng thực tế chúng có ý nghĩa rất khác nhau. 59 00:03:23,268 --> 00:03:24,986 (Khán giả cười) 60 00:03:24,986 --> 00:03:27,990 Trong khi cười thoải mái có ý nghĩa tích cực, 61 00:03:27,990 --> 00:03:29,260 thì cười bực bội thường là tiêu cực. 62 00:03:29,260 --> 00:03:33,136 Đôi khi cười bực bội có thể khiến bạn trở nên nổi tiếng. 63 00:03:33,136 --> 00:03:35,960 Nhưng, rất quan trọng đối với máy tính để chúng có thể 64 00:03:35,960 --> 00:03:38,815 đưa ra sự khác biệt giữa 2 cách biểu lộ cảm xúc đo. 65 00:03:38,815 --> 00:03:40,627 Vậy thì làm thế nào để chúng tôi làm được điều đó? 66 00:03:40,627 --> 00:03:42,414 Chúng tôi đưa ra các thuật toán cảu chúng tôi 67 00:03:42,414 --> 00:03:46,524 với hàng ngàn ví dụ mà chúng ta biết về nụ cười của mọi người, 68 00:03:46,524 --> 00:03:49,589 với sự khác nhau về dân tộc, tuổi tác, giới tính, 69 00:03:49,589 --> 00:03:52,400 và chúng tôi cũng làm giống như vậy đối với nụ cười bực bội. 70 00:03:52,400 --> 00:03:53,954 Và sau đó, phân tích thật kỹ càng, 71 00:03:53,954 --> 00:03:56,810 thuật toán đã tìm kiếm toàn bộ các kết cấu và nếp nhăn 72 00:03:56,810 --> 00:03:59,390 và các hình dạng thay đổi trên khuôn mặt của chúng ta, 73 00:03:59,390 --> 00:04:02,592 và nhận thấy về cơ bản tất cả các nụ cười đều có những đặc tính chung, 74 00:04:02,592 --> 00:04:05,773 toàn bộ nhụ cười bực bội có các đặc tính khác biệt. 75 00:04:05,773 --> 00:04:08,141 Và với lần sau khi máy tính nhìn vào một khuôn mặt mới, 76 00:04:08,141 --> 00:04:10,440 nó có thể nhận ra thực tế là 77 00:04:10,440 --> 00:04:13,473 khuôn mặt này có các đặc tính giống với một nụ cười, 78 00:04:13,473 --> 00:04:17,751 và nó sẽ nói răng, "Ồ, tôi đã nhận ra điều này. Đây là cách biểu lộ một nụ cười." 79 00:04:18,381 --> 00:04:21,181 Vậy thì cách tốt nhất để mô tả công nghệ này hoạt động như thế nào 80 00:04:21,181 --> 00:04:23,317 là chúng ta thử nghiệm trực tiếp tại đây, 81 00:04:23,317 --> 00:04:27,230 nào bây giờ tôi cần một tình nguyện viên, ưu tiên ai đó có một cái mặt. 82 00:04:27,230 --> 00:04:29,564 (Khán giả cười) 83 00:04:29,564 --> 00:04:32,335 Chị Cloe sẽ là tình nguyện viên của chúng ta hôm nay. 84 00:04:33,325 --> 00:04:37,783 Vì lẽ đó mà trong vòng 5 năm qua, chúng tôi đã chuyển một dự án nghiên cứu tại MIT 85 00:04:37,783 --> 00:04:38,939 thành một công ty, 86 00:04:38,939 --> 00:04:42,131 mà ở đó nhóm của tôi đã làm việc rất vất vả để khiến cho công nghệ này hoạt động, 87 00:04:42,131 --> 00:04:44,540 như là cách mà chúng tôi muốn nói, bằng một cách hoang dại. 88 00:04:44,540 --> 00:04:47,210 Và chugns tôi cũng đã rút gọn chúng lại để làm sao các thành phần cảm xúc cốt lõi 89 00:04:47,210 --> 00:04:50,530 có thể hoạt động với bất kỳ thiết bị di động nào có camera, giống như chiếc iPad này. 90 00:04:50,530 --> 00:04:53,316 Giờ chúng ta cùng thử nghiệm. 91 00:04:54,756 --> 00:04:58,680 Như các bạn thấy, thuật toán về cơ bản đã tìm ra khuôn mặt của chi Chloe, 92 00:04:58,680 --> 00:05:00,372 đó là khung bao màu trắng, 93 00:05:00,372 --> 00:05:02,943 và nó theo dõi các điểm đặc tính chính trên khuôn mặt của cô ấy, 94 00:05:02,943 --> 00:05:05,799 đó là lông mày, mắt, miệng và mũi của cô ấy. 95 00:05:05,799 --> 00:05:08,786 Câu hỏi ở đây là, liệu nó có thể nhận biết được các biểu lộ của cô ấy? 96 00:05:08,786 --> 00:05:10,457 Nào giờ chúng ta cùng thử nghiệm cái máy này. 97 00:05:10,457 --> 00:05:14,643 Trước tiên, hãy cho chúng tôi thấy một bộ mặt phớt đời. Vâng, tuyệt vời. (Khán giả cười) 98 00:05:14,643 --> 00:05:17,456 Và sau đây là cô ấy cười, một nụ cười thực sự, thật tuyệt. 99 00:05:17,456 --> 00:05:19,756 Như vậy các bạn đã nhìn thấy các cột màu xanh tăng lên khi mà cô ấy cười. 100 00:05:19,756 --> 00:05:20,978 Nào bây giờ là một nụ cười lớn. 101 00:05:20,978 --> 00:05:24,021 Bạn có thể thể hiện một nụ cười thật tinh tế để xem máy tính có nhận ra không? 102 00:05:24,021 --> 00:05:26,352 Nó cũng đã nhận ra một nụ cười tinh tế. 103 00:05:26,352 --> 00:05:28,477 Chúng tôi đã làm việc rất vất vả để tạo ra điều này. 104 00:05:28,477 --> 00:05:31,439 Và khi lông mày nhếc lên, đó là chỉ điểm của sự ngạc nhiên. 105 00:05:31,439 --> 00:05:35,688 Cái nhíu mày là chỉ điểm của sự bối rối. 106 00:05:35,688 --> 00:05:39,695 Cái cau mày. Đúng, tuyệt vời. 107 00:05:39,695 --> 00:05:43,188 Có thể thấy đây là toàn bộ những đơn vị hành động khác nhau. Thực tế chúng còn có nhiều hơn nữa. 108 00:05:43,188 --> 00:05:45,220 Đây chỉ là một trình diễn đơn giản. 109 00:05:45,220 --> 00:05:48,368 Nhưng chúng ta có thể coi mỗi một lần đọc cảm xúc là một điểm dữ liệu, 110 00:05:48,368 --> 00:05:51,337 và sau đó chúng có thể tổng hợp lại và đưa ra một chân dung với các cảm xúc khác nhau. 111 00:05:51,337 --> 00:05:55,990 Vì thế ở phía bên phải của bản trình diễn-- giống như là bạn đang hạnh phúc. 112 00:05:55,990 --> 00:05:57,444 Vì thế sự vui mừng đó. Vui mừng được bùng phát lên. 113 00:05:57,444 --> 00:05:59,371 Và sau đó làm cho tôi mọt bộ mặt ghê tởm. 114 00:05:59,371 --> 00:06:03,643 Cố gắng nhớ tới điều đó đã như thế nào khi Zayn rời khỏi One Direction. 115 00:06:03,643 --> 00:06:05,153 (Khán giả cười) 116 00:06:05,153 --> 00:06:09,495 Vâng, nào hãy nhăn mũi. Tuyệt vời. 117 00:06:09,495 --> 00:06:13,226 Và trị số tương đối là âm tính, vì thế bạn chắc phải là một người hâm mộ lớn. 118 00:06:13,226 --> 00:06:15,926 Vì thế trị số chỉ ra những trải nghiệm tích cực hoặc tiêu cực như thế nào, 119 00:06:15,926 --> 00:06:18,712 và sự tham gia cũng là cách biểu lộ của cô ấy. 120 00:06:18,712 --> 00:06:22,126 Vì thế tưởng tượng rằng chị Chloe tham gia vào chuỗi cảm xúc thực này, 121 00:06:22,126 --> 00:06:24,935 và chị ấy có thể chia sẻ not với bất kỳ ai mà chị ấy muốn. 122 00:06:24,935 --> 00:06:27,858 Cảm ơn. 123 00:06:27,858 --> 00:06:32,479 (Khán giả vỗ tay) 124 00:06:33,749 --> 00:06:39,019 Cho tới nay, chúng tôi đã tích lỹ được khoảng 12 tỷ dữ liệu cảm xúc như vậy. 125 00:06:39,019 --> 00:06:41,630 Đây là một cơ sở dữ liệu cảm xúc lớn nhất thế giới. 126 00:06:41,630 --> 00:06:44,593 Chúng tôi đã thu thập nó từ khoảng hơn 2,9 triệu video về khuôn mặt, 127 00:06:44,593 --> 00:06:47,193 của những người đã đồng ý chia sẻ những cảm xúc của họ với chúng tôi, 128 00:06:47,193 --> 00:06:50,398 và họ đến từ 75 quốc gia trên thế giới. 129 00:06:50,398 --> 00:06:52,113 Nó gia tăng từng ngày. 130 00:06:52,603 --> 00:06:54,670 Nó đã thổi bay tâm trí của tôi 131 00:06:54,670 --> 00:06:57,865 theo đó chúng tôi giờ đây có thể lượng hoá một số cảm xúc cá nhân của chúng ta, 132 00:06:57,865 --> 00:07:00,100 và chúng tôi có thể thực hiện nó ở mức độ như thế này. 133 00:07:00,100 --> 00:07:02,277 Vậy thì chúng tôi đã học được gì cho tới nay? 134 00:07:03,057 --> 00:07:05,388 Giới tính. 135 00:07:05,388 --> 00:07:09,034 Dữ liệu của chúng tôi đã xác định được một số điều mà các bạn có thể hoài nghi. 136 00:07:09,034 --> 00:07:10,891 Phụ nữ thường biểu cảm nhiều hơn nam giới. 137 00:07:10,891 --> 00:07:13,574 Không chỉ là họ cười nhiều hơn, mà nụ cười của họ còn kéo dài hơn, 138 00:07:13,574 --> 00:07:16,478 và chúng tôi giờ đây có thể thực sự lượng hoá được điều gì khiến nam giới và phụ nữ 139 00:07:16,478 --> 00:07:18,614 đáp ứng khác nhau. 140 00:07:18,614 --> 00:07:20,904 Nào cùng xem xét khía cạnh văn hoá: Ở Mỹ 141 00:07:20,904 --> 00:07:24,108 phụ nữ có biểu cảm nhiều hơn nam giới tới 40%, 142 00:07:24,108 --> 00:07:27,753 nhưng đáng ngạc nhiên, chúng tôi không thấy sự khác biệt giữa nam giới và phụ nữ ở Anh. 143 00:07:27,753 --> 00:07:30,259 (Khán giả cười) 144 00:07:31,296 --> 00:07:35,323 Độ tuổi: Người trên 50 tuổi 145 00:07:35,323 --> 00:07:38,759 biểu lộ cảm xúc nhiều hơn người trẻ 25%. 146 00:07:39,899 --> 00:07:43,751 Phụ nữ ở độ tuổi 20 cười nhiều hơn rất nhiều so với nam giới ở cùng độ tuổi, 147 00:07:43,751 --> 00:07:47,590 có thể đó là điều cần thiết cho việc hẹn hò. 148 00:07:47,590 --> 00:07:50,207 Nhưng có thế điều mà gây cho chúng tôi nhiều ngạc nhiên nhất về số liệu này 149 00:07:50,207 --> 00:07:53,410 đó là chúng ta luôn luôn biểu lộ cảm xúc, 150 00:07:53,410 --> 00:07:56,243 thậm chí ngay cả khi chúng ta ngồi một mình trước các thiết bị điện tử, 151 00:07:56,243 --> 00:07:59,517 và không chỉ là khi chúng ta đang xem một video về mèo trên Facebook. 152 00:08:00,217 --> 00:08:03,227 Chúng ta bộc lộ cảm xúc khi chúng ta gửi thư điện tử, chúng ta nhắn tin, chúng ta mua bán trực tuyến, 153 00:08:03,227 --> 00:08:05,527 và thậm chí khi chúng ta khai báo thuế. 154 00:08:05,527 --> 00:08:07,919 Vậy thì số liệu này được dùng ở đâu hiện nay? 155 00:08:07,919 --> 00:08:10,682 để hiểu biết việc chúng ta liên hệ thế nào với truyền thông, 156 00:08:10,682 --> 00:08:13,166 hiểu về mức độ là truyền và thái độ bỏ phiếu, 157 00:08:13,166 --> 00:08:15,906 và cũng là làm mạnh mẽ và khả thi hơn công nghệ về cảm xúc, 158 00:08:15,906 --> 00:08:20,527 và tôi muốn chia sẻ một vài ví dụ mà chúng đặc biệt nằm trong trái tim tôi. 159 00:08:21,197 --> 00:08:24,265 Một chiếc kính cảm xúc có thể giúp người mù 160 00:08:24,265 --> 00:08:27,493 đọc được cảm xúc trên mặt người khác, 161 00:08:27,493 --> 00:08:31,680 và nó có thể giúp những người tự kỷ thể hiện cảm xúc của họ, 162 00:08:31,680 --> 00:08:34,458 những điều mà họ thực sự phải đối mặt. 163 00:08:35,918 --> 00:08:38,777 Đối với giáo dục, tưởng tượng rằng ứng dụng học tập của bạn 164 00:08:38,777 --> 00:08:41,587 có thể cảm nhận được là bạn đang bối rối và đang đuối sức, 165 00:08:41,587 --> 00:08:43,444 hoặc khi bạn cảm thấy nhàm chán, thì nó sẽ tăng tốc lên, 166 00:08:43,444 --> 00:08:46,413 giống như là một giáo viên tuyệt với ở lớp vậy. 167 00:08:47,043 --> 00:08:49,644 Đó là khi đồng hồ đeo tay của bạn sẽ theo dõi cảm xúc của bạn, 168 00:08:49,644 --> 00:08:52,337 hoặc ô tô của bản cảm nhận được bạn đang mệt mỏi, 169 00:08:52,337 --> 00:08:54,885 hoặc có thể tủ lạnh của bạn biết rằng bạn đang căng thẳng 170 00:08:54,885 --> 00:09:00,951 vì thế nó sẽ tự động khoá lại giúp bạn tránh được ăn uống vô độ. (Khán giả cười) 171 00:09:00,951 --> 00:09:03,668 Tất nhiên tôi thích điều đó. 172 00:09:03,668 --> 00:09:05,595 Đó là, khi tôi ở Cambridge, 173 00:09:05,595 --> 00:09:07,908 Tôi đã tạo ra một dòng cảm xúc theo thời gian thực, 174 00:09:07,908 --> 00:09:11,437 và có thể chia sẻ nó với gia đình tại quê nhà theo một cách tự nhiên nhất, 175 00:09:11,437 --> 00:09:15,408 nó giống như tất cả chúng tôi đang ở trong một căn phòng với nhau vậy phải không? 176 00:09:15,408 --> 00:09:18,550 Tôi nghĩ rằng trong vòng 5 năm nữa, 177 00:09:18,550 --> 00:09:20,887 toàn bộ các thiết bị điện tử sẽ có các con chíp cảm xúc, 178 00:09:20,887 --> 00:09:24,951 và chúng ta không nhớ điều đó đã thế nào khi chúng ta không nhíu mày trước thiết bị điện tử 179 00:09:24,951 --> 00:09:29,200 và cái thiết bị điện tử của chúng ta sẽ nói: "Hừm, bạn đã không thích điều đó, phải không?" 180 00:09:29,200 --> 00:09:32,961 Trở ngại lớn nhất của chúng tôi hiện nay là có quá nhiều các ứng dụng của công nghệ này, 181 00:09:32,961 --> 00:09:35,864 tôi và nhóm của tôi nhận ra rằng chúng tôi không thể tự phát triển toàn bộ chúng, 182 00:09:35,864 --> 00:09:39,360 do đó chúng tôi đã làm cho công nghệ này sẵn sàng để các nhà phát triển khác 183 00:09:39,360 --> 00:09:41,474 có thể tiếp tục xây dựng và sáng tạo. 184 00:09:41,474 --> 00:09:45,560 Chúng tôi nhìn nhận rằng có những rủi ro tiềm ẩn 185 00:09:45,560 --> 00:09:47,627 và những sự lạm dụng tiềm ẩn, 186 00:09:47,627 --> 00:09:50,576 nhưng về cá nhân tôi, khi đã dành rất nhiều năm cho nó, 187 00:09:50,576 --> 00:09:53,548 tôi tin tưởng rằng các lợi ích mang lại cho con người 188 00:09:53,548 --> 00:09:55,823 từ công nghệ cảm xúc thông minh 189 00:09:55,823 --> 00:09:59,399 vượt xa ngoài những rủi ro tiềm ẩn. 190 00:09:59,399 --> 00:10:01,930 Và tôi xin mời toàn bộ các bạn tham gia vào cuộc thảo luận này. 191 00:10:01,930 --> 00:10:04,484 Càng nhiều người biết về công nghệ này, 192 00:10:04,484 --> 00:10:07,661 chúng ta sẽ càng có tiếng nói đối với việc làm sao để sử dụng đúng công nghệ này. 193 00:10:09,081 --> 00:10:13,655 Vì thế khi mà càng ngày cuộc sống của chúng ta càng trở nên số hoá, 194 00:10:13,655 --> 00:10:17,153 chúng ta đang thua cuộc trong trận chiến chống lại việc sử dụng các thiết bị điện tử của chúng ta 195 00:10:17,153 --> 00:10:19,382 nhằm dành lại cảm xúc của chúng ta. 196 00:10:20,622 --> 00:10:24,536 Vì thế thay vào đó, điều mà tôi đang cố gắng làm đó là đưa cảm xúc vào trong công nghệ của chúng ta 197 00:10:24,536 --> 00:10:26,765 và làm cho công nghệ của chúng ta trở nên tương tác nhiều hơn. 198 00:10:26,765 --> 00:10:29,435 Vì thế tôi muốn rằng những thiết bị điện tử đang làm chia rẽ chúng ta 199 00:10:29,435 --> 00:10:31,897 sẽ mang chúng ta trở lại với nhau. 200 00:10:31,897 --> 00:10:36,485 Và bởi những công nghệ phục vụ con người, chúng ta có một cơ hội vàng 201 00:10:36,485 --> 00:10:39,782 để hình dung lại cách mà chúng ta kết nối với máy móc, 202 00:10:39,782 --> 00:10:44,263 và do đó, là những con người, làm thế nào chúng ta 203 00:10:44,263 --> 00:10:46,167 kết nối với những người khác. 204 00:10:46,167 --> 00:10:48,327 Cảm ơn. 205 00:10:48,327 --> 00:10:51,640 (Khán giả vỗ tay)