0:00:00.880,0:00:04.893 Ngày xưa nếu bạn muốn máy tính[br]thực hiện thao tác mới, 0:00:04.893,0:00:06.447 thì bạn phải lập trình nó trước. 0:00:06.447,0:00:09.858 Đối với những bạn ở đây[br]chưa từng lập trình, 0:00:09.858,0:00:13.360 việc này đòi hỏi phải lập sơ đồ chi tiết 0:00:13.360,0:00:16.727 từng bước một cho điều[br]bạn muốn máy tính thực hiện 0:00:16.727,0:00:19.089 để đạt được mục tiêu của bạn. 0:00:19.089,0:00:22.585 Nếu bạn muốn làm một việc mà chính bạn[br]cũng không biết cách làm, 0:00:22.585,0:00:24.648 thì đây sẽ là một thử thách khá lớn. 0:00:24.648,0:00:28.131 Đây là thử thách mà người đàn ông này, [br]Arthur Samuel, gặp phải. 0:00:28.131,0:00:32.208 Vào năm 1956, ông muốn chiếc máy tính này 0:00:32.208,0:00:34.548 có thể đánh bại ông trong môn cờ tướng. 0:00:34.548,0:00:36.588 Làm sao mà bạn có thể viết ra chương trình 0:00:36.588,0:00:40.394 tỉ mỉ, chi tiết về cách chơi [br]cờ tướng giỏi hơn chính bạn ? 0:00:40.394,0:00:42.116 Vậy là ông nảy ra một ý tưởng: 0:00:42.116,0:00:45.840 ông để máy tính tự chơi lại hàng ngàn lần 0:00:45.840,0:00:48.364 và tự học cách chơi cờ. 0:00:48.364,0:00:51.544 Và quả nhiên cách này hiệu quả,[br]và thật sự, đến năm 1962, 0:00:51.544,0:00:55.561 chiếc máy này đã đánh bại [br]quán quân bang Connecticut. 0:00:55.561,0:00:58.534 Arthur Samuel là cha đẻ của [br]lĩnh vực machine learning, 0:00:58.534,0:01:00.251 và tôi rất biết ơn ông, 0:01:00.251,0:01:03.014 bởi tôi là một người làm trong [br]ngành "máy biết học". 0:01:03.014,0:01:04.479 Tôi từng là Chủ tịch ở Kaggle 0:01:04.479,0:01:07.867 một cộng đồng gồm hơn 200,000 [br]chuyên gia về "máy biết học". 0:01:07.867,0:01:09.925 Kaggle tổ chức các cuộc thi 0:01:09.925,0:01:13.633 với thử thách là [br]những vấn đề chưa có lời giải, 0:01:13.633,0:01:17.470 và họ đã thành công hàng trăm lần. 0:01:17.470,0:01:19.940 Với vị thế thuận lợi đó, [br]tôi đã khám phá ra 0:01:19.940,0:01:23.890 rất nhiều thứ mà "máy biết học" có thể [br]làm được trước đây, làm được bây giờ, 0:01:23.890,0:01:26.252 và những gì nó có thể làm trong tương lai. 0:01:26.252,0:01:30.675 Có lẽ sự thành công vang dội đầu tiên [br]của "máy biết học" là Google 0:01:30.675,0:01:33.784 Google cho ta thấy nó có thể [br]tìm kiếm thông tin 0:01:33.784,0:01:35.536 bằng cách sử dụng thuật toán, 0:01:35.536,0:01:38.437 và thuật toán này dựa trên[br]"máy biết học", 0:01:38.437,0:01:42.323 Kể từ đó, đã có rất nhiều thành công[br]về mặt thương mại của "máy biết học". 0:01:42.323,0:01:44.160 Công ty như Amazon và Netflix 0:01:44.160,0:01:47.876 sử dụng "máy biết học"để gợi ý [br]những sản phẩm bạn có thể muốn mua, 0:01:47.876,0:01:49.896 các bộ phim bạn có thể muốn xem. 0:01:49.896,0:01:51.703 Đôi khi nó làm ta [br]rùng mình. 0:01:51.703,0:01:53.657 Các công ty như LinkedIn và Facebook 0:01:53.657,0:01:56.251 đôi khi sẽ nói cho bạn biết ai có thể[br]là bạn bè của bạn 0:01:56.251,0:01:58.228 và bạn không hiểu nổi làm sao họ tìm ra, 0:01:58.228,0:02:01.195 và đó là vì họ dùng đến sức mạnh của[br]"máy biết học". 0:02:01.195,0:02:04.152 Đây là thuật toán tự học cách xử lý[br]từ cơ sở dữ liệu, 0:02:04.152,0:02:07.399 thay vì được lập trình sẵn trước đó. 0:02:07.399,0:02:09.877 Đây cũng là cách IBM thành công 0:02:09.877,0:02:13.739 trong việc khiến cho Watson đánh bại [br]hai nhà vô địch chương trình "Jeopardy", 0:02:13.739,0:02:16.964 bằng cách trả lời những câu hỏi hóc [br]búa và phức tạp như : 0:02:16.964,0:02:19.799 [Sư tử Nimrud bị mất tại bảo tàng [br]quốc gia thành phố ... 0:02:19.799,0:02:23.034 Đây cũng là cơ sở cho[br]những xe hơi tự lái đầu tiên. 0:02:23.034,0:02:25.856 Nếu chúng phân biệt [br]được sự khác nhau giữa 0:02:25.856,0:02:28.488 cây xanh và người đi bộ,[br]thì đó là việc rất quan trọng. 0:02:28.488,0:02:31.075 Chúng ta không biết cách viết [br]những chương trình này, 0:02:31.075,0:02:34.072 nhưng với "máy biết học", điều đó[br]trở thành có thể. 0:02:34.072,0:02:36.680 Và thực tế, loại xe này đã đi được [br]cả triệu dặm 0:02:36.680,0:02:40.186 trên những con đường bình thường [br]mà không gây tai nạn nào. 0:02:40.196,0:02:44.110 Bây giờ chúng ta biết máy tính[br]có thể học được, 0:02:44.110,0:02:46.010 và chúng có thể học[br]cách làm những việc 0:02:46.010,0:02:48.848 mà đôi khi chính chúng ta [br]không biết cách làm, 0:02:48.848,0:02:51.733 hoặc có thể chúng làm tốt hơn ta. 0:02:51.733,0:02:55.928 Một trong những ví dụ ngoạn mục nhất[br]về "máy biết học" tôi từng thấy 0:02:55.928,0:02:58.320 là dự án tôi tham gia ở Kaggle 0:02:58.320,0:03:01.911 nơi đó có một anh chàng điều khiển [br]một nhóm, anh ta tên là Geofrey Hinton 0:03:01.911,0:03:03.463 đến từ Đại học Toronto 0:03:03.463,0:03:06.140 nhóm này thắng cuộc thi về[br]chế tạo máy phát hiện ma túy. 0:03:06.140,0:03:08.987 Bây giờ, điều phi thường ở đây [br]không phải là họ đánh bại 0:03:08.987,0:03:13.000 tất cả các giải thuật phát triển bới Merk[br]hay các cộng đồng học thuật quốc tế khác 0:03:13.000,0:03:18.061 mà chính là họ không có thành viên nào [br]chuyên về hóa, sinh hay khoa học đời sống, 0:03:18.061,0:03:20.230 và họ đã tạo ra chiếc máy [br]chỉ trong 2 tuần. 0:03:20.230,0:03:21.611 Làm thế nào mà họ làm được? 0:03:22.421,0:03:25.342 Họ dùng 1 siêu giải thuật[br]gọi là deep learning: "học sâu". 0:03:25.342,0:03:28.291 Thành công này quan trọng [br]đến mức đã được lên 0:03:28.291,0:03:31.412 trang bìa tờ New York Times[br]vài tuần sau đó. 0:03:31.412,0:03:34.147 Đây là Geoffrey Hinton ở đây bên bìa trái. 0:03:34.147,0:03:38.488 "Học sâu" là một giải thuật lấy [br]cảm hứng từ cách làm việc của não người, 0:03:38.488,0:03:40.300 và kết quả là giải thuật này 0:03:40.300,0:03:44.141 về lý thuyết, không có giới hạn cho [br]những gì nó có thể làm. 0:03:44.141,0:03:46.964 Bạn đưa vào càng nhiều dữ liệu và[br]cho càng nhiều thời gian, 0:03:46.964,0:03:48.276 thì nó càng làm tốt. 0:03:48.276,0:03:50.615 Trong bài báo này, Tờ New York Times[br]cũng nói về 0:03:50.615,0:03:52.857 một kết quả tuyệt vời khác [br]của "học sâu" 0:03:52.857,0:03:55.569 mà tôi sẽ cho các bạn xem bây giờ. 0:03:55.569,0:04:00.510 Đó là máy tính có thể nghe và hiểu. 0:04:00.510,0:04:03.221 (Video) Richard Rashid: [br]Bây giờ là bước cuối cùng 0:04:03.221,0:04:06.246 mà tôi muốn làm trong quá trình này 0:04:06.246,0:04:10.961 là nói chuyện với các bạn bằng [br]tiếng Trung. 0:04:10.961,0:04:13.596 Điểm mấu chốt đó là, 0:04:13.596,0:04:18.598 chúng tôi có thể lấy lượng lớn[br]thông tin từ những người nói tiếng Trung 0:04:18.598,0:04:21.128 và tạo ra hệ thống chuyển văn bản [br]thành giọng nói 0:04:21.128,0:04:25.801 nó giúp lấy văn bản tiếng Trung chuyển [br]thành tiếng Trung, 0:04:25.801,0:04:29.929 và sau đó chúng tôi đã thực hiện khoảng [br]1 giờ để lấy giọng của chính tôi 0:04:29.929,0:04:31.820 từ đó chúng tôi đã điều chỉnh 0:04:31.820,0:04:36.364 hệ thống chuyển 'văn bản-lời nói'[br]để cho ra được giọng nói giống tôi. 0:04:36.364,0:04:38.904 Lần nữa, kết quả không hoàn hảo. 0:04:38.904,0:04:41.552 Thực tế vẫn còn một vài lỗi. 0:04:41.552,0:04:44.036 ( tiếng Trung). 0:04:44.036,0:04:47.403 (vỗ tay) 0:04:49.446,0:04:53.022 Còn nhiều việc để làm trong lĩnh vực này. 0:04:53.022,0:04:56.667 ( tiếng Trung) 0:04:56.667,0:05:00.100 ( vỗ tay) 0:05:01.345,0:05:04.744 Jeremy Howard: đó là trong một hội thảo[br]về "máy biết học" ở Trung Quốc. 0:05:04.744,0:05:07.114 Thực ra ở hội thảo học thuật, các bạn 0:05:07.114,0:05:09.011 thường ít nghe tiếng vỗ tay tự phát, 0:05:09.011,0:05:12.687 ngay cả ở các hội thảo của TEDx,[br]hay vỗ tay thoải mái đi. 0:05:12.687,0:05:15.482 Những điều bạn thấy đó[br]đang diễn ra với "học sâu". 0:05:15.482,0:05:17.007 ( vỗ tay) Cảm ơn. 0:05:17.007,0:05:19.289 Viết lại lời tiếng tiếng Anh[br]bằng "học sâu". 0:05:19.289,0:05:22.701 Dịch sang tiếng Trung có văn bản[br]ở trên bên phải, do "học sâu", 0:05:22.701,0:05:26.008 và xây dựng giọng nói cũng nhờ [br]"học sâu". 0:05:26.008,0:05:29.242 "Học sâu" thật sự phi thường. 0:05:29.242,0:05:32.341 Nó là một giải thuật đơn giản mà có vẻ [br]làm được hầu hết mọi thứ, 0:05:32.341,0:05:35.452 và tôi phát hiện trước đó một năm,[br]nó còn học nhìn thấy. 0:05:35.452,0:05:37.628 Trong cuộc thi ở Đức, 0:05:37.628,0:05:40.225 cuộc thi 'Nhận biết Tín hiệu[br]Giao thông Benchmark', 0:05:40.225,0:05:43.618 "học sâu" nhận biết các [br]tín hiệu giao thông,như cái này. 0:05:43.618,0:05:45.712 Nó không chỉ nhận biết tín hiệu giao thông 0:05:45.712,0:05:47.470 tốt hơn bất kỳ giải thuật nào khác, 0:05:47.470,0:05:50.189 mà còn làm tốt hơn cả con người, 0:05:50.189,0:05:52.041 tốt hơn gấp đôi. 0:05:52.041,0:05:54.037 Năm 2011, chúng tôi có thử nghiệm đầu tiên 0:05:54.037,0:05:57.442 cho thấy máy tính có thể nhìn[br]tốt hơn con người. 0:05:57.442,0:05:59.491 Từ đó, rất nhiều điều đã xảy ra. 0:05:59.491,0:06:03.005 Năm 2012, Google thông báo họ đã có một[br]giải thuật "học sâu" 0:06:03.005,0:06:04.420 xem được video trên YouTube 0:06:04.420,0:06:07.857 và lấy dữ liệu từ 16,000 máy tính trong[br]một tháng, 0:06:07.857,0:06:12.218 và máy tính đã học một cách độc lập[br]các khái niệm "người" và "mèo" 0:06:12.218,0:06:14.027 chỉ bằng việc xem các videos. 0:06:14.027,0:06:16.379 Cách này rất giống[br]cách học của con người. 0:06:16.379,0:06:19.119 Không cần khái niệm có sẵn,[br]ta học từ cái ta nhìn thấy, 0:06:19.119,0:06:22.450 ta có thể hiểu trực tiếp[br]bản chất của sự vật đó. 0:06:22.450,0:06:25.819 Cũng trong năm 2012, Geoffrey Hinton,[br] 0:06:25.819,0:06:28.677 chiến thắng cuộc thi[br]ImageNet rất nổi tiếng, 0:06:28.677,0:06:32.818 vì đã tìm ra cách để xác định [br]một trong số nửa triệu tấm ảnh 0:06:32.818,0:06:34.256 được giao trước. 0:06:34.256,0:06:37.789 Từ 2014, chúng tôi đã giảm[br]còn 6% tỉ lệ lỗi 0:06:37.789,0:06:39.242 trong việc nhận diện hình ảnh. 0:06:39.242,0:06:41.268 Với dạng việc này, [br]máy cũng hơn con người. 0:06:41.268,0:06:45.037 Thật vậy, máy rất siêu trong lĩnh vực này, 0:06:45.037,0:06:47.306 và đang được ứng dụng trong công nghiệp. 0:06:47.306,0:06:50.348 Ví dụ, năm ngoái Google thông báo 0:06:50.348,0:06:54.933 họ đã lập bản đồ mọi địa điểm ở Pháp [br]trong 2 giờ, 0:06:54.933,0:06:58.380 và cách họ làm là nạp những hình ảnh [br]đường phố 0:06:58.380,0:07:02.699 vào giải thuật "học sâu" để nhận diện[br]và đọc số nhà. 0:07:02.699,0:07:04.919 Hãy tưởng tượng trước đây [br]mất bao lâu: 0:07:04.919,0:07:08.274 vài chục người làm việc trong nhiều năm. 0:07:08.274,0:07:10.185 Điều này cũng diễn ra ở Trung Quốc. 0:07:10.185,0:07:14.221 Tôi thấy Baidu cũng là một dạng [br]Google ở Trung Quốc, 0:07:14.221,0:07:16.504 và những gì bạn thấy ở trên bên góc trái 0:07:16.504,0:07:20.478 là một ví dụ về một bức ảnh tôi tải lên [br]hệ thống "học sâu" của Baidu 0:07:20.478,0:07:24.247 và ở dưới bạn có thể thấy kết quả [br]hệ thống xử lý bức ảnh 0:07:24.247,0:07:26.483 và nó đã tìm ra những bức hình tương tự. 0:07:26.483,0:07:29.219 Những bức hình tương tự thực ra có [br]nền tương tự, 0:07:29.219,0:07:30.877 hướng của khuôn mặt tương tự, 0:07:30.877,0:07:32.665 và cả một số hình có lưỡi thè ra. 0:07:32.665,0:07:35.695 Đây không phải là đối chiếu văn bản [br]của trang web. 0:07:35.695,0:07:37.107 Tôi chỉ upload một tấm ảnh. 0:07:37.107,0:07:41.128 Vậy chúng ta đang có những chiếc máy tính[br]thực sự hiểu được những gì chúng nhìn thấy 0:07:41.128,0:07:42.752 và có thể nhờ đó tìm dữ liệu 0:07:42.752,0:07:46.306 của hàng trăm triệu tấm ảnh. 0:07:46.306,0:07:49.536 Điều đó có nghĩa là gì khi máy tính [br]có thể nhìn thấy? 0:07:49.536,0:07:51.553 À, máy tính không chỉ có thể[br]nhìn thấy. 0:07:51.553,0:07:53.622 Thật ra, "học sâu"[br]còn làm được nhiều hơn. 0:07:53.622,0:07:56.570 Những câu phức tạp và đầy [br]nét khác biệt tinh tế như câu này 0:07:56.570,0:07:59.394 giờ đã được hiểu bởi giải thuật "học sâu". 0:07:59.394,0:08:00.697 Như các bạn thấy ở đây,[br] 0:08:00.697,0:08:03.465 hệ thống nền Stanford này đang chiếu điểm[br]đỏ ở trên 0:08:03.465,0:08:07.384 đã tìm ra rằng câu này thể hiện tình cảm[br]tiêu cực. 0:08:07.384,0:08:10.790 "học sâu" thực sự đang gần giống như[br]con người 0:08:10.802,0:08:15.923 trong việc hiểu chủ đề các câu [br]và nội dung diễn đạt. 0:08:15.923,0:08:18.651 "học sâu" có thể đọc tiếng Trung, 0:08:18.651,0:08:21.807 giống như người nói tiếng Trung bản xứ. 0:08:21.807,0:08:23.975 Giải thuật này phát triển ở Thụy Sĩ 0:08:23.975,0:08:27.331 bởi những người không [br]biết tí gì tiếng Trung. 0:08:27.331,0:08:29.382 Như tôi đã nói, "học sâu" 0:08:29.382,0:08:31.601 là phương tiện tốt nhất [br]trong lĩnh vực này, 0:08:31.601,0:08:36.718 vì nó có thể hiểu [br]thậm chí như người bản địa. 0:08:36.718,0:08:39.682 Đây là hệ thống chúng tôi trang bị[br]ở công ty tôi, 0:08:39.682,0:08:41.728 công ty tôi muốn sử dụng [br]và kết hợp tất cả. 0:08:41.728,0:08:44.189 Đây là những tấm hình không kèm theo[br]dòng chữ nào, 0:08:44.189,0:08:46.541 vì tôi viết những câu vào chỗ này, 0:08:46.541,0:08:49.510 nhờ đó nó hiểu những tấm hình này 0:08:49.510,0:08:51.189 và tìm ra chúng nói về cái gì 0:08:51.189,0:08:54.352 và tìm những tấm hình có ý [br]tương tự với dòng chữ tôi đang viết. 0:08:54.352,0:08:57.108 Vậy các bạn thấy đó, nó thực sự hiểu[br]được câu tôi viết 0:08:57.108,0:08:59.332 và thực sự hiểu những tấm hình này. 0:08:59.332,0:09:01.891 Tôi biết các bạn từng thấy điều tương tự[br]trên Google, 0:09:01.891,0:09:04.666 khi bạn viết điều gì đó và chúng hiện[br]lên các tấm ảnh, 0:09:04.666,0:09:08.090 nhưng thực sự những gì nó đang làm là [br]tìm những trang web theo dòng chữ. 0:09:08.090,0:09:11.091 Điều này rất khác với việc thực việc hiểu[br]những tấm ảnh. 0:09:11.091,0:09:13.843 Đây là điều mà máy tính chỉ có thể làm 0:09:13.843,0:09:17.091 lần đầu tiên cách đây vài tháng. 0:09:17.091,0:09:21.182 Chúng ta thấy máy tính không chỉ [br]nhìn thấy được mà chúng còn đọc được, 0:09:21.182,0:09:24.947 và dĩ nhiên chúng tôi cho thấy chúng còn[br]hiểu được những gì chúng nghe. 0:09:24.947,0:09:28.389 Có lẽ không còn ngạc nhiên khi tôi nói [br]với các bạn chúng có thể viết. 0:09:28.389,0:09:33.172 Ở đây là những dòng văn bản tôi tạo ra[br]bằng giải thuật "học sâu" hôm qua. 0:09:33.172,0:09:37.096 Và đây là những văn bản giải thuật ở [br]Stanford tạo ra. 0:09:37.096,0:09:38.860 Mỗi câu được tạo ra 0:09:38.860,0:09:43.109 bằng giải thuật "học sâu" nhằm mô tả[br]những bức ảnh này. 0:09:43.109,0:09:47.581 Trước đây giải thuật này chưa bao giờ[br]thấy một người đàn ông áo đen chơi ghita 0:09:47.581,0:09:49.801 Nhưng nó đã thấy đàn ông,[br]và đã thấy màu đen, 0:09:49.801,0:09:51.400 và nó cũng đã thấy đàn ghita, 0:09:51.400,0:09:55.694 rồi nó đã tự tạo ra [br]chú thích của tấm ảnh này. 0:09:55.694,0:09:59.196 Máy vẫn chưa đạt đến mức như [br]con người, nhưng cũng khá gần rồi. 0:09:59.196,0:10:03.264 Trong các thí nghiệm máy viết phụ đề[br]cho hình, số phụ đề được người ta chọn 0:10:03.264,0:10:04.791 chỉ ở tỉ lệ 1/4. 0:10:04.791,0:10:06.855 Nhưng hệ thống này giờ [br]chỉ mới 2 tuần tuổi, 0:10:06.855,0:10:08.701 nên có thể trong năm tới, 0:10:08.701,0:10:11.502 giải thuật máy tính sẽ còn[br]hơn cả con người 0:10:11.502,0:10:13.364 và tỉ lệ được chọn sẽ cao hơn. 0:10:13.364,0:10:16.413 Máy tính cũng có thể viết. 0:10:16.413,0:10:19.888 Chúng tôi kết hợp tất cả lại và nó [br]dẫn đến những cơ hội rất thú vị. 0:10:19.888,0:10:21.380 Ví dụ, trong ngành y, 0:10:21.380,0:10:23.905 một nhóm ở Boston thông báo họ đã tìm ra 0:10:23.905,0:10:26.854 hàng chục tính năng lâm sàng mới 0:10:26.854,0:10:31.120 của các khối u để giúp các[br]bác sĩ tiên đoán bệnh ung thư. 0:10:32.220,0:10:34.516 Tương tự, ở Stanford, 0:10:34.516,0:10:38.179 một nhóm thông báo rằng, dựa vào [br]các hình phóng đại của mô, 0:10:38.179,0:10:40.560 họ phát triển hệ thống "máy biết học" 0:10:40.560,0:10:43.142 còn tốt hơn cả các nhà nghiên cứu bệnh học 0:10:43.142,0:10:47.519 nhờ thế làm tăng khả năng sống sót[br]của các bệnh nhân ung thư. 0:10:47.519,0:10:50.764 Trong cả hai trường hợp, không chỉ việc [br]tiên đoán chính xác hơn, 0:10:50.764,0:10:53.266 mà còn tạo ra ngành [br]khoa học mới rất triển vọng. 0:10:53.276,0:10:54.781 Trong lĩnh vực X-quang, 0:10:54.781,0:10:57.876 chúng là những chỉ số lâm sàng[br]mới mà con người có thể hiểu. 0:10:57.876,0:10:59.668 Trong lĩnh vực bệnh học, 0:10:59.668,0:11:04.168 hệ thống máy tính đã cho thấy rằng [br]những tế bào xung quanh khối u 0:11:04.168,0:11:07.508 cũng quan trọng như chính tế bào ung thư 0:11:07.508,0:11:09.260 trong việc chẩn đoán bệnh. 0:11:09.260,0:11:14.621 Điều này ngược với những gì các nhà [br]bệnh học được dạy trong nhiều thập kỷ qua. 0:11:14.621,0:11:17.913 Trong mỗi trường hợp trên,[br]chúng là các hệ thống được phát triển 0:11:17.913,0:11:21.534 bởi sự hợp tác của các chuyên gia y tế[br]và các chuyên gia "máy biết học", 0:11:21.534,0:11:24.275 nhưng từ năm trước,[br]chúng tôi đã tiến khá xa. 0:11:24.275,0:11:27.824 Đây là một ví dụ về xác định khu vực [br]ung thư 0:11:27.824,0:11:30.354 của mô người dưới kính hiển vi. 0:11:30.354,0:11:34.967 Hệ thống có thể xác định những [br]khu vực chính xác hơn 0:11:34.967,0:11:37.742 hoặc tương đương các nhà bệnh học, 0:11:37.742,0:11:41.134 nhưng vì nó được xây dựng với [br]"học sâu" không có chuyên gia ngành y 0:11:41.134,0:11:43.660 nên những người không chuyên [br]cũng có thể dùng. 0:11:44.730,0:11:47.285 Ví dụ như việc phân đoạn nơ ron này. 0:11:47.285,0:11:50.953 Máy giúp chúng tôi phân đoạn nơ ron [br]chính xác như các chuyên gia, 0:11:50.953,0:11:53.670 nhưng hệ thống này lại được thiết kế với[br]"học sâu" 0:11:53.670,0:11:56.921 bởi những người không có [br]chuyên môn y khoa. 0:11:56.921,0:12:00.148 Còn tôi, cũng không có nền tảng về y khoa, 0:12:00.148,0:12:03.875 thế mà tôi dường như có đầy đủ năng lực [br]để mở một công ty về ngành y, 0:12:03.875,0:12:06.021 và tôi đã làm. 0:12:06.021,0:12:07.761 Tôi đã từng sợ trước khi bắt đầu, 0:12:07.761,0:12:10.650 nhưng lý thuyết cho thấy mọi người có thể 0:12:10.650,0:12:16.142 dùng những kỹ thuật phân tích dữ liệu [br]để có được một nền y học hiệu quả. 0:12:16.142,0:12:18.622 Và may mắn là tôi nhận được [br]những phản hồi rất tốt, 0:12:18.622,0:12:20.978 không chỉ từ truyền thông [br]mà còn từ giới y khoa, 0:12:20.978,0:12:23.322 họ luôn ủng hộ. 0:12:23.322,0:12:27.471 Về lý thuyết, chúng tôi có thể lấy phần [br]giữa của quy trình 0:12:27.471,0:12:30.364 và làm phân tích dữ liệu [br]càng nhiều càng tốt, 0:12:30.364,0:12:33.429 phần còn lại dành cho bác sĩ. 0:12:33.429,0:12:35.031 Tôi muốn đưa ra một ví dụ. 0:12:35.031,0:12:39.975 Thông thường ta cần 15 phút [br]để làm một xét nghiệm chẩn đoán 0:12:39.975,0:12:41.929 và tôi sẽ làm cho bạn xem 0:12:41.929,0:12:45.416 tôi nén nó thành 3 phút [br]bằng cách cắt bớt bỏ một số phần. 0:12:45.416,0:12:48.477 Thay vì cho bạn xem quá trình [br]một xét nghiệm chẩn đoán y học, 0:12:48.477,0:12:51.846 tôi sẽ cho các bạn xem một xét nghiệm[br]chẩn đoán hình ảnh xe hơi, 0:12:51.846,0:12:54.068 vì như thế sẽ dễ hiểu cho mọi người. 0:12:54.068,0:12:57.269 Chúng tôi bắt đầu với khoảng 1,5 triệu [br]hình ảnh xe hơi, 0:12:57.269,0:13:00.475 tôi muốn tạo tiêu chuẩn để [br]gom chúng lại vào góc 0:13:00.475,0:13:02.698 của bức hình đang được chụp. 0:13:02.698,0:13:06.586 Những bức hình này không gắn nhãn trước,[br]nên tôi phải bắt đầu từ số không. 0:13:06.586,0:13:08.451 Giải thuật "học sâu" 0:13:08.451,0:13:12.158 có thể tự xác định [br]vùng cấu trúc trong những bức ảnh này. 0:13:12.158,0:13:15.778 Rất thuận lợi, bây giờ con người [br]và máy tính có thể làm việc cùng nhau. 0:13:15.778,0:13:17.956 Như các bạn đang thấy đây, con người 0:13:17.956,0:13:20.631 đang nói cho máy tính biết [br]lĩnh vực cần quan tâm 0:13:20.631,0:13:25.281 mà họ muốn máy tính sử dụng để [br]cải thiện giải thuật của nó. 0:13:25.281,0:13:29.577 Những hệ thống "học sâu" này thực ra là[br]không gian 16,000 chiều, 0:13:29.577,0:13:33.009 bạn có thể thấy ở đây máy tính quay[br]quanh không gian đó, 0:13:33.009,0:13:35.001 cố gắng tìm vùng mới của cấu trúc. 0:13:35.001,0:13:36.782 Và khi nó làm thành công, 0:13:36.782,0:13:40.786 người sử dụng máy có thể tìm thấy[br]khu vực đáng quan tâm. 0:13:40.786,0:13:43.208 Ở đây, máy tính đã tìm ra những vùng đó, 0:13:43.208,0:13:45.770 ví dụ, các góc. 0:13:45.770,0:13:47.376 Khi chúng tôi thực hiện, 0:13:47.376,0:13:49.716 chúng tôi lần lượt nói cho máy tính 0:13:49.716,0:13:52.144 các loại mảng cấu trúc [br]mà chúng tôi tìm kiếm. 0:13:52.144,0:13:53.916 Hãy liên tưởng xét nghiệm chuẩn đoán, 0:13:53.916,0:13:57.266 ví dụ, một chuyên gia bệnh học [br]xác định những vùng của bệnh , 0:13:57.266,0:14:02.292 hoặc một bác sĩ X-quang cho thấy nốt sần[br]có thể gây phiền phức, 0:14:02.292,0:14:04.851 và đôi khi nó gây khó cho giải thuật. 0:14:04.851,0:14:06.815 Trong trường hợp này, giải thuật hơi rối. 0:14:06.815,0:14:09.365 Phần trước và sau của xe rất[br]giống nhau nên dễ nhầm. 0:14:09.365,0:14:11.437 Chúng tôi phải cẩn thận hơn, 0:14:11.437,0:14:14.669 chọn bằng tay phần trước để thấy [br]sự khác biệt với phần sau, 0:14:14.669,0:14:20.175 sau đó bảo với máy tính rằng đây là[br]tiêu chuẩn nhận dạng nhóm 0:14:20.175,0:14:21.523 mà chúng tôi quan tâm. 0:14:21.523,0:14:24.200 Chúng tôi làm điều đó,[br]thỉnh thoảng bỏ qua, 0:14:24.200,0:14:26.446 sau đó luyện tập giải thuật [br]cho "máy biết học" 0:14:26.446,0:14:28.420 dựa trên hàng trăm lần như thế này, 0:14:28.420,0:14:30.445 chúng tôi hy vọng nó hoàn thiện hơn. 0:14:30.445,0:14:33.518 Các bạn thấy đó, nó đang bắt đầu làm mờ[br]vài bức ảnh, 0:14:33.518,0:14:38.226 cho thấy rằng nó đã nhận ra cách [br]để hiểu những hình đó. 0:14:38.226,0:14:41.128 Chúng tôi có thể dùng khái niệm này cho[br]các bức ảnh tương tự, 0:14:41.128,0:14:43.222 và dùng các bức ảnh tương tự, bạn thấy đó, 0:14:43.222,0:14:47.241 máy tính có thể tìm thấy[br]phần trước của chiếc xe. 0:14:47.241,0:14:50.189 Lúc này, con người có thể nói cho máy tính 0:14:50.189,0:14:52.482 ok, đúng rồi, bạn đã làm rất tốt. 0:14:53.652,0:14:55.837 Nhưng đôi khi, đối với máy 0:14:55.837,0:14:59.511 việc tách các nhóm hình vẫn còn khó. 0:14:59.511,0:15:03.395 Ngay cả khi chúng tôi để nhiều thời gian [br]cho máy tính xoay xở, 0:15:03.399,0:15:06.744 nhưng chúng tôi vẫn thấy phía trái [br]và phía phải bức ảnh 0:15:06.744,0:15:08.222 bị chọn nhầm lẫn. 0:15:08.222,0:15:10.362 Để cho máy tính thêm vài gợi ý, 0:15:10.362,0:15:13.338 chúng tôi nói: ok, hãy thử và tìm [br]một chi tiết 0:15:13.338,0:15:15.945 khác biệt rõ ràng nhất[br]giữa bên trái và bên phải 0:15:15.945,0:15:18.067 bằng giải thuật "học sâu" này. 0:15:18.067,0:15:21.009 Và với gợi ý đó, à, nó đã thành công. 0:15:21.009,0:15:23.891 Nó được giao nhiệm vụ tìm ra cách[br]nhận ra các đối tượng này 0:15:23.891,0:15:26.271 rồi tách rời chúng ra. 0:15:26.271,0:15:28.709 Các bạn đã nắm được cách làm này. 0:15:28.709,0:15:36.906 Trong trường hợp này máy tính [br]không thể thay con người, 0:15:36.906,0:15:39.546 nhưng cả hai làm việc chung với nhau. 0:15:39.546,0:15:43.096 Điều chúng tôi đang làm là thay thế [br]những thứ mà trước đây cần một đội 0:15:43.096,0:15:45.098 5 hoặc 6 người làm trong 7 năm 0:15:45.098,0:15:47.703 bằng một công việc trong 15 phút 0:15:47.703,0:15:50.208 của một người. 0:15:50.208,0:15:54.158 Quá trình nhận ra và tách hình [br]được lặp lại 4 hoặc 5 lần. 0:15:54.158,0:15:56.017 Các bạn thấy chúng tôi có 62% 0:15:56.017,0:15:58.976 trong số 1.5 triệu bức ảnh [br]được phân loại chính xác. 0:15:58.976,0:16:01.448 Và ở mức độ này, chúng tôi có thể[br]bắt đầu với 0:16:01.448,0:16:02.745 những nhóm lớn, 0:16:02.745,0:16:05.664 kiểm tra chúng để bảo đảm không còn lỗi. 0:16:05.664,0:16:09.616 Nơi nào có lỗi, chúng tôi sẽ cho[br]máy tính biết. 0:16:09.616,0:16:12.661 Và dùng dạng quá trình này cho từng nhóm[br]khác nhau, 0:16:12.661,0:16:15.148 bây giờ, chúng tôi đạt đến 80% tỉ lệ [br]thành công 0:16:15.148,0:16:17.563 trong việc phân loại 1.5 triệu tấm ảnh. 0:16:17.563,0:16:19.641 Lúc này, với trường hợp 0:16:19.641,0:16:23.220 tìm thấy những tấm [br]không được phân loại đúng, 0:16:23.220,0:16:26.108 chúng tôi cố gắng tìm hiểu lý do. 0:16:26.108,0:16:27.851 Và sử dụng cách tiếp cận trên, 0:16:27.851,0:16:31.972 với 15 phút chúng tôi đạt tỉ lệ phân loại[br]97%. 0:16:31.972,0:16:36.572 Vậy kỹ thuật này có thể cho chúng ta[br]chỉnh sửa một vấn đề lớn, 0:16:36.578,0:16:39.614 mà toàn bộ chuyên gia trên [br]thế giới cũng không đủ số để làm. 0:16:39.614,0:16:43.103 Diễn đàn Kinh tế Thế giới nói rằng [br]vào giữa thập kỷ 2010 và 2020 0:16:43.103,0:16:45.727 số lượng bác sĩ bị thiếu [br]so với nhu cầu của thế giới, 0:16:45.727,0:16:47.840 và phải mất khoảng 300 năm 0:16:47.840,0:16:50.734 để đào tạo đủ số nhân sự cho vấn đề này. 0:16:50.734,0:16:53.619 Hãy tưởng tượng, liệu chúng ta có thể [br]nâng hiệu năng của họ 0:16:53.619,0:16:56.458 qua cách tiếp cận "học sâu"? 0:16:56.458,0:16:58.690 Tôi rất thích việc tạo ra những cơ hội. 0:16:58.690,0:17:01.279 Tôi cũng quan tâm đến [br]các vấn đề khó cần giải quyết. 0:17:01.279,0:17:04.403 Vấn đề ở đây là ở mỗi khu vực [br]màu xanh da trời trên bản đồ, 0:17:04.403,0:17:08.172 ngành dịch vụ chiếm 80% nhân lực. 0:17:08.172,0:17:09.959 Ngành dịch vụ gì vậy? 0:17:09.959,0:17:11.473 Các dịch vụ trong bảng này. 0:17:11.473,0:17:15.627 Máy tính cũng vừa mới học [br]được cách làm các dịch vụ này. 0:17:15.627,0:17:19.431 Vậy công việc của 80% nhân lực [br]trong các nước phát triển 0:17:19.431,0:17:21.963 sẽ được máy tính học để làm thay. 0:17:21.963,0:17:23.403 Điều đó có nghĩa là gì? 0:17:23.403,0:17:25.986 À, sẽ ổn thôi.[br]Họ sẽ làm các công việc khác. 0:17:25.986,0:17:28.693 Ví dụ, sẽ có nhiều việc hơn cho[br]các nhà khoa học dữ liệu. 0:17:28.693,0:17:29.510 À cũng không hẳn. 0:17:29.510,0:17:32.628 Vì các nhà khoa học dữ liệu [br]không cần nhiều thời gian nữa. 0:17:32.628,0:17:35.880 Ví dụ, bốn giải thuật này được xây dựng[br]bởi cùng một người. 0:17:35.880,0:17:38.318 Các bạn nghĩ chuyện này [br]đã xảy ra trước đây rồi, 0:17:38.318,0:17:42.126 trong quá khứ nhiều máy móc [br]được làm ra và tiếp theo là 0:17:42.126,0:17:44.378 và nhiều người đã phải [br]chuyển sang việc mới, 0:17:44.378,0:17:46.494 nhưng việc mới của thời nay này sẽ là gì? 0:17:46.494,0:17:48.365 Thật khó để dự đoán được điều này, 0:17:48.365,0:17:51.104 vì khả năng của con người [br]thì chỉ tăng từng bước, 0:17:51.104,0:17:53.666 nhưng với một hệ thống "học sâu", 0:17:53.666,0:17:56.893 chúng ta có khả năng phát triển rất nhanh. 0:17:56.893,0:17:58.498 Và chúng ta ở đây. 0:17:58.498,0:18:00.559 Chúng ta thấy những thứ xung quanh 0:18:00.559,0:18:03.235 và chúng ta nói: "Ôi, máy tính[br]vẫn ngốc lắm", lo gì ? 0:18:03.235,0:18:06.664 Nhưng trong 5 năm nữa, máy tính[br]sẽ không còn như vậy. 0:18:06.664,0:18:10.529 Chúng ta cần suy nghĩ tới [br]khả năng này ngay từ bây giờ. 0:18:10.529,0:18:12.579 Chúng ta thấy một lần[br]như vậy trước đây rồi. 0:18:12.579,0:18:13.966 Trong cách mạng công nghiệp, 0:18:13.966,0:18:16.817 chúng ta đã thấy những thay đổi [br]nhờ các động cơ. 0:18:17.667,0:18:20.805 Mặc dù vậy, sau đó mọi thứ[br]trở nên bình thường. 0:18:20.805,0:18:22.507 Đã có vài đảo lộn trong xã hội, 0:18:22.507,0:18:25.946 nhưng một khi động cơ được dùng [br]để tạo ra những thuận lợi cho cuộc sống, 0:18:25.946,0:18:28.300 thì mọi thứ đi vào ổn định. 0:18:28.300,0:18:29.773 Cuộc cách mạng "máy biết học" 0:18:29.773,0:18:32.682 sẽ rất khác với [br]Cuộc cách mạng công nghiệp, 0:18:32.682,0:18:35.632 vì Cách mạng "máy biết học sẽ[br]không bao giờ dừng lại. 0:18:35.632,0:18:38.614 Máy tính càng giỏi [br]trong các hoạt động trí tuệ, 0:18:38.614,0:18:42.862 thì chúng tạo nên những [br]máy tính càng thông minh hơn, 0:18:42.862,0:18:44.770 và đây chính là kiểu thay đổi 0:18:44.770,0:18:47.248 mà thế giới chưa bao giờ trải qua, 0:18:47.248,0:18:50.554 những phán đoán trước đây của bạn [br]có thể sẽ không chính xác. 0:18:50.974,0:18:52.754 Điều này tác động lên chính chúng ta. 0:18:52.754,0:18:56.384 Trong 25 năm trước, khi năng suất[br]thiết bị tăng, 0:18:56.400,0:19:00.588 thì năng suất lao động không tăng, [br]mà thậm chí còn hơi giảm. 0:19:01.408,0:19:04.149 Tôi nghĩ chúng ta cần[br]thảo luận về vấn đề này từ bây giờ. 0:19:04.149,0:19:07.176 Khi tôi nói với mọi người [br]về tình hình này, 0:19:07.176,0:19:08.666 họ thường tỏ vẻ coi thường. 0:19:08.666,0:19:10.339 Đúng, máy tính không thể suy nghĩ, 0:19:10.339,0:19:13.367 chúng không có cảm xúc, không hiểu thơ ca, 0:19:13.367,0:19:15.888 nhưng ta không lường [br]trước được cách chúng làm việc. 0:19:15.888,0:19:17.374 Vậy chuyện gì đây? 0:19:17.374,0:19:19.178 Bây giờ, máy tính có thể làm 0:19:19.178,0:19:21.897 những việc mà con người [br]cần cả đời để thực hiện, 0:19:21.897,0:19:23.628 đây là thời điểm để[br]chúng ta nghĩ tới 0:19:23.628,0:19:28.015 cách điều chỉnh cấu trúc xã hội[br]và cấu trúc kinh tế 0:19:28.015,0:19:29.855 để thận trọng với hiện thực mới này. 0:19:29.855,0:19:31.388 Xin cảm ơn. 0:19:31.388,0:19:32.190 (Tiếng vỗ tay)