0:00:09.627,0:00:13.424 Раньше, если вы хотели,[br]чтобы компьютер сделал что-то новое, 0:00:13.424,0:00:15.256 вам нужно было это запрограммировать. 0:00:15.256,0:00:18.542 Для тех из вас, кто никогда с этим[br]не сталкивался: программирование 0:00:18.566,0:00:21.645 требует мучительного определения[br]мельчайших деталей, 0:00:21.645,0:00:25.234 каждого действия, которое[br]компьютер должен выполнить, 0:00:25.234,0:00:27.481 чтобы добиться желаемого результата. 0:00:27.481,0:00:31.126 Но запрограммировать что-то,[br]чего вы сами не умеете, — 0:00:31.126,0:00:33.132 это очень сложная задача. 0:00:33.132,0:00:36.682 С такой сложной задачей столкнулся[br]этот человек, Артур Самуэль. 0:00:36.682,0:00:42.775 В 1956 году он захотел, чтобы компьютер[br]смог обыграть его в шашки. 0:00:42.775,0:00:44.532 Как написать программу, 0:00:44.532,0:00:48.820 точную до мельчайших деталей,[br]чтобы выиграть в шашки? 0:00:48.820,0:00:50.527 И ему пришла в голову мысль: 0:00:50.527,0:00:54.370 пусть компьютер сыграет[br]сам с собой тысячи раз 0:00:54.370,0:00:56.826 и так научится играть в шашки. 0:00:56.826,0:00:59.774 И это действительно сработало,[br]и в 1962 году 0:00:59.774,0:01:02.707 этот компьютер обыграл[br]чемпиона Коннектикута. 0:01:03.416,0:01:06.859 Артур Самуэль стал основоположником[br]машинного обучения. 0:01:06.859,0:01:08.441 Я в большом долгу перед ним, 0:01:08.441,0:01:11.279 потому что я работаю[br]в области машинного обучения. 0:01:11.279,0:01:13.014 Я был президентом фирмы Kaggle, 0:01:13.014,0:01:16.162 объединяющей 200 000 людей,[br]применяющих машинное обучение. 0:01:16.162,0:01:18.447 Kaggle проводит соревнования 0:01:18.447,0:01:21.893 по решению ещё нерешённых проблем, 0:01:22.071,0:01:24.732 и участники успешно решают их сотнями. 0:01:25.727,0:01:28.118 У меня была отличная возможность[br]узнать многое 0:01:28.118,0:01:32.169 о возможностях машинного обучения[br]в прошлом, настоящем 0:01:32.169,0:01:34.367 и будущем. 0:01:34.367,0:01:36.605 Возможно, первым большим[br]коммерческим успехом 0:01:36.605,0:01:39.209 машинного обучения стал Google. 0:01:39.209,0:01:41.835 В Google доказали,[br]что можно находить информацию 0:01:41.835,0:01:44.131 с помощью компьютерного алгоритма, 0:01:44.131,0:01:46.945 и этот алгоритм был построен[br]на машинном обучении. 0:01:46.945,0:01:50.661 С тех пор машинное обучение неоднократно[br]применялось с коммерческим успехом. 0:01:50.661,0:01:52.676 Компании Amazon и Netflix используют 0:01:52.676,0:01:55.901 машинное обучение, определяя,[br]какие товары вы захотите купить 0:01:55.901,0:01:58.147 и какие фильмы посмотреть. 0:01:58.147,0:02:00.091 Иногда это даже пугает. 0:02:00.091,0:02:01.915 Сети, такие как LinkedIn и Facebook, 0:02:01.915,0:02:04.490 иногда предлагают вам в друзья людей, 0:02:04.490,0:02:06.361 а вы не понимаете, как их нашли. 0:02:06.361,0:02:09.410 А это было сделано[br]с помощью машинного обучения. 0:02:09.410,0:02:12.619 Их алгоритмы обучаются на основе данных, 0:02:12.619,0:02:15.386 а не на основе того,[br]как их запрограммировал человек. 0:02:15.860,0:02:18.444 Это также объясняет успех IBM:[br]программа Watson 0:02:18.444,0:02:21.286 обыграла двух чемпионов мира [br]в «Своей игре», 0:02:21.311,0:02:24.438 ответив на невероятно коварные[br]и сложные вопросы вроде этого: 0:02:24.463,0:02:28.123 [В 2003 году «лев Нимруда» исчез[br]из национального музея этого города] 0:02:28.153,0:02:31.704 Благодаря этим методам у нас[br]есть первые беспилотные автомобили. 0:02:31.734,0:02:33.916 Здесь достаточно важно, например, 0:02:33.946,0:02:37.258 отличать дерево от пешехода. 0:02:37.268,0:02:39.895 Мы не знаем, как создать такой алгоритм, 0:02:39.925,0:02:42.522 но можем решить эту задачу[br]с помощью машинного обучения. 0:02:42.542,0:02:46.180 И этот автомобиль в самом деле[br]проехал больше 1,5 млн километров, 0:02:46.180,0:02:48.543 ни разу не попав в аварию на трассе. 0:02:48.823,0:02:52.390 Итак, мы знаем,[br]что компьютеры могут обучаться 0:02:52.390,0:02:54.550 и могут учиться делать то, 0:02:54.550,0:02:57.305 что на самом деле мы и сами[br]не знаем, как делать — 0:02:57.305,0:03:00.062 или могут делать это лучше нас. 0:03:00.062,0:03:04.332 С одним из самых невероятных результатов[br]машинного обучения 0:03:04.332,0:03:06.863 я столкнулся, когда работал в Kaggle: 0:03:06.863,0:03:10.631 команда, которую возглавил Джеффри Хинтон 0:03:10.631,0:03:12.146 из Университета Торонто, 0:03:12.146,0:03:14.598 стала лучшей в автоматическом поиске[br]новых лекарств. 0:03:14.598,0:03:17.453 Невероятным было не только то,[br]что их алгоритм оказался лучше 0:03:17.453,0:03:21.979 всех алгоритмов, разработанных Merck[br]или международным научным сообществом, — 0:03:21.979,0:03:26.996 ни у кого из команды не было образования[br]в области химии, биологии или медицины, 0:03:26.996,0:03:28.800 и на всё у них ушло две недели. 0:03:28.800,0:03:31.003 Как им это удалось? 0:03:31.003,0:03:34.008 Благодаря уникальному алгоритму[br]глубокого обучения. 0:03:34.008,0:03:37.072 Это настолько важно, что про их успех 0:03:37.072,0:03:40.109 спустя пару недель сообщила[br]на первой полосе New York Times. 0:03:40.109,0:03:42.727 Слева — Джеффри Хинтон. 0:03:42.727,0:03:46.738 В основе глубокого обучения —[br]принципы работы человеческого мозга, 0:03:46.738,0:03:48.709 и поэтому этот алгоритм 0:03:48.709,0:03:52.108 теоретически имеет[br]неограниченные возможности. 0:03:52.108,0:03:55.509 Чем больше данных на входе[br]и чем больше времени на их обработку, 0:03:55.509,0:03:56.716 тем лучше результат. 0:03:56.752,0:03:59.421 В этой же статье New York Times[br]был упомянут ещё один 0:03:59.421,0:04:01.674 удивительный результат глубокого обучения, 0:04:01.674,0:04:03.928 который я вам сейчас покажу. 0:04:03.928,0:04:07.872 Он демонстрирует то,[br]что компьютеры могут слышать и понимать. 0:04:08.654,0:04:11.018 (Видео) Ричард Рашид: Наконец, 0:04:11.018,0:04:13.993 последнее, что я хочу сделать, — 0:04:13.993,0:04:17.334 это поговорить с вами по-китайски. 0:04:19.394,0:04:21.910 Суть в том, 0:04:21.910,0:04:26.531 что мы сформировали массив записей[br]носителей китайского языка 0:04:26.531,0:04:29.641 и построили систему[br]перевода текста в речь, 0:04:29.641,0:04:34.002 которая получает текст на китайском[br]и переводит его в речь. 0:04:35.428,0:04:38.732 Потом мы записáли примерно час[br]звучания моего голоса 0:04:38.732,0:04:40.758 и использовали его 0:04:40.758,0:04:44.504 в обычной системе перевода текста в речь. 0:04:45.188,0:04:47.726 Повторяю, результат не идеален. 0:04:47.726,0:04:50.554 Там есть несколько ошибок. 0:04:50.554,0:04:52.880 (Говорит по-китайски) 0:04:52.880,0:04:56.573 (Аплодисменты) 0:04:57.969,0:05:00.990 Нам предстоит ещё много работы. 0:05:01.449,0:05:04.893 (Говорит по-китайски) 0:05:04.893,0:05:08.420 (Аплодисменты) 0:05:10.462,0:05:14.244 Джереми Говард: Это было на конференции[br]по машинному обучению в Китае. 0:05:14.244,0:05:16.614 На самом деле,[br]на научных конференциях редко 0:05:16.614,0:05:18.511 внезапно аплодируют, 0:05:18.511,0:05:22.187 в отличие от TEDx, так что не стесняйтесь. 0:05:22.187,0:05:24.982 Всё, что вы видели, было построено[br]на глубоком обучении. 0:05:24.982,0:05:26.507 (Аплодисменты) Спасибо. 0:05:26.507,0:05:28.789 Английские субтитры —[br]это глубокое обучение. 0:05:28.789,0:05:31.751 Перевод на китайский[br]и текст справа вверху — тоже, 0:05:31.751,0:05:35.108 и конструирование голоса — снова оно. 0:05:35.508,0:05:38.742 Глубокое обучение — невероятная вещь. 0:05:38.742,0:05:41.841 Один-единственный алгоритм,[br]который, похоже, может всё, 0:05:41.841,0:05:44.952 и ещё годом раньше я обнаружил,[br]что он также научился видеть. 0:05:44.952,0:05:47.128 В этом малоизвестном[br]соревновании в Германии, 0:05:47.128,0:05:49.555 «Немецкий идеал распознавания[br]дорожных знаков», 0:05:49.555,0:05:53.118 глубокое обучение использовалось[br]для распознавания вот таких знаков. 0:05:53.118,0:05:55.214 Мало того, что результаты распознавания 0:05:55.238,0:05:56.970 лучше, чем у других алгоритмов; 0:05:56.970,0:05:59.689 в таблице результатов видно,[br]что они лучше человеческих 0:05:59.689,0:06:01.541 примерно в два раза. 0:06:01.541,0:06:03.537 Итак, к 2011 году у нас был 0:06:03.537,0:06:06.942 первый компьютер,[br]который видел лучше людей. 0:06:06.942,0:06:08.991 С тех пор произошло многое. 0:06:08.991,0:06:12.505 В 2012 Google объявил,[br]что их алгоритм глубокого обучения 0:06:12.505,0:06:13.920 использовал видео на YouTube. 0:06:13.920,0:06:17.357 Данные обрабатывались[br]на 16 000 процессоров в течение месяца, 0:06:17.357,0:06:21.718 и компьютер Google самостоятельно [br]определил, что такое люди и кошки, 0:06:21.718,0:06:23.527 на основе только видеоматериалов. 0:06:23.527,0:06:25.879 Это очень похоже на то, как учатся люди. 0:06:25.879,0:06:28.619 Им не говорят, что они видят, 0:06:28.619,0:06:31.950 люди сами разбираются в том, что видят. 0:06:31.950,0:06:35.319 В том же 2012 Джеффри Хинтон,[br]которого вы уже видели, 0:06:35.319,0:06:38.177 выиграл очень известное[br]соревнование ImageNet, 0:06:38.177,0:06:42.318 в котором было необходимо понять,[br]что изображено 0:06:42.318,0:06:43.756 на 1,5 млн картинок. 0:06:43.756,0:06:47.289 К 2014 году уровень ошибок [br]при распознавании образов 0:06:47.289,0:06:48.742 упал до 6%. 0:06:48.742,0:06:50.768 И опять же, это лучше, чем у людей. 0:06:50.768,0:06:54.537 Компьютеры действительно[br]необычайно хороши в этом, 0:06:54.537,0:06:56.806 и сейчас это применяется[br]в коммерческих целях. 0:06:56.806,0:06:59.848 Так, в прошлом году Google объявил, 0:06:59.848,0:07:04.433 что они могут локализовать любую точку[br]во Франции за два часа: 0:07:04.433,0:07:07.880 они загружают фотографии улиц 0:07:07.880,0:07:12.199 на вход алгоритма глубокого обучения,[br]чтобы распознать и прочитать адресá. 0:07:12.199,0:07:14.419 Сколько времени ушло бы на это раньше! 0:07:14.419,0:07:17.774 Понадобились бы десятки людей и много лет. 0:07:17.774,0:07:19.685 То же самое происходит в Китае. 0:07:19.685,0:07:23.721 Baidu — это что-то вроде[br]китайского Google, 0:07:23.721,0:07:26.004 и сверху слева вы видите 0:07:26.004,0:07:29.978 картинку, которую я загрузил[br]в алгоритм глубокого обучения Baidu, 0:07:29.978,0:07:33.747 а под ней — то, как система распознала,[br]что находится на картинке, 0:07:33.747,0:07:35.983 и нашла похожие. 0:07:35.983,0:07:38.719 Похожие изображения имеют близкий фон, 0:07:38.719,0:07:42.165 на них похожие выражения морд,[br]на некоторых даже так же высунут язык. 0:07:42.165,0:07:45.195 Это не просто поиск текста[br]на веб-странице. 0:07:45.195,0:07:46.607 Я загрузил только картинку. 0:07:46.607,0:07:50.628 Итак, теперь наши компьютеры [br]действительно понимают, что они видят, 0:07:50.628,0:07:52.252 и могут искать изображения в базах 0:07:52.252,0:07:55.806 среди сотен миллионов картинок —[br]в режиме реального времени. 0:07:55.806,0:07:59.036 Значит ли это,[br]что компьютеры могут видеть? 0:07:59.036,0:08:01.053 Это не просто возможность видеть. 0:08:01.053,0:08:03.244 Глубокое обучение — это намного больше. 0:08:03.268,0:08:06.070 Сложные предложения со множеством[br]смысловых оттенков 0:08:06.070,0:08:08.894 теперь понятны благодаря[br]алгоритмам глубокого обучения. 0:08:08.894,0:08:10.197 Как вы видите, 0:08:10.197,0:08:12.965 эта стэнфордская система[br]отмечает красными точками сверху, 0:08:12.965,0:08:16.884 что предложение выражает[br]отрицательные эмоции. 0:08:16.884,0:08:20.290 Результаты глубокого обучения[br]близки к человеческим 0:08:20.302,0:08:24.853 по распознаванию того,[br]что и о чём сказано. 0:08:25.423,0:08:28.151 Глубокое обучение использовалось[br]для чтения на китайском, 0:08:28.151,0:08:31.307 и результат был на уровне [br]человека — носителя китайского. 0:08:31.307,0:08:33.475 Этот алгоритм был разработан в Швейцарии 0:08:33.475,0:08:36.831 людьми, ни один из которых[br]не говорит по-китайски. 0:08:36.831,0:08:38.881 Как я и сказал, глубокое обучение — 0:08:38.881,0:08:41.101 это оптимальный способ[br]решения для таких задач, 0:08:41.101,0:08:45.562 даже по сравнению[br]с человеческим восприятием. 0:08:46.218,0:08:49.182 Система, которую создали[br]в моей компании, 0:08:49.182,0:08:51.230 занимается всем, о чём я рассказал. 0:08:51.254,0:08:53.689 Это картинки без сопроводительного текста, 0:08:53.689,0:08:56.041 и здесь я набираю предложения. 0:08:56.041,0:08:59.010 В режиме реального времени[br]картинки распознаются, 0:08:59.010,0:09:00.689 определяется их смысл, 0:09:00.689,0:09:03.852 и ищутся изображения,[br]соответствующих введённому мной тексту. 0:09:03.852,0:09:06.608 Итак, вы видите, что предложения 0:09:06.608,0:09:08.832 и картинки действительно распознаются. 0:09:08.832,0:09:11.391 Я знаю, что вы видели[br]нечто похожее в Google, 0:09:11.391,0:09:14.166 когда вы набираете запрос,[br]по которому вам выдают картинки, 0:09:14.166,0:09:17.590 но в действительности там ищется[br]нужный текст на веб-странице. 0:09:17.590,0:09:20.591 Распознавание образов —[br]это принципиально иное. 0:09:20.591,0:09:23.343 Распознавание стало доступно[br]компьютерным алгоритмам 0:09:23.343,0:09:26.121 впервые совсем недавно. 0:09:26.591,0:09:30.682 Итак, компьютеры теперь могут[br]не только видеть, но и читать, 0:09:30.682,0:09:34.447 и, как мы уже показали,[br]понимать, что они слышат. 0:09:34.447,0:09:37.889 Так что я буду последователен и скажу,[br]что они умеют писать. 0:09:37.889,0:09:42.672 Вот текст, который я сгенерировал вчера[br]с помощью алгоритма глубокого обучения. 0:09:42.672,0:09:46.596 А вот текст, сгенерированный[br]с помощью стэнфордского алгоритма. 0:09:46.596,0:09:48.360 Каждая из этих фраз составлена 0:09:48.360,0:09:52.609 алгоритмом глубокого обучения[br]для описания этих картинок. 0:09:52.609,0:09:57.081 Алгоритм ещё не встречал понятия мужчины[br]в чёрной рубашке, играющего на гитаре. 0:09:57.081,0:09:59.301 Но ему известны понятия 0:09:59.301,0:10:00.900 человека, чёрного, гитары, 0:10:00.900,0:10:05.194 и алгоритм независимо формулирует[br]связное описание этого изображения. 0:10:05.194,0:10:08.696 Мы всё ещё не дотягиваем до уровня[br]человека, но мы уже близки. 0:10:08.696,0:10:12.764 При испытаниях люди выбирают[br]описания, данные компьютером, 0:10:12.764,0:10:14.291 в одном случае из четырёх. 0:10:14.291,0:10:16.355 Этой системе всего две недели от роду, 0:10:16.355,0:10:18.201 и, скорее всего, в следующем году 0:10:18.201,0:10:21.002 алгоритм даст результаты[br]намного лучше человеческих, 0:10:21.002,0:10:22.864 если развитие пойдёт такими темпами. 0:10:22.864,0:10:25.913 Итак, компьютеры могут и писать тоже. 0:10:25.913,0:10:29.388 Складываем всё вместе,[br]и нам открываются невероятные возможности. 0:10:29.388,0:10:30.880 Например, в медицине. 0:10:30.880,0:10:33.405 Команда из Бостона открыла 0:10:33.405,0:10:36.354 десятки новых клинических[br]особенностей опухолей; 0:10:36.354,0:10:40.596 это поможет врачам диагностировать рак. 0:10:41.720,0:10:44.016 Точно так же в Стэнфорде 0:10:44.016,0:10:47.679 группа, проанализировав опухоли[br]под увеличением, 0:10:47.679,0:10:50.060 создала систему[br]на основе машинного обучения, 0:10:50.060,0:10:52.642 которая лучше, чем патологоанатомы-люди, 0:10:52.642,0:10:56.225 предсказывала исход заболевания[br]у онкобольных. 0:10:56.829,0:11:00.264 В обоих случаях алгоритмы давали[br]не только более точный результат, 0:11:00.264,0:11:02.766 но и новые неожиданные открытия. 0:11:02.776,0:11:04.281 В случае с радиологией 0:11:04.281,0:11:07.376 это были новые клинические показатели,[br]понятные для людей. 0:11:07.376,0:11:09.168 В случае с опухолями 0:11:09.168,0:11:13.668 алгоритм обнаружил,[br]что клетки вокруг опухоли 0:11:13.668,0:11:17.008 так же важны, как и сами раковые клетки, 0:11:17.008,0:11:18.760 для постановки диагноза. 0:11:18.760,0:11:24.121 Это противоречит всему,[br]чему патологоанатомов учили десятилетиями. 0:11:24.121,0:11:27.413 В разработке обеих систем 0:11:27.413,0:11:31.034 участвовали как эксперты-врачи,[br]так и специалисты по машинному обучению, 0:11:31.034,0:11:33.775 но в прошлом году мы смогли преодолеть[br]и это ограничение. 0:11:33.775,0:11:37.324 Это пример определения поражённых раком 0:11:37.324,0:11:39.854 человеческих тканей под микроскопом. 0:11:39.854,0:11:44.467 Система, которую я показываю,[br]может определить их точнее, 0:11:44.467,0:11:47.242 или так же точно, как и патологоанатом, 0:11:47.242,0:11:50.634 но она построена только на методах[br]глубокого обучения без участия врачей 0:11:50.634,0:11:53.160 людьми, не имеющими[br]никакого отношения к медицине. 0:11:54.230,0:11:56.785 Или вот сегментация нейронов. 0:11:56.785,0:12:00.453 Теперь мы можем сегментировать нейроны[br]так же аккуратно, как и вручную, 0:12:00.453,0:12:03.170 но эта система построена[br]на глубоком обучении 0:12:03.170,0:12:06.421 людьми, не имеющими[br]медицинских знаний или опыта. 0:12:06.421,0:12:09.648 Поэтому я, как человек,[br]никогда не занимавшийся медициной, 0:12:09.648,0:12:13.375 оказался отличным кандидатом на роль[br]основателя новой медицинской компании, 0:12:13.375,0:12:14.831 им я и стал. 0:12:15.521,0:12:17.261 Я порядком трýсил, 0:12:17.261,0:12:20.150 но в теории, существует[br]реальная возможность 0:12:20.150,0:12:25.642 создать очень полезные препараты,[br]используя лишь алгоритмы анализа данных. 0:12:25.642,0:12:28.122 И, к счастью, отзывы были[br]невероятно хорошими, 0:12:28.122,0:12:30.694 не только в СМИ, но[br]и от медицинского сообщества, 0:12:30.718,0:12:32.822 где горячо поддержали мою идею. 0:12:32.822,0:12:36.971 Идея заключается в том, что мы можем[br]взять промежуточный этап лечения 0:12:36.971,0:12:39.864 и максимально применить к нему[br]наши методы анализа данных, 0:12:39.864,0:12:42.929 позволив врачам заниматься тем,[br]что у них получается лучше всего. 0:12:42.929,0:12:44.531 Приведу пример. 0:12:44.531,0:12:49.475 На составление нового диагностического[br]теста у нас уходит 15 минут, 0:12:49.475,0:12:51.429 я покажу его в режиме реального времени, 0:12:51.429,0:12:53.611 но сокращу процесс до трёх минут, 0:12:53.611,0:12:55.793 вырезав отдельные фрагменты. 0:12:55.793,0:12:58.555 И вместо создания медицинского теста 0:12:58.579,0:13:01.346 я покажу тестирование изображений машин, 0:13:01.346,0:13:03.568 потому что оно будет понятнее всем. 0:13:03.568,0:13:06.769 Итак, начнём с 1,5 млн[br]изображений машин, 0:13:06.769,0:13:09.975 и я хочу придумать, как их разбить[br]на группы в зависимости от угла, 0:13:09.975,0:13:12.198 с которого они сфотографированы. 0:13:12.198,0:13:16.086 Все эти изображения не имели меток,[br]поэтому мне придётся начинать с нуля. 0:13:16.086,0:13:17.951 Наш алгоритм глубокого обучения 0:13:17.951,0:13:21.658 автоматически распознаёт отдельные[br]компоненты на этих изображениях. 0:13:21.658,0:13:25.278 Хорошо то, что человек и компьютер[br]могут решать задачу вместе. 0:13:25.278,0:13:27.456 Человек, как вы видите, 0:13:27.456,0:13:30.131 задаёт компьютеру исследуемую область, 0:13:30.131,0:13:34.781 на основе которой компьютер должен[br]усовершенствовать свой алгоритм. 0:13:34.781,0:13:39.077 Эта система глубокого обучения работает[br]в 16 000-мерном пространстве, 0:13:39.077,0:13:42.509 компьютер вращает в нём данные, 0:13:42.509,0:13:44.501 чтобы обнаружить новые структуры. 0:13:44.501,0:13:46.282 А когда он их найдёт, 0:13:46.282,0:13:50.286 человек, управляющий процессом,[br]укажет на те, что его интересуют. 0:13:50.286,0:13:52.708 Итак, компьютер успешно[br]обнаружил признаки, 0:13:52.708,0:13:55.270 например, ракурс. 0:13:55.270,0:13:56.876 В ходе исследования 0:13:56.876,0:13:59.216 мы постепенно уточняем, 0:13:59.216,0:14:01.644 что именно мы ищем. 0:14:01.644,0:14:03.416 Представьте диагностический тест, 0:14:03.416,0:14:06.766 благодаря которому врач[br]определяет границы патологии 0:14:06.766,0:14:11.792 или радиолог — потенциально[br]опасные образования. 0:14:11.792,0:14:14.351 Иногда это оказывается[br]слишком сложно для алгоритма. 0:14:14.351,0:14:16.315 Он не находит решения. 0:14:16.315,0:14:18.865 Капоты и багажники машин идут вперемешку. 0:14:18.865,0:14:20.937 Поэтому нам надо быть немного аккуратнее, 0:14:20.937,0:14:24.169 вручную разделив их, 0:14:24.169,0:14:29.675 а затем задав компьютеру тип изображений, 0:14:29.675,0:14:31.023 которые нам нужны. 0:14:31.023,0:14:33.700 Процесс длится какое-то время,[br]промотаем немного вперёд, 0:14:33.700,0:14:35.946 а потом мы обучаем наш алгоритм 0:14:35.946,0:14:37.920 на основе нескольких сотен объектов, 0:14:37.920,0:14:39.945 надеясь, что он станет[br]намного эффективнее. 0:14:39.945,0:14:43.018 Видите, некоторые[br]из этих картинок поблёкли — 0:14:43.018,0:14:47.726 это означает, что теперь компьютер[br]распознал их самостоятельно. 0:14:47.726,0:14:50.628 Теперь мы можем использовать[br]этот принцип похожих изображений. 0:14:50.628,0:14:52.722 Как видите, используя эти изображения, 0:14:52.722,0:14:56.741 теперь компьютер может самостоятельно[br]находить только фотографии машин спереди. 0:14:56.741,0:14:59.689 Теперь человек может сказать компьютеру: 0:14:59.689,0:15:01.982 «Отлично, ты молодец». 0:15:03.152,0:15:05.337 Иногда, конечно, даже на этом этапе 0:15:05.337,0:15:09.011 всё еще сложно выделить группы. 0:15:09.011,0:15:11.422 В этом случае затем мы позволяем 0:15:11.422,0:15:13.833 компьютеру покрутить его. 0:15:13.833,0:15:16.244 Снимки машин справа и слева всё ещё 0:15:16.244,0:15:17.722 идут вперемешку. 0:15:17.722,0:15:19.862 И мы снова даём компьютеру подсказки, 0:15:19.862,0:15:22.838 чтобы он нашёл плоскость, 0:15:22.838,0:15:25.445 разделяющую изображения [br]справа и слева предельно точно 0:15:25.445,0:15:27.567 на основе алгоритма глубокого обучения. 0:15:27.567,0:15:30.509 И с этими подсказками — а, отлично,[br]решение было найдено. 0:15:30.509,0:15:33.391 Компьютеру удалось найти способ[br]выделить эти объекты 0:15:33.391,0:15:35.771 среди всех остальных. 0:15:35.771,0:15:38.209 Это суть метода. 0:15:38.209,0:15:44.388 Компьютер не заменяет человека, 0:15:46.406,0:15:49.046 здесь они работают вместе. 0:15:49.046,0:15:51.986 То, на что команда 0:15:51.986,0:15:54.598 из 5–6 человек потратила бы около 7 лет, 0:15:54.598,0:15:57.203 мы заменяем 15-минутной процедурой, 0:15:57.203,0:15:59.708 которую выполняет только один человек. 0:15:59.708,0:16:03.658 Этот процесс выполняется за 4–5 итераций. 0:16:03.658,0:16:05.517 Как видите, теперь 62% 0:16:05.517,0:16:08.476 наших 1,5 млн изображений[br]классифицированы верно. 0:16:08.476,0:16:10.948 Теперь мы сможем быстро выделять 0:16:10.948,0:16:12.245 отдельные большие блоки 0:16:12.245,0:16:15.164 и просматривать их, чтобы убедиться,[br]что в них нет ошибок. 0:16:15.164,0:16:19.116 Если возникают ошибки,[br]мы указываем на них компьютеру. 0:16:19.116,0:16:22.161 Применяя эту процедуру[br]к разным группам по отдельности, 0:16:22.161,0:16:24.648 сейчас мы получаем[br]около 80% верных результатов 0:16:24.648,0:16:27.063 при классификации[br]1,5 млн изображений. 0:16:27.063,0:16:29.141 Сейчас задача состоит только в том, 0:16:29.141,0:16:32.720 чтобы найти то небольшое количество[br]неверно распознанных изображений 0:16:32.720,0:16:35.608 и понять, почему это произошло. 0:16:35.608,0:16:37.351 Применяя этот подход, 0:16:37.351,0:16:41.472 за 15 минут мы получаем[br]результат, верный на 97%. 0:16:41.472,0:16:46.072 Эта процедура может справиться[br]с одной из важнейших проблем — 0:16:46.078,0:16:49.114 нехваткой медицинских работников в мире. 0:16:49.114,0:16:52.603 По данным, озвученным на Мировом[br]экономическом форуме, нужно в 10–20 раз 0:16:52.603,0:16:55.227 больше терапевтов в развивающихся странах, 0:16:55.227,0:16:57.340 и понадобится около 300 лет, 0:16:57.340,0:17:00.234 чтобы обучить нужное количество людей. 0:17:00.234,0:17:03.119 А теперь представьте,[br]что мы повысим их эффективность, 0:17:03.119,0:17:05.958 используя глубокое обучение. 0:17:05.958,0:17:08.190 Меня очень вдохновляют[br]появившиеся возможности. 0:17:08.190,0:17:10.779 Но одновременно беспокоят и проблемы. 0:17:10.779,0:17:13.903 Проблема в том, что во всех странах,[br]отмеченных на карте синим, 0:17:13.903,0:17:17.672 80% рабочих мест приходится[br]на сферу услуг. 0:17:17.672,0:17:19.459 Каких услуг? 0:17:19.459,0:17:20.973 Вот эти услуги. 0:17:20.973,0:17:23.291 И это именно то, 0:17:23.291,0:17:25.626 что компьютеры только что[br]научились делать. 0:17:25.626,0:17:28.931 И если 80% людей в развитых странах 0:17:28.931,0:17:31.463 занимаются тем, что теперь[br]может делать компьютер, 0:17:31.463,0:17:32.903 то что это значит? 0:17:32.903,0:17:35.486 Всё будет в порядке.[br]Появится другая работа. 0:17:35.486,0:17:38.193 Например, будет больше работы[br]для аналитиков данных. 0:17:38.193,0:17:39.010 Не совсем так. 0:17:39.010,0:17:41.748 Решение этих задач не займёт[br]у аналитиков много времени. 0:17:41.748,0:17:45.380 Например, эти четыре алгоритма[br]создал один и тот же человек. 0:17:45.380,0:17:47.818 Если вам кажется,[br]что это всё уже было, 0:17:47.818,0:17:51.626 в прошлом мы видели,[br]что когда приходят новые технологии, 0:17:51.626,0:17:53.878 новые профессии заменяют старые, 0:17:53.878,0:17:55.994 то какими будут эти новые профессии? 0:17:55.994,0:17:57.865 Нам очень сложно оценить это сейчас, 0:17:57.865,0:18:00.604 ведь производительность труда [br]растёт постепенно, 0:18:00.604,0:18:03.166 но теперь есть система,[br]глубокое обучение, 0:18:03.166,0:18:06.393 и мы знаем, что его возможности[br]растут по экспоненте. 0:18:06.393,0:18:07.998 Итак, 0:18:07.998,0:18:10.059 пока что мы оглядываемся по сторонам: 0:18:10.059,0:18:12.735 «Но компьютеры всё ещё[br]достаточно примитивны», верно? 0:18:12.735,0:18:16.164 Но через пять лет их возможности выйдут[br]за границу этого графика. 0:18:16.164,0:18:20.029 Поэтому нам необходимо начать обдумывать[br]этот аспект прямо сейчас. 0:18:20.029,0:18:22.079 Разумеется, мы однажды уже видели такое. 0:18:22.079,0:18:23.466 Промышленная революция, 0:18:23.466,0:18:26.317 благодаря двигателям, дала[br]качественный скачок производства. 0:18:27.167,0:18:30.305 Однако тогда, спустя какое-то время,[br]мощности перестали расти. 0:18:30.305,0:18:32.007 Был социальный взрыв, 0:18:32.007,0:18:35.446 но когда двигатели стали применяться[br]в промышленности повсеместно, 0:18:35.446,0:18:37.800 было достигнуто равновесие. 0:18:37.800,0:18:39.277 Революция машинного обучения 0:18:39.301,0:18:42.182 будет отличаться[br]от промышленной революции, 0:18:42.182,0:18:45.135 потому что революция[br]машинного обучения непрерывна. 0:18:45.159,0:18:48.114 Чем дальше компьютеры[br]совершенствуются интеллектуально, 0:18:48.114,0:18:52.362 тем более интеллектуально[br]совершенные компьютеры они создают, 0:18:52.362,0:18:54.270 и это станет таким изменением, 0:18:54.270,0:18:56.748 с каким наш мир[br]никогда раньше не сталкивался, 0:18:56.748,0:19:00.054 и ваши прошлые представления[br]о возможном изменятся. 0:19:00.474,0:19:02.254 Это уже влияет на нас. 0:19:02.254,0:19:05.884 В течение последней четверти века[br]производительность капитала росла, 0:19:05.900,0:19:10.088 в то время как производительность труда[br]оставалась прежней или немного снижалась. 0:19:10.908,0:19:13.649 Я хочу, чтобы мы начали обсуждать всё это. 0:19:13.649,0:19:16.676 Когда я рассказываю всё это людям, 0:19:16.676,0:19:18.166 они реагируют скептически: 0:19:18.166,0:19:19.839 мол, компьютеры не могут думать, 0:19:19.839,0:19:22.867 переживать, воспринимать стихи, 0:19:22.867,0:19:25.388 мы не понимаем по-настоящему,[br]как они работают. 0:19:25.388,0:19:26.574 И что? 0:19:26.574,0:19:28.678 Уже компьютеры делают то, на что люди 0:19:28.678,0:19:31.397 тратят бóльшую часть[br]своего оплачиваемого времени, 0:19:31.397,0:19:35.203 так что теперь пора думать о том,[br]как мы будем менять 0:19:35.203,0:19:37.299 наши социальные,[br]экономические структуры, 0:19:37.323,0:19:39.355 чтобы быть готовыми[br]к новой реальности. 0:19:39.355,0:19:40.888 Спасибо. 0:19:40.888,0:19:42.938 (Аплодисменты)