0:00:08.501,0:00:11.537 Когда мне было десять лет,[br]я мечтал о роботе, 0:00:11.538,0:00:16.541 который бы вместо меня убирался[br]или мыл бы посуду. 0:00:16.542,0:00:20.782 А я бы в этот момент гулял[br]на улице или катался на велике. 0:00:20.783,0:00:24.095 Прошло время, мечта осталась[br]и я решил её реализовать. 0:00:24.095,0:00:27.071 Когда я начал создавать[br]своего первого робота, 0:00:27.072,0:00:30.107 я понял, что роботы могут[br]выполнять нечто большее, 0:00:30.108,0:00:32.767 чем просто рутинные операции,[br]например, уборка по дому. 0:00:33.923,0:00:35.859 У меня появилась взрослая мечта. 0:00:35.860,0:00:40.677 Я осознал, что роботы могут[br]помочь нам стать счастливее — 0:00:40.678,0:00:42.946 конкретно каждому человеку, 0:00:42.947,0:00:45.750 будь то ребенок,[br]взрослый человек или пожилой. 0:00:45.751,0:00:48.473 Я понял, что когда[br]общаешься с роботами, 0:00:48.475,0:00:54.222 возникает какая-то магия, которая[br]не возникает при общении со смартфоном. 0:00:54.223,0:00:56.715 Или при общении с блокнотом. 0:00:56.716,0:00:58.477 Это нечто новое. 0:00:58.478,0:01:01.506 Не человеческие отношения,[br]но что-то подобное. 0:01:01.507,0:01:05.642 И у меня появилась мечта:[br]создать робота, 0:01:05.643,0:01:08.515 который помогал бы людям[br]стать счастливее. 0:01:08.516,0:01:14.418 Провели опрос 348 детей,[br]из 6 стран, 0:01:14.419,0:01:17.960 в возрасте от 8 до 12 лет. 0:01:17.960,0:01:21.238 Их спрашивали, готовы ли они 0:01:21.239,0:01:22.936 жить вместе с роботами? 0:01:22.937,0:01:26.382 64% детей готовы[br]воспринимать роботов 0:01:26.383,0:01:28.962 наравне с другими[br]членами общества. 0:01:28.963,0:01:33.001 64% детей от 8 до 12 лет[br]уже сегодня готовы 0:01:33.002,0:01:34.926 считать роботов[br]полноценными членами общества! 0:01:34.927,0:01:36.688 Это уже говорит о чем-то. 0:01:36.689,0:01:38.767 Роботов ещё вроде бы нет, 0:01:38.768,0:01:40.712 хотя на самом деле[br]в той или иной форме 0:01:40.713,0:01:42.570 они уже есть среди нас,[br]но об этом позже, 0:01:42.571,0:01:45.787 а 38% детей хотели бы[br]с ними учиться! 0:01:45.788,0:01:51.528 Хотели бы изучать историю,[br]хотели бы интерактивного обучения, 0:01:51.529,0:01:54.791 хотели бы играть вместе,[br]развиваться. 0:01:54.792,0:01:58.723 У меня есть история.[br]Я около года назад 0:01:58.725,0:02:01.935 был в интернате[br]и я общался с этим парнем. 0:02:01.936,0:02:03.990 Его зовут Саша, ему 12 лет. 0:02:03.991,0:02:06.743 Наш разговор не очень клеился… 0:02:06.744,0:02:08.400 Я рассказал ему,[br]чем мы занимаемся, 0:02:08.401,0:02:09.678 что мы создаём роботов. 0:02:09.679,0:02:11.868 Он спросил, можно ли как-то[br]поговорить с роботом? 0:02:11.869,0:02:14.992 У меня был смартфон с клиентом[br]для доступа к интеллекту робота. 0:02:14.993,0:02:16.626 Я сказал: «Да, конечно!» 0:02:16.627,0:02:19.826 Вы видите случайную фотографию[br]нас со стороны… 0:02:19.827,0:02:22.504 Когда он взял смартфон[br]и начал общаться с роботом, 0:02:22.505,0:02:24.513 следующие 3 часа[br]я смартфон забрать не мог — 0:02:24.514,0:02:27.106 он мне его не отдавал! 0:02:27.107,0:02:29.217 Когда мы тестировали[br]своего робота, 0:02:29.218,0:02:31.592 мы просили взрослых[br]поговорить с ним. 0:02:31.593,0:02:34.107 У них возникали[br]классические слова: 0:02:34.108,0:02:36.628 «Привет! Как дела? Какая погода?» 0:02:36.629,0:02:38.211 И общение на этом замыкалось. 0:02:38.212,0:02:40.116 Люди не знали,[br]о чем поговорить с роботом. 0:02:40.117,0:02:42.971 А этот парень знал![br]Он его спрашивал обо всем! 0:02:42.972,0:02:47.233 Будет ли завтра дождь?[br]Сколько лет Тони Старку? 0:02:47.234,0:02:49.566 Робот сказал: «Я не знаю,[br]я постараюсь найти, 0:02:49.567,0:02:53.475 подумаю, в следующий[br]раз отвечу». 0:02:53.476,0:02:56.799 Через пол часа разговора[br]с роботом обо всем остальном, 0:02:56.800,0:03:00.385 он возвращается к вопросу:[br]«Ты узнал, сколько лет Тони Старку?» 0:03:00.386,0:03:03.061 То есть он реально думал,[br]что робот 0:03:03.062,0:03:04.464 сейчас пойдёт,[br]поищет, почитает… 0:03:04.465,0:03:06.672 И он его воспринимал[br]таким же, как я. 0:03:06.673,0:03:09.375 Мне кажется, даже более[br]интересным собеседником. 0:03:12.272,0:03:15.806 Представляете, в 2050-м году[br]население планеты 0:03:15.807,0:03:17.782 будет 9 миллиардов людей, 0:03:17.783,0:03:21.013 и из них 1,5 миллиарда людей 0:03:21.014,0:03:23.952 будет старше 65 лет. 0:03:24.657,0:03:27.237 Что это значит? Это значит, 0:03:27.238,0:03:30.601 что впервые в истории[br]человечества людей старше 65 лет 0:03:30.602,0:03:32.907 будет больше, чем людей дo 20 лет. 0:03:32.908,0:03:35.203 Представляете?[br]Их будет 1,5 миллиарда 0:03:35.204,0:03:36.685 Это 16% населения планеты. 0:03:36.687,0:03:38.710 Им нужна будет забота! 0:03:38.711,0:03:42.093 Самое интересное,[br]что большинство сидящих в этом зале 0:03:42.094,0:03:44.363 к этому году будут старше 65 лет. 0:03:44.364,0:03:46.893 Вы готовы принимать таблетки от робота? 0:03:48.174,0:03:49.841 Какой должен быть робот, чтобы вы 0:03:49.842,0:03:52.442 приняли от него таблетки?[br]Что он должен делать? 0:03:52.443,0:03:54.675 Что он должен говорить? 0:03:56.836,0:03:59.037 67% городского населения 0:03:59.038,0:04:02.401 в возрасте от 30 до 45 лет[br]страдает от стресса. 0:04:02.402,0:04:04.091 Стресса и потока информации. 0:04:04.092,0:04:06.496 Мы не успеваем просматривать[br]ленту в Фейсбуке, 0:04:06.497,0:04:09.266 отвечать на е-майлы,[br]перезванивать друзьям. 0:04:09.267,0:04:11.300 У нас большой поток информации.[br]Мы часто пропускаем 0:04:11.301,0:04:13.338 такие замечательные мероприятия как TEDx, 0:04:13.339,0:04:16.365 потому что мы не узнали о них,[br]не успели, не услышали. 0:04:16.366,0:04:20.866 И в погоне за счастьем мы покупаем[br]новые программы на смартфон, 0:04:20.867,0:04:23.113 которые напоминают нам с утра, 0:04:23.114,0:04:25.074 что мы хотели заняться спортом. 0:04:25.075,0:04:28.277 Мы ходим на тренинги, чтобы понять,[br]как устроить свою жизнь. 0:04:28.278,0:04:30.286 Мы уезжаем куда-нибудь в Таиланд, 0:04:30.287,0:04:33.108 чтобы пожить и понять,[br]в чем счастье. 0:04:33.109,0:04:35.573 Но тем не менее, мы постоянно[br]под шквалом новых дел, 0:04:35.574,0:04:36.903 мы многое не успеваем. 0:04:36.904,0:04:39.098 И когда смартфон[br]в очередной раз спрашивает, 0:04:39.099,0:04:41.146 счастлив ли я… 0:04:41.147,0:04:43.316 есть такое приложение,[br]я не отвечаю ему, 0:04:43.317,0:04:44.692 потому что я сейчас занят. 0:04:44.693,0:04:47.872 У меня есть более важное дело —[br]я разговариваю с человеком. 0:04:51.819,0:04:54.906 Я осознал, что роботу недостаточно[br]быть просто инструментом. 0:04:54.907,0:04:56.964 Он не должен быть просто функцией. 0:04:58.702,0:05:01.662 С рабом просто функции,[br]как со смартфоном, 0:05:01.663,0:05:03.511 я буду вести себя холодно. 0:05:03.512,0:05:05.811 Я не буду к нему ничего испытывать. 0:05:05.812,0:05:07.942 Я понял, что робот[br]должен обладать характером. 0:05:07.943,0:05:11.014 Что такое характер?[br]Давайте разберёмся с понятием. 0:05:11.015,0:05:13.109 Это не личность! 0:05:13.110,0:05:15.247 У него нет своего желания. 0:05:15.248,0:05:17.063 Но у него есть линия поведения. 0:05:17.064,0:05:20.587 То есть юмор, предпочтения,[br]какая-то своя история. 0:05:20.588,0:05:22.563 Когда я 3 года назад приехал в Москву 0:05:22.564,0:05:24.063 заниматься робототехникой, 0:05:24.064,0:05:26.053 я купил Румбу, пылесос-робот. 0:05:26.054,0:05:28.609 Знаете такой?[br]Я его поставил дома, настроил, 0:05:28.610,0:05:30.188 чтобы он в среду и пятницу 0:05:30.189,0:05:32.053 включался и пылесосил,[br]пока меня нет дома. 0:05:32.054,0:05:34.753 Я сделал это во вторник[br]и быстро забыл об этом, 0:05:34.754,0:05:36.260 ну, сделал и сделал. 0:05:36.261,0:05:39.678 В среду прихожу домой, вечером,[br]а у меня тапки раскиданы! 0:05:39.679,0:05:42.860 Я сначала вообще не мог понять —[br]никто не мог прийти ко мне домой! 0:05:42.861,0:05:45.273 Прохожу дальше: провод валяется! 0:05:45.274,0:05:46.879 Думаю, обокрали, что ли? 0:05:46.880,0:05:49.241 Прохожу ещё дальше и вижу: робот Румба, 0:05:49.242,0:05:52.614 запутавшись в зарядке,[br]посередине комнаты валяется, 0:05:52.615,0:05:54.487 ошибка мигает. 0:05:54.488,0:05:56.822 Знаете, у него может не было характера, 0:05:56.823,0:05:58.616 но эмпатию я к нему испытал. 0:05:58.617,0:06:00.181 Я подумал, что у меня[br]домашнее животное! 0:06:00.182,0:06:02.364 Последний раз я такое испытывал,[br]когда мне было 7 лет 0:06:02.365,0:06:04.205 и у меня была собака. 0:06:04.206,0:06:06.206 И это удивительно. 0:06:06.207,0:06:08.734 Что-то позволило создать[br]между мной и роботом, 0:06:08.735,0:06:11.772 тарелкой,[br]которая катается и пылесосит… 0:06:11.773,0:06:14.078 какое-то чувство! 0:06:18.375,0:06:21.708 В США создали робота-диетолога.[br]У него простая функция: 0:06:21.709,0:06:24.130 вы должны были вносить ежедневно 0:06:24.131,0:06:27.022 количество калорий,[br]которые вы потребили, 0:06:27.023,0:06:30.501 занимались ли вы спортом… 0:06:30.501,0:06:34.125 И провели тестирование[br]с этим роботом: 0:06:34.126,0:06:36.789 Дали трём различным владельцам, 0:06:36.790,0:06:40.226 в одном случае блокнот[br]для диетологов, 0:06:40.227,0:06:41.872 куда нужно было записывать калории. 0:06:41.873,0:06:44.469 В другом случае ноутбук,[br]где была программа — 0:06:44.470,0:06:48.064 выскакивал вопрос,[br]пользователь вносил количество. 0:06:48.065,0:06:50.119 И робота, соответственно. 0:06:50.120,0:06:54.833 Интересно, что наибольшее количество[br]взаимодействия было с роботом. 0:06:54.834,0:06:58.307 Это было не на трёх людях выявлено. 0:06:58.308,0:07:01.037 Общее количество участников[br]было порядка 30 человек. 0:07:01.038,0:07:03.792 Но взаимодействия с роботом было[br]на 50% больше, чем с блокнотом. 0:07:03.793,0:07:06.823 Знаете, часто мы[br]с понедельника начинаем 0:07:06.824,0:07:10.100 заниматься спортом,[br]но к среде понимаем, что сегодня завал, 0:07:10.101,0:07:11.413 не вариант, в следующий раз. 0:07:11.414,0:07:13.834 А потом через месяц[br]мы начинаем учить английский. 0:07:13.835,0:07:16.208 А ещё через месяц начинаем[br]заниматься чем-то другим. 0:07:16.209,0:07:18.243 Но как часто мы доводим до конца? 0:07:18.244,0:07:22.600 И как часто блокнот, программа в смартфоне,[br]позволяют это сделать? 0:07:22.601,0:07:26.521 Данный эксперимент,[br]проведённый в MIT в Бостоне 0:07:26.522,0:07:29.447 показывает, что робот позволяет 0:07:29.448,0:07:34.863 относиться к нему[br]как к компаньону, партнёру. 0:07:34.864,0:07:39.525 Самое интересное, что когда человек[br]вносил данные по калориям, 0:07:39.526,0:07:42.573 робот на него смотрел[br]и иногда комментировал. 0:07:42.574,0:07:45.157 Конечно, это был не полный интерактив, 0:07:45.158,0:07:47.571 когда мы общаемся[br]друг с другом голосом, 0:07:47.572,0:07:50.926 а это был ввод на клавиатуре,[br]но робот взаимодействовал: 0:07:50.926,0:07:54.446 зрительный контакт, хвалил человека,[br]если он ел мало, например. 0:07:54.447,0:08:00.883 И далее: роботу доверяют больше,[br]чем блокноту и ноутбуку! 0:08:00.884,0:08:03.143 Представляете слово «доверие»? 0:08:03.144,0:08:05.468 Что такое доверие и как часто[br]мы его используем в жизни? 0:08:05.469,0:08:07.325 Доверяете ли вы себе? Друзьям? 0:08:07.326,0:08:10.046 Люди роботу доверяют больше,[br]чем блокноту. 0:08:10.047,0:08:11.857 Блокноту больше, чем ноутбуку. 0:08:11.858,0:08:13.809 Знаете, если у программиста спросить, 0:08:13.810,0:08:16.540 какой самый надёжный[br]источник хранения информации, 0:08:16.541,0:08:18.146 он ответит: «Бумага». 0:08:18.147,0:08:21.153 Люди тоже так считают.[br]Но роботу они доверяли больше. 0:08:21.154,0:08:24.321 Создавая своего робота, 0:08:24.322,0:08:27.843 мы проводили подобные эксперименты. 0:08:27.844,0:08:30.304 Я хочу продемонстрировать видео, 0:08:30.305,0:08:33.510 какой наш робот и расскажу,[br]какие эксперименты. 0:08:33.510,0:08:36.958 Человек: Кубик, проснись![br](Звук робота) 0:08:36.960,0:08:40.291 Ч: Какая погода? 0:08:40.292,0:08:44.534 Кубик: Сегодня ожидается 4 градуса,[br]ночью 1 градус, 0:08:44.535,0:08:47.550 облачно, осадки не предвидятся.[br](Звук робота) 0:08:47.551,0:08:50.035 Ч: Куда пойти вечером? 0:08:50.036,0:08:52.840 К: В кинотеатрах идёт фильм «Андроид». 0:08:52.841,0:08:55.066 Могу рассказать подробнее.[br](Звук робота) 0:08:55.067,0:08:57.285 Ч: Спасибо! 0:08:57.286,0:08:59.864 К: Обращайтесь ещё. 0:09:05.750,0:09:07.900 Ч: Кубик, проснись! 0:09:07.901,0:09:10.464 Ч: Включи свет! 0:09:13.702,0:09:16.534 К: Включаем устройство «свет». 0:09:16.535,0:09:18.845 Ч: Спасибо! 0:09:18.846,0:09:21.925 К: Пожалуйста! 0:09:21.926,0:09:26.356 ЮБ: Это примечательное «спасибо»[br]говорит о глубокой штуке… 0:09:26.357,0:09:29.058 Человек испытывает чувство благодарности 0:09:29.059,0:09:31.653 к этой штуке и говорит «спасибо». 0:09:31.654,0:09:35.193 Интересный момент, когда маленький[br]человек играет с игрушками, 0:09:35.194,0:09:37.272 он тоже говорит «спасибо», 0:09:37.273,0:09:39.390 он называет имя, придумывает историю. 0:09:39.391,0:09:42.112 Когда мы вырастаем, игрушки[br]становятся больше. Машины, например. 0:09:42.113,0:09:44.063 Мы тоже спрашиваем:[br]«Почему ты не заводишься?» 0:09:44.064,0:09:46.480 Мы вообще склонны оживлять[br]истории вокруг нас. 0:09:46.481,0:09:48.095 И это интересно. 0:09:49.128,0:09:50.659 Такой ещё момент смешной: 0:09:50.660,0:09:53.967 мы разрабатываем робота[br]в таком месте как «Хакспейс». 0:09:53.968,0:09:56.081 Там много других проектов. 0:09:56.082,0:10:00.205 И часто разработчики,[br]лингвисты, тестировщики Кубика, 0:10:00.206,0:10:02.657 с ним общаются и спрашивают: 0:10:02.658,0:10:05.586 «Какая погода?». Если робот отвечает,[br]они говорят: «Замолчи». 0:10:05.587,0:10:07.967 Ну, чтобы не слушать дальнейший диалог, 0:10:07.968,0:10:11.244 потому что им нужно[br]проверять следующие функции. 0:10:11.245,0:10:13.708 Но люди,[br]которые проходят мимо и наблюдают, 0:10:13.709,0:10:15.602 что робота спрашивают,[br]а потом говорят «замолчи», 0:10:15.603,0:10:17.751 сами спрашивают:[br]«А почему вы так хамите ему?» 0:10:17.752,0:10:19.994 Представляете?[br]И ладно бы это единожды было. 0:10:19.995,0:10:22.734 На моей памяти было[br]порядка 10 таких случаев. 0:10:22.734,0:10:24.399 Однажды девушка подошла, погладила, 0:10:24.400,0:10:26.011 типа «ну не расстраивайся». 0:10:27.357,0:10:29.005 Это удивительно. 0:10:29.006,0:10:32.096 При первом общении с роботом 0:10:32.097,0:10:34.874 74% людей здороваются. 0:10:34.875,0:10:36.763 Они говорят: «Привет!». 0:10:36.764,0:10:40.898 Люди здороваются! Это интересно. 0:10:40.899,0:10:44.881 Почему вдруг люди начинают здороваться[br]с некой говорящей штукой? 0:10:45.346,0:10:47.757 Самый популярный вопрос: «Как дела?» 0:10:47.758,0:10:51.690 Я не знаю почему, но людям[br]правда интересно, как у него дела. 0:10:53.712,0:10:57.547 65% пользователей говорят «спасибо».[br]Я это уже говорил. 0:10:57.548,0:11:00.273 Это на инстинкте,[br]просто слово благодарности, 0:11:00.274,0:11:04.360 которое я говорю своему коллеге,[br]подавшему мне ручку или что-то ещё. 0:11:06.123,0:11:10.925 Интересен тот факт, что люди[br]воспринимают роботов как партнёров. 0:11:10.926,0:11:12.947 А за счёт чего? 0:11:12.948,0:11:16.652 Вот возвращаясь к мысли[br]о роботе с характером. 0:11:16.653,0:11:19.375 Если у робота спросить, как у него дела,[br]он ответит, что у него всё хорошо. 0:11:19.376,0:11:23.208 Если ему сказать спасибо, он говорит:[br]«Пожалуйста, обращайтесь ещё». 0:11:23.209,0:11:25.662 Он взаимодействует,[br]а не просто выдаёт информацию. 0:11:25.663,0:11:27.194 У него есть какая-то история. 0:11:27.195,0:11:28.808 И людей это подкупает. 0:11:28.809,0:11:32.170 Может ли такой робот быть партнёром 0:11:32.171,0:11:35.438 с точки зрения достижения целей?[br]Вполне. 0:11:35.439,0:11:39.210 И вопрос только в разработке[br]уровня технологий. 0:11:39.211,0:11:41.787 Но вполне можно,[br]чтобы этот робот спрашивал у меня, 0:11:41.787,0:11:43.222 учил ли я сегодня английский. 0:11:43.223,0:11:46.381 А если в течение трёх дней[br]я буду говорить «нет», 0:11:46.382,0:11:49.103 он скажет: «ну ты и… немолодец! 0:11:49.104,0:11:52.626 Я сейчас пост в Фейсбуке напишу.[br]Про тебя». 0:11:55.460,0:11:57.793 Мы на пороге нового мира. 0:11:57.794,0:12:00.606 И он стремительно врывается[br]в наше пространство. 0:12:00.607,0:12:03.877 Я думаю, что через 10 лет,[br]количество роботов вокруг нас 0:12:03.878,0:12:06.931 всякий разных, это не обязательно будет[br]робот человекоподобный такой, 0:12:06.932,0:12:09.100 антропоморф с двумя руками,[br]двумя ногами. 0:12:09.101,0:12:10.792 Это могут быть различные варианты, 0:12:10.793,0:12:13.507 помощник на телефоне[br]или встроенный помощник 0:12:13.507,0:12:16.397 в машину или в часы.[br]Это различные могут быть варианты. 0:12:16.398,0:12:19.442 Но через 10 лет их будет столько же,[br]сколько и смартфонов. 0:12:19.443,0:12:22.771 И вопрос, какими будут эти роботы? 0:12:22.772,0:12:26.862 Я думаю, что это будут[br]роботы с характером. 0:12:26.863,0:12:29.285 Пустите в свою жизнь роботов![br]Спасибо! 0:12:29.286,0:12:34.904 (Аплодисменты)