Искусственный интеллект усиливает важность человеческой этики
-
0:01 - 0:05Я начала работать программистом
-
0:05 - 0:07в первый год учёбы в колледже,
-
0:07 - 0:08практически подростком.
-
0:09 - 0:11Вскоре после того, как я начала работать —
-
0:11 - 0:12писать программное обеспечение,
-
0:13 - 0:16один из работающих в компании
менеджеров подошёл ко мне -
0:16 - 0:18и прошептал:
-
0:18 - 0:21«Он понимает, когда я вру?»
-
0:22 - 0:24В комнате никого больше не было.
-
0:25 - 0:29«Кто он? И почему ты шепчешь?»
-
0:30 - 0:33Менеджер указал на компьютер.
-
0:33 - 0:36«Он может понять, когда я вру?»
-
0:38 - 0:42Кстати, у этого менеджера
был роман с секретаршей. -
0:42 - 0:43(Смех)
-
0:43 - 0:45А а была ещё подростком.
-
0:45 - 0:47Поэтому я шёпотом крикнула ему:
-
0:47 - 0:51«Да, компьютер может понять,
когда вы лжёте». -
0:51 - 0:53(Смех)
-
0:53 - 0:56Я пошутила, но оказалось,
что это была не шутка. -
0:56 - 0:59Теперь существуют вычислительные системы,
-
0:59 - 1:03которые могут определить ваше
эмоциональное состояние и даже ложь, -
1:03 - 1:05обрабатывая выражения человеческих лиц.
-
1:05 - 1:09Рекламодатели и правительства
очень заинтересованы. -
1:10 - 1:12Я стала программистом,
-
1:12 - 1:16потому что я была одержимым
математикой и наукой ребёнком. -
1:16 - 1:19Но в какой-то момент я узнала
о существовании ядерного оружия -
1:19 - 1:22и всерьёз задумалась о научной этике.
-
1:22 - 1:23Меня это беспокоило.
-
1:23 - 1:26Однако из-за семейных обстоятельств
-
1:26 - 1:29мне пришлось начать
работать как можно скорее. -
1:29 - 1:33Так что я подумала: «Эй, мне просто
надо выбрать техническую область, -
1:33 - 1:34где я смогу легко получить работу,
-
1:34 - 1:39и где мне не придётся иметь
дело со сложными этическими вопросами». -
1:39 - 1:41Так что я выбрала компьютеры.
-
1:41 - 1:42(Смех)
-
1:42 - 1:45Ха, ха, ха! Все смеются надо мной.
-
1:45 - 1:48В наши дни компьютерные
учёные создают платформы, -
1:48 - 1:52которые контролируют то,
что миллиард человек видит каждый день. -
1:53 - 1:57Они разрабатывают автомобили,
которые могли бы решить, кого задавить. -
1:58 - 2:01Они даже разрабатывают машины и оружие,
-
2:01 - 2:03которые могут убивать людей на войне.
-
2:03 - 2:06Здесь вопросы этики повсюду.
-
2:07 - 2:09Искусственный интеллект уже здесь.
-
2:10 - 2:13Мы уже используем вычислительную
технику для принятия каких угодно решений, -
2:13 - 2:15и даже для создания новых решений.
-
2:15 - 2:20Мы задаём компьютерам вопросы,
на которые нет единого правильного ответа: -
2:20 - 2:22субъективные вопросы,
-
2:22 - 2:24открытые и вопросы оценочного характера.
-
2:24 - 2:26Мы задавали такие вопросы, как:
-
2:26 - 2:28«Кого стоит нанять в компанию?»
-
2:28 - 2:31«Какое обновление и от какого
друга мы должны видеть?» -
2:31 - 2:33«Кто из осуждённых
скорее всего станет рецидивистом?» -
2:34 - 2:37«Какие новости или фильмы
рекомендовать людям?» -
2:37 - 2:40Да, мы используем компьютеры
уже продолжительное время, -
2:40 - 2:42но это совсем другое.
-
2:42 - 2:44Это исторический поворот,
-
2:44 - 2:49потому что базис для вычисления
принятия субъективных решений, -
2:49 - 2:54отличается от того, что используется для
сборки самолётов, строительства мостов -
2:54 - 2:56или полётов на Луну.
-
2:56 - 3:00Самолёты стали безопаснее?
Мосты больше не падают? -
3:00 - 3:04Здесь у нас есть
достаточно чёткие критерии -
3:04 - 3:06и законы природы,
на которые мы можем положиться. -
3:07 - 3:10Но нет чётких критериев
-
3:10 - 3:14для принятия решений
в запутанных людских делах. -
3:14 - 3:18Ещё больше усложняет задачу
программное обеспечение, -
3:18 - 3:22становящееся менее прозрачным
и более сложным и мощным. -
3:23 - 3:25За последнее десятилетие
-
3:25 - 3:27развитие сложных алгоритмов
достигло больших успехов. -
3:27 - 3:29Они могут распознавать человеческие лица.
-
3:30 - 3:32Они могут расшифровывать почерк.
-
3:32 - 3:35Выявить мошенничество
с кредитными картами -
3:35 - 3:36или блокировать спам,
-
3:36 - 3:38они могут переводить с других языков.
-
3:38 - 3:40Они могут выявлять опухоли
в рентгенографии. -
3:40 - 3:43Они могут обыгрывать нас в шахматы и в Го.
-
3:43 - 3:48Большáя часть этого прогресса достигнута
с помощью «машинного обучения». -
3:48 - 3:51Машинное обучение отличается
от традиционного программирования, -
3:51 - 3:55где вы даёте компьютеру подробные,
точные, чёткие инструкции. -
3:55 - 4:00Это больше похоже, как будто мы
скармливаем компьютеру много данных, -
4:00 - 4:01в том числе бессистемных данных,
-
4:01 - 4:04как те, что мы создаём
в нашей цифровой жизни. -
4:04 - 4:06И система сама учится
систематизировать эти данные. -
4:07 - 4:08Особенно важно то,
-
4:08 - 4:13что эти системы не работают
по логике поиска единого ответа. -
4:13 - 4:16Они не дают однозначного ответа,
они основаны на вероятности: -
4:16 - 4:19«Этот ответ, вероятно,
похож на то, что вы ищете». -
4:20 - 4:23Плюс этого метода в том,
что он очень перспективный. -
4:23 - 4:25Глава систем ИИ Google назвал его
-
4:25 - 4:27«нерационально высокая
эффективность данных». -
4:28 - 4:29Минус в том,
-
4:30 - 4:33что мы не знаем,
что именно система выучила. -
4:33 - 4:34В этом мощь системы.
-
4:35 - 4:39Это не похоже на то,
как давать указания компьютеру; -
4:39 - 4:43это больше похоже
на обучение машины-щенка, -
4:43 - 4:46которого мы не понимаем и не контролируем.
-
4:46 - 4:48В этом наша проблема.
-
4:48 - 4:53Плохо, когда система искусственного
интеллекта понимает что-то неправильно. -
4:53 - 4:56И также плохо, когда система
понимает что-то правильно, -
4:56 - 5:00потому что мы не знаем, что есть что,
когда дело касается субъективой проблемы. -
5:00 - 5:02Мы не знаем, о чём эта штука думает.
-
5:03 - 5:07Рассмотрим алгоритм приёма на работу —
-
5:08 - 5:12система для найма людей
с использованием машинного обучения. -
5:13 - 5:17Такая система будет обучаться
по данным о предыдущих сотрудниках -
5:17 - 5:19и будет искать и нанимать людей,
-
5:19 - 5:22похожих на нынешних самых эффективных
сотрудников компании. -
5:23 - 5:24Звучит хорошо.
-
5:24 - 5:26Однажды я была на конференции
-
5:26 - 5:29для руководителей, менеджеров по персоналу
-
5:29 - 5:30и топ-менеджеров,
-
5:30 - 5:32использующих такую систему найма.
-
5:32 - 5:34Все были очень воодушевлены.
-
5:34 - 5:38Они думали, что это сделает процесс
найма более объективным, менее предвзятым, -
5:38 - 5:41даст женщинам и меньшинствам
больше шансов -
5:41 - 5:44в отличие от предвзято
настроенных менеджеров. -
5:44 - 5:46Найм сотрудников построен на предвзятости.
-
5:47 - 5:48Я знаю.
-
5:48 - 5:51На одной из моих первых работ
в качестве программиста -
5:51 - 5:55моя непосредственная начальница
иногда подходила ко мне -
5:55 - 5:59очень рано утром или очень поздно днём
-
5:59 - 6:02и говорила: «Зейнеп, пойдём обедать!»
-
6:03 - 6:05Я была озадачена странным выбором времени.
-
6:05 - 6:07Обед в 4 часа дня?
-
6:07 - 6:10Бесплатный ланч; денег у меня нет.
Я всегда ходила. -
6:11 - 6:13Позже я поняла, что происходит.
-
6:13 - 6:17Мои непосредственные руководители
не признались вышестоящему руководству, -
6:17 - 6:21что программист, которого они наняли
на серьёзный проект — девушка подросток, -
6:21 - 6:24которая ходит на работу
в джинсах и кроссовках. -
6:25 - 6:28Я хорошо выполняла работу,
я просто выглядела неподобающе, -
6:28 - 6:29была неправильного возраста и пола.
-
6:29 - 6:32Так что найм без учёта пола и расы,
-
6:32 - 6:35конечно, звучит для меня
как хорошая идея. -
6:35 - 6:38Но с этими системами
всё сложнее, и вот почему: -
6:39 - 6:45Сейчас вычислительные системы
могут узнать всю информацию о вас -
6:45 - 6:47по крошкам, что вы оставляете
в цифровом виде, -
6:47 - 6:49даже если вы не разглашаете
такую информацию. -
6:50 - 6:52Они могут вычислить
вашу сексуальную ориентацию, -
6:53 - 6:54ваши черты характера,
-
6:55 - 6:56ваши политические пристрастия.
-
6:57 - 7:01Они могут составлять прогнозы
с высоким уровнем точности. -
7:01 - 7:04Помните, даже для информации,
которую вы даже не разглашаете. -
7:04 - 7:06Это предположения.
-
7:06 - 7:09У меня есть подруга, которая
разрабатывает такие системы -
7:09 - 7:13для прогнозирования вероятности
клинической или послеродовой депрессии -
7:13 - 7:14по данным из социальных сетей.
-
7:15 - 7:16Результаты впечатляют.
-
7:16 - 7:20Её система может предсказать
вероятность депрессии -
7:20 - 7:24до появления каких-либо симптомов —
-
7:24 - 7:25за несколько месяцев.
-
7:25 - 7:27Симптомов нет, а прогноз есть.
-
7:27 - 7:32Она надеется, что программа будет
использоваться для профилактики. Отлично! -
7:33 - 7:35Теперь представьте это в контексте найма.
-
7:36 - 7:39На той конференции
для управляющих персоналом -
7:39 - 7:44я подошла к менеджеру высокого уровня
в очень крупной компании, -
7:44 - 7:48и спросила её:
«Что, если система без вашего ведома, -
7:48 - 7:55начнёт отсеивать людей
с высокой вероятностью будущей депрессии? -
7:56 - 7:59Сейчас у них нет депрессии,
но в будущем вероятность высока. -
8:00 - 8:04Что, если система начнёт отсеивать женщин,
чья вероятность забеременеть -
8:04 - 8:06через год или два выше,
но они не беременны сейчас? -
8:07 - 8:12Если начнёт нанимать агрессивных людей,
потому что это норма для вашей компании? -
8:13 - 8:16Этого не определить, глядя
на процентное соотношение полов. -
8:16 - 8:18Эти показатели могут быть в норме.
-
8:18 - 8:21Так как это машинное обучение,
а не традиционное программирование, -
8:21 - 8:26тут нет переменной
«более высокий риск депрессии», -
8:26 - 8:28«высокий риск беременности»,
-
8:28 - 8:30или «агрессивный парень».
-
8:30 - 8:34Мало того, что вы не знаете,
как ваша система делает выводы, -
8:34 - 8:36вы даже не знаете, откуда что берётся.
-
8:36 - 8:37Это чёрный ящик.
-
8:37 - 8:41Он может прогнозировать,
но мы не понимаем принцип его работы. -
8:41 - 8:43Я спросила:
«Какие у вас меры предосторожности, -
8:43 - 8:47чтобы убедиться, что чёрный ящик
не делает ничего сомнительного?» -
8:49 - 8:53Она посмотрела на меня, как будто я
только что отдавила хвосты 10 щенкам. -
8:53 - 8:54(Смех)
-
8:54 - 8:56Она посмотрела на меня и сказала:
-
8:57 - 9:01«Я не хочу слышать ни слова об этом».
-
9:01 - 9:03Она повернулась и пошла прочь.
-
9:04 - 9:06Имейте в виду — она не грубила мне.
-
9:06 - 9:12Позиция очевидна: то, что я не знаю —
не моя проблема, отвяжись, стрелы из глаз. -
9:12 - 9:13(Смех)
-
9:14 - 9:18Такая система
может быть менее предвзятой, -
9:18 - 9:20чем сами менеджеры в каком-то смысле.
-
9:20 - 9:22В этом может быть финансовая выгода.
-
9:23 - 9:24Но это также может привести
-
9:24 - 9:29к неуклонному и скрытому
выдавливанию с рынка труда -
9:29 - 9:32людей с более высоким
риском развития депрессии. -
9:32 - 9:34Мы хотим построить такое общество,
-
9:34 - 9:37даже не осознавая, что мы делаем,
-
9:37 - 9:41потому что отдали право принятия решений
машинам, которых до конца не понимаем? -
9:41 - 9:43Следующая проблема:
-
9:43 - 9:48эти системы часто обучаются на данных,
произведённых нашими действиями — -
9:48 - 9:50человеческим поведением.
-
9:50 - 9:54Возможно, они просто
отражают наши предубеждения, -
9:54 - 9:58и эти системы могут
собирать наши пристрастия -
9:58 - 9:59и усиливать их,
-
9:59 - 10:00показывая нам их вновь,
-
10:00 - 10:02а мы говорим себе:
-
10:02 - 10:05«Мы просто проводим объективные,
непредвзятые вычисления». -
10:06 - 10:09Исследователи обнаружили что в Google
-
10:10 - 10:15женщины реже, чем мужчины, видят
объявления о высокооплачиваемой работе. -
10:16 - 10:19Набирая в поисковике
афро-американские имена, -
10:19 - 10:24вероятность увидеть объявления
криминального характера будет выше, -
10:24 - 10:25даже там, где криминала нет.
-
10:27 - 10:30Скрытая необъективность
и алгоритмы чёрного ящика, -
10:30 - 10:34которые исследователи
иногда выявляют, а иногда нет, -
10:34 - 10:37могут иметь далеко идущие последствия.
-
10:38 - 10:42В Висконсине подсудимый был приговорён
к шести годам лишения свободы -
10:42 - 10:43за уклонение от полиции.
-
10:45 - 10:46Может, вы не знаете,
-
10:46 - 10:50но эти алгоритмы всё чаще используются
в вынесении приговоров. -
10:50 - 10:53Он хотел узнать,
как всё это рассчитывается? -
10:54 - 10:55Это коммерческий чёрный ящик.
-
10:55 - 11:00Компания отказалась обсуждать
свой алгоритм на открытом заседании суда. -
11:00 - 11:06Но следственная некоммерческая организация
ProPublica проверила алгоритм, -
11:06 - 11:08используя данные из Интернета,
-
11:08 - 11:10и обнаружила,
что результаты необъективны, -
11:10 - 11:14способность прогнозирования ужасная,
немного лучше, чем случайность. -
11:14 - 11:18Система классифицирует чернокожих
обвиняемых как будущих преступников -
11:18 - 11:22в два раза чаще, чем белых обвиняемых.
-
11:24 - 11:25Рассмотрим следующий случай:
-
11:26 - 11:30Эта девушка опаздывала, чтобы забрать
свою крёстную сестру -
11:30 - 11:32из школы в округе Броуард, штат Флорида.
-
11:33 - 11:35Они с подругой бежали по улице.
-
11:35 - 11:39Тут они заметили незапертые
велосипед и скутер на крыльце -
11:39 - 11:41и по глупости взяли их.
-
11:41 - 11:44Когда они отъезжали,
вышла женщина и крикнула: -
11:44 - 11:46«Эй! Это велосипед моего ребёнка!»
-
11:46 - 11:49Они его бросили и ушли,
но их арестовали. -
11:49 - 11:53Она была не права, она сглупила,
но ей было всего 18 лет. -
11:53 - 11:55У неё была пара
малолетних правонарушений. -
11:56 - 12:01В то же время этот мужчина был
арестован за кражу в магазине Home Depot, -
12:01 - 12:04примерно на сумму 85 долларов —
такое же мелкое преступление. -
12:05 - 12:09Но у него за спиной было
две судимости за вооружённый грабеж. -
12:10 - 12:13Алгоритм посчитал,
что её показатель риска выше, чем его. -
12:15 - 12:19Спустя пару лет ProPublica выяснили,
что она больше не совершала преступлений. -
12:19 - 12:21Но зато ей было сложно найти
работу, имея судимость. -
12:21 - 12:23Тогда как этот мужчина стал рецидивистом,
-
12:23 - 12:27и в настоящее время отбывает восьмилетний
срок за своё последнее преступление. -
12:28 - 12:31Очевидно, мы должны проверять
наши чёрные ящики, -
12:31 - 12:34чтобы они не получили
бесконтрольную власть. -
12:34 - 12:37(Аплодисменты)
-
12:38 - 12:42Проверка и контроль важны,
но они не решают всех проблем. -
12:42 - 12:45Вспомните мощный алгоритм
ленты новостей на Facebook — -
12:45 - 12:50знаете, тот, который оценивает всё
и решает, что именно вам показывать -
12:50 - 12:53от ваших друзей и до страниц,
на которые вы подписаны. -
12:53 - 12:55Показать вам ещё одну картинку младенца?
-
12:55 - 12:56(Смех)
-
12:56 - 12:59Грустный комментарий от знакомого?
-
12:59 - 13:01Важную, но непростую новость?
-
13:01 - 13:03Тут нет единого ответа.
-
13:03 - 13:05Facebook оптимизирует
вашу деятельность на сайте: -
13:06 - 13:07лайки, ссылки, комментарии.
-
13:08 - 13:11В августе 2014 года
-
13:11 - 13:14в Фергюсоне, штат Миссури
вспыхнули протесты -
13:14 - 13:18после того, как белый полицейский
убил афро-американского подростка -
13:18 - 13:20при невыясненных обстоятельствах.
-
13:20 - 13:22Новости о протестах заполонили
-
13:22 - 13:25мой алгоритмически
нефильтрованный Twitter, -
13:25 - 13:27но в моём Facebook их не было.
-
13:27 - 13:29Может, это из-за моих друзей в Facebook?
-
13:29 - 13:31Я отключила алгоритм Facebook,
-
13:31 - 13:34что было сложно, так как Facebook хочет,
-
13:34 - 13:36чтобы вы были под контролем алгоритма.
-
13:36 - 13:39Я увидела, что мои друзья
обсуждали эту тему. -
13:39 - 13:41Просто алгоритм не показывал это мне.
-
13:41 - 13:44Я изучила этот вопрос и выяснила,
что это распространённая проблема. -
13:44 - 13:48Новость про Фергюсон
была неудобна для алгоритма. -
13:48 - 13:49Эта новость не наберёт лайки.
-
13:49 - 13:51Кто будет лайкать это?
-
13:52 - 13:54Это даже сложно комментировать.
-
13:54 - 13:55Без лайков и комментариев
-
13:55 - 13:58алгоритм, вероятно, показывал
новость ещё меньшему кругу людей, -
13:58 - 14:00поэтому мы не видели это.
-
14:01 - 14:02Вместо этого на той же неделе
-
14:02 - 14:04алгоритм Facebook выделил это —
-
14:05 - 14:07кампания «испытание ведром ледяной воды».
-
14:07 - 14:11Важное дело: выливаем ведро со льдом,
жертвуем на благотворительность — супер. -
14:11 - 14:13Это было очень удобно для алгоритма.
-
14:13 - 14:16Машина решила за нас.
-
14:16 - 14:19Очень важный, но трудный разговор,
-
14:19 - 14:21возможно, был бы замят,
-
14:21 - 14:24будь Facebook единственным каналом.
-
14:24 - 14:28Наконец, эти системы могут делать ошибки,
-
14:28 - 14:31которые не похожи на ошибки людей.
-
14:31 - 14:34Помните Уотсона,
искусственный интеллект IBM, -
14:34 - 14:37который разгромил соперников-людей
на телевикторине Jeopardy? -
14:37 - 14:39Он был отличным игроком.
-
14:39 - 14:42Тогда, во время финала игры
Уотсону задали вопрос: -
14:42 - 14:46«Его крупнейший аэропорт назван
в честь героя Второй мировой войны, -
14:46 - 14:48а второй — в честь битвы
Второй мировой войны». -
14:48 - 14:49(Музыка Final Jeopardy)
-
14:50 - 14:51Чикаго.
-
14:51 - 14:53Два человека ответили правильно.
-
14:53 - 14:57Уотсон ответил «Торонто» —
-
14:57 - 14:59в категории городов США!
-
15:00 - 15:02Мощнейшая система сделала ошибку,
-
15:03 - 15:06которую человек никогда бы не сделал,
даже второклассник бы не ошибся. -
15:07 - 15:10Искусственный интеллект
может ошибиться там, -
15:10 - 15:13где человек не допустит ошибку,
-
15:13 - 15:16там, где мы не ожидаем
ошибку и не готовы к ней. -
15:16 - 15:20Жалко не получить работу тому,
кто для неё подходит, -
15:20 - 15:24но ещё хуже, если это произошло
из-за переполнения стека -
15:24 - 15:25в какой-то подпрограмме.
-
15:25 - 15:27(Смех)
-
15:27 - 15:29В мае 2010 года
-
15:29 - 15:33произошёл обвал рынка Уолл-стрит
по вине метода передачи данных -
15:33 - 15:36в алгоритме Уолл-стрит «сбыт»,
-
15:36 - 15:41что снизило стоимость бумаг
на триллион долларов на 36 минут. -
15:41 - 15:45Даже подумать страшно, какие
последствия может иметь «ошибка» -
15:45 - 15:48в контексте автономного летального оружия.
-
15:50 - 15:54У людей всегда предвзятый взгляд на вещи.
-
15:54 - 15:56Лица, принимающие решения, и контролёры;
-
15:56 - 15:59в судах, в новостях, на войне ...
-
15:59 - 16:02люди совершают ошибки —
именно это я и имею в виду. -
16:02 - 16:06Мы не можем избежать сложных вопросов.
-
16:07 - 16:10Мы не можем переложить
свои обязанности на машины. -
16:11 - 16:15(Аплодисменты)
-
16:17 - 16:22Искусственный интеллект не даёт нам
права переложить вопросы этики на машину. -
16:23 - 16:26Эксперт по данным Фред Бененсон
называет это «математической чисткой». -
16:26 - 16:28Нам нужно совсем другое.
-
16:28 - 16:33Нам необходимы пристальное внимание,
контроль и оценка алгоритмов. -
16:33 - 16:37У нас должна быть
алгоритмическая отчётность, -
16:37 - 16:39проверка и достаточная прозрачность.
-
16:39 - 16:43Мы должны признать, что, добавив
математику и вычисления -
16:43 - 16:46к запутанным человеческим делам,
-
16:46 - 16:48мы не получим объективности;
-
16:48 - 16:52скорее, сложность человеческих
отношений вторгнется в алгоритмы. -
16:52 - 16:56Да, мы можем, и мы должны
использовать вычисления -
16:56 - 16:58для поиска лучших решений.
-
16:58 - 17:03Мы также должны нести моральную
ответственность и принимать решения, -
17:03 - 17:06успользуя алгоритмы в этих рамках,
-
17:06 - 17:11а не как средство отказа от обязательств,
чтобы передать наши обязанности -
17:11 - 17:13друг другу, как один человек другому.
-
17:14 - 17:16Искусственный интеллект уже здесь.
-
17:16 - 17:20Это значит, что мы должны
ещё больше придерживаться -
17:20 - 17:22человеческих ценностей и этики.
-
17:22 - 17:23Спасибо.
-
17:23 - 17:28(Аплодисменты)
- Title:
- Искусственный интеллект усиливает важность человеческой этики
- Speaker:
- Зейнеп Тюфекчи
- Description:
-
Искусственный интеллект уже здесь, и мы уже используем его для принятия субъективных решений. Сложность системы ИИ продолжает увеличиваться, что делает его трудным для понимания и контроля. В этой предостерегающей лекции техно-социолог Зейнеп Тюфекчи объясняет, как умные машины могут совершать ошибки, не соответствующие человеческим, поэтому мы не ожидаем их и мы не готовы к ним. «Мы не можем передать свои обязанности машинам», — говорит она. «Мы должны крепче держаться человеческих ценностей и этики».
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Retired user approved Russian subtitles for Machine intelligence makes human morals more important | ||
Retired user edited Russian subtitles for Machine intelligence makes human morals more important | ||
Natalia Ost accepted Russian subtitles for Machine intelligence makes human morals more important | ||
Marina Lee edited Russian subtitles for Machine intelligence makes human morals more important | ||
Olenka Rasskazova edited Russian subtitles for Machine intelligence makes human morals more important | ||
Olenka Rasskazova edited Russian subtitles for Machine intelligence makes human morals more important | ||
Olenka Rasskazova edited Russian subtitles for Machine intelligence makes human morals more important | ||
Olenka Rasskazova edited Russian subtitles for Machine intelligence makes human morals more important |