Return to Video

Искусственный интеллект усиливает важность человеческой этики

  • 0:01 - 0:05
    Я начала работать программистом
  • 0:05 - 0:07
    в первый год учёбы в колледже,
  • 0:07 - 0:08
    практически подростком.
  • 0:09 - 0:11
    Вскоре после того, как я начала работать —
  • 0:11 - 0:12
    писать программное обеспечение,
  • 0:13 - 0:16
    один из работающих в компании
    менеджеров подошёл ко мне
  • 0:16 - 0:18
    и прошептал:
  • 0:18 - 0:21
    «Он понимает, когда я вру?»
  • 0:22 - 0:24
    В комнате никого больше не было.
  • 0:25 - 0:29
    «Кто он? И почему ты шепчешь?»
  • 0:30 - 0:33
    Менеджер указал на компьютер.
  • 0:33 - 0:36
    «Он может понять, когда я вру?»
  • 0:38 - 0:42
    Кстати, у этого менеджера
    был роман с секретаршей.
  • 0:42 - 0:43
    (Смех)
  • 0:43 - 0:45
    А а была ещё подростком.
  • 0:45 - 0:47
    Поэтому я шёпотом крикнула ему:
  • 0:47 - 0:51
    «Да, компьютер может понять,
    когда вы лжёте».
  • 0:51 - 0:53
    (Смех)
  • 0:53 - 0:56
    Я пошутила, но оказалось,
    что это была не шутка.
  • 0:56 - 0:59
    Теперь существуют вычислительные системы,
  • 0:59 - 1:03
    которые могут определить ваше
    эмоциональное состояние и даже ложь,
  • 1:03 - 1:05
    обрабатывая выражения человеческих лиц.
  • 1:05 - 1:09
    Рекламодатели и правительства
    очень заинтересованы.
  • 1:10 - 1:12
    Я стала программистом,
  • 1:12 - 1:16
    потому что я была одержимым
    математикой и наукой ребёнком.
  • 1:16 - 1:19
    Но в какой-то момент я узнала
    о существовании ядерного оружия
  • 1:19 - 1:22
    и всерьёз задумалась о научной этике.
  • 1:22 - 1:23
    Меня это беспокоило.
  • 1:23 - 1:26
    Однако из-за семейных обстоятельств
  • 1:26 - 1:29
    мне пришлось начать
    работать как можно скорее.
  • 1:29 - 1:33
    Так что я подумала: «Эй, мне просто
    надо выбрать техническую область,
  • 1:33 - 1:34
    где я смогу легко получить работу,
  • 1:34 - 1:39
    и где мне не придётся иметь
    дело со сложными этическими вопросами».
  • 1:39 - 1:41
    Так что я выбрала компьютеры.
  • 1:41 - 1:42
    (Смех)
  • 1:42 - 1:45
    Ха, ха, ха! Все смеются надо мной.
  • 1:45 - 1:48
    В наши дни компьютерные
    учёные создают платформы,
  • 1:48 - 1:52
    которые контролируют то,
    что миллиард человек видит каждый день.
  • 1:53 - 1:57
    Они разрабатывают автомобили,
    которые могли бы решить, кого задавить.
  • 1:58 - 2:01
    Они даже разрабатывают машины и оружие,
  • 2:01 - 2:03
    которые могут убивать людей на войне.
  • 2:03 - 2:06
    Здесь вопросы этики повсюду.
  • 2:07 - 2:09
    Искусственный интеллект уже здесь.
  • 2:10 - 2:13
    Мы уже используем вычислительную
    технику для принятия каких угодно решений,
  • 2:13 - 2:15
    и даже для создания новых решений.
  • 2:15 - 2:20
    Мы задаём компьютерам вопросы,
    на которые нет единого правильного ответа:
  • 2:20 - 2:22
    субъективные вопросы,
  • 2:22 - 2:24
    открытые и вопросы оценочного характера.
  • 2:24 - 2:26
    Мы задавали такие вопросы, как:
  • 2:26 - 2:28
    «Кого стоит нанять в компанию?»
  • 2:28 - 2:31
    «Какое обновление и от какого
    друга мы должны видеть?»
  • 2:31 - 2:33
    «Кто из осуждённых
    скорее всего станет рецидивистом?»
  • 2:34 - 2:37
    «Какие новости или фильмы
    рекомендовать людям?»
  • 2:37 - 2:40
    Да, мы используем компьютеры
    уже продолжительное время,
  • 2:40 - 2:42
    но это совсем другое.
  • 2:42 - 2:44
    Это исторический поворот,
  • 2:44 - 2:49
    потому что базис для вычисления
    принятия субъективных решений,
  • 2:49 - 2:54
    отличается от того, что используется для
    сборки самолётов, строительства мостов
  • 2:54 - 2:56
    или полётов на Луну.
  • 2:56 - 3:00
    Самолёты стали безопаснее?
    Мосты больше не падают?
  • 3:00 - 3:04
    Здесь у нас есть
    достаточно чёткие критерии
  • 3:04 - 3:06
    и законы природы,
    на которые мы можем положиться.
  • 3:07 - 3:10
    Но нет чётких критериев
  • 3:10 - 3:14
    для принятия решений
    в запутанных людских делах.
  • 3:14 - 3:18
    Ещё больше усложняет задачу
    программное обеспечение,
  • 3:18 - 3:22
    становящееся менее прозрачным
    и более сложным и мощным.
  • 3:23 - 3:25
    За последнее десятилетие
  • 3:25 - 3:27
    развитие сложных алгоритмов
    достигло больших успехов.
  • 3:27 - 3:29
    Они могут распознавать человеческие лица.
  • 3:30 - 3:32
    Они могут расшифровывать почерк.
  • 3:32 - 3:35
    Выявить мошенничество
    с кредитными картами
  • 3:35 - 3:36
    или блокировать спам,
  • 3:36 - 3:38
    они могут переводить с других языков.
  • 3:38 - 3:40
    Они могут выявлять опухоли
    в рентгенографии.
  • 3:40 - 3:43
    Они могут обыгрывать нас в шахматы и в Го.
  • 3:43 - 3:48
    Большáя часть этого прогресса достигнута
    с помощью «машинного обучения».
  • 3:48 - 3:51
    Машинное обучение отличается
    от традиционного программирования,
  • 3:51 - 3:55
    где вы даёте компьютеру подробные,
    точные, чёткие инструкции.
  • 3:55 - 4:00
    Это больше похоже, как будто мы
    скармливаем компьютеру много данных,
  • 4:00 - 4:01
    в том числе бессистемных данных,
  • 4:01 - 4:04
    как те, что мы создаём
    в нашей цифровой жизни.
  • 4:04 - 4:06
    И система сама учится
    систематизировать эти данные.
  • 4:07 - 4:08
    Особенно важно то,
  • 4:08 - 4:13
    что эти системы не работают
    по логике поиска единого ответа.
  • 4:13 - 4:16
    Они не дают однозначного ответа,
    они основаны на вероятности:
  • 4:16 - 4:19
    «Этот ответ, вероятно,
    похож на то, что вы ищете».
  • 4:20 - 4:23
    Плюс этого метода в том,
    что он очень перспективный.
  • 4:23 - 4:25
    Глава систем ИИ Google назвал его
  • 4:25 - 4:27
    «нерационально высокая
    эффективность данных».
  • 4:28 - 4:29
    Минус в том,
  • 4:30 - 4:33
    что мы не знаем,
    что именно система выучила.
  • 4:33 - 4:34
    В этом мощь системы.
  • 4:35 - 4:39
    Это не похоже на то,
    как давать указания компьютеру;
  • 4:39 - 4:43
    это больше похоже
    на обучение машины-щенка,
  • 4:43 - 4:46
    которого мы не понимаем и не контролируем.
  • 4:46 - 4:48
    В этом наша проблема.
  • 4:48 - 4:53
    Плохо, когда система искусственного
    интеллекта понимает что-то неправильно.
  • 4:53 - 4:56
    И также плохо, когда система
    понимает что-то правильно,
  • 4:56 - 5:00
    потому что мы не знаем, что есть что,
    когда дело касается субъективой проблемы.
  • 5:00 - 5:02
    Мы не знаем, о чём эта штука думает.
  • 5:03 - 5:07
    Рассмотрим алгоритм приёма на работу —
  • 5:08 - 5:12
    система для найма людей
    с использованием машинного обучения.
  • 5:13 - 5:17
    Такая система будет обучаться
    по данным о предыдущих сотрудниках
  • 5:17 - 5:19
    и будет искать и нанимать людей,
  • 5:19 - 5:22
    похожих на нынешних самых эффективных
    сотрудников компании.
  • 5:23 - 5:24
    Звучит хорошо.
  • 5:24 - 5:26
    Однажды я была на конференции
  • 5:26 - 5:29
    для руководителей, менеджеров по персоналу
  • 5:29 - 5:30
    и топ-менеджеров,
  • 5:30 - 5:32
    использующих такую систему найма.
  • 5:32 - 5:34
    Все были очень воодушевлены.
  • 5:34 - 5:38
    Они думали, что это сделает процесс
    найма более объективным, менее предвзятым,
  • 5:38 - 5:41
    даст женщинам и меньшинствам
    больше шансов
  • 5:41 - 5:44
    в отличие от предвзято
    настроенных менеджеров.
  • 5:44 - 5:46
    Найм сотрудников построен на предвзятости.
  • 5:47 - 5:48
    Я знаю.
  • 5:48 - 5:51
    На одной из моих первых работ
    в качестве программиста
  • 5:51 - 5:55
    моя непосредственная начальница
    иногда подходила ко мне
  • 5:55 - 5:59
    очень рано утром или очень поздно днём
  • 5:59 - 6:02
    и говорила: «Зейнеп, пойдём обедать!»
  • 6:03 - 6:05
    Я была озадачена странным выбором времени.
  • 6:05 - 6:07
    Обед в 4 часа дня?
  • 6:07 - 6:10
    Бесплатный ланч; денег у меня нет.
    Я всегда ходила.
  • 6:11 - 6:13
    Позже я поняла, что происходит.
  • 6:13 - 6:17
    Мои непосредственные руководители
    не признались вышестоящему руководству,
  • 6:17 - 6:21
    что программист, которого они наняли
    на серьёзный проект — девушка подросток,
  • 6:21 - 6:24
    которая ходит на работу
    в джинсах и кроссовках.
  • 6:25 - 6:28
    Я хорошо выполняла работу,
    я просто выглядела неподобающе,
  • 6:28 - 6:29
    была неправильного возраста и пола.
  • 6:29 - 6:32
    Так что найм без учёта пола и расы,
  • 6:32 - 6:35
    конечно, звучит для меня
    как хорошая идея.
  • 6:35 - 6:38
    Но с этими системами
    всё сложнее, и вот почему:
  • 6:39 - 6:45
    Сейчас вычислительные системы
    могут узнать всю информацию о вас
  • 6:45 - 6:47
    по крошкам, что вы оставляете
    в цифровом виде,
  • 6:47 - 6:49
    даже если вы не разглашаете
    такую информацию.
  • 6:50 - 6:52
    Они могут вычислить
    вашу сексуальную ориентацию,
  • 6:53 - 6:54
    ваши черты характера,
  • 6:55 - 6:56
    ваши политические пристрастия.
  • 6:57 - 7:01
    Они могут составлять прогнозы
    с высоким уровнем точности.
  • 7:01 - 7:04
    Помните, даже для информации,
    которую вы даже не разглашаете.
  • 7:04 - 7:06
    Это предположения.
  • 7:06 - 7:09
    У меня есть подруга, которая
    разрабатывает такие системы
  • 7:09 - 7:13
    для прогнозирования вероятности
    клинической или послеродовой депрессии
  • 7:13 - 7:14
    по данным из социальных сетей.
  • 7:15 - 7:16
    Результаты впечатляют.
  • 7:16 - 7:20
    Её система может предсказать
    вероятность депрессии
  • 7:20 - 7:24
    до появления каких-либо симптомов —
  • 7:24 - 7:25
    за несколько месяцев.
  • 7:25 - 7:27
    Симптомов нет, а прогноз есть.
  • 7:27 - 7:32
    Она надеется, что программа будет
    использоваться для профилактики. Отлично!
  • 7:33 - 7:35
    Теперь представьте это в контексте найма.
  • 7:36 - 7:39
    На той конференции
    для управляющих персоналом
  • 7:39 - 7:44
    я подошла к менеджеру высокого уровня
    в очень крупной компании,
  • 7:44 - 7:48
    и спросила её:
    «Что, если система без вашего ведома,
  • 7:48 - 7:55
    начнёт отсеивать людей
    с высокой вероятностью будущей депрессии?
  • 7:56 - 7:59
    Сейчас у них нет депрессии,
    но в будущем вероятность высока.
  • 8:00 - 8:04
    Что, если система начнёт отсеивать женщин,
    чья вероятность забеременеть
  • 8:04 - 8:06
    через год или два выше,
    но они не беременны сейчас?
  • 8:07 - 8:12
    Если начнёт нанимать агрессивных людей,
    потому что это норма для вашей компании?
  • 8:13 - 8:16
    Этого не определить, глядя
    на процентное соотношение полов.
  • 8:16 - 8:18
    Эти показатели могут быть в норме.
  • 8:18 - 8:21
    Так как это машинное обучение,
    а не традиционное программирование,
  • 8:21 - 8:26
    тут нет переменной
    «более высокий риск депрессии»,
  • 8:26 - 8:28
    «высокий риск беременности»,
  • 8:28 - 8:30
    или «агрессивный парень».
  • 8:30 - 8:34
    Мало того, что вы не знаете,
    как ваша система делает выводы,
  • 8:34 - 8:36
    вы даже не знаете, откуда что берётся.
  • 8:36 - 8:37
    Это чёрный ящик.
  • 8:37 - 8:41
    Он может прогнозировать,
    но мы не понимаем принцип его работы.
  • 8:41 - 8:43
    Я спросила:
    «Какие у вас меры предосторожности,
  • 8:43 - 8:47
    чтобы убедиться, что чёрный ящик
    не делает ничего сомнительного?»
  • 8:49 - 8:53
    Она посмотрела на меня, как будто я
    только что отдавила хвосты 10 щенкам.
  • 8:53 - 8:54
    (Смех)
  • 8:54 - 8:56
    Она посмотрела на меня и сказала:
  • 8:57 - 9:01
    «Я не хочу слышать ни слова об этом».
  • 9:01 - 9:03
    Она повернулась и пошла прочь.
  • 9:04 - 9:06
    Имейте в виду — она не грубила мне.
  • 9:06 - 9:12
    Позиция очевидна: то, что я не знаю —
    не моя проблема, отвяжись, стрелы из глаз.
  • 9:12 - 9:13
    (Смех)
  • 9:14 - 9:18
    Такая система
    может быть менее предвзятой,
  • 9:18 - 9:20
    чем сами менеджеры в каком-то смысле.
  • 9:20 - 9:22
    В этом может быть финансовая выгода.
  • 9:23 - 9:24
    Но это также может привести
  • 9:24 - 9:29
    к неуклонному и скрытому
    выдавливанию с рынка труда
  • 9:29 - 9:32
    людей с более высоким
    риском развития депрессии.
  • 9:32 - 9:34
    Мы хотим построить такое общество,
  • 9:34 - 9:37
    даже не осознавая, что мы делаем,
  • 9:37 - 9:41
    потому что отдали право принятия решений
    машинам, которых до конца не понимаем?
  • 9:41 - 9:43
    Следующая проблема:
  • 9:43 - 9:48
    эти системы часто обучаются на данных,
    произведённых нашими действиями —
  • 9:48 - 9:50
    человеческим поведением.
  • 9:50 - 9:54
    Возможно, они просто
    отражают наши предубеждения,
  • 9:54 - 9:58
    и эти системы могут
    собирать наши пристрастия
  • 9:58 - 9:59
    и усиливать их,
  • 9:59 - 10:00
    показывая нам их вновь,
  • 10:00 - 10:02
    а мы говорим себе:
  • 10:02 - 10:05
    «Мы просто проводим объективные,
    непредвзятые вычисления».
  • 10:06 - 10:09
    Исследователи обнаружили что в Google
  • 10:10 - 10:15
    женщины реже, чем мужчины, видят
    объявления о высокооплачиваемой работе.
  • 10:16 - 10:19
    Набирая в поисковике
    афро-американские имена,
  • 10:19 - 10:24
    вероятность увидеть объявления
    криминального характера будет выше,
  • 10:24 - 10:25
    даже там, где криминала нет.
  • 10:27 - 10:30
    Скрытая необъективность
    и алгоритмы чёрного ящика,
  • 10:30 - 10:34
    которые исследователи
    иногда выявляют, а иногда нет,
  • 10:34 - 10:37
    могут иметь далеко идущие последствия.
  • 10:38 - 10:42
    В Висконсине подсудимый был приговорён
    к шести годам лишения свободы
  • 10:42 - 10:43
    за уклонение от полиции.
  • 10:45 - 10:46
    Может, вы не знаете,
  • 10:46 - 10:50
    но эти алгоритмы всё чаще используются
    в вынесении приговоров.
  • 10:50 - 10:53
    Он хотел узнать,
    как всё это рассчитывается?
  • 10:54 - 10:55
    Это коммерческий чёрный ящик.
  • 10:55 - 11:00
    Компания отказалась обсуждать
    свой алгоритм на открытом заседании суда.
  • 11:00 - 11:06
    Но следственная некоммерческая организация
    ProPublica проверила алгоритм,
  • 11:06 - 11:08
    используя данные из Интернета,
  • 11:08 - 11:10
    и обнаружила,
    что результаты необъективны,
  • 11:10 - 11:14
    способность прогнозирования ужасная,
    немного лучше, чем случайность.
  • 11:14 - 11:18
    Система классифицирует чернокожих
    обвиняемых как будущих преступников
  • 11:18 - 11:22
    в два раза чаще, чем белых обвиняемых.
  • 11:24 - 11:25
    Рассмотрим следующий случай:
  • 11:26 - 11:30
    Эта девушка опаздывала, чтобы забрать
    свою крёстную сестру
  • 11:30 - 11:32
    из школы в округе Броуард, штат Флорида.
  • 11:33 - 11:35
    Они с подругой бежали по улице.
  • 11:35 - 11:39
    Тут они заметили незапертые
    велосипед и скутер на крыльце
  • 11:39 - 11:41
    и по глупости взяли их.
  • 11:41 - 11:44
    Когда они отъезжали,
    вышла женщина и крикнула:
  • 11:44 - 11:46
    «Эй! Это велосипед моего ребёнка!»
  • 11:46 - 11:49
    Они его бросили и ушли,
    но их арестовали.
  • 11:49 - 11:53
    Она была не права, она сглупила,
    но ей было всего 18 лет.
  • 11:53 - 11:55
    У неё была пара
    малолетних правонарушений.
  • 11:56 - 12:01
    В то же время этот мужчина был
    арестован за кражу в магазине Home Depot,
  • 12:01 - 12:04
    примерно на сумму 85 долларов —
    такое же мелкое преступление.
  • 12:05 - 12:09
    Но у него за спиной было
    две судимости за вооружённый грабеж.
  • 12:10 - 12:13
    Алгоритм посчитал,
    что её показатель риска выше, чем его.
  • 12:15 - 12:19
    Спустя пару лет ProPublica выяснили,
    что она больше не совершала преступлений.
  • 12:19 - 12:21
    Но зато ей было сложно найти
    работу, имея судимость.
  • 12:21 - 12:23
    Тогда как этот мужчина стал рецидивистом,
  • 12:23 - 12:27
    и в настоящее время отбывает восьмилетний
    срок за своё последнее преступление.
  • 12:28 - 12:31
    Очевидно, мы должны проверять
    наши чёрные ящики,
  • 12:31 - 12:34
    чтобы они не получили
    бесконтрольную власть.
  • 12:34 - 12:37
    (Аплодисменты)
  • 12:38 - 12:42
    Проверка и контроль важны,
    но они не решают всех проблем.
  • 12:42 - 12:45
    Вспомните мощный алгоритм
    ленты новостей на Facebook —
  • 12:45 - 12:50
    знаете, тот, который оценивает всё
    и решает, что именно вам показывать
  • 12:50 - 12:53
    от ваших друзей и до страниц,
    на которые вы подписаны.
  • 12:53 - 12:55
    Показать вам ещё одну картинку младенца?
  • 12:55 - 12:56
    (Смех)
  • 12:56 - 12:59
    Грустный комментарий от знакомого?
  • 12:59 - 13:01
    Важную, но непростую новость?
  • 13:01 - 13:03
    Тут нет единого ответа.
  • 13:03 - 13:05
    Facebook оптимизирует
    вашу деятельность на сайте:
  • 13:06 - 13:07
    лайки, ссылки, комментарии.
  • 13:08 - 13:11
    В августе 2014 года
  • 13:11 - 13:14
    в Фергюсоне, штат Миссури
    вспыхнули протесты
  • 13:14 - 13:18
    после того, как белый полицейский
    убил афро-американского подростка
  • 13:18 - 13:20
    при невыясненных обстоятельствах.
  • 13:20 - 13:22
    Новости о протестах заполонили
  • 13:22 - 13:25
    мой алгоритмически
    нефильтрованный Twitter,
  • 13:25 - 13:27
    но в моём Facebook их не было.
  • 13:27 - 13:29
    Может, это из-за моих друзей в Facebook?
  • 13:29 - 13:31
    Я отключила алгоритм Facebook,
  • 13:31 - 13:34
    что было сложно, так как Facebook хочет,
  • 13:34 - 13:36
    чтобы вы были под контролем алгоритма.
  • 13:36 - 13:39
    Я увидела, что мои друзья
    обсуждали эту тему.
  • 13:39 - 13:41
    Просто алгоритм не показывал это мне.
  • 13:41 - 13:44
    Я изучила этот вопрос и выяснила,
    что это распространённая проблема.
  • 13:44 - 13:48
    Новость про Фергюсон
    была неудобна для алгоритма.
  • 13:48 - 13:49
    Эта новость не наберёт лайки.
  • 13:49 - 13:51
    Кто будет лайкать это?
  • 13:52 - 13:54
    Это даже сложно комментировать.
  • 13:54 - 13:55
    Без лайков и комментариев
  • 13:55 - 13:58
    алгоритм, вероятно, показывал
    новость ещё меньшему кругу людей,
  • 13:58 - 14:00
    поэтому мы не видели это.
  • 14:01 - 14:02
    Вместо этого на той же неделе
  • 14:02 - 14:04
    алгоритм Facebook выделил это —
  • 14:05 - 14:07
    кампания «испытание ведром ледяной воды».
  • 14:07 - 14:11
    Важное дело: выливаем ведро со льдом,
    жертвуем на благотворительность — супер.
  • 14:11 - 14:13
    Это было очень удобно для алгоритма.
  • 14:13 - 14:16
    Машина решила за нас.
  • 14:16 - 14:19
    Очень важный, но трудный разговор,
  • 14:19 - 14:21
    возможно, был бы замят,
  • 14:21 - 14:24
    будь Facebook единственным каналом.
  • 14:24 - 14:28
    Наконец, эти системы могут делать ошибки,
  • 14:28 - 14:31
    которые не похожи на ошибки людей.
  • 14:31 - 14:34
    Помните Уотсона,
    искусственный интеллект IBM,
  • 14:34 - 14:37
    который разгромил соперников-людей
    на телевикторине Jeopardy?
  • 14:37 - 14:39
    Он был отличным игроком.
  • 14:39 - 14:42
    Тогда, во время финала игры
    Уотсону задали вопрос:
  • 14:42 - 14:46
    «Его крупнейший аэропорт назван
    в честь героя Второй мировой войны,
  • 14:46 - 14:48
    а второй — в честь битвы
    Второй мировой войны».
  • 14:48 - 14:49
    (Музыка Final Jeopardy)
  • 14:50 - 14:51
    Чикаго.
  • 14:51 - 14:53
    Два человека ответили правильно.
  • 14:53 - 14:57
    Уотсон ответил «Торонто» —
  • 14:57 - 14:59
    в категории городов США!
  • 15:00 - 15:02
    Мощнейшая система сделала ошибку,
  • 15:03 - 15:06
    которую человек никогда бы не сделал,
    даже второклассник бы не ошибся.
  • 15:07 - 15:10
    Искусственный интеллект
    может ошибиться там,
  • 15:10 - 15:13
    где человек не допустит ошибку,
  • 15:13 - 15:16
    там, где мы не ожидаем
    ошибку и не готовы к ней.
  • 15:16 - 15:20
    Жалко не получить работу тому,
    кто для неё подходит,
  • 15:20 - 15:24
    но ещё хуже, если это произошло
    из-за переполнения стека
  • 15:24 - 15:25
    в какой-то подпрограмме.
  • 15:25 - 15:27
    (Смех)
  • 15:27 - 15:29
    В мае 2010 года
  • 15:29 - 15:33
    произошёл обвал рынка Уолл-стрит
    по вине метода передачи данных
  • 15:33 - 15:36
    в алгоритме Уолл-стрит «сбыт»,
  • 15:36 - 15:41
    что снизило стоимость бумаг
    на триллион долларов на 36 минут.
  • 15:41 - 15:45
    Даже подумать страшно, какие
    последствия может иметь «ошибка»
  • 15:45 - 15:48
    в контексте автономного летального оружия.
  • 15:50 - 15:54
    У людей всегда предвзятый взгляд на вещи.
  • 15:54 - 15:56
    Лица, принимающие решения, и контролёры;
  • 15:56 - 15:59
    в судах, в новостях, на войне ...
  • 15:59 - 16:02
    люди совершают ошибки —
    именно это я и имею в виду.
  • 16:02 - 16:06
    Мы не можем избежать сложных вопросов.
  • 16:07 - 16:10
    Мы не можем переложить
    свои обязанности на машины.
  • 16:11 - 16:15
    (Аплодисменты)
  • 16:17 - 16:22
    Искусственный интеллект не даёт нам
    права переложить вопросы этики на машину.
  • 16:23 - 16:26
    Эксперт по данным Фред Бененсон
    называет это «математической чисткой».
  • 16:26 - 16:28
    Нам нужно совсем другое.
  • 16:28 - 16:33
    Нам необходимы пристальное внимание,
    контроль и оценка алгоритмов.
  • 16:33 - 16:37
    У нас должна быть
    алгоритмическая отчётность,
  • 16:37 - 16:39
    проверка и достаточная прозрачность.
  • 16:39 - 16:43
    Мы должны признать, что, добавив
    математику и вычисления
  • 16:43 - 16:46
    к запутанным человеческим делам,
  • 16:46 - 16:48
    мы не получим объективности;
  • 16:48 - 16:52
    скорее, сложность человеческих
    отношений вторгнется в алгоритмы.
  • 16:52 - 16:56
    Да, мы можем, и мы должны
    использовать вычисления
  • 16:56 - 16:58
    для поиска лучших решений.
  • 16:58 - 17:03
    Мы также должны нести моральную
    ответственность и принимать решения,
  • 17:03 - 17:06
    успользуя алгоритмы в этих рамках,
  • 17:06 - 17:11
    а не как средство отказа от обязательств,
    чтобы передать наши обязанности
  • 17:11 - 17:13
    друг другу, как один человек другому.
  • 17:14 - 17:16
    Искусственный интеллект уже здесь.
  • 17:16 - 17:20
    Это значит, что мы должны
    ещё больше придерживаться
  • 17:20 - 17:22
    человеческих ценностей и этики.
  • 17:22 - 17:23
    Спасибо.
  • 17:23 - 17:28
    (Аплодисменты)
Title:
Искусственный интеллект усиливает важность человеческой этики
Speaker:
Зейнеп Тюфекчи
Description:

Искусственный интеллект уже здесь, и мы уже используем его для принятия субъективных решений. Сложность системы ИИ продолжает увеличиваться, что делает его трудным для понимания и контроля. В этой предостерегающей лекции техно-социолог Зейнеп Тюфекчи объясняет, как умные машины могут совершать ошибки, не соответствующие человеческим, поэтому мы не ожидаем их и мы не готовы к ним. «Мы не можем передать свои обязанности машинам», — говорит она. «Мы должны крепче держаться человеческих ценностей и этики».

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Russian subtitles

Revisions