Return to Video

Штучний інтелект підсилює значення моральних норм

  • 0:01 - 0:05
    Отже, я почала працювати
    програмісткою,
  • 0:05 - 0:07
    коли навчалась на першому курсі коледжу
  • 0:07 - 0:08
    і була, по суті, ще тінейджеркою.
  • 0:09 - 0:11
    Після того, як я почала працювати,
  • 0:11 - 0:12
    пишучи програмне забезпечення,
  • 0:13 - 0:16
    менеджер, який теж там працював,
    підійшов до мене
  • 0:16 - 0:18
    і прошепотів:
  • 0:18 - 0:21
    "Чи може він сказати, що я брешу?"
  • 0:22 - 0:24
    У кабінеті крім нас нікого не було.
  • 0:25 - 0:29
    "Хто може сказати, що ти брешеш?
    І чому ми говоримо пошепки?"
  • 0:30 - 0:33
    Менеджер показав пальцем
    на комп'ютер.
  • 0:33 - 0:36
    "Чи може він сказати, що я брешу?"
  • 0:38 - 0:42
    Річ у тім, що в мого колеги був
    роман із секретаркою.
  • 0:42 - 0:43
    (Сміх)
  • 0:43 - 0:45
    А я все ще була тінейджеркою.
  • 0:45 - 0:47
    Тому голосно прошепотіла:
  • 0:47 - 0:51
    "Так, комп'ютер може сказати,
    що ти брешеш".
  • 0:51 - 0:53
    (Сміх)
  • 0:53 - 0:56
    Ну, я сміялась, але насправді
    сміялась над собою.
  • 0:56 - 0:59
    Сьогодні існують комп'ютерні системи,
  • 0:59 - 1:03
    які можуть розпізнати емоції
    і навіть брехню,
  • 1:03 - 1:05
    опрацювавши обличчя людини.
  • 1:05 - 1:09
    Рекламодавці і навіть влада
    в цьому дуже зацікавлені.
  • 1:10 - 1:12
    Я стала програмісткою,
  • 1:12 - 1:15
    тому, що була однією з тих дітей,
    які шаленіли від точних наук.
  • 1:16 - 1:19
    Але десь у процесі я дізналась
    про ядерну зброю,
  • 1:19 - 1:22
    і мене справді схвилювало
    питання наукової етики.
  • 1:22 - 1:23
    Я була стривожена.
  • 1:23 - 1:26
    Однак через сімейні обставини
  • 1:26 - 1:29
    мені також треба було
    почати працювати якнайшвидше.
  • 1:29 - 1:33
    Тому я подумала: "Ей, обирай
    технічну сферу,
  • 1:33 - 1:34
    де можна легко знайти роботу
  • 1:34 - 1:38
    і де не треба мати справу з
    болісними етичними проблемами".
  • 1:39 - 1:41
    Тому я обрала комп'ютери.
  • 1:41 - 1:42
    (Сміх)
  • 1:42 - 1:45
    Ха-ха-ха!
    Всі наді мною сміялися.
  • 1:45 - 1:48
    Сьогодні програмісти будують платформи,
  • 1:48 - 1:52
    які регулюють те, що мільйони людей
    щодня бачать.
  • 1:53 - 1:57
    Вони удосконалюють автомобілі,
    які можуть вирішити, кого переїхати.
  • 1:58 - 2:01
    Вони навіть конструюють машини і зброю,
  • 2:01 - 2:03
    які можуть вбивати людей на війні.
  • 2:03 - 2:06
    Це все одно проблема моралі.
  • 2:07 - 2:09
    Це машинний інтелект.
  • 2:10 - 2:13
    Сьогодні ми використовуємо комп'ютеризацію,
    щоб ухвалювати будь-які рішення,
  • 2:13 - 2:15
    а також для нових рішень.
  • 2:15 - 2:20
    Ми ставимо запитання машинам,
    які не мають чітких правильних відповідей,
  • 2:20 - 2:22
    суб'єктивних,
  • 2:22 - 2:24
    відкритих і заснованих
    на ідеях цінностей.
  • 2:24 - 2:26
    Ми ставимо запитання на кшталт:
  • 2:26 - 2:27
    "Кого компанії варто найняти?"
  • 2:28 - 2:31
    "Новини якого друга потрібно показати?"
  • 2:31 - 2:33
    "Який злочинець може
    знову порушити закон?"
  • 2:34 - 2:37
    "Яку новину або фільм
    слід рекомендувати людям?"
  • 2:37 - 2:40
    Так, ми постійно
    використовували комп'ютери,
  • 2:40 - 2:42
    але це інше.
  • 2:42 - 2:44
    Це історичний поворот,
  • 2:44 - 2:49
    адже не можна передати комп'ютерам
    відповідальність за такі суб'єктивні рішення,
  • 2:49 - 2:54
    так як передаємо за управління літаками,
    будування мостів,
  • 2:54 - 2:56
    польоти на Місяць.
  • 2:56 - 3:00
    Хіба літаки безпечніші?
    Мости не хиталися і не падали?
  • 3:00 - 3:04
    У нас є загальноприйняті,
    цілком зрозумілі критерії порівняння,
  • 3:04 - 3:06
    і є закони природи, які нами керують.
  • 3:07 - 3:10
    У нас немає таких підстав та критеріїв,
  • 3:10 - 3:14
    щоб ухвалювати рішення стосовно
    брудних людських справ.
  • 3:14 - 3:18
    Програмне забезпечення стає потужнішим,
    щоб зробити деякі речі складнішими,
  • 3:18 - 3:22
    але водночас стає прозорішим
    і заплутанішим.
  • 3:23 - 3:25
    За останніх десять років
  • 3:25 - 3:27
    заплутані алгоритми досягли
    великого успіху.
  • 3:27 - 3:29
    Вони можуть розпізнавати обличчя людей.
  • 3:30 - 3:32
    Можуть розшифрувати почерк.
  • 3:32 - 3:35
    Можуть знайти кредитних шахраїв,
  • 3:35 - 3:36
    блокувати спам,
  • 3:36 - 3:38
    перекладати з мови на мову.
  • 3:38 - 3:40
    Вони можуть виявити пухлини на рентгені.
  • 3:40 - 3:43
    Обіграти людей в шахи чи "Ґо".
  • 3:43 - 3:48
    Велика частина цього прогресу
    прийшла з методу "машинного навчання".
  • 3:48 - 3:51
    Машинне навчання відрізняється від
    традиційного програмування,
  • 3:51 - 3:55
    коли ви даєте комп'ютеру детальні,
    точні, досконалі інструкції.
  • 3:55 - 4:00
    Це більше схоже на те, коли ви берете
    систему і наповнюєте її інформацією,
  • 4:00 - 4:01
    зокрема неструктурованою,
  • 4:01 - 4:04
    схожою на ту, що ми генеруємо
    у цифровому житті.
  • 4:04 - 4:06
    І система вчиться на обробці
    цієї інформації.
  • 4:07 - 4:08
    Також важливо,
  • 4:08 - 4:13
    що системи не виконують завдання, пов'язані
    із необхідністю знайти єдину відповідь.
  • 4:13 - 4:16
    Вони не дають просту відповідь,
    виходячи з теорії імовірностей.
  • 4:16 - 4:19
    "Ось щось схоже на те,
    що ви шукаєте".
  • 4:20 - 4:23
    Тепер позитивний аспект:
    цей метод справді потужний.
  • 4:23 - 4:25
    Директор Google's AI systems називає його
  • 4:25 - 4:27
    "ірраціональною ефективністю даних".
  • 4:28 - 4:29
    Мінусом є те,
  • 4:30 - 4:33
    що ми насправді не розуміємо,
    про що дізнається система.
  • 4:33 - 4:34
    Насправді, в цьому сила системи.
  • 4:35 - 4:39
    Це не схоже на ситуацію, коли
    ми даємо комп'ютеру інструкції,
  • 4:39 - 4:43
    а, скоріше, на формування
    маленької машинної істоти,
  • 4:43 - 4:46
    яку ми насправді не розуміємо і
    не контролюємо.
  • 4:46 - 4:48
    Тому це наша проблема.
  • 4:48 - 4:53
    Проблемно, коли система штучного
    інтелекту засвоює інформацію неправильно.
  • 4:53 - 4:56
    Також проблемно, коли вона засвоює
    інформацію правильно,
  • 4:56 - 5:00
    тому що ми не знаємо, хто є хто,
    коли це суб'єктивна проблема.
  • 5:00 - 5:02
    Ми не знаємо, про що ця річ думає.
  • 5:03 - 5:07
    Розглянемо алгоритм найму на роботу -
  • 5:08 - 5:12
    система, яку застосовують для найму людей,
    використовує системи машинного навчання.
  • 5:13 - 5:17
    Така система підготовлена
    на даних попередніх працівників
  • 5:17 - 5:19
    і навчена шукати і наймати
  • 5:19 - 5:22
    людей, подібних до найкращих
    працівників компанії.
  • 5:23 - 5:24
    Звучить добре.
  • 5:24 - 5:26
    Одного разу я відвідала конференцію,
  • 5:26 - 5:29
    яку проводили керівники відділів кадрів
    та члени правління,
  • 5:29 - 5:30
    люди на високих посадах,
  • 5:30 - 5:32
    які використовують такі системи.
  • 5:32 - 5:34
    Вони були в захопленні.
  • 5:34 - 5:38
    Вони думали, що це зробить прийом на
    роботу більш об'єктивним, менш упередженим,
  • 5:38 - 5:41
    і дасть жінкам і представникам меншин
    більше шансів,
  • 5:41 - 5:44
    ніж упереджені менеджери.
  • 5:44 - 5:46
    Найм людей на роботу -
    справа упереджена.
  • 5:47 - 5:48
    Я знаю.
  • 5:48 - 5:51
    На одній із перших компаній,
    де я програмувала,
  • 5:51 - 5:55
    моя безпосередня керівничка
    деколи підходила до мене
  • 5:55 - 5:59
    рано-вранці або пізно ввечері,
  • 5:59 - 6:02
    і казала: "Зейнеп, ідемо обідати!"
  • 6:03 - 6:05
    Я була здивована дивним вибором часу.
  • 6:05 - 6:07
    16:00. Обід?
  • 6:07 - 6:10
    Ці сумнівні обіди мене ледь не розорили.
    Але я завжди йшла.
  • 6:11 - 6:13
    Пізніше я усвідомила, що відбувалося.
  • 6:13 - 6:17
    Мої безпосередні начальники не могли
    зізнатися вищому керівництву,
  • 6:17 - 6:20
    що найняли для серйозної роботи
    дівчинку-підлітка,
  • 6:20 - 6:24
    яка на роботу ходить у джинсах і кедах.
  • 6:25 - 6:27
    Я добре працювала,
    але виглядала неправильно
  • 6:27 - 6:29
    і була неправильного віку і статі.
  • 6:29 - 6:32
    Тому найм без врахування статі і раси
  • 6:32 - 6:34
    безсумнівно мені підходив.
  • 6:35 - 6:38
    Але з такими системами цей процес
    ще заплутаніший, і ось чому:
  • 6:39 - 6:45
    останнім часом комп'ютерні системи можуть
    зробити будь-які висновки про вас,
  • 6:45 - 6:47
    враховуючи цифрові дрібниці,
  • 6:47 - 6:49
    навіть якщо ви про ці висновки
    не підозрюєте.
  • 6:50 - 6:52
    Вони можуть робити висновки про
    сексуальну орієнтацію,
  • 6:53 - 6:54
    персональні якості,
  • 6:55 - 6:56
    політичні погляди.
  • 6:57 - 7:01
    Вони можуть передбачати
    з високим рівнем точності.
  • 7:01 - 7:04
    Пам'ятайте - речі, про які
    ви навіть не підозрюєте.
  • 7:04 - 7:06
    Це припущення.
  • 7:06 - 7:09
    У мене є подруга, яка удосконалює
    такі системи,
  • 7:09 - 7:13
    щоб передбачити ймовірність
    клінічної чи післяпологової депресії,
  • 7:13 - 7:14
    аналізуючи соціальні мережі.
  • 7:15 - 7:16
    Результати вражаючі.
  • 7:16 - 7:20
    ЇЇ система може передбачити
    ймовірність депресії
  • 7:20 - 7:24
    за місяці перед проявом симптомів -
  • 7:24 - 7:25
    за місяці.
  • 7:25 - 7:27
    Передбачення без симптомів.
  • 7:27 - 7:32
    Вона сподівається, що систему застосують
    для втручання на ранній стадії. Чудово!
  • 7:33 - 7:35
    Розгляньте це в контексті найму на роботу.
  • 7:36 - 7:39
    На конференції керівників кадрових служб
  • 7:39 - 7:44
    я спілкувалася з топ-менеджеркою
    дуже великої компанії
  • 7:44 - 7:48
    і сказала їй: "А якщо без вашого відома
  • 7:48 - 7:55
    система видаляє людей з високою
    ймовірністю появи депресії?
  • 7:56 - 7:59
    Наразі вони не пригнічені, але можливо
    стануть такими в майбутньому.
  • 8:00 - 8:03
    Що як вона видаляє жінок, які,
    можливо, завагітніють
  • 8:03 - 8:06
    за кілька наступних років,
    але не вагітні зараз?
  • 8:07 - 8:12
    Що як вона наймає на роботу агресивних
    людей через корпоративну культуру?"
  • 8:13 - 8:16
    Ви не можете цього сказати, дивлячись на
    гендерний баланс.
  • 8:16 - 8:17
    Їх можна врівноважити.
  • 8:17 - 8:21
    І так як це машинне навчання,
    а не традиційне програмування,
  • 8:21 - 8:26
    немає змінних ярликів на кшталт:
    "високий ризик депресії",
  • 8:26 - 8:28
    "високий ризик вагітності"
  • 8:28 - 8:30
    чи "шкала агресивності".
  • 8:30 - 8:34
    Ви не тільки не знаєте, що саме система
    візьме до уваги,
  • 8:34 - 8:36
    ви навіть не знаєте,
    де це починати шукати.
  • 8:36 - 8:37
    Це чорна скринька.
  • 8:37 - 8:40
    Система має силу передбачення,
    але ви її не розумієте.
  • 8:40 - 8:43
    Я запитала:
    "Які запобіжні заходи у вас є,
  • 8:43 - 8:47
    щоб упевнитись, що ця чорна скринька
    не робить нічого підозрілого?"
  • 8:49 - 8:53
    Вона подивилась на мене так, ніби
    я наступила щеняті на хвіст.
  • 8:53 - 8:54
    (Сміх)
  • 8:54 - 8:56
    Пильно подивилася на мене і сказала:
  • 8:57 - 9:01
    "Я більше не хочу нічого про це чути".
  • 9:01 - 9:03
    А тоді повернулася і пішла геть.
  • 9:04 - 9:06
    Зауважте - вона була вихована.
  • 9:06 - 9:12
    Було зрозуміло: те, чого я не знаю -
    не моя проблема. Іди геть; вбивчий погляд.
  • 9:12 - 9:13
    (Сміх)
  • 9:14 - 9:18
    Деколи такі системи можуть бути
    менш упереджені,
  • 9:18 - 9:20
    ніж керівники відділів кадрів.
  • 9:20 - 9:22
    І це може бути матеріально виправдано.
  • 9:23 - 9:24
    Але також це може призвести
  • 9:24 - 9:29
    до постійного і приховуваного виштовхування
    з ринку праці
  • 9:29 - 9:31
    людей з високим ризиком розвитку
    депресії.
  • 9:32 - 9:34
    Це таке суспільство,
    яке ми хочемо будувати,
  • 9:34 - 9:37
    навіть не знаючи, що ми це зробили,
  • 9:37 - 9:41
    тому що ми доручили ухвалення рішень
    машинам, яких повністю не розуміємо.
  • 9:41 - 9:43
    Є й інша проблема:
  • 9:43 - 9:48
    часто ці програми базуються на
    інформації, пов'язаній з нашими діями,
  • 9:48 - 9:50
    на людських враженнях.
  • 9:50 - 9:54
    Вони можуть відображати
    наші упередження,
  • 9:54 - 9:58
    можуть їх засвоїти
  • 9:58 - 9:59
    і підсилити
  • 9:59 - 10:00
    і повернути їх проти нас,
  • 10:00 - 10:02
    тоді як ми кажемо:
  • 10:02 - 10:05
    "Ми робимо об'єктивний,
    нейтральний розрахунок".
  • 10:06 - 10:09
    Дослідники виявили, що в Google
  • 10:10 - 10:15
    жінкам рідше пропонують оголошення
    про високооплачувану роботу.
  • 10:16 - 10:19
    І під час пошуку афро-американських імен
  • 10:19 - 10:24
    частіше з'являються рекламні оголошення
    про кримінальні історії,
  • 10:24 - 10:25
    які навіть не стосуються пошуку.
  • 10:27 - 10:30
    Такі приховані упередження
    і алгоритми "чорної скриньки",
  • 10:30 - 10:34
    що їх дослідники деколи виявляють,
    а деколи ми про них навіть не знаємо,
  • 10:34 - 10:37
    можуть мати життєвоважливі наслідки.
  • 10:38 - 10:42
    У Вісконсині підсудний був засуджений
    до шести років у в'язниці
  • 10:42 - 10:43
    за непокору поліції.
  • 10:45 - 10:46
    Можливо, ви цього не знаєте,
  • 10:46 - 10:50
    але алгоритми все частіше використовують
    для визначення міри покарання.
  • 10:50 - 10:53
    Він хотів знати,
    як визначили цей показник.
  • 10:54 - 10:55
    Вигідна "чорна скринька".
  • 10:55 - 11:00
    Компанію, яка відмовилась від цього
    алгоритму, викликали на судове засідання.
  • 11:00 - 11:06
    Некомерційна слідча компанія ProPublica
    перевірила той самий алгоритм
  • 11:06 - 11:08
    з публічними даними, які вони могли знайти,
  • 11:08 - 11:10
    і з'ясувала, що такі висновки
    були необ'єктивні,
  • 11:10 - 11:14
    а здатність передбачення була мізерна,
    мало відрізнялася від випадковості
  • 11:14 - 11:18
    і помилково маркувала чорношкірих
    обвинувачуваних, як майбутніх злочинців,
  • 11:18 - 11:22
    в двічі частіше, ніж білих
    обвинувачуваних.
  • 11:24 - 11:25
    Розглянемо такий випадок:
  • 11:26 - 11:30
    ця дівчина трохи запізно приїхала
    забирати свою сестру
  • 11:30 - 11:32
    зі школи в окрузі Бровард, Флорида,
  • 11:33 - 11:35
    і бігла по вулиці
    зі своїми друзями.
  • 11:35 - 11:39
    Вони помітили неприщіпнутий на замок
    дитячий велосипед і самокат на терасі
  • 11:39 - 11:41
    і здуру стрибнули на нього.
  • 11:41 - 11:44
    Коли вони втікали, вийшла жінка
    і сказала:
  • 11:44 - 11:46
    "Ей! Це велосипед моєї дитини!"
  • 11:46 - 11:49
    Вони кинули велосипед і втікли,
    але їх арештували.
  • 11:49 - 11:53
    Дівчина вчинила неправильно і нерозважливо,
    але ж їй було всього 18.
  • 11:53 - 11:55
    Вона скоїла декілька
    незначних правопорушень.
  • 11:56 - 12:01
    Тим часом цього чоловіка арештували за
    крадіжку в магазині Home Depot -
  • 12:01 - 12:04
    він вкрав речей на 85 доларів,
    такий же маленький злочин.
  • 12:05 - 12:09
    Але до цього його двічі засудили
    за збройні напади.
  • 12:10 - 12:13
    Однак алгоритм визначив, що вона
    небезпечніша за нього.
  • 12:15 - 12:19
    Через два роки ProPublica з'ясувала,
    що вона знову порушила закон.
  • 12:19 - 12:21
    І з такими даними їй було важко
    отримати роботу.
  • 12:21 - 12:23
    З іншого боку, той чоловік
    знову порушив закон
  • 12:23 - 12:27
    і тепер відбуває восьмирічний термін
    за останній злочин.
  • 12:28 - 12:31
    Нам треба перевірити ці "чорні скриньки"
  • 12:31 - 12:34
    і не наділяти їх такою
    неперевіреною силою.
  • 12:34 - 12:37
    (Оплески)
  • 12:38 - 12:42
    Перевірки - це дуже важливо,
    але вони не розв'язують всіх наших проблем.
  • 12:42 - 12:45
    Розглянемо потужний алгоритм
    стрічки новин у Фейсбуці -
  • 12:45 - 12:50
    той, що упорядковує все і вирішує,
    що вам показати
  • 12:50 - 12:52
    з усіх сторінок, на які ви підписані.
  • 12:53 - 12:55
    Розказати про ще одну "дитячу картину"?
  • 12:55 - 12:56
    (Сміх)
  • 12:56 - 12:59
    Сумний пост знайомого?
  • 12:59 - 13:01
    Важлива, але неприємна новина?
  • 13:01 - 13:03
    Немає правильної відповіді.
  • 13:03 - 13:05
    Фейсбук враховує активність на сайті:
  • 13:06 - 13:07
    лайки, репости, коментарі.
  • 13:08 - 13:11
    У серпні 2014
  • 13:11 - 13:14
    почалися протести у місті Ферґюсон,
    штат Міссуррі,
  • 13:14 - 13:18
    після того. як білий поліцейський вбив
    афро-американського підлітка
  • 13:18 - 13:20
    за незрозумілих обставин.
  • 13:20 - 13:22
    Новини про ці протести заполонили
  • 13:22 - 13:25
    мою невідфільтровану стрічку
    новин у Твіттері,
  • 13:25 - 13:27
    але їх не було на моєму Фейсбуці.
  • 13:27 - 13:29
    Справа у моїх друзях на Фейсбуці?
  • 13:29 - 13:31
    Алгоритм Фейсбука вибив мене з колії,
  • 13:31 - 13:34
    він складний, тому що Фейсбук підтримує
    бажання
  • 13:34 - 13:36
    знаходитися під контролем алгоритму,
  • 13:36 - 13:39
    і бачити, що мої друзі говорили про це.
  • 13:39 - 13:41
    Це саме те, що алгоритм не показав мені.
  • 13:41 - 13:44
    Я досліджувала цю проблему, і виявилось, що
    вона досить поширена.
  • 13:44 - 13:48
    Історія про Ферґюсон не подобалась
    алгоритму.
  • 13:48 - 13:49
    Її не "лайкали".
  • 13:49 - 13:51
    Хто вподобає такий запис?
  • 13:52 - 13:54
    Її навіть непросто прокоментувати.
  • 13:54 - 13:55
    Без вподобань і коментарів
  • 13:55 - 13:58
    алгоритм показував цей запис
    жменьці людей,
  • 13:58 - 14:00
    тому ми його не побачили.
  • 14:01 - 14:02
    Навпаки, того тижня
  • 14:02 - 14:04
    алгоритм Фейсбука виділяв те,
  • 14:05 - 14:07
    що називають Ice Bucket Challenge.
  • 14:07 - 14:11
    Суспільно значуща справа: обливаєш себе
    холодною водою заради благодійності.
  • 14:11 - 14:12
    Але це дуже подобалось алгоритму.
  • 14:13 - 14:16
    За нас це рішення прийняла машина.
  • 14:16 - 14:19
    Дуже важливе, але заплутане обговорення
  • 14:19 - 14:21
    могло бути придушене,
  • 14:21 - 14:24
    якби Фейсбук мав лише одну стрічку новин.
  • 14:24 - 14:28
    Зрештою, ці системи
    можуть помилятися
  • 14:28 - 14:31
    так, як цього не допустить
    людський ресурс.
  • 14:31 - 14:34
    Пам'ятаєте систему штучного
    інтелекту Watson,
  • 14:34 - 14:37
    що витирала підлогу, змагаючись з
    людьми на телегрі Jeopardy?
  • 14:37 - 14:39
    Вона була чудовим гравцем.
  • 14:39 - 14:42
    Але у фіналі Watson запитали:
  • 14:43 - 14:46
    "Його найбільший аеропорт назвали
    на честь героя Другої світової війни,
  • 14:46 - 14:48
    а другий за розміром - на честь
    битви Другої світової війни".
  • 14:48 - 14:49
    (Музика з фіналу Jeopardy)
  • 14:50 - 14:51
    Чикаго.
  • 14:51 - 14:52
    Дві людини відповіли правильно.
  • 14:53 - 14:57
    Натомість Watson відповів
    "Торонто" -
  • 14:57 - 14:59
    і це в категорії міст США!
  • 15:00 - 15:02
    Вражаючі системи також робили помилки,
  • 15:03 - 15:06
    яких людина ніколи не допустила б,
    яких не зробив би навіть другокласник.
  • 15:07 - 15:10
    Штучний інтелект може провалитися так,
  • 15:10 - 15:13
    як люди зазвичай не помиляються,
  • 15:13 - 15:16
    так, як ми не будемо сподіватися
    і не будемо до цього готові.
  • 15:16 - 15:20
    Кепсько не отримати роботу,
    до якої підходить твоя кваліфікація,
  • 15:20 - 15:23
    але ще гірше не отримати її через
    переповнення стека
  • 15:23 - 15:25
    в якійсь програмі.
  • 15:25 - 15:27
    (Сміх)
  • 15:27 - 15:29
    У травні 2010
  • 15:29 - 15:33
    різкий обвал на Волл-Стріт, спричинений
    циклом зворотнього зв'язку
  • 15:33 - 15:36
    в "торговому" алгоритмі,
  • 15:36 - 15:41
    знищив трильйон доларів
    за 36 хвилин.
  • 15:42 - 15:44
    Я навіть не хочу думати,
    що "помилка" означає
  • 15:44 - 15:48
    в контексті атомної системи
    летального озброєння.
  • 15:50 - 15:54
    Так, люди завжди досить упереджені.
  • 15:54 - 15:56
    Ті, хто ухвалює рішення і цензори
  • 15:56 - 15:59
    в судах, у новинах, на війні...
  • 15:59 - 16:02
    вони помиляються;
    але у цьому й річ.
  • 16:02 - 16:06
    Ми не можемо уникнути цих
    заплутаних питань.
  • 16:07 - 16:10
    Ми не можемо перекладати відповідальність
    на машини.
  • 16:11 - 16:15
    (Оплески)
  • 16:17 - 16:22
    Штучний інтелект не дає нам
    картку "звільнення від моральних норм".
  • 16:23 - 16:26
    Фахівець з обробки даних Фред Бененсон
    називає це математичною чисткою.
  • 16:26 - 16:28
    Нам треба щось протилежне.
  • 16:28 - 16:33
    Нам треба удосконалювати підозри,
    вивчення і дослідження алгоритмів.
  • 16:33 - 16:37
    Треба впевнитись, що у нас є
    алгоритмічна звітність,
  • 16:37 - 16:39
    перевірка і повноцінна прозорість.
  • 16:39 - 16:43
    Треба прийняти те, що залучення
    комп'ютерів до безладних
  • 16:43 - 16:46
    людських справ, заснованих на цінностях,
  • 16:46 - 16:48
    не гарантують об'єктивності;
  • 16:48 - 16:52
    алгоритмам, навпаки, передалася
    заплутаність людських справ.
  • 16:52 - 16:56
    Так, нам можна і треба використовувати
    комп'ютери,
  • 16:56 - 16:58
    щоб ухвалювати кращі рішення.
  • 16:58 - 17:03
    Але ми маємо підкорятися моральній
    відповідальності за вироки суду
  • 17:03 - 17:06
    і використовувати алгоритми
    максимум як структуру,
  • 17:06 - 17:11
    а не як засіб відмовитися і перекласти
    відповідальність
  • 17:11 - 17:13
    на когось ще, як людина на людину.
  • 17:14 - 17:16
    Штучний інтелект тут.
  • 17:16 - 17:20
    І це означає, що ми мусимо триматись
    ще сильніше
  • 17:20 - 17:22
    за людські цінності і людську мораль.
  • 17:22 - 17:23
    Дякую.
  • 17:23 - 17:28
    (Оплески)
Title:
Штучний інтелект підсилює значення моральних норм
Speaker:
Зайнеп Туфекці
Description:

Штучний інтелект уже поряд, і ми використовуємо його для ухвалення суб'єктивних рішень. Але нам стає все важче розуміти і контролювати ШІ через його складний шлях зростання і розвитку. Техно-соціологиня Зайнеп Туфекці пояснює, як машини з інтелектом можуть робити помилки, не властиві людям, що їх ми навіть не сподіватимемося і до яких не будемо готові. Вона каже, що "не можна перекладати власну відповідальність на машини". "Ми мусимо ще сильніше триматися за людські цінності і мораль".

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Ukrainian subtitles

Revisions