Штучний інтелект підсилює значення моральних норм
-
0:01 - 0:05Отже, я почала працювати
програмісткою, -
0:05 - 0:07коли навчалась на першому курсі коледжу
-
0:07 - 0:08і була, по суті, ще тінейджеркою.
-
0:09 - 0:11Після того, як я почала працювати,
-
0:11 - 0:12пишучи програмне забезпечення,
-
0:13 - 0:16менеджер, який теж там працював,
підійшов до мене -
0:16 - 0:18і прошепотів:
-
0:18 - 0:21"Чи може він сказати, що я брешу?"
-
0:22 - 0:24У кабінеті крім нас нікого не було.
-
0:25 - 0:29"Хто може сказати, що ти брешеш?
І чому ми говоримо пошепки?" -
0:30 - 0:33Менеджер показав пальцем
на комп'ютер. -
0:33 - 0:36"Чи може він сказати, що я брешу?"
-
0:38 - 0:42Річ у тім, що в мого колеги був
роман із секретаркою. -
0:42 - 0:43(Сміх)
-
0:43 - 0:45А я все ще була тінейджеркою.
-
0:45 - 0:47Тому голосно прошепотіла:
-
0:47 - 0:51"Так, комп'ютер може сказати,
що ти брешеш". -
0:51 - 0:53(Сміх)
-
0:53 - 0:56Ну, я сміялась, але насправді
сміялась над собою. -
0:56 - 0:59Сьогодні існують комп'ютерні системи,
-
0:59 - 1:03які можуть розпізнати емоції
і навіть брехню, -
1:03 - 1:05опрацювавши обличчя людини.
-
1:05 - 1:09Рекламодавці і навіть влада
в цьому дуже зацікавлені. -
1:10 - 1:12Я стала програмісткою,
-
1:12 - 1:15тому, що була однією з тих дітей,
які шаленіли від точних наук. -
1:16 - 1:19Але десь у процесі я дізналась
про ядерну зброю, -
1:19 - 1:22і мене справді схвилювало
питання наукової етики. -
1:22 - 1:23Я була стривожена.
-
1:23 - 1:26Однак через сімейні обставини
-
1:26 - 1:29мені також треба було
почати працювати якнайшвидше. -
1:29 - 1:33Тому я подумала: "Ей, обирай
технічну сферу, -
1:33 - 1:34де можна легко знайти роботу
-
1:34 - 1:38і де не треба мати справу з
болісними етичними проблемами". -
1:39 - 1:41Тому я обрала комп'ютери.
-
1:41 - 1:42(Сміх)
-
1:42 - 1:45Ха-ха-ха!
Всі наді мною сміялися. -
1:45 - 1:48Сьогодні програмісти будують платформи,
-
1:48 - 1:52які регулюють те, що мільйони людей
щодня бачать. -
1:53 - 1:57Вони удосконалюють автомобілі,
які можуть вирішити, кого переїхати. -
1:58 - 2:01Вони навіть конструюють машини і зброю,
-
2:01 - 2:03які можуть вбивати людей на війні.
-
2:03 - 2:06Це все одно проблема моралі.
-
2:07 - 2:09Це машинний інтелект.
-
2:10 - 2:13Сьогодні ми використовуємо комп'ютеризацію,
щоб ухвалювати будь-які рішення, -
2:13 - 2:15а також для нових рішень.
-
2:15 - 2:20Ми ставимо запитання машинам,
які не мають чітких правильних відповідей, -
2:20 - 2:22суб'єктивних,
-
2:22 - 2:24відкритих і заснованих
на ідеях цінностей. -
2:24 - 2:26Ми ставимо запитання на кшталт:
-
2:26 - 2:27"Кого компанії варто найняти?"
-
2:28 - 2:31"Новини якого друга потрібно показати?"
-
2:31 - 2:33"Який злочинець може
знову порушити закон?" -
2:34 - 2:37"Яку новину або фільм
слід рекомендувати людям?" -
2:37 - 2:40Так, ми постійно
використовували комп'ютери, -
2:40 - 2:42але це інше.
-
2:42 - 2:44Це історичний поворот,
-
2:44 - 2:49адже не можна передати комп'ютерам
відповідальність за такі суб'єктивні рішення, -
2:49 - 2:54так як передаємо за управління літаками,
будування мостів, -
2:54 - 2:56польоти на Місяць.
-
2:56 - 3:00Хіба літаки безпечніші?
Мости не хиталися і не падали? -
3:00 - 3:04У нас є загальноприйняті,
цілком зрозумілі критерії порівняння, -
3:04 - 3:06і є закони природи, які нами керують.
-
3:07 - 3:10У нас немає таких підстав та критеріїв,
-
3:10 - 3:14щоб ухвалювати рішення стосовно
брудних людських справ. -
3:14 - 3:18Програмне забезпечення стає потужнішим,
щоб зробити деякі речі складнішими, -
3:18 - 3:22але водночас стає прозорішим
і заплутанішим. -
3:23 - 3:25За останніх десять років
-
3:25 - 3:27заплутані алгоритми досягли
великого успіху. -
3:27 - 3:29Вони можуть розпізнавати обличчя людей.
-
3:30 - 3:32Можуть розшифрувати почерк.
-
3:32 - 3:35Можуть знайти кредитних шахраїв,
-
3:35 - 3:36блокувати спам,
-
3:36 - 3:38перекладати з мови на мову.
-
3:38 - 3:40Вони можуть виявити пухлини на рентгені.
-
3:40 - 3:43Обіграти людей в шахи чи "Ґо".
-
3:43 - 3:48Велика частина цього прогресу
прийшла з методу "машинного навчання". -
3:48 - 3:51Машинне навчання відрізняється від
традиційного програмування, -
3:51 - 3:55коли ви даєте комп'ютеру детальні,
точні, досконалі інструкції. -
3:55 - 4:00Це більше схоже на те, коли ви берете
систему і наповнюєте її інформацією, -
4:00 - 4:01зокрема неструктурованою,
-
4:01 - 4:04схожою на ту, що ми генеруємо
у цифровому житті. -
4:04 - 4:06І система вчиться на обробці
цієї інформації. -
4:07 - 4:08Також важливо,
-
4:08 - 4:13що системи не виконують завдання, пов'язані
із необхідністю знайти єдину відповідь. -
4:13 - 4:16Вони не дають просту відповідь,
виходячи з теорії імовірностей. -
4:16 - 4:19"Ось щось схоже на те,
що ви шукаєте". -
4:20 - 4:23Тепер позитивний аспект:
цей метод справді потужний. -
4:23 - 4:25Директор Google's AI systems називає його
-
4:25 - 4:27"ірраціональною ефективністю даних".
-
4:28 - 4:29Мінусом є те,
-
4:30 - 4:33що ми насправді не розуміємо,
про що дізнається система. -
4:33 - 4:34Насправді, в цьому сила системи.
-
4:35 - 4:39Це не схоже на ситуацію, коли
ми даємо комп'ютеру інструкції, -
4:39 - 4:43а, скоріше, на формування
маленької машинної істоти, -
4:43 - 4:46яку ми насправді не розуміємо і
не контролюємо. -
4:46 - 4:48Тому це наша проблема.
-
4:48 - 4:53Проблемно, коли система штучного
інтелекту засвоює інформацію неправильно. -
4:53 - 4:56Також проблемно, коли вона засвоює
інформацію правильно, -
4:56 - 5:00тому що ми не знаємо, хто є хто,
коли це суб'єктивна проблема. -
5:00 - 5:02Ми не знаємо, про що ця річ думає.
-
5:03 - 5:07Розглянемо алгоритм найму на роботу -
-
5:08 - 5:12система, яку застосовують для найму людей,
використовує системи машинного навчання. -
5:13 - 5:17Така система підготовлена
на даних попередніх працівників -
5:17 - 5:19і навчена шукати і наймати
-
5:19 - 5:22людей, подібних до найкращих
працівників компанії. -
5:23 - 5:24Звучить добре.
-
5:24 - 5:26Одного разу я відвідала конференцію,
-
5:26 - 5:29яку проводили керівники відділів кадрів
та члени правління, -
5:29 - 5:30люди на високих посадах,
-
5:30 - 5:32які використовують такі системи.
-
5:32 - 5:34Вони були в захопленні.
-
5:34 - 5:38Вони думали, що це зробить прийом на
роботу більш об'єктивним, менш упередженим, -
5:38 - 5:41і дасть жінкам і представникам меншин
більше шансів, -
5:41 - 5:44ніж упереджені менеджери.
-
5:44 - 5:46Найм людей на роботу -
справа упереджена. -
5:47 - 5:48Я знаю.
-
5:48 - 5:51На одній із перших компаній,
де я програмувала, -
5:51 - 5:55моя безпосередня керівничка
деколи підходила до мене -
5:55 - 5:59рано-вранці або пізно ввечері,
-
5:59 - 6:02і казала: "Зейнеп, ідемо обідати!"
-
6:03 - 6:05Я була здивована дивним вибором часу.
-
6:05 - 6:0716:00. Обід?
-
6:07 - 6:10Ці сумнівні обіди мене ледь не розорили.
Але я завжди йшла. -
6:11 - 6:13Пізніше я усвідомила, що відбувалося.
-
6:13 - 6:17Мої безпосередні начальники не могли
зізнатися вищому керівництву, -
6:17 - 6:20що найняли для серйозної роботи
дівчинку-підлітка, -
6:20 - 6:24яка на роботу ходить у джинсах і кедах.
-
6:25 - 6:27Я добре працювала,
але виглядала неправильно -
6:27 - 6:29і була неправильного віку і статі.
-
6:29 - 6:32Тому найм без врахування статі і раси
-
6:32 - 6:34безсумнівно мені підходив.
-
6:35 - 6:38Але з такими системами цей процес
ще заплутаніший, і ось чому: -
6:39 - 6:45останнім часом комп'ютерні системи можуть
зробити будь-які висновки про вас, -
6:45 - 6:47враховуючи цифрові дрібниці,
-
6:47 - 6:49навіть якщо ви про ці висновки
не підозрюєте. -
6:50 - 6:52Вони можуть робити висновки про
сексуальну орієнтацію, -
6:53 - 6:54персональні якості,
-
6:55 - 6:56політичні погляди.
-
6:57 - 7:01Вони можуть передбачати
з високим рівнем точності. -
7:01 - 7:04Пам'ятайте - речі, про які
ви навіть не підозрюєте. -
7:04 - 7:06Це припущення.
-
7:06 - 7:09У мене є подруга, яка удосконалює
такі системи, -
7:09 - 7:13щоб передбачити ймовірність
клінічної чи післяпологової депресії, -
7:13 - 7:14аналізуючи соціальні мережі.
-
7:15 - 7:16Результати вражаючі.
-
7:16 - 7:20ЇЇ система може передбачити
ймовірність депресії -
7:20 - 7:24за місяці перед проявом симптомів -
-
7:24 - 7:25за місяці.
-
7:25 - 7:27Передбачення без симптомів.
-
7:27 - 7:32Вона сподівається, що систему застосують
для втручання на ранній стадії. Чудово! -
7:33 - 7:35Розгляньте це в контексті найму на роботу.
-
7:36 - 7:39На конференції керівників кадрових служб
-
7:39 - 7:44я спілкувалася з топ-менеджеркою
дуже великої компанії -
7:44 - 7:48і сказала їй: "А якщо без вашого відома
-
7:48 - 7:55система видаляє людей з високою
ймовірністю появи депресії? -
7:56 - 7:59Наразі вони не пригнічені, але можливо
стануть такими в майбутньому. -
8:00 - 8:03Що як вона видаляє жінок, які,
можливо, завагітніють -
8:03 - 8:06за кілька наступних років,
але не вагітні зараз? -
8:07 - 8:12Що як вона наймає на роботу агресивних
людей через корпоративну культуру?" -
8:13 - 8:16Ви не можете цього сказати, дивлячись на
гендерний баланс. -
8:16 - 8:17Їх можна врівноважити.
-
8:17 - 8:21І так як це машинне навчання,
а не традиційне програмування, -
8:21 - 8:26немає змінних ярликів на кшталт:
"високий ризик депресії", -
8:26 - 8:28"високий ризик вагітності"
-
8:28 - 8:30чи "шкала агресивності".
-
8:30 - 8:34Ви не тільки не знаєте, що саме система
візьме до уваги, -
8:34 - 8:36ви навіть не знаєте,
де це починати шукати. -
8:36 - 8:37Це чорна скринька.
-
8:37 - 8:40Система має силу передбачення,
але ви її не розумієте. -
8:40 - 8:43Я запитала:
"Які запобіжні заходи у вас є, -
8:43 - 8:47щоб упевнитись, що ця чорна скринька
не робить нічого підозрілого?" -
8:49 - 8:53Вона подивилась на мене так, ніби
я наступила щеняті на хвіст. -
8:53 - 8:54(Сміх)
-
8:54 - 8:56Пильно подивилася на мене і сказала:
-
8:57 - 9:01"Я більше не хочу нічого про це чути".
-
9:01 - 9:03А тоді повернулася і пішла геть.
-
9:04 - 9:06Зауважте - вона була вихована.
-
9:06 - 9:12Було зрозуміло: те, чого я не знаю -
не моя проблема. Іди геть; вбивчий погляд. -
9:12 - 9:13(Сміх)
-
9:14 - 9:18Деколи такі системи можуть бути
менш упереджені, -
9:18 - 9:20ніж керівники відділів кадрів.
-
9:20 - 9:22І це може бути матеріально виправдано.
-
9:23 - 9:24Але також це може призвести
-
9:24 - 9:29до постійного і приховуваного виштовхування
з ринку праці -
9:29 - 9:31людей з високим ризиком розвитку
депресії. -
9:32 - 9:34Це таке суспільство,
яке ми хочемо будувати, -
9:34 - 9:37навіть не знаючи, що ми це зробили,
-
9:37 - 9:41тому що ми доручили ухвалення рішень
машинам, яких повністю не розуміємо. -
9:41 - 9:43Є й інша проблема:
-
9:43 - 9:48часто ці програми базуються на
інформації, пов'язаній з нашими діями, -
9:48 - 9:50на людських враженнях.
-
9:50 - 9:54Вони можуть відображати
наші упередження, -
9:54 - 9:58можуть їх засвоїти
-
9:58 - 9:59і підсилити
-
9:59 - 10:00і повернути їх проти нас,
-
10:00 - 10:02тоді як ми кажемо:
-
10:02 - 10:05"Ми робимо об'єктивний,
нейтральний розрахунок". -
10:06 - 10:09Дослідники виявили, що в Google
-
10:10 - 10:15жінкам рідше пропонують оголошення
про високооплачувану роботу. -
10:16 - 10:19І під час пошуку афро-американських імен
-
10:19 - 10:24частіше з'являються рекламні оголошення
про кримінальні історії, -
10:24 - 10:25які навіть не стосуються пошуку.
-
10:27 - 10:30Такі приховані упередження
і алгоритми "чорної скриньки", -
10:30 - 10:34що їх дослідники деколи виявляють,
а деколи ми про них навіть не знаємо, -
10:34 - 10:37можуть мати життєвоважливі наслідки.
-
10:38 - 10:42У Вісконсині підсудний був засуджений
до шести років у в'язниці -
10:42 - 10:43за непокору поліції.
-
10:45 - 10:46Можливо, ви цього не знаєте,
-
10:46 - 10:50але алгоритми все частіше використовують
для визначення міри покарання. -
10:50 - 10:53Він хотів знати,
як визначили цей показник. -
10:54 - 10:55Вигідна "чорна скринька".
-
10:55 - 11:00Компанію, яка відмовилась від цього
алгоритму, викликали на судове засідання. -
11:00 - 11:06Некомерційна слідча компанія ProPublica
перевірила той самий алгоритм -
11:06 - 11:08з публічними даними, які вони могли знайти,
-
11:08 - 11:10і з'ясувала, що такі висновки
були необ'єктивні, -
11:10 - 11:14а здатність передбачення була мізерна,
мало відрізнялася від випадковості -
11:14 - 11:18і помилково маркувала чорношкірих
обвинувачуваних, як майбутніх злочинців, -
11:18 - 11:22в двічі частіше, ніж білих
обвинувачуваних. -
11:24 - 11:25Розглянемо такий випадок:
-
11:26 - 11:30ця дівчина трохи запізно приїхала
забирати свою сестру -
11:30 - 11:32зі школи в окрузі Бровард, Флорида,
-
11:33 - 11:35і бігла по вулиці
зі своїми друзями. -
11:35 - 11:39Вони помітили неприщіпнутий на замок
дитячий велосипед і самокат на терасі -
11:39 - 11:41і здуру стрибнули на нього.
-
11:41 - 11:44Коли вони втікали, вийшла жінка
і сказала: -
11:44 - 11:46"Ей! Це велосипед моєї дитини!"
-
11:46 - 11:49Вони кинули велосипед і втікли,
але їх арештували. -
11:49 - 11:53Дівчина вчинила неправильно і нерозважливо,
але ж їй було всього 18. -
11:53 - 11:55Вона скоїла декілька
незначних правопорушень. -
11:56 - 12:01Тим часом цього чоловіка арештували за
крадіжку в магазині Home Depot - -
12:01 - 12:04він вкрав речей на 85 доларів,
такий же маленький злочин. -
12:05 - 12:09Але до цього його двічі засудили
за збройні напади. -
12:10 - 12:13Однак алгоритм визначив, що вона
небезпечніша за нього. -
12:15 - 12:19Через два роки ProPublica з'ясувала,
що вона знову порушила закон. -
12:19 - 12:21І з такими даними їй було важко
отримати роботу. -
12:21 - 12:23З іншого боку, той чоловік
знову порушив закон -
12:23 - 12:27і тепер відбуває восьмирічний термін
за останній злочин. -
12:28 - 12:31Нам треба перевірити ці "чорні скриньки"
-
12:31 - 12:34і не наділяти їх такою
неперевіреною силою. -
12:34 - 12:37(Оплески)
-
12:38 - 12:42Перевірки - це дуже важливо,
але вони не розв'язують всіх наших проблем. -
12:42 - 12:45Розглянемо потужний алгоритм
стрічки новин у Фейсбуці - -
12:45 - 12:50той, що упорядковує все і вирішує,
що вам показати -
12:50 - 12:52з усіх сторінок, на які ви підписані.
-
12:53 - 12:55Розказати про ще одну "дитячу картину"?
-
12:55 - 12:56(Сміх)
-
12:56 - 12:59Сумний пост знайомого?
-
12:59 - 13:01Важлива, але неприємна новина?
-
13:01 - 13:03Немає правильної відповіді.
-
13:03 - 13:05Фейсбук враховує активність на сайті:
-
13:06 - 13:07лайки, репости, коментарі.
-
13:08 - 13:11У серпні 2014
-
13:11 - 13:14почалися протести у місті Ферґюсон,
штат Міссуррі, -
13:14 - 13:18після того. як білий поліцейський вбив
афро-американського підлітка -
13:18 - 13:20за незрозумілих обставин.
-
13:20 - 13:22Новини про ці протести заполонили
-
13:22 - 13:25мою невідфільтровану стрічку
новин у Твіттері, -
13:25 - 13:27але їх не було на моєму Фейсбуці.
-
13:27 - 13:29Справа у моїх друзях на Фейсбуці?
-
13:29 - 13:31Алгоритм Фейсбука вибив мене з колії,
-
13:31 - 13:34він складний, тому що Фейсбук підтримує
бажання -
13:34 - 13:36знаходитися під контролем алгоритму,
-
13:36 - 13:39і бачити, що мої друзі говорили про це.
-
13:39 - 13:41Це саме те, що алгоритм не показав мені.
-
13:41 - 13:44Я досліджувала цю проблему, і виявилось, що
вона досить поширена. -
13:44 - 13:48Історія про Ферґюсон не подобалась
алгоритму. -
13:48 - 13:49Її не "лайкали".
-
13:49 - 13:51Хто вподобає такий запис?
-
13:52 - 13:54Її навіть непросто прокоментувати.
-
13:54 - 13:55Без вподобань і коментарів
-
13:55 - 13:58алгоритм показував цей запис
жменьці людей, -
13:58 - 14:00тому ми його не побачили.
-
14:01 - 14:02Навпаки, того тижня
-
14:02 - 14:04алгоритм Фейсбука виділяв те,
-
14:05 - 14:07що називають Ice Bucket Challenge.
-
14:07 - 14:11Суспільно значуща справа: обливаєш себе
холодною водою заради благодійності. -
14:11 - 14:12Але це дуже подобалось алгоритму.
-
14:13 - 14:16За нас це рішення прийняла машина.
-
14:16 - 14:19Дуже важливе, але заплутане обговорення
-
14:19 - 14:21могло бути придушене,
-
14:21 - 14:24якби Фейсбук мав лише одну стрічку новин.
-
14:24 - 14:28Зрештою, ці системи
можуть помилятися -
14:28 - 14:31так, як цього не допустить
людський ресурс. -
14:31 - 14:34Пам'ятаєте систему штучного
інтелекту Watson, -
14:34 - 14:37що витирала підлогу, змагаючись з
людьми на телегрі Jeopardy? -
14:37 - 14:39Вона була чудовим гравцем.
-
14:39 - 14:42Але у фіналі Watson запитали:
-
14:43 - 14:46"Його найбільший аеропорт назвали
на честь героя Другої світової війни, -
14:46 - 14:48а другий за розміром - на честь
битви Другої світової війни". -
14:48 - 14:49(Музика з фіналу Jeopardy)
-
14:50 - 14:51Чикаго.
-
14:51 - 14:52Дві людини відповіли правильно.
-
14:53 - 14:57Натомість Watson відповів
"Торонто" - -
14:57 - 14:59і це в категорії міст США!
-
15:00 - 15:02Вражаючі системи також робили помилки,
-
15:03 - 15:06яких людина ніколи не допустила б,
яких не зробив би навіть другокласник. -
15:07 - 15:10Штучний інтелект може провалитися так,
-
15:10 - 15:13як люди зазвичай не помиляються,
-
15:13 - 15:16так, як ми не будемо сподіватися
і не будемо до цього готові. -
15:16 - 15:20Кепсько не отримати роботу,
до якої підходить твоя кваліфікація, -
15:20 - 15:23але ще гірше не отримати її через
переповнення стека -
15:23 - 15:25в якійсь програмі.
-
15:25 - 15:27(Сміх)
-
15:27 - 15:29У травні 2010
-
15:29 - 15:33різкий обвал на Волл-Стріт, спричинений
циклом зворотнього зв'язку -
15:33 - 15:36в "торговому" алгоритмі,
-
15:36 - 15:41знищив трильйон доларів
за 36 хвилин. -
15:42 - 15:44Я навіть не хочу думати,
що "помилка" означає -
15:44 - 15:48в контексті атомної системи
летального озброєння. -
15:50 - 15:54Так, люди завжди досить упереджені.
-
15:54 - 15:56Ті, хто ухвалює рішення і цензори
-
15:56 - 15:59в судах, у новинах, на війні...
-
15:59 - 16:02вони помиляються;
але у цьому й річ. -
16:02 - 16:06Ми не можемо уникнути цих
заплутаних питань. -
16:07 - 16:10Ми не можемо перекладати відповідальність
на машини. -
16:11 - 16:15(Оплески)
-
16:17 - 16:22Штучний інтелект не дає нам
картку "звільнення від моральних норм". -
16:23 - 16:26Фахівець з обробки даних Фред Бененсон
називає це математичною чисткою. -
16:26 - 16:28Нам треба щось протилежне.
-
16:28 - 16:33Нам треба удосконалювати підозри,
вивчення і дослідження алгоритмів. -
16:33 - 16:37Треба впевнитись, що у нас є
алгоритмічна звітність, -
16:37 - 16:39перевірка і повноцінна прозорість.
-
16:39 - 16:43Треба прийняти те, що залучення
комп'ютерів до безладних -
16:43 - 16:46людських справ, заснованих на цінностях,
-
16:46 - 16:48не гарантують об'єктивності;
-
16:48 - 16:52алгоритмам, навпаки, передалася
заплутаність людських справ. -
16:52 - 16:56Так, нам можна і треба використовувати
комп'ютери, -
16:56 - 16:58щоб ухвалювати кращі рішення.
-
16:58 - 17:03Але ми маємо підкорятися моральній
відповідальності за вироки суду -
17:03 - 17:06і використовувати алгоритми
максимум як структуру, -
17:06 - 17:11а не як засіб відмовитися і перекласти
відповідальність -
17:11 - 17:13на когось ще, як людина на людину.
-
17:14 - 17:16Штучний інтелект тут.
-
17:16 - 17:20І це означає, що ми мусимо триматись
ще сильніше -
17:20 - 17:22за людські цінності і людську мораль.
-
17:22 - 17:23Дякую.
-
17:23 - 17:28(Оплески)
- Title:
- Штучний інтелект підсилює значення моральних норм
- Speaker:
- Зайнеп Туфекці
- Description:
-
Штучний інтелект уже поряд, і ми використовуємо його для ухвалення суб'єктивних рішень. Але нам стає все важче розуміти і контролювати ШІ через його складний шлях зростання і розвитку. Техно-соціологиня Зайнеп Туфекці пояснює, як машини з інтелектом можуть робити помилки, не властиві людям, що їх ми навіть не сподіватимемося і до яких не будемо готові. Вона каже, що "не можна перекладати власну відповідальність на машини". "Ми мусимо ще сильніше триматися за людські цінності і мораль".
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Hanna Leliv approved Ukrainian subtitles for Machine intelligence makes human morals more important | ||
Hanna Leliv edited Ukrainian subtitles for Machine intelligence makes human morals more important | ||
Hanna Leliv accepted Ukrainian subtitles for Machine intelligence makes human morals more important | ||
Hanna Leliv edited Ukrainian subtitles for Machine intelligence makes human morals more important | ||
Наталія Левчук edited Ukrainian subtitles for Machine intelligence makes human morals more important | ||
Наталія Левчук edited Ukrainian subtitles for Machine intelligence makes human morals more important | ||
Наталія Левчук edited Ukrainian subtitles for Machine intelligence makes human morals more important | ||
Наталія Левчук edited Ukrainian subtitles for Machine intelligence makes human morals more important |