0:00:00.739,0:00:04.861 Отже, я почала працювати[br]програмісткою, 0:00:04.885,0:00:06.841 коли навчалась на першому курсі коледжу 0:00:06.865,0:00:08.372 і була, по суті, ще тінейджеркою. 0:00:08.889,0:00:10.621 Після того, як я почала працювати, 0:00:10.645,0:00:12.255 пишучи програмне забезпечення, 0:00:12.799,0:00:16.434 менеджер, який теж там працював,[br]підійшов до мене 0:00:16.458,0:00:17.726 і прошепотів: 0:00:18.229,0:00:21.090 "Чи може він сказати, що я брешу?" 0:00:21.806,0:00:23.883 У кабінеті крім нас нікого не було. 0:00:25.032,0:00:29.421 "Хто може сказати, що ти брешеш?[br]І чому ми говоримо пошепки?" 0:00:30.266,0:00:33.373 Менеджер показав пальцем [br]на комп'ютер. 0:00:33.397,0:00:36.493 "Чи може він сказати, що я брешу?" 0:00:37.613,0:00:41.975 Річ у тім, що в мого колеги був [br]роман із секретаркою. 0:00:41.999,0:00:43.111 (Сміх) 0:00:43.135,0:00:44.901 А я все ще була тінейджеркою. 0:00:45.447,0:00:47.466 Тому голосно прошепотіла: 0:00:47.490,0:00:51.114 "Так, комп'ютер може сказати,[br]що ти брешеш". 0:00:51.138,0:00:52.944 (Сміх) 0:00:52.968,0:00:55.891 Ну, я сміялась, але насправді[br]сміялась над собою. 0:00:55.915,0:00:59.183 Сьогодні існують комп'ютерні системи, 0:00:59.207,0:01:02.755 які можуть розпізнати емоції[br]і навіть брехню, 0:01:02.779,0:01:04.823 опрацювавши обличчя людини. 0:01:05.248,0:01:09.401 Рекламодавці і навіть влада[br]в цьому дуже зацікавлені. 0:01:10.319,0:01:12.181 Я стала програмісткою, 0:01:12.205,0:01:15.318 тому, що була однією з тих дітей,[br]які шаленіли від точних наук. 0:01:15.942,0:01:19.050 Але десь у процесі я дізналась[br]про ядерну зброю, 0:01:19.074,0:01:22.026 і мене справді схвилювало [br]питання наукової етики. 0:01:22.050,0:01:23.254 Я була стривожена. 0:01:23.278,0:01:25.919 Однак через сімейні обставини 0:01:25.943,0:01:29.241 мені також треба було [br]почати працювати якнайшвидше. 0:01:29.265,0:01:32.564 Тому я подумала: "Ей, обирай[br]технічну сферу, 0:01:32.588,0:01:34.384 де можна легко знайти роботу 0:01:34.408,0:01:38.426 і де не треба мати справу з [br]болісними етичними проблемами". 0:01:39.022,0:01:40.551 Тому я обрала комп'ютери. 0:01:40.575,0:01:41.679 (Сміх) 0:01:41.703,0:01:45.113 Ха-ха-ха![br]Всі наді мною сміялися. 0:01:45.137,0:01:47.891 Сьогодні програмісти будують платформи, 0:01:47.915,0:01:52.124 які регулюють те, що мільйони людей[br]щодня бачать. 0:01:53.052,0:01:56.874 Вони удосконалюють автомобілі,[br]які можуть вирішити, кого переїхати. 0:01:57.707,0:02:00.920 Вони навіть конструюють машини і зброю, 0:02:00.944,0:02:03.229 які можуть вбивати людей на війні. 0:02:03.253,0:02:06.024 Це все одно проблема моралі. 0:02:07.183,0:02:09.241 Це машинний інтелект. 0:02:09.823,0:02:13.297 Сьогодні ми використовуємо комп'ютеризацію,[br]щоб ухвалювати будь-які рішення, 0:02:13.321,0:02:15.207 а також для нових рішень. 0:02:15.231,0:02:20.403 Ми ставимо запитання машинам,[br]які не мають чітких правильних відповідей, 0:02:20.427,0:02:21.629 суб'єктивних, 0:02:21.653,0:02:23.978 відкритих і заснованих[br]на ідеях цінностей. 0:02:24.002,0:02:25.760 Ми ставимо запитання на кшталт: 0:02:25.784,0:02:27.434 "Кого компанії варто найняти?" 0:02:28.096,0:02:30.855 "Новини якого друга потрібно показати?" 0:02:30.879,0:02:33.145 "Який злочинець може[br]знову порушити закон?" 0:02:33.514,0:02:36.568 "Яку новину або фільм[br]слід рекомендувати людям?" 0:02:36.592,0:02:39.964 Так, ми постійно [br]використовували комп'ютери, 0:02:39.988,0:02:41.505 але це інше. 0:02:41.529,0:02:43.596 Це історичний поворот, 0:02:43.620,0:02:48.957 адже не можна передати комп'ютерам[br]відповідальність за такі суб'єктивні рішення, 0:02:48.981,0:02:54.401 так як передаємо за управління літаками,[br]будування мостів, 0:02:54.425,0:02:55.684 польоти на Місяць. 0:02:56.449,0:02:59.708 Хіба літаки безпечніші?[br]Мости не хиталися і не падали? 0:02:59.732,0:03:04.230 У нас є загальноприйняті, [br]цілком зрозумілі критерії порівняння, 0:03:04.254,0:03:06.493 і є закони природи, які нами керують. 0:03:06.517,0:03:09.911 У нас немає таких підстав та критеріїв, 0:03:09.935,0:03:13.898 щоб ухвалювати рішення стосовно[br]брудних людських справ. 0:03:13.922,0:03:18.159 Програмне забезпечення стає потужнішим,[br]щоб зробити деякі речі складнішими, 0:03:18.183,0:03:21.956 але водночас стає прозорішим [br]і заплутанішим. 0:03:22.542,0:03:24.582 За останніх десять років 0:03:24.606,0:03:27.335 заплутані алгоритми досягли[br]великого успіху. 0:03:27.359,0:03:29.349 Вони можуть розпізнавати обличчя людей. 0:03:29.985,0:03:32.040 Можуть розшифрувати почерк. 0:03:32.436,0:03:34.502 Можуть знайти кредитних шахраїв, 0:03:34.526,0:03:35.715 блокувати спам, 0:03:35.739,0:03:37.776 перекладати з мови на мову. 0:03:37.800,0:03:40.374 Вони можуть виявити пухлини на рентгені. 0:03:40.398,0:03:42.603 Обіграти людей в шахи чи "Ґо". 0:03:43.264,0:03:47.768 Велика частина цього прогресу[br]прийшла з методу "машинного навчання". 0:03:48.175,0:03:51.362 Машинне навчання відрізняється від [br]традиційного програмування, 0:03:51.386,0:03:54.971 коли ви даєте комп'ютеру детальні,[br]точні, досконалі інструкції. 0:03:55.378,0:03:59.560 Це більше схоже на те, коли ви берете[br]систему і наповнюєте її інформацією, 0:03:59.584,0:04:01.240 зокрема неструктурованою, 0:04:01.264,0:04:03.542 схожою на ту, що ми генеруємо[br]у цифровому житті. 0:04:03.566,0:04:06.296 І система вчиться на обробці [br]цієї інформації. 0:04:06.669,0:04:08.195 Також важливо, 0:04:08.219,0:04:12.599 що системи не виконують завдання, пов'язані[br]із необхідністю знайти єдину відповідь. 0:04:12.623,0:04:15.582 Вони не дають просту відповідь,[br]виходячи з теорії імовірностей. 0:04:15.606,0:04:19.089 "Ось щось схоже на те,[br]що ви шукаєте". 0:04:20.023,0:04:23.093 Тепер позитивний аспект:[br]цей метод справді потужний. 0:04:23.117,0:04:25.193 Директор Google's AI systems називає його 0:04:25.217,0:04:27.414 "ірраціональною ефективністю даних". 0:04:27.791,0:04:29.144 Мінусом є те, 0:04:29.738,0:04:32.809 що ми насправді не розуміємо,[br]про що дізнається система. 0:04:32.833,0:04:34.420 Насправді, в цьому сила системи. 0:04:34.946,0:04:38.744 Це не схоже на ситуацію, коли[br]ми даємо комп'ютеру інструкції, 0:04:39.200,0:04:43.264 а, скоріше, на формування[br]маленької машинної істоти, 0:04:43.288,0:04:45.659 яку ми насправді не розуміємо і [br]не контролюємо. 0:04:46.362,0:04:47.913 Тому це наша проблема. 0:04:48.427,0:04:52.689 Проблемно, коли система штучного [br]інтелекту засвоює інформацію неправильно. 0:04:52.713,0:04:56.253 Також проблемно, коли вона засвоює[br]інформацію правильно, 0:04:56.277,0:04:59.905 тому що ми не знаємо, хто є хто,[br]коли це суб'єктивна проблема. 0:04:59.929,0:05:02.268 Ми не знаємо, про що ця річ думає. 0:05:03.493,0:05:07.176 Розглянемо алгоритм найму на роботу - 0:05:08.123,0:05:12.434 система, яку застосовують для найму людей,[br]використовує системи машинного навчання. 0:05:13.052,0:05:16.631 Така система підготовлена[br]на даних попередніх працівників 0:05:16.655,0:05:19.246 і навчена шукати і наймати 0:05:19.270,0:05:22.308 людей, подібних до найкращих[br]працівників компанії. 0:05:22.814,0:05:23.967 Звучить добре. 0:05:23.991,0:05:25.990 Одного разу я відвідала конференцію, 0:05:26.014,0:05:29.139 яку проводили керівники відділів кадрів[br]та члени правління, 0:05:29.163,0:05:30.369 люди на високих посадах, 0:05:30.393,0:05:31.952 які використовують такі системи. 0:05:31.976,0:05:33.622 Вони були в захопленні. 0:05:33.646,0:05:38.299 Вони думали, що це зробить прийом на[br]роботу більш об'єктивним, менш упередженим, 0:05:38.323,0:05:41.323 і дасть жінкам і представникам меншин[br]більше шансів, 0:05:41.347,0:05:43.535 ніж упереджені менеджери. 0:05:43.559,0:05:46.402 Найм людей на роботу - [br]справа упереджена. 0:05:47.099,0:05:48.284 Я знаю. 0:05:48.308,0:05:51.313 На одній із перших компаній,[br]де я програмувала, 0:05:51.337,0:05:55.205 моя безпосередня керівничка [br]деколи підходила до мене 0:05:55.229,0:05:58.982 рано-вранці або пізно ввечері, 0:05:59.006,0:06:02.068 і казала: "Зейнеп, ідемо обідати!" 0:06:02.724,0:06:04.891 Я була здивована дивним вибором часу. 0:06:04.915,0:06:07.044 16:00. Обід? 0:06:07.068,0:06:10.162 Ці сумнівні обіди мене ледь не розорили.[br]Але я завжди йшла. 0:06:10.618,0:06:12.685 Пізніше я усвідомила, що відбувалося. 0:06:12.709,0:06:17.255 Мої безпосередні начальники не могли[br]зізнатися вищому керівництву, 0:06:17.279,0:06:20.392 що найняли для серйозної роботи [br]дівчинку-підлітка, 0:06:20.416,0:06:24.346 яка на роботу ходить у джинсах і кедах. 0:06:25.174,0:06:27.376 Я добре працювала, [br]але виглядала неправильно 0:06:27.400,0:06:29.099 і була неправильного віку і статі. 0:06:29.123,0:06:32.469 Тому найм без врахування статі і раси 0:06:32.493,0:06:34.358 безсумнівно мені підходив. 0:06:35.031,0:06:38.372 Але з такими системами цей процес [br]ще заплутаніший, і ось чому: 0:06:38.968,0:06:44.759 останнім часом комп'ютерні системи можуть[br]зробити будь-які висновки про вас, 0:06:44.783,0:06:46.655 враховуючи цифрові дрібниці, 0:06:46.679,0:06:49.012 навіть якщо ви про ці висновки[br]не підозрюєте. 0:06:49.506,0:06:52.433 Вони можуть робити висновки про [br]сексуальну орієнтацію, 0:06:52.994,0:06:54.300 персональні якості, 0:06:54.859,0:06:56.232 політичні погляди. 0:06:56.830,0:07:00.515 Вони можуть передбачати[br]з високим рівнем точності. 0:07:01.362,0:07:03.940 Пам'ятайте - речі, про які[br]ви навіть не підозрюєте. 0:07:03.964,0:07:05.555 Це припущення. 0:07:05.579,0:07:08.840 У мене є подруга, яка удосконалює[br]такі системи, 0:07:08.864,0:07:12.505 щоб передбачити ймовірність[br]клінічної чи післяпологової депресії, 0:07:12.529,0:07:13.945 аналізуючи соціальні мережі. 0:07:14.676,0:07:16.103 Результати вражаючі. 0:07:16.492,0:07:19.849 ЇЇ система може передбачити[br]ймовірність депресії 0:07:19.873,0:07:23.776 за місяці перед проявом симптомів - 0:07:23.800,0:07:25.173 за місяці. 0:07:25.197,0:07:27.443 Передбачення без симптомів. 0:07:27.467,0:07:32.279 Вона сподівається, що систему застосують[br]для втручання на ранній стадії. Чудово! 0:07:32.911,0:07:34.951 Розгляньте це в контексті найму на роботу. 0:07:36.027,0:07:39.073 На конференції керівників кадрових служб 0:07:39.097,0:07:43.806 я спілкувалася з топ-менеджеркою[br]дуже великої компанії 0:07:43.830,0:07:48.408 і сказала їй: "А якщо без вашого відома 0:07:48.432,0:07:54.981 система видаляє людей з високою[br]ймовірністю появи депресії? 0:07:55.761,0:07:59.137 Наразі вони не пригнічені, але можливо[br]стануть такими в майбутньому. 0:07:59.923,0:08:03.329 Що як вона видаляє жінок, які, [br]можливо, завагітніють 0:08:03.353,0:08:05.939 за кілька наступних років,[br]але не вагітні зараз? 0:08:06.844,0:08:12.480 Що як вона наймає на роботу агресивних [br]людей через корпоративну культуру?" 0:08:13.173,0:08:15.864 Ви не можете цього сказати, дивлячись на [br]гендерний баланс. 0:08:15.888,0:08:17.390 Їх можна врівноважити. 0:08:17.414,0:08:20.971 І так як це машинне навчання,[br]а не традиційне програмування, 0:08:20.995,0:08:25.902 немає змінних ярликів на кшталт:[br]"високий ризик депресії", 0:08:25.926,0:08:27.759 "високий ризик вагітності" 0:08:27.783,0:08:29.517 чи "шкала агресивності". 0:08:29.995,0:08:33.674 Ви не тільки не знаєте, що саме система[br]візьме до уваги, 0:08:33.698,0:08:36.021 ви навіть не знаєте,[br]де це починати шукати. 0:08:36.045,0:08:37.291 Це чорна скринька. 0:08:37.315,0:08:40.122 Система має силу передбачення,[br]але ви її не розумієте. 0:08:40.486,0:08:42.855 Я запитала: [br]"Які запобіжні заходи у вас є, 0:08:42.879,0:08:46.552 щоб упевнитись, що ця чорна скринька[br]не робить нічого підозрілого?" 0:08:48.863,0:08:52.741 Вона подивилась на мене так, ніби[br]я наступила щеняті на хвіст. 0:08:52.765,0:08:54.013 (Сміх) 0:08:54.037,0:08:56.078 Пильно подивилася на мене і сказала: 0:08:56.556,0:09:00.889 "Я більше не хочу нічого про це чути". 0:09:01.458,0:09:03.492 А тоді повернулася і пішла геть. 0:09:04.064,0:09:05.550 Зауважте - вона була вихована. 0:09:05.574,0:09:11.882 Було зрозуміло: те, чого я не знаю -[br]не моя проблема. Іди геть; вбивчий погляд. 0:09:11.906,0:09:13.152 (Сміх) 0:09:13.862,0:09:17.701 Деколи такі системи можуть бути [br]менш упереджені, 0:09:17.725,0:09:19.828 ніж керівники відділів кадрів. 0:09:19.852,0:09:21.998 І це може бути матеріально виправдано. 0:09:22.573,0:09:24.223 Але також це може призвести 0:09:24.247,0:09:28.995 до постійного і приховуваного виштовхування[br]з ринку праці 0:09:29.019,0:09:31.312 людей з високим ризиком розвитку[br]депресії. 0:09:31.753,0:09:34.349 Це таке суспільство,[br]яке ми хочемо будувати, 0:09:34.373,0:09:36.658 навіть не знаючи, що ми це зробили, 0:09:36.682,0:09:40.646 тому що ми доручили ухвалення рішень[br]машинам, яких повністю не розуміємо. 0:09:41.265,0:09:42.723 Є й інша проблема: 0:09:43.314,0:09:47.766 часто ці програми базуються на[br]інформації, пов'язаній з нашими діями, 0:09:47.790,0:09:49.606 на людських враженнях. 0:09:50.188,0:09:53.996 Вони можуть відображати[br]наші упередження, 0:09:54.020,0:09:57.613 можуть їх засвоїти 0:09:57.637,0:09:58.950 і підсилити 0:09:58.974,0:10:00.392 і повернути їх проти нас, 0:10:00.416,0:10:01.878 тоді як ми кажемо: 0:10:01.902,0:10:05.019 "Ми робимо об'єктивний,[br]нейтральний розрахунок". 0:10:06.314,0:10:08.991 Дослідники виявили, що в Google 0:10:10.134,0:10:15.447 жінкам рідше пропонують оголошення[br]про високооплачувану роботу. 0:10:16.463,0:10:18.993 І під час пошуку афро-американських імен 0:10:19.017,0:10:23.723 частіше з'являються рекламні оголошення[br]про кримінальні історії, 0:10:23.747,0:10:25.314 які навіть не стосуються пошуку. 0:10:26.693,0:10:30.242 Такі приховані упередження[br]і алгоритми "чорної скриньки", 0:10:30.266,0:10:34.239 що їх дослідники деколи виявляють,[br]а деколи ми про них навіть не знаємо, 0:10:34.263,0:10:36.924 можуть мати життєвоважливі наслідки. 0:10:37.958,0:10:42.117 У Вісконсині підсудний був засуджений[br]до шести років у в'язниці 0:10:42.141,0:10:43.496 за непокору поліції. 0:10:44.824,0:10:46.010 Можливо, ви цього не знаєте, 0:10:46.034,0:10:50.032 але алгоритми все частіше використовують [br]для визначення міри покарання. 0:10:50.056,0:10:53.011 Він хотів знати,[br]як визначили цей показник. 0:10:53.795,0:10:55.460 Вигідна "чорна скринька". 0:10:55.484,0:10:59.689 Компанію, яка відмовилась від цього [br]алгоритму, викликали на судове засідання. 0:11:00.396,0:11:05.928 Некомерційна слідча компанія ProPublica[br]перевірила той самий алгоритм 0:11:05.952,0:11:07.968 з публічними даними, які вони могли знайти, 0:11:07.992,0:11:10.308 і з'ясувала, що такі висновки[br]були необ'єктивні, 0:11:10.332,0:11:13.961 а здатність передбачення була мізерна,[br]мало відрізнялася від випадковості 0:11:13.985,0:11:18.401 і помилково маркувала чорношкірих[br]обвинувачуваних, як майбутніх злочинців, 0:11:18.425,0:11:22.320 в двічі частіше, ніж білих [br]обвинувачуваних. 0:11:23.891,0:11:25.455 Розглянемо такий випадок: 0:11:26.103,0:11:29.955 ця дівчина трохи запізно приїхала [br]забирати свою сестру 0:11:29.979,0:11:32.054 зі школи в окрузі Бровард, Флорида, 0:11:32.757,0:11:35.113 і бігла по вулиці[br]зі своїми друзями. 0:11:35.137,0:11:39.236 Вони помітили неприщіпнутий на замок [br]дитячий велосипед і самокат на терасі 0:11:39.260,0:11:40.892 і здуру стрибнули на нього. 0:11:40.916,0:11:43.515 Коли вони втікали, вийшла жінка[br]і сказала: 0:11:43.539,0:11:45.744 "Ей! Це велосипед моєї дитини!" 0:11:45.768,0:11:49.062 Вони кинули велосипед і втікли,[br]але їх арештували. 0:11:49.086,0:11:52.723 Дівчина вчинила неправильно і нерозважливо,[br]але ж їй було всього 18. 0:11:52.747,0:11:55.291 Вона скоїла декілька [br]незначних правопорушень. 0:11:55.808,0:12:00.993 Тим часом цього чоловіка арештували за[br]крадіжку в магазині Home Depot - 0:12:01.017,0:12:03.941 він вкрав речей на 85 доларів,[br]такий же маленький злочин. 0:12:04.766,0:12:09.325 Але до цього його двічі засудили[br]за збройні напади. 0:12:09.955,0:12:13.437 Однак алгоритм визначив, що вона [br]небезпечніша за нього. 0:12:14.746,0:12:18.620 Через два роки ProPublica з'ясувала,[br]що вона знову порушила закон. 0:12:18.644,0:12:21.194 І з такими даними їй було важко[br]отримати роботу. 0:12:21.218,0:12:23.294 З іншого боку, той чоловік [br]знову порушив закон 0:12:23.318,0:12:27.154 і тепер відбуває восьмирічний термін[br]за останній злочин. 0:12:28.088,0:12:31.457 Нам треба перевірити ці "чорні скриньки" 0:12:31.481,0:12:34.096 і не наділяти їх такою[br]неперевіреною силою. 0:12:34.120,0:12:36.999 (Оплески) 0:12:38.087,0:12:42.329 Перевірки - це дуже важливо,[br]але вони не розв'язують всіх наших проблем. 0:12:42.353,0:12:45.101 Розглянемо потужний алгоритм[br]стрічки новин у Фейсбуці - 0:12:45.125,0:12:49.968 той, що упорядковує все і вирішує,[br]що вам показати 0:12:49.992,0:12:52.276 з усіх сторінок, на які ви підписані. 0:12:52.898,0:12:55.173 Розказати про ще одну "дитячу картину"? 0:12:55.197,0:12:56.393 (Сміх) 0:12:56.417,0:12:59.013 Сумний пост знайомого? 0:12:59.449,0:13:01.305 Важлива, але неприємна новина? 0:13:01.329,0:13:02.811 Немає правильної відповіді. 0:13:02.835,0:13:05.494 Фейсбук враховує активність на сайті: 0:13:05.518,0:13:06.933 лайки, репости, коментарі. 0:13:08.168,0:13:10.864 У серпні 2014 0:13:10.888,0:13:13.550 почалися протести у місті Ферґюсон,[br]штат Міссуррі, 0:13:13.574,0:13:17.991 після того. як білий поліцейський вбив[br]афро-американського підлітка 0:13:18.015,0:13:19.585 за незрозумілих обставин. 0:13:19.974,0:13:21.981 Новини про ці протести заполонили 0:13:22.005,0:13:24.690 мою невідфільтровану стрічку[br]новин у Твіттері, 0:13:24.714,0:13:26.664 але їх не було на моєму Фейсбуці. 0:13:27.182,0:13:28.916 Справа у моїх друзях на Фейсбуці? 0:13:28.940,0:13:30.972 Алгоритм Фейсбука вибив мене з колії, 0:13:31.472,0:13:34.320 він складний, тому що Фейсбук підтримує[br]бажання 0:13:34.344,0:13:36.380 знаходитися під контролем алгоритму, 0:13:36.404,0:13:38.642 і бачити, що мої друзі говорили про це. 0:13:38.666,0:13:41.175 Це саме те, що алгоритм не показав мені. 0:13:41.199,0:13:44.241 Я досліджувала цю проблему, і виявилось, що[br]вона досить поширена. 0:13:44.265,0:13:48.078 Історія про Ферґюсон не подобалась[br]алгоритму. 0:13:48.102,0:13:49.273 Її не "лайкали". 0:13:49.297,0:13:50.849 Хто вподобає такий запис? 0:13:51.500,0:13:53.706 Її навіть непросто прокоментувати. 0:13:53.730,0:13:55.101 Без вподобань і коментарів 0:13:55.125,0:13:58.417 алгоритм показував цей запис[br]жменьці людей, 0:13:58.441,0:13:59.983 тому ми його не побачили. 0:14:00.946,0:14:02.174 Навпаки, того тижня 0:14:02.198,0:14:04.496 алгоритм Фейсбука виділяв те, 0:14:04.520,0:14:06.746 що називають Ice Bucket Challenge. 0:14:06.770,0:14:10.512 Суспільно значуща справа: обливаєш себе [br]холодною водою заради благодійності. 0:14:10.536,0:14:12.440 Але це дуже подобалось алгоритму. 0:14:13.219,0:14:15.832 За нас це рішення прийняла машина. 0:14:15.856,0:14:19.353 Дуже важливе, але заплутане обговорення 0:14:19.377,0:14:20.932 могло бути придушене, 0:14:20.956,0:14:23.652 якби Фейсбук мав лише одну стрічку новин. 0:14:24.117,0:14:27.914 Зрештою, ці системи [br]можуть помилятися 0:14:27.938,0:14:30.674 так, як цього не допустить [br]людський ресурс. 0:14:30.698,0:14:33.620 Пам'ятаєте систему штучного [br]інтелекту Watson, 0:14:33.644,0:14:36.772 що витирала підлогу, змагаючись з[br]людьми на телегрі Jeopardy? 0:14:37.131,0:14:38.559 Вона була чудовим гравцем. 0:14:38.583,0:14:42.152 Але у фіналі Watson запитали: 0:14:42.659,0:14:45.591 "Його найбільший аеропорт назвали[br]на честь героя Другої світової війни, 0:14:45.615,0:14:47.867 а другий за розміром - на честь[br]битви Другої світової війни". 0:14:47.891,0:14:49.269 (Музика з фіналу Jeopardy) 0:14:49.582,0:14:50.764 Чикаго. 0:14:50.788,0:14:52.158 Дві людини відповіли правильно. 0:14:52.697,0:14:57.045 Натомість Watson відповів[br]"Торонто" - 0:14:57.069,0:14:58.887 і це в категорії міст США! 0:14:59.596,0:15:02.497 Вражаючі системи також робили помилки, 0:15:02.521,0:15:06.172 яких людина ніколи не допустила б,[br]яких не зробив би навіть другокласник. 0:15:06.823,0:15:09.932 Штучний інтелект може провалитися так, 0:15:09.956,0:15:13.056 як люди зазвичай не помиляються, 0:15:13.080,0:15:16.030 так, як ми не будемо сподіватися[br]і не будемо до цього готові. 0:15:16.054,0:15:19.692 Кепсько не отримати роботу,[br]до якої підходить твоя кваліфікація, 0:15:19.716,0:15:23.443 але ще гірше не отримати її через[br]переповнення стека 0:15:23.467,0:15:24.899 в якійсь програмі. 0:15:24.923,0:15:26.502 (Сміх) 0:15:26.526,0:15:29.312 У травні 2010 0:15:29.336,0:15:33.380 різкий обвал на Волл-Стріт, спричинений[br]циклом зворотнього зв'язку 0:15:33.404,0:15:36.432 в "торговому" алгоритмі, 0:15:36.456,0:15:40.640 знищив трильйон доларів[br]за 36 хвилин. 0:15:41.722,0:15:43.909 Я навіть не хочу думати,[br]що "помилка" означає 0:15:43.933,0:15:47.522 в контексті атомної системи[br]летального озброєння. 0:15:49.894,0:15:53.684 Так, люди завжди досить упереджені. 0:15:53.708,0:15:55.884 Ті, хто ухвалює рішення і цензори 0:15:55.908,0:15:59.401 в судах, у новинах, на війні... 0:15:59.425,0:16:02.463 вони помиляються;[br]але у цьому й річ. 0:16:02.487,0:16:06.008 Ми не можемо уникнути цих[br]заплутаних питань. 0:16:06.596,0:16:10.112 Ми не можемо перекладати відповідальність[br]на машини. 0:16:10.676,0:16:14.884 (Оплески) 0:16:17.089,0:16:21.536 Штучний інтелект не дає нам[br]картку "звільнення від моральних норм". 0:16:22.742,0:16:26.123 Фахівець з обробки даних Фред Бененсон[br]називає це математичною чисткою. 0:16:26.147,0:16:27.536 Нам треба щось протилежне. 0:16:27.560,0:16:32.948 Нам треба удосконалювати підозри,[br]вивчення і дослідження алгоритмів. 0:16:33.380,0:16:36.578 Треба впевнитись, що у нас є[br]алгоритмічна звітність, 0:16:36.602,0:16:39.047 перевірка і повноцінна прозорість. 0:16:39.380,0:16:42.614 Треба прийняти те, що залучення[br]комп'ютерів до безладних 0:16:42.638,0:16:45.608 людських справ, заснованих на цінностях, 0:16:45.632,0:16:48.016 не гарантують об'єктивності; 0:16:48.040,0:16:51.673 алгоритмам, навпаки, передалася [br]заплутаність людських справ. 0:16:52.148,0:16:55.635 Так, нам можна і треба використовувати[br]комп'ютери, 0:16:55.659,0:16:57.673 щоб ухвалювати кращі рішення. 0:16:57.697,0:17:03.029 Але ми маємо підкорятися моральній[br]відповідальності за вироки суду 0:17:03.053,0:17:05.871 і використовувати алгоритми [br]максимум як структуру, 0:17:05.895,0:17:10.830 а не як засіб відмовитися і перекласти[br]відповідальність 0:17:10.854,0:17:13.308 на когось ще, як людина на людину. 0:17:13.807,0:17:16.416 Штучний інтелект тут. 0:17:16.440,0:17:19.861 І це означає, що ми мусимо триматись[br]ще сильніше 0:17:19.885,0:17:22.032 за людські цінності і людську мораль. 0:17:22.056,0:17:23.210 Дякую. 0:17:23.234,0:17:28.254 (Оплески)