1 00:00:00,975 --> 00:00:02,571 Алгоритми є повсюди. 2 00:00:04,111 --> 00:00:07,236 Вони сортують і відрізняють переможців від переможених. 3 00:00:08,019 --> 00:00:10,283 Переможці отримують роботу 4 00:00:10,307 --> 00:00:12,050 чи вигідні умови оформлення кредитки. 5 00:00:12,074 --> 00:00:14,725 Переможені не доходять навіть до співбесіди, 6 00:00:15,590 --> 00:00:17,367 або платять більше за страхування. 7 00:00:18,197 --> 00:00:21,746 Нас обчислюють секретними формулами, які ми не розуміємо, 8 00:00:22,675 --> 00:00:25,892 і до яких часто не можна подати апеляційні скарги. 9 00:00:27,240 --> 00:00:28,536 Тому виникає питання: 10 00:00:28,560 --> 00:00:31,473 а якщо припустити, що алгоритми неправильні? 11 00:00:33,100 --> 00:00:35,140 Для побудови алгоритму потрібні дві речі: 12 00:00:35,164 --> 00:00:37,145 потрібні дані про те, що сталося у минулому, 13 00:00:37,169 --> 00:00:38,730 і визначення успіху, 14 00:00:38,754 --> 00:00:41,211 те, чого ви прагнете і на що часто сподіваєтеся. 15 00:00:41,235 --> 00:00:46,272 Ви навчаєте алгоритм, розмірковуючи, з'ясовуючи. 16 00:00:46,296 --> 00:00:49,715 Алгоритм з'ясовує, що асоціюється із успіхом. 17 00:00:49,739 --> 00:00:52,202 Яка ситуація призводить до успіху? 18 00:00:52,881 --> 00:00:54,643 Усі люди вживають алгоритми. 19 00:00:54,667 --> 00:00:57,385 Вони просто не записують їх у вигляді коду. 20 00:00:57,409 --> 00:00:58,757 Я наведу вам приклад. 21 00:00:58,781 --> 00:01:02,097 Я щодня вживаю алгоритм, щоб приготувати їсти для сім'ї. 22 00:01:02,121 --> 00:01:03,597 Дані, що я використовую, 23 00:01:04,394 --> 00:01:06,053 це інгредієнти в мене на кухні, 24 00:01:06,077 --> 00:01:07,604 скільки часу я маю, 25 00:01:07,628 --> 00:01:08,861 наскільки я захоплена, 26 00:01:08,885 --> 00:01:10,594 і я - куратор цих даних. 27 00:01:10,618 --> 00:01:14,869 Я не зараховую маленькі пакетики локшини рамен до їжі. 28 00:01:14,893 --> 00:01:16,762 (Сміх) 29 00:01:16,786 --> 00:01:18,631 Ось моє визначення успіху: 30 00:01:18,655 --> 00:01:21,314 страва успішна, якщо мої діти їдять овочі. 31 00:01:22,181 --> 00:01:25,035 Дайте вирішувати моєму молодшому синові, і все буде інакше. 32 00:01:25,059 --> 00:01:27,847 Для нього успіх - це якщо вдається з'їсти багато Нутелли. 33 00:01:29,179 --> 00:01:31,405 Але я визначаю, що таке успіх. 34 00:01:31,429 --> 00:01:34,136 Я вирішую. Моя точка зору має значення. 35 00:01:34,160 --> 00:01:36,835 Ось таким є перше правило алгоритмів. 36 00:01:36,859 --> 00:01:40,039 Алгоритми - це точки зору, вбудовані у код. 37 00:01:41,562 --> 00:01:45,225 Це дуже відрізняється від того, що більшість людей думає про алгоритми. 38 00:01:45,249 --> 00:01:49,753 Вони думають, що алгоритми об'єктивні, правдиві і науково обґрунтовані. 39 00:01:50,387 --> 00:01:52,086 Це маркетингові хитрощі. 40 00:01:53,269 --> 00:01:55,394 Це також будуть маркетингові хитрощі, 41 00:01:55,418 --> 00:01:58,572 якщо вам будуть погрожувати алгоритмами, 42 00:01:58,596 --> 00:02:02,257 будуть примушувати вас довіряти алгоритмам та боятися їх, 43 00:02:02,281 --> 00:02:04,299 бо ви довіряєте математиці та боїтеся її. 44 00:02:05,567 --> 00:02:10,397 Чимало речей може піти не так, як треба, коли ми сліпо довіряємо великим даним. 45 00:02:11,684 --> 00:02:15,057 Це Кірі Соарс. Вона - директор школи старших класів у Брукліні. 46 00:02:15,081 --> 00:02:17,667 У 2011 р. вона розповіла мені, що її вчителів оцінювали 47 00:02:17,691 --> 00:02:20,342 за складним секретним алгоритмом 48 00:02:20,442 --> 00:02:22,511 під назвою "модель з розширеними функціями". 49 00:02:22,511 --> 00:02:25,597 Я сказала їй: "З'ясуй, що це за формула, покажи її мені. 50 00:02:25,621 --> 00:02:27,162 Я тобі її поясню". 51 00:02:27,186 --> 00:02:29,327 Вона сказала: "Я намагалася отримати формулу, 52 00:02:29,351 --> 00:02:32,123 але моя знайома у міносвіти сказала мені, що то математика, 53 00:02:32,147 --> 00:02:33,693 і що мені цього не зрозуміти". 54 00:02:35,266 --> 00:02:36,604 Далі буде гірше. 55 00:02:36,628 --> 00:02:40,158 "Нью-Йорк Пост" надіслала запит згідно із Законом про свободу інформації, 56 00:02:40,182 --> 00:02:43,141 отримала імена усіх вчителів та усі їх оцінки, 57 00:02:43,165 --> 00:02:45,947 і потім вони опублікували це задля присоромлення вчителів. 58 00:02:47,084 --> 00:02:50,944 Коли я намагалася тими ж методами одержати формули, початковий код, 59 00:02:50,968 --> 00:02:53,117 мені сказали, що я не можу цього зробити. 60 00:02:53,141 --> 00:02:54,377 Мені відмовили. 61 00:02:54,401 --> 00:02:55,575 Пізніше я дізналася, 62 00:02:55,599 --> 00:02:58,465 що ніхто у місті Нью-Йорк не мав доступу до цієї формули. 63 00:02:58,489 --> 00:02:59,794 Ніхто її не розумів. 64 00:03:01,929 --> 00:03:05,153 Потім до цього долучилася одна мудра людина, Гері Рубінштейн. 65 00:03:05,177 --> 00:03:08,798 Він знайшов 665 вчителів з тої статті у "Нью-Йорк Пост", 66 00:03:08,822 --> 00:03:10,688 вчителів, що, власне, мали дві оцінки. 67 00:03:10,712 --> 00:03:12,593 Так могло статися, якщо вони викладали 68 00:03:12,617 --> 00:03:15,056 математику у сьомому класі і математику у восьмому. 69 00:03:15,080 --> 00:03:16,618 Він вирішив відобразити їх дані. 70 00:03:16,642 --> 00:03:18,635 Кожна крапка репрезентує вчителя. 71 00:03:19,104 --> 00:03:21,483 (Сміх) 72 00:03:21,507 --> 00:03:23,028 Що це таке? 73 00:03:23,052 --> 00:03:24,329 (Сміх) 74 00:03:24,353 --> 00:03:27,799 Це ніколи не слід було використовувати для індивідуальної оцінки. 75 00:03:27,823 --> 00:03:29,749 Це майже як генератор випадкових чисел. 76 00:03:29,773 --> 00:03:32,719 (Оплески) 77 00:03:32,743 --> 00:03:33,905 Але це було використано. 78 00:03:33,929 --> 00:03:35,105 Це - Сара Висоцкі. 79 00:03:35,129 --> 00:03:37,304 Її звільнили, разом із 205 іншими вчителями, 80 00:03:37,328 --> 00:03:39,990 зі шкільного району м.Вашингтон в окрузі Колумбія, 81 00:03:40,014 --> 00:03:42,923 хоча вона мала прекрасні рекомендації від її директора 82 00:03:42,947 --> 00:03:44,375 та батьків її дітей. 83 00:03:45,390 --> 00:03:47,422 Я знаю, про що зараз думає багато із вас, 84 00:03:47,446 --> 00:03:49,933 зокрема фахівці з обробки даних і штучного інтелекту. 85 00:03:49,957 --> 00:03:54,183 Ви думаєте: "Ну, я б ніколи не створив алгоритм з такими протиріччями". 86 00:03:54,793 --> 00:03:56,536 Але алгоритми можуть піти не за планом, 87 00:03:56,560 --> 00:04:01,158 навіть мати надзвичайно нищівні наслідки, незважаючи на добрі наміри. 88 00:04:02,531 --> 00:04:04,910 В той час, як літак, що був погано спроектований, 89 00:04:04,934 --> 00:04:06,935 врізається у землю, і всі це бачать, 90 00:04:06,959 --> 00:04:08,809 алгоритм, що був погано розроблений, 91 00:04:10,245 --> 00:04:14,110 може довго функціонувати і тихенько завдавати шкоди. 92 00:04:15,748 --> 00:04:17,318 Це - Роджер Ейлс. 93 00:04:17,342 --> 00:04:19,342 (Сміх) 94 00:04:20,524 --> 00:04:22,912 Він заснував Fox News у 1996 р. 95 00:04:23,436 --> 00:04:26,017 Понад 20 жінок поскаржилися на сексуальні домагання. 96 00:04:26,041 --> 00:04:29,276 Вони казали, що їм не дозволяли досягати успіхів у Fox News. 97 00:04:29,300 --> 00:04:31,820 Минулого року його вигнали, але ми нещодавно побачили, 98 00:04:31,844 --> 00:04:34,514 що проблеми все одно існують. 99 00:04:35,654 --> 00:04:37,054 Виникає питання: 100 00:04:37,078 --> 00:04:39,962 що повинна зробити Fox News, щоб почати нову сторінку? 101 00:04:41,245 --> 00:04:44,310 А якщо б вони замість свого процесу найму працівників вживали 102 00:04:44,310 --> 00:04:45,964 алгоритм машинного навчання? 103 00:04:45,988 --> 00:04:47,583 Непогана ідея, правда? 104 00:04:47,607 --> 00:04:48,907 Подумайте про це. 105 00:04:48,931 --> 00:04:51,036 Дані, які в нас були б дані? 106 00:04:51,060 --> 00:04:56,007 Резонно розглянути відгуки на вакансії у Fox News за останній 21 рік. 107 00:04:56,031 --> 00:04:57,533 Резонно. 108 00:04:57,557 --> 00:04:59,495 А як ми визначимо успіх? 109 00:04:59,921 --> 00:05:01,245 Резонно було б обрати, 110 00:05:01,269 --> 00:05:03,047 ну, хто є успішним у Fox News? 111 00:05:03,071 --> 00:05:06,651 Скажімо, та людина, що пробула там чотири роки, 112 00:05:06,675 --> 00:05:08,329 і яка хоч раз отримала підвищення. 113 00:05:08,816 --> 00:05:10,377 Резонне визначення. 114 00:05:10,401 --> 00:05:12,755 А потім ми б навчали алгоритм. 115 00:05:12,779 --> 00:05:16,656 Його б навчали шукати людей, вивчати, що призвело до успіху, 116 00:05:17,219 --> 00:05:21,537 якого роду відгуки про вакансії призводили до успіху 117 00:05:21,561 --> 00:05:22,855 за цим визначенням. 118 00:05:24,120 --> 00:05:25,975 Подумайте, що сталося би по відношенню 119 00:05:25,999 --> 00:05:28,554 до теперішнього банку даних про кандидатів. 120 00:05:29,119 --> 00:05:30,748 Алгоритм відфільтрував би жінок, 121 00:05:31,663 --> 00:05:35,593 бо вони не виглядають, як люди, що були успішними у минулому. 122 00:05:39,752 --> 00:05:42,289 Алгоритми не забезпечують справедливість, 123 00:05:42,313 --> 00:05:45,011 якщо ви застосовуєте алгоритми безтурботно і всліпу. 124 00:05:45,031 --> 00:05:46,513 Це не гарантія справедливості. 125 00:05:46,537 --> 00:05:48,665 Вони повторюють наші минулі методики роботи, 126 00:05:48,689 --> 00:05:49,872 наші шаблони. 127 00:05:49,896 --> 00:05:51,835 Вони автоматизують статус-кво. 128 00:05:52,718 --> 00:05:55,107 Як було б добре, якщо б ми жили в ідеальному світі, 129 00:05:55,905 --> 00:05:57,217 але ми в ньому не живемо. 130 00:05:57,241 --> 00:06:01,343 Додам, що більшість компаній не має прикрих правових спорів, 131 00:06:02,446 --> 00:06:05,034 але науковцям з даних у тих компаніях 132 00:06:05,058 --> 00:06:07,247 кажуть слідкувати за даними, 133 00:06:07,271 --> 00:06:09,414 концентруватися на точності. 134 00:06:10,273 --> 00:06:11,654 Подумайте, що це означає. 135 00:06:11,678 --> 00:06:15,705 Оскільки усі ми маємо упередження, вони можуть кодувати сексизм 136 00:06:15,729 --> 00:06:17,565 чи інший вид нетерпимості. 137 00:06:19,488 --> 00:06:20,909 Інтелектуальний експеримент, 138 00:06:20,933 --> 00:06:22,442 бо вони мені подобаються: 139 00:06:23,574 --> 00:06:26,549 повністю сегреговане суспільство - 140 00:06:28,247 --> 00:06:31,575 расова сегрегація в усіх містах, усіх кварталах, 141 00:06:31,599 --> 00:06:34,636 і поліцію посилають лиш до кварталів, де проживає меншість, 142 00:06:34,660 --> 00:06:35,853 щоб шукати там злочинців. 143 00:06:36,451 --> 00:06:38,670 Дані про арешти були б дуже упередженими. 144 00:06:39,851 --> 00:06:42,426 А якщо, окрім того, ми знайшли б науковців з даних 145 00:06:42,450 --> 00:06:46,611 і платили б науковцям за передбачення, де буде скоєно наступний злочин? 146 00:06:47,275 --> 00:06:48,942 У кварталі, де проживає меншість. 147 00:06:49,285 --> 00:06:52,410 Чи передбачити, хто буде наступним злочинцем? 148 00:06:52,888 --> 00:06:54,283 Людина з меншості. 149 00:06:55,949 --> 00:06:59,490 Науковці хвалилися б про те, наскільки чудовою і точною 150 00:06:59,514 --> 00:07:00,811 є їх модель, 151 00:07:00,835 --> 00:07:02,134 і вони були б праві. 152 00:07:03,951 --> 00:07:08,590 В реальному житті немає таких крайнощів, але ми маємо суттєву сегрегацію 153 00:07:08,590 --> 00:07:09,877 у великих і малих містах, 154 00:07:09,901 --> 00:07:11,794 і маємо досить доказів 155 00:07:11,818 --> 00:07:14,506 щодо упередженості поліції і судової системи. 156 00:07:15,632 --> 00:07:18,447 І ми справді передбачаємо гарячі точки, 157 00:07:18,471 --> 00:07:20,001 місця, де буде скоєно злочини. 158 00:07:20,401 --> 00:07:24,267 І це факт, що ми передбачаємо індивідуальні злочинні дії, 159 00:07:24,291 --> 00:07:26,061 злочинність окремих людей. 160 00:07:26,972 --> 00:07:30,935 Інформагентство ProPublica нещодавно провело розслідування щодо 161 00:07:30,959 --> 00:07:32,983 одного з алгоритмів "ризику рецидивізму", 162 00:07:33,007 --> 00:07:34,170 так вони називаються, 163 00:07:34,194 --> 00:07:37,388 що використовують судді у Флориді, коли виносять вирок. 164 00:07:38,411 --> 00:07:41,996 Бернард, зліва, темношкірий, отримав рейтинг 10 з 10. 165 00:07:43,179 --> 00:07:45,186 Ділан, справа, 3 з 10. 166 00:07:45,210 --> 00:07:47,711 10 з 10, високий ризик. 3 з 10, низький ризик. 167 00:07:48,598 --> 00:07:50,983 Їх обох заарештували за зберігання наркотиків. 168 00:07:50,987 --> 00:07:52,191 В них кримінальне минуле, 169 00:07:52,191 --> 00:07:54,991 але Ділан скоїв тяжкий злочин, 170 00:07:55,015 --> 00:07:56,191 а Бернард - ні. 171 00:07:57,818 --> 00:08:00,884 Це має значення, бо чим вищий в тебе ризик, 172 00:08:00,908 --> 00:08:04,381 тим ймовірніше, що ти отримаєш довший термін покарання. 173 00:08:06,294 --> 00:08:07,588 Що ж відбувається? 174 00:08:08,526 --> 00:08:09,858 Відмивання даних. 175 00:08:10,930 --> 00:08:15,351 Це процес, коли технологи ховають неприємну правду 176 00:08:15,351 --> 00:08:17,212 всередині алгоритмів типу "чорний ящик" 177 00:08:17,226 --> 00:08:18,566 і називають їх об'єктивними; 178 00:08:19,320 --> 00:08:20,888 називають їх меритократичними. 179 00:08:23,118 --> 00:08:25,503 Коли ці алгоритми секретні, важливі та нищівні, 180 00:08:25,527 --> 00:08:28,014 я створила для них термін: 181 00:08:28,038 --> 00:08:30,037 "зброя математичного знищення". 182 00:08:30,061 --> 00:08:31,625 (Сміх) 183 00:08:31,649 --> 00:08:34,703 (Оплески) 184 00:08:34,727 --> 00:08:37,081 Вони повсюди, і це не помилково. 185 00:08:37,695 --> 00:08:41,418 Це приватні компанії, що будують приватні алгоритми 186 00:08:41,442 --> 00:08:42,834 для приватного зиску. 187 00:08:43,214 --> 00:08:46,428 Навіть приклади, що я навела, для вчителів і державної поліції, 188 00:08:46,452 --> 00:08:48,321 приватні компанії побудували їх 189 00:08:48,345 --> 00:08:50,576 і продали державним установам. 190 00:08:50,600 --> 00:08:52,473 Вони кажуть, що це їх "секретний соус", 191 00:08:52,497 --> 00:08:54,625 тому вони не можуть розповісти нам про нього. 192 00:08:54,649 --> 00:08:56,869 Це також вплив приватних інтересів. 193 00:08:57,924 --> 00:09:02,619 Вони отримують зиск, маючи владу над незбагненним. 194 00:09:05,114 --> 00:09:08,048 Позаяк це все приватні компанії, ви можете припустити, 195 00:09:08,072 --> 00:09:09,230 що існує конкуренція, 196 00:09:09,254 --> 00:09:11,560 можливо, вільний ринок вирішить цю проблему. 197 00:09:11,584 --> 00:09:12,833 Ні, не вирішить. 198 00:09:12,857 --> 00:09:15,977 На несправедливості можна заробити чимало грошей. 199 00:09:17,127 --> 00:09:20,496 До того ж, ми не є економічними раціональними агентами. 200 00:09:21,031 --> 00:09:22,323 У нас у всіх є упередження. 201 00:09:22,960 --> 00:09:26,337 Ми всі до певної міри нетерпимі расисти, хоч нам це і не подобається, 202 00:09:26,361 --> 00:09:28,380 ми самі не знаємо, до якої міри. 203 00:09:29,352 --> 00:09:32,433 Однак ми знаємо, що так загалом і є, 204 00:09:32,457 --> 00:09:35,677 бо соціологи систематично демонструють це 205 00:09:35,701 --> 00:09:37,366 у експериментах, що вони проводять, 206 00:09:37,390 --> 00:09:39,958 коли вони надсилають низку відгуків на вакансії, 207 00:09:39,982 --> 00:09:42,483 однакові кваліфікації, але у деяких "білі" імена, 208 00:09:42,507 --> 00:09:44,213 а в інших імена, як у темношкірих, 209 00:09:44,237 --> 00:09:46,931 і результати завжди невтішні, завжди. 210 00:09:47,510 --> 00:09:49,281 Отже, ми маємо упередження, 211 00:09:49,305 --> 00:09:52,734 і ми вбудовуємо ці упередження в алгоритми, 212 00:09:52,758 --> 00:09:54,570 обираючи, які дани потрібно збирати, 213 00:09:54,594 --> 00:09:57,337 так само, як я вирішила не думати про локшину рамен - 214 00:09:57,361 --> 00:09:58,986 я вирішила, що це малозначуще. 215 00:09:59,010 --> 00:10:04,694 Але коли ми довіряємо даним, що вловлюють практику, що склалася, 216 00:10:04,718 --> 00:10:06,732 і обираємо визначення успіху, 217 00:10:06,756 --> 00:10:10,739 як ми можемо очікувати, що алгоритми будуть без несправностей? 218 00:10:10,763 --> 00:10:13,119 Не можемо. Ми повинні перевіряти їх. 219 00:10:14,165 --> 00:10:15,874 Перевіряти їх на справедливість. 220 00:10:15,898 --> 00:10:18,609 На щастя, ми можемо перевіряти їх на справедливість. 221 00:10:18,633 --> 00:10:21,985 Алгоритми можна розпитувати, 222 00:10:22,009 --> 00:10:24,043 і вони щоразу казатимуть нам правду. 223 00:10:24,067 --> 00:10:26,560 І ми можемо виправити їх. Ми можемо покращити їх. 224 00:10:26,584 --> 00:10:28,959 Я називаю це "алгоритмічним аудитом", 225 00:10:28,983 --> 00:10:30,662 і я вам зараз його поясню. 226 00:10:30,686 --> 00:10:32,882 По-перше, перевірка цілісності даних. 227 00:10:34,132 --> 00:10:36,789 Повертаючись до алгоритму риску рецидивізму, 228 00:10:37,522 --> 00:10:41,155 перевірка цілісності даних означала б, що нам довелося б змиритися із фактом, 229 00:10:41,179 --> 00:10:44,705 що у США білі і темношкірі обкурені однаково, 230 00:10:44,729 --> 00:10:47,214 однак темношкірих заарештовують набагато частіше - 231 00:10:47,238 --> 00:10:50,422 у чотири-п'ять разів частіше, залежно від району. 232 00:10:51,287 --> 00:10:54,143 Як ця упередженість виглядає в інших кримінальних категоріях, 233 00:10:54,167 --> 00:10:55,618 і як ми приймаємо її до уваги? 234 00:10:56,162 --> 00:10:59,201 По-друге, нам слід подумати про визначення успіху, 235 00:10:59,225 --> 00:11:00,606 проводити аудит визначення. 236 00:11:00,630 --> 00:11:03,382 Пригадуєте алгоритм щодо прийняття на роботу? 237 00:11:03,386 --> 00:11:06,571 Той, хто утримується на роботі чотири роки і раз отримує підвищення? 238 00:11:06,595 --> 00:11:08,364 Ну так, це успішний працівник, 239 00:11:08,388 --> 00:11:11,467 але це також працівник, котрого підтримує організаційна культура. 240 00:11:12,089 --> 00:11:14,015 Однак і тут може бути багато упередження. 241 00:11:14,039 --> 00:11:16,104 Нам треба розрізняти тих дві речі. 242 00:11:16,128 --> 00:11:18,554 Давайте брати приклад з прослуховування всліпу 243 00:11:18,578 --> 00:11:19,774 на роль в окрестрі, 244 00:11:19,798 --> 00:11:22,554 Це коли люди на прослуховуванні є за листом паперу. 245 00:11:22,946 --> 00:11:24,877 На чому я хочу тут зосередитись: 246 00:11:24,901 --> 00:11:28,318 люди, котрі прослуховують кандидатів, вирішили, що важливе, 247 00:11:28,342 --> 00:11:30,371 і вирішили, що неважливе, 248 00:11:30,395 --> 00:11:32,454 і їх це не відволікає. 249 00:11:32,961 --> 00:11:35,710 Коли розпочалися прослуховування вліпу, 250 00:11:35,734 --> 00:11:39,178 кількість жінок в оркестрах зросла у п'ять разів. 251 00:11:40,253 --> 00:11:42,268 Потім нам потрібно розглянути точність. 252 00:11:43,233 --> 00:11:46,967 Ось тут модель з розширеними функціями для вчителів одразу б провалилася. 253 00:11:47,578 --> 00:11:49,740 Звісно, що не існує ідеальних алгоритмів, 254 00:11:50,620 --> 00:11:54,225 тому нам треба приймати до уваги помилки у кожному алгоритмі. 255 00:11:54,836 --> 00:11:59,195 Як часто там трапляються помилки, і кого підведе ця модель? 256 00:11:59,850 --> 00:12:01,568 Якою є ціна цього провалу? 257 00:12:02,434 --> 00:12:04,641 І наприкінці, нам потрібно прийняти до уваги 258 00:12:05,973 --> 00:12:08,159 довготермінові ефекти алгоритмів, 259 00:12:08,866 --> 00:12:11,073 ланцюги зворотного зв'язку, що виникають. 260 00:12:11,586 --> 00:12:12,822 Звучить абстрактно, 261 00:12:12,846 --> 00:12:15,510 але уявіть, якщо інженери Facebook прийняли б це до уваги, 262 00:12:16,270 --> 00:12:21,125 перш ніж вони вирішили показувати нам лише те, що постять наші друзі. 263 00:12:21,761 --> 00:12:24,995 В мене є ще дві думки, що я хочу донести, одна для науковців з даних. 264 00:12:25,450 --> 00:12:28,859 Науковці з даних: нам не слід бути арбітрами правди. 265 00:12:29,520 --> 00:12:33,303 Нам слід бути перекладачами етичних дискусій, що відбуваються 266 00:12:33,327 --> 00:12:34,621 у ширшому суспільстві. 267 00:12:35,579 --> 00:12:37,712 (Оплески) 268 00:12:37,736 --> 00:12:39,292 А щодо решти з вас, 269 00:12:40,011 --> 00:12:41,407 не-науковців з даних: 270 00:12:41,431 --> 00:12:42,929 це не тест з математики. 271 00:12:43,632 --> 00:12:44,980 Це політична боротьба. 272 00:12:46,587 --> 00:12:50,494 Ми повинні вимагати підзвітності від наших алгоритмічних можновладців. 273 00:12:52,118 --> 00:12:53,617 (Оплески) 274 00:12:53,641 --> 00:12:57,866 Епоха сліпої віри у великі дані має підійти до кінця. 275 00:12:57,890 --> 00:12:59,057 Дуже вам дякую. 276 00:12:59,081 --> 00:13:04,384 (Оплески)