1 00:00:00,830 --> 00:00:06,341 Zaczęłam pracować jako programistka na pierwszym roku studiów, 2 00:00:06,531 --> 00:00:08,551 jeszcze jako nastolatka. 3 00:00:08,831 --> 00:00:12,341 Niedługo później zaczęłam pracować dla firmy tworzącej oprogramowania. 4 00:00:12,745 --> 00:00:17,315 Pewnego razu jeden z managerów podszedł do mnie i wyszeptał: 5 00:00:17,743 --> 00:00:21,013 "Czy on wie kiedy kłamię?". 6 00:00:21,510 --> 00:00:24,260 Byliśmy sami w pokoju. 7 00:00:24,548 --> 00:00:27,726 "Niby kto ma wiedzieć kiedy kłamiesz? 8 00:00:27,976 --> 00:00:29,726 I dlaczego szepczemy?" 9 00:00:30,506 --> 00:00:32,906 Manager wskazał na komputer. 10 00:00:33,268 --> 00:00:36,258 "Czy on wie kiedy kłamię?" 11 00:00:37,731 --> 00:00:41,781 Ten menadżer miał romans z recepcjonistką. 12 00:00:42,082 --> 00:00:43,112 (Śmiech) 13 00:00:43,427 --> 00:00:47,017 Byłam nastolatką, więc odkrzyknęłam szeptem: 14 00:00:47,281 --> 00:00:51,041 "Tak, komputer wie kiedy kłamiesz!". 15 00:00:51,286 --> 00:00:52,656 (Śmiech) 16 00:00:53,078 --> 00:00:55,998 Wtedy się z tego śmiałam, ale teraz można śmiać się ze mnie. 17 00:00:55,998 --> 00:00:59,776 Obecnie istnieją programy, które potrafią ropoznawać 18 00:01:00,035 --> 00:01:04,305 stany emocjonalne i kłamstwo na podstawie zdjęć twarzy. 19 00:01:04,797 --> 00:01:09,527 Spece od marketingu i organy rządowe wyrażają zainteresowanie. 20 00:01:09,659 --> 00:01:14,809 Zostałam programistką, bo od dziecka uwielbiałam matematykę i naukę. 21 00:01:14,987 --> 00:01:21,567 Dowiedziawszy się o broni jądrowej, przejęłam się kwestią etyki w nauce. 22 00:01:21,760 --> 00:01:23,110 Byłam w kropce. 23 00:01:23,516 --> 00:01:29,186 Ze względu na sytuację rodzinną musiałam jak najszybciej zacząć pracować. 24 00:01:29,674 --> 00:01:34,034 Pomyślałam, że wybiorę dziedzinę, w której łatwo znajdę pracę 25 00:01:34,433 --> 00:01:38,073 i nie będę musiała myśleć o zawiłych kwestiach etycznych. 26 00:01:38,817 --> 00:01:40,497 Wybrałam informatykę. 27 00:01:40,713 --> 00:01:41,813 (Śmiech) 28 00:01:42,105 --> 00:01:44,475 Ha, ha, ha. Można się ze mnie nabijać. 29 00:01:44,909 --> 00:01:49,829 Programiści tworzą platformy, które kontrolują to, 30 00:01:50,096 --> 00:01:52,556 co każdego dnia widzą miliardy ludzi. 31 00:01:52,753 --> 00:01:56,963 Tworzą samochody, mogące zdecydować, kogo przejechać. 32 00:01:57,167 --> 00:02:02,657 Tworzą nawet broń mechaniczną, która mogłaby być użyta w czasie wojny. 33 00:02:02,868 --> 00:02:05,958 To są od początku do końca kwestie etyczne. 34 00:02:07,081 --> 00:02:09,391 Sztuczna inteligencja to rzeczywistość. 35 00:02:09,856 --> 00:02:13,096 Korzystamy z obliczeń komputerowych do podejmowania różnych decyzji, 36 00:02:13,227 --> 00:02:14,981 również decyzji nowego rodzaju. 37 00:02:14,981 --> 00:02:17,911 Próbujemy z pomocą komputerów, uzyskać odpowiedzi na pytania, 38 00:02:17,911 --> 00:02:20,421 na które nie ma jednej dobrej odpowiedzi, 39 00:02:20,421 --> 00:02:23,520 które są subiektywne, otwarte i wartościujące. 40 00:02:24,076 --> 00:02:26,816 Pytamy: "Kogo powinno się zatrudnić? 41 00:02:27,096 --> 00:02:30,226 Który i czyj post dana osoba powinna zobaczyć? 42 00:02:30,430 --> 00:02:33,460 Który skazaniec prawdopodobnie popełni kolejne przestępstwo? 43 00:02:33,460 --> 00:02:36,640 Jaka informacja lub film powinny być zarekomendowane widowni?". 44 00:02:36,736 --> 00:02:41,066 Używamy komputerów od lat, ale to są kwestie innego rodzaju. 45 00:02:41,277 --> 00:02:43,137 To jest historyczna zmiana, 46 00:02:43,472 --> 00:02:48,532 bo nie możemy powiązać obliczeń z tak subiektywnymi kwestiami, 47 00:02:48,826 --> 00:02:51,531 w taki sam sposób gdy w grę wchodzi 48 00:02:51,641 --> 00:02:55,301 latanie samolotami, budowa mostów i wyprawy na Księżyc. 49 00:02:55,601 --> 00:02:57,641 Czy samoloty są bezpieczniejsze? 50 00:02:57,991 --> 00:02:59,551 Czy mosty chwieją się i walą? 51 00:02:59,752 --> 00:03:06,032 Dla takich spraw mamy jasne standardy i prawa natury, które wskazują drogę. 52 00:03:06,533 --> 00:03:13,453 Nie mamy takich standardów dla decyzji w pogmatwanych ludzkich sprawach. 53 00:03:14,321 --> 00:03:17,691 Tymczasem, oprogramowanie staje się coraz potężniejsze, 54 00:03:18,220 --> 00:03:21,880 ale również coraz mniej przejrzyste i bardziej złożone. 55 00:03:22,116 --> 00:03:25,636 W ciągu ostatnich dziesięcioleci skomplikowane algorytmy 56 00:03:25,755 --> 00:03:27,912 dokonały milowego kroku do przodu. 57 00:03:27,912 --> 00:03:29,892 Potrafią rozpoznawać twarze, 58 00:03:29,995 --> 00:03:31,975 odczytywać odręczne pismo, 59 00:03:32,138 --> 00:03:34,906 wykrywać kradzieże na kartach kredytowych, 60 00:03:34,906 --> 00:03:37,236 blokować spam, tłumaczyć teksty, 61 00:03:37,436 --> 00:03:40,524 wykryć guz w obrazowaniu medycznym 62 00:03:40,524 --> 00:03:42,804 i pokonać człowieka w szachy. 63 00:03:43,500 --> 00:03:46,030 Większą część tego postępu zawdzięczamy metodzie 64 00:03:46,030 --> 00:03:47,996 zwanej "samouczeniem maszyn". 65 00:03:48,470 --> 00:03:51,422 Samouczenie maszyn różni się od klasycznego programowania, 66 00:03:51,422 --> 00:03:54,782 w którym wydaje się komputerowi dokładną i szczegółową instrunkcję. 67 00:03:55,056 --> 00:03:59,245 Polega bardziej na wprowadzaniu dużej ilości danych do systemu, 68 00:03:59,245 --> 00:04:02,965 również danych przypadkowych, takich jakie generujemy w sieci. 69 00:04:03,154 --> 00:04:06,364 System uczy się, przedzierając się przez te dane. 70 00:04:06,554 --> 00:04:09,647 Najistotniejszy jest fakt, że te systemy 71 00:04:09,837 --> 00:04:12,585 nie pracują zgodnie z logiką jednoznacznych odpowiedzi. 72 00:04:12,585 --> 00:04:15,875 Nie dają prostej odpowiedzi, tylko określają prawdopodobieństwo: 73 00:04:15,875 --> 00:04:19,112 "To jest być może bardziej podobne, do tego czego szukasz". 74 00:04:20,112 --> 00:04:22,676 Plusem jest to, że ta metoda ma bardzo duży potencjał. 75 00:04:22,676 --> 00:04:25,106 Szef systemów sztucznej inteligencji Google 76 00:04:25,106 --> 00:04:28,061 nazwał tę metodę "nieuzasadnioną skutecznością danych". 77 00:04:28,422 --> 00:04:32,372 Minusem jest to, że nie rozumiemy, czego nauczył się system 78 00:04:32,528 --> 00:04:34,308 i to właśnie stanowi jego siłę. 79 00:04:34,507 --> 00:04:38,357 To nie przypomina wydawania instrukcji komputerowi. 80 00:04:38,747 --> 00:04:42,982 Przypomina raczej trenowanie mechanicznego szczeniaczka, 81 00:04:43,136 --> 00:04:46,126 którego nie rozumiemy i nie potrafimy kontrolować. 82 00:04:46,629 --> 00:04:47,949 I to jest problem. 83 00:04:48,718 --> 00:04:51,938 Problem pojawia się, gdy ta sztuczna inteligencja się myli. 84 00:04:52,094 --> 00:04:55,986 Problem pojawia się również wtedy, gdy ma rację, 85 00:04:56,216 --> 00:04:59,516 ponieważ nie umiemy tego rozróżnić w przypadku subiektywnej kwestii. 86 00:04:59,935 --> 00:05:02,285 Nie mamy pojęcia, co ten system sobie myśli. 87 00:05:03,468 --> 00:05:07,748 Rozważmy algorytm odpowiedzialny za rekrutację pracowników. 88 00:05:08,377 --> 00:05:12,347 Algorytm rekrutujący oparty na metodzie samouczenia się maszyn. 89 00:05:13,197 --> 00:05:16,827 Taki system byłby oparty na danych pracowników danej firmy 90 00:05:17,047 --> 00:05:21,965 i miałby zatrudniać ludzi o takim profilu jak obecni najwydajniejsi pracownicy. 91 00:05:22,384 --> 00:05:23,714 Brzmi nieźle. 92 00:05:23,975 --> 00:05:27,503 Byłam raz na konferencji, na której obecne były także osoby 93 00:05:27,633 --> 00:05:31,733 zajmujące się rekrutacją, managerowie i dyrektorzy używający takich systemów. 94 00:05:31,733 --> 00:05:33,683 Wszyscy byli zachwyceni. 95 00:05:33,683 --> 00:05:36,942 Sądzili, że dzięki temu zatrudnianie stanie się bardziej obiektywne, 96 00:05:36,942 --> 00:05:40,907 mniej tendencyjne i gwarantujące kobietom i przedstawicielom mniejszości 97 00:05:40,907 --> 00:05:44,121 większe szanse zatrudnienia wobec tendencyjnych decyzji managerów. 98 00:05:44,121 --> 00:05:47,326 Ludzkie decyzje dotyczące zatrudnienia są stronnicze. 99 00:05:47,326 --> 00:05:52,236 W jednej z moich pierwszych prac, moja bezpośrednia przełożona 100 00:05:52,359 --> 00:05:56,189 czasem przychodziła do mnie bardzo wcześnie rano 101 00:05:56,310 --> 00:06:01,560 lub bardzo późnym popołudniem i mówiła: "Chodźmy na lunch!". 102 00:06:01,939 --> 00:06:05,989 Byłam zaskoczona dziwną porą, 103 00:06:06,274 --> 00:06:10,524 ale byłam też spłukana, więc zawsze się zgadzałam. 104 00:06:10,655 --> 00:06:13,315 Później zorientowałam się o co chodziło. 105 00:06:13,415 --> 00:06:16,955 Moi bezpośredni przełożeni nie przyznali się swoim szefom, 106 00:06:17,134 --> 00:06:21,234 że do poważnej roboty zatrudnili programistę-nastolatkę, 107 00:06:22,253 --> 00:06:24,823 noszącą jeansy i trampki do pracy. 108 00:06:24,880 --> 00:06:27,180 Robiłam dobrą robotę, ale wyglądałam nie tak, 109 00:06:27,280 --> 00:06:29,780 byłam w nieodpowiednim wieku i nieodpowiedniej płci. 110 00:06:29,780 --> 00:06:33,277 Popieram zatrudnianie bez uwzględniania płci czy rasy. 111 00:06:34,686 --> 00:06:38,046 Ale w przypadku tych systemów to wszystko jest bardziej skomplikowane. 112 00:06:38,902 --> 00:06:42,662 Obecnie, te systemy mogą wyciągnąć wiele wniosków 113 00:06:43,012 --> 00:06:46,682 na podstawie strzępów elektronicznej informacji, 114 00:06:46,853 --> 00:06:49,273 nawet jeśli te informacje nie są jawne. 115 00:06:49,397 --> 00:06:52,717 Mogą wnioskować na temat orientacji seksualnej, 116 00:06:53,256 --> 00:06:56,396 cech osobowości, przekonań politycznych. 117 00:06:56,931 --> 00:07:00,311 Te przewidywania są niezwykle trafne. 118 00:07:01,489 --> 00:07:05,169 Pamiętajcie - te przewidywania dotyczą spraw, których nawet nie ujawniliście. 119 00:07:05,539 --> 00:07:08,583 Moja przyjaciółka stworzyła system tego rodzaju, aby przewidywać 120 00:07:08,583 --> 00:07:11,794 prawdopodobieństwo zapadnięcia na depresję kliniczną lub poporodową 121 00:07:11,794 --> 00:07:14,804 na podstawie danych zaczerpniętych z serwisów społecznościowych. 122 00:07:14,804 --> 00:07:16,254 Wyniki są imponujące. 123 00:07:16,254 --> 00:07:18,864 Jej system potrafi przewidzieć prawdopodobieństwo 124 00:07:18,864 --> 00:07:23,384 wystąpienia depresji miesiące przed wystąpieniem jakichkolwiek objawów. 125 00:07:23,691 --> 00:07:26,701 Miesiące przed. Nie ma objawów, jest przewidywanie. 126 00:07:27,514 --> 00:07:31,184 Moja przyjaciółka ma nadzieję, że system posłuży wczesnemu leczeniu. 127 00:07:31,489 --> 00:07:32,669 Wspaniale. 128 00:07:32,908 --> 00:07:35,418 Ale spójrzmy na to w kontekście zatrudniania. 129 00:07:35,566 --> 00:07:41,636 Na tamtej konferencji podeszłam do jednej wysokopostawionej managerki 130 00:07:41,747 --> 00:07:44,607 pracującej dla jednej z wielkich firm i powiedziałam: 131 00:07:44,670 --> 00:07:50,030 "Co jeśli twój system za twoimi plecami wyklucza osoby 132 00:07:50,242 --> 00:07:54,792 o większym prawdopodobieństwie zachorowania na depresję? 133 00:07:54,977 --> 00:07:59,537 Nie mają depresji teraz, ale być może w przyszłości. 134 00:07:59,798 --> 00:08:03,988 Co jeśli wyklucza kobiety, które prawdopodobnie za rok lub dwa 135 00:08:04,120 --> 00:08:06,710 mogą być w ciąży, ale teraz nie są? 136 00:08:07,585 --> 00:08:09,712 Co jeśli zatrudnia osoby agresywne, 137 00:08:09,712 --> 00:08:12,712 bo to odpowiada kulturze pracy w waszej firmie?". 138 00:08:12,712 --> 00:08:15,522 Nie można tego stwierdzić patrząc na zestawienia pracowników 139 00:08:15,522 --> 00:08:17,695 pod względem płci; te mogą się równoważyć. 140 00:08:17,695 --> 00:08:20,765 Ponieważ to jest uczenie maszynowe a nie klasyczne programowanie, 141 00:08:20,765 --> 00:08:28,725 nie ma zmiennych podpisanych: "depresja" "ciąża" lub "wysoki poziom agresji". 142 00:08:29,363 --> 00:08:33,076 Nie znasz kryteriów, na podstawie których twój system dokonuje wyboru. 143 00:08:33,368 --> 00:08:35,778 Nie wiesz nawet gdzie zacząć ich szukać. 144 00:08:35,954 --> 00:08:37,954 To jest technologia czarnej skrzynki. 145 00:08:38,094 --> 00:08:40,514 Potrafi przewidywać, ale nie rozumiesz jak działa. 146 00:08:40,677 --> 00:08:43,712 "Jakie masz zabezpieczenia, żeby upewnić się, 147 00:08:43,712 --> 00:08:46,552 że twoja czarna skrzynka nie robi czegoś podejrzanego?" 148 00:08:47,186 --> 00:08:52,216 Spojrzała na mnie jakbym nadepnęła na ogon szczeniaczkowi. 149 00:08:52,340 --> 00:08:53,820 (Śmiech) 150 00:08:53,934 --> 00:09:00,654 Popatrzyła na mnie i powiedziała: "Ani słowa więcej". 151 00:09:01,255 --> 00:09:03,695 Odwróciła się i odeszła. 152 00:09:03,695 --> 00:09:05,364 Uwaga - nie była niegrzeczna. 153 00:09:05,364 --> 00:09:07,174 Ewidentnie chciała powiedzieć: 154 00:09:07,174 --> 00:09:09,964 "Jeśli o czymś nie wiem, to nie jest mój problem, odejdź". 155 00:09:09,964 --> 00:09:12,052 Na odchodne rzuciła mordercze spojrzenie. 156 00:09:13,251 --> 00:09:14,141 (Śmiech) 157 00:09:14,562 --> 00:09:18,822 Takie systemy mogą być mniej stronnicze niż managerowie. 158 00:09:19,602 --> 00:09:22,532 Mogą być również opłacalne. 159 00:09:22,686 --> 00:09:27,186 Ale mogą też prowadzić do stopniowego i niepostrzeżonego zamykania 160 00:09:27,299 --> 00:09:30,909 rynku pracy dla osób z większym ryzykiem zachorowań na depresję. 161 00:09:31,309 --> 00:09:36,449 Czy takie społeczeństwo chcemy budować, nie wiedząc nawet o tym, że to robimy, 162 00:09:36,449 --> 00:09:39,236 bo powierzamy proces decyzyjny systemom, 163 00:09:39,236 --> 00:09:41,406 których do końca nie rozumiemy? 164 00:09:41,500 --> 00:09:49,810 Kolejny problem: te systemy pracują na danych opartych na ludzkich działaniach 165 00:09:50,372 --> 00:09:53,752 Mogą po prostu odzwierciedlać nasze własne uprzedzenia, 166 00:09:53,867 --> 00:09:58,017 wzmacniać je i zwracać w postaci wyniku, 167 00:09:58,348 --> 00:10:03,778 który będziemy interpretować jako obiektywne i neutralne obliczenia. 168 00:10:05,944 --> 00:10:09,144 Udowodniono, że wyszukiwarka Google 169 00:10:09,255 --> 00:10:15,855 rzadziej pokazuje kobietom dobrze płatne oferty pracy. 170 00:10:16,121 --> 00:10:20,121 A wyszukiwanie afroamerykańskich nazwisk 171 00:10:20,251 --> 00:10:24,431 jest skorelowane z ogłoszeniami sugerującymi kryminalną przeszłość, 172 00:10:24,592 --> 00:10:26,532 nawet jeśli takowej nie ma. 173 00:10:26,765 --> 00:10:29,865 Tego typu ukryte uprzedzenia i algorytmy typu czarnej skrzynki, 174 00:10:29,865 --> 00:10:33,828 które czasem odkrywamy, a czasem nie, 175 00:10:34,069 --> 00:10:36,729 mogą diametralnie wpływać na ludzkie życie. 176 00:10:37,912 --> 00:10:44,252 Pewien pozwany został skazany na 6 lat więzienia za ucieczkę przed policją. 177 00:10:44,820 --> 00:10:49,390 Algorytmy są coraz częściej stosowane przy wydawaniu wyroków. 178 00:10:49,887 --> 00:10:52,897 Mężczyzna chciał wiedzieć, jak ten wynik jest obliczany. 179 00:10:53,448 --> 00:10:55,877 Używano komercyjnej czarnej skrzynki. 180 00:10:55,877 --> 00:10:57,547 Firma, która ją sprzedaje, 181 00:10:57,547 --> 00:11:00,738 sprzeciwiła się zweryfikowaniu algorytmu podczas otwartej rozprawy. 182 00:11:00,738 --> 00:11:05,418 Śledcza organizacja non-profit, ProPublica, zweryfikowała ten algorytm 183 00:11:05,427 --> 00:11:08,665 na podstawie publicznie dostępnych danych i dowiodła, 184 00:11:08,665 --> 00:11:11,633 że generowane przez niego wyniki były stronnicze, 185 00:11:11,633 --> 00:11:14,683 a jego moc przewidywania niewielka, niewiele lepsza od losowej, 186 00:11:14,683 --> 00:11:17,733 a algorytm bezzasadnie wskazywał czarnoskórych oskarżonych 187 00:11:17,733 --> 00:11:22,527 jako możliwych przyszłych przestępców dwukrotnie częściej niż białych. 188 00:11:23,355 --> 00:11:31,395 Kolejna sprawa: ta kobieta była spóźniona po odbiór chrześnicy ze szkoły. 189 00:11:32,278 --> 00:11:36,288 Biegła ulicą w towarzystwie przyjaciela i na jednym z ganków zauważyli 190 00:11:36,408 --> 00:11:40,353 niezapięty rowerek dziecięcy i hulajnogę, na które bezmyślnie wskoczyli. 191 00:11:40,433 --> 00:11:44,703 Gdy odjeżdżali, z domu wybiegła kobieta krzycząc: "To rowerek mojego dziecka!". 192 00:11:45,040 --> 00:11:48,723 Zostawili rower i hulajnogę i odeszli, ale zostali aresztowani. 193 00:11:48,723 --> 00:11:52,283 Dziewczyna postąpiła głupio i źle, ale miała tylko 18 lat. 194 00:11:52,501 --> 00:11:55,591 Miała już na koncie kilka młodzieńczych wykroczeń. 195 00:11:57,156 --> 00:12:02,474 W tym samym czasie aresztowano mężczyznę za kradzież towarów o wartości 85 dolarów, 196 00:12:02,474 --> 00:12:04,448 równie niewielkie wykroczenie. 197 00:12:04,448 --> 00:12:09,248 Ale on już wcześniej był dwukrotnie skazany za napad z bronią. 198 00:12:09,807 --> 00:12:14,007 Algorytm przypisał jej większe ryzyko ponownego popełnienia przestępstwa. 199 00:12:14,229 --> 00:12:17,985 Dwa lata później, ProPublica odkryła, że kobieta nie popełniła więcej wykroczeń, 200 00:12:17,985 --> 00:12:21,245 miała tylko problemy ze znalezieniem pracy z taką historią wykroczeń. 201 00:12:21,664 --> 00:12:24,584 Mężczyzna natomiast odsiadywał ośmioletni wyrok 202 00:12:24,698 --> 00:12:27,728 za przestępstwo, którego dopuścił się ponownie. 203 00:12:27,728 --> 00:12:31,713 Jest jasne, że musimy dokonywać rewizji czarnych skrzynek 204 00:12:31,713 --> 00:12:34,553 i ograniczać ich niekontrolowaną władzę. 205 00:12:34,654 --> 00:12:37,404 (Brawa) 206 00:12:38,227 --> 00:12:41,617 Rewizje są dobre i potrzebne, ale nie rozwiążą wszystkich problemów. 207 00:12:41,915 --> 00:12:46,167 Spójrzmy na algorytm Facebooka, który nadaje wszystkiemu jakąś wagę 208 00:12:46,167 --> 00:12:50,287 i decyduje o tym, co powinniście zobaczyć 209 00:12:50,287 --> 00:12:52,857 spośród tego wszystkiego, co publikują wasi znajomi. 210 00:12:52,857 --> 00:12:55,487 Czy trzeba zobaczyć kolejne zdjęcie bobasa? 211 00:12:55,487 --> 00:12:56,437 (Śmiech) 212 00:12:56,437 --> 00:12:58,797 Ponury post jednego ze znajomych? 213 00:12:58,797 --> 00:13:01,087 Ważną i trudną informację? 214 00:13:01,087 --> 00:13:02,697 Nie ma jednej dobrej odpowiedzi. 215 00:13:02,697 --> 00:13:06,964 Facebook ocenia liczbę reakcji: komentarze, udostępnienia, polubienia. 216 00:13:07,195 --> 00:13:11,727 W sierpniu 2014 roku w Missouri wybuchł protest po śmierci 217 00:13:11,727 --> 00:13:18,115 afroamerykańskiego nastolatka zabitego przez białego policjanta 218 00:13:18,115 --> 00:13:20,045 w niejasnych okolicznościach. 219 00:13:20,045 --> 00:13:23,815 Wiadomości na ten temat zalały mój niefiltrowany profil na Tweeterze, 220 00:13:24,390 --> 00:13:26,830 ale nie było ich na moim Facebooku. 221 00:13:26,830 --> 00:13:29,272 Czyżby moi znajomi o tym nie rozmawiali? 222 00:13:29,272 --> 00:13:32,322 Zablokowałam algorytm Facebooka, co jest trudne, 223 00:13:32,322 --> 00:13:35,792 bo Facebook dąży do tego, żeby nas kontrolować 224 00:13:35,792 --> 00:13:38,852 i zobaczyłam, że przyjaciele rozmawiali o tej sprawie. 225 00:13:38,852 --> 00:13:42,062 Po prostu ja tego nie widziałam, bo Facebook mi tego nie pokazywał. 226 00:13:42,062 --> 00:13:44,572 Okazało się, że to rozległy problem. 227 00:13:44,702 --> 00:13:47,422 Ta historia nie była wysoko oceniona przez algorytm. 228 00:13:47,822 --> 00:13:49,542 Niełatwo ją "polubić". 229 00:13:51,601 --> 00:13:53,761 Nie jest nawet łatwo ją skomentować. 230 00:13:53,761 --> 00:13:56,991 Bez lajków i komentarzy algorytm prawdopodobnie pokazywał 231 00:13:56,991 --> 00:14:00,381 tę informację coraz mniejszej ilości osób i dlatego jej nie widzieliśmy. 232 00:14:00,655 --> 00:14:06,015 Równocześnie algorytm Facebooka wypromował Ice Bucket Challenge. 233 00:14:06,015 --> 00:14:10,385 Szlachetna sprawa: oblej się zimną wodą, ofiaruj pieniądze, super. 234 00:14:10,584 --> 00:14:13,144 To było wysoko ocenione przez algorytm. 235 00:14:13,323 --> 00:14:15,733 Maszyna podjęła za nas decyzję. 236 00:14:16,064 --> 00:14:20,234 Bardzo ważna lecz trudna dyskusja mogła zostać wyciszona, 237 00:14:20,635 --> 00:14:23,785 gdyby Facebook był jedynym medium. 238 00:14:23,933 --> 00:14:28,313 Te systemy mogą się też mylić w sposób, 239 00:14:28,484 --> 00:14:30,834 który nie przypomina ludzkich błędów. 240 00:14:31,063 --> 00:14:34,373 Pamiętacie Watsona, system sztucznej inteligencji IBM, 241 00:14:34,647 --> 00:14:37,177 który zmiażdżył uczestników konkursu wiedzy Jeopardy? 242 00:14:37,356 --> 00:14:38,716 To był świetny gracz. 243 00:14:38,856 --> 00:14:42,073 Ale w finałowym odcinku padło pytanie: 244 00:14:42,437 --> 00:14:45,435 "Największe lotnisko tego miasta nosi nazwę bohatera 245 00:14:45,435 --> 00:14:48,775 drugiej co do wielkości bitwy podczas II wojny światowej". 246 00:14:49,479 --> 00:14:50,539 Chicago. 247 00:14:50,539 --> 00:14:52,799 Dwóch uczestników-ludzi odpowiedziało poprawnie. 248 00:14:52,799 --> 00:14:58,419 Watson odpowiedział "Toronto" w kategorii dotyczącej miast w USA. 249 00:14:58,840 --> 00:15:02,380 Ten imponujący system zrobił błąd, 250 00:15:02,380 --> 00:15:05,780 którego żaden człowiek by nie popełnił, nawet drugoklasista. 251 00:15:06,019 --> 00:15:09,789 Sztuczna inteligencja może zawieść w sposób, 252 00:15:09,789 --> 00:15:13,119 który nie przypomina ludzkich pomyłek, 253 00:15:13,119 --> 00:15:16,359 którego się nie spodziewamy, i na który nie będziemy gotowi. 254 00:15:16,359 --> 00:15:19,519 Byłoby głupio nie dostać pracy, na którą się zasługuje, 255 00:15:19,519 --> 00:15:22,629 ale byłoby potrójnie beznadziejnie, gdyby to się stało 256 00:15:22,629 --> 00:15:24,969 z powodu nadmiaru danych w jakimś podprogramie. 257 00:15:24,969 --> 00:15:25,779 (Śmiech) 258 00:15:26,918 --> 00:15:30,728 W maju 2010 roku krach giełdy na Wall Street 259 00:15:30,728 --> 00:15:36,018 wzmocniony sprzężeniem zwrotnym algorytmu "sprzedaży" 260 00:15:36,018 --> 00:15:40,324 doprowadził do zniknięcia trylionów dolarów w 36 minut. 261 00:15:41,834 --> 00:15:45,674 Nie chcę nawet myśleć, co taka "pomyłka" oznaczałaby 262 00:15:45,674 --> 00:15:49,154 w przypadku automatycznej broni śmiercionośnej. 263 00:15:50,462 --> 00:15:53,182 Tak, ludzie są stronniczy. 264 00:15:53,654 --> 00:16:00,054 Ludzie podejmujący decyzje w sądach, mediach, na wojnie... popełniają błędy. 265 00:16:00,060 --> 00:16:01,830 Ale o tym właśnie mówię. 266 00:16:02,610 --> 00:16:05,783 Nie możemy uciec od tych trudnych kwestii. 267 00:16:05,783 --> 00:16:09,773 Nie możemy zrzucić naszej odpowiedzialności na maszyny. 268 00:16:11,308 --> 00:16:17,008 (Brawa) 269 00:16:17,182 --> 00:16:21,712 Sztuczna inteligencja nie zwalnia nas z myślenia etycznego. 270 00:16:22,136 --> 00:16:25,863 Fred Benenson, specjalista od danych, nazywał to "matematycznym praniem mózgu". 271 00:16:25,863 --> 00:16:27,504 Potrzebujemy czegoś odwrotnego. 272 00:16:27,504 --> 00:16:30,264 Musimy rozwijać w sobie sceptycyzm wobec algorytmów 273 00:16:30,264 --> 00:16:33,604 i daleko posuniętą ostrożność oraz dokładność w ich badaniu. 274 00:16:33,604 --> 00:16:36,566 Musimy mieć pewność, że mamy algorytmiczną odpowiedzialność, 275 00:16:36,566 --> 00:16:39,066 rewizję i sensowną przejrzystość. 276 00:16:39,241 --> 00:16:42,500 Musimy zaakceptować, że wprowadzenie matematyki i obliczeń 277 00:16:42,500 --> 00:16:45,950 do zawikłanych i wymagających wartościowania ludzkich spraw 278 00:16:45,950 --> 00:16:48,330 nie wprowadza obiektywizacji. 279 00:16:48,330 --> 00:16:50,540 Przeciwnie: komplikacja ludzkich spraw 280 00:16:50,540 --> 00:16:52,620 najedzie algorytmy. 281 00:16:52,620 --> 00:16:55,380 Można i trzeba korzystać z obliczeń, 282 00:16:55,380 --> 00:16:57,550 aby móc podejmować lepsze decyzje. 283 00:16:57,653 --> 00:17:01,153 Ale trzeba uznać moralną odpowiedzialność 284 00:17:01,153 --> 00:17:06,278 za podejmowanie decyzji i używać algorytmów w jej granicach, 285 00:17:06,278 --> 00:17:12,852 a nie jako środek do zrzeczenia się i odrzucenia tej odpowiedzialności. 286 00:17:14,019 --> 00:17:17,239 Sztuczna inteligencja jest faktem. 287 00:17:17,239 --> 00:17:21,686 To oznacza, że tym mocniej musimy trzymać się ludzkich wartości i etyki. 288 00:17:21,686 --> 00:17:22,828 Dziękuję 289 00:17:22,828 --> 00:17:27,468 (Brawa)