0:00:00.830,0:00:06.341 Zaczęłam pracować jako programistka[br]na pierwszym roku studiów, 0:00:06.531,0:00:08.551 jeszcze jako nastolatka. 0:00:08.831,0:00:12.341 Niedługo później zaczęłam pracować[br]dla firmy tworzącej oprogramowania. 0:00:12.745,0:00:17.315 Pewnego razu jeden z managerów[br]podszedł do mnie i wyszeptał: 0:00:17.743,0:00:21.013 "Czy on wie kiedy kłamię?". 0:00:21.510,0:00:24.260 Byliśmy sami w pokoju. 0:00:24.548,0:00:27.726 "Niby kto ma wiedzieć kiedy kłamiesz? 0:00:27.976,0:00:29.726 I dlaczego szepczemy?" 0:00:30.506,0:00:32.906 Manager wskazał na komputer. 0:00:33.268,0:00:36.258 "Czy on wie kiedy kłamię?" 0:00:37.731,0:00:41.781 Ten menadżer miał romans z recepcjonistką. 0:00:42.082,0:00:43.112 (Śmiech) 0:00:43.427,0:00:47.017 Byłam nastolatką,[br]więc odkrzyknęłam szeptem: 0:00:47.281,0:00:51.041 "Tak, komputer wie kiedy kłamiesz!". 0:00:51.286,0:00:52.656 (Śmiech) 0:00:53.078,0:00:55.998 Wtedy się z tego śmiałam,[br]ale teraz można śmiać się ze mnie. 0:00:55.998,0:00:59.776 Obecnie istnieją programy,[br]które potrafią ropoznawać 0:01:00.035,0:01:04.305 stany emocjonalne i kłamstwo[br]na podstawie zdjęć twarzy. 0:01:04.797,0:01:09.527 Spece od marketingu i organy rządowe[br]wyrażają zainteresowanie. 0:01:09.659,0:01:14.809 Zostałam programistką, bo od dziecka[br]uwielbiałam matematykę i naukę. 0:01:14.987,0:01:21.567 Dowiedziawszy się o broni jądrowej,[br]przejęłam się kwestią etyki w nauce. 0:01:21.760,0:01:23.110 Byłam w kropce. 0:01:23.516,0:01:29.186 Ze względu na sytuację rodzinną[br]musiałam jak najszybciej zacząć pracować. 0:01:29.674,0:01:34.034 Pomyślałam, że wybiorę dziedzinę,[br]w której łatwo znajdę pracę 0:01:34.433,0:01:38.073 i nie będę musiała myśleć[br]o zawiłych kwestiach etycznych. 0:01:38.817,0:01:40.497 Wybrałam informatykę. 0:01:40.713,0:01:41.813 (Śmiech) 0:01:42.105,0:01:44.475 Ha, ha, ha. Można się ze mnie nabijać. 0:01:44.909,0:01:49.829 Programiści tworzą platformy,[br]które kontrolują to, 0:01:50.096,0:01:52.556 co każdego dnia widzą miliardy ludzi. 0:01:52.753,0:01:56.963 Tworzą samochody, [br]mogące zdecydować, kogo przejechać. 0:01:57.167,0:02:02.657 Tworzą nawet broń mechaniczną,[br]która mogłaby być użyta w czasie wojny. 0:02:02.868,0:02:05.958 To są od początku do końca[br]kwestie etyczne. 0:02:07.081,0:02:09.391 Sztuczna inteligencja to rzeczywistość. 0:02:09.856,0:02:13.096 Korzystamy z obliczeń komputerowych[br]do podejmowania różnych decyzji, 0:02:13.227,0:02:14.981 również decyzji nowego rodzaju. 0:02:14.981,0:02:17.911 Próbujemy z pomocą komputerów, [br]uzyskać odpowiedzi na pytania, 0:02:17.911,0:02:20.421 na które nie ma jednej dobrej odpowiedzi, 0:02:20.421,0:02:23.520 które są subiektywne,[br]otwarte i wartościujące. 0:02:24.076,0:02:26.816 Pytamy: "Kogo powinno się zatrudnić? 0:02:27.096,0:02:30.226 Który i czyj post dana osoba[br]powinna zobaczyć? 0:02:30.430,0:02:33.460 Który skazaniec prawdopodobnie[br]popełni kolejne przestępstwo? 0:02:33.460,0:02:36.640 Jaka informacja lub film powinny być[br]zarekomendowane widowni?". 0:02:36.736,0:02:41.066 Używamy komputerów od lat,[br]ale to są kwestie innego rodzaju. 0:02:41.277,0:02:43.137 To jest historyczna zmiana, 0:02:43.472,0:02:48.532 bo nie możemy powiązać obliczeń[br]z tak subiektywnymi kwestiami, 0:02:48.826,0:02:51.531 w taki sam sposób gdy w grę wchodzi 0:02:51.641,0:02:55.301 latanie samolotami,[br]budowa mostów i wyprawy na Księżyc. 0:02:55.601,0:02:57.641 Czy samoloty są bezpieczniejsze? 0:02:57.991,0:02:59.551 Czy mosty chwieją się i walą? 0:02:59.752,0:03:06.032 Dla takich spraw mamy jasne standardy[br]i prawa natury, które wskazują drogę. 0:03:06.533,0:03:13.453 Nie mamy takich standardów dla decyzji[br]w pogmatwanych ludzkich sprawach. 0:03:14.321,0:03:17.691 Tymczasem, oprogramowanie[br]staje się coraz potężniejsze, 0:03:18.220,0:03:21.880 ale również coraz mniej[br]przejrzyste i bardziej złożone. 0:03:22.116,0:03:25.636 W ciągu ostatnich dziesięcioleci[br]skomplikowane algorytmy 0:03:25.755,0:03:27.912 dokonały milowego kroku do przodu. 0:03:27.912,0:03:29.892 Potrafią rozpoznawać twarze, 0:03:29.995,0:03:31.975 odczytywać odręczne pismo, 0:03:32.138,0:03:34.906 wykrywać kradzieże[br]na kartach kredytowych, 0:03:34.906,0:03:37.236 blokować spam, tłumaczyć teksty, 0:03:37.436,0:03:40.524 wykryć guz w obrazowaniu medycznym 0:03:40.524,0:03:42.804 i pokonać człowieka w szachy. 0:03:43.500,0:03:46.030 Większą część tego postępu[br]zawdzięczamy metodzie 0:03:46.030,0:03:47.996 zwanej "samouczeniem maszyn". 0:03:48.470,0:03:51.422 Samouczenie maszyn różni się[br]od klasycznego programowania, 0:03:51.422,0:03:54.782 w którym wydaje się komputerowi[br]dokładną i szczegółową instrunkcję. 0:03:55.056,0:03:59.245 Polega bardziej na wprowadzaniu[br]dużej ilości danych do systemu, 0:03:59.245,0:04:02.965 również danych przypadkowych,[br]takich jakie generujemy w sieci. 0:04:03.154,0:04:06.364 System uczy się,[br]przedzierając się przez te dane. 0:04:06.554,0:04:09.647 Najistotniejszy jest fakt, że te systemy 0:04:09.837,0:04:12.585 nie pracują zgodnie z logiką[br]jednoznacznych odpowiedzi. 0:04:12.585,0:04:15.875 Nie dają prostej odpowiedzi,[br]tylko określają prawdopodobieństwo: 0:04:15.875,0:04:19.112 "To jest być może bardziej podobne,[br]do tego czego szukasz". 0:04:20.112,0:04:22.676 Plusem jest to, że ta metoda[br]ma bardzo duży potencjał. 0:04:22.676,0:04:25.106 Szef systemów[br]sztucznej inteligencji Google 0:04:25.106,0:04:28.061 nazwał tę metodę[br]"nieuzasadnioną skutecznością danych". 0:04:28.422,0:04:32.372 Minusem jest to, że nie rozumiemy,[br]czego nauczył się system 0:04:32.528,0:04:34.308 i to właśnie stanowi jego siłę. 0:04:34.507,0:04:38.357 To nie przypomina[br]wydawania instrukcji komputerowi. 0:04:38.747,0:04:42.982 Przypomina raczej trenowanie[br]mechanicznego szczeniaczka, 0:04:43.136,0:04:46.126 którego nie rozumiemy[br]i nie potrafimy kontrolować. 0:04:46.629,0:04:47.949 I to jest problem. 0:04:48.718,0:04:51.938 Problem pojawia się,[br]gdy ta sztuczna inteligencja się myli. 0:04:52.094,0:04:55.986 Problem pojawia się[br]również wtedy, gdy ma rację, 0:04:56.216,0:04:59.516 ponieważ nie umiemy tego rozróżnić[br]w przypadku subiektywnej kwestii. 0:04:59.935,0:05:02.285 Nie mamy pojęcia,[br]co ten system sobie myśli. 0:05:03.468,0:05:07.748 Rozważmy algorytm odpowiedzialny[br]za rekrutację pracowników. 0:05:08.377,0:05:12.347 Algorytm rekrutujący oparty[br]na metodzie samouczenia się maszyn. 0:05:13.197,0:05:16.827 Taki system byłby oparty na danych[br]pracowników danej firmy 0:05:17.047,0:05:21.965 i miałby zatrudniać ludzi o takim profilu[br]jak obecni najwydajniejsi pracownicy. 0:05:22.384,0:05:23.714 Brzmi nieźle. 0:05:23.975,0:05:27.503 Byłam raz na konferencji,[br]na której obecne były także osoby 0:05:27.633,0:05:31.733 zajmujące się rekrutacją, managerowie[br]i dyrektorzy używający takich systemów. 0:05:31.733,0:05:33.683 Wszyscy byli zachwyceni. 0:05:33.683,0:05:36.942 Sądzili, że dzięki temu zatrudnianie[br]stanie się bardziej obiektywne, 0:05:36.942,0:05:40.907 mniej tendencyjne i gwarantujące kobietom[br]i przedstawicielom mniejszości 0:05:40.907,0:05:44.121 większe szanse zatrudnienia[br]wobec tendencyjnych decyzji managerów. 0:05:44.121,0:05:47.326 Ludzkie decyzje dotyczące[br]zatrudnienia są stronnicze. 0:05:47.326,0:05:52.236 W jednej z moich pierwszych prac,[br]moja bezpośrednia przełożona 0:05:52.359,0:05:56.189 czasem przychodziła do mnie[br]bardzo wcześnie rano 0:05:56.310,0:06:01.560 lub bardzo późnym popołudniem[br]i mówiła: "Chodźmy na lunch!". 0:06:01.939,0:06:05.989 Byłam zaskoczona dziwną porą, 0:06:06.274,0:06:10.524 ale byłam też spłukana,[br]więc zawsze się zgadzałam. 0:06:10.655,0:06:13.315 Później zorientowałam się o co chodziło. 0:06:13.415,0:06:16.955 Moi bezpośredni przełożeni[br]nie przyznali się swoim szefom, 0:06:17.134,0:06:21.234 że do poważnej roboty[br]zatrudnili programistę-nastolatkę, 0:06:22.253,0:06:24.823 noszącą jeansy i trampki do pracy. 0:06:24.880,0:06:27.180 Robiłam dobrą robotę,[br]ale wyglądałam nie tak, 0:06:27.280,0:06:29.780 byłam w nieodpowiednim wieku[br]i nieodpowiedniej płci. 0:06:29.780,0:06:33.277 Popieram zatrudnianie [br]bez uwzględniania płci czy rasy. 0:06:34.686,0:06:38.046 Ale w przypadku tych systemów[br]to wszystko jest bardziej skomplikowane. 0:06:38.902,0:06:42.662 Obecnie, te systemy mogą[br]wyciągnąć wiele wniosków 0:06:43.012,0:06:46.682 na podstawie strzępów[br]elektronicznej informacji, 0:06:46.853,0:06:49.273 nawet jeśli te informacje nie są jawne. 0:06:49.397,0:06:52.717 Mogą wnioskować na temat[br]orientacji seksualnej, 0:06:53.256,0:06:56.396 cech osobowości,[br]przekonań politycznych. 0:06:56.931,0:07:00.311 Te przewidywania są niezwykle trafne. 0:07:01.489,0:07:05.169 Pamiętajcie - te przewidywania dotyczą[br]spraw, których nawet nie ujawniliście. 0:07:05.539,0:07:08.583 Moja przyjaciółka stworzyła system[br]tego rodzaju, aby przewidywać 0:07:08.583,0:07:11.794 prawdopodobieństwo zapadnięcia na[br]depresję kliniczną lub poporodową 0:07:11.794,0:07:14.804 na podstawie danych zaczerpniętych[br]z serwisów społecznościowych. 0:07:14.804,0:07:16.254 Wyniki są imponujące. 0:07:16.254,0:07:18.864 Jej system potrafi[br]przewidzieć prawdopodobieństwo 0:07:18.864,0:07:23.384 wystąpienia depresji miesiące przed[br]wystąpieniem jakichkolwiek objawów. 0:07:23.691,0:07:26.701 Miesiące przed.[br]Nie ma objawów, jest przewidywanie. 0:07:27.514,0:07:31.184 Moja przyjaciółka ma nadzieję,[br]że system posłuży wczesnemu leczeniu. 0:07:31.489,0:07:32.669 Wspaniale. 0:07:32.908,0:07:35.418 Ale spójrzmy na to[br]w kontekście zatrudniania. 0:07:35.566,0:07:41.636 Na tamtej konferencji podeszłam[br]do jednej wysokopostawionej managerki 0:07:41.747,0:07:44.607 pracującej dla jednej z wielkich firm[br]i powiedziałam: 0:07:44.670,0:07:50.030 "Co jeśli twój system[br]za twoimi plecami wyklucza osoby 0:07:50.242,0:07:54.792 o większym prawdopodobieństwie[br]zachorowania na depresję? 0:07:54.977,0:07:59.537 Nie mają depresji teraz,[br]ale być może w przyszłości. 0:07:59.798,0:08:03.988 Co jeśli wyklucza kobiety, [br]które prawdopodobnie za rok lub dwa 0:08:04.120,0:08:06.710 mogą być w ciąży, ale teraz nie są? 0:08:07.585,0:08:09.712 Co jeśli zatrudnia osoby agresywne, 0:08:09.712,0:08:12.712 bo to odpowiada kulturze pracy [br]w waszej firmie?". 0:08:12.712,0:08:15.522 Nie można tego stwierdzić[br]patrząc na zestawienia pracowników 0:08:15.522,0:08:17.695 pod względem płci;[br]te mogą się równoważyć. 0:08:17.695,0:08:20.765 Ponieważ to jest uczenie maszynowe[br]a nie klasyczne programowanie, 0:08:20.765,0:08:28.725 nie ma zmiennych podpisanych: "depresja"[br]"ciąża" lub "wysoki poziom agresji". 0:08:29.363,0:08:33.076 Nie znasz kryteriów, na podstawie których[br]twój system dokonuje wyboru. 0:08:33.368,0:08:35.778 Nie wiesz nawet gdzie zacząć ich szukać. 0:08:35.954,0:08:37.954 To jest technologia czarnej skrzynki. 0:08:38.094,0:08:40.514 Potrafi przewidywać,[br]ale nie rozumiesz jak działa. 0:08:40.677,0:08:43.712 "Jakie masz zabezpieczenia,[br]żeby upewnić się, 0:08:43.712,0:08:46.552 że twoja czarna skrzynka[br]nie robi czegoś podejrzanego?" 0:08:47.186,0:08:52.216 Spojrzała na mnie jakbym[br]nadepnęła na ogon szczeniaczkowi. 0:08:52.340,0:08:53.820 (Śmiech) 0:08:53.934,0:09:00.654 Popatrzyła na mnie i powiedziała:[br]"Ani słowa więcej". 0:09:01.255,0:09:03.695 Odwróciła się i odeszła. 0:09:03.695,0:09:05.364 Uwaga - nie była niegrzeczna. 0:09:05.364,0:09:07.174 Ewidentnie chciała powiedzieć: 0:09:07.174,0:09:09.964 "Jeśli o czymś nie wiem,[br]to nie jest mój problem, odejdź". 0:09:09.964,0:09:12.052 Na odchodne rzuciła mordercze spojrzenie. 0:09:13.251,0:09:14.141 (Śmiech) 0:09:14.562,0:09:18.822 Takie systemy mogą być mniej[br]stronnicze niż managerowie. 0:09:19.602,0:09:22.532 Mogą być również opłacalne. 0:09:22.686,0:09:27.186 Ale mogą też prowadzić do stopniowego[br]i niepostrzeżonego zamykania 0:09:27.299,0:09:30.909 rynku pracy dla osób z większym[br]ryzykiem zachorowań na depresję. 0:09:31.309,0:09:36.449 Czy takie społeczeństwo chcemy budować,[br]nie wiedząc nawet o tym, że to robimy, 0:09:36.449,0:09:39.236 bo powierzamy proces decyzyjny systemom, 0:09:39.236,0:09:41.406 których do końca nie rozumiemy? 0:09:41.500,0:09:49.810 Kolejny problem: te systemy pracują[br]na danych opartych na ludzkich działaniach 0:09:50.372,0:09:53.752 Mogą po prostu odzwierciedlać[br]nasze własne uprzedzenia, 0:09:53.867,0:09:58.017 wzmacniać je i zwracać w postaci wyniku, 0:09:58.348,0:10:03.778 który będziemy interpretować jako[br]obiektywne i neutralne obliczenia. 0:10:05.944,0:10:09.144 Udowodniono, że wyszukiwarka Google 0:10:09.255,0:10:15.855 rzadziej pokazuje kobietom[br]dobrze płatne oferty pracy. 0:10:16.121,0:10:20.121 A wyszukiwanie afroamerykańskich nazwisk 0:10:20.251,0:10:24.431 jest skorelowane z ogłoszeniami[br]sugerującymi kryminalną przeszłość, 0:10:24.592,0:10:26.532 nawet jeśli takowej nie ma. 0:10:26.765,0:10:29.865 Tego typu ukryte uprzedzenia[br]i algorytmy typu czarnej skrzynki, 0:10:29.865,0:10:33.828 które czasem odkrywamy, a czasem nie, 0:10:34.069,0:10:36.729 mogą diametralnie wpływać [br]na ludzkie życie. 0:10:37.912,0:10:44.252 Pewien pozwany został skazany na 6 lat[br]więzienia za ucieczkę przed policją. 0:10:44.820,0:10:49.390 Algorytmy są coraz częściej stosowane[br]przy wydawaniu wyroków. 0:10:49.887,0:10:52.897 Mężczyzna chciał wiedzieć,[br]jak ten wynik jest obliczany. 0:10:53.448,0:10:55.877 Używano komercyjnej czarnej skrzynki. 0:10:55.877,0:10:57.547 Firma, która ją sprzedaje, 0:10:57.547,0:11:00.738 sprzeciwiła się zweryfikowaniu[br]algorytmu podczas otwartej rozprawy. 0:11:00.738,0:11:05.418 Śledcza organizacja non-profit,[br]ProPublica, zweryfikowała ten algorytm 0:11:05.427,0:11:08.665 na podstawie publicznie[br]dostępnych danych i dowiodła, 0:11:08.665,0:11:11.633 że generowane przez niego wyniki[br]były stronnicze, 0:11:11.633,0:11:14.683 a jego moc przewidywania niewielka,[br]niewiele lepsza od losowej, 0:11:14.683,0:11:17.733 a algorytm bezzasadnie wskazywał[br]czarnoskórych oskarżonych 0:11:17.733,0:11:22.527 jako możliwych przyszłych przestępców[br]dwukrotnie częściej niż białych. 0:11:23.355,0:11:31.395 Kolejna sprawa: ta kobieta była spóźniona[br]po odbiór chrześnicy ze szkoły. 0:11:32.278,0:11:36.288 Biegła ulicą w towarzystwie przyjaciela[br]i na jednym z ganków zauważyli 0:11:36.408,0:11:40.353 niezapięty rowerek dziecięcy i hulajnogę,[br]na które bezmyślnie wskoczyli. 0:11:40.433,0:11:44.703 Gdy odjeżdżali, z domu wybiegła kobieta[br]krzycząc: "To rowerek mojego dziecka!". 0:11:45.040,0:11:48.723 Zostawili rower i hulajnogę i odeszli,[br]ale zostali aresztowani. 0:11:48.723,0:11:52.283 Dziewczyna postąpiła głupio i źle,[br]ale miała tylko 18 lat. 0:11:52.501,0:11:55.591 Miała już na koncie[br]kilka młodzieńczych wykroczeń. 0:11:57.156,0:12:02.474 W tym samym czasie aresztowano mężczyznę[br]za kradzież towarów o wartości 85 dolarów, 0:12:02.474,0:12:04.448 równie niewielkie wykroczenie. 0:12:04.448,0:12:09.248 Ale on już wcześniej był[br]dwukrotnie skazany za napad z bronią. 0:12:09.807,0:12:14.007 Algorytm przypisał jej większe ryzyko[br]ponownego popełnienia przestępstwa. 0:12:14.229,0:12:17.985 Dwa lata później, ProPublica odkryła,[br]że kobieta nie popełniła więcej wykroczeń, 0:12:17.985,0:12:21.245 miała tylko problemy ze znalezieniem[br]pracy z taką historią wykroczeń. 0:12:21.664,0:12:24.584 Mężczyzna natomiast[br]odsiadywał ośmioletni wyrok 0:12:24.698,0:12:27.728 za przestępstwo,[br]którego dopuścił się ponownie. 0:12:27.728,0:12:31.713 Jest jasne, że musimy[br]dokonywać rewizji czarnych skrzynek 0:12:31.713,0:12:34.553 i ograniczać ich niekontrolowaną władzę. 0:12:34.654,0:12:37.404 (Brawa) 0:12:38.227,0:12:41.617 Rewizje są dobre i potrzebne,[br]ale nie rozwiążą wszystkich problemów. 0:12:41.915,0:12:46.167 Spójrzmy na algorytm Facebooka,[br]który nadaje wszystkiemu jakąś wagę 0:12:46.167,0:12:50.287 i decyduje o tym, co powinniście zobaczyć 0:12:50.287,0:12:52.857 spośród tego wszystkiego,[br]co publikują wasi znajomi. 0:12:52.857,0:12:55.487 Czy trzeba zobaczyć[br]kolejne zdjęcie bobasa? 0:12:55.487,0:12:56.437 (Śmiech) 0:12:56.437,0:12:58.797 Ponury post jednego ze znajomych? 0:12:58.797,0:13:01.087 Ważną i trudną informację? 0:13:01.087,0:13:02.697 Nie ma jednej dobrej odpowiedzi. 0:13:02.697,0:13:06.964 Facebook ocenia liczbę reakcji:[br]komentarze, udostępnienia, polubienia. 0:13:07.195,0:13:11.727 W sierpniu 2014 roku w Missouri[br]wybuchł protest po śmierci 0:13:11.727,0:13:18.115 afroamerykańskiego nastolatka[br]zabitego przez białego policjanta 0:13:18.115,0:13:20.045 w niejasnych okolicznościach. 0:13:20.045,0:13:23.815 Wiadomości na ten temat zalały[br]mój niefiltrowany profil na Tweeterze, 0:13:24.390,0:13:26.830 ale nie było ich na moim Facebooku. 0:13:26.830,0:13:29.272 Czyżby moi znajomi o tym nie rozmawiali? 0:13:29.272,0:13:32.322 Zablokowałam algorytm Facebooka,[br]co jest trudne, 0:13:32.322,0:13:35.792 bo Facebook dąży do tego,[br]żeby nas kontrolować 0:13:35.792,0:13:38.852 i zobaczyłam, że przyjaciele[br]rozmawiali o tej sprawie. 0:13:38.852,0:13:42.062 Po prostu ja tego nie widziałam,[br]bo Facebook mi tego nie pokazywał. 0:13:42.062,0:13:44.572 Okazało się, że to rozległy problem. 0:13:44.702,0:13:47.422 Ta historia nie była[br]wysoko oceniona przez algorytm. 0:13:47.822,0:13:49.542 Niełatwo ją "polubić". 0:13:51.601,0:13:53.761 Nie jest nawet łatwo ją skomentować. 0:13:53.761,0:13:56.991 Bez lajków i komentarzy algorytm[br]prawdopodobnie pokazywał 0:13:56.991,0:14:00.381 tę informację coraz mniejszej ilości osób[br]i dlatego jej nie widzieliśmy. 0:14:00.655,0:14:06.015 Równocześnie algorytm Facebooka[br]wypromował Ice Bucket Challenge. 0:14:06.015,0:14:10.385 Szlachetna sprawa: oblej się zimną wodą,[br]ofiaruj pieniądze, super. 0:14:10.584,0:14:13.144 To było wysoko ocenione przez algorytm. 0:14:13.323,0:14:15.733 Maszyna podjęła za nas decyzję. 0:14:16.064,0:14:20.234 Bardzo ważna lecz trudna dyskusja[br]mogła zostać wyciszona, 0:14:20.635,0:14:23.785 gdyby Facebook był jedynym medium. 0:14:23.933,0:14:28.313 Te systemy mogą się też mylić w sposób, 0:14:28.484,0:14:30.834 który nie przypomina ludzkich błędów. 0:14:31.063,0:14:34.373 Pamiętacie Watsona,[br]system sztucznej inteligencji IBM, 0:14:34.647,0:14:37.177 który zmiażdżył uczestników[br]konkursu wiedzy Jeopardy? 0:14:37.356,0:14:38.716 To był świetny gracz. 0:14:38.856,0:14:42.073 Ale w finałowym odcinku padło pytanie: 0:14:42.437,0:14:45.435 "Największe lotnisko tego miasta[br]nosi nazwę bohatera 0:14:45.435,0:14:48.775 drugiej co do wielkości bitwy[br]podczas II wojny światowej". 0:14:49.479,0:14:50.539 Chicago. 0:14:50.539,0:14:52.799 Dwóch uczestników-ludzi[br]odpowiedziało poprawnie. 0:14:52.799,0:14:58.419 Watson odpowiedział "Toronto"[br]w kategorii dotyczącej miast w USA. 0:14:58.840,0:15:02.380 Ten imponujący system zrobił błąd, 0:15:02.380,0:15:05.780 którego żaden człowiek by nie popełnił,[br]nawet drugoklasista. 0:15:06.019,0:15:09.789 Sztuczna inteligencja[br]może zawieść w sposób, 0:15:09.789,0:15:13.119 który nie przypomina ludzkich pomyłek, 0:15:13.119,0:15:16.359 którego się nie spodziewamy,[br]i na który nie będziemy gotowi. 0:15:16.359,0:15:19.519 Byłoby głupio nie dostać pracy,[br]na którą się zasługuje, 0:15:19.519,0:15:22.629 ale byłoby potrójnie beznadziejnie,[br]gdyby to się stało 0:15:22.629,0:15:24.969 z powodu nadmiaru danych[br]w jakimś podprogramie. 0:15:24.969,0:15:25.779 (Śmiech) 0:15:26.918,0:15:30.728 W maju 2010 roku[br]krach giełdy na Wall Street 0:15:30.728,0:15:36.018 wzmocniony sprzężeniem[br]zwrotnym algorytmu "sprzedaży" 0:15:36.018,0:15:40.324 doprowadził do zniknięcia[br]trylionów dolarów w 36 minut. 0:15:41.834,0:15:45.674 Nie chcę nawet myśleć,[br]co taka "pomyłka" oznaczałaby 0:15:45.674,0:15:49.154 w przypadku automatycznej[br]broni śmiercionośnej. 0:15:50.462,0:15:53.182 Tak, ludzie są stronniczy. 0:15:53.654,0:16:00.054 Ludzie podejmujący decyzje w sądach,[br]mediach, na wojnie... popełniają błędy. 0:16:00.060,0:16:01.830 Ale o tym właśnie mówię. 0:16:02.610,0:16:05.783 Nie możemy uciec od tych trudnych kwestii. 0:16:05.783,0:16:09.773 Nie możemy zrzucić naszej[br]odpowiedzialności na maszyny. 0:16:11.308,0:16:17.008 (Brawa) 0:16:17.182,0:16:21.712 Sztuczna inteligencja[br]nie zwalnia nas z myślenia etycznego. 0:16:22.136,0:16:25.863 Fred Benenson, specjalista od danych,[br]nazywał to "matematycznym praniem mózgu". 0:16:25.863,0:16:27.504 Potrzebujemy czegoś odwrotnego. 0:16:27.504,0:16:30.264 Musimy rozwijać w sobie[br]sceptycyzm wobec algorytmów 0:16:30.264,0:16:33.604 i daleko posuniętą ostrożność[br]oraz dokładność w ich badaniu. 0:16:33.604,0:16:36.566 Musimy mieć pewność, że mamy[br]algorytmiczną odpowiedzialność, 0:16:36.566,0:16:39.066 rewizję i sensowną przejrzystość. 0:16:39.241,0:16:42.500 Musimy zaakceptować, [br]że wprowadzenie matematyki i obliczeń 0:16:42.500,0:16:45.950 do zawikłanych i wymagających[br]wartościowania ludzkich spraw 0:16:45.950,0:16:48.330 nie wprowadza obiektywizacji. 0:16:48.330,0:16:50.540 Przeciwnie: komplikacja ludzkich spraw 0:16:50.540,0:16:52.620 najedzie algorytmy. 0:16:52.620,0:16:55.380 Można i trzeba korzystać z obliczeń, 0:16:55.380,0:16:57.550 aby móc podejmować lepsze decyzje. 0:16:57.653,0:17:01.153 Ale trzeba uznać moralną odpowiedzialność 0:17:01.153,0:17:06.278 za podejmowanie decyzji[br]i używać algorytmów w jej granicach, 0:17:06.278,0:17:12.852 a nie jako środek do zrzeczenia się[br]i odrzucenia tej odpowiedzialności. 0:17:14.019,0:17:17.239 Sztuczna inteligencja jest faktem. 0:17:17.239,0:17:21.686 To oznacza, że tym mocniej musimy[br]trzymać się ludzkich wartości i etyki. 0:17:21.686,0:17:22.828 Dziękuję 0:17:22.828,0:17:27.468 (Brawa)