Return to Video

Sztuczna inteligencja podkreśla wagę ludzkiej moralności

  • 0:01 - 0:06
    Zaczęłam pracować jako programistka
    na pierwszym roku studiów,
  • 0:07 - 0:09
    jeszcze jako nastolatka.
  • 0:09 - 0:12
    Niedługo później zaczęłam pracować
    dla firmy tworzącej oprogramowania.
  • 0:13 - 0:17
    Pewnego razu jeden z managerów
    podszedł do mnie i wyszeptał:
  • 0:18 - 0:21
    "Czy on wie kiedy kłamię?".
  • 0:22 - 0:24
    Byliśmy sami w pokoju.
  • 0:25 - 0:28
    "Niby kto ma wiedzieć kiedy kłamiesz?
  • 0:28 - 0:30
    I dlaczego szepczemy?"
  • 0:31 - 0:33
    Manager wskazał na komputer.
  • 0:33 - 0:36
    "Czy on wie kiedy kłamię?"
  • 0:38 - 0:42
    Ten menadżer miał romans z recepcjonistką.
  • 0:42 - 0:43
    (Śmiech)
  • 0:43 - 0:47
    Byłam nastolatką,
    więc odkrzyknęłam szeptem:
  • 0:47 - 0:51
    "Tak, komputer wie kiedy kłamiesz!".
  • 0:51 - 0:53
    (Śmiech)
  • 0:53 - 0:56
    Wtedy się z tego śmiałam,
    ale teraz można śmiać się ze mnie.
  • 0:56 - 1:00
    Obecnie istnieją programy,
    które potrafią ropoznawać
  • 1:00 - 1:04
    stany emocjonalne i kłamstwo
    na podstawie zdjęć twarzy.
  • 1:05 - 1:10
    Spece od marketingu i organy rządowe
    wyrażają zainteresowanie.
  • 1:10 - 1:15
    Zostałam programistką, bo od dziecka
    uwielbiałam matematykę i naukę.
  • 1:15 - 1:22
    Dowiedziawszy się o broni jądrowej,
    przejęłam się kwestią etyki w nauce.
  • 1:22 - 1:23
    Byłam w kropce.
  • 1:24 - 1:29
    Ze względu na sytuację rodzinną
    musiałam jak najszybciej zacząć pracować.
  • 1:30 - 1:34
    Pomyślałam, że wybiorę dziedzinę,
    w której łatwo znajdę pracę
  • 1:34 - 1:38
    i nie będę musiała myśleć
    o zawiłych kwestiach etycznych.
  • 1:39 - 1:40
    Wybrałam informatykę.
  • 1:41 - 1:42
    (Śmiech)
  • 1:42 - 1:44
    Ha, ha, ha. Można się ze mnie nabijać.
  • 1:45 - 1:50
    Programiści tworzą platformy,
    które kontrolują to,
  • 1:50 - 1:53
    co każdego dnia widzą miliardy ludzi.
  • 1:53 - 1:57
    Tworzą samochody,
    mogące zdecydować, kogo przejechać.
  • 1:57 - 2:03
    Tworzą nawet broń mechaniczną,
    która mogłaby być użyta w czasie wojny.
  • 2:03 - 2:06
    To są od początku do końca
    kwestie etyczne.
  • 2:07 - 2:09
    Sztuczna inteligencja to rzeczywistość.
  • 2:10 - 2:13
    Korzystamy z obliczeń komputerowych
    do podejmowania różnych decyzji,
  • 2:13 - 2:15
    również decyzji nowego rodzaju.
  • 2:15 - 2:18
    Próbujemy z pomocą komputerów,
    uzyskać odpowiedzi na pytania,
  • 2:18 - 2:20
    na które nie ma jednej dobrej odpowiedzi,
  • 2:20 - 2:24
    które są subiektywne,
    otwarte i wartościujące.
  • 2:24 - 2:27
    Pytamy: "Kogo powinno się zatrudnić?
  • 2:27 - 2:30
    Który i czyj post dana osoba
    powinna zobaczyć?
  • 2:30 - 2:33
    Który skazaniec prawdopodobnie
    popełni kolejne przestępstwo?
  • 2:33 - 2:37
    Jaka informacja lub film powinny być
    zarekomendowane widowni?".
  • 2:37 - 2:41
    Używamy komputerów od lat,
    ale to są kwestie innego rodzaju.
  • 2:41 - 2:43
    To jest historyczna zmiana,
  • 2:43 - 2:49
    bo nie możemy powiązać obliczeń
    z tak subiektywnymi kwestiami,
  • 2:49 - 2:52
    w taki sam sposób gdy w grę wchodzi
  • 2:52 - 2:55
    latanie samolotami,
    budowa mostów i wyprawy na Księżyc.
  • 2:56 - 2:58
    Czy samoloty są bezpieczniejsze?
  • 2:58 - 3:00
    Czy mosty chwieją się i walą?
  • 3:00 - 3:06
    Dla takich spraw mamy jasne standardy
    i prawa natury, które wskazują drogę.
  • 3:07 - 3:13
    Nie mamy takich standardów dla decyzji
    w pogmatwanych ludzkich sprawach.
  • 3:14 - 3:18
    Tymczasem, oprogramowanie
    staje się coraz potężniejsze,
  • 3:18 - 3:22
    ale również coraz mniej
    przejrzyste i bardziej złożone.
  • 3:22 - 3:26
    W ciągu ostatnich dziesięcioleci
    skomplikowane algorytmy
  • 3:26 - 3:28
    dokonały milowego kroku do przodu.
  • 3:28 - 3:30
    Potrafią rozpoznawać twarze,
  • 3:30 - 3:32
    odczytywać odręczne pismo,
  • 3:32 - 3:35
    wykrywać kradzieże
    na kartach kredytowych,
  • 3:35 - 3:37
    blokować spam, tłumaczyć teksty,
  • 3:37 - 3:41
    wykryć guz w obrazowaniu medycznym
  • 3:41 - 3:43
    i pokonać człowieka w szachy.
  • 3:44 - 3:46
    Większą część tego postępu
    zawdzięczamy metodzie
  • 3:46 - 3:48
    zwanej "samouczeniem maszyn".
  • 3:48 - 3:51
    Samouczenie maszyn różni się
    od klasycznego programowania,
  • 3:51 - 3:55
    w którym wydaje się komputerowi
    dokładną i szczegółową instrunkcję.
  • 3:55 - 3:59
    Polega bardziej na wprowadzaniu
    dużej ilości danych do systemu,
  • 3:59 - 4:03
    również danych przypadkowych,
    takich jakie generujemy w sieci.
  • 4:03 - 4:06
    System uczy się,
    przedzierając się przez te dane.
  • 4:07 - 4:10
    Najistotniejszy jest fakt, że te systemy
  • 4:10 - 4:13
    nie pracują zgodnie z logiką
    jednoznacznych odpowiedzi.
  • 4:13 - 4:16
    Nie dają prostej odpowiedzi,
    tylko określają prawdopodobieństwo:
  • 4:16 - 4:19
    "To jest być może bardziej podobne,
    do tego czego szukasz".
  • 4:20 - 4:23
    Plusem jest to, że ta metoda
    ma bardzo duży potencjał.
  • 4:23 - 4:25
    Szef systemów
    sztucznej inteligencji Google
  • 4:25 - 4:28
    nazwał tę metodę
    "nieuzasadnioną skutecznością danych".
  • 4:28 - 4:32
    Minusem jest to, że nie rozumiemy,
    czego nauczył się system
  • 4:33 - 4:34
    i to właśnie stanowi jego siłę.
  • 4:35 - 4:38
    To nie przypomina
    wydawania instrukcji komputerowi.
  • 4:39 - 4:43
    Przypomina raczej trenowanie
    mechanicznego szczeniaczka,
  • 4:43 - 4:46
    którego nie rozumiemy
    i nie potrafimy kontrolować.
  • 4:47 - 4:48
    I to jest problem.
  • 4:49 - 4:52
    Problem pojawia się,
    gdy ta sztuczna inteligencja się myli.
  • 4:52 - 4:56
    Problem pojawia się
    również wtedy, gdy ma rację,
  • 4:56 - 5:00
    ponieważ nie umiemy tego rozróżnić
    w przypadku subiektywnej kwestii.
  • 5:00 - 5:02
    Nie mamy pojęcia,
    co ten system sobie myśli.
  • 5:03 - 5:08
    Rozważmy algorytm odpowiedzialny
    za rekrutację pracowników.
  • 5:08 - 5:12
    Algorytm rekrutujący oparty
    na metodzie samouczenia się maszyn.
  • 5:13 - 5:17
    Taki system byłby oparty na danych
    pracowników danej firmy
  • 5:17 - 5:22
    i miałby zatrudniać ludzi o takim profilu
    jak obecni najwydajniejsi pracownicy.
  • 5:22 - 5:24
    Brzmi nieźle.
  • 5:24 - 5:28
    Byłam raz na konferencji,
    na której obecne były także osoby
  • 5:28 - 5:32
    zajmujące się rekrutacją, managerowie
    i dyrektorzy używający takich systemów.
  • 5:32 - 5:34
    Wszyscy byli zachwyceni.
  • 5:34 - 5:37
    Sądzili, że dzięki temu zatrudnianie
    stanie się bardziej obiektywne,
  • 5:37 - 5:41
    mniej tendencyjne i gwarantujące kobietom
    i przedstawicielom mniejszości
  • 5:41 - 5:44
    większe szanse zatrudnienia
    wobec tendencyjnych decyzji managerów.
  • 5:44 - 5:47
    Ludzkie decyzje dotyczące
    zatrudnienia są stronnicze.
  • 5:47 - 5:52
    W jednej z moich pierwszych prac,
    moja bezpośrednia przełożona
  • 5:52 - 5:56
    czasem przychodziła do mnie
    bardzo wcześnie rano
  • 5:56 - 6:02
    lub bardzo późnym popołudniem
    i mówiła: "Chodźmy na lunch!".
  • 6:02 - 6:06
    Byłam zaskoczona dziwną porą,
  • 6:06 - 6:11
    ale byłam też spłukana,
    więc zawsze się zgadzałam.
  • 6:11 - 6:13
    Później zorientowałam się o co chodziło.
  • 6:13 - 6:17
    Moi bezpośredni przełożeni
    nie przyznali się swoim szefom,
  • 6:17 - 6:21
    że do poważnej roboty
    zatrudnili programistę-nastolatkę,
  • 6:22 - 6:25
    noszącą jeansy i trampki do pracy.
  • 6:25 - 6:27
    Robiłam dobrą robotę,
    ale wyglądałam nie tak,
  • 6:27 - 6:30
    byłam w nieodpowiednim wieku
    i nieodpowiedniej płci.
  • 6:30 - 6:33
    Popieram zatrudnianie
    bez uwzględniania płci czy rasy.
  • 6:35 - 6:38
    Ale w przypadku tych systemów
    to wszystko jest bardziej skomplikowane.
  • 6:39 - 6:43
    Obecnie, te systemy mogą
    wyciągnąć wiele wniosków
  • 6:43 - 6:47
    na podstawie strzępów
    elektronicznej informacji,
  • 6:47 - 6:49
    nawet jeśli te informacje nie są jawne.
  • 6:49 - 6:53
    Mogą wnioskować na temat
    orientacji seksualnej,
  • 6:53 - 6:56
    cech osobowości,
    przekonań politycznych.
  • 6:57 - 7:00
    Te przewidywania są niezwykle trafne.
  • 7:01 - 7:05
    Pamiętajcie - te przewidywania dotyczą
    spraw, których nawet nie ujawniliście.
  • 7:06 - 7:09
    Moja przyjaciółka stworzyła system
    tego rodzaju, aby przewidywać
  • 7:09 - 7:12
    prawdopodobieństwo zapadnięcia na
    depresję kliniczną lub poporodową
  • 7:12 - 7:15
    na podstawie danych zaczerpniętych
    z serwisów społecznościowych.
  • 7:15 - 7:16
    Wyniki są imponujące.
  • 7:16 - 7:19
    Jej system potrafi
    przewidzieć prawdopodobieństwo
  • 7:19 - 7:23
    wystąpienia depresji miesiące przed
    wystąpieniem jakichkolwiek objawów.
  • 7:24 - 7:27
    Miesiące przed.
    Nie ma objawów, jest przewidywanie.
  • 7:28 - 7:31
    Moja przyjaciółka ma nadzieję,
    że system posłuży wczesnemu leczeniu.
  • 7:31 - 7:33
    Wspaniale.
  • 7:33 - 7:35
    Ale spójrzmy na to
    w kontekście zatrudniania.
  • 7:36 - 7:42
    Na tamtej konferencji podeszłam
    do jednej wysokopostawionej managerki
  • 7:42 - 7:45
    pracującej dla jednej z wielkich firm
    i powiedziałam:
  • 7:45 - 7:50
    "Co jeśli twój system
    za twoimi plecami wyklucza osoby
  • 7:50 - 7:55
    o większym prawdopodobieństwie
    zachorowania na depresję?
  • 7:55 - 8:00
    Nie mają depresji teraz,
    ale być może w przyszłości.
  • 8:00 - 8:04
    Co jeśli wyklucza kobiety,
    które prawdopodobnie za rok lub dwa
  • 8:04 - 8:07
    mogą być w ciąży, ale teraz nie są?
  • 8:08 - 8:10
    Co jeśli zatrudnia osoby agresywne,
  • 8:10 - 8:13
    bo to odpowiada kulturze pracy
    w waszej firmie?".
  • 8:13 - 8:16
    Nie można tego stwierdzić
    patrząc na zestawienia pracowników
  • 8:16 - 8:18
    pod względem płci;
    te mogą się równoważyć.
  • 8:18 - 8:21
    Ponieważ to jest uczenie maszynowe
    a nie klasyczne programowanie,
  • 8:21 - 8:29
    nie ma zmiennych podpisanych: "depresja"
    "ciąża" lub "wysoki poziom agresji".
  • 8:29 - 8:33
    Nie znasz kryteriów, na podstawie których
    twój system dokonuje wyboru.
  • 8:33 - 8:36
    Nie wiesz nawet gdzie zacząć ich szukać.
  • 8:36 - 8:38
    To jest technologia czarnej skrzynki.
  • 8:38 - 8:41
    Potrafi przewidywać,
    ale nie rozumiesz jak działa.
  • 8:41 - 8:44
    "Jakie masz zabezpieczenia,
    żeby upewnić się,
  • 8:44 - 8:47
    że twoja czarna skrzynka
    nie robi czegoś podejrzanego?"
  • 8:47 - 8:52
    Spojrzała na mnie jakbym
    nadepnęła na ogon szczeniaczkowi.
  • 8:52 - 8:54
    (Śmiech)
  • 8:54 - 9:01
    Popatrzyła na mnie i powiedziała:
    "Ani słowa więcej".
  • 9:01 - 9:04
    Odwróciła się i odeszła.
  • 9:04 - 9:05
    Uwaga - nie była niegrzeczna.
  • 9:05 - 9:07
    Ewidentnie chciała powiedzieć:
  • 9:07 - 9:10
    "Jeśli o czymś nie wiem,
    to nie jest mój problem, odejdź".
  • 9:10 - 9:12
    Na odchodne rzuciła mordercze spojrzenie.
  • 9:13 - 9:14
    (Śmiech)
  • 9:15 - 9:19
    Takie systemy mogą być mniej
    stronnicze niż managerowie.
  • 9:20 - 9:23
    Mogą być również opłacalne.
  • 9:23 - 9:27
    Ale mogą też prowadzić do stopniowego
    i niepostrzeżonego zamykania
  • 9:27 - 9:31
    rynku pracy dla osób z większym
    ryzykiem zachorowań na depresję.
  • 9:31 - 9:36
    Czy takie społeczeństwo chcemy budować,
    nie wiedząc nawet o tym, że to robimy,
  • 9:36 - 9:39
    bo powierzamy proces decyzyjny systemom,
  • 9:39 - 9:41
    których do końca nie rozumiemy?
  • 9:42 - 9:50
    Kolejny problem: te systemy pracują
    na danych opartych na ludzkich działaniach
  • 9:50 - 9:54
    Mogą po prostu odzwierciedlać
    nasze własne uprzedzenia,
  • 9:54 - 9:58
    wzmacniać je i zwracać w postaci wyniku,
  • 9:58 - 10:04
    który będziemy interpretować jako
    obiektywne i neutralne obliczenia.
  • 10:06 - 10:09
    Udowodniono, że wyszukiwarka Google
  • 10:09 - 10:16
    rzadziej pokazuje kobietom
    dobrze płatne oferty pracy.
  • 10:16 - 10:20
    A wyszukiwanie afroamerykańskich nazwisk
  • 10:20 - 10:24
    jest skorelowane z ogłoszeniami
    sugerującymi kryminalną przeszłość,
  • 10:25 - 10:27
    nawet jeśli takowej nie ma.
  • 10:27 - 10:30
    Tego typu ukryte uprzedzenia
    i algorytmy typu czarnej skrzynki,
  • 10:30 - 10:34
    które czasem odkrywamy, a czasem nie,
  • 10:34 - 10:37
    mogą diametralnie wpływać
    na ludzkie życie.
  • 10:38 - 10:44
    Pewien pozwany został skazany na 6 lat
    więzienia za ucieczkę przed policją.
  • 10:45 - 10:49
    Algorytmy są coraz częściej stosowane
    przy wydawaniu wyroków.
  • 10:50 - 10:53
    Mężczyzna chciał wiedzieć,
    jak ten wynik jest obliczany.
  • 10:53 - 10:56
    Używano komercyjnej czarnej skrzynki.
  • 10:56 - 10:58
    Firma, która ją sprzedaje,
  • 10:58 - 11:01
    sprzeciwiła się zweryfikowaniu
    algorytmu podczas otwartej rozprawy.
  • 11:01 - 11:05
    Śledcza organizacja non-profit,
    ProPublica, zweryfikowała ten algorytm
  • 11:05 - 11:09
    na podstawie publicznie
    dostępnych danych i dowiodła,
  • 11:09 - 11:12
    że generowane przez niego wyniki
    były stronnicze,
  • 11:12 - 11:15
    a jego moc przewidywania niewielka,
    niewiele lepsza od losowej,
  • 11:15 - 11:18
    a algorytm bezzasadnie wskazywał
    czarnoskórych oskarżonych
  • 11:18 - 11:23
    jako możliwych przyszłych przestępców
    dwukrotnie częściej niż białych.
  • 11:23 - 11:31
    Kolejna sprawa: ta kobieta była spóźniona
    po odbiór chrześnicy ze szkoły.
  • 11:32 - 11:36
    Biegła ulicą w towarzystwie przyjaciela
    i na jednym z ganków zauważyli
  • 11:36 - 11:40
    niezapięty rowerek dziecięcy i hulajnogę,
    na które bezmyślnie wskoczyli.
  • 11:40 - 11:45
    Gdy odjeżdżali, z domu wybiegła kobieta
    krzycząc: "To rowerek mojego dziecka!".
  • 11:45 - 11:49
    Zostawili rower i hulajnogę i odeszli,
    ale zostali aresztowani.
  • 11:49 - 11:52
    Dziewczyna postąpiła głupio i źle,
    ale miała tylko 18 lat.
  • 11:53 - 11:56
    Miała już na koncie
    kilka młodzieńczych wykroczeń.
  • 11:57 - 12:02
    W tym samym czasie aresztowano mężczyznę
    za kradzież towarów o wartości 85 dolarów,
  • 12:02 - 12:04
    równie niewielkie wykroczenie.
  • 12:04 - 12:09
    Ale on już wcześniej był
    dwukrotnie skazany za napad z bronią.
  • 12:10 - 12:14
    Algorytm przypisał jej większe ryzyko
    ponownego popełnienia przestępstwa.
  • 12:14 - 12:18
    Dwa lata później, ProPublica odkryła,
    że kobieta nie popełniła więcej wykroczeń,
  • 12:18 - 12:21
    miała tylko problemy ze znalezieniem
    pracy z taką historią wykroczeń.
  • 12:22 - 12:25
    Mężczyzna natomiast
    odsiadywał ośmioletni wyrok
  • 12:25 - 12:28
    za przestępstwo,
    którego dopuścił się ponownie.
  • 12:28 - 12:32
    Jest jasne, że musimy
    dokonywać rewizji czarnych skrzynek
  • 12:32 - 12:35
    i ograniczać ich niekontrolowaną władzę.
  • 12:35 - 12:37
    (Brawa)
  • 12:38 - 12:42
    Rewizje są dobre i potrzebne,
    ale nie rozwiążą wszystkich problemów.
  • 12:42 - 12:46
    Spójrzmy na algorytm Facebooka,
    który nadaje wszystkiemu jakąś wagę
  • 12:46 - 12:50
    i decyduje o tym, co powinniście zobaczyć
  • 12:50 - 12:53
    spośród tego wszystkiego,
    co publikują wasi znajomi.
  • 12:53 - 12:55
    Czy trzeba zobaczyć
    kolejne zdjęcie bobasa?
  • 12:55 - 12:56
    (Śmiech)
  • 12:56 - 12:59
    Ponury post jednego ze znajomych?
  • 12:59 - 13:01
    Ważną i trudną informację?
  • 13:01 - 13:03
    Nie ma jednej dobrej odpowiedzi.
  • 13:03 - 13:07
    Facebook ocenia liczbę reakcji:
    komentarze, udostępnienia, polubienia.
  • 13:07 - 13:12
    W sierpniu 2014 roku w Missouri
    wybuchł protest po śmierci
  • 13:12 - 13:18
    afroamerykańskiego nastolatka
    zabitego przez białego policjanta
  • 13:18 - 13:20
    w niejasnych okolicznościach.
  • 13:20 - 13:24
    Wiadomości na ten temat zalały
    mój niefiltrowany profil na Tweeterze,
  • 13:24 - 13:27
    ale nie było ich na moim Facebooku.
  • 13:27 - 13:29
    Czyżby moi znajomi o tym nie rozmawiali?
  • 13:29 - 13:32
    Zablokowałam algorytm Facebooka,
    co jest trudne,
  • 13:32 - 13:36
    bo Facebook dąży do tego,
    żeby nas kontrolować
  • 13:36 - 13:39
    i zobaczyłam, że przyjaciele
    rozmawiali o tej sprawie.
  • 13:39 - 13:42
    Po prostu ja tego nie widziałam,
    bo Facebook mi tego nie pokazywał.
  • 13:42 - 13:45
    Okazało się, że to rozległy problem.
  • 13:45 - 13:47
    Ta historia nie była
    wysoko oceniona przez algorytm.
  • 13:48 - 13:50
    Niełatwo ją "polubić".
  • 13:52 - 13:54
    Nie jest nawet łatwo ją skomentować.
  • 13:54 - 13:57
    Bez lajków i komentarzy algorytm
    prawdopodobnie pokazywał
  • 13:57 - 14:00
    tę informację coraz mniejszej ilości osób
    i dlatego jej nie widzieliśmy.
  • 14:01 - 14:06
    Równocześnie algorytm Facebooka
    wypromował Ice Bucket Challenge.
  • 14:06 - 14:10
    Szlachetna sprawa: oblej się zimną wodą,
    ofiaruj pieniądze, super.
  • 14:11 - 14:13
    To było wysoko ocenione przez algorytm.
  • 14:13 - 14:16
    Maszyna podjęła za nas decyzję.
  • 14:16 - 14:20
    Bardzo ważna lecz trudna dyskusja
    mogła zostać wyciszona,
  • 14:21 - 14:24
    gdyby Facebook był jedynym medium.
  • 14:24 - 14:28
    Te systemy mogą się też mylić w sposób,
  • 14:28 - 14:31
    który nie przypomina ludzkich błędów.
  • 14:31 - 14:34
    Pamiętacie Watsona,
    system sztucznej inteligencji IBM,
  • 14:35 - 14:37
    który zmiażdżył uczestników
    konkursu wiedzy Jeopardy?
  • 14:37 - 14:39
    To był świetny gracz.
  • 14:39 - 14:42
    Ale w finałowym odcinku padło pytanie:
  • 14:42 - 14:45
    "Największe lotnisko tego miasta
    nosi nazwę bohatera
  • 14:45 - 14:49
    drugiej co do wielkości bitwy
    podczas II wojny światowej".
  • 14:49 - 14:51
    Chicago.
  • 14:51 - 14:53
    Dwóch uczestników-ludzi
    odpowiedziało poprawnie.
  • 14:53 - 14:58
    Watson odpowiedział "Toronto"
    w kategorii dotyczącej miast w USA.
  • 14:59 - 15:02
    Ten imponujący system zrobił błąd,
  • 15:02 - 15:06
    którego żaden człowiek by nie popełnił,
    nawet drugoklasista.
  • 15:06 - 15:10
    Sztuczna inteligencja
    może zawieść w sposób,
  • 15:10 - 15:13
    który nie przypomina ludzkich pomyłek,
  • 15:13 - 15:16
    którego się nie spodziewamy,
    i na który nie będziemy gotowi.
  • 15:16 - 15:20
    Byłoby głupio nie dostać pracy,
    na którą się zasługuje,
  • 15:20 - 15:23
    ale byłoby potrójnie beznadziejnie,
    gdyby to się stało
  • 15:23 - 15:25
    z powodu nadmiaru danych
    w jakimś podprogramie.
  • 15:25 - 15:26
    (Śmiech)
  • 15:27 - 15:31
    W maju 2010 roku
    krach giełdy na Wall Street
  • 15:31 - 15:36
    wzmocniony sprzężeniem
    zwrotnym algorytmu "sprzedaży"
  • 15:36 - 15:40
    doprowadził do zniknięcia
    trylionów dolarów w 36 minut.
  • 15:42 - 15:46
    Nie chcę nawet myśleć,
    co taka "pomyłka" oznaczałaby
  • 15:46 - 15:49
    w przypadku automatycznej
    broni śmiercionośnej.
  • 15:50 - 15:53
    Tak, ludzie są stronniczy.
  • 15:54 - 16:00
    Ludzie podejmujący decyzje w sądach,
    mediach, na wojnie... popełniają błędy.
  • 16:00 - 16:02
    Ale o tym właśnie mówię.
  • 16:03 - 16:06
    Nie możemy uciec od tych trudnych kwestii.
  • 16:06 - 16:10
    Nie możemy zrzucić naszej
    odpowiedzialności na maszyny.
  • 16:11 - 16:17
    (Brawa)
  • 16:17 - 16:22
    Sztuczna inteligencja
    nie zwalnia nas z myślenia etycznego.
  • 16:22 - 16:26
    Fred Benenson, specjalista od danych,
    nazywał to "matematycznym praniem mózgu".
  • 16:26 - 16:28
    Potrzebujemy czegoś odwrotnego.
  • 16:28 - 16:30
    Musimy rozwijać w sobie
    sceptycyzm wobec algorytmów
  • 16:30 - 16:34
    i daleko posuniętą ostrożność
    oraz dokładność w ich badaniu.
  • 16:34 - 16:37
    Musimy mieć pewność, że mamy
    algorytmiczną odpowiedzialność,
  • 16:37 - 16:39
    rewizję i sensowną przejrzystość.
  • 16:39 - 16:42
    Musimy zaakceptować,
    że wprowadzenie matematyki i obliczeń
  • 16:42 - 16:46
    do zawikłanych i wymagających
    wartościowania ludzkich spraw
  • 16:46 - 16:48
    nie wprowadza obiektywizacji.
  • 16:48 - 16:51
    Przeciwnie: komplikacja ludzkich spraw
  • 16:51 - 16:53
    najedzie algorytmy.
  • 16:53 - 16:55
    Można i trzeba korzystać z obliczeń,
  • 16:55 - 16:58
    aby móc podejmować lepsze decyzje.
  • 16:58 - 17:01
    Ale trzeba uznać moralną odpowiedzialność
  • 17:01 - 17:06
    za podejmowanie decyzji
    i używać algorytmów w jej granicach,
  • 17:06 - 17:13
    a nie jako środek do zrzeczenia się
    i odrzucenia tej odpowiedzialności.
  • 17:14 - 17:17
    Sztuczna inteligencja jest faktem.
  • 17:17 - 17:22
    To oznacza, że tym mocniej musimy
    trzymać się ludzkich wartości i etyki.
  • 17:22 - 17:23
    Dziękuję
  • 17:23 - 17:27
    (Brawa)
Title:
Sztuczna inteligencja podkreśla wagę ludzkiej moralności
Speaker:
Zeynep Tufekci
Description:

Sztuczna inteligencja jest faktem, już z niej korzystamy, dokonując subiektywnych wyborów. Lecz skomplikowany sposób rozwoju sztucznej inteligencji sprawia, że trudno ją zrozumieć i kontrolować. W tej ostrzegawczej prelekcji techno-socjolog Zeynep Tufekci wyjaśnia, jak sztuczna inteligencja może zawieść w sposób nie przypominający ludzkich błędów, którego nie będziemy się spodziewać i na który nie będziemy przygotowani. "Nie możemy zrzucić naszej odpowiedzialności na maszyny. Musimy coraz mocniej trzymać się ludzkich wartości i etyki".

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Polish subtitles

Revisions