Sztuczna inteligencja podkreśla wagę ludzkiej moralności
-
0:01 - 0:06Zaczęłam pracować jako programistka
na pierwszym roku studiów, -
0:07 - 0:09jeszcze jako nastolatka.
-
0:09 - 0:12Niedługo później zaczęłam pracować
dla firmy tworzącej oprogramowania. -
0:13 - 0:17Pewnego razu jeden z managerów
podszedł do mnie i wyszeptał: -
0:18 - 0:21"Czy on wie kiedy kłamię?".
-
0:22 - 0:24Byliśmy sami w pokoju.
-
0:25 - 0:28"Niby kto ma wiedzieć kiedy kłamiesz?
-
0:28 - 0:30I dlaczego szepczemy?"
-
0:31 - 0:33Manager wskazał na komputer.
-
0:33 - 0:36"Czy on wie kiedy kłamię?"
-
0:38 - 0:42Ten menadżer miał romans z recepcjonistką.
-
0:42 - 0:43(Śmiech)
-
0:43 - 0:47Byłam nastolatką,
więc odkrzyknęłam szeptem: -
0:47 - 0:51"Tak, komputer wie kiedy kłamiesz!".
-
0:51 - 0:53(Śmiech)
-
0:53 - 0:56Wtedy się z tego śmiałam,
ale teraz można śmiać się ze mnie. -
0:56 - 1:00Obecnie istnieją programy,
które potrafią ropoznawać -
1:00 - 1:04stany emocjonalne i kłamstwo
na podstawie zdjęć twarzy. -
1:05 - 1:10Spece od marketingu i organy rządowe
wyrażają zainteresowanie. -
1:10 - 1:15Zostałam programistką, bo od dziecka
uwielbiałam matematykę i naukę. -
1:15 - 1:22Dowiedziawszy się o broni jądrowej,
przejęłam się kwestią etyki w nauce. -
1:22 - 1:23Byłam w kropce.
-
1:24 - 1:29Ze względu na sytuację rodzinną
musiałam jak najszybciej zacząć pracować. -
1:30 - 1:34Pomyślałam, że wybiorę dziedzinę,
w której łatwo znajdę pracę -
1:34 - 1:38i nie będę musiała myśleć
o zawiłych kwestiach etycznych. -
1:39 - 1:40Wybrałam informatykę.
-
1:41 - 1:42(Śmiech)
-
1:42 - 1:44Ha, ha, ha. Można się ze mnie nabijać.
-
1:45 - 1:50Programiści tworzą platformy,
które kontrolują to, -
1:50 - 1:53co każdego dnia widzą miliardy ludzi.
-
1:53 - 1:57Tworzą samochody,
mogące zdecydować, kogo przejechać. -
1:57 - 2:03Tworzą nawet broń mechaniczną,
która mogłaby być użyta w czasie wojny. -
2:03 - 2:06To są od początku do końca
kwestie etyczne. -
2:07 - 2:09Sztuczna inteligencja to rzeczywistość.
-
2:10 - 2:13Korzystamy z obliczeń komputerowych
do podejmowania różnych decyzji, -
2:13 - 2:15również decyzji nowego rodzaju.
-
2:15 - 2:18Próbujemy z pomocą komputerów,
uzyskać odpowiedzi na pytania, -
2:18 - 2:20na które nie ma jednej dobrej odpowiedzi,
-
2:20 - 2:24które są subiektywne,
otwarte i wartościujące. -
2:24 - 2:27Pytamy: "Kogo powinno się zatrudnić?
-
2:27 - 2:30Który i czyj post dana osoba
powinna zobaczyć? -
2:30 - 2:33Który skazaniec prawdopodobnie
popełni kolejne przestępstwo? -
2:33 - 2:37Jaka informacja lub film powinny być
zarekomendowane widowni?". -
2:37 - 2:41Używamy komputerów od lat,
ale to są kwestie innego rodzaju. -
2:41 - 2:43To jest historyczna zmiana,
-
2:43 - 2:49bo nie możemy powiązać obliczeń
z tak subiektywnymi kwestiami, -
2:49 - 2:52w taki sam sposób gdy w grę wchodzi
-
2:52 - 2:55latanie samolotami,
budowa mostów i wyprawy na Księżyc. -
2:56 - 2:58Czy samoloty są bezpieczniejsze?
-
2:58 - 3:00Czy mosty chwieją się i walą?
-
3:00 - 3:06Dla takich spraw mamy jasne standardy
i prawa natury, które wskazują drogę. -
3:07 - 3:13Nie mamy takich standardów dla decyzji
w pogmatwanych ludzkich sprawach. -
3:14 - 3:18Tymczasem, oprogramowanie
staje się coraz potężniejsze, -
3:18 - 3:22ale również coraz mniej
przejrzyste i bardziej złożone. -
3:22 - 3:26W ciągu ostatnich dziesięcioleci
skomplikowane algorytmy -
3:26 - 3:28dokonały milowego kroku do przodu.
-
3:28 - 3:30Potrafią rozpoznawać twarze,
-
3:30 - 3:32odczytywać odręczne pismo,
-
3:32 - 3:35wykrywać kradzieże
na kartach kredytowych, -
3:35 - 3:37blokować spam, tłumaczyć teksty,
-
3:37 - 3:41wykryć guz w obrazowaniu medycznym
-
3:41 - 3:43i pokonać człowieka w szachy.
-
3:44 - 3:46Większą część tego postępu
zawdzięczamy metodzie -
3:46 - 3:48zwanej "samouczeniem maszyn".
-
3:48 - 3:51Samouczenie maszyn różni się
od klasycznego programowania, -
3:51 - 3:55w którym wydaje się komputerowi
dokładną i szczegółową instrunkcję. -
3:55 - 3:59Polega bardziej na wprowadzaniu
dużej ilości danych do systemu, -
3:59 - 4:03również danych przypadkowych,
takich jakie generujemy w sieci. -
4:03 - 4:06System uczy się,
przedzierając się przez te dane. -
4:07 - 4:10Najistotniejszy jest fakt, że te systemy
-
4:10 - 4:13nie pracują zgodnie z logiką
jednoznacznych odpowiedzi. -
4:13 - 4:16Nie dają prostej odpowiedzi,
tylko określają prawdopodobieństwo: -
4:16 - 4:19"To jest być może bardziej podobne,
do tego czego szukasz". -
4:20 - 4:23Plusem jest to, że ta metoda
ma bardzo duży potencjał. -
4:23 - 4:25Szef systemów
sztucznej inteligencji Google -
4:25 - 4:28nazwał tę metodę
"nieuzasadnioną skutecznością danych". -
4:28 - 4:32Minusem jest to, że nie rozumiemy,
czego nauczył się system -
4:33 - 4:34i to właśnie stanowi jego siłę.
-
4:35 - 4:38To nie przypomina
wydawania instrukcji komputerowi. -
4:39 - 4:43Przypomina raczej trenowanie
mechanicznego szczeniaczka, -
4:43 - 4:46którego nie rozumiemy
i nie potrafimy kontrolować. -
4:47 - 4:48I to jest problem.
-
4:49 - 4:52Problem pojawia się,
gdy ta sztuczna inteligencja się myli. -
4:52 - 4:56Problem pojawia się
również wtedy, gdy ma rację, -
4:56 - 5:00ponieważ nie umiemy tego rozróżnić
w przypadku subiektywnej kwestii. -
5:00 - 5:02Nie mamy pojęcia,
co ten system sobie myśli. -
5:03 - 5:08Rozważmy algorytm odpowiedzialny
za rekrutację pracowników. -
5:08 - 5:12Algorytm rekrutujący oparty
na metodzie samouczenia się maszyn. -
5:13 - 5:17Taki system byłby oparty na danych
pracowników danej firmy -
5:17 - 5:22i miałby zatrudniać ludzi o takim profilu
jak obecni najwydajniejsi pracownicy. -
5:22 - 5:24Brzmi nieźle.
-
5:24 - 5:28Byłam raz na konferencji,
na której obecne były także osoby -
5:28 - 5:32zajmujące się rekrutacją, managerowie
i dyrektorzy używający takich systemów. -
5:32 - 5:34Wszyscy byli zachwyceni.
-
5:34 - 5:37Sądzili, że dzięki temu zatrudnianie
stanie się bardziej obiektywne, -
5:37 - 5:41mniej tendencyjne i gwarantujące kobietom
i przedstawicielom mniejszości -
5:41 - 5:44większe szanse zatrudnienia
wobec tendencyjnych decyzji managerów. -
5:44 - 5:47Ludzkie decyzje dotyczące
zatrudnienia są stronnicze. -
5:47 - 5:52W jednej z moich pierwszych prac,
moja bezpośrednia przełożona -
5:52 - 5:56czasem przychodziła do mnie
bardzo wcześnie rano -
5:56 - 6:02lub bardzo późnym popołudniem
i mówiła: "Chodźmy na lunch!". -
6:02 - 6:06Byłam zaskoczona dziwną porą,
-
6:06 - 6:11ale byłam też spłukana,
więc zawsze się zgadzałam. -
6:11 - 6:13Później zorientowałam się o co chodziło.
-
6:13 - 6:17Moi bezpośredni przełożeni
nie przyznali się swoim szefom, -
6:17 - 6:21że do poważnej roboty
zatrudnili programistę-nastolatkę, -
6:22 - 6:25noszącą jeansy i trampki do pracy.
-
6:25 - 6:27Robiłam dobrą robotę,
ale wyglądałam nie tak, -
6:27 - 6:30byłam w nieodpowiednim wieku
i nieodpowiedniej płci. -
6:30 - 6:33Popieram zatrudnianie
bez uwzględniania płci czy rasy. -
6:35 - 6:38Ale w przypadku tych systemów
to wszystko jest bardziej skomplikowane. -
6:39 - 6:43Obecnie, te systemy mogą
wyciągnąć wiele wniosków -
6:43 - 6:47na podstawie strzępów
elektronicznej informacji, -
6:47 - 6:49nawet jeśli te informacje nie są jawne.
-
6:49 - 6:53Mogą wnioskować na temat
orientacji seksualnej, -
6:53 - 6:56cech osobowości,
przekonań politycznych. -
6:57 - 7:00Te przewidywania są niezwykle trafne.
-
7:01 - 7:05Pamiętajcie - te przewidywania dotyczą
spraw, których nawet nie ujawniliście. -
7:06 - 7:09Moja przyjaciółka stworzyła system
tego rodzaju, aby przewidywać -
7:09 - 7:12prawdopodobieństwo zapadnięcia na
depresję kliniczną lub poporodową -
7:12 - 7:15na podstawie danych zaczerpniętych
z serwisów społecznościowych. -
7:15 - 7:16Wyniki są imponujące.
-
7:16 - 7:19Jej system potrafi
przewidzieć prawdopodobieństwo -
7:19 - 7:23wystąpienia depresji miesiące przed
wystąpieniem jakichkolwiek objawów. -
7:24 - 7:27Miesiące przed.
Nie ma objawów, jest przewidywanie. -
7:28 - 7:31Moja przyjaciółka ma nadzieję,
że system posłuży wczesnemu leczeniu. -
7:31 - 7:33Wspaniale.
-
7:33 - 7:35Ale spójrzmy na to
w kontekście zatrudniania. -
7:36 - 7:42Na tamtej konferencji podeszłam
do jednej wysokopostawionej managerki -
7:42 - 7:45pracującej dla jednej z wielkich firm
i powiedziałam: -
7:45 - 7:50"Co jeśli twój system
za twoimi plecami wyklucza osoby -
7:50 - 7:55o większym prawdopodobieństwie
zachorowania na depresję? -
7:55 - 8:00Nie mają depresji teraz,
ale być może w przyszłości. -
8:00 - 8:04Co jeśli wyklucza kobiety,
które prawdopodobnie za rok lub dwa -
8:04 - 8:07mogą być w ciąży, ale teraz nie są?
-
8:08 - 8:10Co jeśli zatrudnia osoby agresywne,
-
8:10 - 8:13bo to odpowiada kulturze pracy
w waszej firmie?". -
8:13 - 8:16Nie można tego stwierdzić
patrząc na zestawienia pracowników -
8:16 - 8:18pod względem płci;
te mogą się równoważyć. -
8:18 - 8:21Ponieważ to jest uczenie maszynowe
a nie klasyczne programowanie, -
8:21 - 8:29nie ma zmiennych podpisanych: "depresja"
"ciąża" lub "wysoki poziom agresji". -
8:29 - 8:33Nie znasz kryteriów, na podstawie których
twój system dokonuje wyboru. -
8:33 - 8:36Nie wiesz nawet gdzie zacząć ich szukać.
-
8:36 - 8:38To jest technologia czarnej skrzynki.
-
8:38 - 8:41Potrafi przewidywać,
ale nie rozumiesz jak działa. -
8:41 - 8:44"Jakie masz zabezpieczenia,
żeby upewnić się, -
8:44 - 8:47że twoja czarna skrzynka
nie robi czegoś podejrzanego?" -
8:47 - 8:52Spojrzała na mnie jakbym
nadepnęła na ogon szczeniaczkowi. -
8:52 - 8:54(Śmiech)
-
8:54 - 9:01Popatrzyła na mnie i powiedziała:
"Ani słowa więcej". -
9:01 - 9:04Odwróciła się i odeszła.
-
9:04 - 9:05Uwaga - nie była niegrzeczna.
-
9:05 - 9:07Ewidentnie chciała powiedzieć:
-
9:07 - 9:10"Jeśli o czymś nie wiem,
to nie jest mój problem, odejdź". -
9:10 - 9:12Na odchodne rzuciła mordercze spojrzenie.
-
9:13 - 9:14(Śmiech)
-
9:15 - 9:19Takie systemy mogą być mniej
stronnicze niż managerowie. -
9:20 - 9:23Mogą być również opłacalne.
-
9:23 - 9:27Ale mogą też prowadzić do stopniowego
i niepostrzeżonego zamykania -
9:27 - 9:31rynku pracy dla osób z większym
ryzykiem zachorowań na depresję. -
9:31 - 9:36Czy takie społeczeństwo chcemy budować,
nie wiedząc nawet o tym, że to robimy, -
9:36 - 9:39bo powierzamy proces decyzyjny systemom,
-
9:39 - 9:41których do końca nie rozumiemy?
-
9:42 - 9:50Kolejny problem: te systemy pracują
na danych opartych na ludzkich działaniach -
9:50 - 9:54Mogą po prostu odzwierciedlać
nasze własne uprzedzenia, -
9:54 - 9:58wzmacniać je i zwracać w postaci wyniku,
-
9:58 - 10:04który będziemy interpretować jako
obiektywne i neutralne obliczenia. -
10:06 - 10:09Udowodniono, że wyszukiwarka Google
-
10:09 - 10:16rzadziej pokazuje kobietom
dobrze płatne oferty pracy. -
10:16 - 10:20A wyszukiwanie afroamerykańskich nazwisk
-
10:20 - 10:24jest skorelowane z ogłoszeniami
sugerującymi kryminalną przeszłość, -
10:25 - 10:27nawet jeśli takowej nie ma.
-
10:27 - 10:30Tego typu ukryte uprzedzenia
i algorytmy typu czarnej skrzynki, -
10:30 - 10:34które czasem odkrywamy, a czasem nie,
-
10:34 - 10:37mogą diametralnie wpływać
na ludzkie życie. -
10:38 - 10:44Pewien pozwany został skazany na 6 lat
więzienia za ucieczkę przed policją. -
10:45 - 10:49Algorytmy są coraz częściej stosowane
przy wydawaniu wyroków. -
10:50 - 10:53Mężczyzna chciał wiedzieć,
jak ten wynik jest obliczany. -
10:53 - 10:56Używano komercyjnej czarnej skrzynki.
-
10:56 - 10:58Firma, która ją sprzedaje,
-
10:58 - 11:01sprzeciwiła się zweryfikowaniu
algorytmu podczas otwartej rozprawy. -
11:01 - 11:05Śledcza organizacja non-profit,
ProPublica, zweryfikowała ten algorytm -
11:05 - 11:09na podstawie publicznie
dostępnych danych i dowiodła, -
11:09 - 11:12że generowane przez niego wyniki
były stronnicze, -
11:12 - 11:15a jego moc przewidywania niewielka,
niewiele lepsza od losowej, -
11:15 - 11:18a algorytm bezzasadnie wskazywał
czarnoskórych oskarżonych -
11:18 - 11:23jako możliwych przyszłych przestępców
dwukrotnie częściej niż białych. -
11:23 - 11:31Kolejna sprawa: ta kobieta była spóźniona
po odbiór chrześnicy ze szkoły. -
11:32 - 11:36Biegła ulicą w towarzystwie przyjaciela
i na jednym z ganków zauważyli -
11:36 - 11:40niezapięty rowerek dziecięcy i hulajnogę,
na które bezmyślnie wskoczyli. -
11:40 - 11:45Gdy odjeżdżali, z domu wybiegła kobieta
krzycząc: "To rowerek mojego dziecka!". -
11:45 - 11:49Zostawili rower i hulajnogę i odeszli,
ale zostali aresztowani. -
11:49 - 11:52Dziewczyna postąpiła głupio i źle,
ale miała tylko 18 lat. -
11:53 - 11:56Miała już na koncie
kilka młodzieńczych wykroczeń. -
11:57 - 12:02W tym samym czasie aresztowano mężczyznę
za kradzież towarów o wartości 85 dolarów, -
12:02 - 12:04równie niewielkie wykroczenie.
-
12:04 - 12:09Ale on już wcześniej był
dwukrotnie skazany za napad z bronią. -
12:10 - 12:14Algorytm przypisał jej większe ryzyko
ponownego popełnienia przestępstwa. -
12:14 - 12:18Dwa lata później, ProPublica odkryła,
że kobieta nie popełniła więcej wykroczeń, -
12:18 - 12:21miała tylko problemy ze znalezieniem
pracy z taką historią wykroczeń. -
12:22 - 12:25Mężczyzna natomiast
odsiadywał ośmioletni wyrok -
12:25 - 12:28za przestępstwo,
którego dopuścił się ponownie. -
12:28 - 12:32Jest jasne, że musimy
dokonywać rewizji czarnych skrzynek -
12:32 - 12:35i ograniczać ich niekontrolowaną władzę.
-
12:35 - 12:37(Brawa)
-
12:38 - 12:42Rewizje są dobre i potrzebne,
ale nie rozwiążą wszystkich problemów. -
12:42 - 12:46Spójrzmy na algorytm Facebooka,
który nadaje wszystkiemu jakąś wagę -
12:46 - 12:50i decyduje o tym, co powinniście zobaczyć
-
12:50 - 12:53spośród tego wszystkiego,
co publikują wasi znajomi. -
12:53 - 12:55Czy trzeba zobaczyć
kolejne zdjęcie bobasa? -
12:55 - 12:56(Śmiech)
-
12:56 - 12:59Ponury post jednego ze znajomych?
-
12:59 - 13:01Ważną i trudną informację?
-
13:01 - 13:03Nie ma jednej dobrej odpowiedzi.
-
13:03 - 13:07Facebook ocenia liczbę reakcji:
komentarze, udostępnienia, polubienia. -
13:07 - 13:12W sierpniu 2014 roku w Missouri
wybuchł protest po śmierci -
13:12 - 13:18afroamerykańskiego nastolatka
zabitego przez białego policjanta -
13:18 - 13:20w niejasnych okolicznościach.
-
13:20 - 13:24Wiadomości na ten temat zalały
mój niefiltrowany profil na Tweeterze, -
13:24 - 13:27ale nie było ich na moim Facebooku.
-
13:27 - 13:29Czyżby moi znajomi o tym nie rozmawiali?
-
13:29 - 13:32Zablokowałam algorytm Facebooka,
co jest trudne, -
13:32 - 13:36bo Facebook dąży do tego,
żeby nas kontrolować -
13:36 - 13:39i zobaczyłam, że przyjaciele
rozmawiali o tej sprawie. -
13:39 - 13:42Po prostu ja tego nie widziałam,
bo Facebook mi tego nie pokazywał. -
13:42 - 13:45Okazało się, że to rozległy problem.
-
13:45 - 13:47Ta historia nie była
wysoko oceniona przez algorytm. -
13:48 - 13:50Niełatwo ją "polubić".
-
13:52 - 13:54Nie jest nawet łatwo ją skomentować.
-
13:54 - 13:57Bez lajków i komentarzy algorytm
prawdopodobnie pokazywał -
13:57 - 14:00tę informację coraz mniejszej ilości osób
i dlatego jej nie widzieliśmy. -
14:01 - 14:06Równocześnie algorytm Facebooka
wypromował Ice Bucket Challenge. -
14:06 - 14:10Szlachetna sprawa: oblej się zimną wodą,
ofiaruj pieniądze, super. -
14:11 - 14:13To było wysoko ocenione przez algorytm.
-
14:13 - 14:16Maszyna podjęła za nas decyzję.
-
14:16 - 14:20Bardzo ważna lecz trudna dyskusja
mogła zostać wyciszona, -
14:21 - 14:24gdyby Facebook był jedynym medium.
-
14:24 - 14:28Te systemy mogą się też mylić w sposób,
-
14:28 - 14:31który nie przypomina ludzkich błędów.
-
14:31 - 14:34Pamiętacie Watsona,
system sztucznej inteligencji IBM, -
14:35 - 14:37który zmiażdżył uczestników
konkursu wiedzy Jeopardy? -
14:37 - 14:39To był świetny gracz.
-
14:39 - 14:42Ale w finałowym odcinku padło pytanie:
-
14:42 - 14:45"Największe lotnisko tego miasta
nosi nazwę bohatera -
14:45 - 14:49drugiej co do wielkości bitwy
podczas II wojny światowej". -
14:49 - 14:51Chicago.
-
14:51 - 14:53Dwóch uczestników-ludzi
odpowiedziało poprawnie. -
14:53 - 14:58Watson odpowiedział "Toronto"
w kategorii dotyczącej miast w USA. -
14:59 - 15:02Ten imponujący system zrobił błąd,
-
15:02 - 15:06którego żaden człowiek by nie popełnił,
nawet drugoklasista. -
15:06 - 15:10Sztuczna inteligencja
może zawieść w sposób, -
15:10 - 15:13który nie przypomina ludzkich pomyłek,
-
15:13 - 15:16którego się nie spodziewamy,
i na który nie będziemy gotowi. -
15:16 - 15:20Byłoby głupio nie dostać pracy,
na którą się zasługuje, -
15:20 - 15:23ale byłoby potrójnie beznadziejnie,
gdyby to się stało -
15:23 - 15:25z powodu nadmiaru danych
w jakimś podprogramie. -
15:25 - 15:26(Śmiech)
-
15:27 - 15:31W maju 2010 roku
krach giełdy na Wall Street -
15:31 - 15:36wzmocniony sprzężeniem
zwrotnym algorytmu "sprzedaży" -
15:36 - 15:40doprowadził do zniknięcia
trylionów dolarów w 36 minut. -
15:42 - 15:46Nie chcę nawet myśleć,
co taka "pomyłka" oznaczałaby -
15:46 - 15:49w przypadku automatycznej
broni śmiercionośnej. -
15:50 - 15:53Tak, ludzie są stronniczy.
-
15:54 - 16:00Ludzie podejmujący decyzje w sądach,
mediach, na wojnie... popełniają błędy. -
16:00 - 16:02Ale o tym właśnie mówię.
-
16:03 - 16:06Nie możemy uciec od tych trudnych kwestii.
-
16:06 - 16:10Nie możemy zrzucić naszej
odpowiedzialności na maszyny. -
16:11 - 16:17(Brawa)
-
16:17 - 16:22Sztuczna inteligencja
nie zwalnia nas z myślenia etycznego. -
16:22 - 16:26Fred Benenson, specjalista od danych,
nazywał to "matematycznym praniem mózgu". -
16:26 - 16:28Potrzebujemy czegoś odwrotnego.
-
16:28 - 16:30Musimy rozwijać w sobie
sceptycyzm wobec algorytmów -
16:30 - 16:34i daleko posuniętą ostrożność
oraz dokładność w ich badaniu. -
16:34 - 16:37Musimy mieć pewność, że mamy
algorytmiczną odpowiedzialność, -
16:37 - 16:39rewizję i sensowną przejrzystość.
-
16:39 - 16:42Musimy zaakceptować,
że wprowadzenie matematyki i obliczeń -
16:42 - 16:46do zawikłanych i wymagających
wartościowania ludzkich spraw -
16:46 - 16:48nie wprowadza obiektywizacji.
-
16:48 - 16:51Przeciwnie: komplikacja ludzkich spraw
-
16:51 - 16:53najedzie algorytmy.
-
16:53 - 16:55Można i trzeba korzystać z obliczeń,
-
16:55 - 16:58aby móc podejmować lepsze decyzje.
-
16:58 - 17:01Ale trzeba uznać moralną odpowiedzialność
-
17:01 - 17:06za podejmowanie decyzji
i używać algorytmów w jej granicach, -
17:06 - 17:13a nie jako środek do zrzeczenia się
i odrzucenia tej odpowiedzialności. -
17:14 - 17:17Sztuczna inteligencja jest faktem.
-
17:17 - 17:22To oznacza, że tym mocniej musimy
trzymać się ludzkich wartości i etyki. -
17:22 - 17:23Dziękuję
-
17:23 - 17:27(Brawa)
- Title:
- Sztuczna inteligencja podkreśla wagę ludzkiej moralności
- Speaker:
- Zeynep Tufekci
- Description:
-
Sztuczna inteligencja jest faktem, już z niej korzystamy, dokonując subiektywnych wyborów. Lecz skomplikowany sposób rozwoju sztucznej inteligencji sprawia, że trudno ją zrozumieć i kontrolować. W tej ostrzegawczej prelekcji techno-socjolog Zeynep Tufekci wyjaśnia, jak sztuczna inteligencja może zawieść w sposób nie przypominający ludzkich błędów, którego nie będziemy się spodziewać i na który nie będziemy przygotowani. "Nie możemy zrzucić naszej odpowiedzialności na maszyny. Musimy coraz mocniej trzymać się ludzkich wartości i etyki".
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Rysia Wand approved Polish subtitles for Machine intelligence makes human morals more important | ||
Rysia Wand edited Polish subtitles for Machine intelligence makes human morals more important | ||
Marta Rytwinska accepted Polish subtitles for Machine intelligence makes human morals more important | ||
Marta Rytwinska edited Polish subtitles for Machine intelligence makes human morals more important | ||
Marta Rytwinska edited Polish subtitles for Machine intelligence makes human morals more important | ||
Marta Rytwinska edited Polish subtitles for Machine intelligence makes human morals more important | ||
Rysia Wand rejected Polish subtitles for Machine intelligence makes human morals more important | ||
Rysia Wand edited Polish subtitles for Machine intelligence makes human morals more important |