Zbog mašinske inteligencije ljudski moral je sve važniji
-
0:01 - 0:05Dakle, počela sam da radim
kao kompjuterska programerka -
0:05 - 0:07kad sam bila prva godina na fakultetu -
-
0:07 - 0:08u suštini kao tinejdžerka.
-
0:09 - 0:11Ubrzo nakon što sam počela da radim,
-
0:11 - 0:12da pišem softvere za firmu,
-
0:13 - 0:16menadžer koji je radio u firmi
se spustio do mene -
0:16 - 0:18i prošaputao mi je:
-
0:18 - 0:21"Zna li da lažem?"
-
0:22 - 0:24Nije bilo više bilo koga u prostoriji.
-
0:25 - 0:29"Zna li ko da lažete? I zašto šapućemo?"
-
0:30 - 0:33Menadžer je pokazao
na kompjuter u prostoriji. -
0:33 - 0:36"Zna li da lažem?"
-
0:38 - 0:42Pa, taj menadžer je imao aferu
sa recepcionerom. -
0:42 - 0:43(Smeh)
-
0:43 - 0:45A ja sam još uvek bila tinejdžerka.
-
0:45 - 0:47Pa sam mu polušapatom odgovorila:
-
0:47 - 0:51"Da, kompjuter zna kad mu lažete."
-
0:51 - 0:53(Smeh)
-
0:53 - 0:56Pa, smejala sam se,
ali zapravo šala je na moj račun. -
0:56 - 0:59Ovih dana imamo kompjuterske sisteme
-
0:59 - 1:03koji mogu da prozru
emocionalna stanja, čak i laganje, -
1:03 - 1:05obradom ljudskih lica.
-
1:05 - 1:09Oglašivači, čak i vlade
su veoma zainteresovane za to. -
1:10 - 1:12Postala sam kompjuterska programerka
-
1:12 - 1:15jer sam bila jedno od dece
koja su luda za matematikom i naukom. -
1:16 - 1:19No, nekako sam usput
saznala za nuklearno oružje -
1:19 - 1:22i postala sam zaista zabrinuta
zbog naučne etike. -
1:22 - 1:23Mučilo me je to.
-
1:23 - 1:26Međutim, zbog porodičnih okolnosti,
-
1:26 - 1:29takođe je bilo potrebno
da počnem da radim što pre. -
1:29 - 1:33Pa sam pomislila u sebi, hej,
hajde da izaberem tehničku oblast -
1:33 - 1:34gde mogu lako da se zaposlim
-
1:34 - 1:38i gde ne moram da se bavim
bilo kakvim mučnim etičkim pitanjem. -
1:39 - 1:41Pa sam odabrala kompjutere.
-
1:41 - 1:42(Smeh)
-
1:42 - 1:45Pa, ha, ha, ha!
Šala je skroz na moj račun. -
1:45 - 1:48Ovih dana kompjuterski naučnici
prave platforme -
1:48 - 1:52koje upravljaju onim
što milijarde ljudi gledaju svakodnevno. -
1:53 - 1:57Razvijaju automobile
koji mogu da odluče koga da pregaze. -
1:58 - 2:01Čak grade mašine, oružja,
-
2:01 - 2:03koja mogu da ubijaju ljude u ratu.
-
2:03 - 2:06U potpunosti se radi o etici.
-
2:07 - 2:09Mašinska inteligencija je tu.
-
2:10 - 2:13Trenutno koristimo kompjutere
da donesemo razne odluke, -
2:13 - 2:15ali i nove tipove odluka.
-
2:15 - 2:20Postavljamo kompjuterima pitanja
koja nemaju jedan pravi odgovor, -
2:20 - 2:22koja su subjektivna,
-
2:22 - 2:24otvorena i krcata vrednostima.
-
2:24 - 2:26Postavljamo ovakva pitanja:
-
2:26 - 2:27"Koga da firma zaposli?"
-
2:28 - 2:31"Koje ažuriranje od kog prijatelja
treba da bude vidljivo?" -
2:31 - 2:33"Koji osuđenik je skloniji
novom prestupu?" -
2:34 - 2:37"Koji novinski čalanak ili film
treba preporučiti ljudima?" -
2:37 - 2:40Gledajte, da, već neko vreme
koristimo kompjutere, -
2:40 - 2:42ali ovo je drugačije.
-
2:42 - 2:44Ovo je istorijski preokret
-
2:44 - 2:49jer ne možemo da usidrimo kompjutere
kod sličnih subjektivnih odluka -
2:49 - 2:54na način na koji usidravamo kompjutere
koji upravljaju avionima, grade mostove, -
2:54 - 2:56idu na mesec.
-
2:56 - 3:00Jesu li avioni bezbedniji?
Da li se most zaljuljao i pao? -
3:00 - 3:04Tu imamo uspostavljene
prilično jasne repere -
3:04 - 3:06i tu su zakoni prirode da nas vode.
-
3:07 - 3:10Nemamo slična težišta i repere
-
3:10 - 3:14za odluke koje se tiču
haotičnih ljudskih odnosa. -
3:14 - 3:18Da bi stvari bile još složenije,
naši softveri postaju sve moćniji, -
3:18 - 3:22ali takođe postaju manje
transparentni i složeniji. -
3:23 - 3:25U skorije vreme, u poslednjoj deceniji,
-
3:25 - 3:27složeni algoritmi
su poprilično napredovali. -
3:27 - 3:29Mogu da prepoznaju ljudska lica.
-
3:30 - 3:32Mogu da dešifruju rukopis.
-
3:32 - 3:35Mogu da zapaze prevaru
kod kreditnih kartica -
3:35 - 3:36i da blokiraju spamove
-
3:36 - 3:38i da prevode s jezika na jezik.
-
3:38 - 3:40Mogu da zapaze tumore
na medicinskim snimcima. -
3:40 - 3:43Mogu da pobede ljude u šahu i gou.
-
3:43 - 3:48Veliki deo ovog napretka potiče
od metoda nazvanog "mašinsko učenje". -
3:48 - 3:51Mašinsko učenje se razlikuje
od tradicionalnog programiranja, -
3:51 - 3:55gde dajete kompjuteru
detaljne, tačne, minuciozne instrukcije. -
3:55 - 3:59Pre se radi o odabiru sistema
i pohranjivanju podataka u njega, -
3:59 - 4:01uključujući nestrukturirane podatke,
-
4:01 - 4:04poput onih koje stvaramo
u digitalnim životima. -
4:04 - 4:06A sistem uči, pretresajući podatke.
-
4:07 - 4:08Suštinsko je takođe
-
4:08 - 4:13da se ovi sistemi ne vode
logikom samo jednog odgovora. -
4:13 - 4:16Ne proizvode jednostavne odgovore;
više se radi o verovatnoći: -
4:16 - 4:19"Ovo je verovatno sličnije
onome što tražite." -
4:20 - 4:23Sad, pozitivno je:
ovaj metod je zaista moćan. -
4:23 - 4:25Glavni u Guglovom sistemu
za VI je to nazvao: -
4:25 - 4:27"nerazumna efikasnost podataka."
-
4:28 - 4:29Negativno je:
-
4:30 - 4:33ne razumemo zaista šta je sistem naučio.
-
4:33 - 4:34Zapravo, to je njegova moć.
-
4:35 - 4:39Ovo manje liči na davanje
uputstava kompjuteru; -
4:39 - 4:43više liči na dresiranje
bića - mehaničko kuče, -
4:43 - 4:46koje zaista ne razumemo,
niti kontrolišemo. -
4:46 - 4:48Dakle, to je naš problem.
-
4:48 - 4:53Problem je kad ovaj sistem veštačke
inteligencije nešto pogrešno shvati. -
4:53 - 4:56Takođe je problem kad nešto dobro shvati.
-
4:56 - 5:00jer čak ni ne znamo šta je šta
kod subjektivnog problema. -
5:00 - 5:02Ne znamo o čemu ova stvar razmišlja.
-
5:03 - 5:07Dakle, uzmite u obzir
algoritam za zapošljavanje - -
5:08 - 5:12sistem koji se koristi pri zapošljavanju,
koji koristi sisteme mašinskog učenja. -
5:13 - 5:17Sličan sistem je obučavan
na podacima prethodnih zaposlenih -
5:17 - 5:19i naučen je da pronalazi i zapošljava
-
5:19 - 5:22ljude poput postojećih
najučinkovitijih u firmi. -
5:23 - 5:24Zvuči dobro.
-
5:24 - 5:26Jednom sam bila na konferenciji
-
5:26 - 5:29koja je spojila menadžere
iz kadrovske službe i direktore, -
5:29 - 5:30ljude s visokih pozicija,
-
5:30 - 5:32koristeći ove sisteme zapošljavanja.
-
5:32 - 5:34Bili su veoma uzbuđeni.
-
5:34 - 5:38Smatrali su da bi zbog ovoga zapošljavanje
bilo objektivnije, nepristrasnije, -
5:38 - 5:41i da bi žene i manjine imale više šanse,
-
5:41 - 5:44nasuprot pristrasnim ljudskim menadžerima.
-
5:44 - 5:46I, gledajte -
zapošljavanje ljudi je pristrasno. -
5:47 - 5:48Znam.
-
5:48 - 5:51Mislim, na jednom od mojih
prvih poslova kao programerke, -
5:51 - 5:55moja nadređena menadžerka bi ponekad
prišla mestu na kom sam, -
5:55 - 5:59veoma rano ujutru
ili veoma kasno poslepodne, -
5:59 - 6:02i rekla bi: "Zejnep, pođimo na ručak!"
-
6:03 - 6:05Zbunilo bi me neobično vreme.
-
6:05 - 6:07Četiri je popodne. Ručak?
-
6:07 - 6:10Bila sam švorc, pa sam uvek išla
na besplatan ručak. -
6:11 - 6:13Kasnije sam shvatila o čemu se radilo.
-
6:13 - 6:17Moji nadređeni menadžeri
nisu priznali svojim nadređenim -
6:17 - 6:21da je programer kog su zaposlili
za ozbiljan posao bila tinejdžerka -
6:22 - 6:24koja je nosila farmerke i patike na posao.
-
6:25 - 6:27Bila sam dobar radnik,
samo pogrešnog izgleda -
6:27 - 6:29i bila sam pogrešnih godina i roda.
-
6:29 - 6:32Pa zapošljavanje
na rodno i rasno nepristrasan način -
6:32 - 6:34izvesno da mi zvuči dobro.
-
6:35 - 6:38Ali uz ove sisteme,
složenije je, a evo zašto: -
6:39 - 6:45trenutno kompjuterski sistemi
mogu da zaključe razne stvari o vama -
6:45 - 6:47iz vaših digitalnih tragova,
-
6:47 - 6:49čak iako to niste obelodanili.
-
6:50 - 6:52Mogu da zaključe vašu
seksualnu orijentaciju, -
6:53 - 6:54vaše lične osobine,
-
6:55 - 6:56vaša politička naginjanja.
-
6:57 - 7:01Imaju moć predviđanja
sa visokim stepenom tačnosti. -
7:01 - 7:04Zapamtite - za ono što čak
niste ni obelodanili. -
7:04 - 7:06To je zaključivanje.
-
7:06 - 7:09Imam prijateljicu koja je razvila
sličan kompjuterski sistem -
7:09 - 7:13za predviđanje verovatnoće
kliničke ili postporođajne depresije -
7:13 - 7:14iz podataka sa društvenih mreža.
-
7:15 - 7:16Rezultati su bili impresivni.
-
7:16 - 7:20Njeni sistemi mogu da predvide
verovatnoću depresije -
7:20 - 7:24mesecima pre nastupa
bilo kakvih simptoma - -
7:24 - 7:25mesecima ranije.
-
7:25 - 7:27Bez simptoma imamo predviđanje.
-
7:27 - 7:32Ona se nada da će biti korišćeni
za rane intervencije. Sjajno! -
7:33 - 7:35Sad ovo stavite u kontekst zapošljavanja.
-
7:36 - 7:39Pa sam na ovoj konferenciji
menadžera iz kadrovske -
7:39 - 7:44prišla visokoprofilnoj menadžerki
iz prilično velike firme, -
7:44 - 7:48i rekla sam joj: "Pazi, šta ako bi,
bez tvog znanja, -
7:48 - 7:55ovaj sistem iskorenjivao ljude sa velikim
izgledima za depresiju u budućnosti? -
7:56 - 7:59Trenutno nisu depresivni, ali je veća
verovatnoća da će biti u budućnosti. -
8:00 - 8:03Šta ako iskorenjuje žene
s većom verovatnoćom da zatrudne -
8:03 - 8:06u narednih godinu ili dve,
ali trenutno nisu trudne? -
8:07 - 8:12Šta ako zapošljava agresivne ljude
jer je to kultura na vašem radnom mestu?" -
8:13 - 8:16Ovo ne možete da vidite,
posmatrajući rodnu nejednakost. -
8:16 - 8:17Ona bi mogla da bude u ravnoteži.
-
8:17 - 8:21A kako se radi o mašinskom učenju,
a ne tradicionalnom programiranju, -
8:21 - 8:26tu nemamo varijablu
s oznakom "veći rizik od depresije", -
8:26 - 8:28"veći rizik za trudnoću",
-
8:28 - 8:30"skala agresivnih muškaraca".
-
8:30 - 8:34Ne samo da ne znate
na osnovu čega vaš sistem bira, -
8:34 - 8:36čak ne znate ni gde da gledate.
-
8:36 - 8:37To je crna kutija.
-
8:37 - 8:40Ima moć predviđanja,
ali je vi ne razumete. -
8:40 - 8:43"Koja vam je zaštita",
pitala sam, "koju imate -
8:43 - 8:47kojom se starate da crna kutija
ne obavlja nešto sumnjivo?" -
8:49 - 8:53Pogledala me je kao da sam
nagazila na 10 kučećih repića. -
8:53 - 8:54(Smeh)
-
8:54 - 8:56Buljila je u mene i rekla:
-
8:57 - 9:01"Ne želim da čujem ni reč više o ovome."
-
9:01 - 9:03Okrenula se i otišla.
-
9:04 - 9:06Pazite - nije bila nepristojna.
-
9:06 - 9:12Jasno se radilo o ovome: ono što ne znam
nije moj problem, nestani, prazan pogeld. -
9:12 - 9:13(Smeh)
-
9:14 - 9:18Vidite, sličan sistem bi mogao
čak da bude na neki način -
9:18 - 9:20i manje pristrasan od ljudskih menadžera.
-
9:20 - 9:22I mogao bi da ima finansijsku prednost.
-
9:23 - 9:24Ali bi takođe mogao da dovede
-
9:24 - 9:29do stabilnog, ali prikrivenog
isključivanja sa tržišta rada -
9:29 - 9:31ljudi s većim rizikom od depresije.
-
9:32 - 9:34Da li je ovo oblik društva
koji želimo da gradimo, -
9:34 - 9:37a da pri tom ne znamo da smo to uradili
-
9:37 - 9:41jer smo prepustili donošenje odluka
mašinama koje u potpunosti ne razumemo? -
9:41 - 9:43Drugi problem je sledeće:
-
9:43 - 9:48ovi sistemi su često obučavani
na podacima koje proizvode naša delanja, -
9:48 - 9:50na ljudskom otisku.
-
9:50 - 9:54Pa, oni bi prosto mogli
da odražavaju naše predrasude, -
9:54 - 9:58i ovi sistemi bi mogli
da pokupe naše predrasude -
9:58 - 9:59i da ih naglase
-
9:59 - 10:00i potom da nam ih pokažu,
-
10:00 - 10:02dok mi govorimo sebi:
-
10:02 - 10:05"Samo izvodimo objektivne,
neutralne proračune." -
10:06 - 10:09Istraživači su otkrili da na Guglu
-
10:10 - 10:15ženama mnogo ređe nego muškarcima
prikazuju oglase za dobro plaćene poslove. -
10:16 - 10:19A pretraga afroameričkih imena
-
10:19 - 10:24često sa sobom povlači oglase
koji nagoveštavaju kriminalnu prošlost, -
10:24 - 10:25čak i kad ona ne postoji.
-
10:27 - 10:30Slične prikrivene predrasude
i algoritmi nalik crnoj kutiji, -
10:30 - 10:34koje istraživači povremeno otkrivaju,
ali ponekad to ne uspeju, -
10:34 - 10:37mogu da imaju ozbiljne posledice.
-
10:38 - 10:42Okrivljeni iz Viskonsina
je osuđen na šest godina zatvora -
10:42 - 10:43zbog izbegavanja policije.
-
10:45 - 10:46Možda ne znate za ovo,
-
10:46 - 10:50ali algoritme sve češće koriste
u odlučivanju o uslovnoj ili kazni. -
10:50 - 10:53Želeo je da zna:
kako su izračunali ovaj rezultat? -
10:54 - 10:55To je komercijalna crna kutija.
-
10:55 - 11:00Firma je odbila da njen algoritam
izazovu na javnom suđenju. -
11:00 - 11:06No, ProPublica, istraživačka neprofitna
organizacija je proverila taj algoritam -
11:06 - 11:08sa podacima koje su uspeli da nađu
-
11:08 - 11:10i otkrili su da su njihovi
rezultati pristrasni, -
11:10 - 11:14a da je njihova moć predviđanja očajna,
jedva bolja od nagađanja -
11:14 - 11:18i da su pogrešno označavali
okrivljene crnce kao buduće kriminalce, -
11:18 - 11:22dvostruko češće nego okrivljene belce.
-
11:24 - 11:25Pa, razmotrite ovaj slučaj:
-
11:26 - 11:30ova žena je kasnila da pokupi svoje kumče
-
11:30 - 11:32iz okruga Brauard u Floridi,
-
11:33 - 11:35trčala je niz ulicu
sa svojom prijateljicom. -
11:35 - 11:39Spazile su nezaključan dečji bicikl
i skuter na tremu -
11:39 - 11:41i nesmotreno su sele na bicikl.
-
11:41 - 11:44Dok su jurile dalje,
žena je izašla i rekla: -
11:44 - 11:46"Hej! To je bicikl mog deteta!"
-
11:46 - 11:49Ostavile su ga, odšetale, ali su uhapšene.
-
11:49 - 11:53Pogrešila je, bila je nesmotrena,
ali je takođe imala svega 18 godina. -
11:53 - 11:55Imala je nekoliko maloletničkih prekršaja.
-
11:56 - 12:01U međuvremenu, ovaj čovek je uhapšen
zbog krađe u supermarketu - -
12:01 - 12:04robe u vrednosti od 85 dolara,
sličan manji zločin. -
12:05 - 12:09Ali je pre toga imao
dve osude zbog oružane pljačke. -
12:10 - 12:13Ali je algoritam nju ocenio
kao visokorizičnu, a njega nije. -
12:15 - 12:19Dve godine kasnije, ProPublica je otkrila
da ona nije imala novih prekršaja. -
12:19 - 12:21Samo joj je sa dosijeom
bilo teško da nađe posao. -
12:21 - 12:23On, s druge strane, ponovo je u zatvoru
-
12:23 - 12:27i ovaj put služi kaznu od osam godina
zbog kasnijeg zločina. -
12:28 - 12:31Očigledno, moramo da proveravamo
naše crne kutije -
12:31 - 12:34kako ne bi imale
sličnu nekontrolisanu moć. -
12:34 - 12:37(Aplauz)
-
12:38 - 12:42Provere su sjajne i važne,
ali ne rešavaju sve naše probleme. -
12:42 - 12:45Uzmite Fejsbukov moćan
algoritam za dostavu vesti - -
12:45 - 12:50znate, onaj koji sve rangira
i odlučuje šta da vam pokaže -
12:50 - 12:52od svih prijatelja
i stranica koje pratite. -
12:53 - 12:55Da li da vam pokaže još jednu sliku bebe?
-
12:55 - 12:56(Smeh)
-
12:56 - 12:59Sumornu poruku od poznanika?
-
12:59 - 13:01Važnu, ali tešku vest?
-
13:01 - 13:03Nema pravog odgovora.
-
13:03 - 13:05Fejsbuk najviše ima koristi
od angažmana na sajtu: -
13:06 - 13:07sviđanja, deljenja, komentara.
-
13:08 - 13:11Avgusta 2014,
-
13:11 - 13:14izbili su protesti u Fergusonu, Misuri,
-
13:14 - 13:18nakon ubistva afroameričkog tinejdžera
od strane policajca belca, -
13:18 - 13:20pod nejasnim okolnostima.
-
13:20 - 13:22Vesti o protestima su bile svuda
-
13:22 - 13:25po mom algoritamski nefilterisanom
Tviter nalogu, -
13:25 - 13:27ali nigde na mom Fejsbuku.
-
13:27 - 13:29Da li su krivi prijatelji na Fejsbuku?
-
13:29 - 13:31Onemogućila sam Fejsbukov algoritam,
-
13:31 - 13:34a to je teško jer Fejsbuk
nastoji da vas natera -
13:34 - 13:36da budete pod kontrolom algoritma,
-
13:36 - 13:39i videla sam da moji prijatelji
govore o tome. -
13:39 - 13:41Samo mi moj algoritam to nije pokazivao.
-
13:41 - 13:44Istražila sam ovo i otkrila
da je ovo raširen problem. -
13:44 - 13:48Priča o Fergusonu
nije bila prihvatljiva za algoritam. -
13:48 - 13:49Nije nešto za "sviđanje".
-
13:49 - 13:51Ko će da pritisne "sviđanje"?
-
13:52 - 13:54Nije je čak lako ni komentarisati.
-
13:54 - 13:55Bez sviđanja i komentara,
-
13:55 - 13:58algoritam je težio da je prikaže
čak i manjem broju ljudi, -
13:58 - 14:00pa nismo mogli da je vidimo.
-
14:01 - 14:02Umesto toga, te sedmice,
-
14:02 - 14:04Fejsbukov algoritam je izdvojio ovo,
-
14:05 - 14:07a to je ALS ledeni izazov.
-
14:07 - 14:11Plemenit cilj; polij se ledenom vodom,
doniraj u dobrotvorne svrhe, fino. -
14:11 - 14:13Ali bilo je veoma
algoritamski prihvatljivo. -
14:13 - 14:16Mašina je donela ovu odluku u naše ime.
-
14:16 - 14:19Veoma važan, ali težak razgovor
-
14:19 - 14:21je mogao da bude ugušen,
-
14:21 - 14:24da je Fejsbuk bio jedini kanal.
-
14:24 - 14:28Sad, naposletku, ovi sistemi
takođe mogu da greše -
14:28 - 14:31drugačije od ljudskih sistema.
-
14:31 - 14:34Ljudi, sećate li se Votsona,
IBM-ovog sistema mašinske inteligencije -
14:34 - 14:37koji je obrisao pod
ljudskim takmičarima na kvizu? -
14:37 - 14:39Bio je sjajan takmičar.
-
14:39 - 14:42Ali su ga onda u finalnom izazovu
upitali sledeće pitanje: -
14:43 - 14:46"Njegov najveći aerodrom je nazvan
po heroju iz II svetskog rata, -
14:46 - 14:48a drugi po veličini
po bici iz II svetskog rata." -
14:48 - 14:49(Pevuši finalnu temu iz kviza)
-
14:50 - 14:51Čikago.
-
14:51 - 14:52Oba ljudska bića su pogodila.
-
14:53 - 14:57Votson, s druge strane,
odgovorio je: "Toronto" - -
14:57 - 14:59za kategoriju gradova SAD-a.
-
15:00 - 15:02Impresivni sistem je napravio i grešku
-
15:03 - 15:06koju ljudsko biće nikad ne bi,
drugaš je nikad ne bi napravio. -
15:07 - 15:10Naša mašinska inteligencija može da omane
-
15:10 - 15:13na načine koji se ne uklapaju
sa obrascima grešenja kod ljudi, -
15:13 - 15:16na načine koji su neočekivani
i na koje nismo pripremljeni. -
15:16 - 15:20Bilo bi loše ne dobiti posao
za koji ste kvalifikovani, -
15:20 - 15:23ali bi bilo tri puta gore
ako bi to bilo zbog preopterećenja -
15:23 - 15:25u nekakvoj sistemskoj podrutini.
-
15:25 - 15:27(Smeh)
-
15:27 - 15:29U maju 2010,
-
15:29 - 15:33munjevit krah na Vol Stritu
je pokrenut povratnom petljom -
15:33 - 15:36u Vol Stritovom algoritmu "prodaja",
-
15:36 - 15:41izbrisao je vrednost
od trilion dolara za 36 minuta. -
15:42 - 15:44Ne želim da razmišljam
o tome šta znači "greška" -
15:44 - 15:48u kontekstu smrtonosnog
autonomnog oružja. -
15:50 - 15:54Dakle, da, ljudi su oduvek
bili pristrasni. -
15:54 - 15:56Donosioci odluka i čuvari informacija,
-
15:56 - 15:59na sudovima, vestima, u ratu...
-
15:59 - 16:02oni greše; ali u tome je poenta.
-
16:02 - 16:06Ne možemo da izbegnemo
ova teška pitanja. -
16:07 - 16:10Ne možemo da delegiramo
naša zaduženja mašinama. -
16:11 - 16:15(Aplauz)
-
16:17 - 16:22Veštačka inteligencija nam ne pruža
besplatnu kartu za "beg od etike". -
16:23 - 16:26Naučnik za podatke Fred Benson
to naziva matematičkim ispiranjem. -
16:26 - 16:28Potrebno nam je suprotno.
-
16:28 - 16:33Moramo da negujemo sumnju u algoritme,
nadzor i istraživanje. -
16:33 - 16:37Moramo da se postaramo
da imamo algoritamsku odgovrnost, -
16:37 - 16:39proveru i smislenu transparentnost.
-
16:39 - 16:43Moramo da prihvatimo
da uvođenje matematike i kompjutera -
16:43 - 16:46u neuredne ljudske odnose
vođene vrednostima -
16:46 - 16:48ne donosi objektivnost;
-
16:48 - 16:52već pre složenost ljudskih odnosa
osvaja algoritme. -
16:52 - 16:56Da, možemo i treba da koristimo kompjutere
-
16:56 - 16:58kako bi donosili bolje odluke.
-
16:58 - 17:03Ali moramo da ovladamo
našom moralnom odgovornošću i rasuđivanjem -
17:03 - 17:06i da koristimo algoritme
unutar tog okvira, -
17:06 - 17:11ne kao sredstva da se odreknemo
i da delegiramo naše odgovornosti -
17:11 - 17:13nekom drugom, kao čovek čoveku.
-
17:14 - 17:16Mašinska inteligencija je tu.
-
17:16 - 17:20To znači da se kao nikad pre
moramo čvrsto držati -
17:20 - 17:22ljudskih vrednosti i ljudske etike.
-
17:22 - 17:23Hvala vam.
-
17:23 - 17:28(Aplauz)
- Title:
- Zbog mašinske inteligencije ljudski moral je sve važniji
- Speaker:
- Zejnep Tufekči (Zeynep Tufekci)
- Description:
-
Mašinska inteligencija je stigla, i već je koristimo u donošenju subjektivnih odluka. Međutim, zbog složenog načina rasta i napredovanja veštačke inteligencije teško ju je razumeti, a još teže kontrolisati. U ovom poučnom govoru, sociološkinja tehnologije Zejnep Tufekči objašnjava kako inteligentne mašine mogu da pogreše tako da se to ne uklapa u ljudske obrasce grešenja - kao i na neočekivane načine na koje nismo pripremljeni. "Ne možemo da delegiramo naša zaduženja mašinama", kaže. "Moramo se kao nikad pre čvrsto držati ljudskih vrednosti i ljudske etike."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Mile Živković approved Serbian subtitles for Machine intelligence makes human morals more important | ||
Mile Živković edited Serbian subtitles for Machine intelligence makes human morals more important | ||
Mile Živković accepted Serbian subtitles for Machine intelligence makes human morals more important | ||
Mile Živković edited Serbian subtitles for Machine intelligence makes human morals more important | ||
Milenka Okuka edited Serbian subtitles for Machine intelligence makes human morals more important | ||
Milenka Okuka edited Serbian subtitles for Machine intelligence makes human morals more important | ||
Milenka Okuka edited Serbian subtitles for Machine intelligence makes human morals more important |