Return to Video

Zbog mašinske inteligencije ljudski moral je sve važniji

  • 0:01 - 0:05
    Dakle, počela sam da radim
    kao kompjuterska programerka
  • 0:05 - 0:07
    kad sam bila prva godina na fakultetu -
  • 0:07 - 0:08
    u suštini kao tinejdžerka.
  • 0:09 - 0:11
    Ubrzo nakon što sam počela da radim,
  • 0:11 - 0:12
    da pišem softvere za firmu,
  • 0:13 - 0:16
    menadžer koji je radio u firmi
    se spustio do mene
  • 0:16 - 0:18
    i prošaputao mi je:
  • 0:18 - 0:21
    "Zna li da lažem?"
  • 0:22 - 0:24
    Nije bilo više bilo koga u prostoriji.
  • 0:25 - 0:29
    "Zna li ko da lažete? I zašto šapućemo?"
  • 0:30 - 0:33
    Menadžer je pokazao
    na kompjuter u prostoriji.
  • 0:33 - 0:36
    "Zna li da lažem?"
  • 0:38 - 0:42
    Pa, taj menadžer je imao aferu
    sa recepcionerom.
  • 0:42 - 0:43
    (Smeh)
  • 0:43 - 0:45
    A ja sam još uvek bila tinejdžerka.
  • 0:45 - 0:47
    Pa sam mu polušapatom odgovorila:
  • 0:47 - 0:51
    "Da, kompjuter zna kad mu lažete."
  • 0:51 - 0:53
    (Smeh)
  • 0:53 - 0:56
    Pa, smejala sam se,
    ali zapravo šala je na moj račun.
  • 0:56 - 0:59
    Ovih dana imamo kompjuterske sisteme
  • 0:59 - 1:03
    koji mogu da prozru
    emocionalna stanja, čak i laganje,
  • 1:03 - 1:05
    obradom ljudskih lica.
  • 1:05 - 1:09
    Oglašivači, čak i vlade
    su veoma zainteresovane za to.
  • 1:10 - 1:12
    Postala sam kompjuterska programerka
  • 1:12 - 1:15
    jer sam bila jedno od dece
    koja su luda za matematikom i naukom.
  • 1:16 - 1:19
    No, nekako sam usput
    saznala za nuklearno oružje
  • 1:19 - 1:22
    i postala sam zaista zabrinuta
    zbog naučne etike.
  • 1:22 - 1:23
    Mučilo me je to.
  • 1:23 - 1:26
    Međutim, zbog porodičnih okolnosti,
  • 1:26 - 1:29
    takođe je bilo potrebno
    da počnem da radim što pre.
  • 1:29 - 1:33
    Pa sam pomislila u sebi, hej,
    hajde da izaberem tehničku oblast
  • 1:33 - 1:34
    gde mogu lako da se zaposlim
  • 1:34 - 1:38
    i gde ne moram da se bavim
    bilo kakvim mučnim etičkim pitanjem.
  • 1:39 - 1:41
    Pa sam odabrala kompjutere.
  • 1:41 - 1:42
    (Smeh)
  • 1:42 - 1:45
    Pa, ha, ha, ha!
    Šala je skroz na moj račun.
  • 1:45 - 1:48
    Ovih dana kompjuterski naučnici
    prave platforme
  • 1:48 - 1:52
    koje upravljaju onim
    što milijarde ljudi gledaju svakodnevno.
  • 1:53 - 1:57
    Razvijaju automobile
    koji mogu da odluče koga da pregaze.
  • 1:58 - 2:01
    Čak grade mašine, oružja,
  • 2:01 - 2:03
    koja mogu da ubijaju ljude u ratu.
  • 2:03 - 2:06
    U potpunosti se radi o etici.
  • 2:07 - 2:09
    Mašinska inteligencija je tu.
  • 2:10 - 2:13
    Trenutno koristimo kompjutere
    da donesemo razne odluke,
  • 2:13 - 2:15
    ali i nove tipove odluka.
  • 2:15 - 2:20
    Postavljamo kompjuterima pitanja
    koja nemaju jedan pravi odgovor,
  • 2:20 - 2:22
    koja su subjektivna,
  • 2:22 - 2:24
    otvorena i krcata vrednostima.
  • 2:24 - 2:26
    Postavljamo ovakva pitanja:
  • 2:26 - 2:27
    "Koga da firma zaposli?"
  • 2:28 - 2:31
    "Koje ažuriranje od kog prijatelja
    treba da bude vidljivo?"
  • 2:31 - 2:33
    "Koji osuđenik je skloniji
    novom prestupu?"
  • 2:34 - 2:37
    "Koji novinski čalanak ili film
    treba preporučiti ljudima?"
  • 2:37 - 2:40
    Gledajte, da, već neko vreme
    koristimo kompjutere,
  • 2:40 - 2:42
    ali ovo je drugačije.
  • 2:42 - 2:44
    Ovo je istorijski preokret
  • 2:44 - 2:49
    jer ne možemo da usidrimo kompjutere
    kod sličnih subjektivnih odluka
  • 2:49 - 2:54
    na način na koji usidravamo kompjutere
    koji upravljaju avionima, grade mostove,
  • 2:54 - 2:56
    idu na mesec.
  • 2:56 - 3:00
    Jesu li avioni bezbedniji?
    Da li se most zaljuljao i pao?
  • 3:00 - 3:04
    Tu imamo uspostavljene
    prilično jasne repere
  • 3:04 - 3:06
    i tu su zakoni prirode da nas vode.
  • 3:07 - 3:10
    Nemamo slična težišta i repere
  • 3:10 - 3:14
    za odluke koje se tiču
    haotičnih ljudskih odnosa.
  • 3:14 - 3:18
    Da bi stvari bile još složenije,
    naši softveri postaju sve moćniji,
  • 3:18 - 3:22
    ali takođe postaju manje
    transparentni i složeniji.
  • 3:23 - 3:25
    U skorije vreme, u poslednjoj deceniji,
  • 3:25 - 3:27
    složeni algoritmi
    su poprilično napredovali.
  • 3:27 - 3:29
    Mogu da prepoznaju ljudska lica.
  • 3:30 - 3:32
    Mogu da dešifruju rukopis.
  • 3:32 - 3:35
    Mogu da zapaze prevaru
    kod kreditnih kartica
  • 3:35 - 3:36
    i da blokiraju spamove
  • 3:36 - 3:38
    i da prevode s jezika na jezik.
  • 3:38 - 3:40
    Mogu da zapaze tumore
    na medicinskim snimcima.
  • 3:40 - 3:43
    Mogu da pobede ljude u šahu i gou.
  • 3:43 - 3:48
    Veliki deo ovog napretka potiče
    od metoda nazvanog "mašinsko učenje".
  • 3:48 - 3:51
    Mašinsko učenje se razlikuje
    od tradicionalnog programiranja,
  • 3:51 - 3:55
    gde dajete kompjuteru
    detaljne, tačne, minuciozne instrukcije.
  • 3:55 - 3:59
    Pre se radi o odabiru sistema
    i pohranjivanju podataka u njega,
  • 3:59 - 4:01
    uključujući nestrukturirane podatke,
  • 4:01 - 4:04
    poput onih koje stvaramo
    u digitalnim životima.
  • 4:04 - 4:06
    A sistem uči, pretresajući podatke.
  • 4:07 - 4:08
    Suštinsko je takođe
  • 4:08 - 4:13
    da se ovi sistemi ne vode
    logikom samo jednog odgovora.
  • 4:13 - 4:16
    Ne proizvode jednostavne odgovore;
    više se radi o verovatnoći:
  • 4:16 - 4:19
    "Ovo je verovatno sličnije
    onome što tražite."
  • 4:20 - 4:23
    Sad, pozitivno je:
    ovaj metod je zaista moćan.
  • 4:23 - 4:25
    Glavni u Guglovom sistemu
    za VI je to nazvao:
  • 4:25 - 4:27
    "nerazumna efikasnost podataka."
  • 4:28 - 4:29
    Negativno je:
  • 4:30 - 4:33
    ne razumemo zaista šta je sistem naučio.
  • 4:33 - 4:34
    Zapravo, to je njegova moć.
  • 4:35 - 4:39
    Ovo manje liči na davanje
    uputstava kompjuteru;
  • 4:39 - 4:43
    više liči na dresiranje
    bića - mehaničko kuče,
  • 4:43 - 4:46
    koje zaista ne razumemo,
    niti kontrolišemo.
  • 4:46 - 4:48
    Dakle, to je naš problem.
  • 4:48 - 4:53
    Problem je kad ovaj sistem veštačke
    inteligencije nešto pogrešno shvati.
  • 4:53 - 4:56
    Takođe je problem kad nešto dobro shvati.
  • 4:56 - 5:00
    jer čak ni ne znamo šta je šta
    kod subjektivnog problema.
  • 5:00 - 5:02
    Ne znamo o čemu ova stvar razmišlja.
  • 5:03 - 5:07
    Dakle, uzmite u obzir
    algoritam za zapošljavanje -
  • 5:08 - 5:12
    sistem koji se koristi pri zapošljavanju,
    koji koristi sisteme mašinskog učenja.
  • 5:13 - 5:17
    Sličan sistem je obučavan
    na podacima prethodnih zaposlenih
  • 5:17 - 5:19
    i naučen je da pronalazi i zapošljava
  • 5:19 - 5:22
    ljude poput postojećih
    najučinkovitijih u firmi.
  • 5:23 - 5:24
    Zvuči dobro.
  • 5:24 - 5:26
    Jednom sam bila na konferenciji
  • 5:26 - 5:29
    koja je spojila menadžere
    iz kadrovske službe i direktore,
  • 5:29 - 5:30
    ljude s visokih pozicija,
  • 5:30 - 5:32
    koristeći ove sisteme zapošljavanja.
  • 5:32 - 5:34
    Bili su veoma uzbuđeni.
  • 5:34 - 5:38
    Smatrali su da bi zbog ovoga zapošljavanje
    bilo objektivnije, nepristrasnije,
  • 5:38 - 5:41
    i da bi žene i manjine imale više šanse,
  • 5:41 - 5:44
    nasuprot pristrasnim ljudskim menadžerima.
  • 5:44 - 5:46
    I, gledajte -
    zapošljavanje ljudi je pristrasno.
  • 5:47 - 5:48
    Znam.
  • 5:48 - 5:51
    Mislim, na jednom od mojih
    prvih poslova kao programerke,
  • 5:51 - 5:55
    moja nadređena menadžerka bi ponekad
    prišla mestu na kom sam,
  • 5:55 - 5:59
    veoma rano ujutru
    ili veoma kasno poslepodne,
  • 5:59 - 6:02
    i rekla bi: "Zejnep, pođimo na ručak!"
  • 6:03 - 6:05
    Zbunilo bi me neobično vreme.
  • 6:05 - 6:07
    Četiri je popodne. Ručak?
  • 6:07 - 6:10
    Bila sam švorc, pa sam uvek išla
    na besplatan ručak.
  • 6:11 - 6:13
    Kasnije sam shvatila o čemu se radilo.
  • 6:13 - 6:17
    Moji nadređeni menadžeri
    nisu priznali svojim nadređenim
  • 6:17 - 6:21
    da je programer kog su zaposlili
    za ozbiljan posao bila tinejdžerka
  • 6:22 - 6:24
    koja je nosila farmerke i patike na posao.
  • 6:25 - 6:27
    Bila sam dobar radnik,
    samo pogrešnog izgleda
  • 6:27 - 6:29
    i bila sam pogrešnih godina i roda.
  • 6:29 - 6:32
    Pa zapošljavanje
    na rodno i rasno nepristrasan način
  • 6:32 - 6:34
    izvesno da mi zvuči dobro.
  • 6:35 - 6:38
    Ali uz ove sisteme,
    složenije je, a evo zašto:
  • 6:39 - 6:45
    trenutno kompjuterski sistemi
    mogu da zaključe razne stvari o vama
  • 6:45 - 6:47
    iz vaših digitalnih tragova,
  • 6:47 - 6:49
    čak iako to niste obelodanili.
  • 6:50 - 6:52
    Mogu da zaključe vašu
    seksualnu orijentaciju,
  • 6:53 - 6:54
    vaše lične osobine,
  • 6:55 - 6:56
    vaša politička naginjanja.
  • 6:57 - 7:01
    Imaju moć predviđanja
    sa visokim stepenom tačnosti.
  • 7:01 - 7:04
    Zapamtite - za ono što čak
    niste ni obelodanili.
  • 7:04 - 7:06
    To je zaključivanje.
  • 7:06 - 7:09
    Imam prijateljicu koja je razvila
    sličan kompjuterski sistem
  • 7:09 - 7:13
    za predviđanje verovatnoće
    kliničke ili postporođajne depresije
  • 7:13 - 7:14
    iz podataka sa društvenih mreža.
  • 7:15 - 7:16
    Rezultati su bili impresivni.
  • 7:16 - 7:20
    Njeni sistemi mogu da predvide
    verovatnoću depresije
  • 7:20 - 7:24
    mesecima pre nastupa
    bilo kakvih simptoma -
  • 7:24 - 7:25
    mesecima ranije.
  • 7:25 - 7:27
    Bez simptoma imamo predviđanje.
  • 7:27 - 7:32
    Ona se nada da će biti korišćeni
    za rane intervencije. Sjajno!
  • 7:33 - 7:35
    Sad ovo stavite u kontekst zapošljavanja.
  • 7:36 - 7:39
    Pa sam na ovoj konferenciji
    menadžera iz kadrovske
  • 7:39 - 7:44
    prišla visokoprofilnoj menadžerki
    iz prilično velike firme,
  • 7:44 - 7:48
    i rekla sam joj: "Pazi, šta ako bi,
    bez tvog znanja,
  • 7:48 - 7:55
    ovaj sistem iskorenjivao ljude sa velikim
    izgledima za depresiju u budućnosti?
  • 7:56 - 7:59
    Trenutno nisu depresivni, ali je veća
    verovatnoća da će biti u budućnosti.
  • 8:00 - 8:03
    Šta ako iskorenjuje žene
    s većom verovatnoćom da zatrudne
  • 8:03 - 8:06
    u narednih godinu ili dve,
    ali trenutno nisu trudne?
  • 8:07 - 8:12
    Šta ako zapošljava agresivne ljude
    jer je to kultura na vašem radnom mestu?"
  • 8:13 - 8:16
    Ovo ne možete da vidite,
    posmatrajući rodnu nejednakost.
  • 8:16 - 8:17
    Ona bi mogla da bude u ravnoteži.
  • 8:17 - 8:21
    A kako se radi o mašinskom učenju,
    a ne tradicionalnom programiranju,
  • 8:21 - 8:26
    tu nemamo varijablu
    s oznakom "veći rizik od depresije",
  • 8:26 - 8:28
    "veći rizik za trudnoću",
  • 8:28 - 8:30
    "skala agresivnih muškaraca".
  • 8:30 - 8:34
    Ne samo da ne znate
    na osnovu čega vaš sistem bira,
  • 8:34 - 8:36
    čak ne znate ni gde da gledate.
  • 8:36 - 8:37
    To je crna kutija.
  • 8:37 - 8:40
    Ima moć predviđanja,
    ali je vi ne razumete.
  • 8:40 - 8:43
    "Koja vam je zaštita",
    pitala sam, "koju imate
  • 8:43 - 8:47
    kojom se starate da crna kutija
    ne obavlja nešto sumnjivo?"
  • 8:49 - 8:53
    Pogledala me je kao da sam
    nagazila na 10 kučećih repića.
  • 8:53 - 8:54
    (Smeh)
  • 8:54 - 8:56
    Buljila je u mene i rekla:
  • 8:57 - 9:01
    "Ne želim da čujem ni reč više o ovome."
  • 9:01 - 9:03
    Okrenula se i otišla.
  • 9:04 - 9:06
    Pazite - nije bila nepristojna.
  • 9:06 - 9:12
    Jasno se radilo o ovome: ono što ne znam
    nije moj problem, nestani, prazan pogeld.
  • 9:12 - 9:13
    (Smeh)
  • 9:14 - 9:18
    Vidite, sličan sistem bi mogao
    čak da bude na neki način
  • 9:18 - 9:20
    i manje pristrasan od ljudskih menadžera.
  • 9:20 - 9:22
    I mogao bi da ima finansijsku prednost.
  • 9:23 - 9:24
    Ali bi takođe mogao da dovede
  • 9:24 - 9:29
    do stabilnog, ali prikrivenog
    isključivanja sa tržišta rada
  • 9:29 - 9:31
    ljudi s većim rizikom od depresije.
  • 9:32 - 9:34
    Da li je ovo oblik društva
    koji želimo da gradimo,
  • 9:34 - 9:37
    a da pri tom ne znamo da smo to uradili
  • 9:37 - 9:41
    jer smo prepustili donošenje odluka
    mašinama koje u potpunosti ne razumemo?
  • 9:41 - 9:43
    Drugi problem je sledeće:
  • 9:43 - 9:48
    ovi sistemi su često obučavani
    na podacima koje proizvode naša delanja,
  • 9:48 - 9:50
    na ljudskom otisku.
  • 9:50 - 9:54
    Pa, oni bi prosto mogli
    da odražavaju naše predrasude,
  • 9:54 - 9:58
    i ovi sistemi bi mogli
    da pokupe naše predrasude
  • 9:58 - 9:59
    i da ih naglase
  • 9:59 - 10:00
    i potom da nam ih pokažu,
  • 10:00 - 10:02
    dok mi govorimo sebi:
  • 10:02 - 10:05
    "Samo izvodimo objektivne,
    neutralne proračune."
  • 10:06 - 10:09
    Istraživači su otkrili da na Guglu
  • 10:10 - 10:15
    ženama mnogo ređe nego muškarcima
    prikazuju oglase za dobro plaćene poslove.
  • 10:16 - 10:19
    A pretraga afroameričkih imena
  • 10:19 - 10:24
    često sa sobom povlači oglase
    koji nagoveštavaju kriminalnu prošlost,
  • 10:24 - 10:25
    čak i kad ona ne postoji.
  • 10:27 - 10:30
    Slične prikrivene predrasude
    i algoritmi nalik crnoj kutiji,
  • 10:30 - 10:34
    koje istraživači povremeno otkrivaju,
    ali ponekad to ne uspeju,
  • 10:34 - 10:37
    mogu da imaju ozbiljne posledice.
  • 10:38 - 10:42
    Okrivljeni iz Viskonsina
    je osuđen na šest godina zatvora
  • 10:42 - 10:43
    zbog izbegavanja policije.
  • 10:45 - 10:46
    Možda ne znate za ovo,
  • 10:46 - 10:50
    ali algoritme sve češće koriste
    u odlučivanju o uslovnoj ili kazni.
  • 10:50 - 10:53
    Želeo je da zna:
    kako su izračunali ovaj rezultat?
  • 10:54 - 10:55
    To je komercijalna crna kutija.
  • 10:55 - 11:00
    Firma je odbila da njen algoritam
    izazovu na javnom suđenju.
  • 11:00 - 11:06
    No, ProPublica, istraživačka neprofitna
    organizacija je proverila taj algoritam
  • 11:06 - 11:08
    sa podacima koje su uspeli da nađu
  • 11:08 - 11:10
    i otkrili su da su njihovi
    rezultati pristrasni,
  • 11:10 - 11:14
    a da je njihova moć predviđanja očajna,
    jedva bolja od nagađanja
  • 11:14 - 11:18
    i da su pogrešno označavali
    okrivljene crnce kao buduće kriminalce,
  • 11:18 - 11:22
    dvostruko češće nego okrivljene belce.
  • 11:24 - 11:25
    Pa, razmotrite ovaj slučaj:
  • 11:26 - 11:30
    ova žena je kasnila da pokupi svoje kumče
  • 11:30 - 11:32
    iz okruga Brauard u Floridi,
  • 11:33 - 11:35
    trčala je niz ulicu
    sa svojom prijateljicom.
  • 11:35 - 11:39
    Spazile su nezaključan dečji bicikl
    i skuter na tremu
  • 11:39 - 11:41
    i nesmotreno su sele na bicikl.
  • 11:41 - 11:44
    Dok su jurile dalje,
    žena je izašla i rekla:
  • 11:44 - 11:46
    "Hej! To je bicikl mog deteta!"
  • 11:46 - 11:49
    Ostavile su ga, odšetale, ali su uhapšene.
  • 11:49 - 11:53
    Pogrešila je, bila je nesmotrena,
    ali je takođe imala svega 18 godina.
  • 11:53 - 11:55
    Imala je nekoliko maloletničkih prekršaja.
  • 11:56 - 12:01
    U međuvremenu, ovaj čovek je uhapšen
    zbog krađe u supermarketu -
  • 12:01 - 12:04
    robe u vrednosti od 85 dolara,
    sličan manji zločin.
  • 12:05 - 12:09
    Ali je pre toga imao
    dve osude zbog oružane pljačke.
  • 12:10 - 12:13
    Ali je algoritam nju ocenio
    kao visokorizičnu, a njega nije.
  • 12:15 - 12:19
    Dve godine kasnije, ProPublica je otkrila
    da ona nije imala novih prekršaja.
  • 12:19 - 12:21
    Samo joj je sa dosijeom
    bilo teško da nađe posao.
  • 12:21 - 12:23
    On, s druge strane, ponovo je u zatvoru
  • 12:23 - 12:27
    i ovaj put služi kaznu od osam godina
    zbog kasnijeg zločina.
  • 12:28 - 12:31
    Očigledno, moramo da proveravamo
    naše crne kutije
  • 12:31 - 12:34
    kako ne bi imale
    sličnu nekontrolisanu moć.
  • 12:34 - 12:37
    (Aplauz)
  • 12:38 - 12:42
    Provere su sjajne i važne,
    ali ne rešavaju sve naše probleme.
  • 12:42 - 12:45
    Uzmite Fejsbukov moćan
    algoritam za dostavu vesti -
  • 12:45 - 12:50
    znate, onaj koji sve rangira
    i odlučuje šta da vam pokaže
  • 12:50 - 12:52
    od svih prijatelja
    i stranica koje pratite.
  • 12:53 - 12:55
    Da li da vam pokaže još jednu sliku bebe?
  • 12:55 - 12:56
    (Smeh)
  • 12:56 - 12:59
    Sumornu poruku od poznanika?
  • 12:59 - 13:01
    Važnu, ali tešku vest?
  • 13:01 - 13:03
    Nema pravog odgovora.
  • 13:03 - 13:05
    Fejsbuk najviše ima koristi
    od angažmana na sajtu:
  • 13:06 - 13:07
    sviđanja, deljenja, komentara.
  • 13:08 - 13:11
    Avgusta 2014,
  • 13:11 - 13:14
    izbili su protesti u Fergusonu, Misuri,
  • 13:14 - 13:18
    nakon ubistva afroameričkog tinejdžera
    od strane policajca belca,
  • 13:18 - 13:20
    pod nejasnim okolnostima.
  • 13:20 - 13:22
    Vesti o protestima su bile svuda
  • 13:22 - 13:25
    po mom algoritamski nefilterisanom
    Tviter nalogu,
  • 13:25 - 13:27
    ali nigde na mom Fejsbuku.
  • 13:27 - 13:29
    Da li su krivi prijatelji na Fejsbuku?
  • 13:29 - 13:31
    Onemogućila sam Fejsbukov algoritam,
  • 13:31 - 13:34
    a to je teško jer Fejsbuk
    nastoji da vas natera
  • 13:34 - 13:36
    da budete pod kontrolom algoritma,
  • 13:36 - 13:39
    i videla sam da moji prijatelji
    govore o tome.
  • 13:39 - 13:41
    Samo mi moj algoritam to nije pokazivao.
  • 13:41 - 13:44
    Istražila sam ovo i otkrila
    da je ovo raširen problem.
  • 13:44 - 13:48
    Priča o Fergusonu
    nije bila prihvatljiva za algoritam.
  • 13:48 - 13:49
    Nije nešto za "sviđanje".
  • 13:49 - 13:51
    Ko će da pritisne "sviđanje"?
  • 13:52 - 13:54
    Nije je čak lako ni komentarisati.
  • 13:54 - 13:55
    Bez sviđanja i komentara,
  • 13:55 - 13:58
    algoritam je težio da je prikaže
    čak i manjem broju ljudi,
  • 13:58 - 14:00
    pa nismo mogli da je vidimo.
  • 14:01 - 14:02
    Umesto toga, te sedmice,
  • 14:02 - 14:04
    Fejsbukov algoritam je izdvojio ovo,
  • 14:05 - 14:07
    a to je ALS ledeni izazov.
  • 14:07 - 14:11
    Plemenit cilj; polij se ledenom vodom,
    doniraj u dobrotvorne svrhe, fino.
  • 14:11 - 14:13
    Ali bilo je veoma
    algoritamski prihvatljivo.
  • 14:13 - 14:16
    Mašina je donela ovu odluku u naše ime.
  • 14:16 - 14:19
    Veoma važan, ali težak razgovor
  • 14:19 - 14:21
    je mogao da bude ugušen,
  • 14:21 - 14:24
    da je Fejsbuk bio jedini kanal.
  • 14:24 - 14:28
    Sad, naposletku, ovi sistemi
    takođe mogu da greše
  • 14:28 - 14:31
    drugačije od ljudskih sistema.
  • 14:31 - 14:34
    Ljudi, sećate li se Votsona,
    IBM-ovog sistema mašinske inteligencije
  • 14:34 - 14:37
    koji je obrisao pod
    ljudskim takmičarima na kvizu?
  • 14:37 - 14:39
    Bio je sjajan takmičar.
  • 14:39 - 14:42
    Ali su ga onda u finalnom izazovu
    upitali sledeće pitanje:
  • 14:43 - 14:46
    "Njegov najveći aerodrom je nazvan
    po heroju iz II svetskog rata,
  • 14:46 - 14:48
    a drugi po veličini
    po bici iz II svetskog rata."
  • 14:48 - 14:49
    (Pevuši finalnu temu iz kviza)
  • 14:50 - 14:51
    Čikago.
  • 14:51 - 14:52
    Oba ljudska bića su pogodila.
  • 14:53 - 14:57
    Votson, s druge strane,
    odgovorio je: "Toronto" -
  • 14:57 - 14:59
    za kategoriju gradova SAD-a.
  • 15:00 - 15:02
    Impresivni sistem je napravio i grešku
  • 15:03 - 15:06
    koju ljudsko biće nikad ne bi,
    drugaš je nikad ne bi napravio.
  • 15:07 - 15:10
    Naša mašinska inteligencija može da omane
  • 15:10 - 15:13
    na načine koji se ne uklapaju
    sa obrascima grešenja kod ljudi,
  • 15:13 - 15:16
    na načine koji su neočekivani
    i na koje nismo pripremljeni.
  • 15:16 - 15:20
    Bilo bi loše ne dobiti posao
    za koji ste kvalifikovani,
  • 15:20 - 15:23
    ali bi bilo tri puta gore
    ako bi to bilo zbog preopterećenja
  • 15:23 - 15:25
    u nekakvoj sistemskoj podrutini.
  • 15:25 - 15:27
    (Smeh)
  • 15:27 - 15:29
    U maju 2010,
  • 15:29 - 15:33
    munjevit krah na Vol Stritu
    je pokrenut povratnom petljom
  • 15:33 - 15:36
    u Vol Stritovom algoritmu "prodaja",
  • 15:36 - 15:41
    izbrisao je vrednost
    od trilion dolara za 36 minuta.
  • 15:42 - 15:44
    Ne želim da razmišljam
    o tome šta znači "greška"
  • 15:44 - 15:48
    u kontekstu smrtonosnog
    autonomnog oružja.
  • 15:50 - 15:54
    Dakle, da, ljudi su oduvek
    bili pristrasni.
  • 15:54 - 15:56
    Donosioci odluka i čuvari informacija,
  • 15:56 - 15:59
    na sudovima, vestima, u ratu...
  • 15:59 - 16:02
    oni greše; ali u tome je poenta.
  • 16:02 - 16:06
    Ne možemo da izbegnemo
    ova teška pitanja.
  • 16:07 - 16:10
    Ne možemo da delegiramo
    naša zaduženja mašinama.
  • 16:11 - 16:15
    (Aplauz)
  • 16:17 - 16:22
    Veštačka inteligencija nam ne pruža
    besplatnu kartu za "beg od etike".
  • 16:23 - 16:26
    Naučnik za podatke Fred Benson
    to naziva matematičkim ispiranjem.
  • 16:26 - 16:28
    Potrebno nam je suprotno.
  • 16:28 - 16:33
    Moramo da negujemo sumnju u algoritme,
    nadzor i istraživanje.
  • 16:33 - 16:37
    Moramo da se postaramo
    da imamo algoritamsku odgovrnost,
  • 16:37 - 16:39
    proveru i smislenu transparentnost.
  • 16:39 - 16:43
    Moramo da prihvatimo
    da uvođenje matematike i kompjutera
  • 16:43 - 16:46
    u neuredne ljudske odnose
    vođene vrednostima
  • 16:46 - 16:48
    ne donosi objektivnost;
  • 16:48 - 16:52
    već pre složenost ljudskih odnosa
    osvaja algoritme.
  • 16:52 - 16:56
    Da, možemo i treba da koristimo kompjutere
  • 16:56 - 16:58
    kako bi donosili bolje odluke.
  • 16:58 - 17:03
    Ali moramo da ovladamo
    našom moralnom odgovornošću i rasuđivanjem
  • 17:03 - 17:06
    i da koristimo algoritme
    unutar tog okvira,
  • 17:06 - 17:11
    ne kao sredstva da se odreknemo
    i da delegiramo naše odgovornosti
  • 17:11 - 17:13
    nekom drugom, kao čovek čoveku.
  • 17:14 - 17:16
    Mašinska inteligencija je tu.
  • 17:16 - 17:20
    To znači da se kao nikad pre
    moramo čvrsto držati
  • 17:20 - 17:22
    ljudskih vrednosti i ljudske etike.
  • 17:22 - 17:23
    Hvala vam.
  • 17:23 - 17:28
    (Aplauz)
Title:
Zbog mašinske inteligencije ljudski moral je sve važniji
Speaker:
Zejnep Tufekči (Zeynep Tufekci)
Description:

Mašinska inteligencija je stigla, i već je koristimo u donošenju subjektivnih odluka. Međutim, zbog složenog načina rasta i napredovanja veštačke inteligencije teško ju je razumeti, a još teže kontrolisati. U ovom poučnom govoru, sociološkinja tehnologije Zejnep Tufekči objašnjava kako inteligentne mašine mogu da pogreše tako da se to ne uklapa u ljudske obrasce grešenja - kao i na neočekivane načine na koje nismo pripremljeni. "Ne možemo da delegiramo naša zaduženja mašinama", kaže. "Moramo se kao nikad pre čvrsto držati ljudskih vrednosti i ljudske etike."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Serbian subtitles

Revisions