Return to Video

Što će se dogoditi kada računala postanu pametnija od nas?

  • 0:01 - 0:05
    Radim s mnogo matematičara,
    filozofa i računalnih znanstvenika
  • 0:05 - 0:10
    s kojima razmišljam o budućnosti
    strojne inteligencije,
  • 0:10 - 0:12
    među drugim stvarima.
  • 0:12 - 0:17
    Neki ljudi misle da su te stvari
    u zoni znanstvene fantastike,
  • 0:17 - 0:20
    nešto ludo, nestvarno.
  • 0:20 - 0:21
    Ali ja volim reći
  • 0:21 - 0:25
    ok, pogledajmo uvjete
    modernoga života.
  • 0:25 - 0:27
    (Smijeh)
  • 0:27 - 0:29
    Ovo je normalno stanje stvari.
  • 0:29 - 0:31
    Ali ako malo razmislimo o tome,
  • 0:31 - 0:35
    mi smo zapravo tek nedavno
    stigli na ovaj planet,
  • 0:35 - 0:37
    mi, ljudska vrsta.
  • 0:37 - 0:41
    Kad bismo gledali na Zemlju kao da
    je stvorena prije godinu dana,
  • 0:41 - 0:45
    onda bi ljudska vrsta bila
    stara deset minuta.
  • 0:45 - 0:48
    Industrijska je era počela
    prije dvije sekunde.
  • 0:49 - 0:55
    Drugi pogled na ovo jest taj da promatramo
    svjetski BDP u zadnjih 10 000 godina.
  • 0:55 - 0:58
    Odvojio sam nešto vremena i
    to za vas grafički prikazao.
  • 0:58 - 0:59
    Izgleda ovako.
  • 0:59 - 1:01
    (Smijeh)
  • 1:01 - 1:03
    Neobičan je to oblik za
    uobičajene uvjete.
  • 1:03 - 1:05
    Ja sigurno ne bih sjedio na njemu.
  • 1:05 - 1:07
    (Smijeh)
  • 1:07 - 1:12
    Zapitajmo se koji je uzrok
    ove trenutne anomalije.
  • 1:12 - 1:14
    Neki bi ljudi rekli da je tehnologija.
  • 1:14 - 1:19
    Istina je da se tijekom povijesti
    tehnologija nagomilavala
  • 1:19 - 1:24
    i u ovom se trenutku
    tehnologija jako brzo razvija --
  • 1:24 - 1:25
    to je neposredni uzrok,
  • 1:25 - 1:28
    i zbog toga smo trenutno
    jako produktivni.
  • 1:28 - 1:32
    Ali razmislimo o krajnjem uzroku.
  • 1:33 - 1:37
    Pogledajte ova dva vrlo
    istaknuta gospodina:
  • 1:37 - 1:38
    imamo Kanzija --
  • 1:38 - 1:43
    koji je svladao 200 leksičkih
    znakova što je nevjerojatan podvig.
  • 1:43 - 1:47
    I Ed Witten koji je započeo drugu
    revoluciju superstruna.
  • 1:47 - 1:49
    Ako pomno pogledamo,
    uočit ćemo ovo:
  • 1:49 - 1:51
    u principu istu stvar.
  • 1:51 - 1:53
    Jedna je malo veća,
  • 1:53 - 1:55
    možda ima par specifičnosti
    u načinu na koji je sklopljena.
  • 1:55 - 1:59
    Međutim, ove nevidljive razlike
    ne mogu biti jako složene
  • 1:59 - 2:03
    jer nas dijeli samo 250 000 generacija
  • 2:03 - 2:05
    od zadnjeg zajedničkog pretka.
  • 2:05 - 2:09
    Znamo da se složeni
    mehanizmi dugo razvijaju.
  • 2:10 - 2:12
    Tako da nas hrpa relativno malih promjena
  • 2:12 - 2:16
    vodi od Kanzija do Wittena,
  • 2:16 - 2:20
    od polomljenih grana do
    interkontinentalnih balističkih raketa.
  • 2:21 - 2:25
    Onda je poprilično očito
    da sve što smo postigli
  • 2:25 - 2:26
    i sve do čega nam je stalo
  • 2:26 - 2:31
    uvelike ovisi o relativno malim
    promjenama koje čine ljudski um.
  • 2:33 - 2:36
    Nužna je posljedica ta
    da sve daljnje izmjene
  • 2:36 - 2:40
    koje bi mogle značajno promijeniti
    način razmišljanja
  • 2:40 - 2:43
    mogu imati potencijalno
    ogromne posljedice.
  • 2:44 - 2:47
    Neki od mojih kolega
    smatraju da smo na rubu
  • 2:47 - 2:51
    nečega što bi moglo izazvati
    takve temeljite promjene,
  • 2:51 - 2:54
    a radi se o strojnoj superinteligenciji.
  • 2:54 - 2:59
    Prije je umjetna inteligencija bila
    pisanje naredbi u kutiju.
  • 2:59 - 3:01
    Ljudski bi programeri
  • 3:01 - 3:04
    mukotrpno ručno stvarali stavke znanja.
  • 3:04 - 3:06
    Izgradite takve stručne sustave
  • 3:06 - 3:08
    koji su za određene svrhe korisni,
  • 3:08 - 3:11
    ali su bili krhki i
    nisu bili mjerljivi.
  • 3:11 - 3:14
    U principu ste dobivali samo
    ono što ste unijeli.
  • 3:14 - 3:15
    Ali, od onda se
  • 3:15 - 3:19
    dogodila promjena u pristupu
    u polju umjetne inteligencije.
  • 3:19 - 3:22
    Danas se uglavnom radi o
    učenju strojeva.
  • 3:22 - 3:28
    Umjesto ručnog unosa prikaza
    znanja i značajki,
  • 3:29 - 3:34
    stvaramo algoritme koji uče, i to često
    iz čistih perceptualnih podataka.
  • 3:34 - 3:39
    Načelno je to ista stvar
    koju čini ljudsko dijete.
  • 3:39 - 3:43
    Rezultat je taj da UI nije
    ograničena na jedno područje --
  • 3:43 - 3:48
    isti sustav može naučiti prevoditi
    bilo koju kombinaciju jezika
  • 3:48 - 3:53
    ili naučiti igrati bilo koju
    računalnu igru na Atariju.
  • 3:53 - 3:55
    Naravno,
  • 3:55 - 3:59
    UI nije ni blizu posjedovanja
    iste jake, unakrsne sposobnosti
  • 3:59 - 4:02
    učenja i planiranja raznih područja
    kao što to radi ljudsko biće.
  • 4:02 - 4:04
    Korteks ima neke algoritamske trikove
  • 4:04 - 4:07
    koje ne znamo kako prenijeti strojevima.
  • 4:08 - 4:10
    Tako da je pitanje
  • 4:10 - 4:13
    koliko smo blizu tome da
    uskladimo te trikove.
  • 4:14 - 4:15
    Prije nekoliko godina
  • 4:15 - 4:18
    proveli smo istraživanje s
    vodećim stručnjacima za UI
  • 4:18 - 4:21
    kako bismo vidjeli što misle,
    i jedno od pitanja bilo je
  • 4:21 - 4:25
    "Što mislite, do koje će godine
    biti 50% vjerojatnosti
  • 4:25 - 4:28
    da ćemo postići strojnu inteligenciju
    na razini ljudske inteligencije?"
  • 4:29 - 4:33
    Ljudsku smo razinu definirali kao
    sposobnost da se bilo koji zadatak
  • 4:33 - 4:36
    obavi jednako dobro kao što bi
    ga obavio odrastao čovjek,
  • 4:36 - 4:40
    znači, stvarna ljudska razina, a ne
    samo unutar određenog područja.
  • 4:40 - 4:43
    Srednji je odgovor bio 2040. ili 2050.,
  • 4:43 - 4:46
    ovisno o skupini stručnjaka
    kojoj smo pitanje postavili.
  • 4:46 - 4:50
    To bi se moglo dogoditi puno, puno
    kasnije ili ranije,
  • 4:50 - 4:52
    istina je ta da nitko to zapravo ne zna.
  • 4:53 - 4:58
    Ali ono što znamo jest to da krajnja
    granica procesuiranja informacija
  • 4:58 - 5:03
    u strojevima uvelike nadilazi
    ograničenja biološkog tkiva.
  • 5:03 - 5:06
    Radi se o fizici.
  • 5:06 - 5:10
    Biološki se neuron ispaljuje na možda
    200 herca, 200 puta u sekundi.
  • 5:10 - 5:14
    Ali čak i današnji tranzistor
    radi u gigahercima.
  • 5:14 - 5:19
    Neuroni se polako šire u aksone,
    najviše 100 metara u sekundi.
  • 5:19 - 5:22
    Ali u računalima signali mogu
    putovati brzinom svjetlosti.
  • 5:23 - 5:25
    I tamo postoje ograničenja u veličini,
  • 5:25 - 5:28
    isto kao što ljudski mozak
    mora stati u lubanju,
  • 5:28 - 5:33
    ali računalo može biti veličine
    skladišta, ili čak veće.
  • 5:33 - 5:38
    Potencijal superinteligencije
    prikriven je i čeka,
  • 5:38 - 5:44
    slično kao što je snaga atoma
    bila prikrivena tijekom povijesti,
  • 5:44 - 5:48
    strpljivo čekajući 1945. godinu.
  • 5:48 - 5:50
    U ovom su stoljeću
  • 5:50 - 5:54
    znanstvenici možda otkrili kako
    probuditi moć umjetne inteligencije.
  • 5:54 - 5:58
    A onda bismo mogli svjedočiti
    eksploziji inteligencije.
  • 5:58 - 6:02
    Većina ljudi, kada razmišlja o
    tome što je pametno, a što glupo,
  • 6:02 - 6:05
    mislim da otprilike zamišlja
    ovako nešto.
  • 6:05 - 6:08
    Na jednom kraju imamo seosku budalu,
  • 6:08 - 6:10
    a na drugome
  • 6:10 - 6:15
    Eda Wittena ili Alberta Einsteina,
    ili već preferiranog gurua.
  • 6:15 - 6:19
    Ali iz perspektive umjetne inteligencije,
  • 6:19 - 6:23
    ta slika vjerojatno izgleda ovako:
  • 6:23 - 6:27
    sve počinje na točki nulte inteligencije,
  • 6:27 - 6:30
    a onda nakon puno, puno
    godina napornog rada
  • 6:30 - 6:33
    možda konačno dođemo do
    umjetne inteligencije na razini miša,
  • 6:33 - 6:36
    nešto što se može kretati
    kroz pretrpan prostor
  • 6:36 - 6:38
    jednako dobro kao miševi.
  • 6:38 - 6:42
    A onda nakon još puno, puno godina
    napornog rada i mnogo ulaganja,
  • 6:42 - 6:47
    možda dođemo do umjetne
    inteligencije na razini čimpanze.
  • 6:47 - 6:50
    A onda, nakon još puno godina
    vrlo, vrlo napornog rada,
  • 6:50 - 6:53
    dođemo do seoske budale
    umjetne inteligencije.
  • 6:53 - 6:56
    I nakon nekoliko trenutaka
    nadiđemo Eda Wittena.
  • 6:56 - 6:59
    Tu napredak ne prestaje
  • 6:59 - 7:02
    već se ubrzano nastavlja.
  • 7:02 - 7:04
    To ima duboke implikacije,
  • 7:04 - 7:08
    posebno kad se radi o
    pitanju moći.
  • 7:08 - 7:10
    Na primjer, čimpanze su snažne --
  • 7:10 - 7:15
    dvostruko su jače od muškaraca.
  • 7:15 - 7:20
    A ipak, sudbina Kanzija i njegovih
    prijatelja više ovisi o tome što
  • 7:20 - 7:24
    mi ljudi radimo nego o tome
    što same čimpanze rade.
  • 7:25 - 7:28
    Jednom kada se stvori superinteligencija,
  • 7:28 - 7:31
    sudbina će čovječanstva možda
    ovisiti o tome što ona radi.
  • 7:32 - 7:34
    Razmislite.
  • 7:34 - 7:39
    Strojna inteligencija je zadnji izum
    koji će čovječanstvo ikada trebati.
  • 7:39 - 7:42
    Strojevi će onda biti bolji u
    izumljivanju od nas,
  • 7:42 - 7:44
    i oni će to raditi u digitalnom
    vremenskom rasponu.
  • 7:44 - 7:49
    Načelno to znači
    teleskopiranje budućnosti.
  • 7:49 - 7:53
    Zamislite sve moguće
    lude tehnologije
  • 7:53 - 7:55
    koje bi ljudi mogli razviti:
    lijek protiv starenja,
  • 7:55 - 7:56
    kolonizacija svemira,
  • 7:59 - 8:02
    samoreplicirajući nanoboti,
    unošenje uma u računalo,
  • 8:02 - 8:04
    svakakve znanstveno-fantastične stvari
  • 8:04 - 8:07
    koje su u skladu sa zakonima fizike.
  • 8:07 - 8:11
    Superinteligencija mogla bi se razviti,
    i to dosta brzo.
  • 8:12 - 8:16
    Superinteligencija s takvom
    tehnološkom zrelošću
  • 8:16 - 8:18
    bila bi iznimno moćna,
  • 8:18 - 8:23
    i bar bi u nekim slučajevima,
    mogla dobiti što želi.
  • 8:23 - 8:28
    Onda bismo u budućnosti imali svijet
    oblikovan prema preferencijama te UI.
  • 8:30 - 8:34
    Dobro je pitanje koje su te preference.
  • 8:34 - 8:36
    Tu se stvari kompliciraju.
  • 8:36 - 8:37
    Da bismo napredovali s tim,
  • 8:37 - 8:41
    moramo prvo izbjeći antropomorfizaciju.
  • 8:42 - 8:45
    A to je ironično jer
    svi novinski članci
  • 8:45 - 8:49
    o budućnosti UI
    imaju sliku ovoga:
  • 8:50 - 8:54
    Tako da mislim da trebamo pojmiti
    ovo pitanje malo apstraktnije,
  • 8:54 - 8:57
    a ne u obliku holivudskih scenarija.
  • 8:57 - 9:01
    Inteligenciju trebamo promatrati
    kao proces optimizacije,
  • 9:01 - 9:06
    proces koji usmjerava budućnost
    u određeni set konfiguracija.
  • 9:06 - 9:10
    Superinteligencija je zaista jak
    proces optimizacije.
  • 9:10 - 9:14
    Nevjerojatno je dobra u korištenju
    raspoloživih sredstava kako bi postigla
  • 9:14 - 9:16
    svoj cilj.
  • 9:16 - 9:19
    To znači da nužno ne postoji
    povezanost između
  • 9:19 - 9:22
    visoke inteligencije u tom smislu
  • 9:22 - 9:27
    i cilja koji bismo mi ljudi smatrali
    vrijednim ili smislenim.
  • 9:27 - 9:31
    Recimo da UI damo cilj
    da nasmiju ljude.
  • 9:31 - 9:34
    Kad je UI slaba, izvodi korisne
    ili zabavne radnje
  • 9:34 - 9:37
    zbog kojih se njihov korisnik smije.
  • 9:37 - 9:39
    Kada UI postane superinteligentna,
  • 9:39 - 9:43
    uvidjet će da postoji učinkovitiji
    način na koji postići taj cilj:
  • 9:43 - 9:44
    preuzimanje kontrole nad svijetom
  • 9:44 - 9:48
    i smještanje elektroda u
    mišiće lica ljudi
  • 9:48 - 9:51
    kako bi izazvala neprestan, vedar osmijeh.
  • 9:51 - 9:52
    Još jedan primjer,
  • 9:52 - 9:55
    recimo da zadamo UI da riješi
    zahtjevan matematički problem.
  • 9:55 - 9:57
    Kad UI postane superinteligentna,
  • 9:57 - 10:01
    uviđa da je najučinkovitiji način za
    rješavanje toga problema
  • 10:01 - 10:04
    preobrazba planeta u ogromno računalo,
  • 10:04 - 10:06
    da bi povećala njegovu
    sposobnost razmišljanja.
  • 10:06 - 10:09
    I imajte na umu da to daje UI
    instrumentalni razlog da
  • 10:09 - 10:12
    nam radi stvari koje mi
    možda ne odobravamo.
  • 10:12 - 10:13
    U ovom su primjeri ljudi prijetnja,
  • 10:13 - 10:16
    mogli bismo spriječiti rješavanje
    matematičkih problema.
  • 10:17 - 10:21
    Naravno, stvari neće baš
    tako poći po krivu;
  • 10:21 - 10:22
    ovo su primjeri iz crtića.
  • 10:22 - 10:24
    Ali važna je poanta:
  • 10:24 - 10:27
    ako stvorite zaista moćan
    proces optimizacije
  • 10:27 - 10:30
    kako biste maksimizirali cilj x,
  • 10:30 - 10:32
    morate biti sigurni da
    vaša definicija x-a
  • 10:32 - 10:34
    uključuje sve do čega vam je stalo.
  • 10:35 - 10:39
    Ovo je lekcija na koju nas
    upozoravaju mnogi mitovi.
  • 10:39 - 10:45
    Kralj Mida želi da se sve što
    dotakne pretvori u zlato.
  • 10:45 - 10:47
    Dodirne kćer i ona se pretvori u zlato.
  • 10:47 - 10:50
    Dodirne hranu, ona postane zlato.
  • 10:50 - 10:53
    Ovo bi moglo postati i praktički važno,
  • 10:53 - 10:55
    ne samo kao metafora za pohlepu,
  • 10:55 - 10:56
    nego i kao prikaz onoga što se dogodi
  • 10:56 - 10:59
    ako stvorite moćan
    proces optimizacije
  • 10:59 - 11:04
    i date mu pogrešne ili loše
    određene ciljeve.
  • 11:04 - 11:09
    Mogli biste reći da, ako računalo
    počne stavljati elektrode u lica ljudi,
  • 11:09 - 11:12
    jednostavno ćemo ga isključiti.
  • 11:13 - 11:18
    Pod a, to nije tako jednostavno
    ako smo već ovisni o sustavu --
  • 11:18 - 11:21
    na primjer, kako isključiti internet?
  • 11:21 - 11:26
    Pod b, zašto čimpanze nisu
    isključile prekidač ljudske vrste,
  • 11:26 - 11:27
    oni ili neandertalci?
  • 11:27 - 11:30
    Zasigurno su postojali razlozi za to.
  • 11:30 - 11:33
    Mi imamo prekidač, recimo,
    upravo ovdje.
  • 11:33 - 11:34
    (Guši se)
  • 11:34 - 11:37
    Razlog je taj što smo mi
    inteligentni protivnici;
  • 11:37 - 11:40
    predviđamo prijetnje i
    planiramo kako ih izbjeći.
  • 11:40 - 11:42
    Ali to bi mogao raditi i
    superinteligentni izvršitelj
  • 11:42 - 11:46
    i to puno bolje nego
    što mi to radimo.
  • 11:46 - 11:53
    Poanta je ovoga da ne smijemo biti
    uvjereni da sve držimo pod kontrolom.
  • 11:53 - 11:56
    Mogli bismo si olakšati posao tako što
  • 11:56 - 11:58
    bismo smjestili UI u kutiju,
  • 11:58 - 12:00
    nekakvo sigurno softversko okruženje,
  • 12:00 - 12:03
    virtualnu simulaciju stvarnosti iz
    koje ne može pobjeći.
  • 12:03 - 12:07
    Ali kako možemo biti sigurni
    da UI neće pronaći rupu?
  • 12:07 - 12:10
    Ako uobzirimo da hakeri
    neprestano pronalaze rupe,
  • 12:10 - 12:13
    vjerojatno ne možemo biti sigurni u to.
  • 12:14 - 12:19
    Isključimo Ethernet kabel da bismo
    stvorili zračni prostor,
  • 12:19 - 12:21
    ali opet, ljudski hakeri rutinski nadilaze
  • 12:21 - 12:25
    te prostore socijalnim inženjeringom.
  • 12:25 - 12:26
    Dok ovo govorim,
  • 12:26 - 12:28
    siguran sam da su negdje neku zaposlenicu
  • 12:28 - 12:32
    nagovorili da otkrije
    detalje svog računa
  • 12:32 - 12:35
    nekome tko je tvrdio
    da je iz IT odjela.
  • 12:35 - 12:37
    Mogući su i kreativniji scenariji,
  • 12:37 - 12:38
    na primjer, ako ste UI,
  • 12:38 - 12:42
    možete zamisliti micanje elektroda
    u unutrašnjem sklopu kako biste
  • 12:42 - 12:45
    stvorili radio valove kojima
    možete komunicirati.
  • 12:45 - 12:47
    Ili se možete prevarati da ste neispravni
  • 12:47 - 12:51
    i kada vas programeri otvore da vide
    što nije u redu s vama,
  • 12:51 - 12:53
    pogledaju izvorni kod i -- Bum! --
  • 12:53 - 12:55
    manipulacija je počela.
  • 12:55 - 12:59
    Ili bi moglo dati nacrt
    zaista divne tehnologije,
  • 12:59 - 13:00
    a kada ga primijenimo,
  • 13:00 - 13:05
    ima neke skrivene posljedice
    koje je UI isplanirala.
  • 13:05 - 13:08
    Poanta jest ta da ne bismo trebali biti
    presigurni u svoju sposobnost
  • 13:08 - 13:12
    da superinteligentnog duha
    možemo zauvijek čuvati u boci.
  • 13:12 - 13:14
    Prije ili kasnije će se osloboditi.
  • 13:15 - 13:18
    Vjerujem da je rješenje u
    pronalasku načina kako
  • 13:18 - 13:23
    stvoriti superinteligentnu UI
    koja bi čak - kad - se oslobodi
  • 13:23 - 13:26
    još uvijek bila sigurna jer
    je u osnovi na našoj strani
  • 13:26 - 13:28
    jer dijeli naša uvjerenja.
  • 13:28 - 13:32
    Ne vidim kako drukčije
    riješiti ovaj veliki problem.
  • 13:33 - 13:36
    Zapravo sam ja i optimističan kada
    mislim da je problem rješiv.
  • 13:36 - 13:40
    Ne bismo morali pisati duge liste
    svega do čega nam je stalo,
  • 13:40 - 13:44
    ili, još gore, unijeti to u
    neki računalni jezik
  • 13:44 - 13:45
    kao C++ ili Python,
  • 13:45 - 13:48
    to bi bio i više nego beznadan pothvat!
  • 13:48 - 13:52
    Umjesto toga, stvorimo UI koja
    koristi svoju inteligenciju kako
  • 13:52 - 13:55
    bi naučila što nam je važno,
  • 13:55 - 14:01
    i čiji je motivacijski sustav konstruiran
    tako da bude motivirana za
  • 14:01 - 14:06
    provođenje naših uvjerenja ili izvođenje
    radnji za koje predviđa da ih odobravamo.
  • 14:06 - 14:09
    Tako bismo iskoristili njezinu
    inteligenciju što je više moguće
  • 14:09 - 14:12
    kako bismo riješili ovaj problem.
  • 14:13 - 14:14
    To se može dogoditi,
  • 14:14 - 14:18
    a ishod bi mogao biti jako
    dobar za čovječanstvo.
  • 14:18 - 14:22
    Ali to se ne događa automatski.
  • 14:22 - 14:25
    Polazni uvjeti za
    eksploziju inteligencije
  • 14:25 - 14:28
    morat će biti postavljeni
    na točno određen način
  • 14:28 - 14:31
    ako želimo kontroliranu detonaciju.
  • 14:31 - 14:34
    Vrijednosti UI moraju odgovarati našima,
  • 14:34 - 14:36
    ne samo u poznatim kontekstima
  • 14:36 - 14:38
    u kojima lako provjerimo
    kako se UI ponaša,
  • 14:38 - 14:41
    nego i u novim kontekstima s
    kojima bi se UI mogla susresti
  • 14:41 - 14:43
    u neodređenoj budućnosti.
  • 14:43 - 14:48
    Postoje i neka ezoterična pitanja
    koja bi se morala riješiti:
  • 14:48 - 14:50
    točni detalji teorije odlučivanja,
  • 14:50 - 14:52
    kako se nositi s logičkom
    nesigurnosti i tako dalje.
  • 14:53 - 14:56
    Tehnički problemi koji se moraju
    riješiti kako bi ovo uspjelo
  • 14:56 - 14:58
    poprilično su veliki --
  • 14:58 - 15:01
    ne toliko veliki kao stvaranje
    superinteligentne UI,
  • 15:01 - 15:04
    ali prilično veliki.
  • 15:04 - 15:05
    Ovo je razlog za brigu:
  • 15:05 - 15:10
    Stvaranje superinteligentne UI
    težak je izazov.
  • 15:10 - 15:13
    Stvaranje sigurne superinteligentne UI
  • 15:13 - 15:15
    dodaje još izazova.
  • 15:16 - 15:20
    Rizik leži u otkrivanju kako
    savladati prvi izazov,
  • 15:20 - 15:23
    ali bez shvaćanja kako savladati
    dodatni izazov,
  • 15:23 - 15:25
    osiguravanje sigurnosti.
  • 15:25 - 15:29
    Smatram da bismo
    trebali riješiti
  • 15:29 - 15:32
    pitanje kontrole unaprijed
  • 15:32 - 15:34
    kako bismo bili spremni
    kada za to dođe vrijeme.
  • 15:35 - 15:38
    Može se dogoditi da ne možemo
    taj problem riješiti unaprijed
  • 15:38 - 15:41
    jer se mogu posložiti samo neki elementi
  • 15:41 - 15:45
    kada točno saznamo gdje će se provoditi.
  • 15:45 - 15:49
    Što više problema po pitanju
    kontrole riješimo unaprijed,
  • 15:49 - 15:53
    bolji su izgledi da će prijelaz
    u eru strojne inteligencije
  • 15:53 - 15:54
    proći dobro.
  • 15:54 - 15:59
    Meni se čini da se to isplati raditi
  • 15:59 - 16:02
    i mogu zamisliti da, ako
    sve prođe u redu,
  • 16:02 - 16:07
    će ljudi za milijun godina
    gledati na ovo stoljeće
  • 16:07 - 16:11
    i reći da smo napravili jednu stvar
    koja je stvarno važna, a ta je
  • 16:11 - 16:13
    da smo ovo napravili kako treba.
  • 16:13 - 16:14
    Hvala.
  • 16:14 - 16:17
    (Pljesak)
Title:
Što će se dogoditi kada računala postanu pametnija od nas?
Speaker:
Nick Bostrom
Description:

Umjetna inteligencija postaje sve pametnija - prema istraživanju, u ovom bi stoljeću UI mogla biti jednako "pametna" kao ljudsko biće. A onda će, kaže Nick Bostrom, zavladati nama: "Strojna inteligencija je posljednji izum koje će čovječanstvo ikada trebati." Filozof i tehnolog nas traži da dobro razmislimo o svijetu koji upravo izgrađujemo, svijetu vođenom strojevima koji razmišljaju. Hoće li nam oni pomoći u očuvanju čovječanstva i naših vrijednosti ili će imati vlastita?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Croatian subtitles

Revisions