Return to Video

Ne plašite se superinteligentne veštačke inteligencije

  • 0:01 - 0:05
    Kad sam bio dete,
    bio sam štreber do koske.
  • 0:05 - 0:07
    Mislim da su i neki od vas to bili.
  • 0:08 - 0:09
    (Smeh)
  • 0:09 - 0:12
    A vi, gospodine, koji se najglasnije
    smejete, verovatno ste to i dalje.
  • 0:12 - 0:14
    (Smeh)
  • 0:14 - 0:18
    Odrastao sam u gradiću
    u prašnjavim ravnicama severnog Teksasa
  • 0:18 - 0:21
    kao sin šerifa koji je sin pastora.
  • 0:21 - 0:23
    Upadanje u nevolju nije dolazilo u obzir.
  • 0:24 - 0:27
    Te sam iz zabave počeo da čitam
    knjige o proračunu.
  • 0:27 - 0:29
    (Smeh)
  • 0:29 - 0:31
    I vi ste.
  • 0:31 - 0:34
    Zbog toga sam sagradio laser,
    kompjuter i modele raketa,
  • 0:34 - 0:37
    a to me je navelo da napravim
    raketno gorivo u spavaćoj sobi.
  • 0:38 - 0:42
    Sad, u naučnom smislu,
  • 0:42 - 0:45
    ovo nazivamo veoma lošom idejom.
  • 0:45 - 0:46
    (Smeh)
  • 0:46 - 0:48
    Otprilike u to vreme,
  • 0:48 - 0:52
    u bioskope je stigla "Odiseja u svemiru:
    2001" Stenlija Kjubrika,
  • 0:52 - 0:54
    i moj život je izmenjen zauvek.
  • 0:54 - 0:56
    Sve mi se sviđalo kod tog filma,
  • 0:56 - 0:59
    naročito HAL 9000.
  • 0:59 - 1:01
    Sad, HAL je bio svesni kompjuter
  • 1:01 - 1:03
    osmišljen da vodi kosmički brod Diskaveri
  • 1:03 - 1:06
    od Zemlje do Jupitera.
  • 1:06 - 1:08
    HAL je takođe bio faličan lik
  • 1:08 - 1:12
    jer je na kraju odabrao
    vrednost misije umesto ljudskog života.
  • 1:13 - 1:15
    Sad, HAL je bio fiktivan lik,
  • 1:15 - 1:18
    ali bez obzira na to,
    obraća se našim strahovima,
  • 1:18 - 1:20
    našim strahovima da ćemo pasti pod uticaj
  • 1:20 - 1:23
    nekakve bezosećajne,
    veštačke inteligencije
  • 1:23 - 1:25
    koja je ravnodušna prema našoj ljudskosti.
  • 1:26 - 1:28
    Verujem da su takvi strahovi neosnovani.
  • 1:28 - 1:31
    Uistinu se nalazimo u izvanrednom vremenu
  • 1:31 - 1:33
    u ljudskoj istoriji,
  • 1:33 - 1:38
    u kom, pokrenuti odbijanjem da prihvatimo
    granice naših tela i naših umova,
  • 1:38 - 1:39
    gradimo mašine
  • 1:39 - 1:43
    izuzetne, prelepe složenosti i stila
  • 1:43 - 1:45
    koje će da prošire ljudsko iskustvo
  • 1:45 - 1:47
    na nezamislive načine.
  • 1:48 - 1:50
    Nakon karijere koja seže
    od akademije ratnog vazduhoplovstva
  • 1:50 - 1:52
    preko svemirskog zapovednika do sada,
  • 1:52 - 1:54
    postao sam inženjer za sisteme,
  • 1:54 - 1:57
    a nedavno me je privukao
    inženjerski problem
  • 1:57 - 1:59
    u vezi sa NASA-inom misijom na Marsu.
  • 1:59 - 2:02
    Sad, tokom svemirskih letova na Mesec
  • 2:02 - 2:05
    možemo da se oslonimo
    na kontrolu misije u Hjustonu
  • 2:05 - 2:07
    da će da prati sve aspekte leta.
  • 2:07 - 2:11
    Međutim, Mars je 200 puta dalje,
  • 2:11 - 2:14
    i zbog toga je potrebno
    u proseku 13 minuta
  • 2:14 - 2:17
    za signal da putuje od Zemlje do Marsa.
  • 2:17 - 2:20
    Ako imamo problem, nema dovoljno vremena.
  • 2:21 - 2:23
    Pa razumno inženjeresko rešenje
  • 2:23 - 2:26
    iziskuje od nas da smestimo
    kontrolu misije
  • 2:26 - 2:29
    unutar zidova kosmičkog broda Orion.
  • 2:29 - 2:32
    Još jedna fantastična ideja
    u profilu misije
  • 2:32 - 2:35
    smešta humanoidne robote
    na površinu Marsa
  • 2:35 - 2:37
    pre nego što ljudi lično stignu,
  • 2:37 - 2:38
    prvo da bi gradili objekte
  • 2:38 - 2:42
    i kasnije da služe kao saradnici
    u naučnoj ekipi.
  • 2:43 - 2:46
    Sad, dok sam ovo posmatrao
    sa inženjerske tačke gledišta,
  • 2:46 - 2:49
    bilo mi je veoma jasno
    da je potrebno da projektujem
  • 2:49 - 2:52
    pametnu, sarađivačku,
  • 2:52 - 2:54
    društveno inteligentnu
    veštačku inteligenciju.
  • 2:54 - 2:58
    Drugim rečima, trebalo je da sagradim
    nešto prilično slično HAL-u,
  • 2:58 - 3:01
    ali bez ubilačkih tendencija.
  • 3:01 - 3:02
    (Smeh)
  • 3:03 - 3:05
    Zastanimo na trenutak.
  • 3:05 - 3:09
    Da li je zaista moguće sagraditi
    takvu veštačku inteligenciju?
  • 3:09 - 3:10
    Zapravo jeste.
  • 3:10 - 3:11
    Na razne načine,
  • 3:11 - 3:13
    ovo je težak inženjerski problem
  • 3:13 - 3:15
    sa elementima VI,
  • 3:15 - 3:20
    a ne nekakav neprijatan problem VI
    koji je potrebno projektovati.
  • 3:20 - 3:22
    Da parafraziram Alana Tjuringa:
  • 3:22 - 3:25
    ne zanima me izgradnja svesne mašine.
  • 3:25 - 3:26
    Ne pravim HAL-a.
  • 3:26 - 3:29
    Ja tragam za prostim mozgom,
  • 3:29 - 3:32
    nečim što pruža iluziju inteligencije.
  • 3:33 - 3:36
    Umetnost nauke i računarstva
    su prešle dug put
  • 3:36 - 3:38
    od vremena prikazivanja HAL-a,
  • 3:38 - 3:41
    i pretpostavljam da je njegov tvorac
    dr Čandra ovde danas,
  • 3:41 - 3:43
    imao bi gomilu pitanja za nas.
  • 3:43 - 3:45
    Da li je zaista moguće da mi
  • 3:45 - 3:49
    uzmemo sistem od miliona
    i miliona uređaja,
  • 3:49 - 3:51
    koji učitava dotok podataka,
  • 3:51 - 3:53
    i da predvidimo njihove kvarove
    i delamo unapred?
  • 3:53 - 3:54
    Da.
  • 3:54 - 3:58
    Možemo li sagraditi sisteme koji
    pričaju s ljudima na prirodnom jeziku?
  • 3:58 - 3:59
    Da.
  • 3:59 - 4:02
    Možemo li sagraditi sisteme
    koji prepoznaju predmete, osećanja,
  • 4:02 - 4:05
    ispoljavaju emocije,
    igraju igrice, čak i čitaju sa usana?
  • 4:05 - 4:06
    Da.
  • 4:06 - 4:09
    Možemo li sagraditi sistem
    koji postavlja ciljeve,
  • 4:09 - 4:12
    koji pravi planove za te ciljeve
    i usput uči?
  • 4:12 - 4:14
    Da.
  • 4:14 - 4:17
    Možemo li sagraditi sisteme
    koji sadrže teoriju uma?
  • 4:17 - 4:18
    Ovo učimo da radimo.
  • 4:18 - 4:22
    Možemo li sagraditi sisteme
    koji imaju etičke i moralne osnove?
  • 4:22 - 4:25
    Ovo moramo da naučimo da radimo.
  • 4:25 - 4:27
    Zato, prihvatimo za trenutak
  • 4:27 - 4:30
    da je moguće sagraditi
    takvu veštačku inteligenciju
  • 4:30 - 4:32
    za ovakvu i slične misije.
  • 4:32 - 4:34
    Sledeće pitanje
    koje morate postaviti sebi je:
  • 4:34 - 4:36
    da li treba da je se plašimo?
  • 4:36 - 4:38
    Sad, svaka nova tehnologija
  • 4:38 - 4:41
    sa sobom nosi izvesnu dozu strepnje.
  • 4:41 - 4:43
    Kada smo prvi put videli automobile,
  • 4:43 - 4:47
    ljudi su se žalili da ćemo biti svedoci
    uništenja porodice.
  • 4:47 - 4:49
    Kada smo prvi put videli telefon,
  • 4:49 - 4:52
    ljudi su bili zabrinuti
    da će da uništi učtiv razgovor.
  • 4:52 - 4:56
    U jednom trenutku smo videli
    kako pisana reč počinje da preovlađuje,
  • 4:56 - 4:59
    ljudi su smatrali da ćemo izgubiti
    sposobnost pamćenja.
  • 4:59 - 5:01
    Sve ovo je donekle tačno,
  • 5:01 - 5:03
    ali je takođe tačno
    da nam je ova tehnologija
  • 5:03 - 5:07
    donela stvari koje su proširile
    ljudsko iskustvo
  • 5:07 - 5:08
    na izvesne suštinske načine.
  • 5:10 - 5:12
    Stoga, pođimo malo dalje s ovim.
  • 5:13 - 5:18
    Ne strahujem od stvaranja VI na ovaj način
  • 5:18 - 5:22
    jer će vremenom
    otelotvoriti neke od naših vrednosti.
  • 5:22 - 5:25
    Razmotrite sledeće: izgradnja kognitivnog
    sistema je temeljno različita
  • 5:25 - 5:29
    od izgradnje tradicionalnog
    softverskog sistema iz prošlosti.
  • 5:29 - 5:31
    Ne programiramo ih. Podučavamo ih.
  • 5:31 - 5:34
    Kako bih naučio sistem
    da raspoznaje cveće,
  • 5:34 - 5:37
    pokazujem mu na hiljade cvetova
    koji se meni sviđaju.
  • 5:37 - 5:39
    Kako bih naučio sistem da igra igru -
  • 5:39 - 5:41
    Pa, bih. I vi biste.
  • 5:43 - 5:45
    Volim cveće. Pa šta.
  • 5:45 - 5:48
    Kako bih naučio sistem
    da igra igru poput goa,
  • 5:48 - 5:50
    morao bih da odigram
    na hiljade partija goa,
  • 5:50 - 5:52
    ali bih ga usput naučio
  • 5:52 - 5:54
    kako da razlikuje dobru od loše partije.
  • 5:55 - 5:58
    Ako bih želeo da stvorim pravnog
    asistenta sa veštačkom inteligencijom,
  • 5:58 - 6:00
    podučio bih ga zakonskim pravilncima,
  • 6:00 - 6:03
    ali bih mu istovremeno s tim mešao
  • 6:03 - 6:06
    osećanja milosti i pravde
    koja su delovi tog zakona.
  • 6:07 - 6:10
    U naučnom smislu, ovo je nešto
    što nazivamo temeljnom istinom,
  • 6:10 - 6:12
    a ovo je važna tačka:
  • 6:12 - 6:13
    stvarajući ove mašine,
  • 6:13 - 6:16
    sledi da ih učimo svesti
    o našim vrednostima.
  • 6:17 - 6:20
    U tom smislu, verujem
    veštačkoj inteligenciji
  • 6:20 - 6:23
    isto, ako ne i više,
    kao i dobro obučenim ljudima.
  • 6:24 - 6:25
    Međutim, možda se pitate,
  • 6:25 - 6:28
    šta je sa odmetnicima,
  • 6:28 - 6:31
    nekim dobro finansiranim
    nevladinim organizacijama?
  • 6:31 - 6:35
    Ne plašim se veštačke inteligencije
    u rukama vukova samotnjaka.
  • 6:35 - 6:40
    Očito se ne možemo zaštititi
    od svih nasumičnih činova nasilja,
  • 6:40 - 6:42
    ali u stvarnosti sličan sistem
  • 6:42 - 6:45
    zahteva značajanu i prefinjenu obuku
  • 6:45 - 6:47
    koja prevazilazi resurse pojedinaca.
  • 6:47 - 6:49
    A zatim,
  • 6:49 - 6:52
    to je daleko više od pukog ubrizgavanja
    internet virusa u svet,
  • 6:52 - 6:55
    gde pritisnete dugme
    i iznenada se nalazi na milion mesta
  • 6:55 - 6:57
    i laptopovi počinju svuda da eksplodiraju.
  • 6:57 - 7:00
    Sad, ovakve materije su daleko veće,
  • 7:00 - 7:02
    i sigurno ćemo ih doživeti.
  • 7:03 - 7:06
    Da li me je strah da će takva
    veštačka inteligencija
  • 7:06 - 7:08
    možda ugroziti čitavo čovečanstvo?
  • 7:08 - 7:13
    Ako pogledate filmove,
    poput "Matriksa", "Metropolisa",
  • 7:13 - 7:16
    "Terminatora",
    serije poput "Zapadnog sveta",
  • 7:16 - 7:18
    svi se oni bave tim strahom.
  • 7:18 - 7:22
    Zaista, u knjizi "Superinteligencija"
    filozofa Nika Bostroma,
  • 7:22 - 7:24
    on se bavi ovom tematikom
  • 7:24 - 7:28
    i razmatra da bi superinteligencija
    mogla ne samo da bude opasna,
  • 7:28 - 7:32
    već bi mogla predstavljati egzistencijalnu
    pretnju čitavom čovečanstvu.
  • 7:32 - 7:34
    Osnovni argument dr Bostroma
  • 7:34 - 7:37
    je da bi slični sistemi vremenom
  • 7:37 - 7:40
    imali takavu nezasitu žudnju
    za informacijama
  • 7:40 - 7:43
    da bi možda naučili kako da uče
  • 7:43 - 7:46
    i vremenom bi otkrili
    da možda imaju ciljeve
  • 7:46 - 7:48
    koji su suprotni ljudskim potrebama.
  • 7:48 - 7:50
    Dr Bostrom ima brojne pratioce.
  • 7:50 - 7:54
    Podržavaju ga ljudi poput
    Ilona Maska i Stivena Hokinga.
  • 7:55 - 7:57
    Uz dužno poštovanje
  • 7:58 - 8:00
    tim briljantnim umovima,
  • 8:00 - 8:02
    verujem da suštinski greše.
  • 8:02 - 8:06
    Sad, argument dr Bostroma
    je suviše složen za razlaganje,
  • 8:06 - 8:08
    i ja nemam vremena
    da ga u potpunosti razložim,
  • 8:08 - 8:11
    ali veoma kratko, razmotrite sledeće:
  • 8:11 - 8:14
    superznanje je veoma različito
    od superdelanja.
  • 8:14 - 8:16
    HAL je bio pretnja za posadu Diskaverija,
  • 8:16 - 8:21
    samo zato što je HAL zapovedao
    svim aspektima Diskaverija.
  • 8:21 - 8:23
    Dakle, moralo bi da se radi
    o superinteligenciji.
  • 8:23 - 8:26
    Morala bi da ima vlast
    u čitavom našem svetu.
  • 8:26 - 8:29
    Tako je u slučaju Skajneta
    iz filma "Terminator"
  • 8:29 - 8:30
    u kom smo imali superinteligenciju
  • 8:30 - 8:32
    koja je zapovedala ljudskom voljom,
  • 8:32 - 8:36
    koja je upravljala svakim uređajem
    u svakom kutku sveta.
  • 8:36 - 8:37
    Prosto govoreći,
  • 8:37 - 8:39
    to se neće desiti.
  • 8:39 - 8:42
    Ne pravimo VI
    koja kontroliše vremenske prilike,
  • 8:42 - 8:44
    koja upravlja plimama,
  • 8:44 - 8:47
    koja zapoveda nama,
    hirovitim, haotičnim ljudima.
  • 8:47 - 8:51
    Potom, kad bi postojala
    slična veštačka inteligencija,
  • 8:51 - 8:54
    morala bi da se takmiči
    sa ljudskim ekonomijama,
  • 8:54 - 8:57
    a time i sa nama zbog resursa.
  • 8:57 - 8:58
    I na kraju -
  • 8:58 - 9:00
    nemojte ovo reći Siri -
  • 9:00 - 9:02
    možemo uvek da ih isključimo.
  • 9:02 - 9:04
    (Smeh)
  • 9:05 - 9:08
    Na neverovatnom smo putu
  • 9:08 - 9:10
    koevolucije sa našim mašinama.
  • 9:10 - 9:13
    Ljudi kakvi smo danas,
  • 9:13 - 9:15
    nećemo biti ljudi sutrašnjice.
  • 9:15 - 9:19
    Briga zbog uspona superinteligencije
  • 9:19 - 9:22
    je na razne načine
    opasno odvraćanje pažnje
  • 9:22 - 9:24
    jer uspon samog računarstva
  • 9:24 - 9:27
    nam donosi brojna
    ljudska i društvena pitanja
  • 9:27 - 9:29
    kojima se odmah moramo baviti.
  • 9:29 - 9:32
    Kako da organizujemo društvo
    na najbolji način
  • 9:32 - 9:35
    kada se smanji potreba
    za ljudskom radnom snagom?
  • 9:35 - 9:38
    Kako da donesemo razumevanje
    i obrazovanje širom sveta,
  • 9:38 - 9:40
    a da i dalje poštujemo naše razlike?
  • 9:40 - 9:44
    Kako bismo mogli da proširimo i unapredimo
    ljudski život kroz kognitivno zdravstvo?
  • 9:44 - 9:47
    Kako da koristimo računare
  • 9:47 - 9:49
    da nas odvedu do zvezda?
  • 9:50 - 9:52
    A to je uzbudljivo.
  • 9:52 - 9:55
    Šansa da se koriste računari
  • 9:55 - 9:56
    da bismo unapredili ljudsko iskustvo
  • 9:56 - 9:58
    su nam na dohvat ruke,
  • 9:58 - 10:00
    ovde i sad,
  • 10:00 - 10:01
    a tek smo počeli.
  • 10:02 - 10:03
    Mnogo vam hvala.
  • 10:04 - 10:08
    (Aplauz)
Title:
Ne plašite se superinteligentne veštačke inteligencije
Speaker:
Grejdi Buč (Grady Booch)
Description:

Nova tehnologija stvara nove nespokoje, kaže naučnik i filozof Grejdi Buč, ali ne bi trebalo da strepimo od svemoćne, bezosećajne veštačke inteligencije. Buč ublažava naše najgore strahove (uzrokovane naučnom fantastikom) o superinteligentnim kompjuterima tako što nam objašnjava kako ćemo ih podučavati, a ne programirati, da dele naše vrednosti. Umesto da se plašimo malo verovatne egzistencijalne pretnje, tera nas da razmislimo kako će veštačka inteligencija da unapredi ljudski život.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Serbian subtitles

Revisions