Return to Video

Nemojte se bojati superinteligentne UI

  • 0:01 - 0:05
    Kad sam bio klinac,
    bio sam onaj pravi štreber.
  • 0:05 - 0:07
    MIslim kako su i neki od vas bili,
    također.
  • 0:08 - 0:09
    (Smijeh)
  • 0:09 - 0:12
    A vi, gospodine, koji ste se najglasnije
    nasmijali,vjerojatno to i dalje jeste.
  • 0:12 - 0:14
    (Smijeh)
  • 0:14 - 0:18
    Odrastao sam u malenom gradu
    na prašnjavim ravnicama sjevernog Teksasa,
  • 0:18 - 0:21
    sin šerifa
    koji je bio sin pastora.
  • 0:21 - 0:23
    Upadanje u nevolje nije bila mogućnost.
  • 0:24 - 0:27
    I tako sam počeo čitati
    knjige iz (*infinitezimalnog) računa za zabavu.
  • 0:27 - 0:29
    (Smijeh)
  • 0:29 - 0:31
    I vi ste, također.
  • 0:31 - 0:34
    To me dovelo do izgradnje lasera
    i računala i modelarskih raketa,
  • 0:34 - 0:37
    a to me dovelo do izrade
    raketnog goriva u mojoj spavaćoj sobi.
  • 0:38 - 0:42
    Sad, u znanstvenim terminima,
  • 0:42 - 0:45
    to nazivamo vrlo lošom idejom.
  • 0:45 - 0:46
    (Smijeh)
  • 0:46 - 0:48
    Nekako oko tog doba,
  • 0:48 - 0:52
    Kubrick-ova "2001: Odiseja u Svemiru"
    je došla u kina,
  • 0:52 - 0:54
    i moj se život zauvijek promijenio.
  • 0:54 - 0:56
    Volio sam sve oko tog filma,
  • 0:56 - 0:59
    posebno HAL 9000.
  • 0:59 - 1:01
    Sad, HAL je bio svjesno računalo
  • 1:01 - 1:03
    osmišljeno da vodi svemirsku
    letjelicu Discovery
  • 1:03 - 1:06
    od Zemlje do Jupitera.
  • 1:06 - 1:08
    HAL je također bio manjkav lik,
  • 1:08 - 1:12
    jer je na kraju birao vrednovati
    misiju više od ljudskog života.
  • 1:13 - 1:15
    Sad, HAL je bio izmišljeni lik,
  • 1:15 - 1:18
    ali ipak se obraćao našim strahovima,
  • 1:18 - 1:20
    našim strahovima o bivanju podčinjenim
  • 1:20 - 1:23
    od strane neke
    bezosjećajne, umjetne inteligencije
  • 1:23 - 1:25
    koja je ravnodušna spram naše ljudskosti.
  • 1:26 - 1:28
    Vjerujem kako su takvi strahovi
    neutemeljeni.
  • 1:28 - 1:31
    Zbilja, stojimo na upečatljivom mjestu
  • 1:31 - 1:33
    u ljudskoj povijesti,
  • 1:33 - 1:38
    gdje, potaknuti odbijanjem prihvaćanja
    granica naših tijela i naših umova,
  • 1:38 - 1:39
    gradimo strojeve,
  • 1:39 - 1:43
    fine, prekrasne
    složenosti i ljepote
  • 1:43 - 1:45
    koji će proširiti ljudsko iskustvo
  • 1:45 - 1:47
    na načine onkraj naše mašte.
  • 1:48 - 1:50
    Nakon karijere koja me vodila
    od Akademije zračnih snaga
  • 1:50 - 1:52
    preko Svemirskog zapovjedništva do sada,
  • 1:52 - 1:54
    postao sam sistemski inženjer,
  • 1:54 - 1:57
    i nedavno sam uvučen
    u inženjerski problem
  • 1:57 - 1:59
    vezan uz NASA-inu misiju na Mars.
  • 1:59 - 2:02
    Sad, u svemirskim letovima do Mjeseca,
  • 2:02 - 2:05
    možemo se osloniti
    na kontrolu misije u Houstonu
  • 2:05 - 2:07
    kako će paziti na sve aspekte leta.
  • 2:07 - 2:11
    Međutim, Mars je 200 puta udaljeniji,
  • 2:11 - 2:14
    te kao rezultat treba
    prosječno 13 minuta
  • 2:14 - 2:17
    signalu da otputuje
    od Zemlje do Marsa.
  • 2:17 - 2:20
    Ako ima nevolje,
    nema dovoljno vremena.
  • 2:21 - 2:23
    I tako razumno inženjersko rješenje
  • 2:23 - 2:26
    kaže nam neka stavimo kontrolu misije
  • 2:26 - 2:29
    unutar zidova svemirske letjelice Orion.
  • 2:29 - 2:32
    Druga očaravajuća ideja
    u profilu misije
  • 2:32 - 2:35
    stavlja humanoidne robote
    na površinu Marsa
  • 2:35 - 2:37
    prije nego sami ljudi doputuju,
  • 2:37 - 2:38
    prvo kako bi sagradili postrojenja
  • 2:38 - 2:42
    a kasnije kako bi služili kao
    pomoćni članovi znanstvenog tima.
  • 2:43 - 2:46
    Sad, kad sam gledao na ovo
    iz inženjerskog kuta,
  • 2:46 - 2:49
    postalo mi je vrlo jasno
    kako je ono što trebam osmisliti
  • 2:49 - 2:52
    bila pametna, uslužna,
  • 2:52 - 2:54
    društveno inteligentna
    umjetna inteligencija.
  • 2:54 - 2:58
    Drugim riječima, trebao sam složiti
    nešto vrlo slično HAL-u
  • 2:58 - 3:01
    ali bez ubilačkih sklonosti.
  • 3:01 - 3:02
    (Smijeh)
  • 3:03 - 3:05
    Zaustavimo se na trenutak.
  • 3:05 - 3:09
    Je li stvarno moguće sagraditi
    umjetnu inteligenciju poput ove?
  • 3:09 - 3:10
    Zapravo, jest.
  • 3:10 - 3:11
    Na puno načina,
  • 3:11 - 3:13
    ovo je tvrdi inženjerski problem
  • 3:13 - 3:15
    s elementima UI,
  • 3:15 - 3:20
    ne neki UI problem mokre lopte kose
    kojeg treba osmisliti.
  • 3:20 - 3:22
    Da parafraziram Alana Turinga:
  • 3:22 - 3:25
    Ne zanima me
    izgradnja svjesnog stroja.
  • 3:25 - 3:26
    Ne gradim HAL-a.
  • 3:26 - 3:29
    Sve za čime idem je
    jednostavan mozak,
  • 3:29 - 3:32
    nešto što nudi privid inteligencije.
  • 3:33 - 3:36
    Umjetnost i znanost računarstva
    je prošla dalek put
  • 3:36 - 3:38
    otkad je HAL bio na ekranu,
  • 3:38 - 3:41
    i mogu zamisliti kad bi njegov izumitelj
    dr. Chandra bio ovdje danas,
  • 3:41 - 3:43
    imao bi cijeli niz pitanja za nas.
  • 3:43 - 3:45
    Je li nam zbilja moguće
  • 3:45 - 3:49
    uzeti sustav od milijuna
    i milijuna uređaja,
  • 3:49 - 3:51
    čitati njihove tokove podataka,
  • 3:51 - 3:53
    predviđati njihove kvarove
    te djelovati unaprijed?
  • 3:53 - 3:54
    Da.
  • 3:54 - 3:58
    Možemo li graditi sustave koji
    razgovaraju s ljudima prirodnim jezikom?
  • 3:58 - 3:59
    Da.
  • 3:59 - 4:02
    Možemo li graditi sustave
    koji prepoznaju objekte, identificiraju osjećaje,
  • 4:02 - 4:05
    sami izražavaju emocije,
    igraju igre i čak čitaju s usana?
  • 4:05 - 4:06
    Da.
  • 4:07 - 4:09
    Možemo li sagraditi sustav
    koji postavlja ciljeve,
  • 4:09 - 4:12
    potom izvršava planove
    prema tim ciljevima te usput uči?
  • 4:12 - 4:14
    Da.
  • 4:14 - 4:17
    Možemo li sagraditi sustave
    koji imaju teoriju uma?
  • 4:17 - 4:18
    To upravo učimo.
  • 4:18 - 4:22
    Možemo li sagraditi sustave
    koji imaju etičke i moralne temelje?
  • 4:22 - 4:25
    Ovo moramo naučiti kako.
  • 4:25 - 4:27
    Pa prihvatimo na trenutak
  • 4:27 - 4:30
    kako je moguće sagraditi
    takvu umjetnu inteligenciju
  • 4:30 - 4:32
    za ovu vrstu misije i slično.
  • 4:32 - 4:34
    Slijedeće pitanje
    koje biste se trebali pitati je,
  • 4:34 - 4:36
    bismo li je se trebali bojati?
  • 4:36 - 4:38
    Sad, svaka nova tehnologija
  • 4:38 - 4:41
    sa sobom donosi
    neku mjeru strepnje.
  • 4:41 - 4:42
    Kad smo prvo vidjeli aute,
  • 4:43 - 4:47
    ljudi su se žalili kako ćemo vidjeti
    uništenje obitelji.
  • 4:47 - 4:49
    Kad smo prvo vidjeli telefone kako dolaze,
  • 4:49 - 4:52
    ljudi su brinuli kako će uništiti
    sav uljudan razgovor.
  • 4:52 - 4:56
    U točci vremena kad smo vidjeli
    kako pisana riječ sve više prožima,
  • 4:56 - 4:59
    ljudi su mislili kako ćemo izgubiti
    našu sposobnost pamćenja.
  • 4:59 - 5:01
    Sve su te stvari točne do nekog stupnja,
  • 5:01 - 5:03
    ali je također slučaj
    kako su nam te tehnologije
  • 5:03 - 5:07
    dovele stvari koje su
    proširile ljudsko iskustvo
  • 5:07 - 5:08
    na neke duboke načine.
  • 5:10 - 5:12
    Pa hajdemo s ovim još malo dalje.
  • 5:13 - 5:18
    Ne bojim se
    stvaranje UI poput ove,
  • 5:18 - 5:22
    jer će s vremenom
    utjeloviti neke od naših vrijednosti.
  • 5:22 - 5:25
    Uzmite u obzir ovo: izgradnja
    spoznajnog sustava je iz temelja različita
  • 5:25 - 5:29
    od izgradnje tradicionalnog softverski
    intenzivnog sustava u prošlosti.
  • 5:29 - 5:31
    Ne programiramo ih. Učimo ih.
  • 5:31 - 5:34
    Kako bismo sustav naučili
    prepoznavati cvijeće,
  • 5:34 - 5:37
    pokazujem mu tisuće vrsta cvjetova
    koje mi se sviđaju.
  • 5:37 - 5:39
    Kako bismo sustav naučili
    igrati igru --
  • 5:39 - 5:41
    Dobro, ja bih. I vi bi.
  • 5:43 - 5:45
    Sviđa mi se cvijeće. Hajde.
  • 5:45 - 5:48
    Naučiti sustav kako
    igrati igru kakva je Go,
  • 5:48 - 5:50
    pustit ću ga neka odigra
    tisuće partija Go-a,
  • 5:50 - 5:52
    ali ću ga u postupku
    također naučiti i
  • 5:52 - 5:54
    kako razaznati
    dobru partiju od loše partije.
  • 5:55 - 5:58
    Ako želim stvoriti umjetno
    inteligentnog pravnog savjetnika,
  • 5:58 - 6:00
    naučit ću ga neki korpus zakona
  • 6:00 - 6:03
    ali ću u isto vrijeme spojiti s njim
  • 6:03 - 6:06
    osjećaj milosti i pravde
    koji je dio tog zakona.
  • 6:07 - 6:10
    Znanstvenim rječnikom, to je
    ono što zovemo neposredna informacija,
  • 6:10 - 6:12
    a evo važnog momenta:
  • 6:12 - 6:13
    u stvaranju svih tih strojeva,
  • 6:13 - 6:16
    mi ih dakle učimo
    smislu naših vrijednosti.
  • 6:17 - 6:20
    Stoga, vjerujem
    umjetnoj inteligenciji
  • 6:20 - 6:23
    isto, ako ne i više,
    koliko i čovjeku koji je dobro obučen.
  • 6:24 - 6:25
    Ali, možete pitati,
  • 6:25 - 6:28
    što sa nevaljalim igračima,
  • 6:28 - 6:31
    nekom dobro financiranom
    nevladinom organizacijom?
  • 6:31 - 6:35
    Ne bojim se umjetne inteligencije
    u rukama vuka samotnjaka.
  • 6:35 - 6:40
    Jasno, ne možemo se zaštititi
    od svih nasumičnih činova nasilja,
  • 6:40 - 6:42
    ali stvarnost je da takav sustav
  • 6:42 - 6:45
    traži znatnu obuku
    i finu obuku
  • 6:45 - 6:47
    daleko onkraj resursa pojedinca.
  • 6:47 - 6:49
    I nadalje,
  • 6:49 - 6:52
    to je daleko više nego
    samo ubaciti internetski virus u svijet,
  • 6:52 - 6:55
    gdje pritisnete tipku,
    odjednom je na milijun mjesta
  • 6:55 - 6:57
    i laptopi posvuda
    krenu eksplodirati.
  • 6:57 - 7:00
    Sad, ove su vrste stvari
    puno veće,
  • 7:00 - 7:02
    i sigurno ćemo ih vidjeti kako dolaze.
  • 7:03 - 7:06
    Bojim li se kako bi takva
    umjetna inteligencija
  • 7:06 - 7:08
    mogla zaprijetiti cijelom čovječanstvu?
  • 7:08 - 7:13
    Ako pogledate filmove
    kao što su "Matrix" ili "Metropolis,"
  • 7:13 - 7:16
    "Terminator,"
    serije kao što je "Westworld,"
  • 7:16 - 7:18
    svi oni pričaju o ovom tipu straha.
  • 7:18 - 7:22
    Zbilja, u knjizi "Superinteligencija"
    filozofa Nicka Bostroma,
  • 7:22 - 7:24
    on polazi od ove teme
  • 7:24 - 7:28
    te uočava kako superinteligencija
    može biti ne samo opasna,
  • 7:28 - 7:32
    mogla bi predstavljati egzistencijalnu
    opasnost svom čovječanstvu.
  • 7:32 - 7:34
    Dr. Bostromov temeljni argument
  • 7:34 - 7:37
    je kako će takvi sustavi s vremenom
  • 7:37 - 7:40
    imati tako neutaživu žeđ
    za informacijom
  • 7:40 - 7:43
    da će možda naučiti kako učiti
  • 7:43 - 7:46
    te s vremenom otkriti
    kako mogu imati ciljeve
  • 7:46 - 7:48
    koji su suprotni ljudskim potrebama.
  • 7:48 - 7:50
    Dr. Bostrom ima neki broj sljedbenika.
  • 7:50 - 7:54
    Podržavaju ga ljudi
    poput Elona Muska i Stephena Hawkinga.
  • 7:55 - 7:57
    Sa svim dužnim poštovanjem
  • 7:58 - 8:00
    prema tim briljantnim umovima,
  • 8:00 - 8:02
    vjerujem kako su oni
    iz temelja u krivu.
  • 8:02 - 8:06
    Sad, ima puno dijelova
    dr. Bostromovog argumenta za maknuti,
  • 8:06 - 8:08
    a nemam vremena kako bih ih maknuo sve,
  • 8:08 - 8:11
    ali vrlo kratko, razmislite o ovome:
  • 8:11 - 8:14
    super znanje je vrlo različito
    od super djelovanja.
  • 8:14 - 8:16
    HAL je bio prijetnja posadi Discoveryja
  • 8:16 - 8:21
    samo stoga što je HAL
    upravljao svime u Discoveryju.
  • 8:21 - 8:23
    Tako bi trebalo biti
    i sa superinteligencijom.
  • 8:23 - 8:26
    Morala bi imati vlast
    nad cijelim našim svijetom.
  • 8:26 - 8:29
    Tako je sastavljen Skynet
    iz filma "Terminator"
  • 8:29 - 8:30
    u kojem smo imali superinteligenciju
  • 8:30 - 8:32
    koja je upravljala ljudskom voljom,
  • 8:32 - 8:36
    koja je vodila svaki uređaj
    koji je bio u svakom kutku svijeta.
  • 8:36 - 8:37
    Praktično govoreći,
  • 8:37 - 8:39
    to se neće dogoditi.
  • 8:39 - 8:42
    Ne gradimo UI-e
    koji kontroliraju vrijeme,
  • 8:42 - 8:44
    koji upravljaju plimom,
  • 8:44 - 8:47
    koji upravljaju nama
    jogunastima, kaotičnim ljudima.
  • 8:47 - 8:51
    I nadalje, ako bi takva
    umjetna superinteligencija postojala,
  • 8:51 - 8:54
    morala bi se nadmetati
    sa ljudskim ekonomijama,
  • 8:54 - 8:57
    i time se nadmetati za resurse sa nama.
  • 8:57 - 8:58
    I na kraju --
  • 8:58 - 9:00
    nemojte reći Siri ovo --
  • 9:00 - 9:02
    uvijek ih možemo ištekati.
  • 9:02 - 9:04
    (Smijeh)
  • 9:05 - 9:08
    Mi smo na nevjerojatnom putovanju
  • 9:08 - 9:10
    koevolucije sa našim strojevima.
  • 9:10 - 9:13
    Ljudi koji smo danas
  • 9:13 - 9:15
    nisu ljudi koji ćemo biti tada.
  • 9:15 - 9:19
    Brinuti sada o usponu
    superinteligencije
  • 9:19 - 9:22
    je na puno načina
    opasno odvraćanje pažnje
  • 9:22 - 9:24
    stoga što nam već uspon računarstva sam
  • 9:24 - 9:27
    donosi brojna
    ljudska i društvena pitanja
  • 9:27 - 9:29
    kojima se moramo pozabaviti sada.
  • 9:29 - 9:32
    Kako ću najbolje organizirati društvo
  • 9:32 - 9:35
    kad se potreba za radom smanji?
  • 9:35 - 9:38
    Kako mogu donijeti razumijevanje
    i obrazovanje širom svijeta
  • 9:38 - 9:40
    a i dalje uvažavati razlike?
  • 9:40 - 9:44
    Kako mogu produljiti i poboljšati ljudski
    život kroz kognitivnu zdravstvenu skrb?
  • 9:44 - 9:47
    Kako mogu koristiti računarstvo
  • 9:47 - 9:49
    za pomoć kako bi došli do zvijezda?
  • 9:50 - 9:52
    A to je uzbudljiva stvar.
  • 9:52 - 9:55
    Prilike za korištenje računarstva
  • 9:55 - 9:56
    kako bi unaprijedili ljudsko iskustvo
  • 9:56 - 9:58
    su nam unutar dosega,
  • 9:58 - 10:00
    sada i ovdje,
  • 10:00 - 10:01
    a tek smo na početku.
  • 10:02 - 10:03
    Hvala vam puno.
  • 10:04 - 10:08
    (Pljesak)
Title:
Nemojte se bojati superinteligentne UI
Speaker:
Grady Booch
Description:

Nova tehnologija rađa nove strahove, kaže znanstvenik i filozof Grady Booch, ali ne moramo se bojati svemoćne bezosjećajne umjetne inteligencije (UI). Booch ublažuje naše najgore strahove (uzrokovane ZF-om) o superinteligentnim računalima objašnjavajući nam kako ćemo ih učiti, ne programirati, kako dijeliti naše vrijednosti. Umjesto da se brinemo oko nevjerojatne egzistencijalne prijetnje, potiče nas razmisliti kako će umjetna inteligencija poboljšati ljudski život.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20
Tilen Pigac - EFZG accepted Croatian subtitles for Don't fear superintelligent AI
Tilen Pigac - EFZG edited Croatian subtitles for Don't fear superintelligent AI
Stjepan Mateljan edited Croatian subtitles for Don't fear superintelligent AI
Stjepan Mateljan edited Croatian subtitles for Don't fear superintelligent AI
Stjepan Mateljan edited Croatian subtitles for Don't fear superintelligent AI
Stjepan Mateljan edited Croatian subtitles for Don't fear superintelligent AI

Croatian subtitles

Revisions