Return to Video

Možemo li napraviti umjetnu inteligenciju bez da izgubimo kontrolu nad njom?

  • 0:01 - 0:03
    Pričat ću vam
    o neuspjehu intuicije
  • 0:03 - 0:05
    koji pogađa brojne među nama.
  • 0:05 - 0:09
    To je zapravo neuspjeh
    uočavanja određene vrste opasnosti.
  • 0:09 - 0:11
    Opisat ću scenarij
  • 0:11 - 0:14
    za koji smatram kako je jednako zastrašujuć
  • 0:14 - 0:16
    koliko i vjerojatan da se dogodi,
  • 0:17 - 0:18
    a to nije dobra kombinacija,
  • 0:19 - 0:20
    kako se ispostavlja.
  • 0:20 - 0:23
    A ipak umjesto da budete prestrašeni,
    većina će vas osjećati
  • 0:23 - 0:25
    kako je ono o čemu govorim
    nekako fora.
  • 0:25 - 0:28
    Opisat ću kako bi nas
    dobici koje stvaramo
  • 0:28 - 0:30
    u umjetnoj inteligenciji (dalje: AI)
  • 0:30 - 0:32
    na kraju mogli uništiti.
  • 0:32 - 0:35
    I zapravo, mislim ako je jako teško
    vidjeti kako nas oni neće uništiti
  • 0:35 - 0:37
    ili nas nadahnuti da se sami uništimo.
  • 0:37 - 0:39
    Pa ipak ako ste imalo poput mene,
  • 0:39 - 0:42
    naći ćete kako je zabavno
    razmišljati o ovim stvarima.
  • 0:42 - 0:45
    A taj je odgovor dio problema.
  • 0:45 - 0:47
    Ok? Taj bi vas odgovor trebao brinuti.
  • 0:48 - 0:51
    A ako bih vas uvjeravao
    ovim govorom
  • 0:51 - 0:54
    kako ćemo vjerojatno
    doživjeti globalnu glad,
  • 0:54 - 0:57
    bilo zbog klimatskih promjena
    ili neke druge katastrofe,
  • 0:57 - 1:01
    te kako će vaši unuci,
    ili njihovi unuci,
  • 1:01 - 1:02
    vrlo vjerojatno živjeti ovako,
  • 1:03 - 1:04
    ne biste mislili:
  • 1:05 - 1:07
    "Zanimljivo.
  • 1:07 - 1:08
    Sviđa mi se ovaj TED govor."
  • 1:09 - 1:11
    Glad nije zabavna.
  • 1:12 - 1:15
    Smrt znanstvenom fantastikom,
    s druge strane, jest zabavna,
  • 1:15 - 1:19
    a jedna od stvari koje me najviše brinu
    oko razvoja AI u ovom trenutku
  • 1:19 - 1:23
    je kako se činimo nesposobnim
    stvoriti prikladan emotivni odgovor
  • 1:23 - 1:25
    na opasnosti pred kojima se nalazimo.
  • 1:25 - 1:28
    Ja sam nesposoban stvorti taj odgovor,
    a držim ovaj govor.
  • 1:30 - 1:33
    Ovo je kao da stojimo
    pred dvama vratima.
  • 1:33 - 1:34
    Iza vrata broj jedan,
  • 1:34 - 1:37
    prestanemo stvarati napredak
    u izgradnji inteligentnih strojeva.
  • 1:37 - 1:41
    Hardver se i softver naših računala
    samo iz nekog razloga prestane poboljšavati.
  • 1:41 - 1:44
    Sad uzmite trenutak,
    razmislite zašto bi se to moglo dogoditi.
  • 1:45 - 1:49
    MIslim, uzevši kako su vrijedne
    inteligencija i automatizacija,
  • 1:49 - 1:52
    nastavit ćemo unaprijeđivati tehnologiju
    ako smo to ikako sposobni.
  • 1:53 - 1:55
    Što bi nas moglo zaustaviti u tome?
  • 1:56 - 1:58
    Potpuni nuklearni rat?
  • 1:59 - 2:01
    Globalna pandemija?
  • 2:02 - 2:04
    Udar asteroida?
  • 2:06 - 2:08
    Da Justin Bieber postane
    predsjednik Sjedinjenih država?
  • 2:08 - 2:11
    (Smijeh)
  • 2:13 - 2:17
    Poanta je, nešto bi moralo
    uništiti civilizaciju kakvu znamo.
  • 2:17 - 2:22
    Morate zamisliti
    kako bi loše to moralo biti
  • 2:22 - 2:25
    da nas spriječi od pravljenja
    poboljšanja u našoj tehnologiji
  • 2:25 - 2:26
    trajno,
  • 2:26 - 2:28
    generaciju za generacijom.
  • 2:28 - 2:30
    Skoro po definiciji,
    to je najgora stvar
  • 2:30 - 2:32
    koja se ikad dogodila u ljudskoj povijesti.
  • 2:33 - 2:34
    Dakle jedina alternativa,
  • 2:34 - 2:36
    a to je ono što leži
    iza vrata broj dva,
  • 2:36 - 2:39
    je da nastavimo poboljšavati
    naše inteligentne strojeve
  • 2:39 - 2:41
    godinu za godinom za godinom.
  • 2:42 - 2:45
    U nekom trenutku, sagradit ćemo
    strojeve koji su pametniji od nas,
  • 2:46 - 2:49
    a jednom kad imamo strojeve
    koji su pametniji od nas,
  • 2:49 - 2:51
    oni će početi poboljšavati sami sebe.
  • 2:51 - 2:53
    A tada risikiramo što je
    matematičar I.J. Good nazvao
  • 2:53 - 2:55
    "eksplozijom inteligencije,"
  • 2:55 - 2:57
    da bi nam se proces mogao izmaknuti.
  • 2:58 - 3:01
    Sad, to je često karikirano,
    kako imam ovdje,
  • 3:01 - 3:04
    kao strah da će
    vojske zloćudnih robota
  • 3:04 - 3:05
    udariti na nas.
  • 3:05 - 3:08
    Ali to nije najvjerojatniji scenarij.
  • 3:08 - 3:13
    Nije da će naši strojevi
    spontano postati zloćudnim.
  • 3:13 - 3:16
    Zapravo je briga
    kako ćemo izraditi strojeve
  • 3:16 - 3:18
    koji su toliko
    sposobniji od nas
  • 3:18 - 3:22
    da bi nas najmanje razmimoilaženje
    između njihovih i naših ciljeva
  • 3:22 - 3:23
    moglo uništiti.
  • 3:24 - 3:26
    Samo pomislite kako se odnosimo prema mravima.
  • 3:27 - 3:28
    Ne mrzimo ih.
  • 3:28 - 3:30
    Ne silazimo sa svog puta
    kako bismo im naudili.
  • 3:30 - 3:33
    Zapravo, ponekad
    se baš i trudimo kako im ne bismo naudili.
  • 3:33 - 3:35
    Prekoračimo ih na pločniku.
  • 3:35 - 3:37
    Ali kad god sje njihova prisutnost
  • 3:37 - 3:39
    ozbiljno sukobi s nekim od naših ciljeva,
  • 3:39 - 3:42
    recimo kad dižemo
    građevinu poput ove,
  • 3:42 - 3:44
    uništavamo ih bez pol muke.
  • 3:44 - 3:47
    Briga je kako ćemo
    jednog dana sagraditi strojeve
  • 3:47 - 3:50
    koji, bili oni svjesni ili ne,
  • 3:50 - 3:52
    bi se mogli odnositi spram nas
    sa sličnim nehajem.
  • 3:54 - 3:57
    Sad, pretpostavljam kako
    vam se ovo doima nategnutim.
  • 3:57 - 4:04
    Kladim se kako vas ima koji sumnjate
    kako je superinteligentan AI moguć,
  • 4:04 - 4:05
    a još manje neizbježan.
  • 4:05 - 4:09
    Ali onda morate naći nešto krivo
    s nekom od slijedeći pretpostavki.
  • 4:09 - 4:11
    A samo ih je tri.
  • 4:12 - 4:17
    Inteligencija je stvar obrade
    informacija u fizičkim sustavima.
  • 4:17 - 4:20
    Zapravo, ovo je
    malo više od pretpostavke.
  • 4:20 - 4:23
    Već smo ugradili
    usku inteligenciju u naše strojeve,
  • 4:23 - 4:25
    i puno tih strojeva imaju izvedbu
  • 4:25 - 4:28
    na razini nadljudske
    inteligencije već sada.
  • 4:29 - 4:31
    I znamo kako puka materija
  • 4:31 - 4:34
    može omogućiti nastanak
    onog što nazivamo "opća inteligencija,"
  • 4:34 - 4:38
    sposobnost razmišljanja
    rastezljivog na višestruka područja,
  • 4:38 - 4:41
    jer to mogu naši mozgovi. U redu?
  • 4:41 - 4:45
    Mislim, ovdje su samo atomi,
  • 4:45 - 4:49
    i sve dok nastavimo
    graditi sustave atoma
  • 4:49 - 4:52
    koji pokazuju sve više
    inteligentnog ponašanja
  • 4:52 - 4:55
    s vremenom ćemo,
    osim ako ne budemo ometeni,
  • 4:55 - 4:58
    s vremenom ćemo
    ugraditi opću inteligenciju
  • 4:58 - 4:59
    u naše strojeve.
  • 4:59 - 5:03
    Ključno je shvatiti
    kako stopa napretka nije bitna,
  • 5:03 - 5:06
    jer će nas bilo kakav
    napredak dovesti u krajnju zonu.
  • 5:06 - 5:10
    Ne trebamo nastavak Mooreovog zakona.
    Ne trebamo eksponencijalni rast.
  • 5:10 - 5:12
    Samo trebamo nastaviti napredovati.
  • 5:13 - 5:16
    Druga je pretpostavka
    kako ćemo nastaviti napredovati.
  • 5:17 - 5:20
    Nastavit ćemo unapređivati
    naše inteligentne strojeve.
  • 5:21 - 5:25
    A uzevši vrijednost inteligencije --
  • 5:25 - 5:29
    Mislim, inteligencija je ili
    izvor svega što držimo vrijednim
  • 5:29 - 5:32
    ili je trebamo kako bi zaštitili
    sve što smatramo vrijednim.
  • 5:32 - 5:34
    Ona je naš najvredniji resurs.
  • 5:34 - 5:36
    Pa želimo to raditi.
  • 5:36 - 5:39
    Imamo probleme
    koje očajnički trebamo riješiti.
  • 5:39 - 5:42
    Želimo liječiti bolesti
    poput Alzheimera ili raka.
  • 5:43 - 5:47
    Želimo razumjeti ekonomske sustave.
    Želimo unaprijediti naše klimatske znanosti.
  • 5:47 - 5:49
    Pa ćemo to učiniti, ako možemo.
  • 5:49 - 5:52
    Vlak je već napustio postaju
    a nema kočnice za povući.
  • 5:54 - 5:59
    Konačno, ne stojimo
    na vrhuncu inteligencije,
  • 5:59 - 6:01
    ili igdje blizu njega, vjerojatno.
  • 6:02 - 6:04
    A to je zbilja ključan uvid.
  • 6:04 - 6:06
    To je ono što čini
    našu situaciju tako neizvjesnom,
  • 6:06 - 6:10
    i to je ono što čini
    naše intuicije o riziku tako nepouzdanim.
  • 6:11 - 6:14
    Sad, samo razmotrite najpametniju osobu
    koja je ikad živjela.
  • 6:15 - 6:18
    U gotovo svačijem užem izboru
    ovdje je John von Neumann.
  • 6:18 - 6:21
    Mislim, utisak koji je von Neumann
    ostavljao na ljude oko sebe,
  • 6:21 - 6:25
    a ti uključuju najveće matematičare
    i fizičare njegovog doba,
  • 6:26 - 6:27
    je dobro dokumentirana.
  • 6:27 - 6:31
    Ako je samo pola priča
    o njemu na pola istinito,
  • 6:31 - 6:32
    nema pitanja
  • 6:33 - 6:35
    on je jedna od najpametnijih
    osoba koje su ikad živjele.
  • 6:35 - 6:38
    Pa razmotrite spektar inteligencije.
  • 6:38 - 6:40
    Ovdje imamo John von Neumanna.
  • 6:42 - 6:43
    A onda imamo vas i mene.
  • 6:44 - 6:45
    A onda imamo piceka.
  • 6:45 - 6:47
    (Smijeh)
  • 6:47 - 6:49
    Pardon, piceka.
  • 6:49 - 6:50
    (Smijeh)
  • 6:50 - 6:54
    Nema razloga da učinim ovaj govor
    depresivnijem nego što mora biti.
  • 6:54 - 6:55
    (Smijeh)
  • 6:56 - 7:00
    Izgleda premoćno vjerojatno,
    međutim, kako se spektar inteligencije
  • 7:00 - 7:03
    proteže puno dalje
    nego što trenutno poimamo,
  • 7:04 - 7:07
    i ako sagradimo strojeve
    koji su inteligentniji od nas,
  • 7:07 - 7:09
    oni će vrlo vjerojatno
    istražiti ovaj spektar
  • 7:09 - 7:11
    na načine koje ne možemo zamisliti,
  • 7:11 - 7:14
    te nas nadmašiti na načine
    koje ne možemo zamisliti.
  • 7:15 - 7:19
    A bitno je prepoznati kako je
    to istinito već po samom svojstvu brzine.
  • 7:19 - 7:24
    U redu? Zamislite kako smo
    upravo sagradili superinteligentan AI
  • 7:24 - 7:28
    koji nije pametniji od
    vašeg prosječnog tima istraživača
  • 7:28 - 7:30
    na Stanfordu ili MIT-u.
  • 7:30 - 7:33
    Dobro, elektronički krugovi
    rade oko milijun puta brže
  • 7:33 - 7:34
    od onih biokemijskih,
  • 7:35 - 7:38
    pa bi ovaj stroj trebao
    razmišljati oko milijun puta brže
  • 7:38 - 7:39
    od umova koji su ga sagradili.
  • 7:40 - 7:41
    Pa ga pustite raditi tjedan dana,
  • 7:41 - 7:46
    a on će izvesti 20.000 godina
    intelektualnog rada ljudske razine,
  • 7:46 - 7:48
    tjedan za tjednom za tjednom.
  • 7:50 - 7:53
    Kako bi uopće mogli razumjeti,
    puno manje ograničiti,
  • 7:53 - 7:55
    um koji stvara ovu vrst napretka?
  • 7:57 - 7:59
    Druga stvar koja je
    zabrinjavajuća, iskreno,
  • 7:59 - 8:04
    je kako, zamislite najbolji scenarij.
  • 8:04 - 8:08
    dakle zamislite kako pogodimo
    dizajn superinteligentne AI
  • 8:08 - 8:10
    koji nema sigurnosnih problema.
  • 8:10 - 8:13
    Imamo savršen dizajn
    iz prve.
  • 8:13 - 8:15
    Kao da nam je dano proročanstvo
  • 8:15 - 8:17
    koje se ponaša posve kako bi i trebalo.
  • 8:17 - 8:21
    Dobro, taj bi stroj bio
    savršena naprava za uštedu rada.
  • 8:22 - 8:24
    Može dizajnirati stroj
    koji može izraditi stroj
  • 8:24 - 8:26
    koji može obavljati
    svaki fizički rad,
  • 8:26 - 8:27
    pogonjen sunčanom svjetlošću,
  • 8:27 - 8:30
    manje ili više po cijeni
    sirovog materijala.
  • 8:30 - 8:33
    Dakle pričamo o
    kraju ljudske tlake.
  • 8:33 - 8:36
    Također pričamo o kraju
    većine intelektualnog rada.
  • 8:37 - 8:40
    Pa što bi majmuni poput nas
    činili u takvim okolnostima?
  • 8:40 - 8:44
    Ok, bili bi slobodni
    igrati frizbi i masirati se međusobno.
  • 8:46 - 8:49
    Dodajte nešto LSD i nešto
    upitnih odluka oko odjeće,
  • 8:49 - 8:51
    i cijeli bi svijet mogao
    biti poput Burning Mana.
  • 8:51 - 8:53
    (Smijeh)
  • 8:54 - 8:56
    Sad, to može zvučati prilično dobro,
  • 8:57 - 9:00
    ali pitajte se što bi se dogodilo
  • 9:00 - 9:02
    pod našim trenutnim
    ekonomskim i političkim poretkom?
  • 9:02 - 9:05
    Čini se vjerojatnim
    kako bismo svjedočili
  • 9:05 - 9:09
    razini nejednakosti u bogatstvu
    te nezaposlenosti
  • 9:09 - 9:11
    kakvu nismo vidjeli nikad prije.
  • 9:11 - 9:13
    Bez volje za trenutnim
    stavljanjem tog novog bogatstva
  • 9:13 - 9:15
    u službu svog čovječanstva,
  • 9:16 - 9:19
    nekoliko bi trilijunaša moglo
    resiti naslovnice naših poslovni časopisa
  • 9:19 - 9:22
    dok bi ostatak svijeta
    bio slobodan gladovati.
  • 9:22 - 9:25
    A što bi Rusi
    ili Kinezi učinili
  • 9:25 - 9:27
    ako bi čuli kako se
    neka kompanija u Silicijskoj dolini
  • 9:27 - 9:30
    upravo sprema izbaciti
    superinteligentnu AI?
  • 9:30 - 9:33
    Taj bi stroj bio
    sposoban voditi rat,
  • 9:33 - 9:35
    bilo zemaljski ili cyber,
  • 9:35 - 9:37
    sa neviđenom moći.
  • 9:38 - 9:40
    Ovo je scenarij gdje pobjednik dobija sve.
  • 9:40 - 9:43
    Biti šest mjeseci ispred
    konkurencije ovdje
  • 9:43 - 9:46
    je biti 500.000 godina ispred,
  • 9:46 - 9:47
    minimalno.
  • 9:47 - 9:52
    Pa se čini kako bi čak i puke glasine
    o ovakvoj vrsti probitka
  • 9:52 - 9:55
    mogle prouzročiti našu vrstu da poludi.
  • 9:55 - 9:58
    Sad, jedna od najviše
    zastrašujućih stvari,
  • 9:58 - 10:00
    kako ja to vidim, u ovom trenutku,
  • 10:00 - 10:05
    su stvari koje istraživači AI govore
  • 10:05 - 10:06
    kada žele biti ohrabrujući.
  • 10:07 - 10:10
    A najčešći razlog za bezbrižnost
    koji navode je vrijeme.
  • 10:10 - 10:13
    To je sve daleko,
    ne znaš li?
  • 10:13 - 10:15
    To je vjerojatno 50 ili 100 godina od nas.
  • 10:16 - 10:17
    Jedan je istraživač rekao:
  • 10:17 - 10:19
    "Brinuti se oko sigurnosti AI
  • 10:19 - 10:21
    je poput brige
    o prekomjernoj populaciji na Marsu."
  • 10:22 - 10:24
    To je verzija iz Silicijske doline
  • 10:24 - 10:26
    one: "nemoj brinuti
    svoju lijepu malu glavu sa time."
  • 10:26 - 10:27
    (Smijeh)
  • 10:28 - 10:29
    Izgleda kako nitko ne primjećuje
  • 10:29 - 10:32
    kako je oslanjanje na vremenski horizont
  • 10:32 - 10:35
    potpuni non sequitur.
  • 10:35 - 10:38
    Ako je inteligencija samo pitanje
    procesiranja informacija,
  • 10:38 - 10:41
    te ako nastavimo
    unapređivati naše strojeve,
  • 10:41 - 10:44
    stvorit ćemo
    neki oblik superinteligencije.
  • 10:44 - 10:48
    A nemamo pojma
    koliko će nam dugo trebati
  • 10:48 - 10:50
    stvoriti uvjete
    kako bismo to učinili sigurno.
  • 10:52 - 10:53
    Dajte da to kažem ponovo.
  • 10:54 - 10:57
    Nemamo pojma
    koliko će nam dugo trebati
  • 10:57 - 11:00
    stvoriti uvjete
    kako bismo to učinili sigurno.
  • 11:01 - 11:04
    A ako niste primijetili,
    50 godina nije što je nekad bilo.
  • 11:04 - 11:07
    Ovo je 50 godina u mjesecima.
  • 11:07 - 11:09
    Ovo je koliko dugo imamo iPhone.
  • 11:09 - 11:12
    Ovo je koliko dugo su
    "Simpsoni" na televiziji.
  • 11:13 - 11:15
    Pedeset godina nije tako puno vremena
  • 11:15 - 11:18
    za sučeliti se sa jednim od
    najvećih izazova koje će naša vrsta ikad imati.
  • 11:20 - 11:24
    Još jednom, izgleda da ne uspijevamo
    imati prikladan emotivni odgovor
  • 11:24 - 11:26
    za što imamo
    svaki razlog vjerovati kako dolazi.
  • 11:26 - 11:30
    Računalni znanstvenik Stuart Russell
    ovdje pravi zgodnu analogiju.
  • 11:30 - 11:35
    On kaže, zamislite kako smo primili
    poruku od vanzemaljske civilizacije,
  • 11:35 - 11:37
    koja piše:
  • 11:37 - 11:39
    "Ljudi Zemlje,
  • 11:39 - 11:41
    stići ćemo na vaš planet za 50 godina.
  • 11:42 - 11:43
    Pripremite se."
  • 11:43 - 11:48
    I sad mi samo brojimo
    mjesece dok matični brod ne sleti?
  • 11:48 - 11:51
    Osjećali bismo malo veću
    hitnost nego što osjećamo.
  • 11:53 - 11:55
    Još jedan razlog
    što nam govore da ne brinemo
  • 11:55 - 11:58
    je kako si ti strojevi
    ne mogu pomoći da ne dijele naše vrijednosti
  • 11:58 - 12:00
    jer će doslovno biti
    produžeci nas samih.
  • 12:00 - 12:02
    Bit će usađeni u naše mozgove,
  • 12:02 - 12:04
    a mi ćemo u biti
    postati njihov limbički sustav.
  • 12:05 - 12:07
    sad uzmite trenutak pa razmislite
  • 12:07 - 12:10
    kako je najsigurniji
    i jedini razborit put naprijed,
  • 12:10 - 12:11
    preporučeno,
  • 12:11 - 12:14
    ugraditi tu tehnologiju
    izravno u naše mozgove.
  • 12:15 - 12:18
    Sad, to može zapravo biti najsigurniji
    i jedini razborit put nparijed,
  • 12:18 - 12:21
    ali obično sigurnosni problemi
    oko tehnologije
  • 12:21 - 12:25
    moraju biti manje više izglađeni
    prije nego ju zabijete u vlastitu glavu.
  • 12:25 - 12:27
    (Smijeh)
  • 12:27 - 12:32
    Dublji je problem što se
    izgradnja superinteligentne AI
  • 12:32 - 12:34
    čini vjerojatno lakšim
  • 12:34 - 12:36
    nego izgradnja superinteligentne AI
  • 12:36 - 12:38
    i imanje zaokružene neuroznanosti
  • 12:38 - 12:40
    koja nam omogućuje da ju glatko
    integriramo s našim umovima.
  • 12:41 - 12:44
    A uzevši kako će kompanije
    i vlade koje se bave ovim poslom
  • 12:44 - 12:48
    vjerojatno percipirati
    kako su u utrci protiv svih ostalih,
  • 12:48 - 12:51
    uzevši kako je osvojiti ovu utrku
    isto što i osvojiti svijet,
  • 12:51 - 12:53
    pod pretpostavkom kako ga
    nećete uništiti u slijedećem trenutku,
  • 12:53 - 12:56
    onda se čini vjerojatnim
    kako će što god je lakše učiniti
  • 12:56 - 12:57
    biti učinjeno prvo.
  • 12:59 - 13:01
    Sad, na nesreću,
    nemam rješenje za ovaj problem,
  • 13:01 - 13:04
    osim preporučiti kako bi više nas
    trebalo razmišljati o njemu.
  • 13:04 - 13:06
    Mislim kako trebamo nešto
    poput Manhattan Projecta
  • 13:06 - 13:08
    po pitanju umjetne inteligencije.
  • 13:09 - 13:11
    Ne kako bismo je stvorili, jer
    ćemo to neizbježno napraviti,
  • 13:11 - 13:15
    već kako bismo razumjeli
    kako izbjeći utrku u naoružanju
  • 13:15 - 13:18
    te kako ju sagraditi na način
    koji se podudara s našim interesima.
  • 13:18 - 13:20
    Kad pričate o
    superinteligentnoj AI
  • 13:20 - 13:23
    koja može raditi preinake sebi samoj,
  • 13:23 - 13:27
    čini se kako imamo samo jednu priliku
    za posložiti ispravne početne uvjete,
  • 13:27 - 13:29
    a čak i tada ćemo trebati upiti
  • 13:29 - 13:32
    ekonomske i političke
    posljedice slaganja takvih uvjeta.
  • 13:34 - 13:36
    Ali trenutak u kojem priznamo
  • 13:36 - 13:40
    kako je obrada informacija
    izvor inteligencije,
  • 13:41 - 13:46
    kako je neki prikladan račualni sustav
    ono na čemu se inteligencija temelji,
  • 13:46 - 13:50
    te priznamo kako ćemo
    trajno unaprijeđivati te sustave,
  • 13:51 - 13:56
    te priznamo kako horizont
    spoznaje vrlo vjerojatno daleko premašuje
  • 13:56 - 13:57
    što trenutno znamo,
  • 13:58 - 13:59
    onda moramo priznati
  • 13:59 - 14:02
    kako smo u postupku
    izgradnje neke vrste boga.
  • 14:03 - 14:05
    Sad bi bilo dobro vrijeme
  • 14:05 - 14:07
    osigurati da to bude bog
    s kakvim možemo živjeti.
  • 14:08 - 14:10
    Hvala Vam puno.
  • 14:10 - 14:15
    (Pljesak)
Title:
Možemo li napraviti umjetnu inteligenciju bez da izgubimo kontrolu nad njom?
Speaker:
Sam Harris
Description:

Prestrašeni superintelignetnom umjetnom inteligencijom? Trebali bi biti, kaže neuroznanstvenik i filozof Sam Harris -- i to ne samo na neki teorijski način. Sagradit ćemo nadljudske strojeve, kaže Harris, a još se nismo primili ukoštac sa problemima vezanim uz stvaranje nečega što bi moglo postupati s nama onako kako mi postupamo s mravima.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Croatian subtitles

Revisions