Return to Video

Možemo li napraviti veštačku inteligenciju, a da ne izgubimo kontrolu nad njom?

  • 0:01 - 0:03
    Pričaću vam o porazu intuicije
  • 0:03 - 0:05
    od koga mnogi patimo.
  • 0:05 - 0:09
    Zista je porazno opaziti
    određenu vrstu opasnosti.
  • 0:09 - 0:11
    Opisaću vam jedan scenario
  • 0:11 - 0:14
    za koji mislim da je i zastrašujuć
  • 0:14 - 0:16
    i koji se realno može dogoditi,
  • 0:17 - 0:18
    a to, kako se čini,
  • 0:19 - 0:20
    nije dobra kombinacija.
  • 0:20 - 0:23
    A opet umesto da se uplaše,
    mnogi od vas će misliti
  • 0:23 - 0:25
    da je ono o čemu pričam nešto kul.
  • 0:25 - 0:28
    Opisaću vam kako bi
    napredak koji pravimo
  • 0:28 - 0:30
    u veštačkoj inteligenciji
  • 0:30 - 0:32
    mogao na kraju da nas uništi.
  • 0:32 - 0:35
    Zapravo, mislim da je jako teško
    zamisliti kako nas neće uništiti,
  • 0:35 - 0:37
    ili navesti da se samouništimo.
  • 0:37 - 0:39
    A opet ako ste imalo kao ja,
  • 0:39 - 0:42
    shvatićete da je zabavno
    razmišljati o ovim stvarima.
  • 0:42 - 0:45
    I taj odgovor je deo ovog problema.
  • 0:45 - 0:47
    OK? Taj odgovor treba da vas brine.
  • 0:48 - 0:51
    Kad bih vas u ovom govoru ubedio
  • 0:51 - 0:54
    da ćemo vrlo verovatno
    globalno gladovati,
  • 0:54 - 0:57
    bilo zbog klimatskih promena
    ili neke druge katastrofe,
  • 0:57 - 1:01
    i da će vaši unuci, ili njihovi unuci,
  • 1:01 - 1:02
    vrlo verovatno živeti ovako,
  • 1:03 - 1:04
    ne biste mislili:
  • 1:05 - 1:07
    "Zanimljivo.
  • 1:07 - 1:08
    Dobar ovaj TED Talk."
  • 1:09 - 1:11
    Glad nije zabavna.
  • 1:12 - 1:15
    Smrt u naučnoj fantastici,
    sa druge strane, jeste zabavna,
  • 1:15 - 1:19
    i nešto što me najviše brine
    u ovom trenutku u vezi sa razvojem VI
  • 1:19 - 1:23
    je što izgleda da ne možemo da pružimo
    odgovarajući emocionalni odgovor
  • 1:23 - 1:25
    na opasnosti koje dolaze.
  • 1:25 - 1:28
    Ni ja ne mogu da pružim ovaj odgovor,
    a držim ovaj govor.
  • 1:30 - 1:33
    To je kao da stojimo ispred dvoja vrata.
  • 1:33 - 1:34
    Iza vrata broj jedan,
  • 1:34 - 1:37
    zaustavljamo napredak
    u pravljenju inteligentnih mašina.
  • 1:37 - 1:41
    Kompjuterski hardver i softver prosto
    prestaju da budu bolji iz nekog razloga.
  • 1:41 - 1:44
    Sada na trenutak razmislite
    zašto bi se ovo moglo desiti.
  • 1:45 - 1:49
    Mislim, s obzirom koliku vrednost
    imaju inteligencija i automatizacija,
  • 1:49 - 1:52
    nastavićemo da unapređujemo tehnologiju
    ako smo uopšte kadri za to.
  • 1:53 - 1:55
    Šta bi nas moglo sprečiti u tome?
  • 1:56 - 1:58
    Svetski nuklearni rat?
  • 1:59 - 2:01
    Globalna pandemija?
  • 2:02 - 2:04
    Pad asteroida?
  • 2:06 - 2:08
    Ako Džastin Biber postane
    predsednik Amerike?
  • 2:08 - 2:11
    (Smeh)
  • 2:13 - 2:17
    Poenta je u tome, da bi nešto moralo
    da uništi civilizaciju ovakvu kakva je.
  • 2:17 - 2:22
    Morate zamisliti kako
    bi zaista loše moralo biti to
  • 2:22 - 2:25
    što bi nas trajno sprečilo
    da unapređujemo,
  • 2:25 - 2:26
    tehnologiju,
  • 2:26 - 2:28
    generaciju za generacijom.
  • 2:28 - 2:30
    Skoro po definiciji, ovo je najgora stvar
  • 2:30 - 2:32
    koja se ikada desila u ljudskoj istoriji.
  • 2:33 - 2:34
    Pa je jedina alternativa,
  • 2:34 - 2:36
    a ovo se nalazi iza vrata broj dva,
  • 2:36 - 2:39
    da nastavimo da unapređujemo
    naše inteligentne mašine
  • 2:39 - 2:41
    bez prestanka.
  • 2:42 - 2:45
    U jednom trenutku, napravićemo
    mašine koje su pametnije od nas,
  • 2:46 - 2:49
    i tad kad budemo imali mašine
    koje su pametnije od nas,
  • 2:49 - 2:51
    one će same početi da se razvijaju.
  • 2:51 - 2:53
    I onda rizikujemo ono
    što je matematičar I.Dž. Gud nazvao
  • 2:53 - 2:55
    "eksplozija inteligencije",
  • 2:55 - 2:57
    da proces može da nam pobegne.
  • 2:58 - 3:01
    E, sad, ovo se često karikira,
    kao što ću i ja uraditi,
  • 3:01 - 3:04
    kao strah od napada armije
  • 3:04 - 3:05
    zlih robota.
  • 3:05 - 3:08
    Ali to nije najverovatniji scenario.
  • 3:08 - 3:13
    Nije kao da će naše mašine
    spontano postati zle.
  • 3:13 - 3:16
    Brine nas, zapravo,
    da ćemo mi napraviti mašine
  • 3:16 - 3:18
    koje su mnogo, mnogo
    kompetentnije od nas,
  • 3:18 - 3:22
    brinemo da će nas uništiti
    i najmanja razlika između
  • 3:22 - 3:23
    naših i njihovih ciljeva.
  • 3:24 - 3:26
    Zamislite kakvi smo mi prema mravima.
  • 3:27 - 3:28
    Ne mrzimo ih.
  • 3:28 - 3:30
    Ne povređujemo ih namerno.
  • 3:30 - 3:33
    Zapravo, ponekad se
    trudimo se da ih ne povredimo.
  • 3:33 - 3:35
    Preskačemo ih na trotoaru.
  • 3:35 - 3:37
    Ali kada god njihovo prisustvo
  • 3:37 - 3:39
    ozbiljno ugrozi neke naše ciljeve,
  • 3:39 - 3:42
    recimo kada konstruišemo
    neku zgradu poput ove,
  • 3:42 - 3:44
    bez po muke ih istrebimo.
  • 3:44 - 3:47
    Brine nas da ćemo
    jednog dana napraviti mašine
  • 3:47 - 3:50
    koje će, bilo da su svesne ili ne,
  • 3:50 - 3:52
    nas tretirati na isti način.
  • 3:54 - 3:57
    E, sad, cenim da većini vas
    ovo zvuči kao daleka budućnost.
  • 3:57 - 4:04
    Kladim se da ima onih koji ne veruju
    da je superinteligentna VI moguća,
  • 4:04 - 4:05
    a kamoli neizbežna.
  • 4:05 - 4:09
    Ali onda morate naći neku grešku
    u sledećim pretpostavkama.
  • 4:09 - 4:11
    A samo ih je tri.
  • 4:12 - 4:17
    Inteligencija je stvar obrade
    informacija u fizičkim sistemima.
  • 4:17 - 4:20
    U stvari, ovo je malo više
    od neke pretpostavke.
  • 4:20 - 4:23
    Već smo ugradili specifičnu
    inteligenciju u naše mašine,
  • 4:23 - 4:25
    i mnoge od ovih mašina već
  • 4:25 - 4:28
    imaju performanse na nivou
    superljudske inteligencije.
  • 4:29 - 4:31
    I znamo da sama materija
  • 4:31 - 4:34
    može da omogući takozvanu
    "uopštenu inteligenciju",
  • 4:34 - 4:38
    sposobnost da se fleksibilno
    razmišlja u različitim domenima,
  • 4:38 - 4:41
    jer to može i naš mozak. Je l' tako?
  • 4:41 - 4:45
    Mislim, ovde postoje samo atomi,
  • 4:45 - 4:49
    i sve dok mi nastavljamo
    da gradimo sisteme atoma
  • 4:49 - 4:52
    koji su sve inteligentniji
    i inteligentniji,
  • 4:52 - 4:55
    mi ćemo na kraju, osim ako nas prekinu,
  • 4:55 - 4:58
    mi ćemo na kraju
    ugraditi uopštenu inteligenciju
  • 4:58 - 4:59
    u naše mašine.
  • 4:59 - 5:03
    Od suštinske je važnosti da shvatimo
    da stopa napretka nije važna,
  • 5:03 - 5:06
    jer bilo kakav napredak
    je dovoljan da nas dovede do cilja.
  • 5:06 - 5:10
    Ne treba nam Murov zakon.
    Ne treba nam eksponencijalni napredak.
  • 5:10 - 5:12
    Samo treba da nastavimo dalje.
  • 5:13 - 5:16
    Druga pretpostavka je
    da ćemo nastaviti dalje.
  • 5:17 - 5:20
    Nastavićemo da poboljšavamo
    naše inteligentne mašine.
  • 5:21 - 5:25
    I uz postojeću vrednost inteligencije -
  • 5:25 - 5:29
    mislim, inteligencija je
    ili izvor svega što je vredno
  • 5:29 - 5:32
    ili nam treba da sačuvamo
    sve ono što nam je vredno.
  • 5:32 - 5:34
    To je naš najvredniji resurs.
  • 5:34 - 5:36
    I zato želimo da uradimo ovo.
  • 5:36 - 5:39
    Imamo probleme koje
    očajnički moramo da rešimo.
  • 5:39 - 5:42
    Želimo da izlečimo bolesti poput
    Alchajmera i raka.
  • 5:43 - 5:47
    Želimo da shvatimo ekonomske sisteme.
    Želimo da poboljšamo nauku o klimi.
  • 5:47 - 5:49
    Tako da, ako možemo, to ćemo i uraditi.
  • 5:49 - 5:52
    Voz je već napustio stanicu,
    i nema kočnice.
  • 5:54 - 5:59
    Konačno, mi ne stojimo
    na vrhuncu inteligencije,
  • 5:59 - 6:01
    a verovatno ni blizu toga.
  • 6:02 - 6:04
    I ovo je zaista suštinski uvid.
  • 6:04 - 6:06
    Zbog ovoga je naša
    situacija tako nepouzdana,
  • 6:06 - 6:10
    i zbog toga je naša intuicija
    o riziku tako nepouzdana.
  • 6:11 - 6:14
    E, sad, samo razmislite
    o najpametnijoj osobi ikada.
  • 6:15 - 6:18
    Na skoro svačijem užem spisku ovde
    je Džon fon Nojman.
  • 6:18 - 6:21
    Mislim, utisak koji je Nojman
    ostavio na ljude oko sebe,
  • 6:21 - 6:25
    uključujući tu najveće
    matematičare i fizičare tog vremena,
  • 6:26 - 6:27
    je prilično dobro dokumentovan.
  • 6:27 - 6:31
    I ako je samo pola onih
    priča o njemu polutačna,
  • 6:31 - 6:32
    nema dileme da je on
  • 6:33 - 6:35
    jedan od najpametnijih ljudi
    koji su ikada živeli.
  • 6:35 - 6:38
    Samo zamislite opseg inteligencije.
  • 6:38 - 6:40
    Ovde imamo Džona fon Nojmana.
  • 6:42 - 6:43
    Onda smo tu vi i ja.
  • 6:44 - 6:45
    I onda imamo neko pile.
  • 6:45 - 6:47
    (Smeh)
  • 6:47 - 6:49
    Pardon, neko pile.
  • 6:49 - 6:50
    (Smeh)
  • 6:50 - 6:54
    Nema potrebe da idem dalje u dubiozu
    u ovom govoru nego što treba.
  • 6:54 - 6:55
    (Smeh)
  • 6:56 - 7:00
    Međutim, čini se da je više nego verovatno
    da se spektar inteligencije
  • 7:00 - 7:03
    proteže mnogo više
    nego što trenutno možemo da shvatimo,
  • 7:04 - 7:07
    i ako napravimo mašine
    koje su mnogo inteligentnije od nas,
  • 7:07 - 7:09
    one će skoro sigurno
    istražiti ovaj spektar
  • 7:09 - 7:11
    onako kako to ne možemo ni zamisliti,
  • 7:11 - 7:14
    i preteći nas na načine
    koje ne možemo ni zamisliti.
  • 7:15 - 7:19
    I važno je shvatiti da je ovo
    moguće samo putem brzine.
  • 7:19 - 7:24
    U redu? Zamislite samo da napravimo
    jednu superinteligentnu VI
  • 7:24 - 7:28
    koja nije ništa pametnija
    od vašeg prosečnog tima istraživača
  • 7:28 - 7:30
    na Stanfordu ili MIT-u.
  • 7:30 - 7:33
    Pa, električna kola
    funkcionišu oko milion puta brže
  • 7:33 - 7:34
    od biohemijskih,
  • 7:35 - 7:38
    tako da bi ove mašine razmišljale
    oko milion puta brže
  • 7:38 - 7:39
    od umova koje su ih sastavile.
  • 7:40 - 7:41
    Pustite ih da rade nedelju dana,
  • 7:41 - 7:46
    i izvešće 20.000 godina
    ljudskog intelektualnog rada,
  • 7:46 - 7:48
    nedelju za nedeljom.
  • 7:50 - 7:53
    Kako čak možemo i razumeti,
    a kamoli ograničiti
  • 7:53 - 7:55
    um koji bi mogao ovo da uradi?
  • 7:57 - 7:59
    Iskreno, ono drugo što je zabrinjavajuće
  • 7:59 - 8:04
    je da, zamislite najbolji mogući scenario.
  • 8:04 - 8:08
    Zamislite da nabasamo na neki dizajn
    superinteligentne VI
  • 8:08 - 8:10
    čija nas sigurnost ne brine.
  • 8:10 - 8:13
    Po prvi put imamo savršeni dizajn.
  • 8:13 - 8:15
    To je kao da nam je dato proročanstvo
  • 8:15 - 8:17
    koje se odvija baš kako je zapisano.
  • 8:17 - 8:21
    Ta mašina bi bila savršeni
    uređaj za uštedu radne snage.
  • 8:22 - 8:24
    Dizajnirala bi mašinu
    koja može napraviti mašine
  • 8:24 - 8:26
    za bilo kakav fizički posao,
  • 8:26 - 8:27
    a koje bi napajalo sunce,
  • 8:27 - 8:30
    manje-više po ceni sirovina.
  • 8:30 - 8:33
    Pričamo o kraju teškog ljudskog rada.
  • 8:33 - 8:36
    Takođe pričamo o kraju
    većeg dela intelektualnog rada.
  • 8:37 - 8:40
    Pa šta će onda majmuni poput nas
    da rade u takvim okolnostima?
  • 8:40 - 8:44
    Pa, imali bismo vremena za frizbi
    i da masiramo jedni druga.
  • 8:46 - 8:49
    Dodajmo malo LSD-a i neke
    diskutabilne garderobe,
  • 8:49 - 8:51
    i ceo svet bi mogao
    biti poput festivala Burning Man.
  • 8:51 - 8:53
    (Smeh)
  • 8:54 - 8:56
    E, sad, to možda zvuči kao dobra ideja,
  • 8:57 - 9:00
    ali zapitajte se šta bi se desilo
  • 9:00 - 9:02
    pod našim trenutnim ekonomskim
    i političkim poretkom?
  • 9:02 - 9:05
    Čini se verovatnim da bismo bili svedoci
  • 9:05 - 9:09
    određenog nivoa novčane nejednakosti
    i nezaposlenosti
  • 9:09 - 9:11
    koji ranije nismo viđali.
  • 9:11 - 9:13
    Uz odsustvo volje da
    se odmah ovo novo bogatstvo stavi
  • 9:13 - 9:15
    na raspolaganje čovečanstvu,
  • 9:16 - 9:19
    nekoliko bilionera bi poziralo
    na omotima biznis magazina
  • 9:19 - 9:22
    dok bi ostatak sveta slobodno
    mogao umreti od gladi.
  • 9:22 - 9:25
    I šta bi radili Rusi ili Kinezi
  • 9:25 - 9:27
    kada bi čuli da tamo neka firma
    iz Silicijumske doline
  • 9:27 - 9:30
    treba da izbaci superinteligentnu VI?
  • 9:30 - 9:33
    Ova mašina bi bila sposobna da vodi rat,
  • 9:33 - 9:35
    bilo klasični, bilo sajber rat,
  • 9:35 - 9:37
    nadmoćna bez presedana.
  • 9:38 - 9:40
    Ovo je scenario pobednik nosi sve.
  • 9:40 - 9:43
    Biti šest meseci ispred konkurencije ovde
  • 9:43 - 9:46
    je isto biti 500 000 godina ispred,
  • 9:46 - 9:47
    u najmanju ruku.
  • 9:47 - 9:52
    Tako se čini da bi čak i samo glasina
    o proboju ovog tipa
  • 9:52 - 9:55
    izazvala ludnicu među ljudima.
  • 9:55 - 9:58
    I, sad, jedna od najstarašnijih stvari,
  • 9:58 - 10:00
    prema mom mišljenju, trenutno,
  • 10:00 - 10:05
    su one stvari koje istraživači VI kažu
  • 10:05 - 10:06
    kada žele da vas ohrabre.
  • 10:07 - 10:10
    I najuobičajeniji razlog zbog koga
    nam kažu da ne brinemo jeste vreme.
  • 10:10 - 10:13
    Sve je to daleko, znate.
  • 10:13 - 10:15
    To je verovatno 50 ili 100 godina daleko.
  • 10:16 - 10:17
    Jedan istraživač je rekao:
  • 10:17 - 10:19
    "Briga o bezbednosti VI
  • 10:19 - 10:21
    je kao briga o prenaseljenosti Marsa."
  • 10:21 - 10:24
    Ovo je kao kada vam
    iz Silicijumske doline kažu:
  • 10:24 - 10:26
    "Nemojte vi zamarati vaše glavice time."
  • 10:26 - 10:27
    (Smeh)
  • 10:28 - 10:29
    Izgleda da niko ne primećuje
  • 10:29 - 10:32
    da je odnos prema vremenu
  • 10:32 - 10:35
    potpuni non sequitur.
  • 10:35 - 10:38
    Ako je inteligencija samo stvar
    procesuiranja informacija,
  • 10:38 - 10:41
    i mi nastavimo da poboljšavamo mašine,
  • 10:41 - 10:44
    proizvešćemo neki
    oblik superinteligencije.
  • 10:44 - 10:48
    I nemamo pojma
    koliko će nam trebati vremena
  • 10:48 - 10:50
    da stvorimo uslove da to uradimo bezbedno.
  • 10:52 - 10:53
    Dozvolite mi da ponovim.
  • 10:54 - 10:57
    Nemamo pojma koliko vremena će nam trebati
  • 10:57 - 11:00
    da stvorimo uslove da to uradimo bezbedno.
  • 11:01 - 11:04
    Ako niste primetili,
    50 godina nije kao što je bilo ranije.
  • 11:04 - 11:07
    Ovo je 50 godina u mesecima.
  • 11:07 - 11:09
    Ovoliko dugo već imamo iPhone.
  • 11:09 - 11:12
    Ovoliko se već prikazuju "Simpsonovi".
  • 11:13 - 11:15
    Pedeset godina nije mnogo vremena
  • 11:15 - 11:18
    da se ostvari jedan od najvećih
    izazova naše vrste.
  • 11:20 - 11:24
    Još jedanput, izgleda da nam nedostaje
    odgovarajući emocionalni odgovor
  • 11:24 - 11:26
    na ono na šta imamo svako pravo
    da verujemo da dolazi.
  • 11:26 - 11:30
    Kompjuterski naučnik Stjuart Rasel
    ima lepu analogiju za ovo.
  • 11:30 - 11:35
    On kaže, zamislite da smo primili
    neku poruku od vanzemaljaca,
  • 11:35 - 11:37
    u kojoj stoji:
  • 11:37 - 11:39
    "Zemljani,
  • 11:39 - 11:41
    stižemo na vašu planetu za 50 godina.
  • 11:42 - 11:43
    Spremite se."
  • 11:43 - 11:48
    I mi ćemo samo da odbrojavamo mesece
    dok se njihov brod ne spusti?
  • 11:48 - 11:51
    Osetili bismo malo
    više straha nego obično.
  • 11:53 - 11:55
    Drugo zbog čega kažu da ne brinemo
  • 11:55 - 11:58
    je da ove mašine ne mogu drugačije
    nego da dele naše vrednosti
  • 11:58 - 12:00
    zato što će one bukvalno biti
    produžeci nas samih.
  • 12:00 - 12:02
    One će biti nakalamljene na naš mozak
  • 12:02 - 12:04
    i mi ćemo suštinski postati
    limbički sistem.
  • 12:05 - 12:07
    Sad na trenutak razmislite
  • 12:07 - 12:10
    da je najbezbednija i jedina
    razborita i preporučena,
  • 12:10 - 12:11
    putanja napred,
  • 12:11 - 12:14
    da ovu tehnologiju implementiramo
    direktno u naš mozak.
  • 12:15 - 12:18
    Sad, ovo može biti najbezbednija i jedina
    razborita putanja napred,
  • 12:18 - 12:21
    ali obično se bezbednost neke tehnologije
  • 12:21 - 12:25
    mora baš dobro razmotriti
    pre nego što vam se zabode u mozak.
  • 12:25 - 12:27
    (Smeh)
  • 12:27 - 12:32
    Veći problem je što pravljenje
    superinteligentne VI same od sebe
  • 12:32 - 12:34
    izgleda lakše
  • 12:34 - 12:36
    od pravljenja superinteligentne VI
  • 12:36 - 12:38
    i kompletiranja neuronauke
  • 12:38 - 12:40
    koja nam omogućava da
    integrišemo naše umove sa njom.
  • 12:41 - 12:44
    I ako imamo to da kompanije
    i vlade rade ovaj posao,
  • 12:44 - 12:48
    one će verovatno to shvatiti
    kao da se takmiče protiv svih drugih,
  • 12:48 - 12:51
    jer pobediti u ovoj trci
    znači osvojiti svet,
  • 12:51 - 12:53
    uz uslov da ga sledećeg
    trenutka ne uništite,
  • 12:53 - 12:56
    a onda će verovatno prvo biti urađeno
  • 12:56 - 12:57
    ono što je najlakše.
  • 12:59 - 13:01
    E, sad, nažalost,
    ja nemam rešenje za ovaj problem,
  • 13:01 - 13:04
    osim toga da preporučim
    da više nas promisli o tome.
  • 13:04 - 13:07
    Smatram da nam je potrebno
    nešto poput Projekta Menhetn
  • 13:07 - 13:08
    na temu veštačke inteligencije.
  • 13:09 - 13:11
    Ne da bismo je izgradili, jer mislim
    da je to neizbežno,
  • 13:11 - 13:15
    već da razumemo
    kako da izbegnemo trku naoružanja
  • 13:15 - 13:18
    i da je napravimo na način
    koji je u skladu sa našim interesima.
  • 13:18 - 13:20
    Kada se razgovara o superinteligentnoj VI
  • 13:20 - 13:23
    koja sama sebe može da menja,
  • 13:23 - 13:27
    čini se da imamo samo jednu šansu
    da početne uslove postavimo kako treba,
  • 13:27 - 13:29
    a čak i onda ćemo morati da prihvatimo
  • 13:29 - 13:32
    ekonomske i političke
    posledice pravilne upotrebe.
  • 13:34 - 13:36
    Ali trenutak kada priznamo
  • 13:36 - 13:40
    da je obrada informacija
    izvor inteligencije,
  • 13:41 - 13:46
    da je neki odgovarajući računarski sistem
    osnova onoga što je inteligencija,
  • 13:46 - 13:50
    i prihvatimo da ćemo stalno
    unapređivati ove sisteme,
  • 13:51 - 13:56
    i prihvatimo da će horizont
    shvatanja vrlo verovatno daleko nadmašiti
  • 13:56 - 13:57
    ono što trenutno znamo,
  • 13:58 - 13:59
    onda moramo da prihvatimo
  • 13:59 - 14:02
    da smo u procesu
    pravljenja neke vrste božanstva.
  • 14:03 - 14:05
    Sada bi bilo dobro vreme
  • 14:05 - 14:08
    da se postaramo da je to božanstvo
    sa kojim bismo mogli živeti.
  • 14:08 - 14:10
    Hvala vam mnogo.
  • 14:10 - 14:14
    (Aplauz)
Title:
Možemo li napraviti veštačku inteligenciju, a da ne izgubimo kontrolu nad njom?
Speaker:
Sem Haris (Sam Harris)
Description:

Plašite se superinteligentne veštačke inteligencije? I treba, i to ne samo u teroji, kaže neuronaučnik i filozof Sem Haris. Napravićemo nadljudske mašine, kaže Haris, ali još uvek se nismo izborili sa problemom da ćemo stvoriti nešto što će se prema nama odnositi kao što se mi odnosimo prema mravima.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Serbian subtitles

Revisions