Ne plašite se superinteligentne veštačke inteligencije
-
0:01 - 0:05Kad sam bio dete,
bio sam štreber do koske. -
0:05 - 0:07Mislim da su i neki od vas to bili.
-
0:08 - 0:09(Smeh)
-
0:09 - 0:12A vi, gospodine, koji se najglasnije
smejete, verovatno ste to i dalje. -
0:12 - 0:14(Smeh)
-
0:14 - 0:18Odrastao sam u gradiću
u prašnjavim ravnicama severnog Teksasa -
0:18 - 0:21kao sin šerifa koji je sin pastora.
-
0:21 - 0:23Upadanje u nevolju nije dolazilo u obzir.
-
0:24 - 0:27Te sam iz zabave počeo da čitam
knjige o proračunu. -
0:27 - 0:29(Smeh)
-
0:29 - 0:31I vi ste.
-
0:31 - 0:34Zbog toga sam sagradio laser,
kompjuter i modele raketa, -
0:34 - 0:37a to me je navelo da napravim
raketno gorivo u spavaćoj sobi. -
0:38 - 0:42Sad, u naučnom smislu,
-
0:42 - 0:45ovo nazivamo veoma lošom idejom.
-
0:45 - 0:46(Smeh)
-
0:46 - 0:48Otprilike u to vreme,
-
0:48 - 0:52u bioskope je stigla "Odiseja u svemiru:
2001" Stenlija Kjubrika, -
0:52 - 0:54i moj život je izmenjen zauvek.
-
0:54 - 0:56Sve mi se sviđalo kod tog filma,
-
0:56 - 0:59naročito HAL 9000.
-
0:59 - 1:01Sad, HAL je bio svesni kompjuter
-
1:01 - 1:03osmišljen da vodi kosmički brod Diskaveri
-
1:03 - 1:06od Zemlje do Jupitera.
-
1:06 - 1:08HAL je takođe bio faličan lik
-
1:08 - 1:12jer je na kraju odabrao
vrednost misije umesto ljudskog života. -
1:13 - 1:15Sad, HAL je bio fiktivan lik,
-
1:15 - 1:18ali bez obzira na to,
obraća se našim strahovima, -
1:18 - 1:20našim strahovima da ćemo pasti pod uticaj
-
1:20 - 1:23nekakve bezosećajne,
veštačke inteligencije -
1:23 - 1:25koja je ravnodušna prema našoj ljudskosti.
-
1:26 - 1:28Verujem da su takvi strahovi neosnovani.
-
1:28 - 1:31Uistinu se nalazimo u izvanrednom vremenu
-
1:31 - 1:33u ljudskoj istoriji,
-
1:33 - 1:38u kom, pokrenuti odbijanjem da prihvatimo
granice naših tela i naših umova, -
1:38 - 1:39gradimo mašine
-
1:39 - 1:43izuzetne, prelepe složenosti i stila
-
1:43 - 1:45koje će da prošire ljudsko iskustvo
-
1:45 - 1:47na nezamislive načine.
-
1:48 - 1:50Nakon karijere koja seže
od akademije ratnog vazduhoplovstva -
1:50 - 1:52preko svemirskog zapovednika do sada,
-
1:52 - 1:54postao sam inženjer za sisteme,
-
1:54 - 1:57a nedavno me je privukao
inženjerski problem -
1:57 - 1:59u vezi sa NASA-inom misijom na Marsu.
-
1:59 - 2:02Sad, tokom svemirskih letova na Mesec
-
2:02 - 2:05možemo da se oslonimo
na kontrolu misije u Hjustonu -
2:05 - 2:07da će da prati sve aspekte leta.
-
2:07 - 2:11Međutim, Mars je 200 puta dalje,
-
2:11 - 2:14i zbog toga je potrebno
u proseku 13 minuta -
2:14 - 2:17za signal da putuje od Zemlje do Marsa.
-
2:17 - 2:20Ako imamo problem, nema dovoljno vremena.
-
2:21 - 2:23Pa razumno inženjeresko rešenje
-
2:23 - 2:26iziskuje od nas da smestimo
kontrolu misije -
2:26 - 2:29unutar zidova kosmičkog broda Orion.
-
2:29 - 2:32Još jedna fantastična ideja
u profilu misije -
2:32 - 2:35smešta humanoidne robote
na površinu Marsa -
2:35 - 2:37pre nego što ljudi lično stignu,
-
2:37 - 2:38prvo da bi gradili objekte
-
2:38 - 2:42i kasnije da služe kao saradnici
u naučnoj ekipi. -
2:43 - 2:46Sad, dok sam ovo posmatrao
sa inženjerske tačke gledišta, -
2:46 - 2:49bilo mi je veoma jasno
da je potrebno da projektujem -
2:49 - 2:52pametnu, sarađivačku,
-
2:52 - 2:54društveno inteligentnu
veštačku inteligenciju. -
2:54 - 2:58Drugim rečima, trebalo je da sagradim
nešto prilično slično HAL-u, -
2:58 - 3:01ali bez ubilačkih tendencija.
-
3:01 - 3:02(Smeh)
-
3:03 - 3:05Zastanimo na trenutak.
-
3:05 - 3:09Da li je zaista moguće sagraditi
takvu veštačku inteligenciju? -
3:09 - 3:10Zapravo jeste.
-
3:10 - 3:11Na razne načine,
-
3:11 - 3:13ovo je težak inženjerski problem
-
3:13 - 3:15sa elementima VI,
-
3:15 - 3:20a ne nekakav neprijatan problem VI
koji je potrebno projektovati. -
3:20 - 3:22Da parafraziram Alana Tjuringa:
-
3:22 - 3:25ne zanima me izgradnja svesne mašine.
-
3:25 - 3:26Ne pravim HAL-a.
-
3:26 - 3:29Ja tragam za prostim mozgom,
-
3:29 - 3:32nečim što pruža iluziju inteligencije.
-
3:33 - 3:36Umetnost nauke i računarstva
su prešle dug put -
3:36 - 3:38od vremena prikazivanja HAL-a,
-
3:38 - 3:41i pretpostavljam da je njegov tvorac
dr Čandra ovde danas, -
3:41 - 3:43imao bi gomilu pitanja za nas.
-
3:43 - 3:45Da li je zaista moguće da mi
-
3:45 - 3:49uzmemo sistem od miliona
i miliona uređaja, -
3:49 - 3:51koji učitava dotok podataka,
-
3:51 - 3:53i da predvidimo njihove kvarove
i delamo unapred? -
3:53 - 3:54Da.
-
3:54 - 3:58Možemo li sagraditi sisteme koji
pričaju s ljudima na prirodnom jeziku? -
3:58 - 3:59Da.
-
3:59 - 4:02Možemo li sagraditi sisteme
koji prepoznaju predmete, osećanja, -
4:02 - 4:05ispoljavaju emocije,
igraju igrice, čak i čitaju sa usana? -
4:05 - 4:06Da.
-
4:06 - 4:09Možemo li sagraditi sistem
koji postavlja ciljeve, -
4:09 - 4:12koji pravi planove za te ciljeve
i usput uči? -
4:12 - 4:14Da.
-
4:14 - 4:17Možemo li sagraditi sisteme
koji sadrže teoriju uma? -
4:17 - 4:18Ovo učimo da radimo.
-
4:18 - 4:22Možemo li sagraditi sisteme
koji imaju etičke i moralne osnove? -
4:22 - 4:25Ovo moramo da naučimo da radimo.
-
4:25 - 4:27Zato, prihvatimo za trenutak
-
4:27 - 4:30da je moguće sagraditi
takvu veštačku inteligenciju -
4:30 - 4:32za ovakvu i slične misije.
-
4:32 - 4:34Sledeće pitanje
koje morate postaviti sebi je: -
4:34 - 4:36da li treba da je se plašimo?
-
4:36 - 4:38Sad, svaka nova tehnologija
-
4:38 - 4:41sa sobom nosi izvesnu dozu strepnje.
-
4:41 - 4:43Kada smo prvi put videli automobile,
-
4:43 - 4:47ljudi su se žalili da ćemo biti svedoci
uništenja porodice. -
4:47 - 4:49Kada smo prvi put videli telefon,
-
4:49 - 4:52ljudi su bili zabrinuti
da će da uništi učtiv razgovor. -
4:52 - 4:56U jednom trenutku smo videli
kako pisana reč počinje da preovlađuje, -
4:56 - 4:59ljudi su smatrali da ćemo izgubiti
sposobnost pamćenja. -
4:59 - 5:01Sve ovo je donekle tačno,
-
5:01 - 5:03ali je takođe tačno
da nam je ova tehnologija -
5:03 - 5:07donela stvari koje su proširile
ljudsko iskustvo -
5:07 - 5:08na izvesne suštinske načine.
-
5:10 - 5:12Stoga, pođimo malo dalje s ovim.
-
5:13 - 5:18Ne strahujem od stvaranja VI na ovaj način
-
5:18 - 5:22jer će vremenom
otelotvoriti neke od naših vrednosti. -
5:22 - 5:25Razmotrite sledeće: izgradnja kognitivnog
sistema je temeljno različita -
5:25 - 5:29od izgradnje tradicionalnog
softverskog sistema iz prošlosti. -
5:29 - 5:31Ne programiramo ih. Podučavamo ih.
-
5:31 - 5:34Kako bih naučio sistem
da raspoznaje cveće, -
5:34 - 5:37pokazujem mu na hiljade cvetova
koji se meni sviđaju. -
5:37 - 5:39Kako bih naučio sistem da igra igru -
-
5:39 - 5:41Pa, bih. I vi biste.
-
5:43 - 5:45Volim cveće. Pa šta.
-
5:45 - 5:48Kako bih naučio sistem
da igra igru poput goa, -
5:48 - 5:50morao bih da odigram
na hiljade partija goa, -
5:50 - 5:52ali bih ga usput naučio
-
5:52 - 5:54kako da razlikuje dobru od loše partije.
-
5:55 - 5:58Ako bih želeo da stvorim pravnog
asistenta sa veštačkom inteligencijom, -
5:58 - 6:00podučio bih ga zakonskim pravilncima,
-
6:00 - 6:03ali bih mu istovremeno s tim mešao
-
6:03 - 6:06osećanja milosti i pravde
koja su delovi tog zakona. -
6:07 - 6:10U naučnom smislu, ovo je nešto
što nazivamo temeljnom istinom, -
6:10 - 6:12a ovo je važna tačka:
-
6:12 - 6:13stvarajući ove mašine,
-
6:13 - 6:16sledi da ih učimo svesti
o našim vrednostima. -
6:17 - 6:20U tom smislu, verujem
veštačkoj inteligenciji -
6:20 - 6:23isto, ako ne i više,
kao i dobro obučenim ljudima. -
6:24 - 6:25Međutim, možda se pitate,
-
6:25 - 6:28šta je sa odmetnicima,
-
6:28 - 6:31nekim dobro finansiranim
nevladinim organizacijama? -
6:31 - 6:35Ne plašim se veštačke inteligencije
u rukama vukova samotnjaka. -
6:35 - 6:40Očito se ne možemo zaštititi
od svih nasumičnih činova nasilja, -
6:40 - 6:42ali u stvarnosti sličan sistem
-
6:42 - 6:45zahteva značajanu i prefinjenu obuku
-
6:45 - 6:47koja prevazilazi resurse pojedinaca.
-
6:47 - 6:49A zatim,
-
6:49 - 6:52to je daleko više od pukog ubrizgavanja
internet virusa u svet, -
6:52 - 6:55gde pritisnete dugme
i iznenada se nalazi na milion mesta -
6:55 - 6:57i laptopovi počinju svuda da eksplodiraju.
-
6:57 - 7:00Sad, ovakve materije su daleko veće,
-
7:00 - 7:02i sigurno ćemo ih doživeti.
-
7:03 - 7:06Da li me je strah da će takva
veštačka inteligencija -
7:06 - 7:08možda ugroziti čitavo čovečanstvo?
-
7:08 - 7:13Ako pogledate filmove,
poput "Matriksa", "Metropolisa", -
7:13 - 7:16"Terminatora",
serije poput "Zapadnog sveta", -
7:16 - 7:18svi se oni bave tim strahom.
-
7:18 - 7:22Zaista, u knjizi "Superinteligencija"
filozofa Nika Bostroma, -
7:22 - 7:24on se bavi ovom tematikom
-
7:24 - 7:28i razmatra da bi superinteligencija
mogla ne samo da bude opasna, -
7:28 - 7:32već bi mogla predstavljati egzistencijalnu
pretnju čitavom čovečanstvu. -
7:32 - 7:34Osnovni argument dr Bostroma
-
7:34 - 7:37je da bi slični sistemi vremenom
-
7:37 - 7:40imali takavu nezasitu žudnju
za informacijama -
7:40 - 7:43da bi možda naučili kako da uče
-
7:43 - 7:46i vremenom bi otkrili
da možda imaju ciljeve -
7:46 - 7:48koji su suprotni ljudskim potrebama.
-
7:48 - 7:50Dr Bostrom ima brojne pratioce.
-
7:50 - 7:54Podržavaju ga ljudi poput
Ilona Maska i Stivena Hokinga. -
7:55 - 7:57Uz dužno poštovanje
-
7:58 - 8:00tim briljantnim umovima,
-
8:00 - 8:02verujem da suštinski greše.
-
8:02 - 8:06Sad, argument dr Bostroma
je suviše složen za razlaganje, -
8:06 - 8:08i ja nemam vremena
da ga u potpunosti razložim, -
8:08 - 8:11ali veoma kratko, razmotrite sledeće:
-
8:11 - 8:14superznanje je veoma različito
od superdelanja. -
8:14 - 8:16HAL je bio pretnja za posadu Diskaverija,
-
8:16 - 8:21samo zato što je HAL zapovedao
svim aspektima Diskaverija. -
8:21 - 8:23Dakle, moralo bi da se radi
o superinteligenciji. -
8:23 - 8:26Morala bi da ima vlast
u čitavom našem svetu. -
8:26 - 8:29Tako je u slučaju Skajneta
iz filma "Terminator" -
8:29 - 8:30u kom smo imali superinteligenciju
-
8:30 - 8:32koja je zapovedala ljudskom voljom,
-
8:32 - 8:36koja je upravljala svakim uređajem
u svakom kutku sveta. -
8:36 - 8:37Prosto govoreći,
-
8:37 - 8:39to se neće desiti.
-
8:39 - 8:42Ne pravimo VI
koja kontroliše vremenske prilike, -
8:42 - 8:44koja upravlja plimama,
-
8:44 - 8:47koja zapoveda nama,
hirovitim, haotičnim ljudima. -
8:47 - 8:51Potom, kad bi postojala
slična veštačka inteligencija, -
8:51 - 8:54morala bi da se takmiči
sa ljudskim ekonomijama, -
8:54 - 8:57a time i sa nama zbog resursa.
-
8:57 - 8:58I na kraju -
-
8:58 - 9:00nemojte ovo reći Siri -
-
9:00 - 9:02možemo uvek da ih isključimo.
-
9:02 - 9:04(Smeh)
-
9:05 - 9:08Na neverovatnom smo putu
-
9:08 - 9:10koevolucije sa našim mašinama.
-
9:10 - 9:13Ljudi kakvi smo danas,
-
9:13 - 9:15nećemo biti ljudi sutrašnjice.
-
9:15 - 9:19Briga zbog uspona superinteligencije
-
9:19 - 9:22je na razne načine
opasno odvraćanje pažnje -
9:22 - 9:24jer uspon samog računarstva
-
9:24 - 9:27nam donosi brojna
ljudska i društvena pitanja -
9:27 - 9:29kojima se odmah moramo baviti.
-
9:29 - 9:32Kako da organizujemo društvo
na najbolji način -
9:32 - 9:35kada se smanji potreba
za ljudskom radnom snagom? -
9:35 - 9:38Kako da donesemo razumevanje
i obrazovanje širom sveta, -
9:38 - 9:40a da i dalje poštujemo naše razlike?
-
9:40 - 9:44Kako bismo mogli da proširimo i unapredimo
ljudski život kroz kognitivno zdravstvo? -
9:44 - 9:47Kako da koristimo računare
-
9:47 - 9:49da nas odvedu do zvezda?
-
9:50 - 9:52A to je uzbudljivo.
-
9:52 - 9:55Šansa da se koriste računari
-
9:55 - 9:56da bismo unapredili ljudsko iskustvo
-
9:56 - 9:58su nam na dohvat ruke,
-
9:58 - 10:00ovde i sad,
-
10:00 - 10:01a tek smo počeli.
-
10:02 - 10:03Mnogo vam hvala.
-
10:04 - 10:08(Aplauz)
- Title:
- Ne plašite se superinteligentne veštačke inteligencije
- Speaker:
- Grejdi Buč (Grady Booch)
- Description:
-
Nova tehnologija stvara nove nespokoje, kaže naučnik i filozof Grejdi Buč, ali ne bi trebalo da strepimo od svemoćne, bezosećajne veštačke inteligencije. Buč ublažava naše najgore strahove (uzrokovane naučnom fantastikom) o superinteligentnim kompjuterima tako što nam objašnjava kako ćemo ih podučavati, a ne programirati, da dele naše vrednosti. Umesto da se plašimo malo verovatne egzistencijalne pretnje, tera nas da razmislimo kako će veštačka inteligencija da unapredi ljudski život.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Mile Živković edited Serbian subtitles for Don't fear superintelligent AI | ||
Mile Živković accepted Serbian subtitles for Don't fear superintelligent AI | ||
Mile Živković edited Serbian subtitles for Don't fear superintelligent AI | ||
Mile Živković edited Serbian subtitles for Don't fear superintelligent AI | ||
Milenka Okuka edited Serbian subtitles for Don't fear superintelligent AI | ||
Milenka Okuka edited Serbian subtitles for Don't fear superintelligent AI |