Što će se dogoditi kada računala postanu pametnija od nas?
-
0:01 - 0:05Radim s mnogo matematičara,
filozofa i računalnih znanstvenika -
0:05 - 0:10s kojima razmišljam o budućnosti
strojne inteligencije, -
0:10 - 0:12među drugim stvarima.
-
0:12 - 0:17Neki ljudi misle da su te stvari
u zoni znanstvene fantastike, -
0:17 - 0:20nešto ludo, nestvarno.
-
0:20 - 0:21Ali ja volim reći
-
0:21 - 0:25ok, pogledajmo uvjete
modernoga života. -
0:25 - 0:27(Smijeh)
-
0:27 - 0:29Ovo je normalno stanje stvari.
-
0:29 - 0:31Ali ako malo razmislimo o tome,
-
0:31 - 0:35mi smo zapravo tek nedavno
stigli na ovaj planet, -
0:35 - 0:37mi, ljudska vrsta.
-
0:37 - 0:41Kad bismo gledali na Zemlju kao da
je stvorena prije godinu dana, -
0:41 - 0:45onda bi ljudska vrsta bila
stara deset minuta. -
0:45 - 0:48Industrijska je era počela
prije dvije sekunde. -
0:49 - 0:55Drugi pogled na ovo jest taj da promatramo
svjetski BDP u zadnjih 10 000 godina. -
0:55 - 0:58Odvojio sam nešto vremena i
to za vas grafički prikazao. -
0:58 - 0:59Izgleda ovako.
-
0:59 - 1:01(Smijeh)
-
1:01 - 1:03Neobičan je to oblik za
uobičajene uvjete. -
1:03 - 1:05Ja sigurno ne bih sjedio na njemu.
-
1:05 - 1:07(Smijeh)
-
1:07 - 1:12Zapitajmo se koji je uzrok
ove trenutne anomalije. -
1:12 - 1:14Neki bi ljudi rekli da je tehnologija.
-
1:14 - 1:19Istina je da se tijekom povijesti
tehnologija nagomilavala -
1:19 - 1:24i u ovom se trenutku
tehnologija jako brzo razvija -- -
1:24 - 1:25to je neposredni uzrok,
-
1:25 - 1:28i zbog toga smo trenutno
jako produktivni. -
1:28 - 1:32Ali razmislimo o krajnjem uzroku.
-
1:33 - 1:37Pogledajte ova dva vrlo
istaknuta gospodina: -
1:37 - 1:38imamo Kanzija --
-
1:38 - 1:43koji je svladao 200 leksičkih
znakova što je nevjerojatan podvig. -
1:43 - 1:47I Ed Witten koji je započeo drugu
revoluciju superstruna. -
1:47 - 1:49Ako pomno pogledamo,
uočit ćemo ovo: -
1:49 - 1:51u principu istu stvar.
-
1:51 - 1:53Jedna je malo veća,
-
1:53 - 1:55možda ima par specifičnosti
u načinu na koji je sklopljena. -
1:55 - 1:59Međutim, ove nevidljive razlike
ne mogu biti jako složene -
1:59 - 2:03jer nas dijeli samo 250 000 generacija
-
2:03 - 2:05od zadnjeg zajedničkog pretka.
-
2:05 - 2:09Znamo da se složeni
mehanizmi dugo razvijaju. -
2:10 - 2:12Tako da nas hrpa relativno malih promjena
-
2:12 - 2:16vodi od Kanzija do Wittena,
-
2:16 - 2:20od polomljenih grana do
interkontinentalnih balističkih raketa. -
2:21 - 2:25Onda je poprilično očito
da sve što smo postigli -
2:25 - 2:26i sve do čega nam je stalo
-
2:26 - 2:31uvelike ovisi o relativno malim
promjenama koje čine ljudski um. -
2:33 - 2:36Nužna je posljedica ta
da sve daljnje izmjene -
2:36 - 2:40koje bi mogle značajno promijeniti
način razmišljanja -
2:40 - 2:43mogu imati potencijalno
ogromne posljedice. -
2:44 - 2:47Neki od mojih kolega
smatraju da smo na rubu -
2:47 - 2:51nečega što bi moglo izazvati
takve temeljite promjene, -
2:51 - 2:54a radi se o strojnoj superinteligenciji.
-
2:54 - 2:59Prije je umjetna inteligencija bila
pisanje naredbi u kutiju. -
2:59 - 3:01Ljudski bi programeri
-
3:01 - 3:04mukotrpno ručno stvarali stavke znanja.
-
3:04 - 3:06Izgradite takve stručne sustave
-
3:06 - 3:08koji su za određene svrhe korisni,
-
3:08 - 3:11ali su bili krhki i
nisu bili mjerljivi. -
3:11 - 3:14U principu ste dobivali samo
ono što ste unijeli. -
3:14 - 3:15Ali, od onda se
-
3:15 - 3:19dogodila promjena u pristupu
u polju umjetne inteligencije. -
3:19 - 3:22Danas se uglavnom radi o
učenju strojeva. -
3:22 - 3:28Umjesto ručnog unosa prikaza
znanja i značajki, -
3:29 - 3:34stvaramo algoritme koji uče, i to često
iz čistih perceptualnih podataka. -
3:34 - 3:39Načelno je to ista stvar
koju čini ljudsko dijete. -
3:39 - 3:43Rezultat je taj da UI nije
ograničena na jedno područje -- -
3:43 - 3:48isti sustav može naučiti prevoditi
bilo koju kombinaciju jezika -
3:48 - 3:53ili naučiti igrati bilo koju
računalnu igru na Atariju. -
3:53 - 3:55Naravno,
-
3:55 - 3:59UI nije ni blizu posjedovanja
iste jake, unakrsne sposobnosti -
3:59 - 4:02učenja i planiranja raznih područja
kao što to radi ljudsko biće. -
4:02 - 4:04Korteks ima neke algoritamske trikove
-
4:04 - 4:07koje ne znamo kako prenijeti strojevima.
-
4:08 - 4:10Tako da je pitanje
-
4:10 - 4:13koliko smo blizu tome da
uskladimo te trikove. -
4:14 - 4:15Prije nekoliko godina
-
4:15 - 4:18proveli smo istraživanje s
vodećim stručnjacima za UI -
4:18 - 4:21kako bismo vidjeli što misle,
i jedno od pitanja bilo je -
4:21 - 4:25"Što mislite, do koje će godine
biti 50% vjerojatnosti -
4:25 - 4:28da ćemo postići strojnu inteligenciju
na razini ljudske inteligencije?" -
4:29 - 4:33Ljudsku smo razinu definirali kao
sposobnost da se bilo koji zadatak -
4:33 - 4:36obavi jednako dobro kao što bi
ga obavio odrastao čovjek, -
4:36 - 4:40znači, stvarna ljudska razina, a ne
samo unutar određenog područja. -
4:40 - 4:43Srednji je odgovor bio 2040. ili 2050.,
-
4:43 - 4:46ovisno o skupini stručnjaka
kojoj smo pitanje postavili. -
4:46 - 4:50To bi se moglo dogoditi puno, puno
kasnije ili ranije, -
4:50 - 4:52istina je ta da nitko to zapravo ne zna.
-
4:53 - 4:58Ali ono što znamo jest to da krajnja
granica procesuiranja informacija -
4:58 - 5:03u strojevima uvelike nadilazi
ograničenja biološkog tkiva. -
5:03 - 5:06Radi se o fizici.
-
5:06 - 5:10Biološki se neuron ispaljuje na možda
200 herca, 200 puta u sekundi. -
5:10 - 5:14Ali čak i današnji tranzistor
radi u gigahercima. -
5:14 - 5:19Neuroni se polako šire u aksone,
najviše 100 metara u sekundi. -
5:19 - 5:22Ali u računalima signali mogu
putovati brzinom svjetlosti. -
5:23 - 5:25I tamo postoje ograničenja u veličini,
-
5:25 - 5:28isto kao što ljudski mozak
mora stati u lubanju, -
5:28 - 5:33ali računalo može biti veličine
skladišta, ili čak veće. -
5:33 - 5:38Potencijal superinteligencije
prikriven je i čeka, -
5:38 - 5:44slično kao što je snaga atoma
bila prikrivena tijekom povijesti, -
5:44 - 5:48strpljivo čekajući 1945. godinu.
-
5:48 - 5:50U ovom su stoljeću
-
5:50 - 5:54znanstvenici možda otkrili kako
probuditi moć umjetne inteligencije. -
5:54 - 5:58A onda bismo mogli svjedočiti
eksploziji inteligencije. -
5:58 - 6:02Većina ljudi, kada razmišlja o
tome što je pametno, a što glupo, -
6:02 - 6:05mislim da otprilike zamišlja
ovako nešto. -
6:05 - 6:08Na jednom kraju imamo seosku budalu,
-
6:08 - 6:10a na drugome
-
6:10 - 6:15Eda Wittena ili Alberta Einsteina,
ili već preferiranog gurua. -
6:15 - 6:19Ali iz perspektive umjetne inteligencije,
-
6:19 - 6:23ta slika vjerojatno izgleda ovako:
-
6:23 - 6:27sve počinje na točki nulte inteligencije,
-
6:27 - 6:30a onda nakon puno, puno
godina napornog rada -
6:30 - 6:33možda konačno dođemo do
umjetne inteligencije na razini miša, -
6:33 - 6:36nešto što se može kretati
kroz pretrpan prostor -
6:36 - 6:38jednako dobro kao miševi.
-
6:38 - 6:42A onda nakon još puno, puno godina
napornog rada i mnogo ulaganja, -
6:42 - 6:47možda dođemo do umjetne
inteligencije na razini čimpanze. -
6:47 - 6:50A onda, nakon još puno godina
vrlo, vrlo napornog rada, -
6:50 - 6:53dođemo do seoske budale
umjetne inteligencije. -
6:53 - 6:56I nakon nekoliko trenutaka
nadiđemo Eda Wittena. -
6:56 - 6:59Tu napredak ne prestaje
-
6:59 - 7:02već se ubrzano nastavlja.
-
7:02 - 7:04To ima duboke implikacije,
-
7:04 - 7:08posebno kad se radi o
pitanju moći. -
7:08 - 7:10Na primjer, čimpanze su snažne --
-
7:10 - 7:15dvostruko su jače od muškaraca.
-
7:15 - 7:20A ipak, sudbina Kanzija i njegovih
prijatelja više ovisi o tome što -
7:20 - 7:24mi ljudi radimo nego o tome
što same čimpanze rade. -
7:25 - 7:28Jednom kada se stvori superinteligencija,
-
7:28 - 7:31sudbina će čovječanstva možda
ovisiti o tome što ona radi. -
7:32 - 7:34Razmislite.
-
7:34 - 7:39Strojna inteligencija je zadnji izum
koji će čovječanstvo ikada trebati. -
7:39 - 7:42Strojevi će onda biti bolji u
izumljivanju od nas, -
7:42 - 7:44i oni će to raditi u digitalnom
vremenskom rasponu. -
7:44 - 7:49Načelno to znači
teleskopiranje budućnosti. -
7:49 - 7:53Zamislite sve moguće
lude tehnologije -
7:53 - 7:55koje bi ljudi mogli razviti:
lijek protiv starenja, -
7:55 - 7:56kolonizacija svemira,
-
7:59 - 8:02samoreplicirajući nanoboti,
unošenje uma u računalo, -
8:02 - 8:04svakakve znanstveno-fantastične stvari
-
8:04 - 8:07koje su u skladu sa zakonima fizike.
-
8:07 - 8:11Superinteligencija mogla bi se razviti,
i to dosta brzo. -
8:12 - 8:16Superinteligencija s takvom
tehnološkom zrelošću -
8:16 - 8:18bila bi iznimno moćna,
-
8:18 - 8:23i bar bi u nekim slučajevima,
mogla dobiti što želi. -
8:23 - 8:28Onda bismo u budućnosti imali svijet
oblikovan prema preferencijama te UI. -
8:30 - 8:34Dobro je pitanje koje su te preference.
-
8:34 - 8:36Tu se stvari kompliciraju.
-
8:36 - 8:37Da bismo napredovali s tim,
-
8:37 - 8:41moramo prvo izbjeći antropomorfizaciju.
-
8:42 - 8:45A to je ironično jer
svi novinski članci -
8:45 - 8:49o budućnosti UI
imaju sliku ovoga: -
8:50 - 8:54Tako da mislim da trebamo pojmiti
ovo pitanje malo apstraktnije, -
8:54 - 8:57a ne u obliku holivudskih scenarija.
-
8:57 - 9:01Inteligenciju trebamo promatrati
kao proces optimizacije, -
9:01 - 9:06proces koji usmjerava budućnost
u određeni set konfiguracija. -
9:06 - 9:10Superinteligencija je zaista jak
proces optimizacije. -
9:10 - 9:14Nevjerojatno je dobra u korištenju
raspoloživih sredstava kako bi postigla -
9:14 - 9:16svoj cilj.
-
9:16 - 9:19To znači da nužno ne postoji
povezanost između -
9:19 - 9:22visoke inteligencije u tom smislu
-
9:22 - 9:27i cilja koji bismo mi ljudi smatrali
vrijednim ili smislenim. -
9:27 - 9:31Recimo da UI damo cilj
da nasmiju ljude. -
9:31 - 9:34Kad je UI slaba, izvodi korisne
ili zabavne radnje -
9:34 - 9:37zbog kojih se njihov korisnik smije.
-
9:37 - 9:39Kada UI postane superinteligentna,
-
9:39 - 9:43uvidjet će da postoji učinkovitiji
način na koji postići taj cilj: -
9:43 - 9:44preuzimanje kontrole nad svijetom
-
9:44 - 9:48i smještanje elektroda u
mišiće lica ljudi -
9:48 - 9:51kako bi izazvala neprestan, vedar osmijeh.
-
9:51 - 9:52Još jedan primjer,
-
9:52 - 9:55recimo da zadamo UI da riješi
zahtjevan matematički problem. -
9:55 - 9:57Kad UI postane superinteligentna,
-
9:57 - 10:01uviđa da je najučinkovitiji način za
rješavanje toga problema -
10:01 - 10:04preobrazba planeta u ogromno računalo,
-
10:04 - 10:06da bi povećala njegovu
sposobnost razmišljanja. -
10:06 - 10:09I imajte na umu da to daje UI
instrumentalni razlog da -
10:09 - 10:12nam radi stvari koje mi
možda ne odobravamo. -
10:12 - 10:13U ovom su primjeri ljudi prijetnja,
-
10:13 - 10:16mogli bismo spriječiti rješavanje
matematičkih problema. -
10:17 - 10:21Naravno, stvari neće baš
tako poći po krivu; -
10:21 - 10:22ovo su primjeri iz crtića.
-
10:22 - 10:24Ali važna je poanta:
-
10:24 - 10:27ako stvorite zaista moćan
proces optimizacije -
10:27 - 10:30kako biste maksimizirali cilj x,
-
10:30 - 10:32morate biti sigurni da
vaša definicija x-a -
10:32 - 10:34uključuje sve do čega vam je stalo.
-
10:35 - 10:39Ovo je lekcija na koju nas
upozoravaju mnogi mitovi. -
10:39 - 10:45Kralj Mida želi da se sve što
dotakne pretvori u zlato. -
10:45 - 10:47Dodirne kćer i ona se pretvori u zlato.
-
10:47 - 10:50Dodirne hranu, ona postane zlato.
-
10:50 - 10:53Ovo bi moglo postati i praktički važno,
-
10:53 - 10:55ne samo kao metafora za pohlepu,
-
10:55 - 10:56nego i kao prikaz onoga što se dogodi
-
10:56 - 10:59ako stvorite moćan
proces optimizacije -
10:59 - 11:04i date mu pogrešne ili loše
određene ciljeve. -
11:04 - 11:09Mogli biste reći da, ako računalo
počne stavljati elektrode u lica ljudi, -
11:09 - 11:12jednostavno ćemo ga isključiti.
-
11:13 - 11:18Pod a, to nije tako jednostavno
ako smo već ovisni o sustavu -- -
11:18 - 11:21na primjer, kako isključiti internet?
-
11:21 - 11:26Pod b, zašto čimpanze nisu
isključile prekidač ljudske vrste, -
11:26 - 11:27oni ili neandertalci?
-
11:27 - 11:30Zasigurno su postojali razlozi za to.
-
11:30 - 11:33Mi imamo prekidač, recimo,
upravo ovdje. -
11:33 - 11:34(Guši se)
-
11:34 - 11:37Razlog je taj što smo mi
inteligentni protivnici; -
11:37 - 11:40predviđamo prijetnje i
planiramo kako ih izbjeći. -
11:40 - 11:42Ali to bi mogao raditi i
superinteligentni izvršitelj -
11:42 - 11:46i to puno bolje nego
što mi to radimo. -
11:46 - 11:53Poanta je ovoga da ne smijemo biti
uvjereni da sve držimo pod kontrolom. -
11:53 - 11:56Mogli bismo si olakšati posao tako što
-
11:56 - 11:58bismo smjestili UI u kutiju,
-
11:58 - 12:00nekakvo sigurno softversko okruženje,
-
12:00 - 12:03virtualnu simulaciju stvarnosti iz
koje ne može pobjeći. -
12:03 - 12:07Ali kako možemo biti sigurni
da UI neće pronaći rupu? -
12:07 - 12:10Ako uobzirimo da hakeri
neprestano pronalaze rupe, -
12:10 - 12:13vjerojatno ne možemo biti sigurni u to.
-
12:14 - 12:19Isključimo Ethernet kabel da bismo
stvorili zračni prostor, -
12:19 - 12:21ali opet, ljudski hakeri rutinski nadilaze
-
12:21 - 12:25te prostore socijalnim inženjeringom.
-
12:25 - 12:26Dok ovo govorim,
-
12:26 - 12:28siguran sam da su negdje neku zaposlenicu
-
12:28 - 12:32nagovorili da otkrije
detalje svog računa -
12:32 - 12:35nekome tko je tvrdio
da je iz IT odjela. -
12:35 - 12:37Mogući su i kreativniji scenariji,
-
12:37 - 12:38na primjer, ako ste UI,
-
12:38 - 12:42možete zamisliti micanje elektroda
u unutrašnjem sklopu kako biste -
12:42 - 12:45stvorili radio valove kojima
možete komunicirati. -
12:45 - 12:47Ili se možete prevarati da ste neispravni
-
12:47 - 12:51i kada vas programeri otvore da vide
što nije u redu s vama, -
12:51 - 12:53pogledaju izvorni kod i -- Bum! --
-
12:53 - 12:55manipulacija je počela.
-
12:55 - 12:59Ili bi moglo dati nacrt
zaista divne tehnologije, -
12:59 - 13:00a kada ga primijenimo,
-
13:00 - 13:05ima neke skrivene posljedice
koje je UI isplanirala. -
13:05 - 13:08Poanta jest ta da ne bismo trebali biti
presigurni u svoju sposobnost -
13:08 - 13:12da superinteligentnog duha
možemo zauvijek čuvati u boci. -
13:12 - 13:14Prije ili kasnije će se osloboditi.
-
13:15 - 13:18Vjerujem da je rješenje u
pronalasku načina kako -
13:18 - 13:23stvoriti superinteligentnu UI
koja bi čak - kad - se oslobodi -
13:23 - 13:26još uvijek bila sigurna jer
je u osnovi na našoj strani -
13:26 - 13:28jer dijeli naša uvjerenja.
-
13:28 - 13:32Ne vidim kako drukčije
riješiti ovaj veliki problem. -
13:33 - 13:36Zapravo sam ja i optimističan kada
mislim da je problem rješiv. -
13:36 - 13:40Ne bismo morali pisati duge liste
svega do čega nam je stalo, -
13:40 - 13:44ili, još gore, unijeti to u
neki računalni jezik -
13:44 - 13:45kao C++ ili Python,
-
13:45 - 13:48to bi bio i više nego beznadan pothvat!
-
13:48 - 13:52Umjesto toga, stvorimo UI koja
koristi svoju inteligenciju kako -
13:52 - 13:55bi naučila što nam je važno,
-
13:55 - 14:01i čiji je motivacijski sustav konstruiran
tako da bude motivirana za -
14:01 - 14:06provođenje naših uvjerenja ili izvođenje
radnji za koje predviđa da ih odobravamo. -
14:06 - 14:09Tako bismo iskoristili njezinu
inteligenciju što je više moguće -
14:09 - 14:12kako bismo riješili ovaj problem.
-
14:13 - 14:14To se može dogoditi,
-
14:14 - 14:18a ishod bi mogao biti jako
dobar za čovječanstvo. -
14:18 - 14:22Ali to se ne događa automatski.
-
14:22 - 14:25Polazni uvjeti za
eksploziju inteligencije -
14:25 - 14:28morat će biti postavljeni
na točno određen način -
14:28 - 14:31ako želimo kontroliranu detonaciju.
-
14:31 - 14:34Vrijednosti UI moraju odgovarati našima,
-
14:34 - 14:36ne samo u poznatim kontekstima
-
14:36 - 14:38u kojima lako provjerimo
kako se UI ponaša, -
14:38 - 14:41nego i u novim kontekstima s
kojima bi se UI mogla susresti -
14:41 - 14:43u neodređenoj budućnosti.
-
14:43 - 14:48Postoje i neka ezoterična pitanja
koja bi se morala riješiti: -
14:48 - 14:50točni detalji teorije odlučivanja,
-
14:50 - 14:52kako se nositi s logičkom
nesigurnosti i tako dalje. -
14:53 - 14:56Tehnički problemi koji se moraju
riješiti kako bi ovo uspjelo -
14:56 - 14:58poprilično su veliki --
-
14:58 - 15:01ne toliko veliki kao stvaranje
superinteligentne UI, -
15:01 - 15:04ali prilično veliki.
-
15:04 - 15:05Ovo je razlog za brigu:
-
15:05 - 15:10Stvaranje superinteligentne UI
težak je izazov. -
15:10 - 15:13Stvaranje sigurne superinteligentne UI
-
15:13 - 15:15dodaje još izazova.
-
15:16 - 15:20Rizik leži u otkrivanju kako
savladati prvi izazov, -
15:20 - 15:23ali bez shvaćanja kako savladati
dodatni izazov, -
15:23 - 15:25osiguravanje sigurnosti.
-
15:25 - 15:29Smatram da bismo
trebali riješiti -
15:29 - 15:32pitanje kontrole unaprijed
-
15:32 - 15:34kako bismo bili spremni
kada za to dođe vrijeme. -
15:35 - 15:38Može se dogoditi da ne možemo
taj problem riješiti unaprijed -
15:38 - 15:41jer se mogu posložiti samo neki elementi
-
15:41 - 15:45kada točno saznamo gdje će se provoditi.
-
15:45 - 15:49Što više problema po pitanju
kontrole riješimo unaprijed, -
15:49 - 15:53bolji su izgledi da će prijelaz
u eru strojne inteligencije -
15:53 - 15:54proći dobro.
-
15:54 - 15:59Meni se čini da se to isplati raditi
-
15:59 - 16:02i mogu zamisliti da, ako
sve prođe u redu, -
16:02 - 16:07će ljudi za milijun godina
gledati na ovo stoljeće -
16:07 - 16:11i reći da smo napravili jednu stvar
koja je stvarno važna, a ta je -
16:11 - 16:13da smo ovo napravili kako treba.
-
16:13 - 16:14Hvala.
-
16:14 - 16:17(Pljesak)
- Title:
- Što će se dogoditi kada računala postanu pametnija od nas?
- Speaker:
- Nick Bostrom
- Description:
-
Umjetna inteligencija postaje sve pametnija - prema istraživanju, u ovom bi stoljeću UI mogla biti jednako "pametna" kao ljudsko biće. A onda će, kaže Nick Bostrom, zavladati nama: "Strojna inteligencija je posljednji izum koje će čovječanstvo ikada trebati." Filozof i tehnolog nas traži da dobro razmislimo o svijetu koji upravo izgrađujemo, svijetu vođenom strojevima koji razmišljaju. Hoće li nam oni pomoći u očuvanju čovječanstva i naših vrijednosti ili će imati vlastita?
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 16:31
Retired user approved Croatian subtitles for What happens when our computers get smarter than we are? | ||
Retired user accepted Croatian subtitles for What happens when our computers get smarter than we are? | ||
Retired user edited Croatian subtitles for What happens when our computers get smarter than we are? | ||
Retired user edited Croatian subtitles for What happens when our computers get smarter than we are? | ||
Retired user edited Croatian subtitles for What happens when our computers get smarter than we are? | ||
Lidija Šimunović edited Croatian subtitles for What happens when our computers get smarter than we are? | ||
Lidija Šimunović edited Croatian subtitles for What happens when our computers get smarter than we are? | ||
Lidija Šimunović edited Croatian subtitles for What happens when our computers get smarter than we are? |