1 00:00:06,999 --> 00:00:09,034 Šta je svesnost? 2 00:00:09,034 --> 00:00:11,828 Može li veštačka mašina zaista da misli? 3 00:00:11,828 --> 00:00:15,114 Da li se um sastoji jedino od neurona u mozgu 4 00:00:15,114 --> 00:00:18,757 ili u njegovoj srži postoji neopipljiva iskra? 5 00:00:18,757 --> 00:00:21,325 Za mnoge su ovo bila ključna razmatranja 6 00:00:21,325 --> 00:00:24,352 za budućnost veštačke inteligencije. 7 00:00:24,352 --> 00:00:27,059 No britanski kompjuterski naučnik Alan Tjuring 8 00:00:27,059 --> 00:00:29,539 je odlučio da odbaci sva ova pitanja 9 00:00:29,539 --> 00:00:31,850 zarad jednostavnijeg: 10 00:00:31,850 --> 00:00:35,269 može li kompjuter da govori kao čovek? 11 00:00:35,269 --> 00:00:39,265 Ovo pitanje je dovelo do zamisli merenja veštačke inteligencije 12 00:00:39,265 --> 00:00:43,316 koja će postati čuvena kao Tjuringov test. 13 00:00:43,316 --> 00:00:47,341 U naučnom radu iz 1950. "Kompjuterska mašina i inteligencija", 14 00:00:47,341 --> 00:00:49,814 Tjuring je predložio sledeću igru. 15 00:00:49,814 --> 00:00:53,906 Ljudski sudija vodi tekstualni razgovor sa takmičarima koje ne vidi 16 00:00:53,906 --> 00:00:56,382 i procenjuje njihove odgovore. 17 00:00:56,382 --> 00:01:00,409 Da bi prošao test, kompjuter mora da bude u stanju da zameni takmičare, 18 00:01:00,409 --> 00:01:03,857 a da se pri tom rezultat značajno ne promeni. 19 00:01:03,857 --> 00:01:06,816 Drugim rečima, kompjuter bismo smatrali inteligentnim, 20 00:01:06,816 --> 00:01:12,513 ako ono što govori ne bi bilo lako razlikovati od ljudskog govora. 21 00:01:12,513 --> 00:01:14,667 Tjuring je predvideo da će do 2000. godine 22 00:01:14,667 --> 00:01:20,622 mašine sa memorijom od 100 megabajta lako prolaziti na ovom testu. 23 00:01:20,622 --> 00:01:22,786 No možda je istrčao pred rudu. 24 00:01:22,786 --> 00:01:25,840 Iako današnji kompjuteri imaju daleko veću memoriju, 25 00:01:25,840 --> 00:01:27,643 malo njih je u tome uspelo, 26 00:01:27,643 --> 00:01:29,438 a oni koji su imali dobre rezultate 27 00:01:29,438 --> 00:01:33,208 su se više usredsređivali na pronalaženje pametnih načina da prevare sudije 28 00:01:33,208 --> 00:01:36,174 nego na korišćenje ogromne kompjuterske moći. 29 00:01:36,174 --> 00:01:39,096 Iako nikad nije podvrgnut stvarnom testiranju, 30 00:01:39,096 --> 00:01:43,865 prvi program koji je tvrdio da je imao nekog uspeha se zvao ELIZA. 31 00:01:43,865 --> 00:01:46,412 Prilično kratkim i jednostavnim scenariom 32 00:01:46,412 --> 00:01:50,434 uspeo je da obmane ljude oponašajući psihologa, 33 00:01:50,434 --> 00:01:52,395 ohrabrujući ih da više govore 34 00:01:52,395 --> 00:01:55,905 i vraćajući njihova sopstvena pitanja nazad njima. 35 00:01:55,905 --> 00:01:59,412 Još jedan raniji scenario, PARRY, je imao suprotan pristup, 36 00:01:59,412 --> 00:02:02,213 imitirajući paranoičnog šizofreničara 37 00:02:02,213 --> 00:02:07,939 koji je stalno usmeravao tok razgovora na sopstvene pretprogramirane opsesije. 38 00:02:07,939 --> 00:02:12,803 Njihovi uspesi u obmanjivanju ljudi su istakli slabosti testa. 39 00:02:12,803 --> 00:02:17,433 Ljudi redovno pripisuju inteligenciju čitavom nizu stvari 40 00:02:17,433 --> 00:02:21,076 koje nisu zaista inteligentne. 41 00:02:21,076 --> 00:02:24,289 Bez obzira na to, godišnja takmičenja, poput Lobnerove nagrade, 42 00:02:24,289 --> 00:02:26,009 formalizovala su test 43 00:02:26,009 --> 00:02:28,155 tako što sudije unapred znaju 44 00:02:28,155 --> 00:02:32,019 da su neki od njihovih sagovornika mašine. 45 00:02:32,019 --> 00:02:33,920 No, iako su kvalitetniji, 46 00:02:33,920 --> 00:02:35,936 mnogi programeri botova za ćaskanje 47 00:02:35,936 --> 00:02:39,096 koriste strategije slične ELIZA-i i PARRY-ju. 48 00:02:39,096 --> 00:02:41,132 Pobednica iz 1997, Katrin, 49 00:02:41,132 --> 00:02:45,213 mogla je da obavi začuđujuće usredsređene i inteligentne razgovore, 50 00:02:45,213 --> 00:02:49,175 ali uglavnom, ako bi sudija želeo da razgovoara o Bilu Klintonu. 51 00:02:49,175 --> 00:02:51,813 A skorašnjem pobedniku, Judžinu Gustmanu, 52 00:02:51,813 --> 00:02:55,549 podarena je ličnost 13-ogodišnjeg dečaka iz Ukrajine, 53 00:02:55,549 --> 00:02:59,570 pa su sudije protumačile njegove zablude i nezgrapnu gramatiku 54 00:02:59,570 --> 00:03:02,916 kao jezičku i kulturološku barijeru. 55 00:03:02,916 --> 00:03:07,135 U međuvremenu, drugi programi, poput Kleverbota su imali drugačiji pristup, 56 00:03:07,135 --> 00:03:11,740 statistički analizirajući ogromne baze podataka stvarnih razgovora 57 00:03:11,740 --> 00:03:14,281 kako bi došli do najboljih odgovora. 58 00:03:14,281 --> 00:03:17,530 Neki su takođe pohranjivali u memoriju prethodne razgovore, 59 00:03:17,530 --> 00:03:20,915 kako bi se vremenom popravljali. 60 00:03:20,915 --> 00:03:25,066 No, iako Kleverbotovi pojedinačni odgovori mogu da zvuče neverovatno ljudski, 61 00:03:25,066 --> 00:03:27,092 odsustvo konzistentne ličnosti 62 00:03:27,092 --> 00:03:30,245 i nemogućnost da se bavi najnovijim temama 63 00:03:30,245 --> 00:03:32,858 odaju ga odmah. 64 00:03:32,858 --> 00:03:36,112 Ko bi u Tjuringovo vreme mogao da predvidi da će današnji kompjuteri 65 00:03:36,112 --> 00:03:38,201 moći da upravljaju svemirskim brodovima, 66 00:03:38,201 --> 00:03:40,518 da izvode prefinjene operacije 67 00:03:40,518 --> 00:03:42,807 i da rešavaju obimne jednačine, 68 00:03:42,807 --> 00:03:46,310 ali će i dalje da se muče s najobičnijim ćaskanjem? 69 00:03:46,310 --> 00:03:49,819 Ispostavilo se da je ljudski jezik zadivljujuće složena pojava 70 00:03:49,819 --> 00:03:53,524 koju ne može da obuhvati čak ni najobimniji rečnik. 71 00:03:53,524 --> 00:03:57,993 Botove za ćaskanje zbunjuju sitne pauze, poput "hm..." 72 00:03:57,993 --> 00:04:00,415 ili pitanja koja nemaju tačne odgovore. 73 00:04:00,415 --> 00:04:02,315 A prosta razgovorna rečenica, 74 00:04:02,315 --> 00:04:05,595 poput: "Izvadio sam sok iz frižidera i dao mu, 75 00:04:05,595 --> 00:04:07,406 ali sam zaboravio da proverim datum", 76 00:04:07,406 --> 00:04:12,872 zahteva bogato pozadinsko znanje i intuiciju da bi je raščlanili. 77 00:04:12,872 --> 00:04:15,503 Ispostavilo se da simuliranje ljudskog razgovora 78 00:04:15,503 --> 00:04:19,112 zahteva više od pukog uvećanja memorije i snage procesora; 79 00:04:19,112 --> 00:04:21,623 i kako se približavamo Tjuringovom cilju, 80 00:04:21,623 --> 00:04:26,483 možda ćemo ipak morati da se bavimo svim tim velikim pitanjima o svesnosti.