0:00:06.999,0:00:09.034 Šta je svesnost? 0:00:09.034,0:00:11.828 Može li veštačka mašina zaista da misli? 0:00:11.828,0:00:15.114 Da li se um sastoji jedino[br]od neurona u mozgu 0:00:15.114,0:00:18.757 ili u njegovoj srži[br]postoji neopipljiva iskra? 0:00:18.757,0:00:21.325 Za mnoge su ovo bila ključna razmatranja 0:00:21.325,0:00:24.352 za budućnost veštačke inteligencije. 0:00:24.352,0:00:27.059 No britanski kompjuterski naučnik[br]Alan Tjuring 0:00:27.059,0:00:29.539 je odlučio da odbaci sva ova pitanja 0:00:29.539,0:00:31.850 zarad jednostavnijeg: 0:00:31.850,0:00:35.269 može li kompjuter da govori kao čovek? 0:00:35.269,0:00:39.265 Ovo pitanje je dovelo do zamisli[br]merenja veštačke inteligencije 0:00:39.265,0:00:43.316 koja će postati čuvena kao Tjuringov test. 0:00:43.316,0:00:47.341 U naučnom radu iz 1950.[br]"Kompjuterska mašina i inteligencija", 0:00:47.341,0:00:49.814 Tjuring je predložio sledeću igru. 0:00:49.814,0:00:53.906 Ljudski sudija vodi tekstualni razgovor[br]sa takmičarima koje ne vidi 0:00:53.906,0:00:56.382 i procenjuje njihove odgovore. 0:00:56.382,0:01:00.409 Da bi prošao test, kompjuter mora[br]da bude u stanju da zameni takmičare, 0:01:00.409,0:01:03.857 a da se pri tom[br]rezultat značajno ne promeni. 0:01:03.857,0:01:06.816 Drugim rečima,[br]kompjuter bismo smatrali inteligentnim, 0:01:06.816,0:01:12.513 ako ono što govori ne bi bilo lako[br]razlikovati od ljudskog govora. 0:01:12.513,0:01:14.667 Tjuring je predvideo da će do 2000. godine 0:01:14.667,0:01:20.622 mašine sa memorijom od 100 megabajta[br]lako prolaziti na ovom testu. 0:01:20.622,0:01:22.786 No možda je istrčao pred rudu. 0:01:22.786,0:01:25.840 Iako današnji kompjuteri[br]imaju daleko veću memoriju, 0:01:25.840,0:01:27.643 malo njih je u tome uspelo, 0:01:27.643,0:01:29.438 a oni koji su imali dobre rezultate 0:01:29.438,0:01:33.208 su se više usredsređivali na pronalaženje[br]pametnih načina da prevare sudije 0:01:33.208,0:01:36.174 nego na korišćenje[br]ogromne kompjuterske moći. 0:01:36.174,0:01:39.096 Iako nikad nije podvrgnut[br]stvarnom testiranju, 0:01:39.096,0:01:43.865 prvi program koji je tvrdio[br]da je imao nekog uspeha se zvao ELIZA. 0:01:43.865,0:01:46.412 Prilično kratkim i jednostavnim scenariom 0:01:46.412,0:01:50.434 uspeo je da obmane ljude[br]oponašajući psihologa, 0:01:50.434,0:01:52.395 ohrabrujući ih da više govore 0:01:52.395,0:01:55.905 i vraćajući njihova sopstvena pitanja[br]nazad njima. 0:01:55.905,0:01:59.412 Još jedan raniji scenario, PARRY,[br]je imao suprotan pristup, 0:01:59.412,0:02:02.213 imitirajući paranoičnog šizofreničara 0:02:02.213,0:02:07.939 koji je stalno usmeravao tok razgovora[br]na sopstvene pretprogramirane opsesije. 0:02:07.939,0:02:12.803 Njihovi uspesi u obmanjivanju ljudi[br]su istakli slabosti testa. 0:02:12.803,0:02:17.433 Ljudi redovno pripisuju inteligenciju[br]čitavom nizu stvari 0:02:17.433,0:02:21.076 koje nisu zaista inteligentne. 0:02:21.076,0:02:24.289 Bez obzira na to, godišnja takmičenja,[br]poput Lobnerove nagrade, 0:02:24.289,0:02:26.009 formalizovala su test 0:02:26.009,0:02:28.155 tako što sudije unapred znaju 0:02:28.155,0:02:32.019 da su neki od njihovih sagovornika mašine. 0:02:32.019,0:02:33.920 No, iako su kvalitetniji, 0:02:33.920,0:02:35.936 mnogi programeri botova za ćaskanje 0:02:35.936,0:02:39.096 koriste strategije[br]slične ELIZA-i i PARRY-ju. 0:02:39.096,0:02:41.132 Pobednica iz 1997, Katrin, 0:02:41.132,0:02:45.213 mogla je da obavi začuđujuće usredsređene[br]i inteligentne razgovore, 0:02:45.213,0:02:49.175 ali uglavnom, ako bi sudija želeo[br]da razgovoara o Bilu Klintonu. 0:02:49.175,0:02:51.813 A skorašnjem pobedniku, Judžinu Gustmanu, 0:02:51.813,0:02:55.549 podarena je ličnost[br]13-ogodišnjeg dečaka iz Ukrajine, 0:02:55.549,0:02:59.570 pa su sudije protumačile njegove zablude[br]i nezgrapnu gramatiku 0:02:59.570,0:03:02.916 kao jezičku i kulturološku barijeru. 0:03:02.916,0:03:07.135 U međuvremenu, drugi programi, poput[br]Kleverbota su imali drugačiji pristup, 0:03:07.135,0:03:11.740 statistički analizirajući ogromne[br]baze podataka stvarnih razgovora 0:03:11.740,0:03:14.281 kako bi došli do najboljih odgovora. 0:03:14.281,0:03:17.530 Neki su takođe pohranjivali u memoriju[br]prethodne razgovore, 0:03:17.530,0:03:20.915 kako bi se vremenom popravljali. 0:03:20.915,0:03:25.066 No, iako Kleverbotovi pojedinačni odgovori[br]mogu da zvuče neverovatno ljudski, 0:03:25.066,0:03:27.092 odsustvo konzistentne ličnosti 0:03:27.092,0:03:30.245 i nemogućnost da se bavi najnovijim temama 0:03:30.245,0:03:32.858 odaju ga odmah. 0:03:32.858,0:03:36.112 Ko bi u Tjuringovo vreme mogao da predvidi[br]da će današnji kompjuteri 0:03:36.112,0:03:38.201 moći da upravljaju svemirskim brodovima, 0:03:38.201,0:03:40.518 da izvode prefinjene operacije 0:03:40.518,0:03:42.807 i da rešavaju obimne jednačine, 0:03:42.807,0:03:46.310 ali će i dalje da se muče[br]s najobičnijim ćaskanjem? 0:03:46.310,0:03:49.819 Ispostavilo se da je ljudski jezik[br]zadivljujuće složena pojava 0:03:49.819,0:03:53.524 koju ne može da obuhvati[br]čak ni najobimniji rečnik. 0:03:53.524,0:03:57.993 Botove za ćaskanje zbunjuju[br]sitne pauze, poput "hm..." 0:03:57.993,0:04:00.415 ili pitanja koja nemaju tačne odgovore. 0:04:00.415,0:04:02.315 A prosta razgovorna rečenica, 0:04:02.315,0:04:05.595 poput: "Izvadio sam sok iz frižidera[br]i dao mu, 0:04:05.595,0:04:07.406 ali sam zaboravio da proverim datum", 0:04:07.406,0:04:12.872 zahteva bogato pozadinsko znanje[br]i intuiciju da bi je raščlanili. 0:04:12.872,0:04:15.503 Ispostavilo se da simuliranje[br]ljudskog razgovora 0:04:15.503,0:04:19.112 zahteva više od pukog uvećanja memorije[br]i snage procesora; 0:04:19.112,0:04:21.623 i kako se približavamo Tjuringovom cilju, 0:04:21.623,0:04:26.483 možda ćemo ipak morati da se bavimo[br]svim tim velikim pitanjima o svesnosti.