WEBVTT 00:00:06.999 --> 00:00:09.034 Što je svijest? 00:00:09.034 --> 00:00:11.828 Može li umjetni stroj zaista misliti? 00:00:11.828 --> 00:00:15.114 Čine li um samo neuroni u mozgu 00:00:15.114 --> 00:00:18.757 ili je u njegovoj srži neka neopipljiva iskra? 00:00:18.757 --> 00:00:21.325 Po mišljenju mnogih, to su ključna pitanja 00:00:21.325 --> 00:00:24.352 za budućnost umjetne inteligencije. 00:00:24.352 --> 00:00:29.539 Britanski računalni znanstvenik Alan Turing zanemario ih je 00:00:29.539 --> 00:00:31.850 i postavio jedno jednostavnije: 00:00:31.850 --> 00:00:35.269 može li računalo razgovarati kao čovjek? 00:00:35.269 --> 00:00:39.265 To je pitanje dovelo do zamisli o mjerenju umjetne inteligencije, 00:00:39.265 --> 00:00:43.316 koja će postati poznata kao Turingov test. 00:00:43.316 --> 00:00:47.341 U znanstvenom radu „Strojevi za računanje i inteligencija” iz 1950. 00:00:47.341 --> 00:00:49.814 Turing je predložio sljedeću igru. 00:00:49.814 --> 00:00:53.906 Sudac (čovjek) dopisuje se s igračima koje ne vidi 00:00:53.906 --> 00:00:56.382 i ocjenjuje njihove odgovore. 00:00:56.382 --> 00:01:00.409 Da bi prošlo test, računalo mora zamijeniti nekog od igrača, 00:01:00.409 --> 00:01:03.857 a da pritom ne dođe do značajne promjene u rezultatima. 00:01:03.857 --> 00:01:06.816 Drugim riječima, računalo bismo smatrali inteligentnim 00:01:06.816 --> 00:01:12.513 ako njegov govor nije lako razlikovati od ljudskog. 00:01:12.513 --> 00:01:14.667 Turing je predvidio da će do 2000. godine 00:01:14.667 --> 00:01:20.622 strojevi s memorijom od 100 megabajta uspjeti proći njegov test bez poteškoća. 00:01:20.622 --> 00:01:22.786 Možda se ipak malo zaletio. 00:01:22.786 --> 00:01:25.840 Iako današnja računala imaju znatno veću memoriju, 00:01:25.840 --> 00:01:27.593 malo je njih u tome uspjelo, 00:01:27.593 --> 00:01:29.438 a oni koji jesu imali dobre rezultate, 00:01:29.438 --> 00:01:33.208 više su bili usredotočeni na to kako pametno zavarati suce, 00:01:33.208 --> 00:01:36.174 nego na to kako upotrijebiti ogromnu računalnu snagu. 00:01:36.174 --> 00:01:39.096 Iako nikad nije podvrgnut stvarnom testu, 00:01:39.096 --> 00:01:43.865 prvi program koji se može pohvaliti barem djelomičnim uspjehom zvao se ELIZA. 00:01:43.865 --> 00:01:46.412 Taj prilično kratak i jednostavan program 00:01:46.412 --> 00:01:50.434 uspio je obmanuti mnoge ljude oponašajući psihologa, 00:01:50.434 --> 00:01:52.395 tako što ih je ohrabrivao da više govore 00:01:52.395 --> 00:01:55.905 i uzvraćao im njihovim vlastitim pitanjima. 00:01:55.905 --> 00:01:59.412 Drugi rani program PARRY postupio je suprotno, 00:01:59.412 --> 00:02:02.213 oponašajući paranoičnog šizofreničara 00:02:02.213 --> 00:02:07.939 koji je stalno usmjeravao razgovor na vlastite pretprogramirane opsesije. 00:02:07.939 --> 00:02:12.803 Njihovi uspjesi u obmanjivanju ljudi razotkrili su slabu točku testa. 00:02:12.803 --> 00:02:17.433 Ljudi redovito pripisuju inteligenciju čitavom nizu pojava 00:02:17.433 --> 00:02:21.076 koje s njom zapravo nemaju veze. 00:02:21.076 --> 00:02:24.289 Unatoč tome, godišnja natjecanja, kao što je Loebnerova nagrada, 00:02:24.289 --> 00:02:26.009 formalizirala su test. 00:02:26.009 --> 00:02:28.155 Suci sad unaprijed znaju 00:02:28.155 --> 00:02:32.019 da su neki od njihovih sugovornika strojevi. 00:02:32.019 --> 00:02:33.920 No iako se kvaliteta poboljšala, 00:02:33.920 --> 00:02:39.096 mnogi programeri chatbotâ koristili su se strategijama sličnima ELIZA-i i PARRY-ju. 00:02:39.096 --> 00:02:41.132 Pobjednica iz 1997. Catherine 00:02:41.132 --> 00:02:45.213 mogla je voditi zapanjujuće usredotočene i inteligentne razgovore, 00:02:45.213 --> 00:02:49.175 ali uglavnom ako bi sudac želio razgovarati o Billu Clintonu. 00:02:49.175 --> 00:02:51.813 A nedavnom pobjedniku Eugeneu Goostmanu 00:02:51.813 --> 00:02:55.549 dana je osobnost trinaestogodišnjaka iz Ukrajine, 00:02:55.549 --> 00:02:59.570 pa su suci njegove nesuvisle rečenice i nespretnu gramatiku pogrešno protumačili 00:02:59.570 --> 00:03:02.916 kao jezičnu i kulturološku barijeru. 00:03:02.916 --> 00:03:07.135 U međuvremenu su drugi programi, npr. Cleverbot, odabrali drukčiji pristup: 00:03:07.135 --> 00:03:11.740 statističkom analizom golemih baza podataka stvarnih razgovora 00:03:11.740 --> 00:03:14.281 birali su najbolje odgovore. 00:03:14.281 --> 00:03:17.530 Neki su i pohranjivali u memoriji prijašnje razgovore 00:03:17.530 --> 00:03:20.915 kako bi se s vremenom poboljšali. 00:03:20.915 --> 00:03:25.066 No iako Cleverbotovi odgovori zasebno mogu zvučati nevjerojatno ljudski, 00:03:25.066 --> 00:03:27.092 nedostatak dosljedne osobnosti 00:03:27.092 --> 00:03:30.245 i nesposobnost prilagodbe sasvim novim temama 00:03:30.245 --> 00:03:32.858 smjesta ga odaju. 00:03:32.858 --> 00:03:36.112 Tko je u Turingovo vrijeme mogao predvidjeti da će današnja računala 00:03:36.112 --> 00:03:38.201 moći upravljati svemirskim letjelicama, 00:03:38.201 --> 00:03:40.518 obavljati osjetljive kirurške operacije 00:03:40.518 --> 00:03:42.807 i rješavati složene jednadžbe, 00:03:42.807 --> 00:03:46.310 no i dalje zapinjati u običnom čavrljanju? 00:03:46.310 --> 00:03:49.819 Ljudski se jezik pokazao nevjerojatno složenom pojavom 00:03:49.819 --> 00:03:53.524 koju ne može obuhvatiti čak ni najveći rječnik. 00:03:53.524 --> 00:03:57.993 Chatbote zbunjuju jednostavne pauze, npr. „hm...” 00:03:57.993 --> 00:04:00.355 ili pitanja bez točnih odgovora. 00:04:00.355 --> 00:04:02.495 A za analizu rečenice najbanalnijeg razgovora, 00:04:02.495 --> 00:04:05.595 primjerice „Izvadio sam sok iz hladnjaka i dao mu ga, 00:04:05.595 --> 00:04:07.406 ali sam zaboravio provjeriti datum.”, 00:04:07.406 --> 00:04:12.872 potrebni su ogromno prethodno znanje i intuicija. 00:04:12.872 --> 00:04:15.683 I tako se ispostavilo da je za simulaciju ljudskog razgovora 00:04:15.683 --> 00:04:19.112 potrebno više od pukog povećanja memorije i snage procesora 00:04:19.112 --> 00:04:21.623 i da ćemo se na putu prema Turingovu cilju 00:04:21.623 --> 00:04:26.483 ipak trebati pozabaviti svim tim velikim pitanjima o svijesti.