1 00:00:06,999 --> 00:00:09,034 Какво е съзнание? 2 00:00:09,034 --> 00:00:11,828 Може ли наистина една машина да мисли? 3 00:00:11,828 --> 00:00:15,114 Разумът само от невроните в мозъка ли се състои 4 00:00:15,114 --> 00:00:18,757 или има някаква неуловима искра в същността му? 5 00:00:18,757 --> 00:00:21,325 За много хора това са важни въпроси 6 00:00:21,325 --> 00:00:24,352 за бъдещето на изкуствения интелект. 7 00:00:24,352 --> 00:00:29,539 Но британският компютърен специалист Алан Тюринг решил да игнорира тези въпроси 8 00:00:29,539 --> 00:00:31,850 в полза на един много по-прост: 9 00:00:31,850 --> 00:00:35,269 може ли компютър да говори като човек? 10 00:00:35,269 --> 00:00:39,265 Този въпрос довел до идеята за измерване на изкуствения интелект, 11 00:00:39,265 --> 00:00:43,316 което стана известно като теста на Тюринг. 12 00:00:43,316 --> 00:00:47,341 В статията от 1950 г. "Компютрите и разума" 13 00:00:47,341 --> 00:00:49,814 Тюринг предложил следната игра. 14 00:00:49,814 --> 00:00:53,906 Човек-експерт говори чрез текст с невидими играчи 15 00:00:53,906 --> 00:00:56,382 и оценява отговорите им. 16 00:00:56,382 --> 00:01:00,409 За да премине теста, един компютър трябва да може да замести един от играчите 17 00:01:00,409 --> 00:01:03,857 без значително да промени резултатите. 18 00:01:03,857 --> 00:01:06,816 T.e. един компютър ще се счита за разумен, 19 00:01:06,816 --> 00:01:12,513 ако разговорът му не може лесно да се различи от човешкия. 20 00:01:12,513 --> 00:01:14,667 Тюринг предсказал, че до 2000 г. 21 00:01:14,667 --> 00:01:20,622 машини със 100 мегабайта памет ще могат лесно да издържат теста му. 22 00:01:20,622 --> 00:01:22,786 Но може и да е избързал. 23 00:01:22,786 --> 00:01:25,840 Въпреки че съвременните компютри имат много повече памет, 24 00:01:25,840 --> 00:01:27,643 малко от тях са успели, 25 00:01:27,643 --> 00:01:29,438 а онези, които са се справили, 26 00:01:29,438 --> 00:01:33,208 са наблегнали повече на откриването на хитри начини да заблудят експертите, 27 00:01:33,208 --> 00:01:36,174 отколкото на изумителна компютърна мощ. 28 00:01:36,174 --> 00:01:39,096 Въпреки че никога не е подлагана на истински тест, 29 00:01:39,096 --> 00:01:43,865 първата програма с някакви претенции за успех се казвала ELIZA. 30 00:01:43,865 --> 00:01:46,412 Със сравнително къс и прост скрипт, 31 00:01:46,412 --> 00:01:50,434 тя успяла да заблуди много хора, имитирайки психолог, 32 00:01:50,434 --> 00:01:52,395 който ги насърчава да говорят повече 33 00:01:52,395 --> 00:01:55,905 и връща собствените им въпроси обратно към тях. 34 00:01:55,905 --> 00:01:59,412 Друг ранен скрипт, PARRY, възприел обратния подход, 35 00:01:59,412 --> 00:02:02,213 като имитирал параноичен шизофреник, 36 00:02:02,213 --> 00:02:07,939 който постоянно връща разговора към пре-програмираните си мании. 37 00:02:07,939 --> 00:02:12,803 Успехът им в заблуждаването на хората подчертал една слабост на теста. 38 00:02:12,803 --> 00:02:17,433 Хората често приписват разум на куп неща, 39 00:02:17,433 --> 00:02:21,076 които всъщност не са разумни. 40 00:02:21,076 --> 00:02:24,289 Въпреки това, ежегодни състезания като Loebner Prize, 41 00:02:24,289 --> 00:02:26,009 правят теста по-официален, 42 00:02:26,009 --> 00:02:28,155 като съдиите знаят предварително, 43 00:02:28,155 --> 00:02:32,019 че някои от събеседниците им са машини. 44 00:02:32,019 --> 00:02:33,920 Но макар и качеството да се е подобрило, 45 00:02:33,920 --> 00:02:39,096 много програмисти на чат-роботи използват стратегии, подобни на ELIZA и PARRY. 46 00:02:39,096 --> 00:02:41,132 Победителката от 1997 г. Catherine 47 00:02:41,132 --> 00:02:45,213 можела да води удивително съсредоточен и смислен разговор, 48 00:02:45,213 --> 00:02:49,175 но най-вече ако съдията иска да говори за Бил Клинтън. 49 00:02:49,175 --> 00:02:51,813 А на по-скорошния победител Eugene Goostman 50 00:02:51,813 --> 00:02:55,549 била дадена самоличността на 13-годишно украинско момче, 51 00:02:55,549 --> 00:02:59,570 поради което съдиите приписали нелогичните му заключения и тромавата граматика 52 00:02:59,570 --> 00:03:02,916 на езиковите и културните бариери. 53 00:03:02,916 --> 00:03:07,135 Междувременно, други програми, като Cleverbot, възприемат друг подход - 54 00:03:07,135 --> 00:03:11,740 статистически анализират огромни бази данни с истински разговори, 55 00:03:11,740 --> 00:03:14,281 за да определят най-подходящите отговори. 56 00:03:14,281 --> 00:03:17,530 Някои също пазят спомените от предишни разговори, 57 00:03:17,530 --> 00:03:20,915 за да могат да се усъвършенстват с времето. 58 00:03:20,915 --> 00:03:25,066 Но макар индивидуалните отговори на Cleverbot да звучат невероятно човешки, 59 00:03:25,066 --> 00:03:27,092 липсата му на последователен характер 60 00:03:27,092 --> 00:03:30,245 и неспособността да се справи със съвсем нови теми 61 00:03:30,245 --> 00:03:32,858 го издават. 62 00:03:32,858 --> 00:03:36,112 Кой по времето на Тюринг би могъл да предположи, че днешните компютри 63 00:03:36,112 --> 00:03:38,201 ще могат да пилотират космически кораби, 64 00:03:38,201 --> 00:03:40,518 да извършват деликатни операции 65 00:03:40,518 --> 00:03:42,807 и да решават сложни уравнения, 66 00:03:42,807 --> 00:03:46,310 но все още ще се борят с най-обикновения злободневен разговор? 67 00:03:46,310 --> 00:03:49,819 Човешкият език се оказва удивително сложен феномен, 68 00:03:49,819 --> 00:03:53,524 който не може да бъде обхванат дори от най-подробния речник. 69 00:03:53,524 --> 00:03:57,993 Чат-роботите се объркват от прости паузи, като "ммм..." 70 00:03:57,993 --> 00:04:00,415 или въпроси, които нямат верен отговор. 71 00:04:00,415 --> 00:04:02,315 Едно обикновено разговорно изречение, 72 00:04:02,315 --> 00:04:05,595 като "Извадих сока от хладилника и му го дадох, 73 00:04:05,595 --> 00:04:07,406 но забравих да погледна датата." 74 00:04:07,406 --> 00:04:12,872 изисква куп съществени познания и интуиция, за да му се направи разбор. 75 00:04:12,872 --> 00:04:15,503 Излиза, че за симулация на човешки разговор 76 00:04:15,503 --> 00:04:19,112 трябва повече от просто увеличение на паметта и способността за обработка 77 00:04:19,112 --> 00:04:21,623 и доближавайки се до целта на Тюринг, 78 00:04:21,623 --> 00:04:26,483 може да се наложи все пак да се занимаем с всички големи въпроси за съзнанието.