0:00:06.999,0:00:09.034 Ce este conștiința? 0:00:09.034,0:00:11.828 Pot mașinile artificiale să gândească? 0:00:11.828,0:00:15.114 Mintea e alcătuită doar din neuroni, 0:00:15.114,0:00:18.757 sau are și o scânteie intangibilă[br]în interior? 0:00:18.757,0:00:21.325 Pentru mulți, acestea[br]sunt aspecte vitale, 0:00:21.325,0:00:24.352 relevante pentru viitorul[br]inteligenței artificiale. 0:00:24.352,0:00:29.539 Informaticianul britanic Alan Turing[br]a ignorat aceste întrebări 0:00:29.539,0:00:31.850 în favoarea uneia simple: 0:00:31.850,0:00:35.269 ar putea computerul să vorbească [br]asemenea unui om? 0:00:35.269,0:00:39.265 Această întrebare a dus la ideea[br]de măsurare a inteligenței artificiale, 0:00:39.265,0:00:43.316 care a ajuns cunoscută[br]sub numele de testul Turing. 0:00:43.316,0:00:47.341 În articolul din 1950, „Computing[br]Machinery and Intelligence”, 0:00:47.341,0:00:49.814 Turing a propus următorul joc: 0:00:49.814,0:00:53.906 un critic are o conversație scrisă[br]cu jucători nevăzuți 0:00:53.906,0:00:56.382 și le evaluează răspunsurile. 0:00:56.382,0:01:00.409 Să treacă testul, un computer trebuie[br]să reușească să înlocuiască un jucător 0:01:00.409,0:01:03.857 fără să schimbe substanțial rezultatele. 0:01:03.857,0:01:06.816 Adică un computer[br]ar fi considerat inteligent 0:01:06.816,0:01:12.513 dacă conversația cu el [br]n-ar putea fi deosebită de cea cu un om. 0:01:12.513,0:01:14.667 Turing a prezis că până în anul 2000, 0:01:14.667,0:01:20.622 mașini cu 100 MB de memorie[br]vor trece cu ușurință acest test. 0:01:20.622,0:01:22.786 Se poate să se fi grăbit când a zis asta. 0:01:22.786,0:01:25.840 Deși computerele de azi[br]au o memorie mult mai mare de atât, 0:01:25.840,0:01:27.643 puține au reușit, 0:01:27.643,0:01:29.438 iar cele care au avut rezultate bune 0:01:29.438,0:01:33.208 s-au concentrat pe găsirea[br]unor modalități de păcălire a juriului, 0:01:33.208,0:01:36.174 și nu pe folosirea puterii computerului. 0:01:36.174,0:01:39.096 Deși nu a fost niciodată[br]supus unui test real, 0:01:39.096,0:01:43.745 primul program care a avut succes,[br]a fost ELIZA, 0:01:43.745,0:01:46.412 Cu un script scurt și simplu,[br]prin imitarea unui psiholog 0:01:46.412,0:01:50.434 a reușit să inducă în eroare[br]numeroase persoane, 0:01:50.434,0:01:52.395 le-a încurajat să vorbească mai mult, 0:01:52.395,0:01:55.905 adresându-le întrebări reflective. 0:01:55.905,0:01:59.412 Un alt script, PARRY,[br]a abordat situația în mod opus, 0:01:59.412,0:02:02.213 imitând un schizofrenic paranoic 0:02:02.213,0:02:07.939 care îndrumă conversația [br]către obsesiile lui preprogramate. 0:02:07.939,0:02:12.803 Succesul lor în păcălirea oamenilor[br]a evidențiat o slăbiciune a testului. 0:02:12.803,0:02:17.433 Oamenii de obicei atribuie inteligență[br]unei game variate de lucruri 0:02:17.433,0:02:21.076 care nu sunt, de fapt, inteligente. 0:02:21.076,0:02:24.289 Cu toate acestea, competițiile anuale,[br]cum ar fi Premiul Loebner, 0:02:24.289,0:02:26.009 au făcut testul mai formal: 0:02:26.009,0:02:28.155 judecătorii știu dinainte 0:02:28.155,0:02:32.019 că unii dintre partenerii[br]de conversație sunt mașini. 0:02:32.019,0:02:33.790 Dar deși calitatea s-a îmbunătățit, 0:02:33.790,0:02:35.936 mulți programatori de chatboți 0:02:35.936,0:02:39.096 au folosit strategii similare[br]cu ELIZA și PARRY. 0:02:39.096,0:02:41.132 Catherine, câștigătorul din 1997 0:02:41.132,0:02:45.213 putea purta conversații[br]foarte inteligente, 0:02:45.213,0:02:49.175 dar în special atunci când judecătorul[br]voia să vorbească despre Bill Clinton. 0:02:49.175,0:02:51.813 Eugene Goostman este[br]cel mai recent câștigător. 0:02:51.813,0:02:55.549 Acestuia i-a fost atribuită personalitatea[br]unui băiat ucrainean de 13 ani, 0:02:55.549,0:02:59.570 așa că judecătorii i-au considerat[br]greșelile gramaticale și de logică 0:02:59.570,0:03:02.916 ca fiind cauzate de bariera[br]lingvistică și culturală. 0:03:02.916,0:03:07.135 Alte programe, ca Cleverbot,[br]au folosit o abordare diferită: 0:03:07.135,0:03:11.740 au analizat baze uriașe de date [br]cu conversații reale 0:03:11.740,0:03:14.281 pentru a determina [br]cele mai bune răspunsuri. 0:03:14.281,0:03:17.530 Unele chiar stochează amintiri[br]din conversațiile anterioare 0:03:17.530,0:03:20.915 pentru îmbunătățire[br]pe parcursul timpului. 0:03:20.915,0:03:23.896 Dar deși răspunsurile individuale [br]ale lui Cleverbot 0:03:23.896,0:03:27.092 sună incredibil de uman,[br]lipsa unei personalități constante 0:03:27.092,0:03:30.245 și inabilitatea de a aborda[br]subiecte nou-nouțe 0:03:30.245,0:03:32.858 îl dau de gol. 0:03:32.858,0:03:36.112 Cine din vremea lui Turing[br]ar fi prezis că computerele de azi 0:03:36.112,0:03:38.201 vor pilota nave spațiale, 0:03:38.201,0:03:40.518 vor face intervenții[br]chirurgicale complicate, 0:03:40.518,0:03:42.807 vor rezolva ecuații masive, 0:03:42.807,0:03:46.310 dar se vor strădui din greu[br]să poarte o scurtă conversație? 0:03:46.310,0:03:49.819 Limbajul uman este un fenomen[br]surprinzător de complex 0:03:49.819,0:03:53.524 ce nu poate fi cuprins[br]nici de cel mai mare dicționar. 0:03:53.524,0:03:57.993 Chatboții sunt derutați de pauze simple,[br]cum ar fi „ăă...” 0:03:57.993,0:04:00.415 sau întrebări ce nu au răspuns corect. 0:04:00.415,0:04:02.315 O simplă frază conversațională ca: 0:04:02.315,0:04:07.315 „Am luat sucul din frigider și i l-am dat,[br]dar am uitat să verific data de expirare”, 0:04:07.406,0:04:12.872 necesită numeroase cunoștințe[br]și intuiție pentru a fi analizată. 0:04:12.872,0:04:15.503 Se pare că simularea [br]unei conversații umane 0:04:15.503,0:04:19.112 necesită mai mult decât mărirea memoriei[br]și a puterii de procesare, 0:04:19.112,0:04:21.623 și pe măsură ce ne apropiem [br]de scopul lui Turing, 0:04:21.623,0:04:26.483 s-ar putea să ne lovim[br]de multe întrebări despre conștiință.