1 00:00:00,760 --> 00:00:04,600 Kiskoromban a végletekig kocka voltam. 2 00:00:05,320 --> 00:00:07,496 Szerintem páran önök közül is. 3 00:00:07,520 --> 00:00:08,736 (Nevetés) 4 00:00:08,760 --> 00:00:11,976 Maga, uram, aki a leghangosabban nevetett, talán még mindig az. 5 00:00:12,000 --> 00:00:14,210 (Nevetés) 6 00:00:14,210 --> 00:00:17,776 Észak-Texas poros pusztai kisvárosában nőttem föl, 7 00:00:17,800 --> 00:00:21,136 egy sheriff fiaként, akinek lelkész volt az apja. 8 00:00:21,160 --> 00:00:23,080 Rosszalkodni nem volt lehetőségem. 9 00:00:23,910 --> 00:00:27,296 Szórakozásból differenciál- és integrálszámítás-könyvet kezdtem olvasni. 10 00:00:27,320 --> 00:00:28,996 (Nevetés) 11 00:00:28,996 --> 00:00:30,576 Maguk is. 12 00:00:30,620 --> 00:00:34,356 Így kezdtem lézert, számítógépet és rakétamodellt építeni. 13 00:00:34,360 --> 00:00:38,050 Aztán rákaptam arra, hogy a hálószobámban rakéta-hajtóanyagot kontyvasszak.. 14 00:00:40,000 --> 00:00:41,616 Tudományos értelemben 15 00:00:41,640 --> 00:00:44,896 ez nagyon rossz ötlet. 16 00:00:44,920 --> 00:00:46,136 (Nevetés) 17 00:00:46,160 --> 00:00:48,336 Akkortájt kezdték játszani 18 00:00:48,360 --> 00:00:51,576 Stanley Kubrick 2001: Űrodüsszeia c. filmjét a mozikban, 19 00:00:51,600 --> 00:00:53,800 s életem mindörökre megváltozott. 20 00:00:54,280 --> 00:00:56,336 Minden rettentően tetszett a filmben, 21 00:00:56,360 --> 00:00:58,896 különösen a HAL 9000. 22 00:00:58,920 --> 00:01:00,976 A HAL tudományos számítógép volt, 23 00:01:01,000 --> 00:01:04,236 amelyet a Discovery űrhajó Föld–Jupiter közötti útjának 24 00:01:04,250 --> 00:01:06,016 irányítására terveztek. 25 00:01:06,040 --> 00:01:08,096 A HAL ráadásul romlott jellemű volt, 26 00:01:08,120 --> 00:01:12,400 mert végül az emberi életnél többre értékelte a küldetést. 27 00:01:12,840 --> 00:01:14,936 A HAL kitalált szereplő volt, 28 00:01:14,960 --> 00:01:17,616 de azért hangot ad félelmünknek, 29 00:01:17,640 --> 00:01:19,736 azon félelmünknek, hogy alá vagyunk vetve 30 00:01:19,760 --> 00:01:22,776 bizonyos érzéketlen mesterséges intelligenciának (MI), 31 00:01:22,800 --> 00:01:24,760 aki közömbös emberi mivoltunk iránt. 32 00:01:25,880 --> 00:01:28,456 Ezek a félelmek alaptalanok. 33 00:01:28,480 --> 00:01:31,176 Olyan nevezetes időket élünk 34 00:01:31,200 --> 00:01:32,736 most történelmünkben, 35 00:01:32,760 --> 00:01:37,736 amelyben testünk és lelkünk korlátait vagy tagadva vagy elfogadva 36 00:01:37,760 --> 00:01:39,456 kiváló, gyönyörűen bonyolult 37 00:01:39,480 --> 00:01:43,096 és kecses gépeket építünk, 38 00:01:43,120 --> 00:01:45,176 amelyek képzeletünket túlszárnyalva 39 00:01:45,200 --> 00:01:46,880 kibővítik emberi élményeinket. 40 00:01:47,720 --> 00:01:50,296 Pályafutásom során, amely a Légierő Akadémiától 41 00:01:50,320 --> 00:01:52,256 az Űrparancsnokságig ívelt, 42 00:01:52,280 --> 00:01:53,976 rendszermérnök lettem. 43 00:01:54,000 --> 00:01:56,736 Nemrég a NASA Mars-expedíciójával kapcsolatos 44 00:01:56,760 --> 00:01:59,336 egyik mérnöki feladatba vontak be. 45 00:01:59,360 --> 00:02:01,856 A holdutazáskor támaszkodhatunk 46 00:02:01,880 --> 00:02:04,920 az expedíció Houstonból történő irányítására, 47 00:02:04,930 --> 00:02:07,016 amellyel leshetjük az út minden mozzanatát. 48 00:02:07,040 --> 00:02:10,576 De a Mars 200-szor messzebb van, 49 00:02:10,600 --> 00:02:13,816 ezért a jelek átlag 13 perc alatt 50 00:02:13,840 --> 00:02:16,976 jutnak el a Földről a Marsra. 51 00:02:17,000 --> 00:02:20,400 Ha baj történik, szűk az idő. 52 00:02:20,840 --> 00:02:23,336 Ezért az észszerű mérnöki megoldás 53 00:02:23,360 --> 00:02:25,936 azt diktálja, hogy az utazás irányítását 54 00:02:25,960 --> 00:02:28,976 az Orion űrhajón belül oldjuk meg. 55 00:02:29,000 --> 00:02:31,896 Az utazáshoz kapcsolódik egy másik elragadó ötlet: 56 00:02:31,920 --> 00:02:34,816 vigyünk a Mars felszínére humanoid robotokat, 57 00:02:34,840 --> 00:02:36,696 még az ember odaérkezése előtt, 58 00:02:36,720 --> 00:02:38,376 előbb a berendezések megépítésére, 59 00:02:38,400 --> 00:02:41,760 majd hogy hasznos tagjai legyenek a tudóscsoportnak. 60 00:02:43,400 --> 00:02:46,136 Mérnöki szemszögből nézve 61 00:02:46,160 --> 00:02:47,960 világossá vált számomra, 62 00:02:47,990 --> 00:02:51,230 hogy okos, együttműködő, 63 00:02:51,250 --> 00:02:54,176 szociálisan intelligens mesterséges értelmet kell alkotnom. 64 00:02:54,196 --> 00:02:58,256 Azaz, a HAL-hoz valami nagyon hasonlót kell építenem, 65 00:02:58,280 --> 00:03:00,696 de olyant, ami gyilkos hajlamoktól mentes. 66 00:03:00,720 --> 00:03:02,080 (Nevetés) 67 00:03:02,920 --> 00:03:04,736 Egy pillanat. 68 00:03:04,760 --> 00:03:08,656 Tényleg lehetséges ilyen mesterséges értelmet létrehozni? 69 00:03:08,680 --> 00:03:10,136 A válasz: igen. 70 00:03:10,160 --> 00:03:11,416 Ez több szempontból is 71 00:03:11,440 --> 00:03:13,416 nehéz mérnöki feladat, 72 00:03:13,440 --> 00:03:14,896 de az MI elemeivel 73 00:03:14,920 --> 00:03:19,616 nem olyan, amit ne lehetne megoldani. 74 00:03:19,640 --> 00:03:22,296 Alan Turing után szabadon: 75 00:03:22,320 --> 00:03:24,696 Nem érdekel érző gép megépítése. 76 00:03:24,720 --> 00:03:26,296 Nem építek HAL-t. 77 00:03:26,320 --> 00:03:28,736 Csupán egyszerű agyat akarok, 78 00:03:28,760 --> 00:03:31,880 ami az intelligencia illúzióját kelti. 79 00:03:33,000 --> 00:03:36,136 A számítástechnika művészete és tudománya hosszú utat tett meg 80 00:03:36,160 --> 00:03:37,656 a HAL képernyőre kerüléséig, 81 00:03:37,680 --> 00:03:40,896 és elképzelem, ha feltalálója, dr. Chandra most itt lenne, 82 00:03:40,920 --> 00:03:43,256 lenne hozzánk jó pár kérdése. 83 00:03:43,280 --> 00:03:45,376 Meg tudjuk-e valósítani, 84 00:03:45,400 --> 00:03:49,416 hogy milliók rendszerét milliónyi gépre telepítve 85 00:03:49,440 --> 00:03:50,896 elolvassuk az adatfolyamukat, 86 00:03:50,920 --> 00:03:53,176 hogy előre megtippeljük hibáikat és tetteiket? 87 00:03:53,200 --> 00:03:54,416 Igen. 88 00:03:54,440 --> 00:03:57,616 Képesek vagyunk-e emberi nyelven beszélő gépeket építeni? 89 00:03:57,640 --> 00:03:58,360 Igen. 90 00:03:58,390 --> 00:04:01,856 Képesek vagyunk-e tárgyfölismerő, érzelmeket azonosító, 91 00:04:01,880 --> 00:04:05,256 érzelmüket kifejező, játékot játszó és szájról olvasó gépeket építeni? 92 00:04:05,280 --> 00:04:06,496 Igen. 93 00:04:06,520 --> 00:04:08,656 Képesek vagyunk-e célokat kitűző, 94 00:04:08,680 --> 00:04:12,296 célokat megvalósító és menet közben tanuló gépeket építeni? 95 00:04:12,320 --> 00:04:13,176 Igen. 96 00:04:13,560 --> 00:04:16,896 Képesek vagyunk-e tudatelmélettel bíró rendszereket építeni? 97 00:04:16,920 --> 00:04:18,416 Ezt most tanuljuk. 98 00:04:18,440 --> 00:04:21,920 Képesek vagyunk-e etikai és erkölcsi alapokon álló gépeket építeni? 99 00:04:22,480 --> 00:04:24,520 Ezt még meg kell tanulnunk. 100 00:04:25,360 --> 00:04:26,736 Egyelőre fogadjuk el, 101 00:04:26,760 --> 00:04:29,656 hogy űrutazásokra képesek vagyunk megépíteni 102 00:04:29,680 --> 00:04:31,816 ilyen mesterséges értelmet. 103 00:04:31,840 --> 00:04:34,376 A következő kérdés: 104 00:04:34,400 --> 00:04:35,856 kell-e félnünk tőle? 105 00:04:35,880 --> 00:04:37,856 Minden új technológia 106 00:04:37,880 --> 00:04:40,776 bizonyos mértékű felbolydulást okoz. 107 00:04:40,800 --> 00:04:42,496 Az első kocsik megpillantásakor 108 00:04:42,520 --> 00:04:46,536 az emberek azon siránkoztak, hogy tönkremennek a családok. 109 00:04:46,560 --> 00:04:49,256 Az első telefonok megjelenésekor 110 00:04:49,280 --> 00:04:52,176 az emberek attól tartottak, hogy kipusztul az emberi beszéd. 111 00:04:52,200 --> 00:04:56,136 Amikor elterjedt a nyomtatott írás, 112 00:04:56,160 --> 00:04:58,656 az emberek azt hitték, elvész az emlékezőtehetségünk. 113 00:04:58,680 --> 00:05:00,736 Bizonyos fokig ez mind igaz, 114 00:05:00,760 --> 00:05:03,176 de az is tény, hogy az új technológiák 115 00:05:03,200 --> 00:05:05,066 alapvetően az emberi élmények 116 00:05:05,100 --> 00:05:08,480 kibővítését eredményezték. 117 00:05:09,840 --> 00:05:12,120 Gondolkodjunk el ezen egy kicsit. 118 00:05:13,120 --> 00:05:17,856 Nem félek az MI létrehozásától, 119 00:05:17,880 --> 00:05:21,696 mert meg fogja testesíteni némely értékünket. 120 00:05:21,720 --> 00:05:25,216 Vegyük tekintetbe, hogy kognitív rendszert építeni teljesen más, 121 00:05:25,240 --> 00:05:28,536 mint hagyományos szoftveres rendszert. 122 00:05:28,560 --> 00:05:31,016 Az MI-ket nem programozzuk, hanem tanítjuk. 123 00:05:31,040 --> 00:05:33,696 Hogy megtanítsam a virág fölismerését, 124 00:05:33,720 --> 00:05:36,736 a rendszernek ezernyi ilyesféle virágot mutatok. 125 00:05:36,760 --> 00:05:39,016 Hogy megtanítsam játékot játszani... 126 00:05:39,040 --> 00:05:41,000 Megtenném. Önök is. 127 00:05:42,600 --> 00:05:44,640 Szeretem a virágokat. Tényleg. 128 00:05:45,440 --> 00:05:48,296 Hogy megtanítsam a gépnek a go játékot játszani, 129 00:05:48,320 --> 00:05:50,376 ezernyi játszmát kell vele játszanom, 130 00:05:50,400 --> 00:05:52,056 de közben tanítom is, 131 00:05:52,080 --> 00:05:54,496 hogyan különböztesse meg a jó játszmát a rossztól. 132 00:05:54,520 --> 00:05:58,216 Ha mesterségesen intelligens jogi segéderőt akarnék csinálni, 133 00:05:58,240 --> 00:06:00,186 betanítanék neki néhány törvénykönyvet, 134 00:06:00,186 --> 00:06:02,396 de egyben beleplántálnám 135 00:06:02,396 --> 00:06:05,940 az irgalom s az igazságosság érzését, amelyek hozzátartoznak a joghoz. 136 00:06:06,530 --> 00:06:09,726 Tudományosan ezt hívjuk alapigazságnak, 137 00:06:09,756 --> 00:06:11,576 s ez a fontos, ez a lényeg: 138 00:06:11,600 --> 00:06:13,056 a gépek készítésekor 139 00:06:13,080 --> 00:06:16,496 ezért tanítjuk nekik az értékeink iránti fogékonyságot. 140 00:06:16,520 --> 00:06:19,656 Ezért ugyanúgy bízom, ha nem jobban, 141 00:06:19,680 --> 00:06:23,320 a mesterséges értelemben, mint a jól képzett emberben. 142 00:06:24,080 --> 00:06:26,096 De kérdezhetik, mi a helyzet 143 00:06:26,936 --> 00:06:28,156 a gazemberekkel, 144 00:06:28,156 --> 00:06:31,296 a gazdag civil szervezetekkel? 145 00:06:31,320 --> 00:06:35,136 Nem tartok attól, hogy a MI egy magányos farkas kezébe kerül. 146 00:06:35,160 --> 00:06:39,696 Tény, hogy nem tudjuk magunkat megvédeni a spontán erőszakos cselekedetektől, 147 00:06:39,720 --> 00:06:41,856 de az a helyzet, hogy egy ilyen rendszer 148 00:06:41,880 --> 00:06:44,976 alapos, kifinomult kiképzést igényel, 149 00:06:45,000 --> 00:06:47,296 ami jócskán meghaladja egy egyén erőforrásait. 150 00:06:47,320 --> 00:06:48,536 Továbbá, 151 00:06:48,560 --> 00:06:51,816 ez sokkal több, mint egy internetvírust kibocsátani a világba; 152 00:06:51,840 --> 00:06:54,936 ott csak leütünk egy billentyűt, és hirtelen milliónyi helyen 153 00:06:54,960 --> 00:06:57,416 és laptopon működésbe lépnek. 154 00:06:57,440 --> 00:07:00,256 Ezek az állományok sokkal nagyobbak, 155 00:07:00,280 --> 00:07:01,995 és biztos eljön az idejük. 156 00:07:02,520 --> 00:07:05,576 Féljek-e, hogy ilyen mesterséges értelem 157 00:07:05,600 --> 00:07:07,560 az egész emberiséget veszélyeztetheti? 158 00:07:08,280 --> 00:07:12,656 Ha megnézzük a Mátrix, a Metropolis, 159 00:07:12,680 --> 00:07:15,856 a Terminátor c. filmeket, a Westworld c. filmsorozatot, 160 00:07:15,880 --> 00:07:18,016 mind az efféle félelemről szólnak. 161 00:07:18,040 --> 00:07:22,336 Nick Bostrom filozófus a Szuperintelligencia c. könyvében 162 00:07:22,360 --> 00:07:23,896 foglalkozik a témával: 163 00:07:23,920 --> 00:07:27,936 figyelmeztet, hogy a szuper-intelligencia nemcsak veszélyes lehet, 164 00:07:27,960 --> 00:07:31,816 hanem az emberiség létét is fenyegetheti. 165 00:07:31,840 --> 00:07:34,056 Dr. Bostrom fő érve, 166 00:07:34,080 --> 00:07:36,816 hogy az ilyen rendszereknek végül 167 00:07:36,840 --> 00:07:40,096 olyan telhetetlen információéhségük lehet, 168 00:07:40,120 --> 00:07:43,016 hogy talán azt is megtanulják, hogyan kell tanulni, 169 00:07:43,040 --> 00:07:45,656 és végső fokon rájönnek, hogy olyan céljaik lehetnek, 170 00:07:45,680 --> 00:07:47,976 amelyek ellentétesek az emberi szükségletekkel. 171 00:07:48,000 --> 00:07:49,856 Dr. Bostromnak sok követője van. 172 00:07:49,880 --> 00:07:54,200 Elon Musk és Stephen Hawking is támogatja például. 173 00:07:54,880 --> 00:07:57,280 E ragyogó elmék iránti 174 00:07:58,160 --> 00:08:00,176 minden kötelező tiszteletem ellenére, 175 00:08:00,200 --> 00:08:02,456 úgy vélem, hogy alapvetően tévednek. 176 00:08:02,480 --> 00:08:05,656 Dr. Bostromnak számos, megvizsgálásra érdemes érve van, 177 00:08:05,680 --> 00:08:07,816 de most itt nincs időnk mindegyikre. 178 00:08:07,840 --> 00:08:10,536 Dióhéjban, gondoljuk át a következőket: 179 00:08:10,560 --> 00:08:14,296 a szuper tudás egészen más, mint a szuper cselekedet. 180 00:08:14,320 --> 00:08:17,166 A HAL akkor jelentett fenyegetést a Discovery személyzetére, 181 00:08:17,216 --> 00:08:20,656 amikor a Discoveryt teljesen ő irányította. 182 00:08:20,680 --> 00:08:23,176 Ehhez szuper intelligensnek kell lennie. 183 00:08:23,200 --> 00:08:25,696 Ez világuralmat jelentene. 184 00:08:25,720 --> 00:08:28,440 Aztán itt van a Skynet a Terminátorból, 185 00:08:28,440 --> 00:08:30,100 amelyben szuper intelligencia van, 186 00:08:30,110 --> 00:08:31,816 amely az emberi akaratot irányítja; 187 00:08:31,840 --> 00:08:35,696 az egész világon minden készüléket a Skynet irányít. 188 00:08:35,720 --> 00:08:37,176 Ilyen a gyakorlatban 189 00:08:37,200 --> 00:08:39,296 nem történhet meg. 190 00:08:39,320 --> 00:08:42,376 Nem építünk olyan MI-t, amely az időjárást 191 00:08:42,400 --> 00:08:43,736 vagy a dagályt irányítja, 192 00:08:43,760 --> 00:08:47,136 vagy nekünk, szeszélyes, zűrös embereknek parancsol. 193 00:08:47,160 --> 00:08:51,056 Továbbá, ha létezne is ilyen mesterséges értelem, 194 00:08:51,080 --> 00:08:54,016 meg kellene küzdenie az emberi takarékoskodással, 195 00:08:54,040 --> 00:08:56,560 és ezért harcolnia kellene velünk az erőforrásokért. 196 00:08:57,200 --> 00:08:58,096 Végül... 197 00:08:58,360 --> 00:08:59,680 – meg ne mondják Sirinek –, 198 00:09:00,440 --> 00:09:01,926 bármikor kikapcsolhatjuk őket. 199 00:09:01,946 --> 00:09:03,960 (Nevetés) 200 00:09:05,360 --> 00:09:07,816 A gépeinkkel közös 201 00:09:07,840 --> 00:09:10,336 hihetetlen fejlődési úton járunk. 202 00:09:10,360 --> 00:09:12,856 Ma emberekként nem olyanok vagyunk, 203 00:09:12,880 --> 00:09:15,416 mint amilyenek egykor leszünk. 204 00:09:15,440 --> 00:09:18,576 A szuper intelligencia megjelenése miatti mai aggodalmak 205 00:09:18,600 --> 00:09:21,656 több szempontból veszélyes figyelemelterelés, 206 00:09:21,680 --> 00:09:24,016 mert a számítástechnika fejlődése már önmagában is 207 00:09:24,040 --> 00:09:27,056 egy csomó emberi és társadalmi kérdést vet föl, 208 00:09:27,080 --> 00:09:28,720 amelyekbe be kell kapcsolódnunk. 209 00:09:29,360 --> 00:09:32,176 Hogyan szervezzem a legjobban a társadalmat, 210 00:09:32,200 --> 00:09:34,536 ha a munkaerő-szükséglet csökken? 211 00:09:34,560 --> 00:09:38,280 Hogyan érhető el megértés és végezhető oktatás a Földön, 212 00:09:38,300 --> 00:09:40,176 a különbségek tiszteletben tartásával? 213 00:09:40,200 --> 00:09:44,456 Hogyan hosszabbítható meg és javítható az élet kognitív egészségügy révén? 214 00:09:44,480 --> 00:09:47,336 Hogyan használhatom a számítástechnikát, 215 00:09:47,360 --> 00:09:49,120 hogy eljussunk a csillagokba? 216 00:09:49,760 --> 00:09:51,800 Ez itt az izgató kérdés. 217 00:09:52,370 --> 00:09:54,866 A számítástechnikában rejlő lehetőségek kihasználása 218 00:09:54,886 --> 00:09:56,306 az emberi élmények javítására 219 00:09:56,346 --> 00:09:57,736 jelenleg csak 220 00:09:57,760 --> 00:09:59,616 karnyújtásnyira van, 221 00:09:59,640 --> 00:10:01,320 és ez csupán a kezdet. 222 00:10:02,280 --> 00:10:03,496 Köszönöm szépen. 223 00:10:03,520 --> 00:10:07,806 (Taps)