Ne féljünk a szuper-intelligens mesterséges értelemtől!
-
0:01 - 0:05Kiskoromban a végletekig kocka voltam.
-
0:05 - 0:07Szerintem páran önök közül is.
-
0:08 - 0:09(Nevetés)
-
0:09 - 0:12Maga, uram, aki a leghangosabban
nevetett, talán még mindig az. -
0:12 - 0:14(Nevetés)
-
0:14 - 0:18Észak-Texas poros pusztai
kisvárosában nőttem föl, -
0:18 - 0:21egy sheriff fiaként,
akinek lelkész volt az apja. -
0:21 - 0:23Rosszalkodni nem volt lehetőségem.
-
0:24 - 0:27Szórakozásból differenciál- és
integrálszámítás-könyvet kezdtem olvasni. -
0:27 - 0:29(Nevetés)
-
0:29 - 0:31Maguk is.
-
0:31 - 0:34Így kezdtem lézert, számítógépet
és rakétamodellt építeni. -
0:34 - 0:38Aztán rákaptam arra, hogy a hálószobámban
rakéta-hajtóanyagot kontyvasszak.. -
0:40 - 0:42Tudományos értelemben
-
0:42 - 0:45ez nagyon rossz ötlet.
-
0:45 - 0:46(Nevetés)
-
0:46 - 0:48Akkortájt kezdték játszani
-
0:48 - 0:52Stanley Kubrick 2001: Űrodüsszeia
c. filmjét a mozikban, -
0:52 - 0:54s életem mindörökre megváltozott.
-
0:54 - 0:56Minden rettentően tetszett a filmben,
-
0:56 - 0:59különösen a HAL 9000.
-
0:59 - 1:01A HAL tudományos számítógép volt,
-
1:01 - 1:04amelyet a Discovery űrhajó
Föld–Jupiter közötti útjának -
1:04 - 1:06irányítására terveztek.
-
1:06 - 1:08A HAL ráadásul romlott jellemű volt,
-
1:08 - 1:12mert végül az emberi életnél
többre értékelte a küldetést. -
1:13 - 1:15A HAL kitalált szereplő volt,
-
1:15 - 1:18de azért hangot ad félelmünknek,
-
1:18 - 1:20azon félelmünknek, hogy alá vagyunk vetve
-
1:20 - 1:23bizonyos érzéketlen
mesterséges intelligenciának (MI), -
1:23 - 1:25aki közömbös emberi mivoltunk iránt.
-
1:26 - 1:28Ezek a félelmek alaptalanok.
-
1:28 - 1:31Olyan nevezetes időket élünk
-
1:31 - 1:33most történelmünkben,
-
1:33 - 1:38amelyben testünk és lelkünk korlátait
vagy tagadva vagy elfogadva -
1:38 - 1:39kiváló, gyönyörűen bonyolult
-
1:39 - 1:43és kecses gépeket építünk,
-
1:43 - 1:45amelyek képzeletünket túlszárnyalva
-
1:45 - 1:47kibővítik emberi élményeinket.
-
1:48 - 1:50Pályafutásom során,
amely a Légierő Akadémiától -
1:50 - 1:52az Űrparancsnokságig ívelt,
-
1:52 - 1:54rendszermérnök lettem.
-
1:54 - 1:57Nemrég a NASA
Mars-expedíciójával kapcsolatos -
1:57 - 1:59egyik mérnöki feladatba vontak be.
-
1:59 - 2:02A holdutazáskor támaszkodhatunk
-
2:02 - 2:05az expedíció Houstonból
történő irányítására, -
2:05 - 2:07amellyel leshetjük
az út minden mozzanatát. -
2:07 - 2:11De a Mars 200-szor messzebb van,
-
2:11 - 2:14ezért a jelek átlag 13 perc alatt
-
2:14 - 2:17jutnak el a Földről a Marsra.
-
2:17 - 2:20Ha baj történik, szűk az idő.
-
2:21 - 2:23Ezért az észszerű mérnöki megoldás
-
2:23 - 2:26azt diktálja, hogy az utazás irányítását
-
2:26 - 2:29az Orion űrhajón belül oldjuk meg.
-
2:29 - 2:32Az utazáshoz kapcsolódik
egy másik elragadó ötlet: -
2:32 - 2:35vigyünk a Mars felszínére
humanoid robotokat, -
2:35 - 2:37még az ember odaérkezése előtt,
-
2:37 - 2:38előbb a berendezések megépítésére,
-
2:38 - 2:42majd hogy hasznos tagjai
legyenek a tudóscsoportnak. -
2:43 - 2:46Mérnöki szemszögből nézve
-
2:46 - 2:48világossá vált számomra,
-
2:48 - 2:51hogy okos, együttműködő,
-
2:51 - 2:54szociálisan intelligens
mesterséges értelmet kell alkotnom. -
2:54 - 2:58Azaz, a HAL-hoz valami
nagyon hasonlót kell építenem, -
2:58 - 3:01de olyant, ami gyilkos hajlamoktól mentes.
-
3:01 - 3:02(Nevetés)
-
3:03 - 3:05Egy pillanat.
-
3:05 - 3:09Tényleg lehetséges ilyen
mesterséges értelmet létrehozni? -
3:09 - 3:10A válasz: igen.
-
3:10 - 3:11Ez több szempontból is
-
3:11 - 3:13nehéz mérnöki feladat,
-
3:13 - 3:15de az MI elemeivel
-
3:15 - 3:20nem olyan, amit ne lehetne megoldani.
-
3:20 - 3:22Alan Turing után szabadon:
-
3:22 - 3:25Nem érdekel érző gép megépítése.
-
3:25 - 3:26Nem építek HAL-t.
-
3:26 - 3:29Csupán egyszerű agyat akarok,
-
3:29 - 3:32ami az intelligencia illúzióját kelti.
-
3:33 - 3:36A számítástechnika művészete
és tudománya hosszú utat tett meg -
3:36 - 3:38a HAL képernyőre kerüléséig,
-
3:38 - 3:41és elképzelem, ha feltalálója,
dr. Chandra most itt lenne, -
3:41 - 3:43lenne hozzánk jó pár kérdése.
-
3:43 - 3:45Meg tudjuk-e valósítani,
-
3:45 - 3:49hogy milliók rendszerét
milliónyi gépre telepítve -
3:49 - 3:51elolvassuk az adatfolyamukat,
-
3:51 - 3:53hogy előre megtippeljük
hibáikat és tetteiket? -
3:53 - 3:54Igen.
-
3:54 - 3:58Képesek vagyunk-e emberi nyelven
beszélő gépeket építeni? -
3:58 - 3:58Igen.
-
3:58 - 4:02Képesek vagyunk-e tárgyfölismerő,
érzelmeket azonosító, -
4:02 - 4:05érzelmüket kifejező, játékot játszó
és szájról olvasó gépeket építeni? -
4:05 - 4:06Igen.
-
4:07 - 4:09Képesek vagyunk-e célokat kitűző,
-
4:09 - 4:12célokat megvalósító és menet
közben tanuló gépeket építeni? -
4:12 - 4:13Igen.
-
4:14 - 4:17Képesek vagyunk-e tudatelmélettel
bíró rendszereket építeni? -
4:17 - 4:18Ezt most tanuljuk.
-
4:18 - 4:22Képesek vagyunk-e etikai és erkölcsi
alapokon álló gépeket építeni? -
4:22 - 4:25Ezt még meg kell tanulnunk.
-
4:25 - 4:27Egyelőre fogadjuk el,
-
4:27 - 4:30hogy űrutazásokra képesek
vagyunk megépíteni -
4:30 - 4:32ilyen mesterséges értelmet.
-
4:32 - 4:34A következő kérdés:
-
4:34 - 4:36kell-e félnünk tőle?
-
4:36 - 4:38Minden új technológia
-
4:38 - 4:41bizonyos mértékű felbolydulást okoz.
-
4:41 - 4:42Az első kocsik megpillantásakor
-
4:43 - 4:47az emberek azon siránkoztak,
hogy tönkremennek a családok. -
4:47 - 4:49Az első telefonok megjelenésekor
-
4:49 - 4:52az emberek attól tartottak,
hogy kipusztul az emberi beszéd. -
4:52 - 4:56Amikor elterjedt a nyomtatott írás,
-
4:56 - 4:59az emberek azt hitték,
elvész az emlékezőtehetségünk. -
4:59 - 5:01Bizonyos fokig ez mind igaz,
-
5:01 - 5:03de az is tény, hogy az új technológiák
-
5:03 - 5:05alapvetően az emberi élmények
-
5:05 - 5:08kibővítését eredményezték.
-
5:10 - 5:12Gondolkodjunk el ezen egy kicsit.
-
5:13 - 5:18Nem félek az MI létrehozásától,
-
5:18 - 5:22mert meg fogja testesíteni
némely értékünket. -
5:22 - 5:25Vegyük tekintetbe, hogy kognitív rendszert
építeni teljesen más, -
5:25 - 5:29mint hagyományos szoftveres rendszert.
-
5:29 - 5:31Az MI-ket nem programozzuk,
hanem tanítjuk. -
5:31 - 5:34Hogy megtanítsam a virág fölismerését,
-
5:34 - 5:37a rendszernek ezernyi
ilyesféle virágot mutatok. -
5:37 - 5:39Hogy megtanítsam játékot játszani...
-
5:39 - 5:41Megtenném. Önök is.
-
5:43 - 5:45Szeretem a virágokat. Tényleg.
-
5:45 - 5:48Hogy megtanítsam a gépnek
a go játékot játszani, -
5:48 - 5:50ezernyi játszmát kell vele játszanom,
-
5:50 - 5:52de közben tanítom is,
-
5:52 - 5:54hogyan különböztesse meg
a jó játszmát a rossztól. -
5:55 - 5:58Ha mesterségesen intelligens
jogi segéderőt akarnék csinálni, -
5:58 - 6:00betanítanék neki néhány törvénykönyvet,
-
6:00 - 6:02de egyben beleplántálnám
-
6:02 - 6:06az irgalom s az igazságosság érzését,
amelyek hozzátartoznak a joghoz. -
6:07 - 6:10Tudományosan ezt hívjuk alapigazságnak,
-
6:10 - 6:12s ez a fontos, ez a lényeg:
-
6:12 - 6:13a gépek készítésekor
-
6:13 - 6:16ezért tanítjuk nekik
az értékeink iránti fogékonyságot. -
6:17 - 6:20Ezért ugyanúgy bízom, ha nem jobban,
-
6:20 - 6:23a mesterséges értelemben,
mint a jól képzett emberben. -
6:24 - 6:26De kérdezhetik, mi a helyzet
-
6:27 - 6:28a gazemberekkel,
-
6:28 - 6:31a gazdag civil szervezetekkel?
-
6:31 - 6:35Nem tartok attól, hogy a MI
egy magányos farkas kezébe kerül. -
6:35 - 6:40Tény, hogy nem tudjuk magunkat megvédeni
a spontán erőszakos cselekedetektől, -
6:40 - 6:42de az a helyzet, hogy egy ilyen rendszer
-
6:42 - 6:45alapos, kifinomult kiképzést igényel,
-
6:45 - 6:47ami jócskán meghaladja
egy egyén erőforrásait. -
6:47 - 6:49Továbbá,
-
6:49 - 6:52ez sokkal több, mint egy internetvírust
kibocsátani a világba; -
6:52 - 6:55ott csak leütünk egy billentyűt,
és hirtelen milliónyi helyen -
6:55 - 6:57és laptopon működésbe lépnek.
-
6:57 - 7:00Ezek az állományok sokkal nagyobbak,
-
7:00 - 7:02és biztos eljön az idejük.
-
7:03 - 7:06Féljek-e, hogy ilyen mesterséges értelem
-
7:06 - 7:08az egész emberiséget veszélyeztetheti?
-
7:08 - 7:13Ha megnézzük a Mátrix, a Metropolis,
-
7:13 - 7:16a Terminátor c. filmeket,
a Westworld c. filmsorozatot, -
7:16 - 7:18mind az efféle félelemről szólnak.
-
7:18 - 7:22Nick Bostrom filozófus
a Szuperintelligencia c. könyvében -
7:22 - 7:24foglalkozik a témával:
-
7:24 - 7:28figyelmeztet, hogy a szuper-intelligencia
nemcsak veszélyes lehet, -
7:28 - 7:32hanem az emberiség létét is fenyegetheti.
-
7:32 - 7:34Dr. Bostrom fő érve,
-
7:34 - 7:37hogy az ilyen rendszereknek végül
-
7:37 - 7:40olyan telhetetlen információéhségük lehet,
-
7:40 - 7:43hogy talán azt is megtanulják,
hogyan kell tanulni, -
7:43 - 7:46és végső fokon rájönnek,
hogy olyan céljaik lehetnek, -
7:46 - 7:48amelyek ellentétesek
az emberi szükségletekkel. -
7:48 - 7:50Dr. Bostromnak sok követője van.
-
7:50 - 7:54Elon Musk
és Stephen Hawking is támogatja például. -
7:55 - 7:57E ragyogó elmék iránti
-
7:58 - 8:00minden kötelező tiszteletem ellenére,
-
8:00 - 8:02úgy vélem, hogy alapvetően tévednek.
-
8:02 - 8:06Dr. Bostromnak számos,
megvizsgálásra érdemes érve van, -
8:06 - 8:08de most itt nincs időnk mindegyikre.
-
8:08 - 8:11Dióhéjban, gondoljuk át a következőket:
-
8:11 - 8:14a szuper tudás egészen más,
mint a szuper cselekedet. -
8:14 - 8:17A HAL akkor jelentett fenyegetést
a Discovery személyzetére, -
8:17 - 8:21amikor a Discoveryt
teljesen ő irányította. -
8:21 - 8:23Ehhez szuper intelligensnek kell lennie.
-
8:23 - 8:26Ez világuralmat jelentene.
-
8:26 - 8:28Aztán itt van a Skynet a Terminátorból,
-
8:28 - 8:30amelyben szuper intelligencia van,
-
8:30 - 8:32amely az emberi akaratot irányítja;
-
8:32 - 8:36az egész világon minden készüléket
a Skynet irányít. -
8:36 - 8:37Ilyen a gyakorlatban
-
8:37 - 8:39nem történhet meg.
-
8:39 - 8:42Nem építünk olyan MI-t,
amely az időjárást -
8:42 - 8:44vagy a dagályt irányítja,
-
8:44 - 8:47vagy nekünk, szeszélyes,
zűrös embereknek parancsol. -
8:47 - 8:51Továbbá, ha létezne is
ilyen mesterséges értelem, -
8:51 - 8:54meg kellene küzdenie
az emberi takarékoskodással, -
8:54 - 8:57és ezért harcolnia kellene
velünk az erőforrásokért. -
8:57 - 8:58Végül...
-
8:58 - 9:00– meg ne mondják Sirinek –,
-
9:00 - 9:02bármikor kikapcsolhatjuk őket.
-
9:02 - 9:04(Nevetés)
-
9:05 - 9:08A gépeinkkel közös
-
9:08 - 9:10hihetetlen fejlődési úton járunk.
-
9:10 - 9:13Ma emberekként nem olyanok vagyunk,
-
9:13 - 9:15mint amilyenek egykor leszünk.
-
9:15 - 9:19A szuper intelligencia megjelenése
miatti mai aggodalmak -
9:19 - 9:22több szempontból
veszélyes figyelemelterelés, -
9:22 - 9:24mert a számítástechnika fejlődése
már önmagában is -
9:24 - 9:27egy csomó emberi
és társadalmi kérdést vet föl, -
9:27 - 9:29amelyekbe be kell kapcsolódnunk.
-
9:29 - 9:32Hogyan szervezzem
a legjobban a társadalmat, -
9:32 - 9:35ha a munkaerő-szükséglet csökken?
-
9:35 - 9:38Hogyan érhető el megértés
és végezhető oktatás a Földön, -
9:38 - 9:40a különbségek tiszteletben tartásával?
-
9:40 - 9:44Hogyan hosszabbítható meg és javítható
az élet kognitív egészségügy révén? -
9:44 - 9:47Hogyan használhatom a számítástechnikát,
-
9:47 - 9:49hogy eljussunk a csillagokba?
-
9:50 - 9:52Ez itt az izgató kérdés.
-
9:52 - 9:55A számítástechnikában rejlő
lehetőségek kihasználása -
9:55 - 9:56az emberi élmények javítására
-
9:56 - 9:58jelenleg csak
-
9:58 - 10:00karnyújtásnyira van,
-
10:00 - 10:01és ez csupán a kezdet.
-
10:02 - 10:03Köszönöm szépen.
-
10:04 - 10:08(Taps)
- Title:
- Ne féljünk a szuper-intelligens mesterséges értelemtől!
- Speaker:
- Grady Booch
- Description:
-
Az új technika új félelmeket szül – mondja Grady Booch, tudós és filozófus, de a mindenható, érzéketlen mesterséges értelemtől nem kell félnünk. Booch csillapítja a sci-fi keltette legrosszabb félelmünket a szuper-intelligens számítógépektől, mert elmagyarázza, hogyan taníthatjuk (és nem programozhatjuk) őket, hogy alkalmazkodjanak értékrendünkhöz. Ahelyett, hogy létünk valószínűtlen fenyegetettsége miatt nyugtalankodnánk, Booch arra sarkall bennünket, gondoljunk bele, hogy a mesterséges értelem mennyit javíthat az emberek életén.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Csaba Lóki commented on Hungarian subtitles for Don't fear superintelligent AI | ||
Csaba Lóki approved Hungarian subtitles for Don't fear superintelligent AI | ||
Csaba Lóki edited Hungarian subtitles for Don't fear superintelligent AI | ||
Csaba Lóki edited Hungarian subtitles for Don't fear superintelligent AI | ||
Csaba Lóki edited Hungarian subtitles for Don't fear superintelligent AI | ||
Melissa Csikszentmihályi accepted Hungarian subtitles for Don't fear superintelligent AI | ||
Melissa Csikszentmihályi edited Hungarian subtitles for Don't fear superintelligent AI | ||
Melissa Csikszentmihályi edited Hungarian subtitles for Don't fear superintelligent AI |
Péter Pallós
A Description javítandó:
"Az új technika új félelmeket szül – mondja Grady Booch..."
és
"...Booch arra sarkall bennünket, gondoljunk bele, hogy a mesterséges értelem..."
A fránya Amara megint nem akar menteni.
Csaba Lóki
A "nerd" inkább "kocka" értelemben használatos. "Buzgó mócsing"-ot nem érzem ideillőnek. Ha elfogadjátok...