Return to Video

Ne féljünk a szuper-intelligens mesterséges értelemtől!

  • 0:01 - 0:05
    Kiskoromban a végletekig kocka voltam.
  • 0:05 - 0:07
    Szerintem páran önök közül is.
  • 0:08 - 0:09
    (Nevetés)
  • 0:09 - 0:12
    Maga, uram, aki a leghangosabban
    nevetett, talán még mindig az.
  • 0:12 - 0:14
    (Nevetés)
  • 0:14 - 0:18
    Észak-Texas poros pusztai
    kisvárosában nőttem föl,
  • 0:18 - 0:21
    egy sheriff fiaként,
    akinek lelkész volt az apja.
  • 0:21 - 0:23
    Rosszalkodni nem volt lehetőségem.
  • 0:24 - 0:27
    Szórakozásból differenciál- és
    integrálszámítás-könyvet kezdtem olvasni.
  • 0:27 - 0:29
    (Nevetés)
  • 0:29 - 0:31
    Maguk is.
  • 0:31 - 0:34
    Így kezdtem lézert, számítógépet
    és rakétamodellt építeni.
  • 0:34 - 0:38
    Aztán rákaptam arra, hogy a hálószobámban
    rakéta-hajtóanyagot kontyvasszak..
  • 0:40 - 0:42
    Tudományos értelemben
  • 0:42 - 0:45
    ez nagyon rossz ötlet.
  • 0:45 - 0:46
    (Nevetés)
  • 0:46 - 0:48
    Akkortájt kezdték játszani
  • 0:48 - 0:52
    Stanley Kubrick 2001: Űrodüsszeia
    c. filmjét a mozikban,
  • 0:52 - 0:54
    s életem mindörökre megváltozott.
  • 0:54 - 0:56
    Minden rettentően tetszett a filmben,
  • 0:56 - 0:59
    különösen a HAL 9000.
  • 0:59 - 1:01
    A HAL tudományos számítógép volt,
  • 1:01 - 1:04
    amelyet a Discovery űrhajó
    Föld–Jupiter közötti útjának
  • 1:04 - 1:06
    irányítására terveztek.
  • 1:06 - 1:08
    A HAL ráadásul romlott jellemű volt,
  • 1:08 - 1:12
    mert végül az emberi életnél
    többre értékelte a küldetést.
  • 1:13 - 1:15
    A HAL kitalált szereplő volt,
  • 1:15 - 1:18
    de azért hangot ad félelmünknek,
  • 1:18 - 1:20
    azon félelmünknek, hogy alá vagyunk vetve
  • 1:20 - 1:23
    bizonyos érzéketlen
    mesterséges intelligenciának (MI),
  • 1:23 - 1:25
    aki közömbös emberi mivoltunk iránt.
  • 1:26 - 1:28
    Ezek a félelmek alaptalanok.
  • 1:28 - 1:31
    Olyan nevezetes időket élünk
  • 1:31 - 1:33
    most történelmünkben,
  • 1:33 - 1:38
    amelyben testünk és lelkünk korlátait
    vagy tagadva vagy elfogadva
  • 1:38 - 1:39
    kiváló, gyönyörűen bonyolult
  • 1:39 - 1:43
    és kecses gépeket építünk,
  • 1:43 - 1:45
    amelyek képzeletünket túlszárnyalva
  • 1:45 - 1:47
    kibővítik emberi élményeinket.
  • 1:48 - 1:50
    Pályafutásom során,
    amely a Légierő Akadémiától
  • 1:50 - 1:52
    az Űrparancsnokságig ívelt,
  • 1:52 - 1:54
    rendszermérnök lettem.
  • 1:54 - 1:57
    Nemrég a NASA
    Mars-expedíciójával kapcsolatos
  • 1:57 - 1:59
    egyik mérnöki feladatba vontak be.
  • 1:59 - 2:02
    A holdutazáskor támaszkodhatunk
  • 2:02 - 2:05
    az expedíció Houstonból
    történő irányítására,
  • 2:05 - 2:07
    amellyel leshetjük
    az út minden mozzanatát.
  • 2:07 - 2:11
    De a Mars 200-szor messzebb van,
  • 2:11 - 2:14
    ezért a jelek átlag 13 perc alatt
  • 2:14 - 2:17
    jutnak el a Földről a Marsra.
  • 2:17 - 2:20
    Ha baj történik, szűk az idő.
  • 2:21 - 2:23
    Ezért az észszerű mérnöki megoldás
  • 2:23 - 2:26
    azt diktálja, hogy az utazás irányítását
  • 2:26 - 2:29
    az Orion űrhajón belül oldjuk meg.
  • 2:29 - 2:32
    Az utazáshoz kapcsolódik
    egy másik elragadó ötlet:
  • 2:32 - 2:35
    vigyünk a Mars felszínére
    humanoid robotokat,
  • 2:35 - 2:37
    még az ember odaérkezése előtt,
  • 2:37 - 2:38
    előbb a berendezések megépítésére,
  • 2:38 - 2:42
    majd hogy hasznos tagjai
    legyenek a tudóscsoportnak.
  • 2:43 - 2:46
    Mérnöki szemszögből nézve
  • 2:46 - 2:48
    világossá vált számomra,
  • 2:48 - 2:51
    hogy okos, együttműködő,
  • 2:51 - 2:54
    szociálisan intelligens
    mesterséges értelmet kell alkotnom.
  • 2:54 - 2:58
    Azaz, a HAL-hoz valami
    nagyon hasonlót kell építenem,
  • 2:58 - 3:01
    de olyant, ami gyilkos hajlamoktól mentes.
  • 3:01 - 3:02
    (Nevetés)
  • 3:03 - 3:05
    Egy pillanat.
  • 3:05 - 3:09
    Tényleg lehetséges ilyen
    mesterséges értelmet létrehozni?
  • 3:09 - 3:10
    A válasz: igen.
  • 3:10 - 3:11
    Ez több szempontból is
  • 3:11 - 3:13
    nehéz mérnöki feladat,
  • 3:13 - 3:15
    de az MI elemeivel
  • 3:15 - 3:20
    nem olyan, amit ne lehetne megoldani.
  • 3:20 - 3:22
    Alan Turing után szabadon:
  • 3:22 - 3:25
    Nem érdekel érző gép megépítése.
  • 3:25 - 3:26
    Nem építek HAL-t.
  • 3:26 - 3:29
    Csupán egyszerű agyat akarok,
  • 3:29 - 3:32
    ami az intelligencia illúzióját kelti.
  • 3:33 - 3:36
    A számítástechnika művészete
    és tudománya hosszú utat tett meg
  • 3:36 - 3:38
    a HAL képernyőre kerüléséig,
  • 3:38 - 3:41
    és elképzelem, ha feltalálója,
    dr. Chandra most itt lenne,
  • 3:41 - 3:43
    lenne hozzánk jó pár kérdése.
  • 3:43 - 3:45
    Meg tudjuk-e valósítani,
  • 3:45 - 3:49
    hogy milliók rendszerét
    milliónyi gépre telepítve
  • 3:49 - 3:51
    elolvassuk az adatfolyamukat,
  • 3:51 - 3:53
    hogy előre megtippeljük
    hibáikat és tetteiket?
  • 3:53 - 3:54
    Igen.
  • 3:54 - 3:58
    Képesek vagyunk-e emberi nyelven
    beszélő gépeket építeni?
  • 3:58 - 3:58
    Igen.
  • 3:58 - 4:02
    Képesek vagyunk-e tárgyfölismerő,
    érzelmeket azonosító,
  • 4:02 - 4:05
    érzelmüket kifejező, játékot játszó
    és szájról olvasó gépeket építeni?
  • 4:05 - 4:06
    Igen.
  • 4:07 - 4:09
    Képesek vagyunk-e célokat kitűző,
  • 4:09 - 4:12
    célokat megvalósító és menet
    közben tanuló gépeket építeni?
  • 4:12 - 4:13
    Igen.
  • 4:14 - 4:17
    Képesek vagyunk-e tudatelmélettel
    bíró rendszereket építeni?
  • 4:17 - 4:18
    Ezt most tanuljuk.
  • 4:18 - 4:22
    Képesek vagyunk-e etikai és erkölcsi
    alapokon álló gépeket építeni?
  • 4:22 - 4:25
    Ezt még meg kell tanulnunk.
  • 4:25 - 4:27
    Egyelőre fogadjuk el,
  • 4:27 - 4:30
    hogy űrutazásokra képesek
    vagyunk megépíteni
  • 4:30 - 4:32
    ilyen mesterséges értelmet.
  • 4:32 - 4:34
    A következő kérdés:
  • 4:34 - 4:36
    kell-e félnünk tőle?
  • 4:36 - 4:38
    Minden új technológia
  • 4:38 - 4:41
    bizonyos mértékű felbolydulást okoz.
  • 4:41 - 4:42
    Az első kocsik megpillantásakor
  • 4:43 - 4:47
    az emberek azon siránkoztak,
    hogy tönkremennek a családok.
  • 4:47 - 4:49
    Az első telefonok megjelenésekor
  • 4:49 - 4:52
    az emberek attól tartottak,
    hogy kipusztul az emberi beszéd.
  • 4:52 - 4:56
    Amikor elterjedt a nyomtatott írás,
  • 4:56 - 4:59
    az emberek azt hitték,
    elvész az emlékezőtehetségünk.
  • 4:59 - 5:01
    Bizonyos fokig ez mind igaz,
  • 5:01 - 5:03
    de az is tény, hogy az új technológiák
  • 5:03 - 5:05
    alapvetően az emberi élmények
  • 5:05 - 5:08
    kibővítését eredményezték.
  • 5:10 - 5:12
    Gondolkodjunk el ezen egy kicsit.
  • 5:13 - 5:18
    Nem félek az MI létrehozásától,
  • 5:18 - 5:22
    mert meg fogja testesíteni
    némely értékünket.
  • 5:22 - 5:25
    Vegyük tekintetbe, hogy kognitív rendszert
    építeni teljesen más,
  • 5:25 - 5:29
    mint hagyományos szoftveres rendszert.
  • 5:29 - 5:31
    Az MI-ket nem programozzuk,
    hanem tanítjuk.
  • 5:31 - 5:34
    Hogy megtanítsam a virág fölismerését,
  • 5:34 - 5:37
    a rendszernek ezernyi
    ilyesféle virágot mutatok.
  • 5:37 - 5:39
    Hogy megtanítsam játékot játszani...
  • 5:39 - 5:41
    Megtenném. Önök is.
  • 5:43 - 5:45
    Szeretem a virágokat. Tényleg.
  • 5:45 - 5:48
    Hogy megtanítsam a gépnek
    a go játékot játszani,
  • 5:48 - 5:50
    ezernyi játszmát kell vele játszanom,
  • 5:50 - 5:52
    de közben tanítom is,
  • 5:52 - 5:54
    hogyan különböztesse meg
    a jó játszmát a rossztól.
  • 5:55 - 5:58
    Ha mesterségesen intelligens
    jogi segéderőt akarnék csinálni,
  • 5:58 - 6:00
    betanítanék neki néhány törvénykönyvet,
  • 6:00 - 6:02
    de egyben beleplántálnám
  • 6:02 - 6:06
    az irgalom s az igazságosság érzését,
    amelyek hozzátartoznak a joghoz.
  • 6:07 - 6:10
    Tudományosan ezt hívjuk alapigazságnak,
  • 6:10 - 6:12
    s ez a fontos, ez a lényeg:
  • 6:12 - 6:13
    a gépek készítésekor
  • 6:13 - 6:16
    ezért tanítjuk nekik
    az értékeink iránti fogékonyságot.
  • 6:17 - 6:20
    Ezért ugyanúgy bízom, ha nem jobban,
  • 6:20 - 6:23
    a mesterséges értelemben,
    mint a jól képzett emberben.
  • 6:24 - 6:26
    De kérdezhetik, mi a helyzet
  • 6:27 - 6:28
    a gazemberekkel,
  • 6:28 - 6:31
    a gazdag civil szervezetekkel?
  • 6:31 - 6:35
    Nem tartok attól, hogy a MI
    egy magányos farkas kezébe kerül.
  • 6:35 - 6:40
    Tény, hogy nem tudjuk magunkat megvédeni
    a spontán erőszakos cselekedetektől,
  • 6:40 - 6:42
    de az a helyzet, hogy egy ilyen rendszer
  • 6:42 - 6:45
    alapos, kifinomult kiképzést igényel,
  • 6:45 - 6:47
    ami jócskán meghaladja
    egy egyén erőforrásait.
  • 6:47 - 6:49
    Továbbá,
  • 6:49 - 6:52
    ez sokkal több, mint egy internetvírust
    kibocsátani a világba;
  • 6:52 - 6:55
    ott csak leütünk egy billentyűt,
    és hirtelen milliónyi helyen
  • 6:55 - 6:57
    és laptopon működésbe lépnek.
  • 6:57 - 7:00
    Ezek az állományok sokkal nagyobbak,
  • 7:00 - 7:02
    és biztos eljön az idejük.
  • 7:03 - 7:06
    Féljek-e, hogy ilyen mesterséges értelem
  • 7:06 - 7:08
    az egész emberiséget veszélyeztetheti?
  • 7:08 - 7:13
    Ha megnézzük a Mátrix, a Metropolis,
  • 7:13 - 7:16
    a Terminátor c. filmeket,
    a Westworld c. filmsorozatot,
  • 7:16 - 7:18
    mind az efféle félelemről szólnak.
  • 7:18 - 7:22
    Nick Bostrom filozófus
    a Szuperintelligencia c. könyvében
  • 7:22 - 7:24
    foglalkozik a témával:
  • 7:24 - 7:28
    figyelmeztet, hogy a szuper-intelligencia
    nemcsak veszélyes lehet,
  • 7:28 - 7:32
    hanem az emberiség létét is fenyegetheti.
  • 7:32 - 7:34
    Dr. Bostrom fő érve,
  • 7:34 - 7:37
    hogy az ilyen rendszereknek végül
  • 7:37 - 7:40
    olyan telhetetlen információéhségük lehet,
  • 7:40 - 7:43
    hogy talán azt is megtanulják,
    hogyan kell tanulni,
  • 7:43 - 7:46
    és végső fokon rájönnek,
    hogy olyan céljaik lehetnek,
  • 7:46 - 7:48
    amelyek ellentétesek
    az emberi szükségletekkel.
  • 7:48 - 7:50
    Dr. Bostromnak sok követője van.
  • 7:50 - 7:54
    Elon Musk
    és Stephen Hawking is támogatja például.
  • 7:55 - 7:57
    E ragyogó elmék iránti
  • 7:58 - 8:00
    minden kötelező tiszteletem ellenére,
  • 8:00 - 8:02
    úgy vélem, hogy alapvetően tévednek.
  • 8:02 - 8:06
    Dr. Bostromnak számos,
    megvizsgálásra érdemes érve van,
  • 8:06 - 8:08
    de most itt nincs időnk mindegyikre.
  • 8:08 - 8:11
    Dióhéjban, gondoljuk át a következőket:
  • 8:11 - 8:14
    a szuper tudás egészen más,
    mint a szuper cselekedet.
  • 8:14 - 8:17
    A HAL akkor jelentett fenyegetést
    a Discovery személyzetére,
  • 8:17 - 8:21
    amikor a Discoveryt
    teljesen ő irányította.
  • 8:21 - 8:23
    Ehhez szuper intelligensnek kell lennie.
  • 8:23 - 8:26
    Ez világuralmat jelentene.
  • 8:26 - 8:28
    Aztán itt van a Skynet a Terminátorból,
  • 8:28 - 8:30
    amelyben szuper intelligencia van,
  • 8:30 - 8:32
    amely az emberi akaratot irányítja;
  • 8:32 - 8:36
    az egész világon minden készüléket
    a Skynet irányít.
  • 8:36 - 8:37
    Ilyen a gyakorlatban
  • 8:37 - 8:39
    nem történhet meg.
  • 8:39 - 8:42
    Nem építünk olyan MI-t,
    amely az időjárást
  • 8:42 - 8:44
    vagy a dagályt irányítja,
  • 8:44 - 8:47
    vagy nekünk, szeszélyes,
    zűrös embereknek parancsol.
  • 8:47 - 8:51
    Továbbá, ha létezne is
    ilyen mesterséges értelem,
  • 8:51 - 8:54
    meg kellene küzdenie
    az emberi takarékoskodással,
  • 8:54 - 8:57
    és ezért harcolnia kellene
    velünk az erőforrásokért.
  • 8:57 - 8:58
    Végül...
  • 8:58 - 9:00
    – meg ne mondják Sirinek –,
  • 9:00 - 9:02
    bármikor kikapcsolhatjuk őket.
  • 9:02 - 9:04
    (Nevetés)
  • 9:05 - 9:08
    A gépeinkkel közös
  • 9:08 - 9:10
    hihetetlen fejlődési úton járunk.
  • 9:10 - 9:13
    Ma emberekként nem olyanok vagyunk,
  • 9:13 - 9:15
    mint amilyenek egykor leszünk.
  • 9:15 - 9:19
    A szuper intelligencia megjelenése
    miatti mai aggodalmak
  • 9:19 - 9:22
    több szempontból
    veszélyes figyelemelterelés,
  • 9:22 - 9:24
    mert a számítástechnika fejlődése
    már önmagában is
  • 9:24 - 9:27
    egy csomó emberi
    és társadalmi kérdést vet föl,
  • 9:27 - 9:29
    amelyekbe be kell kapcsolódnunk.
  • 9:29 - 9:32
    Hogyan szervezzem
    a legjobban a társadalmat,
  • 9:32 - 9:35
    ha a munkaerő-szükséglet csökken?
  • 9:35 - 9:38
    Hogyan érhető el megértés
    és végezhető oktatás a Földön,
  • 9:38 - 9:40
    a különbségek tiszteletben tartásával?
  • 9:40 - 9:44
    Hogyan hosszabbítható meg és javítható
    az élet kognitív egészségügy révén?
  • 9:44 - 9:47
    Hogyan használhatom a számítástechnikát,
  • 9:47 - 9:49
    hogy eljussunk a csillagokba?
  • 9:50 - 9:52
    Ez itt az izgató kérdés.
  • 9:52 - 9:55
    A számítástechnikában rejlő
    lehetőségek kihasználása
  • 9:55 - 9:56
    az emberi élmények javítására
  • 9:56 - 9:58
    jelenleg csak
  • 9:58 - 10:00
    karnyújtásnyira van,
  • 10:00 - 10:01
    és ez csupán a kezdet.
  • 10:02 - 10:03
    Köszönöm szépen.
  • 10:04 - 10:08
    (Taps)
Title:
Ne féljünk a szuper-intelligens mesterséges értelemtől!
Speaker:
Grady Booch
Description:

Az új technika új félelmeket szül – mondja Grady Booch, tudós és filozófus, de a mindenható, érzéketlen mesterséges értelemtől nem kell félnünk. Booch csillapítja a sci-fi keltette legrosszabb félelmünket a szuper-intelligens számítógépektől, mert elmagyarázza, hogyan taníthatjuk (és nem programozhatjuk) őket, hogy alkalmazkodjanak értékrendünkhöz. Ahelyett, hogy létünk valószínűtlen fenyegetettsége miatt nyugtalankodnánk, Booch arra sarkall bennünket, gondoljunk bele, hogy a mesterséges értelem mennyit javíthat az emberek életén.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20
Csaba Lóki commented on Hungarian subtitles for Don't fear superintelligent AI
Csaba Lóki approved Hungarian subtitles for Don't fear superintelligent AI
Csaba Lóki edited Hungarian subtitles for Don't fear superintelligent AI
Csaba Lóki edited Hungarian subtitles for Don't fear superintelligent AI
Csaba Lóki edited Hungarian subtitles for Don't fear superintelligent AI
Melissa Csikszentmihályi accepted Hungarian subtitles for Don't fear superintelligent AI
Melissa Csikszentmihályi edited Hungarian subtitles for Don't fear superintelligent AI
Melissa Csikszentmihályi edited Hungarian subtitles for Don't fear superintelligent AI
Show all
  • A Description javítandó:
    "Az új technika új félelmeket szül – mondja Grady Booch..."
    és
    "...Booch arra sarkall bennünket, gondoljunk bele, hogy a mesterséges értelem..."

    A fránya Amara megint nem akar menteni.

  • A "nerd" inkább "kocka" értelemben használatos. "Buzgó mócsing"-ot nem érzem ideillőnek. Ha elfogadjátok...

Hungarian subtitles

Revisions