Return to Video

Létrehozhatunk olyan mesterséges intelligenciát [MI], amely felett nem veszítjük el az irányítást?

  • 0:01 - 0:03
    A hibás előérzetekről fogok beszélni,
  • 0:03 - 0:05
    amitől oly sokan szenvedünk.
  • 0:05 - 0:09
    Valóban hibás egy bizonyos fajta
    veszély felismerése.
  • 0:09 - 0:11
    Felvázolok egy forgatókönyvet,
  • 0:11 - 0:14
    amelyről úgy gondolom egyszerre ijesztő,
  • 0:14 - 0:16
    és bekövetkezése egyben valószínűsíthető,
  • 0:17 - 0:19
    és ez a kettő együtt nem jó kombináció,
  • 0:19 - 0:20
    ahogy az bebizonyosodik majd.
  • 0:20 - 0:23
    Ennek ellenére a többségetek
    az ijedtség helyett úgy érzi majd,
  • 0:23 - 0:25
    hogy amiről beszélek, egy menő dolog.
  • 0:25 - 0:28
    El fogom magyarázni,
  • 0:28 - 0:30
    hogy a mesterséges intelligencia fejlődése
  • 0:30 - 0:32
    miként semmisíthet meg bennünket.
  • 0:32 - 0:35
    Úgy vélem, nehezebb felismerni,
    hogyan nem pusztítanak el minket,
  • 0:35 - 0:38
    vagy buzdítanak minket
    önmagunk elpusztítására.
  • 0:38 - 0:39
    De ha kicsit is hasonlítasz rám,
  • 0:39 - 0:42
    rájössz majd, mennyire vicces dolog
    ezeken elmélkedni.
  • 0:42 - 0:45
    És ez a fajta reakció
    szintén a probléma része.
  • 0:45 - 0:48
    Értitek ugye? A reakció miatt
    aggódnotok kellene.
  • 0:48 - 0:51
    Ha az előadással meg tudlak
    győzni benneteket,
  • 0:51 - 0:54
    hogy a globális éhínség várhatóan
    bekövetkezik majd,
  • 0:54 - 0:57
    klímaváltozás vagy
    más katasztrófa hatására,
  • 0:57 - 1:01
    és hogy az unokátokra, vagy az ő unokáikra
  • 1:01 - 1:03
    nagy valószínűséggel hasonló élet vár,
  • 1:03 - 1:05
    magatokban nem gondolnátok:
  • 1:05 - 1:07
    "Érdekes.
  • 1:07 - 1:08
    Tetszik ez a TED előadás."
  • 1:09 - 1:11
    Az éhínség nem vicc.
  • 1:12 - 1:15
    A tudományos-fantasztikum általi halál
    ezzel ellentétben vicces,
  • 1:15 - 1:19
    de ami engem aggaszt leginkább,
    a MI jelenlegi állapotát illetően,
  • 1:19 - 1:23
    hogy képtelenek vagyunk
    az előttünk álló veszélyekhez
  • 1:23 - 1:25
    megfelelő érzelmi reakciót párosítani.
  • 1:25 - 1:28
    Képtelen vagyok irányítani a reakciót,
    pedig én tartom az előadást.
  • 1:30 - 1:33
    Olyan, mintha két ajtó előtt állnánk.
  • 1:33 - 1:34
    Az egyes számú ajtó mögött
  • 1:34 - 1:36
    leállunk az intelligens gépek
    fejlesztésével.
  • 1:37 - 1:41
    Valamilyen okból a hardverek és
    szoftverek fejlesztése leáll.
  • 1:41 - 1:44
    Egy percre kérlek, gondoljatok bele,
    miért történne ilyesmi.
  • 1:45 - 1:49
    Tudván, mekkora érték rejlik
    az intelligenciában és automatizálásban,
  • 1:49 - 1:52
    ha mód van rá, folytatni fogjuk
    a technológiai fejlesztéseket.
  • 1:53 - 1:55
    Mi állhatna az utunkba?
  • 1:56 - 1:58
    Egy mindent elsöprő nukleáris háború?
  • 1:59 - 2:01
    Egy globális járvány?
  • 2:02 - 2:04
    Egy aszteroida becsapódása?
  • 2:06 - 2:08
    Justin Biebert megválasztják elnöknek?
  • 2:08 - 2:11
    (Nevetés)
  • 2:13 - 2:17
    Bármi legyen is, az általunk ismert
    civilizációt kellene megsemmisítse.
  • 2:17 - 2:22
    Képzeld el, mennyire borzasztónak
    kellene lennie ahhoz,
  • 2:22 - 2:25
    hogy leálljunk a technológiai
    fejlesztésekkel,
  • 2:25 - 2:26
    egyik nemzedék a másik után,
  • 2:26 - 2:28
    mindörökre.
  • 2:28 - 2:31
    Fogalmazhatnánk úgy is,
    hogy ez a legrosszabb,
  • 2:31 - 2:33
    ami valaha történhet
    az emberiség történelmében.
  • 2:33 - 2:34
    Így az egyetlen alternatíva,
  • 2:34 - 2:36
    és ez rejlik a kettes számú ajtó mögött,
  • 2:36 - 2:39
    hogy folytatjuk
    az intelligens gépek fejlesztését,
  • 2:39 - 2:41
    egyik évről a másikra.
  • 2:42 - 2:45
    És elérkezünk a ponthoz, amikor nálunk
    okosabb gépeket hozunk létre.
  • 2:46 - 2:49
    És amint létrehoztuk
    a minket meghaladó okos gépeket,
  • 2:49 - 2:51
    megkezdik majd önmaguk fejlesztését.
  • 2:51 - 2:53
    És ezzel megkockáztatjuk azt,
    amit IJ Good matematikus
  • 2:53 - 2:55
    úgy hívott: "intelligencia-robbanás".
  • 2:55 - 2:58
    Amikor a fejlődésük
    kicsúszik a kezünk közül.
  • 2:58 - 3:01
    Sokszor kifigurázzák, mint én is itt,
  • 3:01 - 3:04
    miként rettegünk a rosszindulatú robotok
  • 3:04 - 3:05
    támadásától.
  • 3:05 - 3:08
    De nem ez a legvalószínűbb forgatókönyv.
  • 3:08 - 3:13
    A gépek nem fognak egyik pillanatról
    a másikra gonosszá válni.
  • 3:13 - 3:16
    A valós aggály abban rejlik,
    hogy olyan gépeket hozunk létre,
  • 3:16 - 3:18
    melyek meghaladják a mi képességeinket,
  • 3:18 - 3:22
    és a legapróbb összeférhetetlenség
    az ő és saját céljaink között
  • 3:22 - 3:23
    a végünket jelentheti.
  • 3:24 - 3:27
    Csak gondoljatok bele, mi hogyan
    viszonyulunk a hangyákhoz.
  • 3:27 - 3:28
    Nem utáljuk őket.
  • 3:28 - 3:30
    Nem akarjuk szándékosan bántalmazni őket.
  • 3:30 - 3:33
    Sőt, néha megóvásukra
    áldozatokat is hozunk értük.
  • 3:33 - 3:35
    Kikerüljük őket a járdán.
  • 3:35 - 3:37
    De amint összeütközik a jelenlétük
  • 3:37 - 3:39
    a céljaink megvalósításával,
  • 3:39 - 3:42
    mint például egy ilyen
    épület felhúzásakor,
  • 3:42 - 3:44
    szemrebbenés nélkül kiírtjuk valamennyit.
  • 3:44 - 3:47
    A gond az, hogy egy napon
    olyan gépeket hozunk létre,
  • 3:47 - 3:50
    amelyek, akár tudatosak akár nem,
  • 3:50 - 3:52
    hasonlóképpen viszonyulnak majd hozzánk.
  • 3:54 - 3:57
    Gondolom, ez sokatok számára,
    elképzelhetetlennek tűnik.
  • 3:57 - 4:04
    Fogadni mernék, hogy egyesek a MI
    lehetőségét is megkérdőjelezik,
  • 4:04 - 4:05
    mintsem elkerülhetetlennek véljék.
  • 4:05 - 4:09
    De akkor valami mégsem stimmel
    a következő feltevésekkel.
  • 4:09 - 4:11
    Amiből mindössze csak három van.
  • 4:12 - 4:17
    Az intelligencia a fizikai rendszerekben
    feldolgozott információból származik.
  • 4:17 - 4:20
    Tulajdonképpen, ez kicsivel
    több puszta feltevésnél.
  • 4:20 - 4:23
    A közvetlen intelligenciát
    már beépítettük a gépeinkbe,
  • 4:23 - 4:25
    mely gépek többsége már most
  • 4:25 - 4:28
    emberfeletti teljesítményekre képes.
  • 4:29 - 4:31
    Azt is tudjuk, hogy az anyag önmagában
  • 4:31 - 4:34
    életre tudja hívni az úgynevezett
    "alap intelligenciát,"
  • 4:34 - 4:38
    a különböző tartományokon belüli
    rugalmas gondolkodás képességét,
  • 4:38 - 4:41
    hiszen saját agyunk is
    képes volt rá, nem igaz?
  • 4:41 - 4:45
    Mivel itt legbelül csak atomok vannak,
  • 4:45 - 4:49
    és amíg atomokból álló
    rendszereket építünk,
  • 4:49 - 4:52
    melyek egyre intelligensebb
    viselkedést mutatnak,
  • 4:52 - 4:55
    akkor egyszer, hacsak nem lépünk közbe,
  • 4:55 - 4:58
    akkor egyszer megépítjük
    az alap intelligenciával
  • 4:58 - 4:59
    rendelkező gépeket.
  • 4:59 - 5:03
    Mindennél fontosabb azonban felismerni,
    hogy a fejlődés üteme lényegtelen,
  • 5:03 - 5:06
    mert a fejlődés önmagában
    elegendő ahhoz, hogy célba érjünk.
  • 5:06 - 5:10
    Nincs szükségünk Moore-törvényre,
    sem exponenciális növekedésre.
  • 5:10 - 5:12
    Csak haladnunk kell tovább.
  • 5:13 - 5:16
    A második feltevés, hogy haladunk tovább.
  • 5:17 - 5:20
    Egyre intelligensebb gépeket hozunk létre.
  • 5:21 - 5:25
    És ami az intelligencia értékét illeti --
  • 5:25 - 5:29
    az intelligencia, vagy a forrása
    a számunkra értékesnek,
  • 5:29 - 5:32
    vagy megóvja számunkra mindazt,
    amit értékesnek tartunk.
  • 5:32 - 5:34
    Az egyik legértékesebb erőforrásunk.
  • 5:34 - 5:36
    Szóval megakarjuk alkotni.
  • 5:36 - 5:39
    Vannak problémák, melyeket
    haladéktalanul meg kell oldanunk.
  • 5:39 - 5:42
    Meg akarjuk gyógyítani az Alzheimert,
    a rákot és hasonló betegségeket.
  • 5:43 - 5:47
    Érteni akarjuk a gazdasági rendszereket.
    Javítani akarjuk a klímaismereteinket.
  • 5:47 - 5:49
    Amint mód van rá, megtesszük ezeket.
  • 5:49 - 5:52
    A vonat már elhagyta az állomást,
    és nincs fék, amit behúzhatnánk.
  • 5:54 - 5:59
    Végül is nem vagyunk
    az intelligencia tetőfokán,
  • 5:59 - 6:01
    de még csak a közelében sem járunk.
  • 6:02 - 6:04
    És ez itt a lényeges momentum.
  • 6:04 - 6:06
    Ez teszi a helyzetünket
    különösen bizonytalanná,
  • 6:06 - 6:10
    és pont ezért megbízhatatlanok
    a veszélyhez fűződő előérzeteink.
  • 6:11 - 6:14
    Képzeljük el a valaha élt
    legokosabb embert.
  • 6:15 - 6:18
    Minden bizonnyal Neumann János
    szerepel mindenki listáján.
  • 6:18 - 6:21
    Ahogy Neumann hatni tudott
    a körülötte lévő emberekre,
  • 6:21 - 6:25
    többek között minden idők legjobb
    matematikusaira és fizikusaira,
  • 6:26 - 6:27
    annak bárki utánajárhat.
  • 6:27 - 6:31
    Ha a róla szóló történeteknek
    csak a fele is igaz,
  • 6:31 - 6:32
    akkor kétségkívül
  • 6:33 - 6:35
    ő a világon valaha élt legokosabb ember.
  • 6:35 - 6:38
    Képzeljük el az intelligencia tartományát.
  • 6:38 - 6:40
    Itt van Neumann János.
  • 6:42 - 6:43
    És itt vagytok ti és én.
  • 6:44 - 6:45
    Itt pedig egy csirke.
  • 6:45 - 6:47
    (Nevetés)
  • 6:47 - 6:49
    Elnézést, egy kiscsirke.
  • 6:49 - 6:50
    (Nevetés)
  • 6:50 - 6:54
    Nem akarom ezt a beszédet
    még lesújtóbbá tenni.
  • 6:54 - 6:55
    (Nevetés)
  • 6:56 - 7:00
    Valószínűsíthető,
    hogy az intelligencia tartománya
  • 7:00 - 7:03
    sokkalta tágabb,
    mint ahogy azt gondolnánk,
  • 7:04 - 7:07
    és ha magunknál intelligensebb
    gépeket építünk,
  • 7:07 - 7:10
    akkor azok valószínűleg olyan
    területeket tárnak fel,
  • 7:10 - 7:11
    melyeket elképzelni sem tudunk,
  • 7:11 - 7:14
    és ott múlnak felül minket,
    ahol nem is sejtjük.
  • 7:15 - 7:19
    Fontos belátni, hogy ez pusztán
    a sebességet tekintve már igaz.
  • 7:19 - 7:24
    Ugye? Mi lenne, ha olyan
    szuperintelligens MI-t hoznánk létre,
  • 7:24 - 7:28
    ami semmivel sem okosabb
    egy hétköznapi kutatócsoportnál
  • 7:28 - 7:30
    az MIT-n vagy a Stanford Egyetemen.
  • 7:30 - 7:33
    Az elektronikus áramkörök
    milliószor gyorsabban működnek,
  • 7:33 - 7:34
    mint a biokémiaiak,
  • 7:35 - 7:38
    ezért ez a gép milliószor gyorsabb
    gondolkodásra lesz képes,
  • 7:38 - 7:40
    mind azok az elmék, akik ezt létrehozták.
  • 7:40 - 7:42
    Szóval életre kelted,
    és alig egy hét alatt
  • 7:42 - 7:46
    20 000 évnyi emberi
    szellemi munkát végez el.
  • 7:46 - 7:48
    És ezt hétről hétre megismétli.
  • 7:50 - 7:53
    Képtelenség felfogni,
    nemhogy kordában tartani
  • 7:53 - 7:55
    egy elmét, ami ilyen mértékű
    fejlődésre képes.
  • 7:57 - 7:59
    A másik, ami aggodalomra ad okot,
    őszintén szólva,
  • 7:59 - 8:04
    ez a legjobb, ami megtörténhet velünk.
  • 8:04 - 8:08
    Képzeljük el, hogy olyan
    szuperintelligens MI-t alkotunk,
  • 8:08 - 8:10
    ami nem rejt biztonsági kockázatokat.
  • 8:10 - 8:13
    Rögtön, elsőre létrehozzuk
    a legtökéletesebb változatát.
  • 8:13 - 8:15
    Mintha kezünkbe kapnánk a mindentudást,
  • 8:15 - 8:17
    ami pont úgy működik, ahogy kell.
  • 8:17 - 8:21
    Ez a gép lenne a leghatékonyabb
    munkaerő-helyettesítő berendezés.
  • 8:21 - 8:24
    Létrehozná a gépet,
    amely létrehozná azt a gépet,
  • 8:24 - 8:26
    amely bármilyen fizikai munkát elvégez,
  • 8:26 - 8:27
    napenergia hajtja,
  • 8:27 - 8:30
    és költségét csak az anyagköltség okozza.
  • 8:30 - 8:33
    Az emberi robotolás végéről beszélünk.
  • 8:33 - 8:36
    De ez egyben a szellemi
    munka végét is jelenti.
  • 8:37 - 8:40
    Vajon ilyen esetben mit tennének
    a hozzánk hasonló emberszabásúak?
  • 8:40 - 8:44
    Nos, bármikor frizbizhetnénk,
    vagy masszírozhatnánk egymást.
  • 8:46 - 8:49
    Jöhet egy kis LSD,
    pár extravagáns ruhadarab,
  • 8:49 - 8:51
    és az egész világ
    Burning Manné változhatna.
  • 8:51 - 8:53
    (Nevetés)
  • 8:54 - 8:56
    Ez tényleg jó mókának hangzik,
  • 8:57 - 9:00
    de tegyétek fel magatoknak a kérdést,
  • 9:00 - 9:03
    hogy mi történne a jelenlegi
    gazdasági és politika rendszerekkel.
  • 9:03 - 9:05
    Azt hiszem, szemtanúi lehetnénk
  • 9:05 - 9:08
    egy soha nem látott mértékű
  • 9:08 - 9:11
    jóléti aránytalanságnak
    és munkanélküliségnek.
  • 9:11 - 9:13
    Hacsak nem állítanánk
    ezt az újfajta jólétet
  • 9:13 - 9:15
    az emberiség szolgálatába,
  • 9:16 - 9:19
    akkor pár milliárdos villogna
    az üzleti magazinok címlapján,
  • 9:19 - 9:22
    miközben a világ többi
    része éhen pusztulna.
  • 9:22 - 9:25
    Vajon mit tennének
    az oroszok vagy a kínaiak,
  • 9:25 - 9:27
    ha megtudnák, hogy az egyik
    Szilícium-völgyben lévő cég
  • 9:27 - 9:30
    bevetni készül a szuperintelligens MI-t?
  • 9:30 - 9:33
    Ez a gép a hadviselésre is képes lenne,
  • 9:33 - 9:35
    akár földön, akár a kibertérben,
  • 9:35 - 9:37
    soha nem tapasztalt erőfölénnyel.
  • 9:38 - 9:40
    Ez a győztes-mindent-visz forgatókönyv.
  • 9:40 - 9:43
    Ezt a versenyt hat hónappal beelőzni,
  • 9:43 - 9:46
    minimum
  • 9:46 - 9:47
    500 000 év szükséges.
  • 9:47 - 9:52
    Ezért már az ilyen áttörésről
    szóló leghalványabb pletyka is
  • 9:52 - 9:55
    fajunk totális megvadulásába torkollhat.
  • 9:55 - 9:58
    A legijesztőbb dolog azonban
  • 9:58 - 10:00
    - az én meglátásom szerint -
    jelen pillanatban az,
  • 10:00 - 10:05
    amit az MI-kutatók mondogatnak,
  • 10:05 - 10:06
    amikor meg akarnak nyugtatni minket.
  • 10:07 - 10:10
    Az aggodalmakra adott
    leggyakoribb válaszuk az idő.
  • 10:10 - 10:13
    Annyira messze van még,
    hát nem tudjátok.
  • 10:13 - 10:15
    50 vagy 100 év is eltelik addig.
  • 10:16 - 10:17
    Az egyik kutató szerint:
  • 10:17 - 10:19
    "A MI biztonsága miatt aggódni olyan,
  • 10:19 - 10:21
    mintha a túlnépesedés
    miatt aggódnánk a Marson."
  • 10:22 - 10:24
    Ez a szilícium-völgyi változata annak,
  • 10:24 - 10:26
    hogy "ne törd ezen a szép kis buksidat".
  • 10:26 - 10:27
    (Nevetés)
  • 10:28 - 10:29
    Senkinek nem tűnik fel,
  • 10:29 - 10:32
    hogy az időhorizontra való hivatkozás,
  • 10:32 - 10:35
    totál nem passzol a képbe.
  • 10:35 - 10:38
    Ha az intelligencia csupán
    az információ feldolgozásából áll,
  • 10:38 - 10:41
    és mi folytatjuk a gépek fejlesztését,
  • 10:41 - 10:44
    akkor létre fogunk hozni
    valamiféle szuperintelligenciát.
  • 10:44 - 10:48
    És fogalmunk sincs mennyi
    időbe telik majd megteremteni
  • 10:48 - 10:50
    a biztonságos kivitelezés feltételeit.
  • 10:52 - 10:53
    Hadd ismételjem meg:
  • 10:54 - 10:57
    Fogalmunk sincs mennyi
    időbe telik majd megteremteni
  • 10:57 - 11:00
    a biztonságos kivitelezés feltételeit.
  • 11:01 - 11:04
    Ha nem tűnt volna fel, az elmúlt
    50 év sem olyan, mint az előzőek.
  • 11:04 - 11:07
    Ez az 50 év hónapokra bontva.
  • 11:07 - 11:09
    Ilyen régóta létezik az iPhone.
  • 11:09 - 11:12
    Ilyen régóta megy a tévében a
    "Simpson család".
  • 11:13 - 11:15
    50 év nem egy hosszú idő,
  • 11:15 - 11:18
    hogy elérkezzünk fajunk egyik
    legnagyobb kihívásához.
  • 11:20 - 11:24
    Ismétlem: képtelenek vagyunk
    megfelelő érzelmi reakcióval kezelni,
  • 11:24 - 11:26
    ami minden kétséget kizáróan előttünk áll.
  • 11:26 - 11:30
    Stuart Russell számítógéptudósnak
    van egy szép analógiája.
  • 11:30 - 11:35
    Azt mondta: Képzeljük el, hogy kapunk
    egy üzenetet egy idegen civilizációtól,
  • 11:35 - 11:37
    amiben ez áll:
  • 11:37 - 11:39
    "Földi népség,
  • 11:39 - 11:41
    50 év múlva érkezünk.
  • 11:42 - 11:43
    Készüljetek fel!"
  • 11:43 - 11:48
    Elkezdenénk visszaszámlálni,
    amíg meg nem érkezik az anyahajó?
  • 11:48 - 11:51
    Sokkal sürgetőbbnek éreznénk, mint most.
  • 11:53 - 11:55
    Az aggodalmakra adott másik válasz,
  • 11:55 - 11:58
    hogy ezek a gépek
    osztják a mi nézeteinket,
  • 11:58 - 12:00
    mivel ők a mi saját kiterjesztéseink.
  • 12:00 - 12:02
    Az agyunkba lesznek ültetve,
  • 12:02 - 12:04
    aminek folytán limbikus
    rendszerükké válunk.
  • 12:05 - 12:07
    Egyetlen pillanatra gondoljunk csak bele,
  • 12:07 - 12:10
    azt javasolják,
  • 12:10 - 12:12
    hogy az egyetlen biztonságos
    és megbízható módszer az,
  • 12:12 - 12:15
    ha ezt a technológiát közvetlenül
    az agyunkba ültetjük be.
  • 12:15 - 12:19
    Nos, lehet, hogy az egyetlen
    biztonságos és megbízható módszer,
  • 12:19 - 12:21
    de a technológiák biztonsági kockázatait
  • 12:21 - 12:25
    alaposan tesztelni kéne,
    mielőtt bármit bárki fejébe ültetnék.
  • 12:25 - 12:27
    (Nevetés)
  • 12:27 - 12:32
    A mélyebb probléma az, hogy egy
    szuperintelligens MI létrehozása,
  • 12:32 - 12:34
    már önmagában is egyszerűbbnek bizonyul,
  • 12:34 - 12:36
    mint létrehozni a szuperintelligens MI-t,
  • 12:36 - 12:38
    és megalkotni hozzá
    a szükséges idegtudományt,
  • 12:38 - 12:42
    amely lehetővé teszi a saját elménkkel
    való gond nélküli összekapcsolását.
  • 12:42 - 12:44
    És mivel az ezen dolgozó
    vállalatok és kormányok
  • 12:44 - 12:48
    vetélytársként tekintenek egymásra,
  • 12:48 - 12:51
    mondván, hogy a verseny győzelme
    egyben a világ feletti győzelem is,
  • 12:51 - 12:53
    hacsak nem rombolják le
    a következő pillanatban,
  • 12:53 - 12:56
    akkor valószínűleg a könnyebb megoldás
  • 12:56 - 12:57
    fog előbb megvalósulni.
  • 12:59 - 13:01
    Nos, sajnos a problémára
    nem tudom a megoldást.
  • 13:01 - 13:04
    Csak javasolni tudom, hogy minél
    többen gondolkodjunk el ezen.
  • 13:04 - 13:07
    Úgy vélem, szükségünk lenne
    a mesterséges intelligencia
  • 13:07 - 13:09
    Manhattan-projektjére.
  • 13:09 - 13:13
    Nem a megépítéséhez, mert azt hiszem,
    ez elkerülhetetlen,
  • 13:13 - 13:16
    hanem hogy megértsük, hogyan kerüljük el
    a fegyverkezési versenyt,
  • 13:16 - 13:19
    és hozzuk létre úgy, hogy összhangban
    legyen az érdekeinkkel.
  • 13:19 - 13:21
    Ha szuperintelligens MI-ról beszélünk,
  • 13:21 - 13:23
    amely önmaga megváltoztatására is képes,
  • 13:23 - 13:27
    akkor egyetlen esélyünk van a kezdeti
    feltételek helyes meghatározására,
  • 13:27 - 13:29
    és még akkor is szükség lesz az ezzel járó
  • 13:29 - 13:32
    gazdasági és politikai
    következmények elfogadására.
  • 13:34 - 13:36
    És amint elfogadjuk,
  • 13:36 - 13:40
    hogy az intelligencia forrása az
    információ feldolgozásában rejlik,
  • 13:41 - 13:46
    és hogy az intelligencia alapja
    egy megfelelő számítógépes rendszer,
  • 13:46 - 13:50
    és elfogadjuk, hogy ezeket a rendszereket
    folyamatosan fejleszteni fogjuk,
  • 13:51 - 13:56
    és hogy a megismerés horizontja
    messze meghaladja
  • 13:56 - 13:57
    jelenlegi tudásunkat,
  • 13:58 - 14:00
    akkor be kell majd látnunk,
  • 14:00 - 14:03
    hogy valamiféle isten
    megalkotása felé haladunk.
  • 14:03 - 14:05
    Most van itt a pillanat,
  • 14:05 - 14:08
    hogy olyan istent alkossunk,
    amellyel együtt is tudunk élni.
  • 14:08 - 14:10
    Nagyon köszönöm.
  • 14:10 - 14:15
    (Taps)
Title:
Létrehozhatunk olyan mesterséges intelligenciát [MI], amely felett nem veszítjük el az irányítást?
Speaker:
Sam Harris
Description:

Rettegsz a szuperintelligens MI-tól? Jól teszed, állítja Sam Harris neurológus és filozófus -- és nem csupán elméleti síkon gondolja. Harris szerint olyan emberfeletti képességekkel rendelkező gépeket fogunk létrehozni, amik úgy bánnak majd velünk, ahogy mi bánunk a hangyákkal, az ebből fakadó aggályokra azonban még nem találtunk megoldást.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27
  • Sziasztok!

    5:59-ig átnéztem és javíottab benne dolgokat. A fordítás alapvetően jó, de vannak benne elírások, hiányzó vagy fölösleges központozások stb. Kérem, hogy nézzétek át újra az első 5 perc változtatásai alapján.
    Nilván ha valamivel, nem értetek egyet, szóljatok. :)

    Két tartalmi példa:

    "legvalószínűtlenebb" nem azonos a "nem a legvalószínűbb"-bel
    "feltevés" <> "felvetés"

  • Köszönjük Csaba! Nekem sajnos nem engedélyezi az átírást, van rá mód, hogy visszakerüljön hozzám?

  • Szia, Rita!
    Rékánál van a feladat, ő tudja módosítani, vagy visszaküldi Neked.

Hungarian subtitles

Revisions