Return to Video

Dokážeme vybudovať umelú inteligenciu bez toho, aby sme nad ňou stratili kontrolu?

  • 0:01 - 0:03
    Budem hovoriť o zlyhaní intuície,
  • 0:03 - 0:05
    ktorým trpí mnoho z nás.
  • 0:05 - 0:09
    Vlastne ide o zlyhanie odhalenia
    určitého druhu nebezpečia.
  • 0:09 - 0:11
    Popíšem vám situáciu,
  • 0:11 - 0:14
    o ktorej si myslím, že je desivá
  • 0:14 - 0:16
    a zároveň pravdepodobná,
  • 0:17 - 0:18
    čo, ako vieme,
  • 0:19 - 0:20
    nie je dobrá kombinácia.
  • 0:20 - 0:23
    A aj tak, mnohí z vás nebudú
    vystrašení, ale budú
  • 0:23 - 0:25
    si myslieť, že to,
    o čom hovorím, je cool.
  • 0:25 - 0:28
    Budem hovoriť o tom, ako nás pokrok,
  • 0:28 - 0:30
    ktorý dosahujeme
    v umelej inteligencii,
  • 0:30 - 0:32
    môže nakoniec úplne zničiť.
  • 0:32 - 0:35
    A vskutku si myslím, že je ťažké
    nevidieť, že nás zničí, alebo nás
  • 0:35 - 0:37
    inšpiruje, aby sme sa zničili sami.
  • 0:37 - 0:39
    A pokiaľ ste ako ja,
  • 0:39 - 0:42
    je pre vás zábavou zamýšľať sa nad tým.
  • 0:42 - 0:45
    Naše reakcie sú súčasťou toho problému.
  • 0:45 - 0:47
    Tieto reakcie by vás mali trápiť.
  • 0:48 - 0:51
    Ak by som vás teraz presvedčoval,
  • 0:51 - 0:54
    že ľudstvo pravdepodobne
    zasiahne globálny hladomor,
  • 0:54 - 0:57
    buď kvôli klimatickým zmenám,
    alebo z dôvodu inej katastrofy,
  • 0:57 - 1:01
    a že vaše vnúčatá a ich vnúčatá
  • 1:01 - 1:02
    budú pravdepodobne žiť takto,
  • 1:03 - 1:04
    určite si nepomyslíte,
  • 1:05 - 1:07
    "Zaujímavé.
  • 1:07 - 1:08
    To je pekná prednáška."
  • 1:09 - 1:11
    Hladomor nie je zábava.
  • 1:12 - 1:15
    Na druhú stranu, smrť v sci-fi zábavná je,
  • 1:15 - 1:19
    jedna z vecí, ktorá ma na vývoji umelej
    inteligencie trápi najviac, je, že nie sme
  • 1:19 - 1:23
    schopní primerane emocionálne reagovať
  • 1:23 - 1:25
    na nebezpečie, ktoré leží pred nami.
  • 1:25 - 1:28
    Ja sám nie som toho schopný
    a sám o tom teraz prednášam.
  • 1:30 - 1:33
    Pomyslite si, že stojíme
    pred dvoma dvermi.
  • 1:33 - 1:34
    Za dvermi číslo jedna
  • 1:34 - 1:37
    zastavíme vývoj a budovanie
    inteligentných strojov.
  • 1:37 - 1:41
    Počítačový software a hardware sa prosto
    z nejakého dôvodu prestane vylepšovať.
  • 1:41 - 1:44
    Zastavme sa na chvíľu a premýšľajme,
    prečo by toto mohlo nastať.
  • 1:45 - 1:49
    S ohľadom nato, akým prínosom
    inteligencia a automatizácia pre nás je,
  • 1:49 - 1:52
    budeme technológie stále zlepšovať,
    pokiaľ toho budeme vôbec schopní.
  • 1:53 - 1:55
    Čo by nás mohlo v tomto zastaviť?
  • 1:56 - 1:58
    Celosvetová nukleárna vojna?
  • 1:59 - 2:01
    Globálna pandémia?
  • 2:02 - 2:04
    Dopad asteroidu?
  • 2:06 - 2:08
    Justin Bieber prezidentom USA?
  • 2:08 - 2:11
    (smiech)
  • 2:13 - 2:17
    Ide o to, že by našu súčasnú civilizáciu,
    tak ako ju poznáme, muselo niečo zničiť.
  • 2:17 - 2:22
    Predstavte si, ako zlé
    by to muselo byť,
  • 2:22 - 2:25
    aby sme neboli schopní ďalej
    vylepšovať naše technológie,
  • 2:25 - 2:26
    neustále,
  • 2:26 - 2:28
    generáciu za generáciou.
  • 2:28 - 2:30
    V zásade je to tá najhoršia vec,
  • 2:30 - 2:32
    aká by mohla v ľudských dejinách nastať.
  • 2:33 - 2:34
    Takže jedinou alternatívou,
  • 2:34 - 2:36
    ktorá je za dvermi číslo dva,
  • 2:36 - 2:39
    je pokračovať v zdokonaľovaní
    našich inteligentných strojov,
  • 2:39 - 2:41
    postupne rok za rokom.
  • 2:42 - 2:45
    A v určitom okamžiku postavíme stroje,
    ktoré budú chytrejšie než my sami,
  • 2:46 - 2:49
    a keď budeme mať stroje, ktoré
    budú chytrejšie od nás,
  • 2:49 - 2:51
    tak sa začnú zdokonaľovať samy.
  • 2:51 - 2:53
    A v tom okamihu hrozí situácia,
    ktorú matematik I.J.Good
  • 2:53 - 2:55
    nazval "inteligenčná explózia,"
  • 2:55 - 2:57
    a vtedy by sa to mohlo vymknúť z rúk.
  • 2:58 - 3:01
    Ako vidíte napríklad tu,
    táto téma sa často karikuje,
  • 3:01 - 3:04
    ako obava z armád zlých robotov,
  • 3:04 - 3:05
    ktoré na nás zaútočia.
  • 3:05 - 3:08
    Ale toto nie je
    najpravdepodobnejší scenár.
  • 3:08 - 3:13
    Nie je to tak,
    že by stroje zrazu začali byť zlé.
  • 3:13 - 3:16
    Problém je v tom, že vytvoríme stroje,
  • 3:16 - 3:18
    ktoré budú oveľa schopnejšie než sme my,
  • 3:18 - 3:22
    takže aj tá najjemnejšia odchýlka
    medzi ich a našimi cieľmi,
  • 3:22 - 3:23
    by nás mohla zničiť.
  • 3:24 - 3:26
    Zamyslite sa, ako sa
    chováme k mravcom.
  • 3:27 - 3:28
    Nemáme nič proti nim.
  • 3:28 - 3:30
    Neubližujeme im cielene.
  • 3:30 - 3:33
    Dokonca občas znesieme bolesť
    a neubližujeme im.
  • 3:33 - 3:35
    Prekračujeme ich na chodníku.
  • 3:35 - 3:37
    Ale kedykoľvek je ich prítomnosť
  • 3:37 - 3:39
    vo vážnom konflikte s našimi cieľmi,
  • 3:39 - 3:42
    povedzme, keď staviame budovu ako táto,
  • 3:42 - 3:44
    tak ich bez mihnutia oka zničíme.
  • 3:44 - 3:47
    Obávam sa, že jedného dňa
    vytvoríme stroje,
  • 3:47 - 3:50
    ktoré, vedome alebo nevedome,
    budú s nami
  • 3:50 - 3:52
    zachádzať s podobnou ľahostajnosťou.
  • 3:54 - 3:57
    Mnohím z vás to príde
    pritiahnuté za vlasy.
  • 3:57 - 4:04
    Vsadím sa, že mnohí z vás pochybujú,
    že super inteligentné stroje sú možné,
  • 4:04 - 4:05
    tobôž, že by to nevyhnutne nastalo.
  • 4:05 - 4:09
    Potom však musíte nájsť niečo nesprávne
    v nasledujúcich predpokladoch.
  • 4:09 - 4:11
    A v podstate sú len tri.
  • 4:12 - 4:17
    Inteligencia je výsledkom spracovania
    informácie v hmotných systémoch.
  • 4:17 - 4:20
    Vlastne, toto je trochu viac
    než len predpoklad.
  • 4:20 - 4:23
    Do strojov sme už obmedzenú
    inteligenciu zabudovali
  • 4:23 - 4:25
    a veľa z týchto strojov už pracuje
  • 4:25 - 4:28
    na úrovni super inteligentných ľudí.
  • 4:29 - 4:31
    A vieme, že bežná hmota
  • 4:31 - 4:34
    môže byť vznikom takzvanej
    "všeobecnej inteligencie",
  • 4:34 - 4:38
    teda schopnosti flexibilne myslieť
    naprieč rôznymi oblasťami,
  • 4:38 - 4:41
    pretože naše mozgy to už dokázali, však?
  • 4:41 - 4:45
    Mám na mysli, že naše mozgy
    sa skladajú len z atómov,
  • 4:45 - 4:49
    a pokiaľ budeme pokračovať
    v budovaní systémov z atómov,
  • 4:49 - 4:52
    ktoré vykazujú čoraz
    inteligentnejšie správanie,
  • 4:52 - 4:55
    tak nakoniec, pokiaľ nás niečo nezastaví,
  • 4:55 - 4:58
    zabudujeme všeobecnú inteligenciu
  • 4:58 - 4:59
    do našich strojov.
  • 4:59 - 5:03
    Kľúčové je si uvedomiť,
    že na rýchlosti pokroku nezáleží,
  • 5:03 - 5:06
    pretože k dosiahnutiu cieľa
    stačí akékoľvek tempo.
  • 5:06 - 5:10
    Nepotrebujeme Mooreov zákon,
    nie je nutný exponenciálny vývoj.
  • 5:10 - 5:12
    Jednoducho stačí pokračovať.
  • 5:13 - 5:16
    Druhým predpokladom je,
    že budeme pokračovať.
  • 5:17 - 5:20
    Budeme naďalej zlepšovať naše
    inteligentné stroje.
  • 5:21 - 5:25
    A keďže inteligencia je pre nás dôležitá -
  • 5:25 - 5:29
    mám na mysli, že inteligencia je
    buď zdrojom všetkého, čo si ceníme,
  • 5:29 - 5:32
    alebo ju potrebujeme
    na ochranu všetkého, čo si ceníme.
  • 5:32 - 5:34
    Je to náš najhodnotnejší zdroj.
  • 5:34 - 5:36
    Takže v tom chceme pokračovať.
  • 5:36 - 5:39
    Máme problémy,
    ktoré zúfalo musíme vyriešiť.
  • 5:39 - 5:42
    Chceme liečiť choroby
    ako Alzheimer a rakovina.
  • 5:43 - 5:47
    Chceme porozumieť ekonomickým systémom.
    Chceme zlepšiť náš klimatický výskum.
  • 5:47 - 5:49
    Takže, pokiaľ to pôjde, budeme pokračovať.
  • 5:49 - 5:52
    Tento vlak je už rozbehnutý
    a nejde ho zastaviť.
  • 5:54 - 5:59
    A, nakoniec, my nestojíme na vrchole
    inteligencie a pravdepodobne
  • 5:59 - 6:01
    ani niekde blízko vrcholu.
  • 6:02 - 6:04
    Toto je skutočne kľúčový pohľad.
  • 6:04 - 6:06
    To je dôvod, prečo je naša situácia
    taká prekérna,
  • 6:06 - 6:10
    a dôvod, prečo je naša intuícia
    taká nespoľahlivá pri posudzovaní rizík.
  • 6:11 - 6:14
    Vezmite si trebárs najmúdrejšiu osobu,
    ktorá kedy žila.
  • 6:15 - 6:18
    Takmer každý by do najužšieho výberu
    zaradil Johna von Neumanna.
  • 6:18 - 6:21
    To, akým dojmom pôsobil van Neumann
    na ľudí okolo seba,
  • 6:21 - 6:25
    medzi ktorých patrili najlepší matematici
    a fyzici tej doby,
  • 6:26 - 6:27
    je veľmi dobre zdokumentované.
  • 6:27 - 6:31
    Ak by len polovica historiek o ňom
    bola aspoň z polovice pravdivá,
  • 6:31 - 6:32
    tak nie je pochýb,
  • 6:33 - 6:35
    že patril medzi najmúdrejších ľudí
    v histórii.
  • 6:35 - 6:38
    Takže zvážme spektrum inteligencie.
  • 6:38 - 6:40
    Tu máme John von Neumanna.
  • 6:42 - 6:43
    A tu ste vy a ja.
  • 6:44 - 6:45
    A tu máme kura.
  • 6:45 - 6:47
    (smiech)
  • 6:47 - 6:49
    Pardon, kura.
  • 6:49 - 6:50
    (smiech)
  • 6:50 - 6:54
    Nie je dôvod, aby bola táto prednáška
    depresívnejšia, než je nutné.
  • 6:54 - 6:55
    (smiech)
  • 6:56 - 7:00
    Zdá sa nanajvýš pravdepodobné,
    že rozsah inteligencie
  • 7:00 - 7:03
    je oveľa širší, než ako ho
    v súčasnosti vnímame,
  • 7:04 - 7:07
    a keď postavíme stroje,
    ktoré budú inteligentnejšie než sme my,
  • 7:07 - 7:09
    tak budú veľmi pravdepodobne
    skúmať to spektrum
  • 7:09 - 7:11
    spôsobom, ktorý si nevieme predstaviť,
  • 7:11 - 7:14
    a presiahnu nás spôsobom,
    ktorý si nevieme predstaviť.
  • 7:15 - 7:19
    A je dôležité rozoznať, že je tomu tak
    už vďaka samotnej rýchlosti.
  • 7:19 - 7:24
    Predstavte si, že sme vytvorili super
    inteligentnú umelú inteligenciu (AI),
  • 7:24 - 7:28
    ktorá je rovnako chytrá ako
    priemerný tím vedcov
  • 7:28 - 7:30
    na Stanforde alebo MIT.
  • 7:30 - 7:33
    Lenže elektronické obvody fungujú asi
    miliónkrát rýchlejšie
  • 7:33 - 7:34
    než biochemické,
  • 7:35 - 7:38
    takže, takýto stroj by mohol myslieť
    asi miliónkrát rýchlejšie
  • 7:38 - 7:39
    ako myseľ, ktorá ho zostrojila.
  • 7:40 - 7:41
    Takže, keď ho spustíte na týždeň,
  • 7:41 - 7:46
    tak vykoná rovnakú intelektuálnu prácu,
    ktorá by ľuďom trvala 20 000 rokov,
  • 7:46 - 7:48
    týždeň za týždňom.
  • 7:50 - 7:53
    Ako by sme vôbec mohli pochopiť,
    či snáď nejako obmedziť
  • 7:53 - 7:55
    myseľ schopnú takéhoto pokroku?
  • 7:57 - 7:59
    Úprimne, je tu ďalšia znepokojivá vec -
  • 7:59 - 8:04
    predstavte si najlepší možný scenár.
  • 8:04 - 8:08
    Predstavte si, že sa nám podarí navrhnúť
    super inteligentnú AI, ktorá nebude mať
  • 8:08 - 8:10
    žiadne bezpečnostné hrozby.
  • 8:10 - 8:13
    Budeme mať perfektnú verziu
    hneď na prvý pokus.
  • 8:13 - 8:15
    Ako keby sa naplnila veštba a všetko
  • 8:15 - 8:17
    by fungovalo, tak ako bolo zamýšľané.
  • 8:17 - 8:21
    Takýto stroj by ľuďom perfektne
    uľahčoval prácu.
  • 8:22 - 8:24
    Dokázal by navrhnúť stroj,
    ktorý by zostrojil stroje,
  • 8:24 - 8:26
    čo vykonajú akúkoľvek fyzickú prácu,
  • 8:26 - 8:27
    napájané slnečným žiarením,
  • 8:27 - 8:30
    viac-menej za cenu vstupných materiálov.
  • 8:30 - 8:33
    Takže, hovoríme o konci ľudskej driny.
  • 8:33 - 8:36
    Hovoríme taktiež o konci väčšiny
    intelektuálnej práce.
  • 8:37 - 8:40
    Ale čo by také opice ako sme my
    robili za takýchto okolností?
  • 8:40 - 8:44
    No, mali by sme čas hrať Frisbee a
    vzájomne sa masírovať.
  • 8:46 - 8:49
    Pridali by sme nejaké to LSD
    a pochybné oblečenie
  • 8:49 - 8:51
    a celý svet by mohol byť
    ako "Burning Man".
  • 8:51 - 8:53
    (smiech)
  • 8:54 - 8:56
    Teraz, aj keď to znie lákavo,
  • 8:57 - 9:00
    ale spýtajte sa sami seba,
    čo by mohlo nastať,
  • 9:00 - 9:02
    keby ekonomika a politika fungovali
    tak ako dnes?
  • 9:02 - 9:05
    Zdá sa pravdepodobné,
    že by sme boli svedkami
  • 9:05 - 9:09
    takej sociálnej nerovnosti
    a nezamestnanosti,
  • 9:09 - 9:11
    ako nikdy predtým.
  • 9:11 - 9:13
    Absencia ochoty poskytnúť
    toto nové bohatstvo
  • 9:13 - 9:15
    do služieb celého ľudstva.
  • 9:16 - 9:19
    Niekoľko miliardárov by zdobilo
    titulky obchodných magazínov,
  • 9:19 - 9:22
    zatiaľčo zbytok sveta by pokojne hladoval.
  • 9:22 - 9:25
    A čo by urobili Rusi a Číňania, ak by sa
  • 9:25 - 9:27
    dozvedeli, že nejaká spoločnosť
    v Silicon Valley
  • 9:27 - 9:30
    sa chystá nasadiť super inteligentnú AI?
  • 9:30 - 9:33
    Takýto stroj by bol schopný viesť vojnu,
  • 9:33 - 9:35
    či už pozemnú alebo kybernetickú
  • 9:35 - 9:37
    s nebývalou silou.
  • 9:38 - 9:40
    To je scenár, kde víťaz berie všetko.
  • 9:40 - 9:43
    Šesťmesačný náskok pred konkurenciou
  • 9:43 - 9:46
    by znamenal minimálne náskok
  • 9:46 - 9:47
    500 000 rokov.
  • 9:47 - 9:52
    Zdá sa, že číre fámy o prelome
    v tejto oblasti
  • 9:52 - 9:55
    by nás mohli priviesť k nepríčetnosti.
  • 9:55 - 9:58
    Jedna z najdesivejších vecí
  • 9:58 - 10:00
    v tejto chvíli z môjho pohľadu
  • 10:00 - 10:05
    je to, čo hovoria vedci, ktorí vyvíjajú
    umelú inteligenciu,
  • 10:05 - 10:06
    keď nás chcú upokojiť.
  • 10:07 - 10:10
    Najčastejším dôvodom, prečo sa vraj nemáme
    obávať, je čas.
  • 10:10 - 10:13
    Toto všetko je ešte ďaleko, všakže.
  • 10:13 - 10:15
    Ešte to potrvá pravdepodobne
    50 alebo 100 rokov.
  • 10:16 - 10:17
    Jeden výskumník povedal:
  • 10:17 - 10:19
    "Obávať sa bezpečnosti AI
  • 10:19 - 10:21
    je ako báť sa preľudnenia Marsu."
  • 10:22 - 10:24
    Toto je je verzia Silicon Valley:
  • 10:24 - 10:26
    "Nechaj to koňovi, ten má väčšiu hlavu."
  • 10:26 - 10:27
    (smiech)
  • 10:28 - 10:29
    Zdá sa, že nikto nezaznamenal,
  • 10:29 - 10:32
    že odvolávať sa na časový horizont
  • 10:32 - 10:35
    je totálne nelogické.
  • 10:35 - 10:38
    Ak je inteligencia len spôsob
    spracovania informácií
  • 10:38 - 10:41
    a my budeme pokračovať v zlepšovaní
    našich strojov,
  • 10:41 - 10:44
    tak vytvoríme nejakú formu
    super inteligencie.
  • 10:44 - 10:48
    A nemáme poňatia,
    ako dlho nám bude trvať,
  • 10:48 - 10:50
    než ju vytvoríme za bezpečných podmienok.
  • 10:52 - 10:53
    Poviem to ešte raz.
  • 10:54 - 10:57
    Nemáme poňatia,
    ako dlho nám bude trvať,
  • 10:57 - 11:00
    než ju vytvoríme za bezpečných podmienok.
  • 11:01 - 11:04
    A možno ste si nevšimli,
    že 50 rokov už nie je to, čo bývalo.
  • 11:04 - 11:07
    Toto je 50 rokov v mesiacoch.
  • 11:07 - 11:09
    Takto dlho máme iPhone.
  • 11:09 - 11:12
    Takto dlho sa vysielajú Simpsonovci.
  • 11:13 - 11:15
    50 rokov nie je tak veľa času,
  • 11:15 - 11:18
    aby si náš druh poradil s najväčšou
    výzvou, pred ktorou kedy stál.
  • 11:20 - 11:24
    Ešte raz - zdá sa, že nemáme primeranú
    emocionálnu odpoveď
  • 11:24 - 11:26
    na niečo, čo podľa všetkého nastane.
  • 11:26 - 11:30
    Počítačový vedec Stuart Russell má nato
    peknú analógiu.
  • 11:30 - 11:35
    Povedal, predstavte si, že dostaneme
    správu od mimozemskej civilizácie,
  • 11:35 - 11:37
    v ktorej bude:
  • 11:37 - 11:39
    "Pozemšťania,
  • 11:39 - 11:41
    za 50 rokov dorazíme na vašu planétu.
  • 11:42 - 11:43
    Pripravte sa."
  • 11:43 - 11:48
    A teraz budeme len počítať mesiace
    do pristátia mimozemskej lode?
  • 11:48 - 11:51
    Asi by sme cítili trochu viac
    naliehavosti ako teraz.
  • 11:53 - 11:55
    Ďalší dôvod, prečo sa
    nemáme obávať, je,
  • 11:55 - 11:58
    že týmto strojom nezostane nič iné,
    len zdieľať naše hodnoty,
  • 11:58 - 12:00
    pretože budú doslovne naším
    vlastným rozšírením.
  • 12:00 - 12:02
    Budú zabudované do našich mozgov
  • 12:02 - 12:04
    a my budeme v podstate ich
    limbickým systémom.
  • 12:05 - 12:07
    Zamyslite sa a zvážte,
  • 12:07 - 12:10
    že tou najbezpečnejšou a
    jedinou rozvážnou cestou,
  • 12:10 - 12:11
    ktorá sa odporúča,
  • 12:11 - 12:14
    je nasadiť tieto technológie
    priamo do našich mozgov.
  • 12:15 - 12:18
    Fakticky, ona to môže byť najbezpečnejšia
    a jediná rozvážna cesta vpred,
  • 12:18 - 12:21
    ale zvyčajne je dobré obávať sa
    bezpečnosti technológií,
  • 12:21 - 12:25
    pretože by to malo byť celkom dobre
    vyladené, než si to vložíte do hlavy.
  • 12:25 - 12:27
    (smiech)
  • 12:27 - 12:32
    Hlbším problémom je, že budovanie
    samotnej super inteligentnej AI sa zdá byť
  • 12:32 - 12:34
    pravdepodobne jednoduchšie,
  • 12:34 - 12:36
    než budovanie super inteligentnej AI
  • 12:36 - 12:38
    a mať vyriešenú neurovedu, ktorá nám
  • 12:38 - 12:40
    dovolí bezproblémovú integráciu
    našich myslí s ňou.
  • 12:41 - 12:44
    A keďže firmy a vlády,
    ktoré sa na tom podieľajú,
  • 12:44 - 12:48
    to pravdepodobne vnímajú
    ako závod so všetkými ostatnými,
  • 12:48 - 12:51
    pretože vyhrať tento závod
    znamená dobyť svet,
  • 12:51 - 12:53
    za predpokladu, že ho hneď
    vzápätí nezničíte,
  • 12:53 - 12:56
    tak potom je pravdepodobné,
    že to, čo bude jednoduchšie,
  • 12:56 - 12:57
    sa urobí ako prvé.
  • 12:59 - 13:01
    Bohužiaľ, teraz nemám riešenie
    tohto problému,
  • 13:01 - 13:04
    okrem odporúčania, že by sme o tom
    mali viac premýšľať.
  • 13:04 - 13:06
    Myslím, že je nutné niečo ako
    "Manhattan Projekt"
  • 13:06 - 13:08
    na tému umelej inteligencie.
  • 13:09 - 13:11
    Nie ako ju vytvoriť, pretože si
    myslím, že to nevyhnutne
  • 13:11 - 13:15
    nastane, ale v pochopení ako sa
    vyhnúť závodom v zbrojení
  • 13:15 - 13:18
    a ako ju vytvoriť spôsobom, ktorý je
    v súlade s našimi záujmami.
  • 13:18 - 13:20
    Keď hovoríme o super inteligentnej AI,
  • 13:20 - 13:23
    ktorá dokáže meniť samu seba,
  • 13:23 - 13:27
    tak sa zdá, že máme len jednu šancu, ako
    nastaviť východiskové podmienky správne,
  • 13:27 - 13:29
    a aj vtedy budeme musieť tlmiť
  • 13:29 - 13:32
    ekonomické a politické následky.
  • 13:34 - 13:36
    Ale vo chvíli, keď pripustíme,
  • 13:36 - 13:40
    že spracovanie informácií
    je zdrojom inteligencie,
  • 13:41 - 13:46
    že nejaký vhodný počítačový systém
    je to, čo môže byť základom inteligencie,
  • 13:46 - 13:50
    a keď pripustíme, že budeme tieto
    systémy neustále zdokonaľovať,
  • 13:51 - 13:56
    a keď pripustíme, že horizont poznania
    veľmi pravdepodobne prekročí to,
  • 13:56 - 13:57
    čo v súčasnosti vieme,
  • 13:58 - 13:59
    tak si musíme pripustiť,
  • 13:59 - 14:02
    že sme v procese budovania
    istého druhu boha.
  • 14:03 - 14:05
    Teraz by bolo dobré sa uistiť,
  • 14:05 - 14:07
    že to bude boh, s ktorým budeme môcť žiť.
  • 14:08 - 14:10
    Ďakujem veľmi pekne.
  • 14:10 - 14:15
    (potlesk)
Title:
Dokážeme vybudovať umelú inteligenciu bez toho, aby sme nad ňou stratili kontrolu?
Speaker:
Sam Harris
Description:

Máte strach zo super inteligentnej umelej inteligencie? Mali by ste, hovorí vedec a filozof Sam Harris – a nielen v teoretickej rovine. Vytvoríme stroje na úrovni superľudí, hovorí Harris, ale zatiaľ sme sa nepopasovali s problémami súvisiacimi s vytvorením niečoho, čo sa k nám môže správať tak, ako sa my správame k mravcom.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Slovak subtitles

Revisions