Return to Video

Kunnen we AI maken zonder er de controle over te verliezen?

  • 0:01 - 0:03
    Ik kom praten over een gebrek aan intuïtie
  • 0:03 - 0:05
    waar velen van ons aan lijden.
  • 0:05 - 0:09
    Het is eigenlijk een gebrek om
    een bepaald soort gevaar aan te voelen.
  • 0:09 - 0:11
    Ik ga een scenario beschrijven
  • 0:11 - 0:14
    dat volgens mij zowel angstaanjagend
  • 0:14 - 0:16
    als waarschijnlijk is,
  • 0:17 - 0:18
    en dat is geen goede combinatie,
  • 0:19 - 0:20
    zoals zal blijken.
  • 0:20 - 0:22
    Toch, in plaats van bang te zijn,
  • 0:22 - 0:25
    vinden de meesten van jullie
    dat eerder cool.
  • 0:25 - 0:28
    Ik ga uitleggen waarom
    de vooruitgang die we boeken
  • 0:28 - 0:30
    in artificiële intelligentie, AI,
  • 0:30 - 0:32
    ons uiteindelijk zou kunnen vernietigen.
  • 0:32 - 0:35
    Ik vind het erg moeilijk
    om te zien hoe AI ons niet zal vernietigen
  • 0:35 - 0:38
    of ons inspireren
    om onszelf te vernietigen.
  • 0:38 - 0:39
    Als je een beetje als ik bent,
  • 0:39 - 0:42
    vind je het toch leuk
    om over deze dingen na te denken.
  • 0:42 - 0:45
    Dat antwoord is een deel van het probleem.
  • 0:45 - 0:48
    Dat antwoord zou je moeten verontrusten.
  • 0:48 - 0:51
    Als ik er jullie in deze talk
    van zou overtuigen
  • 0:51 - 0:54
    dat we wellicht op een wereldwijde
    hongersnood afstevenen,
  • 0:54 - 0:57
    door klimaatverandering
    of een andere ramp,
  • 0:57 - 1:01
    en dat jullie kleinkinderen
    of hun kleinkinderen,
  • 1:01 - 1:03
    zeer waarschijnlijk
    zo'n leven zouden leiden,
  • 1:03 - 1:04
    zou je niet denken,
  • 1:05 - 1:07
    "Interessant.
  • 1:07 - 1:08
    Leuke TED Talk."
  • 1:09 - 1:11
    Hongersnood is niet leuk.
  • 1:12 - 1:15
    Daarentegen is doodgaan
    door sciencefiction wel leuk.
  • 1:15 - 1:17
    Eén van de dingen
    die me het meest zorgen baren
  • 1:17 - 1:19
    over de huidige ontwikkeling van AI
  • 1:19 - 1:23
    is dat we niet in staat lijken om
    de juiste emotionele reactie op te wekken
  • 1:23 - 1:25
    op de gevaren die op ons afkomen.
  • 1:25 - 1:28
    Ik voel deze reactie ook niet,
    en ik geef nog wel deze talk.
  • 1:30 - 1:33
    Het is alsof we voor twee deuren staan.
  • 1:33 - 1:34
    Achter deur nummer één
  • 1:34 - 1:37
    houden we op met het maken
    van steeds intelligentere machines.
  • 1:37 - 1:39
    Onze computerhardware en -software
  • 1:39 - 1:42
    stopt gewoon met beter worden,
    om wat voor reden dan ook.
  • 1:42 - 1:44
    Denk er even over na
    waarom dit zou kunnen gebeuren.
  • 1:45 - 1:49
    Omdat intelligentie en automatisering
    zo waardevol zijn,
  • 1:49 - 1:53
    zullen we doorgaan met onze technologie
    te verbeteren als we enigszins kunnen.
  • 1:53 - 1:55
    Wat kan ons tegenhouden?
  • 1:56 - 1:58
    Een mondiale nucleaire oorlog?
  • 1:59 - 2:01
    Een wereldwijde pandemie?
  • 2:02 - 2:04
    Een asteroïde-inslag?
  • 2:06 - 2:08
    Justin Bieber president
    van de Verenigde Staten?
  • 2:08 - 2:11
    (Gelach)
  • 2:13 - 2:17
    Het gaat om iets dat onze huidige
    beschaving zou moeten vernietigen.
  • 2:17 - 2:22
    Je moet je voorstellen
    hoe erg het zou moeten zijn
  • 2:22 - 2:25
    om ons tegen te houden
    onze technologie te verbeteren,
  • 2:25 - 2:26
    blijvend,
  • 2:26 - 2:28
    generatie na generatie.
  • 2:28 - 2:30
    Bijna per definitie is dit het ergste
  • 2:30 - 2:33
    dat ooit gebeurd is
    in de menselijke geschiedenis.
  • 2:33 - 2:34
    Het enige alternatief
  • 2:34 - 2:36
    is wat er achter deur nummer twee ligt,
  • 2:36 - 2:39
    namelijk dat we doorgaan
    met onze intelligente machines
  • 2:39 - 2:41
    jaar na jaar na jaar te verbeteren.
  • 2:42 - 2:45
    Op een bepaald moment zullen we
    machines bouwen die slimmer zijn dan wij,
  • 2:46 - 2:49
    en zodra we machines
    hebben die slimmer zijn dan wij,
  • 2:49 - 2:51
    gaan ze zichzelf verder verbeteren.
  • 2:51 - 2:53
    Dan lopen we het risico
    op wat de wiskundige IJ Good
  • 2:53 - 2:55
    een 'intelligentie-explosie' noemde:
  • 2:55 - 2:58
    dat het proces niet meer
    te beheersen valt.
  • 2:58 - 3:01
    Daarvan werd vaak, zoals hier,
    een karikatuur gemaakt:
  • 3:01 - 3:04
    de angst dat legers
    van kwaadaardige robots
  • 3:04 - 3:05
    ons zouden aanvallen.
  • 3:05 - 3:08
    Maar dat is niet
    het meest waarschijnlijke scenario.
  • 3:08 - 3:13
    Het is niet zo dat onze machines
    spontaan boosaardig zullen worden.
  • 3:13 - 3:16
    Het probleem is eigenlijk
    dat we machines gaan bouwen
  • 3:16 - 3:18
    die zo veel competenter zijn dan wij
  • 3:18 - 3:22
    dat het geringste verschil
    tussen hun doelen en de onze
  • 3:22 - 3:23
    ons einde kan betekenen.
  • 3:24 - 3:26
    Denk maar aan hoe we
    ons verhouden tot mieren.
  • 3:27 - 3:28
    We haten ze niet.
  • 3:28 - 3:30
    We zijn er niet op uit
    om ze kwaad te doen.
  • 3:30 - 3:33
    We nemen soms zelfs de moeite
    om ze niet te schaden.
  • 3:33 - 3:35
    We stappen over hen op de stoep.
  • 3:35 - 3:37
    Maar wanneer hun aanwezigheid
  • 3:37 - 3:39
    serieus in strijd is
    met één van onze doeleinden,
  • 3:39 - 3:42
    laten we zeggen
    bij de bouw van een gebouw als dit,
  • 3:42 - 3:44
    vernietigen we ze
    zonder er bij stil te staan.
  • 3:44 - 3:47
    Het probleem is dat we op een dag
    machines gaan bouwen
  • 3:47 - 3:50
    die, bewust of niet,
  • 3:50 - 3:53
    ons met gelijkaardige
    onverschilligheid gaan behandelen.
  • 3:54 - 3:57
    Ik vermoed dat dit voor velen
    van jullie wat vergezocht lijkt.
  • 3:57 - 4:01
    Ik wed dat er zijn die er aan twijfelen
  • 4:01 - 4:04
    of superintelligente AI
    überhaupt mogelijk is,
  • 4:04 - 4:05
    laat staan onvermijdelijk.
  • 4:05 - 4:09
    Maar dan moet je de fout vinden
    in één van de volgende veronderstellingen.
  • 4:09 - 4:11
    Er zijn er slechts drie.
  • 4:12 - 4:17
    Intelligentie is een kwestie van
    informatieverwerking in fysische systemen.
  • 4:17 - 4:20
    Eigenlijk is dit iets meer
    dan een veronderstelling.
  • 4:20 - 4:23
    We hebben al beperkte intelligentie
    ingebouwd in onze machines
  • 4:23 - 4:25
    en veel van die machines werken al
  • 4:25 - 4:28
    op een bovenmenselijk
    niveau van intelligentie.
  • 4:29 - 4:31
    We weten dat loutere materie
  • 4:31 - 4:34
    aanleiding kan geven tot wat
    'algemene intelligentie' wordt genoemd,
  • 4:34 - 4:38
    het vermogen om flexibel te denken
    op meerdere domeinen,
  • 4:38 - 4:41
    omdat onze hersenen dat kunnen.
  • 4:41 - 4:45
    Ik bedoel, er zijn hier alleen maar atomen
  • 4:45 - 4:49
    en zolang we systemen
    van atomen blijven bouwen
  • 4:49 - 4:52
    die steeds intelligenter
    gedrag gaan vertonen,
  • 4:52 - 4:55
    zullen we uiteindelijk,
    tenzij iets ons tegenhoudt,
  • 4:55 - 4:58
    algemene intelligentie creëren
  • 4:58 - 4:59
    in onze machines.
  • 4:59 - 5:03
    Het maakt niet uit
    hoe snel we vooruitgaan,
  • 5:03 - 5:06
    want elke vooruitgang
    brengt ons dichter bij het eindpunt.
  • 5:06 - 5:10
    Vergeet de wet van Moore,
    exponentiële vooruitgang is niet nodig.
  • 5:10 - 5:12
    We hoeven alleen maar door te gaan.
  • 5:13 - 5:16
    De tweede veronderstelling
    is dat we zullen blijven doorgaan.
  • 5:17 - 5:20
    We zullen onze intelligente
    machines blijven verbeteren.
  • 5:21 - 5:25
    En gezien de waarde van intelligentie --
  • 5:25 - 5:29
    ik bedoel, intelligentie is ofwel de bron
    van alles wat we waarderen
  • 5:29 - 5:32
    of ze moet alles beschermen
    wat we waarderen.
  • 5:32 - 5:34
    Het is ons waardevolste hulpmiddel.
  • 5:34 - 5:36
    Dus we willen dit doen.
  • 5:36 - 5:39
    We hebben problemen
    die we nodig moeten oplossen.
  • 5:39 - 5:42
    We willen ziektes
    als Alzheimer en kanker genezen.
  • 5:43 - 5:47
    We willen economische systemen begrijpen
    en onze klimaatwetenschap verbeteren.
  • 5:47 - 5:49
    Dus zullen we dit doen, als we kunnen.
  • 5:49 - 5:52
    De trein is al vertrokken
    en er is geen houden aan.
  • 5:54 - 5:59
    Tot slot staan we waarschijnlijk niet
    op een piek van intelligentie,
  • 5:59 - 6:01
    of ook maar ergens in de buurt ervan.
  • 6:02 - 6:04
    En dit is echt het cruciale inzicht.
  • 6:04 - 6:06
    Dit maakt onze situatie zo precair
  • 6:06 - 6:10
    en dit maakt onze intuïties
    over de risico's zo onbetrouwbaar.
  • 6:11 - 6:14
    Beschouw de slimste mens
    die ooit heeft geleefd.
  • 6:15 - 6:18
    Op bijna ieders lijstje
    staat hier John von Neumann.
  • 6:18 - 6:21
    Ik bedoel, de indruk die von Neumann
    maakte op de mensen om hem heen,
  • 6:21 - 6:25
    inclusief de grootste wiskundigen
    en fysici van zijn tijd,
  • 6:26 - 6:27
    is redelijk goed gedocumenteerd.
  • 6:27 - 6:31
    Als slechts de helft van de verhalen
    over hem half waar zijn,
  • 6:31 - 6:32
    dan kan het niet anders
  • 6:33 - 6:35
    dan dat hij één
    van de slimste mensen ooit was.
  • 6:35 - 6:38
    Bekijk dit spectrum
    van intelligentie eens.
  • 6:38 - 6:40
    Hier hebben we John von Neumann.
  • 6:42 - 6:43
    En dan hebben we jou en mij.
  • 6:44 - 6:45
    En dan hebben we een kip.
  • 6:45 - 6:47
    (Gelach)
  • 6:47 - 6:49
    Sorry, een kip.
  • 6:49 - 6:50
    (Gelach)
  • 6:50 - 6:54
    Ik moet dit gesprek niet
    deprimerender maken dan nodig.
  • 6:54 - 6:55
    (Gelach)
  • 6:56 - 7:00
    Het lijkt echter uiterst waarschijnlijk
    dat het spectrum van intelligentie
  • 7:00 - 7:03
    veel verder reikt
    dan we op dit moment beseffen.
  • 7:04 - 7:07
    Als we machines bouwen
    die intelligenter zijn dan wij,
  • 7:07 - 7:10
    gaan ze hoogstwaarschijnlijk
    dit spectrum verkennen
  • 7:10 - 7:11
    op een onvoorstelbare manier
  • 7:11 - 7:14
    en ons onvoorstelbaar overtreffen.
  • 7:15 - 7:19
    Het is belangrijk te beseffen dat
    dit al waar is voor de snelheid alleen.
  • 7:19 - 7:24
    Stel dat we zojuist
    een superintelligente AI hadden gemaakt
  • 7:24 - 7:28
    die niet slimmer was
    dan een gemiddeld team van onderzoekers
  • 7:28 - 7:30
    aan Stanford en MIT.
  • 7:30 - 7:33
    Elektronische schakelingen werken
    ongeveer een miljoen keer sneller
  • 7:33 - 7:34
    dan biochemische.
  • 7:35 - 7:38
    Dus zou deze machine ongeveer
    een miljoen keer sneller moeten denken
  • 7:38 - 7:39
    dan de geesten die ze ontwierpen.
  • 7:40 - 7:41
    Laat ze één week lopen
  • 7:41 - 7:46
    en ze zal voor 20 000 jaar intellectuele
    arbeid op menselijk niveau uitvoeren,
  • 7:46 - 7:48
    week na week na week.
  • 7:50 - 7:53
    Hoe kunnen we een verstand
    dat dit soort vooruitgang maakt
  • 7:53 - 7:55
    nog begrijpen, laat staan beheersen?
  • 7:57 - 7:59
    Wat, eerlijk gezegd,
    ook nog verontrustend is:
  • 8:00 - 8:04
    stel je even het beste scenario voor.
  • 8:04 - 8:08
    Veronderstel dat we
    een superintelligente AI ontwerpen
  • 8:08 - 8:10
    die absoluut veilig is.
  • 8:10 - 8:13
    We vinden gelijk het perfecte ontwerp.
  • 8:13 - 8:15
    Het is alsof we
    een orakel hebben gekregen
  • 8:15 - 8:17
    dat zich precies zoals bedoeld gedraagt.
  • 8:17 - 8:21
    Deze machine zou het perfecte
    arbeidsbesparende apparaat zijn.
  • 8:22 - 8:24
    Het kan de machine ontwerpen
    die de machine kan bouwen
  • 8:24 - 8:26
    die elk fysiek werk aankan,
  • 8:26 - 8:27
    aangedreven door zonlicht,
  • 8:27 - 8:30
    min of meer voor de kosten
    van de grondstoffen.
  • 8:30 - 8:33
    Gedaan met alle menselijk geploeter!
  • 8:33 - 8:36
    Maar ook het einde
    van de meeste intellectuele arbeid.
  • 8:37 - 8:40
    Wat gaan apen zoals wij
    in deze omstandigheden doen?
  • 8:40 - 8:44
    Nou ja, we zouden vrij zijn om frisbee
    te spelen en elkaar massages te geven.
  • 8:46 - 8:49
    Gooi er nog wat LSD
    en rare kleren tegenaan
  • 8:49 - 8:51
    en de hele wereld wordt
    één groot Burning Man-festival.
  • 8:51 - 8:53
    (Gelach)
  • 8:54 - 8:56
    Nu klinkt dat misschien best goed,
  • 8:57 - 9:00
    maar vraag jezelf eens af
    wat er zou gebeuren
  • 9:00 - 9:02
    onder onze huidige economische
    en politieke orde.
  • 9:02 - 9:05
    Het lijkt waarschijnlijk
    dat we getuige zouden zijn
  • 9:05 - 9:09
    van een niveau van ongelijke verdeling
    van rijkdom en werkloosheid
  • 9:09 - 9:11
    die we nooit eerder hebben gezien.
  • 9:11 - 9:13
    Zonder bereidheid om
    deze nieuwe rijkdom
  • 9:13 - 9:15
    onmiddellijk met iedereen te delen,
  • 9:16 - 9:19
    zullen enkele biljonairs de covers
    van onze zakenmagazines sieren
  • 9:19 - 9:22
    terwijl de rest van de wereld
    vrij zou zijn om te verhongeren.
  • 9:22 - 9:25
    Wat zouden de Russen of de Chinezen doen
  • 9:25 - 9:27
    als ze hoorden
    dat een bedrijf in Silicon Valley
  • 9:27 - 9:30
    op het punt stond
    een superintelligente AI te maken?
  • 9:30 - 9:33
    Deze machine zou in staat zijn
    tot het voeren van oorlog,
  • 9:33 - 9:35
    hetzij op aarde of in cyberspace,
  • 9:35 - 9:37
    met ongekende kracht.
  • 9:38 - 9:40
    Dit is een winnaar-pakt-alles-scenario.
  • 9:40 - 9:43
    Zes maanden voorsprong op de concurrentie
  • 9:43 - 9:46
    komt overeen met 500 000 jaar voorsprong,
  • 9:46 - 9:47
    op z'n minst.
  • 9:47 - 9:52
    Dus het lijkt erop dat zelfs louter
    geruchten van dit soort doorbraak
  • 9:52 - 9:55
    ertoe kunnen leiden
    dat het mensdom wild zal worden.
  • 9:55 - 9:58
    Eén van de meest angstaanjagende dingen,
  • 9:58 - 10:00
    naar mijn mening,
  • 10:00 - 10:05
    zijn het soort dingen
    die AI-onderzoekers zeggen
  • 10:05 - 10:07
    wanneer ze ons gerust willen stellen.
  • 10:07 - 10:10
    Waar we ons vooral
    geen zorgen over moeten maken, is tijd.
  • 10:10 - 10:13
    Dit is nog allemaal ver weg, weet je.
  • 10:13 - 10:15
    Waarschijnlijk nog 50 of 100 jaar weg.
  • 10:16 - 10:17
    Eén onderzoeker heeft gezegd:
  • 10:17 - 10:19
    "Piekeren over AI-veiligheid
  • 10:19 - 10:21
    is net als je zorgen maken
    over overbevolking op Mars."
  • 10:22 - 10:24
    Dit is de Silicon Valley-versie
  • 10:24 - 10:26
    van 'breek er je mooie hoofdje niet over'.
  • 10:26 - 10:27
    (Gelach)
  • 10:28 - 10:29
    Niemand lijkt te merken
  • 10:29 - 10:32
    dat verwijzen naar de tijdshorizon
  • 10:32 - 10:34
    een totale 'non sequitur' is,
    een onjuist gevolg.
  • 10:34 - 10:38
    Als intelligentie alleen maar
    een kwestie van informatieverwerking is,
  • 10:38 - 10:41
    en we onze machines
    maar blijven verbeteren,
  • 10:41 - 10:44
    zullen we een bepaalde vorm
    van superintelligentie produceren.
  • 10:44 - 10:48
    We hebben geen idee
    hoe lang het zal duren
  • 10:48 - 10:51
    om de voorwaarden te creëren
    om dat veilig te doen.
  • 10:52 - 10:53
    Ik zeg het nog eens.
  • 10:54 - 10:57
    We hebben geen idee
    hoe lang het zal duren
  • 10:57 - 11:00
    om de voorwaarden te creëren
    om dat veilig te doen.
  • 11:01 - 11:05
    Mocht het je nog niet zijn opgevallen:
    50 jaar is niet meer wat ooit was.
  • 11:05 - 11:07
    Dit is 50 jaar in maanden.
  • 11:07 - 11:09
    Zo lang hebben we de iPhone al.
  • 11:09 - 11:12
    Dit is hoe lang 'The Simpsons'
    al op televisie zijn.
  • 11:13 - 11:15
    Vijftig jaar is niet zo heel veel tijd
  • 11:15 - 11:17
    om één van de grootste
    uitdagingen aan te pakken
  • 11:17 - 11:20
    waarmee het mensdom
    ooit zal worden geconfronteerd.
  • 11:20 - 11:24
    We lijken er niet in te slagen om
    de juiste emotionele reactie te hebben
  • 11:24 - 11:27
    op iets waarvan we alle reden hebben
    te geloven dat het komt.
  • 11:27 - 11:30
    De computerwetenschapper Stuart Russell
    heeft hier een mooie analogie.
  • 11:30 - 11:35
    Hij zei, stel je voor dat we een bericht
    van een buitenaardse beschaving ontvangen,
  • 11:35 - 11:37
    dat luidt:
  • 11:37 - 11:39
    "Mensen van de Aarde,
  • 11:39 - 11:41
    binnen 50 jaar komen
    we naar jullie planeet.
  • 11:42 - 11:43
    Hou je gereed."
  • 11:43 - 11:48
    En dan gewoon de maanden aftellen
    tot aan de landing van het moederschip?
  • 11:48 - 11:51
    We zouden een beetje
    meer urgentie voelen dan we nu doen.
  • 11:53 - 11:55
    Waarom we ons ook
    geen zorgen zouden hoeven maken,
  • 11:55 - 11:57
    is dat deze machines sowieso
    onze waarden delen,
  • 11:57 - 12:00
    omdat ze letterlijk uitbreidingen
    van onszelf zullen zijn.
  • 12:00 - 12:02
    Ze zullen worden geënt op onze hersenen,
  • 12:02 - 12:05
    en wij zullen in wezen
    hun limbisch systeem worden.
  • 12:05 - 12:07
    Overweeg even
  • 12:07 - 12:10
    dat de veiligste
    en enige verstandige weg vooruit,
  • 12:10 - 12:11
    de aanbevolen weg,
  • 12:11 - 12:14
    is om deze technologie
    direct in onze hersenen te implanteren.
  • 12:15 - 12:18
    Dit kan in feite de veiligste
    en enige voorzichtige weg vooruit zijn,
  • 12:18 - 12:23
    maar meestal moet iemand zich toch
    volkomen veilig voelen bij een technologie
  • 12:23 - 12:25
    voordat hij ze in zijn hoofd steekt.
  • 12:25 - 12:27
    (Gelach)
  • 12:27 - 12:32
    Het dieperliggende probleem is dat
    superintelligente AI op zich bouwen
  • 12:32 - 12:34
    waarschijnlijk gemakkelijker lijkt
  • 12:34 - 12:36
    dan superintelligente AI bouwen
  • 12:36 - 12:38
    én de neurowetenschappen voltooien
  • 12:38 - 12:41
    die ons toelaten onze geest
    er naadloos mee te integreren.
  • 12:41 - 12:44
    Gezien het feit dat de bedrijven
    en overheden die dit werk doen
  • 12:44 - 12:48
    waarschijnlijk denken
    met een race bezig te zijn,
  • 12:48 - 12:51
    en omdat deze race winnen
    neerkomt op de wereld winnen,
  • 12:51 - 12:53
    gesteld dat je hem niet direct vernietigt,
  • 12:53 - 12:56
    dan lijkt het waarschijnlijk
    dat alles wat gemakkelijker is,
  • 12:56 - 12:58
    voorrang zal krijgen.
  • 12:59 - 13:01
    Ik heb helaas geen andere oplossing
    voor dit probleem
  • 13:01 - 13:04
    dan de aanbeveling dat we er
    over moeten gaan nadenken.
  • 13:04 - 13:06
    Ik denk aan iets als een Manhattan Project
  • 13:06 - 13:08
    over kunstmatige intelligentie.
  • 13:09 - 13:11
    Niet om het te bouwen,
    want dat gaan we sowieso doen,
  • 13:11 - 13:15
    maar om te begrijpen
    hoe een wapenwedloop te voorkomen
  • 13:15 - 13:18
    en het zo te bouwen
    dat het onze belangen dient.
  • 13:18 - 13:20
    Als je over superintelligente AI praat
  • 13:20 - 13:23
    die zichzelf kan aanpassen,
  • 13:23 - 13:25
    lijkt het erop dat we
    maar één kans hebben
  • 13:25 - 13:27
    om de beginvoorwaarden goed te krijgen
  • 13:27 - 13:29
    en zelfs dan zullen we moeten leren omgaan
  • 13:29 - 13:33
    met de economische en politieke
    gevolgen van die goede beginvoorwaarden.
  • 13:34 - 13:36
    Maar zodra we toegeven
  • 13:36 - 13:40
    dat informatieverwerking
    de bron van intelligentie is,
  • 13:41 - 13:46
    dat een geschikt computersysteem
    aan de basis van intelligentie ligt,
  • 13:46 - 13:50
    en we toegeven dat we deze systemen
    onafgebroken zullen blijven verbeteren,
  • 13:51 - 13:56
    en dat de kennishorizon
    waarschijnlijk veel verder reikt
  • 13:56 - 13:57
    dan we nu weten,
  • 13:58 - 13:59
    dan moeten we toegeven
  • 13:59 - 14:02
    dat we bezig zijn een soort god te maken.
  • 14:03 - 14:05
    Daarom moeten we er nu voor zorgen
  • 14:05 - 14:07
    dat het een god is
    waarmee we kunnen leven.
  • 14:08 - 14:10
    Dankjewel.
  • 14:10 - 14:15
    (Applaus)
Title:
Kunnen we AI maken zonder er de controle over te verliezen?
Speaker:
Sam Harris
Description:

Bang voor superintelligente AI? Je zou het moeten zijn, zegt neurowetenschapper en filosoof Sam Harris -- en niet alleen op de een of andere theoretische manier. We gaan bovenmenselijke machines bouwen, zegt Harris, maar we zijn nog niet klaar met de problemen die verband houden met het feit dat we iets creëren dat met ons kan omgaan zoals wij dat doen met mieren.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Dutch subtitles

Revisions