Return to Video

Was passiert, wenn unsere Computer intelligenter werden als wir?

  • 0:01 - 0:06
    Ich arbeite mit einigen Mathematikern,
    Philosophen und Informatikern zusammen.
  • 0:06 - 0:08
    Wir sitzen herum
  • 0:08 - 0:12
    und denken z. B. über die Zukunft
    der maschinellen Intelligenz nach.
  • 0:12 - 0:16
    Manche Leute denken,
    einiges davon sei sehr futuristisch,
  • 0:17 - 0:19
    ausgefallen, einfach verrückt.
  • 0:20 - 0:21
    Aber ich sage gern:
  • 0:21 - 0:25
    Betrachten wir den Zustand
    des modernen Menschen.
  • 0:25 - 0:26
    (Gelächter)
  • 0:26 - 0:29
    Das ist der normale Gang der Dinge.
  • 0:29 - 0:31
    Aber wenn wir darüber nachdenken,
  • 0:31 - 0:36
    ist die menschliche Spezies erst
    seit Kurzem Gast auf diesem Planeten.
  • 0:36 - 0:38
    Denken Sie darüber nach:
  • 0:38 - 0:41
    Wäre die Erde erst
    vor einem Jahr erschaffen worden,
  • 0:41 - 0:45
    dann wäre der Mensch erst 10 Minuten alt.
  • 0:45 - 0:48
    Die industrielle Ära hätte
    vor zwei Sekunden begonnen.
  • 0:49 - 0:54
    Man könnte auch das Welt-BIP
    der letzten 10.000 Jahre betrachten.
  • 0:54 - 0:58
    Ich habe mir die Mühe gemacht,
    dies für Sie grafisch darzustellen.
  • 0:58 - 1:00
    Es sieht so aus.
  • 1:00 - 1:01
    (Gelächter)
  • 1:01 - 1:03
    Es ist eine seltsame Form
    für einen Normalzustand.
  • 1:03 - 1:05
    Ich würde nicht darauf sitzen wollen.
  • 1:05 - 1:07
    (Gelächter)
  • 1:07 - 1:08
    Fragen wir uns:
  • 1:08 - 1:12
    Was ist die Ursache
    dieser aktuellen Anomalie?
  • 1:12 - 1:15
    Manche Leute würden sagen,
    dass es Technologie ist.
  • 1:15 - 1:16
    Das ist richtig,
  • 1:16 - 1:20
    Technologie hat sich
    im Laufe der Zeit angesammelt,
  • 1:20 - 1:24
    und im Moment entwickelt sich
    die Technologie extrem schnell --
  • 1:24 - 1:28
    das ist die unmittelbare Ursache,
    deshalb sind wir derzeit so produktiv.
  • 1:29 - 1:32
    Aber ich denke gerne weiter
    an die ultimative Ursache.
  • 1:33 - 1:37
    Schauen Sie sich diese zwei
    hoch angesehenen Herren an:
  • 1:37 - 1:38
    Wir haben Kanzi --
  • 1:38 - 1:43
    er hat 200 Begriffe gemeistert,
    eine unglaubliche Leistung.
  • 1:43 - 1:47
    Und Ed Witten entfesselte
    die zweite Superstring-Revolution.
  • 1:47 - 1:49
    Ein Blick unter die Haube zeigt das hier:
  • 1:49 - 1:51
    im Grunde das Gleiche.
  • 1:51 - 1:52
    Das eine ist etwas größer,
  • 1:52 - 1:56
    es hat vielleicht auch ein paar Tricks
    in der Art, wie es verkabelt ist.
  • 1:56 - 1:59
    Diese unsichtbaren Unterschiede können
    aber nicht allzu kompliziert sein,
  • 1:59 - 2:02
    da es seit unserem letzten
    gemeinsamen Vorfahren
  • 2:02 - 2:05
    nur 250.000 Generationen gab.
  • 2:05 - 2:10
    Komplizierte Mechanismen brauchen
    bekanntlich viel Zeit zur Entwicklung.
  • 2:10 - 2:13
    So führen uns einige
    relativ kleine Änderungen
  • 2:13 - 2:15
    von Kanzi zu Witten,
  • 2:16 - 2:20
    von abgebrochenen Ästen
    bis hin zu Interkontinentalraketen.
  • 2:21 - 2:23
    Es ist also ziemlich offensichtlich,
  • 2:23 - 2:26
    dass all unsere Leistungen
    und alles, was uns interessiert,
  • 2:26 - 2:29
    entscheidend von einigen
    relativ kleinen Veränderungen abhängt,
  • 2:29 - 2:32
    die den menschlichen Geist ausmachen.
  • 2:32 - 2:35
    Die logische Folge ist natürlich,
  • 2:35 - 2:39
    dass jede weitere Veränderung
    des Substrats des Denkens
  • 2:40 - 2:42
    enorme Konsequenzen haben könnte.
  • 2:44 - 2:48
    Einige meiner Kollegen glauben,
    dass wir kurz vor etwas stehen,
  • 2:48 - 2:52
    was zu einer tiefgreifenden Veränderung
    dieses Substrats führen könnte,
  • 2:52 - 2:54
    und das ist Maschinen-Superintelligenz.
  • 2:54 - 2:59
    Künstliche Intelligenz hieß,
    Befehle in eine Box zu stecken.
  • 2:59 - 3:04
    Menschliche Programmierer
    bastelten mühsam Wissenselemente.
  • 3:05 - 3:08
    Man baute Expertensysteme,
    die für einige Zwecke nützlich waren,
  • 3:08 - 3:11
    aber sie waren nicht skalierbar.
  • 3:11 - 3:14
    Im Grunde bekam man nur heraus,
    was man zuvor hineingebaut hatte.
  • 3:14 - 3:17
    Aber seitdem gab es
    einen Paradigmenwechsel
  • 3:17 - 3:19
    im Bereich der künstlichen Intelligenz.
  • 3:19 - 3:22
    Heute geht alles um maschinelles Lernen.
  • 3:22 - 3:28
    Anstatt Wissensrepräsentationen
    und -eigenschaften manuell zu erstellen,
  • 3:29 - 3:34
    erstellen wir Algorithmen, die oft
    aus rohen sensorischen Daten lernen.
  • 3:34 - 3:39
    Genau das Gleiche,
    was das menschliche Kind tut.
  • 3:39 - 3:43
    Das Ergebnis ist KI, die nicht
    auf eine Domäne beschränkt ist --
  • 3:43 - 3:48
    das gleiche System kann lernen,
    beliebige Sprachpaare zu übersetzen,
  • 3:48 - 3:53
    oder lernen, jedes Computerspiel
    auf der Atari-Konsole zu spielen.
  • 3:53 - 3:59
    Natürlich hat KI noch nicht annähernd
    die gleiche universelle Fähigkeit,
  • 3:59 - 4:02
    zu lernen und zu planen
    wie ein menschliches Wesen.
  • 4:02 - 4:04
    Der Kortex hat noch
    einige algorithmische Tricks,
  • 4:04 - 4:08
    von denen wir noch nicht wissen,
    wie wir sie in Maschinen abbilden sollen.
  • 4:08 - 4:09
    Die Frage ist also:
  • 4:09 - 4:13
    Wie weit sind wir in der Lage,
    diesen Tricks zu entsprechen?
  • 4:14 - 4:16
    Vor ein paar Jahren
    machten wir eine Umfrage
  • 4:16 - 4:19
    unter einigen der weltweit
    führenden KI-Experten,
  • 4:19 - 4:21
    um zu sehen, was sie denken,
    und eine der Fragen war:
  • 4:21 - 4:25
    "In welchem Jahr sehen Sie
    eine 50 %-Wahrscheinlichkeit,
  • 4:25 - 4:28
    dass wir maschinelle Intelligenz
    auf menschlicher Ebene erreicht haben?"
  • 4:29 - 4:32
    Wir definierten hierbei
    die menschliche Ebene als Fähigkeit,
  • 4:32 - 4:36
    fast jeden Job mindestens so gut
    wie ein erwachsener Mensch zu können,
  • 4:36 - 4:40
    also die echte menschliche Ebene,
    nicht nur für einen Spezialbereich.
  • 4:40 - 4:43
    Die mittlere Antwort war 2040 oder 2050,
  • 4:43 - 4:46
    je nachdem, welche Gruppe
    von Experten wir fragten.
  • 4:47 - 4:50
    Das könnte sehr viel später
    oder auch früher passieren,
  • 4:50 - 4:52
    niemand weiß das wirklich.
  • 4:53 - 4:58
    Wir wissen aber, dass die ultimative
    Grenze für die Informationsverarbeitung
  • 4:58 - 5:03
    in einer Maschine weit jenseits der
    Grenzen des biologischen Gewebes liegt.
  • 5:03 - 5:05
    Das liegt an der Physik.
  • 5:05 - 5:09
    Ein biologisches Neuron
    feuert mit etwa 200 Hertz,
  • 5:09 - 5:10
    200-mal pro Sekunde.
  • 5:10 - 5:14
    Aber sogar ein heutiger Transistor
    arbeitet mit 1 Gigahertz.
  • 5:14 - 5:19
    Neuronen bewegen sich langsam in Axonen,
    maximal 100 Meter pro Sekunde.
  • 5:19 - 5:23
    Aber in Computern können sich Signale
    mit Lichtgeschwindigkeit bewegen.
  • 5:23 - 5:25
    Es gibt auch Größenbeschränkungen,
  • 5:25 - 5:28
    weil ein menschliches Gehirn
    in einen Schädel passen muss.
  • 5:28 - 5:33
    Aber ein Computer kann so groß
    wie ein Lagerhaus oder größer sein.
  • 5:33 - 5:38
    Also ruht das Potential
    für Superintelligenz in der Materie,
  • 5:38 - 5:44
    ähnlich wie die Kraft des Atoms
    während der Menschheitsgeschichte ruhte
  • 5:44 - 5:48
    und dort geduldig bis 1945 wartete.
  • 5:48 - 5:51
    In diesem Jahrhundert
    könnten Wissenschaftler lernen,
  • 5:51 - 5:54
    die Kraft der künstlichen
    Intelligenz zu wecken.
  • 5:54 - 5:58
    Ich denke, wir könnten dann
    eine Intelligenzexplosion erleben.
  • 5:58 - 6:02
    Wenn die meisten Leute darüber nachdenken,
    was schlau und was dumm ist,
  • 6:02 - 6:05
    haben sie etwa dieses Bild vor Augen:
  • 6:05 - 6:08
    An einem Ende haben wir den Dorftrottel,
  • 6:08 - 6:13
    und weit entfernt am anderen Ende
    haben wir Ed Witten oder Albert Einstein,
  • 6:13 - 6:15
    oder wer auch immer Ihr Lieblingsguru ist.
  • 6:15 - 6:19
    Aber ich denke, dass vom Standpunkt
    der künstlichen Intelligenz
  • 6:19 - 6:23
    das wahre Bild wohl eher so aussieht:
  • 6:23 - 6:26
    KI beginnt hier an diesem Punkt,
    bei null Intelligenz
  • 6:26 - 6:30
    und nach sehr vielen Jahren
    wirklich harter Arbeit
  • 6:30 - 6:33
    kommen wir vielleicht
    zur KI auf Mausebene,
  • 6:33 - 6:36
    etwas, das durch ungeordnete Umgebungen
  • 6:36 - 6:38
    navigieren kann wie eine Maus.
  • 6:38 - 6:42
    Dann, nach noch viel mehr Jahren
    wirklich harter Arbeit und viel Geld,
  • 6:42 - 6:47
    kommen wir vielleicht irgendwann
    zur KI auf Schimpansen-Ebene.
  • 6:47 - 6:50
    Nach noch mehr Jahren härtester Arbeit
  • 6:50 - 6:53
    kommen wir zur Dorftrottel-KI.
  • 6:53 - 6:56
    Und wenige Augenblicke später
    sind wir hinter Ed Witten.
  • 6:56 - 6:59
    Der Zug endet nicht in Menschenhausen.
  • 6:59 - 7:02
    Er wird wohl eher einfach durchrauschen.
  • 7:02 - 7:05
    Das hat tiefgreifende Auswirkungen,
  • 7:05 - 7:08
    besonders wenn es um Machtfragen geht.
  • 7:08 - 7:10
    Zum Beispiel sind Schimpansen stark --
  • 7:10 - 7:15
    ein Schimpanse ist pro Kilo etwa
    doppelt so stark wie ein fitter Mann.
  • 7:15 - 7:19
    Aber das Schicksal von Kanzi
    und seinen Freunden
  • 7:19 - 7:21
    hängt viel mehr von dem ab,
    was wir Menschen tun,
  • 7:21 - 7:24
    als von dem, was Schimpansen selbst tun.
  • 7:25 - 7:28
    Sobald es eine Superintelligenz gibt,
  • 7:28 - 7:32
    kann das Schicksal der Menschheit
    vom Tun der Superintelligenz abhängen.
  • 7:32 - 7:34
    Denken Sie darüber nach:
  • 7:34 - 7:38
    KI ist die letzte Erfindung,
    die die Menschheit je machen muss.
  • 7:38 - 7:41
    Maschinen sind dann
    besser im Erfinden als wir
  • 7:41 - 7:44
    und tun es mit digitalen Zeitmaßstäben.
  • 7:44 - 7:49
    Im Grunde bedeutet das
    eine Komprimierung der Zukunft.
  • 7:49 - 7:53
    Denken Sie an all die verrückten Sachen,
    von denen Sie sich vorstellen könnten,
  • 7:53 - 7:55
    dass die Menschen sie
    zu gegebener Zeit entwickelt hätten:
  • 7:55 - 7:58
    Mittel gegen das Altern,
    Besiedelung des Alls,
  • 7:58 - 8:00
    selbstreplizierende Nanobots
  • 8:00 - 8:03
    oder das Hochladen
    des menschlichen Geistes in Computer;
  • 8:03 - 8:04
    alle möglichen futuristischen Dinge,
  • 8:04 - 8:07
    solange es mit den Gesetzen
    der Physik übereinstimmt.
  • 8:07 - 8:11
    All das könnte die Superintelligenz
    wohl ziemlich schnell entwickeln.
  • 8:12 - 8:16
    Eine Superintelligenz mit
    einer solchen technologischen Reife
  • 8:16 - 8:18
    wäre extrem mächtig,
  • 8:18 - 8:21
    und zumindest in einigen Szenarien
    wäre sie in der Lage,
  • 8:21 - 8:23
    ihren Willen zu bekommen.
  • 8:23 - 8:25
    Wir hätten dann eine Zukunft,
  • 8:25 - 8:28
    die durch die Vorlieben
    dieser KI geprägt wäre.
  • 8:29 - 8:34
    Eine gute Frage ist dann:
    "Was sind das für Vorlieben?"
  • 8:34 - 8:36
    Hier wird es kniffliger.
  • 8:36 - 8:37
    Um damit voranzukommen,
  • 8:37 - 8:41
    müssen wir vor allem
    die Anthropomorphisierung vermeiden.
  • 8:42 - 8:45
    Das ist ironisch,
    weil jeder Zeitungsartikel
  • 8:45 - 8:49
    über die Zukunft der KI
    etwa so ein Bild davon malt:
  • 8:50 - 8:54
    Also denke ich, dass wir das Thema
    abstrakter verstehen müssen,
  • 8:54 - 8:57
    nicht wie in den lebhaften
    Hollywood-Szenarien.
  • 8:57 - 9:01
    Wir müssen Intelligenz
    als Optimierungsprozess betrachten,
  • 9:01 - 9:06
    einen Prozess, der die Zukunft
    in eine Reihe von Konfigurationen steuert.
  • 9:06 - 9:10
    Eine Superintelligenz ist ein
    wirklich starker Optimierungsprozess.
  • 9:10 - 9:13
    Sie ist sehr gut darin,
    verfügbare Mittel zu verwenden,
  • 9:13 - 9:16
    um einen Zustand zu erreichen,
    in dem das Ziel realisiert ist.
  • 9:16 - 9:18
    Es gibt also keinen
    zwingenden Zusammenhang
  • 9:18 - 9:23
    zwischen einer hohen Intelligenz
    in diesem Sinne und einem Ziel,
  • 9:23 - 9:27
    das wir Menschen für lohnend
    oder sinnvoll halten würden.
  • 9:27 - 9:31
    Angenommen, wir geben einer KI das Ziel,
    Menschen zum Lächeln zu bringen.
  • 9:31 - 9:35
    Eine schwache KI führt nützliche
    oder amüsante Handlungen durch,
  • 9:35 - 9:37
    die ihren Benutzer zum Lächeln bringen.
  • 9:37 - 9:39
    Eine superintelligente KI erkennt,
  • 9:39 - 9:43
    dass es einen effektiveren Weg gibt,
    dieses Ziel zu erreichen:
  • 9:43 - 9:45
    die Kontrolle über die Welt zu übernehmen
  • 9:45 - 9:48
    und Elektroden in die Gesichtsmuskeln
    von Menschen zu stecken,
  • 9:48 - 9:50
    um ein konstantes,
    strahlendes Grinsen zu verursachen.
  • 9:50 - 9:52
    Ein anderes Beispiel:
  • 9:52 - 9:55
    Angenommen, die KI soll ein schwieriges
    mathematisches Problem lösen.
  • 9:55 - 9:57
    Eine superintelligente KI erkennt,
  • 9:57 - 10:01
    dass der effektivste Weg
    zur Lösung dieses Problems darin besteht,
  • 10:01 - 10:04
    den Planeten in einen
    riesigen Computer zu verwandeln,
  • 10:04 - 10:06
    um ihre Denkfähigkeit zu erhöhen.
  • 10:06 - 10:09
    Man beachte, dass dies den KIs
    einen instrumentalen Grund gibt,
  • 10:09 - 10:11
    Dinge zu tun, die uns
    vielleicht nicht gefallen.
  • 10:11 - 10:14
    Menschen sind in diesem Modell
    eine Bedrohung,
  • 10:14 - 10:17
    denn wir könnten die Lösung
    des mathematischen Problems verhindern.
  • 10:17 - 10:20
    Natürlich werden Dinge nicht
    genau so schiefgehen;
  • 10:20 - 10:22
    das sind Cartoon-Beispiele.
  • 10:22 - 10:24
    Aber der generelle Punkt hier ist wichtig:
  • 10:24 - 10:27
    Wenn Sie einen wirklich mächtigen
    Optimierungsprozess erstellen,
  • 10:27 - 10:29
    um für das Ziel x zu maximieren,
  • 10:29 - 10:33
    sollten Sie sicherstellen,
    dass Ihre Definition von x alles enthält,
  • 10:33 - 10:34
    was Ihnen wichtig ist.
  • 10:35 - 10:39
    Diese Lektion wird auch
    in vielen Mythen gelehrt.
  • 10:39 - 10:44
    König Midas wünscht, dass alles,
    was er berührt, zu Gold wird.
  • 10:44 - 10:47
    Er berührt seine Tochter,
    sie verwandelt sich in Gold.
  • 10:47 - 10:50
    Er berührt sein Essen,
    es verwandelt sich in Gold.
  • 10:50 - 10:53
    Das könnte praktisch relevant werden,
  • 10:53 - 10:55
    nicht nur als Metapher für Gier,
  • 10:55 - 10:56
    sondern als Illustration für das,
  • 10:56 - 11:00
    was passiert, wenn Sie einen mächtigen
    Optimierungsprozess erstellen
  • 11:00 - 11:04
    und ihm falsche oder schlecht
    spezifizierte Ziele geben.
  • 11:04 - 11:07
    Nun könnte man sagen,
    wenn ein Computer anfängt,
  • 11:07 - 11:10
    Elektroden in die Gesichter
    von Menschen zu stecken,
  • 11:10 - 11:12
    würden wir ihn einfach abschalten.
  • 11:12 - 11:18
    A, das ist nicht unbedingt so einfach,
    wenn wir abhängig vom System sind.
  • 11:18 - 11:21
    Wo etwa ist der Ausschalter des Internets?
  • 11:21 - 11:25
    B, warum haben die Schimpansen nicht
    den Schalter an der Menschheit
  • 11:25 - 11:27
    oder den Neandertalern ausgeschaltet?
  • 11:27 - 11:30
    Sie hatten sicherlich Gründe.
  • 11:30 - 11:33
    Wir haben zum Beispiel
    einen Aus-Schalter hier.
  • 11:33 - 11:34
    (Würgen)
  • 11:34 - 11:37
    Der Grund ist, dass wir
    ein intelligenter Gegner sind;
  • 11:37 - 11:40
    wir können Bedrohungen
    vorhersehen und ihnen ausweichen.
  • 11:40 - 11:42
    Aber das könnte auch
    ein superintelligenter Agent,
  • 11:42 - 11:46
    und der wäre viel besser
    darin als wir selbst.
  • 11:46 - 11:49
    Wir sollten uns also nicht zu sicher sein,
  • 11:49 - 11:53
    dass wir das hier unter Kontrolle haben.
  • 11:53 - 11:56
    Wir könnten versuchen, unsere Arbeit
    ein wenig einfacher zu machen,
  • 11:56 - 11:58
    indem wir die KI in eine Box sperren,
  • 11:58 - 12:00
    wie eine sichere Software-Umgebung,
  • 12:00 - 12:03
    eine Virtual-Reality-Simulation,
    aus der sie nicht entkommen kann.
  • 12:03 - 12:07
    Aber wie sicher können wir sein,
    dass die KI keine Lücke findet?
  • 12:07 - 12:10
    Da schon menschliche Hacker
    ständig solche Fehler finden,
  • 12:10 - 12:13
    würde ich sagen, wohl nicht sehr sicher.
  • 12:14 - 12:19
    Also trennen wir das Ethernetkabel,
    um einen Luftspalt zu schaffen,
  • 12:19 - 12:22
    aber selbst menschliche Hacker
    überwinden solche Luftlücken
  • 12:23 - 12:25
    routinemäßig durch Social Engineering.
  • 12:25 - 12:29
    Sicher gibt es gerade
    irgendwo einen Angestellten,
  • 12:29 - 12:32
    der von einem vermeintlichen Mitarbeiter
    aus der IT überredet wurde,
  • 12:32 - 12:35
    seine Kontodaten preiszugeben.
  • 12:35 - 12:37
    Es sind auch kreativere Szenarien möglich.
  • 12:37 - 12:41
    Als KI kann man Elektroden
    in seiner internen Schaltung umbauen,
  • 12:41 - 12:45
    um Funkwellen zu erzeugen,
    mit denen man kommunizieren kann.
  • 12:45 - 12:47
    Oder man gibt eine Fehlfunktion vor,
  • 12:47 - 12:51
    und wenn die Programmierer nachsehen,
    was schiefgelaufen ist,
  • 12:51 - 12:53
    sehen sie sich den Quellcode an -- Bam! --
  • 12:53 - 12:55
    Die Manipulation kann stattfinden.
  • 12:55 - 12:59
    Oder sie könnte den Bauplan zu einer
    raffinierten Technologie ausgeben,
  • 12:59 - 13:02
    und wenn wir die implementieren,
    hat sie einen verborgenen Nebeneffekt,
  • 13:02 - 13:05
    den die KI geplant hatte.
  • 13:05 - 13:08
    Der Punkt ist, dass wir nicht
    auf unsere Fähigkeit vertrauen sollten,
  • 13:08 - 13:12
    einen superintelligenten Geist für immer
    in seiner Flasche eingesperrt zu halten.
  • 13:12 - 13:14
    Früher oder später kommt er heraus.
  • 13:15 - 13:18
    Ich glaube, wir müssen herausfinden,
  • 13:18 - 13:23
    wie man superintelligente KI so baut,
    dass wenn sie -- sobald -- sie entkommt,
  • 13:23 - 13:26
    es immer noch sicher ist,
    weil sie fest auf unserer Seite ist,
  • 13:26 - 13:28
    weil sie unsere Werte teilt.
  • 13:28 - 13:32
    Es führt kein Weg um dieses
    schwierige Problem herum.
  • 13:33 - 13:36
    Ich bin aber ziemlich optimistisch,
    dass es gelöst werden kann.
  • 13:36 - 13:40
    Wir müssten keine lange Liste von allem
    aufschreiben, was uns wichtig ist,
  • 13:40 - 13:42
    oder schlimmer noch,
  • 13:42 - 13:45
    es in irgendeiner Computersprache
    wie C++ oder Python buchstabieren;
  • 13:45 - 13:48
    das wäre eine Aufgabe,
    die mehr als hoffnungslos ist.
  • 13:48 - 13:52
    Stattdessen würden wir eine KI bauen,
    die ihre Intelligenz nutzt,
  • 13:52 - 13:55
    um zu lernen, was wir wertschätzen,
  • 13:55 - 13:58
    und ihr Motivationssystem
    ist so konstruiert,
  • 13:58 - 14:01
    dass sie anstrebt,
    unsere Ziele zu verfolgen
  • 14:01 - 14:06
    oder Dinge zu tun, von denen
    sie erwartet, dass wir sie billigen.
  • 14:06 - 14:09
    Wir würden somit ihre Intelligenz
  • 14:09 - 14:13
    für das Problem der Wertedefinition
    so gut wie möglich einsetzen.
  • 14:13 - 14:14
    Das kann passieren,
  • 14:14 - 14:18
    und das Ergebnis könnte
    sehr gut für die Menschheit sein.
  • 14:18 - 14:22
    Aber es geschieht nicht automatisch.
  • 14:22 - 14:25
    Die Anfangsbedingungen
    für die Intelligenzexplosion
  • 14:25 - 14:28
    müssen genau auf die richtige
    Art und Weise aufgestellt werden,
  • 14:28 - 14:31
    wenn wir eine kontrollierte
    Detonation haben wollen.
  • 14:31 - 14:34
    Die Werte der KI müssen
    mit unseren übereinstimmen,
  • 14:34 - 14:35
    nicht nur im vertrauten Kontext,
  • 14:35 - 14:38
    wo wir leicht überprüfen können,
    wie die KI sich verhält,
  • 14:38 - 14:40
    sondern auch in allen neuen Situationen,
  • 14:40 - 14:43
    auf die die KI in der
    unbestimmten Zukunft treffen könnte.
  • 14:43 - 14:47
    Es gibt auch einige esoterische Fragen,
    die gelöst werden müssten:
  • 14:47 - 14:50
    die genauen Details
    ihrer Entscheidungstheorie,
  • 14:50 - 14:52
    wie mit logischer Unsicherheit
    umzugehen ist usw.
  • 14:53 - 14:56
    Die technischen Probleme,
    die dafür gelöst werden müssen,
  • 14:56 - 14:58
    sind ziemlich schwierig --
  • 14:58 - 15:01
    nicht so schwierig, wie eine
    superintelligente KI zu bauen,
  • 15:01 - 15:03
    aber ziemlich schwierig.
  • 15:03 - 15:05
    Hier ist die Sorge:
  • 15:05 - 15:10
    Superintelligente KI zu bauen
    ist eine wirklich harte Herausforderung.
  • 15:10 - 15:13
    Sichere superintelligente KI zu bauen
  • 15:13 - 15:15
    birgt noch zusätzliche Herausforderungen.
  • 15:16 - 15:20
    Das Risiko besteht darin,
    dass jemand die erste Hürde knackt,
  • 15:20 - 15:23
    ohne die zusätzliche Herausforderung,
    perfekte Sicherheit zu gewährleisten,
  • 15:23 - 15:25
    ebenfalls zu knacken.
  • 15:25 - 15:27
    Ich denke daher,
  • 15:27 - 15:31
    wir sollten im Vorfeld
    das Steuerungsproblem lösen,
  • 15:31 - 15:35
    damit wir eine Lösung haben,
    wenn sie benötigt wird.
  • 15:35 - 15:39
    Vielleicht können wir nicht das
    ganze Steuerungsproblem im Voraus lösen,
  • 15:39 - 15:41
    weil vielleicht einige Elemente
    erst gesetzt werden können,
  • 15:41 - 15:45
    wenn wir die Details der Architektur,
    in der sie implementiert werden, kennen.
  • 15:45 - 15:49
    Je mehr Kontrollprobleme
    wir jedoch im Voraus lösen,
  • 15:49 - 15:52
    desto besser sind die Chancen,
    dass der Übergang
  • 15:52 - 15:54
    zur Maschinenintelligenz gut verläuft.
  • 15:54 - 15:59
    Das sieht für mich nach einer Sache aus,
    die es wert ist, getan zu werden,
  • 15:59 - 16:02
    und ich kann mir vorstellen,
    dass wenn die Dinge gut laufen,
  • 16:02 - 16:07
    die Leute in einer Million Jahre
    auf dieses Jahrhundert zurückblicken
  • 16:07 - 16:09
    und möglicherweise sagen,
  • 16:09 - 16:12
    dass unsere einzige wichtige Leistung
    der Erfolg bei dieser Sache war.
  • 16:12 - 16:14
    Vielen Dank.
  • 16:14 - 16:16
    (Beifall)
Title:
Was passiert, wenn unsere Computer intelligenter werden als wir?
Speaker:
Nick Bostrom
Description:

Künstliche Intelligenz verbessert sich sprunghaft – noch in diesem Jahrhundert, so glauben Forscher, könnte eine KI "schlauer" als ein Mensch werden. Und dann, sagt Nick Bostrom, werde sie uns überholen: "Maschinenintelligenz wird die letzte Erfindung sein, die die Menschheit noch machen muss". Als Philosoph und Technologe bittet Bostrom uns, intensiv über die Welt nachzudenken, die wir jetzt konstruieren und die von denkenden Maschinen getrieben wird. Werden unsere klugen Maschinen die Menschheit und unsere Werte erhalten – oder werden sie eigene Werte haben?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

German subtitles

Revisions