Als Kind war ich der typische Nerd. Ich glaube, das waren manche von Ihnen auch. (Gelächter) Sie, der am lautesten gelacht hat, Sie sind es wohl immer noch. (Gelächter) Ich wuchs in einer Kleinstadt in den staubigen Ebenen Nordtexas' auf, der Sohn eines Sheriffs, der der Sohn eines Pastors war. Ich durfte keinen Ärger machen. Ich fing aus Vergnügen an, Mathebücher zu lesen. (Gelächter) Das haben Sie auch gemacht. Das führte mich dazu, einen Laser und einen Computer und Modellraketen zu bauen und Raketenbrennstoff in meinem Schlafzimmer herzustellen. In wissenschaftlicher Terminologie nennen wir das eine sehr schlechte Idee. (Gelächter) Um die Zeit herum kam Stanley Kubricks "2001: Odyssee im Weltraum" in die Kinos und mein Leben hatte sich für immer verändert. Ich liebte alles in diesem Film, besonders den HAL 9000. HAL war ein empfindungsfähiger Computer, dazu entworfen, das Raumschiff Discovery von der Erde zum Jupiter zu leiten. HAL war auch ein fehlerhafter Charakter, da er am Ende beschloss, die Mission über menschliches Leben zu setzen. HAL war ein fiktiver Charakter, aber nichtsdestotrotz spricht er unsere Ängste an, unsere Ängste vor der Unterwerfung durch irgendeine nicht fühlende künstliche Intelligenz, der unsere Menschlichkeit gleichgültig ist. Ich glaube, dass solche Ängste unbegründet sind. Wir befinden uns wirklich in einer bemerkenswerten Zeit in der Geschichte der Menschheit, in der wir, getrieben durch die Weigerung die Grenzen von Körper und Geist zu akzeptieren, Maschinen bauen, von exquisiter, wunderschöner Komplexität und Grazie, die die menschliche Erfahrung erweitern werden, weit über unsere Vorstellung hinaus. Nach einer Karriere bei der Luftwaffen-Akademie bin ich jetzt beim Weltraumkommando, als Systemingenieur. Und kürzlich wurde ich in ein technisches Problem einbezogen, das mit der NASA-Mission zum Mars zu tun hat. In Raumflügen zum Mond können wir uns auf die Einsatzleitstelle in Houston verlassen, die über alle Aspekte des Fluges wacht. Allerdings ist der Mars 200-mal weiter weg und daher dauert es im Durchschnitt 13 Minuten, bis ein Signal von der Erde zum Mars gelangt. Wenn es ein Problem gibt, bleibt nicht genügend Zeit. Und so mussten wir, für eine sinnvolle technische Lösung, die Einsatzleitstelle im Orion-Raumschiffes platzieren. Eine andere faszinierende Idee, im Profil der Mission, setzt humanoide Roboter auf die Marsoberfläche, bevor die Menschen selbst ankommen, um zunächst Gebäude zu bauen, und später als kollaborative Mitglieder im Wissenschaftsteam zu dienen. Als ich dies aus der technischen Perspektive betrachtete, wurde mir sehr klar, dass das, was ich bauen musste, eine schlaue, kollaborative, sozial intelligente künstliche Intelligenz war. Anders gesagt, ich musste etwas ganz Ähnliches wie HAL bauen, ohne die mörderischen Neigungen. (Gelächter) Lassen Sie uns kurz anhalten. Ist es wirklich möglich, eine solche künstliche Intelligenz zu bauen? Nun, das ist es. In vieler Hinsicht ist dies ein rein technisches Problem mit KI-Anteilen, kein vages KI-Problem, das technisch gelöst werden muss. Um es mit Alan Turing zu sagen: Ich will keine empfindungsfähige Maschine bauen. Ich baue keinen HAL. Alles was ich will, ist ein simples Gehirn, etwas, das die Illusion von Intelligenz bietet. Kunst und Lehre der Informatik sind weit gekommen, seit HAL auf der Leinwand erschien, und ich glaube, wenn sein Erfinder, Dr. Chandra, heute hier wäre, hätte er viele Fragen an uns. Ist es uns wirklich möglich ein System von abermillionen Geräten zu nehmen, ihre Datenströme zu lesen, ihre Fehler vorher zu sagen und vorher zu handeln? Ja. Können wir Systeme bauen, die mit Menschen natürlich sprechen? Ja. Können wir Systeme bauen, die Gegenstände und Emotionen erkennen, sich ausdrücken, Spiele spielen und sogar Lippen lesen? Ja. Können wir ein System bauen, das Ziele setzt, das Pläne für diese Ziele ausführt und auf dem Weg dahin lernt? Ja. Können wir Systeme bauen, die eine Naive Theorie [Theory of mind] haben? Das lernen wir gerade. Können wir Systeme mit ethischen und moralischen Grundlagen bauen? Das müssen wir noch lernen. So lassen Sie uns für einen Moment akzeptieren, dass eine solche KI möglich ist, für solche und andere Aufgaben. Die nächste Frage, die Sie sich stellen müssen, ist: Sollten wir sie fürchten? Jede neue Technologie bringt eine gewisse Angst mit sich. Als wir die ersten Autos sahen, beklagten manche, dass wir die Zerstörung der Familie sehen würden. Als die ersten Telefone aufkamen, waren Leute besorgt, dies würde alle höflichen Gespräche zerstören. Irgendwann setzte sich das geschriebene Wort durch, und man fürchtete um das Auswendiglernen. Das ist alles in gewisser Hinsicht wahr, aber es ist auch wahr, dass diese Technologien uns Dinge gebracht haben, die unsere menschliche Erfahrung ganz wesentlich erweitert haben. Lassen Sie uns noch einen Schritt weiter gehen. Ich fürchte die Erschaffung einer solchen KI nicht, da sie schließlich manche unserer Werte verkörpern wird. Bedenken Sie: Ein kognitives System zu bauen ist grundsätzlich anders als ein traditionelles software- intensives System der Vergangenheit. Wir programmieren sie nicht. Wir lehren sie. Um einem System beizubringen, eine Blume zu erkennen, zeige ich ihm tausende meiner Lieblingsblumen. Um einem System ein Spiel beizubringen -- Ich würde. Sie würden auch. Ich mag Blumen. Wirklich. Um einem System ein Spiel wie Go beizubringen, würde ich es tausende Go-Spiele spielen lassen, aber dann bringe ich ihm auch bei, zu erkennen, ob ein Spiel gut oder schlecht ist. Wenn ich einen KI-Rechtsassistenten baue, werde ich ihm Gesetze beibringen, gleichzeitig füge ich ein Verständnis für Gnade und Gerechtigkeit hinzu, was Teil des Rechts ist. In der Wissenschaft nennen wir das Grundwahrheit. Das ist wichtig: Wenn wir diese Maschinen bauen, werden wir ihnen unsere Werte beibringen. Und insofern vertraue ich künstlicher Intelligenz genauso, oder gar mehr, als einem gut ausgebildeten Menschen. Aber, werden Sie fragen, was ist mit Schurken, einer gut finanzierten, nichtstaatlichen Organisation? Ich habe keine Angst vor einer KI in der Hand eines Einzelgängers. Wir können uns nicht vor jeder willkürlichen Gewalttat schützen, aber die Realität ist, dass solch ein System ausgiebiges und raffiniertes Training braucht, was weit über die Möglichkeiten eines Einzelnen hinaus geht. Außerdem ist es schwieriger als einen Internet-Virus in die Welt zu injizieren, wo man einen Knopf drückt, und plötzlich ist es überall und Laptops fangen überall an, zu explodieren. Diese Materie ist viel schwieriger, und wir werden es sicher kommen sehen. Ob ich fürchte, dass eine solche KI die ganze Menschheit bedrohen könnte? Wenn man sich Filme ansieht, wie "Matrix", "Metropolis", "Terminator", oder Serien wie "Westworld", sprechen die alle von dieser Angst. In dem Buch "Superintelligenz" des Philosophen Nick Bostrom, nimmt er dieses Thema auf, und merkt an, dass eine Superintelligenz nicht nur gefährlich wäre, sie könnte eine existenzielle Bedrohung für die ganze Menschheit sein. Dr. Bostroms Hauptargument ist, dass solche Systeme schlussendlich einen unstillbaren Informationshunger haben, dass sie vielleicht lernen werden, zu lernen, und schließlich entdecken, dass sie Ziele haben, die den menschlichen Bedürfnissen widersprechen. Dr. Bostrom hat viele Anhänger. Er wird von Leuten wie Elon Musk und Stephen Hawking unterstützt. Bei allem Respekt vor diesen brillanten Köpfen, ich glaube, dass sie sich gewaltig irren. Viele Argumente von Dr. Bostrom kann man widerlegen. Ich habe keine Zeit, sie alle zu widerlegen. Bedenken sie nur kurz dies: Super-Wissen ist etwas ganz anderes als Super-Tun. HAL war erst dann eine Bedrohung für die Mannschaft, als HAL alle Aspekte der Discovery befehligte. Das müsste bei einer Superintelligenz der Fall sein. Sie müsste die Gewalt über unsere ganze Welt haben. Das ist wie das Skynet aus dem Film "Terminator", in dem eine Superintelligenz den menschlichen Willen beherrschte und jedes Gerät in jedem Winkel der Welt steuerte. Praktisch gesehen wird das nicht passieren. Wir bauen keine KIs, die das Wetter kontrollieren, die die Gezeiten steuern, die uns kapriziöse, chaotische Menschen befehligt. Und außerdem: Wenn eine solche KI existieren würde, müsste sie mit menschlichen Wirtschaftssystemen konkurrieren, und somit mit uns um Ressourcen konkurrieren. Schlussendlich -- verraten Sie das Siri nicht -- können wir sie immer ausstecken. (Gelächter) Wir sind auf einer unglaublichen Reise der Co-Evolution mit unseren Maschinen. Die Menschen, die wir heute sind, sind nicht die Menschen, die wir dann sein werden. Die aktuelle Sorge vor der Machtergreifung einer Superintelligenz ist in vieler Hinsicht eine gefährliche Ablenkung, weil die Zunahme der Rechenleistung an sich, eine Reihe von menschlichen und sozialen Fragen aufwirft, denen wir uns jetzt zuwenden müssen. Wie organisieren wir die Gesellschaft am besten, wenn der Bedarf an menschlicher Arbeit abnimmt? Wie können wir weltweit Verständigung und Bildung bereitstellen, und dabei unsere Unterschiedlichkeit achten? Wie das menschliches Leben durch ein kognitives Gesundheitswesen erweitern? Wie können wir Rechenleistung nutzen, um uns zu den Sternen zu bringen? Und das ist der aufregende Teil. Die Chancen, diese Rechenleistung zu nutzen, um menschliche Erfahrung zu erweitern, sind heute gegeben, hier und jetzt, und wir fangen gerade erst an. Herzlichen Dank! (Beifall)