1 00:00:00,760 --> 00:00:04,600 Als Kind war ich der typische Nerd. 2 00:00:05,320 --> 00:00:07,496 Ich glaube, das waren manche von Ihnen auch. 3 00:00:07,520 --> 00:00:08,736 (Gelächter) 4 00:00:08,760 --> 00:00:11,976 Sie, der am lautesten gelacht hat, Sie sind es wohl immer noch. 5 00:00:12,000 --> 00:00:14,160 (Gelächter) 6 00:00:14,160 --> 00:00:17,776 Ich wuchs in einer Kleinstadt in den staubigen Ebenen Nordtexas' auf, 7 00:00:17,800 --> 00:00:21,136 der Sohn eines Sheriffs, der der Sohn eines Pastors war. 8 00:00:21,160 --> 00:00:23,080 Ich durfte keinen Ärger machen. 9 00:00:24,040 --> 00:00:27,296 Ich fing aus Vergnügen an, Mathebücher zu lesen. 10 00:00:27,320 --> 00:00:28,856 (Gelächter) 11 00:00:28,880 --> 00:00:30,576 Das haben Sie auch gemacht. 12 00:00:30,600 --> 00:00:34,336 Das führte mich dazu, einen Laser und einen Computer und Modellraketen zu bauen 13 00:00:34,360 --> 00:00:37,360 und Raketenbrennstoff in meinem Schlafzimmer herzustellen. 14 00:00:37,960 --> 00:00:41,616 In wissenschaftlicher Terminologie 15 00:00:41,640 --> 00:00:44,896 nennen wir das eine sehr schlechte Idee. 16 00:00:44,920 --> 00:00:46,136 (Gelächter) 17 00:00:46,160 --> 00:00:48,336 Um die Zeit herum 18 00:00:48,360 --> 00:00:51,576 kam Stanley Kubricks "2001: Odyssee im Weltraum" in die Kinos 19 00:00:51,600 --> 00:00:53,800 und mein Leben hatte sich für immer verändert. 20 00:00:54,280 --> 00:00:56,336 Ich liebte alles in diesem Film, 21 00:00:56,360 --> 00:00:58,830 besonders den HAL 9000. 22 00:00:58,830 --> 00:01:00,976 HAL war ein empfindungsfähiger Computer, 23 00:01:01,000 --> 00:01:03,456 dazu entworfen, das Raumschiff Discovery 24 00:01:03,480 --> 00:01:06,016 von der Erde zum Jupiter zu leiten. 25 00:01:06,040 --> 00:01:08,096 HAL war auch ein fehlerhafter Charakter, 26 00:01:08,120 --> 00:01:12,400 da er am Ende beschloss, die Mission über menschliches Leben zu setzen. 27 00:01:12,840 --> 00:01:14,936 HAL war ein fiktiver Charakter, 28 00:01:14,960 --> 00:01:17,616 aber nichtsdestotrotz spricht er unsere Ängste an, 29 00:01:17,640 --> 00:01:19,736 unsere Ängste vor der Unterwerfung 30 00:01:19,760 --> 00:01:22,776 durch irgendeine nicht fühlende künstliche Intelligenz, 31 00:01:22,800 --> 00:01:24,910 der unsere Menschlichkeit gleichgültig ist. 32 00:01:25,880 --> 00:01:28,456 Ich glaube, dass solche Ängste unbegründet sind. 33 00:01:28,480 --> 00:01:31,176 Wir befinden uns wirklich in einer bemerkenswerten Zeit 34 00:01:31,200 --> 00:01:33,366 in der Geschichte der Menschheit, in der wir, 35 00:01:33,366 --> 00:01:37,736 getrieben durch die Weigerung die Grenzen von Körper und Geist zu akzeptieren, 36 00:01:37,760 --> 00:01:39,456 Maschinen bauen, 37 00:01:39,480 --> 00:01:42,980 von exquisiter, wunderschöner Komplexität und Grazie, 38 00:01:42,980 --> 00:01:45,176 die die menschliche Erfahrung erweitern werden, 39 00:01:45,200 --> 00:01:47,050 weit über unsere Vorstellung hinaus. 40 00:01:47,720 --> 00:01:50,296 Nach einer Karriere bei der Luftwaffen-Akademie 41 00:01:50,320 --> 00:01:52,256 bin ich jetzt beim Weltraumkommando, 42 00:01:52,280 --> 00:01:53,810 als Systemingenieur. 43 00:01:53,810 --> 00:01:56,736 Und kürzlich wurde ich in ein technisches Problem einbezogen, 44 00:01:56,760 --> 00:01:59,336 das mit der NASA-Mission zum Mars zu tun hat. 45 00:01:59,360 --> 00:02:01,856 In Raumflügen zum Mond 46 00:02:01,880 --> 00:02:05,016 können wir uns auf die Einsatzleitstelle in Houston verlassen, 47 00:02:05,040 --> 00:02:07,016 die über alle Aspekte des Fluges wacht. 48 00:02:07,040 --> 00:02:10,576 Allerdings ist der Mars 200-mal weiter weg 49 00:02:10,600 --> 00:02:13,816 und daher dauert es im Durchschnitt 13 Minuten, 50 00:02:13,840 --> 00:02:16,976 bis ein Signal von der Erde zum Mars gelangt. 51 00:02:17,000 --> 00:02:20,400 Wenn es ein Problem gibt, bleibt nicht genügend Zeit. 52 00:02:20,840 --> 00:02:24,670 Und so mussten wir, für eine sinnvolle technische Lösung, 53 00:02:24,670 --> 00:02:28,976 die Einsatzleitstelle im Orion-Raumschiffes platzieren. 54 00:02:29,000 --> 00:02:31,896 Eine andere faszinierende Idee, im Profil der Mission, 55 00:02:31,920 --> 00:02:34,816 setzt humanoide Roboter auf die Marsoberfläche, 56 00:02:34,840 --> 00:02:36,696 bevor die Menschen selbst ankommen, 57 00:02:36,720 --> 00:02:38,370 um zunächst Gebäude zu bauen, 58 00:02:38,370 --> 00:02:42,010 und später als kollaborative Mitglieder im Wissenschaftsteam zu dienen. 59 00:02:43,210 --> 00:02:46,136 Als ich dies aus der technischen Perspektive betrachtete, 60 00:02:46,160 --> 00:02:49,336 wurde mir sehr klar, dass das, was ich bauen musste, 61 00:02:49,360 --> 00:02:51,536 eine schlaue, kollaborative, 62 00:02:51,560 --> 00:02:53,936 sozial intelligente künstliche Intelligenz war. 63 00:02:53,960 --> 00:02:58,256 Anders gesagt, ich musste etwas ganz Ähnliches wie HAL bauen, 64 00:02:58,280 --> 00:03:00,696 ohne die mörderischen Neigungen. 65 00:03:00,720 --> 00:03:02,080 (Gelächter) 66 00:03:02,920 --> 00:03:04,736 Lassen Sie uns kurz anhalten. 67 00:03:04,760 --> 00:03:08,656 Ist es wirklich möglich, eine solche künstliche Intelligenz zu bauen? 68 00:03:08,680 --> 00:03:10,136 Nun, das ist es. 69 00:03:10,160 --> 00:03:11,416 In vieler Hinsicht 70 00:03:11,440 --> 00:03:13,416 ist dies ein rein technisches Problem 71 00:03:13,440 --> 00:03:14,896 mit KI-Anteilen, 72 00:03:14,920 --> 00:03:19,616 kein vages KI-Problem, das technisch gelöst werden muss. 73 00:03:19,640 --> 00:03:22,296 Um es mit Alan Turing zu sagen: 74 00:03:22,320 --> 00:03:24,696 Ich will keine empfindungsfähige Maschine bauen. 75 00:03:24,720 --> 00:03:26,296 Ich baue keinen HAL. 76 00:03:26,320 --> 00:03:28,736 Alles was ich will, ist ein simples Gehirn, 77 00:03:28,760 --> 00:03:31,880 etwas, das die Illusion von Intelligenz bietet. 78 00:03:33,000 --> 00:03:35,940 Kunst und Lehre der Informatik sind weit gekommen, 79 00:03:35,940 --> 00:03:37,656 seit HAL auf der Leinwand erschien, 80 00:03:37,680 --> 00:03:40,896 und ich glaube, wenn sein Erfinder, Dr. Chandra, heute hier wäre, 81 00:03:40,920 --> 00:03:43,256 hätte er viele Fragen an uns. 82 00:03:43,280 --> 00:03:45,376 Ist es uns wirklich möglich 83 00:03:45,400 --> 00:03:49,330 ein System von abermillionen Geräten zu nehmen, 84 00:03:49,330 --> 00:03:50,810 ihre Datenströme zu lesen, 85 00:03:50,810 --> 00:03:53,246 ihre Fehler vorher zu sagen und vorher zu handeln? 86 00:03:53,246 --> 00:03:54,270 Ja. 87 00:03:54,270 --> 00:03:57,570 Können wir Systeme bauen, die mit Menschen natürlich sprechen? 88 00:03:57,570 --> 00:03:58,310 Ja. 89 00:03:58,310 --> 00:04:01,856 Können wir Systeme bauen, die Gegenstände und Emotionen erkennen, 90 00:04:01,880 --> 00:04:05,256 sich ausdrücken, Spiele spielen und sogar Lippen lesen? 91 00:04:05,280 --> 00:04:06,240 Ja. 92 00:04:06,240 --> 00:04:08,656 Können wir ein System bauen, das Ziele setzt, 93 00:04:08,680 --> 00:04:12,296 das Pläne für diese Ziele ausführt und auf dem Weg dahin lernt? 94 00:04:12,320 --> 00:04:13,400 Ja. 95 00:04:13,400 --> 00:04:16,896 Können wir Systeme bauen, die eine Naive Theorie [Theory of mind] haben? 96 00:04:16,920 --> 00:04:18,416 Das lernen wir gerade. 97 00:04:18,440 --> 00:04:21,920 Können wir Systeme mit ethischen und moralischen Grundlagen bauen? 98 00:04:22,480 --> 00:04:24,520 Das müssen wir noch lernen. 99 00:04:24,790 --> 00:04:27,146 So lassen Sie uns für einen Moment akzeptieren, 100 00:04:27,146 --> 00:04:29,656 dass eine solche KI möglich ist, 101 00:04:29,680 --> 00:04:31,816 für solche und andere Aufgaben. 102 00:04:31,840 --> 00:04:34,376 Die nächste Frage, die Sie sich stellen müssen, ist: 103 00:04:34,400 --> 00:04:35,856 Sollten wir sie fürchten? 104 00:04:35,880 --> 00:04:37,856 Jede neue Technologie 105 00:04:37,880 --> 00:04:40,776 bringt eine gewisse Angst mit sich. 106 00:04:40,800 --> 00:04:42,496 Als wir die ersten Autos sahen, 107 00:04:42,520 --> 00:04:46,536 beklagten manche, dass wir die Zerstörung der Familie sehen würden. 108 00:04:46,560 --> 00:04:49,170 Als die ersten Telefone aufkamen, 109 00:04:49,170 --> 00:04:52,326 waren Leute besorgt, dies würde alle höflichen Gespräche zerstören. 110 00:04:52,326 --> 00:04:56,136 Irgendwann setzte sich das geschriebene Wort durch, 111 00:04:56,160 --> 00:04:58,656 und man fürchtete um das Auswendiglernen. 112 00:04:58,680 --> 00:05:00,736 Das ist alles in gewisser Hinsicht wahr, 113 00:05:00,760 --> 00:05:03,176 aber es ist auch wahr, dass diese Technologien 114 00:05:03,200 --> 00:05:06,776 uns Dinge gebracht haben, die unsere menschliche Erfahrung ganz wesentlich 115 00:05:06,776 --> 00:05:08,480 erweitert haben. 116 00:05:09,840 --> 00:05:12,120 Lassen Sie uns noch einen Schritt weiter gehen. 117 00:05:13,120 --> 00:05:17,856 Ich fürchte die Erschaffung einer solchen KI nicht, 118 00:05:17,880 --> 00:05:21,696 da sie schließlich manche unserer Werte verkörpern wird. 119 00:05:21,720 --> 00:05:25,216 Bedenken Sie: Ein kognitives System zu bauen ist grundsätzlich anders 120 00:05:25,240 --> 00:05:28,536 als ein traditionelles software- intensives System der Vergangenheit. 121 00:05:28,560 --> 00:05:31,016 Wir programmieren sie nicht. Wir lehren sie. 122 00:05:31,040 --> 00:05:33,696 Um einem System beizubringen, eine Blume zu erkennen, 123 00:05:33,720 --> 00:05:36,680 zeige ich ihm tausende meiner Lieblingsblumen. 124 00:05:36,680 --> 00:05:39,016 Um einem System ein Spiel beizubringen -- 125 00:05:39,040 --> 00:05:41,000 Ich würde. Sie würden auch. 126 00:05:42,600 --> 00:05:44,640 Ich mag Blumen. Wirklich. 127 00:05:45,440 --> 00:05:48,180 Um einem System ein Spiel wie Go beizubringen, 128 00:05:48,180 --> 00:05:50,426 würde ich es tausende Go-Spiele spielen lassen, 129 00:05:50,426 --> 00:05:52,056 aber dann bringe ich ihm auch bei, 130 00:05:52,080 --> 00:05:54,496 zu erkennen, ob ein Spiel gut oder schlecht ist. 131 00:05:54,520 --> 00:05:58,080 Wenn ich einen KI-Rechtsassistenten baue, 132 00:05:58,080 --> 00:06:00,016 werde ich ihm Gesetze beibringen, 133 00:06:00,040 --> 00:06:02,896 gleichzeitig füge ich ein Verständnis 134 00:06:02,920 --> 00:06:05,800 für Gnade und Gerechtigkeit hinzu, was Teil des Rechts ist. 135 00:06:06,560 --> 00:06:09,536 In der Wissenschaft nennen wir das Grundwahrheit. 136 00:06:09,560 --> 00:06:11,460 Das ist wichtig: 137 00:06:11,460 --> 00:06:13,056 Wenn wir diese Maschinen bauen, 138 00:06:13,080 --> 00:06:16,496 werden wir ihnen unsere Werte beibringen. 139 00:06:16,520 --> 00:06:19,916 Und insofern vertraue ich künstlicher Intelligenz genauso, 140 00:06:19,916 --> 00:06:23,320 oder gar mehr, als einem gut ausgebildeten Menschen. 141 00:06:24,080 --> 00:06:25,296 Aber, werden Sie fragen, 142 00:06:25,320 --> 00:06:27,936 was ist mit Schurken, 143 00:06:27,960 --> 00:06:31,296 einer gut finanzierten, nichtstaatlichen Organisation? 144 00:06:31,320 --> 00:06:35,136 Ich habe keine Angst vor einer KI in der Hand eines Einzelgängers. 145 00:06:35,160 --> 00:06:39,696 Wir können uns nicht vor jeder willkürlichen Gewalttat schützen, 146 00:06:39,720 --> 00:06:41,856 aber die Realität ist, dass solch ein System 147 00:06:41,880 --> 00:06:44,630 ausgiebiges und raffiniertes Training braucht, 148 00:06:44,630 --> 00:06:47,506 was weit über die Möglichkeiten eines Einzelnen hinaus geht. 149 00:06:47,506 --> 00:06:49,080 Außerdem ist es schwieriger 150 00:06:49,080 --> 00:06:51,816 als einen Internet-Virus in die Welt zu injizieren, 151 00:06:51,840 --> 00:06:54,936 wo man einen Knopf drückt, und plötzlich ist es überall 152 00:06:54,960 --> 00:06:57,416 und Laptops fangen überall an, zu explodieren. 153 00:06:57,440 --> 00:07:00,256 Diese Materie ist viel schwieriger, 154 00:07:00,280 --> 00:07:02,345 und wir werden es sicher kommen sehen. 155 00:07:02,520 --> 00:07:05,576 Ob ich fürchte, dass eine solche KI 156 00:07:05,600 --> 00:07:07,560 die ganze Menschheit bedrohen könnte? 157 00:07:08,280 --> 00:07:12,656 Wenn man sich Filme ansieht, wie "Matrix", "Metropolis", 158 00:07:12,680 --> 00:07:15,856 "Terminator", oder Serien wie "Westworld", 159 00:07:15,880 --> 00:07:18,016 sprechen die alle von dieser Angst. 160 00:07:18,040 --> 00:07:22,336 In dem Buch "Superintelligenz" des Philosophen Nick Bostrom, 161 00:07:22,360 --> 00:07:23,896 nimmt er dieses Thema auf, 162 00:07:23,920 --> 00:07:27,936 und merkt an, dass eine Superintelligenz nicht nur gefährlich wäre, 163 00:07:27,960 --> 00:07:31,816 sie könnte eine existenzielle Bedrohung für die ganze Menschheit sein. 164 00:07:31,840 --> 00:07:34,056 Dr. Bostroms Hauptargument ist, 165 00:07:34,080 --> 00:07:36,816 dass solche Systeme schlussendlich 166 00:07:36,840 --> 00:07:40,096 einen unstillbaren Informationshunger haben, 167 00:07:40,120 --> 00:07:43,016 dass sie vielleicht lernen werden, zu lernen, 168 00:07:43,040 --> 00:07:45,656 und schließlich entdecken, dass sie Ziele haben, 169 00:07:45,680 --> 00:07:47,976 die den menschlichen Bedürfnissen widersprechen. 170 00:07:48,000 --> 00:07:49,856 Dr. Bostrom hat viele Anhänger. 171 00:07:49,880 --> 00:07:54,200 Er wird von Leuten wie Elon Musk und Stephen Hawking unterstützt. 172 00:07:54,880 --> 00:07:57,280 Bei allem Respekt 173 00:07:58,160 --> 00:08:00,176 vor diesen brillanten Köpfen, 174 00:08:00,200 --> 00:08:02,456 ich glaube, dass sie sich gewaltig irren. 175 00:08:02,480 --> 00:08:05,656 Viele Argumente von Dr. Bostrom kann man widerlegen. 176 00:08:05,680 --> 00:08:08,046 Ich habe keine Zeit, sie alle zu widerlegen. 177 00:08:08,046 --> 00:08:10,536 Bedenken sie nur kurz dies: 178 00:08:10,560 --> 00:08:14,130 Super-Wissen ist etwas ganz anderes als Super-Tun. 179 00:08:14,130 --> 00:08:16,656 HAL war erst dann eine Bedrohung für die Mannschaft, 180 00:08:16,656 --> 00:08:20,656 als HAL alle Aspekte der Discovery befehligte. 181 00:08:20,680 --> 00:08:23,130 Das müsste bei einer Superintelligenz der Fall sein. 182 00:08:23,130 --> 00:08:25,846 Sie müsste die Gewalt über unsere ganze Welt haben. 183 00:08:25,846 --> 00:08:28,536 Das ist wie das Skynet aus dem Film "Terminator", 184 00:08:28,560 --> 00:08:30,416 in dem eine Superintelligenz 185 00:08:30,440 --> 00:08:32,156 den menschlichen Willen beherrschte 186 00:08:32,156 --> 00:08:35,696 und jedes Gerät in jedem Winkel der Welt steuerte. 187 00:08:35,720 --> 00:08:37,176 Praktisch gesehen 188 00:08:37,200 --> 00:08:39,296 wird das nicht passieren. 189 00:08:39,320 --> 00:08:42,376 Wir bauen keine KIs, die das Wetter kontrollieren, 190 00:08:42,400 --> 00:08:43,736 die die Gezeiten steuern, 191 00:08:43,760 --> 00:08:47,136 die uns kapriziöse, chaotische Menschen befehligt. 192 00:08:47,160 --> 00:08:51,056 Und außerdem: Wenn eine solche KI existieren würde, 193 00:08:51,080 --> 00:08:54,016 müsste sie mit menschlichen Wirtschaftssystemen konkurrieren, 194 00:08:54,040 --> 00:08:56,560 und somit mit uns um Ressourcen konkurrieren. 195 00:08:57,200 --> 00:08:58,110 Schlussendlich -- 196 00:08:58,110 --> 00:08:59,680 verraten Sie das Siri nicht -- 197 00:09:00,310 --> 00:09:01,906 können wir sie immer ausstecken. 198 00:09:01,906 --> 00:09:03,960 (Gelächter) 199 00:09:05,360 --> 00:09:07,816 Wir sind auf einer unglaublichen Reise 200 00:09:07,840 --> 00:09:10,336 der Co-Evolution mit unseren Maschinen. 201 00:09:10,360 --> 00:09:12,856 Die Menschen, die wir heute sind, 202 00:09:12,880 --> 00:09:15,416 sind nicht die Menschen, die wir dann sein werden. 203 00:09:15,440 --> 00:09:18,576 Die aktuelle Sorge vor der Machtergreifung einer Superintelligenz 204 00:09:18,600 --> 00:09:21,656 ist in vieler Hinsicht eine gefährliche Ablenkung, 205 00:09:21,680 --> 00:09:24,016 weil die Zunahme der Rechenleistung an sich, 206 00:09:24,040 --> 00:09:27,056 eine Reihe von menschlichen und sozialen Fragen aufwirft, 207 00:09:27,080 --> 00:09:28,900 denen wir uns jetzt zuwenden müssen. 208 00:09:29,360 --> 00:09:32,176 Wie organisieren wir die Gesellschaft am besten, 209 00:09:32,200 --> 00:09:34,536 wenn der Bedarf an menschlicher Arbeit abnimmt? 210 00:09:34,560 --> 00:09:38,110 Wie können wir weltweit Verständigung und Bildung bereitstellen, 211 00:09:38,110 --> 00:09:40,386 und dabei unsere Unterschiedlichkeit achten? 212 00:09:40,386 --> 00:09:44,456 Wie das menschliches Leben durch ein kognitives Gesundheitswesen erweitern? 213 00:09:44,480 --> 00:09:47,336 Wie können wir Rechenleistung nutzen, 214 00:09:47,360 --> 00:09:49,120 um uns zu den Sternen zu bringen? 215 00:09:49,760 --> 00:09:51,800 Und das ist der aufregende Teil. 216 00:09:52,400 --> 00:09:54,736 Die Chancen, diese Rechenleistung zu nutzen, 217 00:09:54,760 --> 00:09:56,616 um menschliche Erfahrung zu erweitern, 218 00:09:56,616 --> 00:09:57,736 sind heute gegeben, 219 00:09:57,760 --> 00:09:59,616 hier und jetzt, 220 00:09:59,640 --> 00:10:01,320 und wir fangen gerade erst an. 221 00:10:02,280 --> 00:10:03,496 Herzlichen Dank! 222 00:10:03,520 --> 00:10:07,806 (Beifall)