Return to Video

Roboter sollten keine tödlichen Entscheidungen treffen

  • 0:01 - 0:04
    Ich schreibe Sci-Fi Thriller,
  • 0:04 - 0:06
    wenn ich also "Killer-Roboter" sage,
  • 0:06 - 0:08
    dann denken Sie wahrscheinlich
    an einen wie diesen.
  • 0:08 - 0:11
    Aber ich bin nicht hier,
    um über Fiktion zu sprechen.
  • 0:11 - 0:14
    Ich bin hier, um über echte
    Killer-Roboter zu sprechen,
  • 0:14 - 0:17
    eigenständige Kampfdrohnen.
  • 0:17 - 0:21
    Nicht die ferngesteuerten Kampfdrohnen,
  • 0:21 - 0:25
    bei denen über das Ziel
    ein Mensch entscheidet,
  • 0:25 - 0:28
    Ich rede über völlig automatische Roboterwaffen,
  • 0:28 - 0:30
    die tödliche Entscheidungen über
    Menschenleben treffen können,
  • 0:30 - 0:32
    völlig ohne menschliche Hilfe.
  • 0:32 - 0:36
    Es gibt tatsächlich einen technischen
    Ausdruck dafür: "tödliche Autonomie".
  • 0:36 - 0:39
    Tödlich autonome Killer-Roboter
  • 0:39 - 0:42
    könnten viele Formen annehmen
    – sie könnten fliegen, fahren,
  • 0:42 - 0:45
    oder einfach nur lauern.
  • 0:45 - 0:48
    Und sie werden sehr schnell
    zur Realität werden.
  • 0:48 - 0:50
    Das sind zwei automatische
    Scharfschuss-Stationen,
  • 0:50 - 0:55
    die aktuell in der DMZ
    zwischen Nord- und Süd-Korea liegen.
  • 0:55 - 0:57
    Beide dieser Maschinen sind fähig,
    automatisch
  • 0:57 - 1:00
    menschliche Ziele zu erfassen
    und auf sie zu feuern.
  • 1:00 - 1:05
    Die linke auf eine Distanz
    von über einem Kilometer.
  • 1:05 - 1:08
    Es sind in beiden Fällen jedoch
    immer noch Menschen im System,
  • 1:08 - 1:10
    um diesen tödlichen Entschluss
    zu feuern zu treffen.
  • 1:10 - 1:16
    Es ist technologisch jedoch
    nicht notwendig. Es ist eine Wahl.
  • 1:16 - 1:19
    Und auf diese Wahl möchte ich
    mich konzentrieren,
  • 1:19 - 1:22
    denn wenn wir das Treffen
    todbringender Entscheidungen
  • 1:22 - 1:25
    von Menschen auf Software übertragen,
  • 1:25 - 1:28
    riskieren wir nicht nur,
    die Menschlichkeit aus dem Krieg zu entfernen,
  • 1:28 - 1:32
    sondern auch die gesellschaftliche Lage
    grundlegend zu verändern.
  • 1:32 - 1:34
    Weit entfernt vom Schlachtfeld.
  • 1:34 - 1:38
    Das erfolgt daraus, dass die Art,
    wie Menschen Konflikte lösen,
  • 1:38 - 1:40
    unsere soziale Landschaft formt.
  • 1:40 - 1:43
    Und das war schon immer
    in der Geschichte.
  • 1:43 - 1:46
    Das waren beispielsweise
    die besten Waffensysteme
  • 1:46 - 1:48
    im Jahre 1400.
  • 1:48 - 1:51
    Sie waren beide sehr teuer
    in der Herstellung und der Aufrechterhaltung.
  • 1:51 - 1:54
    Mit ihnen konnte man jedoch
    die Bevölkerung dominieren
  • 1:54 - 1:58
    und die Verteilung der politischen Macht in einer Feudalgesellschaft spiegelt das wider.
  • 1:58 - 2:01
    Macht war an der Spitze konzentriert.
  • 2:01 - 2:04
    Und was hat sich verändert?
    Technologische Neuerung.
  • 2:04 - 2:06
    Schießpulver, Kanonen.
  • 2:06 - 2:10
    Und ziemlich schnell waren Rüstungen
    und Festungen veraltet
  • 2:10 - 2:12
    und es zählte nicht mehr,
    wen du auf's Schlachtfeld brachtest,
  • 2:12 - 2:16
    sondern wie viele.
  • 2:16 - 2:20
    Und als Armeen in der Größe zunahmen,
    entstand der Nationalstaat
  • 2:20 - 2:23
    als politische und logistische Voraussetzung
    von Verteidigung.
  • 2:23 - 2:26
    Und als Führer sich mehr
    auf ihr Volk verlassen mussten,
  • 2:26 - 2:28
    fingen sie an, die Macht zu teilen.
  • 2:28 - 2:30
    Repräsentative Regierungen entstanden.
  • 2:30 - 2:33
    Und so formen die Werkzeuge,
    die wir zur Konfliktlösung einsetzen,
  • 2:33 - 2:37
    unsere Gesellschaft.
  • 2:37 - 2:41
    Autonome robotische Waffen
    sind so ein Werkzeug,
  • 2:41 - 2:46
    außer dass sie, da sie zum Krieg führen
    sehr wenige Menschen benötigen,
  • 2:46 - 2:51
    riskieren, dass die Macht wieder
    konzentriert in einige wenige Hände fällt.
  • 2:51 - 2:57
    Und möglicherweise einen fünf Jahrhunderte
    langen Trend zur Demokratie umkehren.
  • 2:57 - 2:59
    Ich denke, wenn wir das wissen,
  • 2:59 - 3:03
    können wir entscheidende Schritte zum Bewahren
    unserer demokratischen Einrichtungen unternehmen,
  • 3:03 - 3:07
    um das zu tun, was Menschen
    am besten können: sich anpassen.
  • 3:07 - 3:09
    Zeit ist hierbei jedoch auch ein Faktor.
  • 3:09 - 3:12
    Siebzig Nationen entwickeln
    ihre eigenen ferngesteuerten
  • 3:12 - 3:14
    Kampfdrohnen.
  • 3:14 - 3:17
    Und wie Sie sehen werden,
    sind ferngesteuerte Kampfdrohnen
  • 3:17 - 3:22
    die Vorläufer der autonomen Roboterwaffen.
  • 3:22 - 3:24
    Wenn man nämlich einmal
    ferngesteuerte Drohnen im Einsatz hat,
  • 3:24 - 3:28
    verlagern drei mächtige Faktoren
    die Entscheidungsfindung
  • 3:28 - 3:32
    weg vom Menschen,
    hin zur Waffenplattform an sich.
  • 3:32 - 3:38
    Der erste Faktor ist die Sintflut an Videos,
    die Drohnen produzieren.
  • 3:38 - 3:41
    2004 beispielsweise produzierte
    die amerikanische Drohnenflotte
  • 3:41 - 3:47
    insgesamt 71 Stunden
    von Videoüberwachung zur Analyse.
  • 3:47 - 3:51
    Bis 2011 sind es 300.000 Stunden,
  • 3:51 - 3:54
    das übersteigt die menschlichen
    Fähigkeiten, alles zu überprüfen.
  • 3:54 - 3:58
    Aber die Zahlen stehen kurz vor
    einem drastischen Anstieg.
  • 3:58 - 4:01
    Die Programme des Pentagons
    "Gorgon Stare" und "Argus"
  • 4:01 - 4:04
    werden bis zu 65 eigenständig
    betriebene Kameras
  • 4:04 - 4:06
    auf jeder Drohnenplatform haben.
  • 4:06 - 4:09
    Und das würde die menschlichen Möglichkeiten
    der Kontrolle weit übertreffen.
  • 4:09 - 4:11
    Das bedeutet, dass
    visuelle Aufklärungssoftware
  • 4:11 - 4:15
    es nach interessanten Dingen
    abscannen müsste.
  • 4:15 - 4:17
    Das bedeutet wiederum, dass
  • 4:17 - 4:19
    Drohnen in Zukunft den Menschen sagen werden,
    worauf sie schauen sollen,
  • 4:19 - 4:22
    und nicht mehr andersherum.
  • 4:22 - 4:24
    Aber es gibt einen zweiten
    mächtigen Anreiz dafür,
  • 4:24 - 4:28
    das Entscheidungentreffen von Menschen
    auf Maschinen zu übertragen
  • 4:28 - 4:30
    und das sind elektromagnetische Störungen,
  • 4:30 - 4:35
    die die Verbindungen zwischen der Drohne
    und ihrem Führer unterbrechen.
  • 4:36 - 4:38
    2011 haben wir ein Beispiel hierfür gesehen,
  • 4:38 - 4:44
    als eine amerikanische Wächterdrohne
    vom Typ RQ-170 über dem Iran
  • 4:44 - 4:46
    durch "GPS-Spoofing" manipuliert wurde.
  • 4:46 - 4:51
    Jede ferngesteuerte Drohne
    ist anfällig für diese Attacken
  • 4:51 - 4:53
    und das bedeutet, dass Drohnen
  • 4:53 - 4:56
    mehr Entscheidungsfindungen
    auf sich nehmen müssen.
  • 4:56 - 5:00
    Sie kennen ihre Mission
  • 5:00 - 5:05
    und sie werden auf neue Umstände
    ohne menschliche Hilfe reagieren.
  • 5:05 - 5:07
    Sie werden fremde Funksignale ignorieren
  • 5:07 - 5:09
    und nur sehr wenige selbst schicken.
  • 5:09 - 5:11
    Das bringt uns zum dritten
  • 5:11 - 5:14
    und mächtigsten Anreiz,
    um das Entscheidungentreffen
  • 5:14 - 5:18
    von Menschen auf Waffen zu übertragen:
  • 5:18 - 5:22
    glaubhafte Leugnung.
  • 5:22 - 5:25
    Wir leben in einer globalen Wirtschaft.
  • 5:25 - 5:30
    High-Tech Fabrikationen kommen
    auf den meisten Kontinenten vor.
  • 5:30 - 5:34
    Cyber-Spionage verbreitet fortgeschrittene
    Konstruktionen ins Unbekannte,
  • 5:34 - 5:36
    und in diesen Gebieten ist es
    sehr wahrscheinlich, dass
  • 5:36 - 5:40
    ein funktionierender Entwurf einer Drohne
    in einer Vertragsfabrik entsteht
  • 5:40 - 5:42
    und sich auf dem Graumarkt vermehrt.
  • 5:42 - 5:46
    Und in dieser Situation ist es
    beim Durchwühlen des Wracks
  • 5:46 - 5:49
    nach einer "Selbstmord"-Drohnenattacke
    schwer zu sagen,
  • 5:49 - 5:52
    wer diese Waffe geschickt hat.
  • 5:53 - 5:57
    Das steigert die reale Möglichkeit
    eines anonymen Krieges.
  • 5:58 - 6:01
    Es könnte die geopolitische Balance
    auf dem Gleichgewicht werfen,
  • 6:01 - 6:06
    und es einer Nation erschweren,
    ihre Feuerkraft auf einen Angreifer zu richten.
  • 6:06 - 6:11
    Und das könnte die Balance des 21. Jahrhunderts
    weg von Verteidigung und auf Angriff bringen.
  • 6:11 - 6:14
    Es könnte militärisches Eingreifen
    zu einer brauchbaren Option machen.
  • 6:14 - 6:16
    Nicht nur für kleine Nationen,
  • 6:16 - 6:19
    aber auch für kriminelle Organisationen,
    Privatunternehmen,
  • 6:19 - 6:22
    und sogar mächtige Individuen.
  • 6:22 - 6:24
    Das könnte eine Landschaft
    von rivalisierenden Warlords schaffen
  • 6:24 - 6:29
    und die Regeln des Gesetzes
    und der zivilen Gesellschaft untergraben.
  • 6:29 - 6:32
    Wenn Verantwortung und
    Durchschaubarkeit
  • 6:32 - 6:35
    zwei der Grundpfeiler der
    repräsentativen Regierung sind,
  • 6:35 - 6:38
    könnten autonome robotische Waffen
    beides umwerfen.
  • 6:38 - 6:43
    Sie denken jetzt vielleicht, dass Bürger
    einer "High-Tech Nation" einen Vorteil
  • 6:43 - 6:45
    in einem "automatischen" Krieg hätten,
  • 6:45 - 6:49
    und dass die Bürger dieser Nationen
    weniger anfällig und verletzlich wären,
  • 6:49 - 6:52
    besonders gegenüber
    Entwicklungsländern.
  • 6:53 - 6:56
    Aber ich glaube, genau
    das Gegenteil wäre der Fall.
  • 6:57 - 6:59
    Ich denke, dass Bürger in weit
    entwickelten Gesellschaften
  • 6:59 - 7:03
    ungeschützter gegen
    robotische Waffen sind.
  • 7:03 - 7:07
    Und der Grund dafür ist
    ein einziges Wort: Daten.
  • 7:07 - 7:11
    Daten ermöglichen
    High-Tech-Gesellschaften.
  • 7:11 - 7:14
    Handy-Geolokalisierung,
    Telekom-Metadaten,
  • 7:14 - 7:17
    soziale Medien, E-Mails,
    Texte, Finanztransaktionen,
  • 7:17 - 7:21
    Transportdaten –
    eine Fülle an Echtzeit-Daten
  • 7:21 - 7:24
    in den Bewegungen und sozialen
    Interaktionen der Menschen.
  • 7:24 - 7:30
    Kurz gesagt: Wir sind sichtbarer für Maschinen
    als alle Menschen in der Geschichte.
  • 7:30 - 7:35
    Und das ist perfekt für die Ziel-Anforderungen
    von autonomen Waffen.
  • 7:36 - 7:41
    Hier sehen Sie eine eine Verbindungsanalyse
    einer sozialen Gruppe.
  • 7:41 - 7:44
    Die Linien zeigen soziale Verbundenheit
    zwischen einzelnen Individuen.
  • 7:44 - 7:49
    Diese Kartenart kann durch die Datenspur,
    die moderne Menschen hinterlassen,
  • 7:49 - 7:51
    automatisch generiert werden.
  • 7:51 - 7:55
    Normalerweise wird es genutzt,
    um Waren und Dienstleistungen
  • 7:55 - 7:59
    an Zielgruppen zu verkaufen,
    hat aber zwei Verwendungszwecke,
  • 7:59 - 8:02
    denn dieses spezielle Ausrichten wird
    in einem anderen Kontext verwendet.
  • 8:02 - 8:05
    Achten Sie auf die
    hervorgehobenen Individuen.
  • 8:05 - 8:08
    Das sind die Zentren sozialer Netzwerke.
  • 8:08 - 8:12
    Das sind Veranstalter, Trendsetter und Anführer.
  • 8:12 - 8:15
    Und diese Leute können
    automatisch identifiziert werden,
  • 8:15 - 8:16
    aufgrund ihrer Kommunikationsmuster.
  • 8:16 - 8:20
    Wenn Sie nun ein Vermarkter sind,
    dann richten Sie Ihre Warenproben auf sie aus,
  • 8:20 - 8:23
    um Ihre Marke durch deren
    soziale Gruppe zu verbreiten.
  • 8:23 - 8:26
    Wenn Sie nun aber eine repressive
    Regierung sind,
  • 8:26 - 8:31
    die nach politischen Bedrohungen sucht,
    dann werden Sie sie vielleicht beseitigen,
  • 8:31 - 8:34
    sie zerstören, ihre soziale
    Gruppe auseinanderreißen.
  • 8:34 - 8:39
    Und die Zurückgebliebenen verlieren
    sozialen Zusammenhalt und Organisation.
  • 8:39 - 8:43
    In einer Welt von günstigen,
    wuchernden robotischen Waffen
  • 8:43 - 8:48
    würden Grenzen nur sehr wenig Schutz
    gegenüber entfernten Regierungen
  • 8:48 - 8:51
    oder grenzüberschreitenden
    kriminellen Organisationen bieten.
  • 8:51 - 8:57
    Große Bewegungen für einen Wandel
    könnten sehr früh aufgespürt
  • 8:57 - 9:02
    und ihre Anführer ausgeschaltet werden,
    bevor ihre Ideen zu große Ausmaße annehmen.
  • 9:02 - 9:04
    Und Ideen mit kritischem Ausmaß
  • 9:04 - 9:08
    machen politisches Engagement
    in beliebten Regierungen aus.
  • 9:08 - 9:12
    Anonyme tödliche Waffen könnten
    tödliche Auswirkungen haben.
  • 9:12 - 9:16
    Eine einfache Wahl bei allen Arten
    von Interessenkonflikten.
  • 9:16 - 9:18
    Das würde die
    freie Meinungsäußerung und
  • 9:18 - 9:24
    gängiges politisches Handeln, die Kernelemente
    der Demokratie, drastisch eindämmen.
  • 9:24 - 9:27
    Und das ist der Grund, weshalb wir
    einen internationalen Vertrag
  • 9:27 - 9:31
    für robotische Waffen und
    besonders ein globales Verbot
  • 9:31 - 9:35
    für die Entwicklung und Benutzung
    von Killer-Robotern brauchen.
  • 9:35 - 9:38
    Wir haben beispielsweise internationale Verträge
  • 9:38 - 9:42
    für nukleare und biologische Waffen
    und, obwohl sie nicht perfekt sind,
  • 9:42 - 9:43
    haben sie weitgehend funktioniert.
  • 9:43 - 9:48
    Roboterwaffen jedoch sind
    vielleicht genauso gefährlich,
  • 9:48 - 9:51
    denn sie werden fast zweifellos genutzt,
  • 9:51 - 9:55
    und wären genauso zerstörend
    für unsere demokratischen Einrichtungen.
  • 9:56 - 9:59
    Im November 2012 erließ das
    amerikanische Verteidigungsministerium
  • 9:59 - 10:02
    eine Richtlinie, die veranlasst,
  • 10:02 - 10:06
    dass ein Mensch bei jeder tödlichen
    Entscheidung dabei sein muss.
  • 10:06 - 10:11
    Sie verhinderte vorübergehend
    autonome Waffen im amerikanischen Militär,
  • 10:11 - 10:15
    sie muss aber dauerhaft gültig sein.
  • 10:15 - 10:20
    Sie könnte die Voraussetzungen
    für globales Handeln schaffen.
  • 10:20 - 10:24
    Denn wir brauchen einen internationalen
    rechtlichen Rahmen für Roboterwaffen.
  • 10:25 - 10:29
    Und wir brauchen ihn jetzt,
    vor einem verheerenden Angriff
  • 10:29 - 10:32
    oder einem Terroranschlag,
    der die Nationen der Welt dazu veranlasst,
  • 10:32 - 10:36
    nach diesen Waffen zu streben,
    bevor sie die Konsequenzen durchdacht haben.
  • 10:37 - 10:41
    Autonome robotische Waffen konzentrieren
    zu viel Macht in zu wenigen Händen,
  • 10:42 - 10:46
    und würden die Demokratie selbst gefährden.
  • 10:46 - 10:49
    Verstehen Sie mich nicht falsch,
    ich denke, es gibt Millionen
  • 10:49 - 10:52
    von großartigen Verwendungszwecken
    für unbewaffnete Zivilisten-Drohnen:
  • 10:52 - 10:56
    Umweltüberwachung,
    Suchen und Bergen, Logistik.
  • 10:56 - 10:58
    Wenn wir einen internationalen Vertrag
    für Roboterwaffen haben,
  • 10:58 - 11:03
    wie können wir die Vorteile
    der autonomen Drohnen und Fahrzeuge
  • 11:03 - 11:08
    ausschöpfen und uns dennoch vor
    illegalen Roboterwaffen schützen?
  • 11:08 - 11:13
    Ich denke, das Geheimnis
    wird Transparenz sein.
  • 11:13 - 11:18
    Kein Roboter sollte Privatsphäre
    auf einem öffentlichen Platz erwarten.
  • 11:18 - 11:25
    (Applaus)
  • 11:25 - 11:27
    Jeder Roboter sollte in der Fabrik
  • 11:27 - 11:30
    eine kryptographisch signierte
    Identifikationsnummer eingraviert bekommen,
  • 11:30 - 11:33
    mit der man seine Bewegung
    durch öffentliche Orte nachverfolgen kann.
  • 11:33 - 11:36
    Wir haben Nummernschilder an Autos,
    Luftfahrzeugkennzeichen an Flugzeugen.
  • 11:36 - 11:38
    Hier ist es nicht anders.
  • 11:38 - 11:40
    Und jeder Bürger sollte
    eine App herunterladen können,
  • 11:40 - 11:43
    die die Population von Drohnen
    und autonomen Fahrzeugen zeigt,
  • 11:43 - 11:45
    wie sie sich durch
    den öffentlichen Raum bewegen.
  • 11:45 - 11:49
    Aktuell und in der Vergangenheit.
  • 11:49 - 11:52
    Und zivile Führer sollten Sensoren
    und zivile Drohnen bereitstellen,
  • 11:52 - 11:54
    um problematische Drohnen
    ausfindig machen zu können.
  • 11:54 - 11:57
    Und anstatt sie
    mit Killerdrohnen zu eliminieren,
  • 11:57 - 12:00
    sollten sie Menschen auf ihr Dasein hinweisen.
  • 12:00 - 12:03
    In manchen Hochsicherheits-Bereichen
  • 12:03 - 12:05
    würden zivile Drohnen
    sie vielleicht einfangen
  • 12:05 - 12:08
    und sie zu einem
    Bombenentschärfungsteam ziehen.
  • 12:08 - 12:12
    Aber das ist eher ein Immunsystem
    als ein Waffensystem.
  • 12:12 - 12:14
    Es würde es uns ermöglichen, den Nutzen
  • 12:14 - 12:17
    von autonomen Fahrzeugen und
    Drohnen in Anspruch zu nehmen,
  • 12:17 - 12:21
    und trotzdem unsere offene,
    zivile Gesellschaft bewahren.
  • 12:21 - 12:24
    Wir müssen die Benutzung und Entwicklung
  • 12:24 - 12:26
    von Killer-Robotern verbieten.
  • 12:26 - 12:31
    Erliegen wir nicht der Versuchung
    eines autonomen Krieges.
  • 12:31 - 12:34
    Autokratische Regierungen
    und kriminelle Organisationen
  • 12:34 - 12:36
    werden es ohne jeden Zweifel tun.
    Aber wir sollten uns ihnen nicht anschließen.
  • 12:36 - 12:40
    Autonome robotische Waffen
    würden zu viel Macht
  • 12:40 - 12:43
    in zu wenige ungesehene Hände konzentrieren.
  • 12:43 - 12:45
    Und das würde zerstörend für repräsentative Regierungen sein
  • 12:45 - 12:49
    Sorgen wir dafür, zumindest die Demokraten,
  • 12:49 - 12:52
    dass Killer-Roboter eine Fiktion bleiben
  • 12:52 - 12:53
    Vielen Dank.
  • 12:53 - 12:58
    (Applaus)
  • 12:58 - 13:03
    Danke schön. (Applaus)
Title:
Roboter sollten keine tödlichen Entscheidungen treffen
Speaker:
Daniel Suarez
Description:

Als Science-Fiction-Autor schreibt Daniel Suarez katastrophale Geschichten über die Zukunft. Auf der TEDGlobal-Bühne erzählt er jedoch von einem realen Szenario, über das wir alle mehr wissen sollten: der Aufstieg der autonomen Roboter-Waffen im Krieg. Fortgeschrittene Drohnen, automatisierte Waffen und mit künstlicher Intelligenz betriebene und Daten sammelnde Werkzeuge, sagt er, könnten die Entscheidung, einen Krieg zu führen, aus den Händen der Menschen rauben.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:20
  • Puh! Also die größte Schwierigkeit hier war eine technische -- die Timings hatten sich circa ab Minute 4 alle verschoben. War dir das zufällig bei der Uebersetzung auch aufgefallen? Ich versuche das Amara zu erklären auf dass es nie mehr passiert, aber dafür wären ja weitere Informationen gut.

    Ansonsten waren in der Übersetzung noch einige Fehler drin, hauptsächlich folgender Art: Großschreibung höfl. Anrede, und Substantive auch groß (Verben klein). Kommas.

    Ein paar Untertitel waren gar nicht synchronisiert, musste sie einfügen. Aber da ahnte ich noch nicht, was ab Minute 4 kommt. :(

    Viele Sachen waren zu nah am Englischen:
    Übersetzung von Gerundium als Partizip 1 ("fliegend"), nicht so toll im Dt.
    Im Dt. steht vor einer Jahreszahl nicht "in"
    Es gibt im Dt. keine Wörter wie "scharfschütz Station". Komposita werden durchgekoppelt mit Bindestrich und großgeschrieben.
    Ein paar Fehlübersetzungen, und Schusselfehler.

    Ansonsten habe ich Zeilenumbrüche eingefügt.

    Titel: Beim Titel ist nicht klar, ob das "Entscheidungen" im Akkusativ steht, daher würde ich die Konstruktion umdrehen

    Ich hoffe, jetzt ist alles mehr oder weniger in Ordnung. Gruß Judith

  • Das hat ein bisschen länger gedauert, sorry. Es gab ein Problem mit dem Timing, dann hat sich Support drum gekümmert und dann bin ich auch noch verreist. Jetzt ist alles wieder unter Kontrolle und der Vortrag freigeschaltet. Beste Grüße, Judith

German subtitles

Revisions