Return to Video

Neue Video-Technologie enthüllt versteckte Eigenschaften von Objekten

  • 0:01 - 0:05
    Die meisten halten Bewegung
    für etwas Visuelles.
  • 0:06 - 0:08
    Wenn ich über diese Bühne laufe
  • 0:08 - 0:11
    oder beim Sprechen
    Gesten mit den Händen mache,
  • 0:11 - 0:14
    ist das eine Bewegung,
    die Sie sehen können.
  • 0:14 - 0:20
    Aber es gibt wichtige Bewegungen,
    die das menschliche Auge nicht sieht.
  • 0:20 - 0:23
    In den letzten paar Jahren
    haben wir herausgefunden,
  • 0:23 - 0:26
    dass Kameras diese
    Bewegungen sehen können,
  • 0:26 - 0:28
    auch wenn es die Menschen nicht können.
  • 0:28 - 0:30
    Ich möchte Ihnen zeigen,
    was ich meine.
  • 0:31 - 0:34
    Links sehen Sie
    das Video eines Handgelenks
  • 0:34 - 0:37
    und rechts das Video
    eines schlafenden Kleinkinds,
  • 0:37 - 0:41
    aber wenn ich Ihnen nicht gesagt hätte,
    dass das Videos sind,
  • 0:41 - 0:44
    hätten Sie vielleicht angenommen,
    Sie würden zwei normale Bilder anschauen,
  • 0:44 - 0:46
    denn in beiden Fällen
  • 0:46 - 0:50
    scheinen diese Videos
    völlig still zu stehen.
  • 0:50 - 0:54
    Aber in Wirklichkeit ist hier jede Menge
    subtile Bewegung im Gange
  • 0:54 - 0:57
    und wenn Sie das Handgelenk
    links berühren könnten,
  • 0:57 - 0:58
    dann würden Sie den Pulsschlag spüren,
  • 0:58 - 1:01
    und wenn Sie das Kleinkind
    rechts halten würden,
  • 1:01 - 1:03
    dann würden Sie das Heben
    seiner Brust spüren,
  • 1:03 - 1:05
    wenn es atmet.
  • 1:06 - 1:09
    Diese Bewegungen sind
    von großer Bedeutung,
  • 1:09 - 1:13
    aber normalerweise
    für uns nicht sichtbar.
  • 1:13 - 1:14
    Also müssen wir sie
  • 1:14 - 1:18
    durch direkten Kontakt,
    durch Berührung, feststellen.
  • 1:19 - 1:20
    Aber vor ein paar Jahren
  • 1:20 - 1:22
    haben meine Kollegen am MIT
  • 1:22 - 1:25
    ein sogenanntes
    Bewegungs-Mikroskop entwickelt,
  • 1:25 - 1:29
    eine Software, die diese subtilen
    Bewegungen in einem Video finden
  • 1:29 - 1:33
    und verstärken kann, sodass sie groß genug
    für das menschliche Auge sind.
  • 1:33 - 1:37
    Wenn wir also diese Software
    auf das Video links anwenden,
  • 1:37 - 1:40
    können wir den Pulsschlag
    am Handgelenk erkennen
  • 1:40 - 1:42
    und wenn wir den Puls zählen würden,
  • 1:42 - 1:45
    könnten wir sogar die Herzfrequenz
    dieser Person herausfinden.
  • 1:45 - 1:48
    Wenn wir die Software
    auf das Video rechts anwenden würden,
  • 1:48 - 1:51
    können wir jeden Atemzug erkennen,
    den das Kleinkind macht,
  • 1:51 - 1:56
    und wir könnten ohne Berührung
    seine Atmung überwachen.
  • 1:57 - 2:02
    Diese Technologie ist sehr beeindruckend,
    da wir diese Phänomene,
  • 2:02 - 2:05
    die wir bisher durch
    Berührung erfahren mussten,
  • 2:05 - 2:08
    nun visuell non-invasiv erfassen können.
  • 2:09 - 2:14
    Vor ein paar Jahren begann ich, mit
    den Erfindern der Software zu arbeiten
  • 2:14 - 2:17
    und wir beschlossen,
    eine verrückte Idee zu verfolgen.
  • 2:17 - 2:20
    Wir fanden es cool,
    mit Hilfe einer Software
  • 2:20 - 2:23
    winzige Bewegungen wie diese
    sichtbar zu machen
  • 2:23 - 2:27
    und es beinahe als eine Erweiterung
    unseres Tastsinnes zu sehen.
  • 2:27 - 2:32
    Aber könnten wir auch das Gleiche
    mit unserem Hörvermögen machen?
  • 2:33 - 2:37
    Was, wenn wir mit einem Video
    Schallschwingungen aufzeichnen könnten,
  • 2:37 - 2:40
    die einfach eine andere Form
    von Bewegung sind,
  • 2:40 - 2:44
    und alles was wir sehen,
    in ein Mikrofon verwandeln?
  • 2:44 - 2:46
    Das mag eine seltsame Idee sein,
  • 2:46 - 2:49
    also möchte ich
    den Zusammenhang erklären.
  • 2:50 - 2:53
    Klassische Mikrofone konvertieren Bewegung
  • 2:53 - 2:57
    einer inneren Membran
    in ein elektrisches Signal.
  • 2:57 - 3:01
    Diese Membran
    bewegt sich bei jedem Laut,
  • 3:01 - 3:06
    sodass seine Bewegung
    als Ton aufgezeichnet werden kann.
  • 3:06 - 3:09
    Aber Schall regt alle Gegenstände
    zur Vibration an.
  • 3:09 - 3:15
    Diese Vibrationen sind gewöhnlich zu
    subtil und schnell für unser Auge.
  • 3:15 - 3:19
    Was aber, wenn wir sie mit einer
    Hochgeschwindigkeitskamera aufzeichnen
  • 3:19 - 3:22
    und eine Software benutzen,
    um winzige Bewegungen
  • 3:22 - 3:24
    aus unserem Video zu entnehmen
  • 3:24 - 3:29
    und diese Bewegungen zu analysieren,
    um den auslösenden Ton zu entdecken?
  • 3:30 - 3:36
    So könnten wir sichtbare Gegenstände
    in visuelle Mikrofone umwandeln.
  • 3:37 - 3:39
    Also wir haben wir das ausprobiert
  • 3:39 - 3:41
    und das war eines unserer Experimente.
  • 3:41 - 3:44
    Wir filmten eine Topfpflanze,
    die Sie hier rechts sehen,
  • 3:44 - 3:47
    mit einer Hochgeschwindigkeitskamera,
  • 3:47 - 3:50
    während aus einem Lautsprecher
    das folgende Lied spielte:
  • 3:50 - 3:58
    (Musik: "Mary Had a Little Lamb")
  • 4:00 - 4:03
    Das ist das Video,
    das wir aufgezeichnet haben.
  • 4:03 - 4:07
    Wir haben es mit 1 000 Bildern
    pro Sekunde aufgezeichnet,
  • 4:07 - 4:09
    aber selbst wenn Sie
    sehr genau hinschauen,
  • 4:09 - 4:11
    sehen sie nur ein paar Blätter,
  • 4:11 - 4:14
    die einfach dort sind und nichts tun,
  • 4:14 - 4:19
    weil unser Schall diese Blätter
    gerade mal einen Mikrometer bewegt hat.
  • 4:19 - 4:23
    Das ist ein Zehntausendstel
    eines Zentimeters,
  • 4:23 - 4:28
    das umfasst etwas zwischen einem
    Hundertstel und einem Tausendstel Pixel
  • 4:28 - 4:30
    in diesem Bild.
  • 4:30 - 4:33
    Sie können also so viel blinzeln
    wie Sie wollen,
  • 4:33 - 4:37
    aber diese kleine Bewegung
    ist so gut wie unsichtbar.
  • 4:38 - 4:42
    Aber in Wahrheit kann etwas unsichtbar
  • 4:42 - 4:45
    und dennoch numerisch bedeutend sein,
  • 4:45 - 4:47
    denn mit den richtigen Algorithmen
  • 4:47 - 4:50
    können wir bei diesem stummen,
    scheinbar bewegungslosen Video
  • 4:50 - 4:52
    den Ton wiederherstellen.
  • 4:53 - 5:00
    (Musik: "Mary Had a Little Lamb")
  • 5:00 - 5:06
    (Applaus)
  • 5:10 - 5:12
    Wie ist das möglich?
  • 5:12 - 5:16
    Wie können wir so viele Informationen
    aus so wenig Bewegung herausbekommen?
  • 5:16 - 5:22
    Nehmen wir an, dass diese Blätter sich
    nur einen einzigen Mikrometer bewegen
  • 5:22 - 5:27
    und dass das unser Bild nur
    um ein tausendstel Pixel bewegt.
  • 5:27 - 5:30
    Das mag nicht viel erscheinen,
  • 5:30 - 5:32
    doch ein einziges Bild eines Videos
  • 5:32 - 5:35
    besteht aus hunderttausenden Pixeln
  • 5:35 - 5:39
    und wenn wir all diese
    winzigen Bewegungen
  • 5:39 - 5:41
    aus dem ganzen Bild kombinieren,
  • 5:41 - 5:43
    kann sich ein tausendstel Pixel auf einmal
  • 5:43 - 5:46
    zu etwas Bedeutendem aufaddieren.
  • 5:47 - 5:51
    Ehrlich gesagt waren wir bei
    dieser Entdeckung völlig aus dem Häuschen.
  • 5:51 - 5:53
    (Gelächter)
  • 5:53 - 5:56
    Aber sogar mit dem richtigen Algorithmus
  • 5:56 - 6:00
    fehlte uns immer noch
    ein sehr wichtiges Puzzlestück.
  • 6:00 - 6:03
    Es gibt sehr viele Parameter,
    die einen Einfluss darauf haben,
  • 6:03 - 6:05
    wie gut diese Technik funktioniert.
  • 6:05 - 6:08
    Es hängt von dem Gegenstand
    und seiner Entfernung ab,
  • 6:08 - 6:11
    von der Kamera und der benutzten Linse,
  • 6:11 - 6:15
    wie viel Licht auf den Gegenstand fällt
    und wie laut der Ton ist.
  • 6:16 - 6:19
    Und sogar mit dem richtigen Algorithmus
  • 6:19 - 6:23
    mussten wir sehr vorsichtig
    in unseren ersten Experimenten sein,
  • 6:23 - 6:25
    denn bei nur einem falsch
    eingestellten Parameter
  • 6:25 - 6:28
    gibt es keine Möglichkeit,
    die Fehlerquelle zu finden.
  • 6:28 - 6:30
    Wir hätten nur Rauschen gehört.
  • 6:30 - 6:33
    Viele unserer ersten
    Experimente sahen so aus.
  • 6:33 - 6:36
    Hier bin ich
  • 6:36 - 6:40
    und unten links können Sie unsere
    Hochgeschwindigkeitskamera sehen,
  • 6:40 - 6:42
    die auf eine Tüte Chips zeigt
  • 6:42 - 6:45
    und das Ganze wird
    mit hellen Lampen beleuchtet.
  • 6:45 - 6:49
    Wie bereits gesagt, mussten wir
    zu Beginn sehr vorsichtig sein,
  • 6:49 - 6:52
    und so ging es dann weiter:
  • 6:52 - 6:55
    (Video) Abe Davis: 3, 2, 1, los.
  • 6:55 - 7:01
    Mary had a little lamb!
    Little lamb! Little lamb!
  • 7:01 - 7:04
    (Gelächter)
  • 7:05 - 7:08
    Dieses Experiment
    sieht völlig lächerlich aus.
  • 7:08 - 7:10
    (Gelächter)
  • 7:10 - 7:12
    Also, ich schreie eine Tüte Chips an --
  • 7:12 - 7:14
    (Gelächter)
  • 7:14 - 7:16
    und wir strahlen sie mit so viel Licht an,
  • 7:16 - 7:20
    dass wir die erste Tüte buchstäblich
    geschmolzen haben.
  • 7:21 - 7:24
    Aber so lächerlich das Experiment scheint,
  • 7:24 - 7:26
    es war tatsächlich sehr wichtig,
  • 7:26 - 7:29
    denn wir waren in der Lage,
    diese Laute wiederherzustellen.
  • 7:29 - 7:33
    (Ton) Mary had a little lamb!
    Little lamb! Little lamb!
  • 7:33 - 7:37
    (Applaus)
  • 7:37 - 7:39
    Das war sehr bedeutend,
  • 7:39 - 7:43
    weil wir zum ersten Mal
    eine verständliche menschliche Sprache
  • 7:43 - 7:47
    aus einem stummen Video eines Gegenstandes
    wiederherstellen konnten.
  • 7:47 - 7:48
    Das gab uns einen Anhaltspunkt
  • 7:48 - 7:52
    und wir konnten das Experiment
    schrittweise verändern,
  • 7:52 - 7:56
    indem wir andere Gegenstände benutzten
    oder sie weiter weg bewegten
  • 7:56 - 7:59
    und weniger Licht
    oder leisere Töne benutzten.
  • 8:00 - 8:03
    Wir analysierten alle diese Experimente,
  • 8:03 - 8:07
    bis wir die Grenzen
    unserer Technik begriffen,
  • 8:07 - 8:11
    denn dann wussten wir,
    wie wir sie überschreiten konnten.
  • 8:11 - 8:14
    Das führte zu folgendem Experiment,
  • 8:14 - 8:17
    bei dem ich wieder
    zu einer Tüte Chips spreche,
  • 8:17 - 8:21
    aber dieses Mal haben wir die Kamera
    etwa 5 Meter wegbewegt,
  • 8:21 - 8:24
    nach draußen hinter
    eine schalldichte Scheibe
  • 8:24 - 8:28
    und das Ganze wird nur
    von Sonnenlicht beleuchtet.
  • 8:29 - 8:31
    Hier das Video,
    das wir aufgezeichnet haben.
  • 8:32 - 8:37
    So hat es sich in der Nähe
    der Tüte Chips angehört:
  • 8:37 - 8:42
    (Ton) Mary had a little lamb
    whose fleece was white as snow,
  • 8:42 - 8:48
    and everywhere that Mary went,
    that lamb was sure to go.
  • 8:48 - 8:52
    AD: Das haben wir aus dem
    stummen Video wiedergewonnen,
  • 8:52 - 8:54
    das wir außerhalb des Fensters
    aufgezeichnet hatten.
  • 8:54 - 8:58
    (Ton) Mary had a little lamb
    whose fleece was white as snow,
  • 8:58 - 9:04
    and everywhere that Mary went,
    that lamb was sure to go.
  • 9:04 - 9:08
    (Applaus)
  • 9:10 - 9:14
    AD: Es gibt noch andere Möglichkeiten,
    die Grenzen zu erweitern.
  • 9:14 - 9:16
    Das ist ein ruhigeres Experiment,
  • 9:16 - 9:18
    bei dem wir Kopfhörer filmten,
  • 9:18 - 9:20
    die in einen Laptop eingesteckt waren,
  • 9:20 - 9:24
    mit dem Ziel, die Musik wieder
    herzustellen, die auf dem Laptop lief,
  • 9:24 - 9:26
    nur von diesem stummen Video
  • 9:26 - 9:29
    dieser zwei Mini-Kopfhörer.
  • 9:29 - 9:31
    Auch das gelang uns so gut,
  • 9:31 - 9:34
    dass das Ergebnis sogar von
    einer Musiksoftware erkannt wurde.
  • 9:34 - 9:36
    (Gelächter)
  • 9:37 - 9:47
    (Musik: "Under Pressure" von Queen)
  • 9:50 - 9:55
    (Applaus)
  • 9:55 - 9:59
    Wir können die Dinge vorantreiben,
    in dem wir die Hardware ändern.
  • 9:59 - 10:02
    Denn die bisher gezeigten Experimente
  • 10:02 - 10:04
    waren mit einer
    Hochgeschwindigkeitskamera aufgezeichnet,
  • 10:04 - 10:07
    die ein Video 100-mal schneller
    aufzeichnen kann
  • 10:07 - 10:09
    als die meisten Handys,
  • 10:09 - 10:11
    aber wir haben auch einen Weg gefunden,
  • 10:11 - 10:14
    diese Technik mit
    normaleren Kameras zu nutzen.
  • 10:14 - 10:18
    Wir nutzen den sogenannten
    Rolling-Shutter-Effekt aus.
  • 10:18 - 10:23
    Die meisten Kameras zeichnen
    Bilder zeilenweise auf
  • 10:23 - 10:28
    und wenn sich ein Objekt
    gleichzeitig bewegt,
  • 10:28 - 10:31
    gibt es eine kurze Verzögerung
    zwischen den einzelnen Zeilen,
  • 10:31 - 10:34
    was leichte Bildstörungen verursacht,
  • 10:34 - 10:38
    die in den Einzelbildern
    eines Videos kodiert werden.
  • 10:38 - 10:42
    Wir fanden heraus, dass wir beim
    Analysieren der Bildstörungen
  • 10:42 - 10:46
    den Ton mit einem angepassten Algorithmus
    wiederherstellen können.
  • 10:46 - 10:48
    Das ist unser Experiment,
  • 10:48 - 10:50
    bei dem wir eine Tüte
    Süßigkeiten gefilmt haben,
  • 10:50 - 10:52
    während ein Lautsprecher das Lied
  • 10:52 - 10:54
    "Mary Had a Little Lamb" spielte.
  • 10:54 - 10:59
    Aber dieses Mal benutzen wir
    nur eine alltägliche Kamera
  • 10:59 - 11:02
    und ich werde Ihnen den Klang vorspielen,
    den wir wiederherstellen konnten.
  • 11:02 - 11:04
    Es wird dieses Mal verzerrt klingen,
  • 11:04 - 11:08
    aber vielleicht können Sie
    das Lied noch erkennen.
  • 11:08 - 11:13
    (Ton: "Mary Had a Little Lamb")
  • 11:26 - 11:29
    Zugegeben, es klingt verzerrt,
  • 11:29 - 11:32
    aber das Beeindruckende hier ist,
  • 11:32 - 11:35
    dass wir das mit Geräten gemacht haben,
  • 11:35 - 11:39
    die Sie ganz normal in einem
    Elektronik-Fachgeschäft kaufen können.
  • 11:39 - 11:40
    An dieser Stelle
  • 11:40 - 11:42
    sehen viele Leute diese Arbeit
  • 11:42 - 11:46
    und denken sofort an Überwachung.
  • 11:46 - 11:49
    Und um ehrlich zu sein,
    ist es leicht vorstellbar,
  • 11:49 - 11:52
    wie man diese Technik
    zum Ausspionieren nutzen könnte.
  • 11:52 - 11:55
    Aber Sie sollten bedenken,
  • 11:55 - 11:58
    dass es bereits sehr gute
    Überwachungstechniken gibt.
  • 11:58 - 12:01
    Tatsächlich benutzt man
    schon seit Jahrzehnten Laser,
  • 12:01 - 12:04
    um Objekte aus Entfernung abzuhören.
  • 12:04 - 12:07
    Aber wirklich neu und anders
    an dieser Technik ist,
  • 12:07 - 12:12
    dass wir die Vibrationen eines
    Gegenstandes verbildlichen können,
  • 12:12 - 12:15
    was uns eine neue Linse gibt,
    durch die wir die Welt betrachten können.
  • 12:15 - 12:17
    Mit dieser Linse können wir
  • 12:17 - 12:22
    nicht mehr nur über Kräfte wie Schall
    lernen, die Gegenstände vibrieren lassen,
  • 12:22 - 12:25
    sondern auch mehr
    über den Gegenstand selbst.
  • 12:25 - 12:27
    Deshalb möchte ich
    einen Schritt zurückgehen
  • 12:27 - 12:29
    und darüber nachdenken,
  • 12:29 - 12:31
    wie das unsere Nutzung von Videos
    verändern könnte.
  • 12:31 - 12:34
    Normalerweise verwenden wir Videos,
    um Dinge anzuschauen,
  • 12:34 - 12:36
    und ich habe Ihnen gerade gezeigt,
  • 12:36 - 12:39
    wie wir mit ihnen Dingen zuhören können.
  • 12:39 - 12:43
    Aber wir lernen auch viel über die Welt,
  • 12:43 - 12:45
    indem wir mit ihr interagieren.
  • 12:45 - 12:48
    Wir ziehen, drücken,
    stoßen und stupsen Dinge.
  • 12:48 - 12:51
    Wir schütteln Dinge und
    warten ab, was passiert.
  • 12:51 - 12:55
    Mit einem Video können wir das nicht tun,
  • 12:55 - 12:58
    zumindest nicht bisher.
  • 12:58 - 13:00
    Deshalb möchte ich Ihnen
    unsere neuste Arbeit zeigen,
  • 13:00 - 13:03
    die auf einer Idee basiert, die
    ich vor wenigen Monaten hatte
  • 13:03 - 13:06
    und hier zum ersten Mal
    in der Öffentlichkeit zeige.
  • 13:06 - 13:10
    Die Grundidee ist, dass wir die
    Vibrationen in einem Video nutzen,
  • 13:10 - 13:15
    um Objekte so aufzuzeichnen,
    dass wir mit ihnen interagieren können
  • 13:15 - 13:19
    und sehen, wie sie auf uns reagieren.
  • 13:19 - 13:20
    Das hier ist ein Gegenstand,
  • 13:20 - 13:25
    in diesem Fall eine
    menschenförmige Drahtfigur,
  • 13:25 - 13:28
    und wir zeichnen den Gegenstand
    mit einer normalen Kamera auf.
  • 13:28 - 13:29
    Die Kamera ist nichts Besonderes.
  • 13:29 - 13:33
    Um ehrlich zu sein, habe ich das zuvor
    mit meiner Handykamera gemacht.
  • 13:33 - 13:35
    Aber wir wollen den Gegenstand
    schwingen sehen,
  • 13:35 - 13:40
    deshalb schlagen wir einfach leicht
    auf die Oberfläche, auf der er steht,
  • 13:40 - 13:42
    während wir das Video aufzeichnen.
  • 13:47 - 13:51
    Das ist alles: fünf Sekunden
    eines normalen Videos,
  • 13:51 - 13:53
    während wir auf die Oberfläche schlagen
  • 13:53 - 13:57
    und wir nutzen
    die Schwingungen im Video,
  • 13:57 - 14:01
    um etwas über die Eigenschaften
    unseres Gegenstandes zu lernen,
  • 14:01 - 14:07
    und mit diesen Informationen schaffen wir
    etwas Neues und Interaktives.
  • 14:13 - 14:16
    Das ist dabei herausgekommen.
  • 14:16 - 14:17
    Es sieht wie ein gewöhnliches Bild aus,
  • 14:17 - 14:21
    aber es ist weder ein Bild noch ein Video,
  • 14:21 - 14:23
    denn ich kann jetzt meine Maus nehmen
  • 14:23 - 14:27
    und anfangen, mit dem Gegenstand
    zu interagieren.
  • 14:33 - 14:36
    Hier sehen Sie eine Simulation,
  • 14:36 - 14:40
    wie dieses Objekt auf
    neue Kräfte reagieren würde,
  • 14:40 - 14:42
    auf die es noch nie getroffen ist,
  • 14:42 - 14:46
    und all das haben wir nur aus
    diesem 5-Sekunden-Video geschaffen.
  • 14:47 - 14:52
    (Applaus)
  • 14:57 - 15:01
    Dieser Blick auf die Welt
    gibt uns viele Möglichkeiten,
  • 15:01 - 15:03
    denn er erlaubt uns vorherzusagen,
  • 15:03 - 15:05
    wie Gegenstände auf
    neue Situationen reagieren werden.
  • 15:05 - 15:09
    Es ist vorstellbar, dass man sich
    bei einer alten Brücke fragt,
  • 15:09 - 15:12
    was passieren würde,
    wie sie standhalten würde,
  • 15:12 - 15:15
    wenn ich mit meinem Auto darüber fahre.
  • 15:15 - 15:18
    Auf diese Frage wüssten Sie
    vermutlich gerne die Antwort,
  • 15:18 - 15:22
    bevor Sie über die Brücke fahren.
  • 15:22 - 15:25
    Natürlich wird diese Technik
    ihre Grenzen haben,
  • 15:25 - 15:28
    genauso wie bei dem visuellen Mikrofon,
  • 15:28 - 15:31
    aber wir fanden heraus, dass es
    in vielen Situationen funktioniert,
  • 15:31 - 15:33
    in denen man es nicht erwarten würde,
  • 15:33 - 15:36
    besonders wenn man längere Videos benutzt.
  • 15:36 - 15:38
    Das ist zum Beispiel ein Video,
  • 15:38 - 15:40
    das ich von einem Busch vor
    meiner Wohnung gefilmt habe,
  • 15:40 - 15:43
    und ich habe nichts mit dem Busch gemacht,
  • 15:43 - 15:46
    außer dass ich ein einminütiges Video
    aufgezeichnet habe.
  • 15:46 - 15:50
    Ein leichtes Lüftchen hat genug
    Schwingungen verursacht,
  • 15:50 - 15:54
    dass wir genug Informationen hatten,
    um diese Simulation zu erstellen.
  • 15:56 - 15:59
    (Applaus)
  • 16:01 - 16:04
    Man könnte nun das Video
    einem Filmregisseur geben,
  • 16:04 - 16:08
    damit er die Stärke und
    Richtung des Windes
  • 16:08 - 16:11
    nach einer Aufnahme steuern kann.
  • 16:13 - 16:17
    Oder in diesem Fall hier richteten
    wir unsere Kamera auf einen Vorhang
  • 16:17 - 16:21
    und man kann überhaupt
    keine Bewegung im Video erkennen,
  • 16:21 - 16:24
    aber während des zweiminütigen Videos
  • 16:24 - 16:28
    sorgte normale Luftzirkulation
    für ausreichend subtile,
  • 16:28 - 16:31
    nicht wahrnehmbare
    Bewegungen und Schwingungen,
  • 16:31 - 16:35
    dass wir genug Informationen hatten,
    um diese Simulation zu kreieren.
  • 16:36 - 16:39
    Und ironischerweise
  • 16:39 - 16:42
    sind wir es gewöhnt,
    diese Art der Interaktion
  • 16:42 - 16:44
    bei virtuellen Gegenständen zu erleben,
  • 16:44 - 16:48
    zum Beispiel in Videospielen
    und 3D-Modellen,
  • 16:48 - 16:52
    aber diese Informationen von einem
    Gegenstand in der wirklichen Welt
  • 16:52 - 16:55
    mit einem gewöhnlichen Video
    aufzuzeichnen,
  • 16:55 - 16:58
    ist etwas Neues mit viel Potential.
  • 16:59 - 17:02
    Das hier sind die beeindruckenden Leute,
  • 17:02 - 17:05
    die mit mir an diesen Projekten
    gearbeitet haben.
  • 17:05 - 17:07
    (Applaus)
  • 17:13 - 17:16
    Was ich Ihnen heute gezeigt habe,
    ist nur der Anfang.
  • 17:16 - 17:19
    Wir haben gerade begonnen,
    an der Oberfläche dessen zu kratzen,
  • 17:19 - 17:22
    was man mit dieser Art der
    Bildverarbeitung machen kann,
  • 17:22 - 17:24
    da sie uns eine neue Möglichkeit bietet,
  • 17:24 - 17:27
    unsere Umgebung mit
    gewöhnlicher Technik aufzuzeichnen.
  • 17:28 - 17:30
    Mit Blick auf die Zukunft
  • 17:30 - 17:32
    wird es sehr aufregend sein zu entdecken,
  • 17:32 - 17:34
    was uns das über die Welt sagen kann.
  • 17:34 - 17:36
    Danke.
  • 17:36 - 17:39
    (Applaus)
Title:
Neue Video-Technologie enthüllt versteckte Eigenschaften von Objekten
Speaker:
Abe Davis
Description:

Um uns herum gibt es ständig kaum sichtbare Bewegungen, wie z. B. winzige Schwingungen, die durch Schall verursacht werden. Eine neue Technologie zeigt, dass wir diese Schwingungen aufzeichnen und Töne und Gespräche wiederherstellen können, und das nur aus einem Video eines scheinbar unbewegten Gegenstandes. Aber Abe Davis geht noch einen Schritt weiter: Sehen Sie sich seine Demonstration einer Software an, die jeden nur durch ein ganz normales Video mit versteckten Eigenschaften eines Objekts interagieren lässt.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:57

German subtitles

Revisions Compare revisions