Return to Video

Des nouvelles technologies vidéo qui dévoilent les propriétés cachées des objets

  • 0:01 - 0:06
    La plupart d'entre nous associe
    le mouvement au visuel.
  • 0:06 - 0:11
    Si je traverse cette scène
    ou bouge mes mains alors que je parle,
  • 0:11 - 0:14
    ce mouvement est quelque chose
    que vous pouvez observer.
  • 0:14 - 0:20
    Mais il y a un monde de gestes importants
    qui sont imperceptibles à l’œil humain,
  • 0:20 - 0:22
    et au cours de ces dernières années,
  • 0:22 - 0:24
    on s'est rendu compte que les cameras
  • 0:24 - 0:27
    peuvent détecter ces mouvements
    même quand l’être humain en est incapable.
  • 0:28 - 0:30
    Laissez-moi donc vous montrer.
  • 0:31 - 0:34
    Sur la gauche, vous voyez la vidéo
    du poignet d'une personne,
  • 0:34 - 0:37
    et à droite, vous voyez la vidéo
    d'un bébé endormi.
  • 0:37 - 0:41
    Mais si je ne vous avais pas dit
    qu'il s'agissait de vidéos,
  • 0:41 - 0:44
    vous auriez pu penser que vous regardiez
    deux images tout à fait normales.
  • 0:44 - 0:46
    Car dans les deux cas,
  • 0:46 - 0:50
    ces vidéos semblent
    presque complètement immobiles.
  • 0:50 - 0:54
    Mais il y a en fait beaucoup
    de mouvement imperceptibles.
  • 0:54 - 0:56
    Et si vous touchiez
    le poignet sur la gauche,
  • 0:56 - 0:58
    vous sentiriez un pouls
  • 0:58 - 1:01
    et si vous teniez
    le bébé sur l'image de droite,
  • 1:01 - 1:03
    vous sentiriez la montée
    et la descente de sa poitrine
  • 1:03 - 1:05
    à chacune de ses respirations.
  • 1:06 - 1:09
    Et ces mouvements sont lourds de sens
  • 1:09 - 1:13
    mais ils sont souvent
    trop subtils pour que nous les voyions.
  • 1:13 - 1:15
    Donc à la place, nous devons les observer
  • 1:15 - 1:19
    au travers d'un contact direct,
    au travers du toucher.
  • 1:19 - 1:21
    Il y a quelques années,
  • 1:21 - 1:25
    mes collègues du MIT ont développé
    un microscope amplificateur de mouvement.
  • 1:25 - 1:29
    C'est en fait un logiciel qui repère
    ces mouvements imperceptibles en vidéo
  • 1:29 - 1:33
    et les amplifie de manière à les grossir
    suffisamment pour qu'on puisse les voir.
  • 1:33 - 1:37
    Si bien que, si l'on utilise ce logiciel
    sur la vidéo de gauche,
  • 1:37 - 1:40
    ça nous permet de voir le pouls
    à l’intérieur du poignet.
  • 1:40 - 1:42
    Si nous devions compter ce pouls,
  • 1:42 - 1:45
    nous pourrions même obtenir
    le rythme cardiaque de la personne.
  • 1:45 - 1:48
    Si nous utilisons le même logiciel
    sur la vidéo de droite,
  • 1:48 - 1:51
    nous pouvons voir chacune
    des respirations de ce bébé,
  • 1:51 - 1:56
    et l'utiliser comme un moyen sans contact
    pour surveiller sa respiration.
  • 1:57 - 1:59
    Et donc cette technologie
    est réellement puissante
  • 1:59 - 2:02
    puisqu'elle repère ces phénomènes
  • 2:02 - 2:05
    que nous ne pouvons
    sentir qu'avec le toucher,
  • 2:05 - 2:08
    et elle les enregistre
    visuellement de façon non invasive.
  • 2:09 - 2:14
    Il y a deux ans, j'ai rejoint l'équipe
    qui a créé ce logiciel
  • 2:14 - 2:16
    et nous avons décidé de poursuivre
    une idée folle.
  • 2:17 - 2:20
    On s'est dit, c'est génial
    d'utiliser un logiciel
  • 2:20 - 2:23
    pour visualiser ainsi
    de tout petits mouvements
  • 2:23 - 2:26
    et on peut presque le voir comme un
    moyen d’améliorer notre sens du toucher.
  • 2:27 - 2:31
    Mais qu'en serait-il si on pouvait en
    faire de même avec notre audition?
  • 2:33 - 2:37
    Et si on pouvait utiliser la vidéo
    pour capturer les vibrations sonores,
  • 2:37 - 2:40
    un autre type de mouvements en fait,
  • 2:40 - 2:43
    et faire passer ce que l'on voit
    dans un microphone?
  • 2:44 - 2:46
    C'est une idée un peu étrange.
  • 2:46 - 2:50
    Laissez-moi donc mettre cela
    en perspective pour vous.
  • 2:50 - 2:53
    Un microphone traditionnel fonctionne
    en convertissant le mouvement
  • 2:53 - 2:57
    d'un diaphragme interne
    en un signal électrique,
  • 2:57 - 3:01
    et ce diaphragme est conçu
    pour bouger facilement avec le son,
  • 3:01 - 3:06
    pour que ce mouvement puisse être
    enregistré et interprété comme de l'audio.
  • 3:06 - 3:09
    Mais le son fait vibrer tous les objets !
  • 3:09 - 3:15
    Ces vibrations sont trop subtiles,
    trop rapides pour qu'on puisse les voir.
  • 3:15 - 3:19
    Et si on les enregistrait
    avec une caméra haute vitesse,
  • 3:19 - 3:22
    on pourrait utiliser un logiciel
    pour extraire les tout petits mouvements
  • 3:22 - 3:24
    de notre vidéo en ralenti,
  • 3:24 - 3:29
    et analyser ces mouvements
    pour comprendre quel son les a créés.
  • 3:30 - 3:33
    On pourrait alors transformer
    les objets visibles
  • 3:33 - 3:36
    en microphones visuels à distance.
  • 3:37 - 3:39
    On a donc essayé,
  • 3:39 - 3:41
    et voici une de nos expériences.
  • 3:41 - 3:44
    Ici nous avons pris cette plante
    que vous voyez sur la droite,
  • 3:44 - 3:47
    et l'avons filmée
    avec une caméra haute vitesse,
  • 3:47 - 3:50
    pendant qu'un caisson de basse
    jouait ce son à côté.
  • 3:50 - 3:59
    (Musique: « Mary had a little lamb »)
  • 4:00 - 4:03
    Et voilà la vidéo
    que nous avons enregistrée.
  • 4:03 - 4:07
    Nous l'avons enregistrée
    à des milliers d'images par seconde.
  • 4:07 - 4:09
    Même si vous y regardez de très près,
  • 4:09 - 4:11
    vous ne pouvez voir que des feuilles
  • 4:11 - 4:14
    qui ne bougent presque pas.
  • 4:14 - 4:19
    Car en effet, notre son a fait bouger
    ces feuilles d’à peine un micromètre.
  • 4:19 - 4:23
    C'est un dix-millième de centimètre,
  • 4:23 - 4:28
    ce qui place cela quelque part entre
    un centième et un millième
  • 4:28 - 4:30
    de pixel dans cette image.
  • 4:30 - 4:33
    Donc vous pouvez loucher
    autant que vous voulez,
  • 4:33 - 4:37
    un mouvement si petit
    est quasiment invisible.
  • 4:38 - 4:42
    Mais en fait, un mouvement
    invisible à l'oeil
  • 4:42 - 4:45
    peut avoir du sens numériquement parlant.
  • 4:45 - 4:47
    Parce qu'avec les bons algorithmes,
  • 4:47 - 4:50
    on peut utiliser cette vidéo
    silencieuse et apparemment immobile
  • 4:50 - 4:53
    pour en extraire le son.
  • 4:53 - 5:00
    (Musique: «Mary had a little lamb.»
  • 5:00 - 5:05
    (Applaudissements)
  • 5:10 - 5:12
    Comment est-ce possible ?
  • 5:12 - 5:16
    Comment retirons-nous tant d'informations
    à partir de mouvements si infimes ?
  • 5:16 - 5:22
    Disons que ces feuilles bougent
    d'un seul micromètre,
  • 5:22 - 5:26
    et que ça modifie notre image
    d'un millième de pixel.
  • 5:27 - 5:30
    Ça peut paraître peu,
  • 5:30 - 5:32
    mais un seul plan dans une vidéo
  • 5:32 - 5:35
    contient des centaines
    de milliers de pixels.
  • 5:35 - 5:39
    En combinant tous ces infimes mouvements
  • 5:39 - 5:41
    sur une image entière,
  • 5:41 - 5:43
    un millième de pixel
  • 5:43 - 5:47
    finit par former
    quelque chose d'important.
  • 5:47 - 5:51
    Sur le plan personnel, réaliser ça
    nous a tous bouleversés !
  • 5:51 - 5:53
    (Rires)
  • 5:53 - 5:56
    Mais même avec le bon algorithme,
  • 5:56 - 5:59
    il nous manquait
    une pièce importante du puzzle.
  • 6:00 - 6:03
    Vous voyez, il y a beaucoup de facteurs
    qui influencent comment
  • 6:03 - 6:05
    et quand cette technique fonctionne.
  • 6:05 - 6:08
    L'objet lui-même et la distance,
  • 6:08 - 6:11
    la caméra, et l'objectif
    que vous utilisez,
  • 6:11 - 6:15
    la lumière sur l'objet
    et le volume du son.
  • 6:16 - 6:19
    Même avec le bon algorithme,
  • 6:19 - 6:23
    il nous a fallu être prudents
    dans nos premières expériences
  • 6:23 - 6:25
    parce qu'il était impossible
    de dire ce qui n'allait pas,
  • 6:25 - 6:27
    si un seul de ces facteurs était biaisé.
  • 6:27 - 6:30
    Le résultat était du bruit.
  • 6:30 - 6:33
    Beaucoup de nos premières expériences
    ressemblent à ceci.
  • 6:33 - 6:36
    Me voilà,
  • 6:36 - 6:39
    et en bas à gauche, on devine
    la caméra haute vitesse,
  • 6:39 - 6:42
    qui cadre un paquet de chips.
  • 6:42 - 6:45
    Deux spots illuminent toute la scène.
  • 6:45 - 6:49
    Nous devions donc être très prudents
    durant ces premières expériences.
  • 6:49 - 6:52
    Voici leur déroulement :
  • 6:52 - 6:55
    (Vidéo) Abe Davis: un, deux, trois, go !
  • 6:55 - 7:01
    Mary had a little lamb !
    Little lamb ! Little lamb !
  • 7:01 - 7:05
    (Rires)
  • 7:05 - 7:08
    AD : Ça a l'air complètement ridicule !
  • 7:08 - 7:10
    (Rires)
  • 7:10 - 7:13
    Après tout, je suis en train de crier
    sur un paquet de chips.
  • 7:13 - 7:14
    (Rires)
  • 7:14 - 7:16
    Et il y a tant de spots
  • 7:16 - 7:20
    que les premiers sachets ont
    littéralement fondu sous la chaleur.
  • 7:20 - 7:24
    Mais aussi ridicule
    que ça puisse avoir l'air,
  • 7:24 - 7:26
    c'était très important.
  • 7:26 - 7:29
    Parce que nous avons pu récupérer le son.
  • 7:29 - 7:33
    (Audio) Mary had a little lamb !
    Little lamb ! Little lamb !
  • 7:33 - 7:37
    (Applaudissements)
  • 7:37 - 7:39
    AD : Ce fut une expérience-clef,
  • 7:39 - 7:43
    parce que ce fut la première restitution
    d'un discours intelligible,
  • 7:43 - 7:46
    à partir d'une vidéo muette d'un objet.
  • 7:46 - 7:48
    Ça nous a permis de créer une référence.
  • 7:48 - 7:52
    On a pu progressivement
    modifier les paramètres :
  • 7:52 - 7:56
    utiliser des objets différents,
    les éloigner,
  • 7:56 - 8:00
    utiliser des éclairages moins puissants,
    ou réduire le volume du son.
  • 8:00 - 8:03
    On a analysé toutes ces expériences,
  • 8:03 - 8:06
    jusqu'à ce que nous ayons compris
    les limites de notre technologie.
  • 8:06 - 8:08
    Parce qu'une fois
    ses limites déterminées,
  • 8:08 - 8:11
    on a pu trouver des moyens
    de les repousser.
  • 8:11 - 8:14
    Par exemple, à travers cette expérience,
  • 8:14 - 8:17
    où je vais encore parler
    au paquet de chips.
  • 8:17 - 8:21
    Mais cette fois, la caméra est à 5 mètres,
  • 8:21 - 8:24
    à l'extérieur,
    derrière une fenêtre insonorisée,
  • 8:24 - 8:28
    avec la seule lumière naturelle.
  • 8:28 - 8:31
    Voilà la vidéo.
  • 8:32 - 8:37
    Voilà la bande-son à l'intérieur,
    à côté du paquet de chips.
  • 8:37 - 8:42
    (Audio) Marie avait un petit agneau,
    à la laine blanche comme de la neige,
  • 8:42 - 8:48
    partout où Marie se rendait,
    l'agneau sûrement l'accompagnait.
  • 8:48 - 8:52
    AD : Et voici ce que nous avons récupéré
    de notre vidéo muette,
  • 8:52 - 8:54
    prise à travers cette fenêtre.
  • 8:54 - 8:58
    (Audio) Marie avait un petit agneau,
    à la laine blanche comme de la neige,
  • 8:58 - 9:04
    partout où Marie se rendait,
    l'agneau sûrement l'accompagnait.
  • 9:04 - 9:08
    (Applaudissements)
  • 9:10 - 9:14
    AD : Nous pouvons repousser les frontières
    d'autres manières.
  • 9:14 - 9:16
    Voici une expérience plus calme.
  • 9:16 - 9:20
    On a filmé des écouteurs
    connectés à un portable.
  • 9:20 - 9:24
    Ici, notre objectif est de récupérer
    la musique de l'ordinateur,
  • 9:24 - 9:26
    à partir de la vidéo muette
  • 9:26 - 9:29
    de ces deux petits écouteurs en plastique.
  • 9:29 - 9:31
    Les résultats furent si concluants,
  • 9:31 - 9:33
    qu'on a même pu les vérifier sur Shazam.
  • 9:33 - 9:35
    (Rires)
  • 9:38 - 9:47
    (Musique: « Under Pressure », Queen)
  • 9:50 - 9:55
    (Rires) (Applaudissements)
  • 9:55 - 9:59
    On peut aussi repousser les limites
    en changeant de matériel.
  • 9:59 - 10:02
    Toutes ces expériences ont été réalisées
  • 10:02 - 10:04
    avec une caméra haute vitesse,
  • 10:04 - 10:07
    qui enregistre 100 fois plus d'images
  • 10:07 - 10:09
    qu'un smartphone normal.
  • 10:09 - 10:12
    On a donc aussi développé une technique
  • 10:12 - 10:14
    qui permet d'utiliser
    des caméras normales.
  • 10:14 - 10:18
    On y arrive en utilisant
    l'obturateur automatique.
  • 10:18 - 10:23
    En fait, la plupart des caméras
    enregistrent les images de haut en bas.
  • 10:23 - 10:28
    Si l'objet bouge pendant l'enregistrement
    d'une seule image,
  • 10:28 - 10:31
    il y a un léger délai
    entre chaque ligne d'enregistrement.
  • 10:31 - 10:34
    Ça provoque d'imperceptibles artéfacts
  • 10:34 - 10:38
    qui sont encodés
    dans chaque plan de la vidéo.
  • 10:38 - 10:42
    En analysant ces artéfacts,
  • 10:42 - 10:46
    on peut récupérer le son en utilisant
    une version modifiée de notre algorithme.
  • 10:46 - 10:48
    Voici une autre expérience.
  • 10:48 - 10:50
    Nous avons filmé un sachet de bonbons,
  • 10:50 - 10:52
    à côté d'un ampli
    qui joue la même chanson :
  • 10:52 - 10:54
    « Mary Had a Little Lamb »
  • 10:54 - 10:59
    Mais cette fois-ci, nous avons utilisé
    une caméra ordinaire.
  • 10:59 - 11:02
    Je vais vous laisser écouter le son
    que nous avons récupéré.
  • 11:02 - 11:04
    Le son sera un peu distordu,
  • 11:04 - 11:08
    mais essayez quand même de voir
    si vous pouvez reconnaître la musique.
  • 11:08 - 11:14
    (Audio: « Mary Had a Little Lamb »)
  • 11:26 - 11:29
    Certes, le son est déformé.
  • 11:29 - 11:33
    Mais ce qui est extraordinaire,
    c'est que nous avons pu réaliser cela
  • 11:33 - 11:36
    avec un appareil disponible
    en grande surface
  • 11:36 - 11:38
    et utiliser facilement.
  • 11:39 - 11:40
    À ce stade,
  • 11:40 - 11:42
    les gens qui découvrent notre travail,
  • 11:42 - 11:46
    pensent souvent à la surveillance.
  • 11:46 - 11:49
    En étant honnête,
    ce n'est pas difficile d'imaginer
  • 11:49 - 11:52
    comment utiliser cette technologie
    pour espionner autrui.
  • 11:52 - 11:56
    Mais il y a déjà sur le marché
    beaucoup de technologies matures
  • 11:56 - 11:58
    dans le domaine de la surveillance.
  • 11:58 - 12:00
    On utilise des lasers
  • 12:00 - 12:04
    pour intercepter des conversations
    via des objets, depuis des décennies.
  • 12:04 - 12:06
    Ce qui est fondamentalement nouveau ici,
  • 12:06 - 12:08
    et qui distingue notre technologie,
  • 12:08 - 12:12
    c'est notre capacité à percevoir
    les vibrations des objets.
  • 12:12 - 12:15
    Ça nous donne un nouvel objectif
    pour observer le monde.
  • 12:15 - 12:17
    Et on peut l'utiliser
  • 12:17 - 12:22
    pour étudier les forces comme le son
    qui causent des vibrations sur un objet,
  • 12:22 - 12:25
    mais on peut aussi
    étudier l'objet lui-même.
  • 12:25 - 12:27
    Je vais prendre un peu de recul
  • 12:27 - 12:31
    pour réfléchir en quoi ça peut modifier
    les manières dont nous utilisons la vidéo.
  • 12:31 - 12:34
    En général, on utilise la vidéo
    pour regarder des choses.
  • 12:34 - 12:37
    Mais je viens de vous montrer
    comment l'utiliser
  • 12:37 - 12:39
    pour écouter des choses.
  • 12:39 - 12:43
    Il y a une autre manière importante
    d'étudier le monde :
  • 12:43 - 12:45
    en interagissant avec lui.
  • 12:45 - 12:48
    On appuie, on tire,
    ou donne des petits coups sur les objets.
  • 12:48 - 12:51
    On peut les secouer
    et voir ce qui se passe.
  • 12:51 - 12:55
    La vidéo ne nous permet pas encore
    de faire tout ça.
  • 12:55 - 12:58
    En tout cas, de manière traditionnelle.
  • 12:58 - 12:59
    Je vous montre mes nouveaux travaux.
  • 12:59 - 13:02
    Ils reposent sur une idée que j'ai eue
    il y a quelques mois.
  • 13:02 - 13:06
    C'est la première fois
    que je les dévoile en public.
  • 13:06 - 13:11
    L'idée de base est d'utiliser
    les vibrations dans la vidéo
  • 13:11 - 13:15
    pour saisir des objets
    de manière à interagir avec eux,
  • 13:15 - 13:18
    et voir comment ils réagissent.
  • 13:19 - 13:21
    Voilà un objet.
  • 13:21 - 13:25
    C'est une statue en fil de fer,
    qui a la forme d'un humain.
  • 13:25 - 13:28
    On va la filmer avec une caméra normale.
  • 13:28 - 13:30
    La caméra n'a rien de spécial.
  • 13:30 - 13:33
    J'ai même essayé avec la caméra
    de mon smartphone.
  • 13:33 - 13:35
    Nous voulons observer
    les vibrations de l'objet.
  • 13:35 - 13:36
    Et pour cela,
  • 13:36 - 13:40
    on va donner des petits coups
    sur la surface où elle est déposée,
  • 13:40 - 13:42
    pendant l'enregistrement.
  • 13:47 - 13:51
    C'est tout. 5 secondes de vidéo normale,
  • 13:51 - 13:53
    on donne des coups sur le plan,
  • 13:53 - 13:57
    et on va utiliser les vibrations
    enregistrées par la vidéo
  • 13:57 - 14:01
    pour étudier les propriétés
    structurelles et matérielles de l'objet.
  • 14:01 - 14:06
    On va ensuite les utiliser pour créer
    quelque chose de neuf et interactif.
  • 14:13 - 14:16
    En voici le résultat.
  • 14:16 - 14:18
    On dirait une image normale.
  • 14:18 - 14:21
    Mais ce n'est pas le cas.
    Ce n'est pas non plus une vidéo,
  • 14:21 - 14:23
    parce que maintenant,
    je peux prendre ma souris,
  • 14:23 - 14:26
    et interagir avec l'objet.
  • 14:33 - 14:34
    Ce que vous voyez ici,
  • 14:34 - 14:38
    c'est une simulation
    des réactions de cet objet
  • 14:38 - 14:42
    lorsqu'il subit des forces
    qu'on n'a pas encore vues.
  • 14:42 - 14:46
    Nous avons créé cela
    à partir d'une vidéo de 5 secondes.
  • 14:46 - 14:52
    (Applaudissements)
  • 14:57 - 15:01
    C'est un moyen puissant
    d'observer le monde,
  • 15:01 - 15:04
    parce qu'il nous permet de prédire
    comment les objets vont réagir
  • 15:04 - 15:05
    dans des situations nouvelles.
  • 15:05 - 15:09
    On pourrait imaginer, par exemple,
    regarder un vieux pont,
  • 15:09 - 15:12
    en se demandant ce qui va se passer,
    quand je vais le traverser en voiture.
  • 15:12 - 15:15
    Le pont va-t-il supporter ce poids ?
  • 15:15 - 15:18
    Et vous vous poseriez cette question,
    sans doute,
  • 15:18 - 15:22
    avant de devoir traverser
    un tel vieux pont.
  • 15:22 - 15:25
    Bien entendu,
    la technologie a ses limites,
  • 15:25 - 15:28
    tout comme celle
    avec le microphone visuel.
  • 15:28 - 15:31
    Mais nous avons constaté
    que ça fonctionne dans beaucoup de cas,
  • 15:31 - 15:33
    même des cas inattendus,
  • 15:33 - 15:36
    surtout si on utilise
    des vidéos plus longues.
  • 15:36 - 15:38
    Par exemple,
    voici une de mes vidéos.
  • 15:38 - 15:40
    C'est un arbuste
    à côté de mon appartement.
  • 15:40 - 15:43
    Je n'ai pas touché à l'arbuste.
  • 15:43 - 15:46
    J'ai pris une vidéo d'une minute.
  • 15:46 - 15:50
    Un vent léger a provoqué
    suffisamment de vibrations
  • 15:50 - 15:54
    pour nous permettre
    de développer cette simulation.
  • 15:56 - 16:01
    (Applaudissements)
  • 16:01 - 16:04
    On pourrait aussi imaginer
    qu'un réalisateur
  • 16:04 - 16:07
    utilise cette technique pour contrôler,
    par exemple,
  • 16:07 - 16:11
    la force ou la direction du vent
    après avoir tourné la scène.
  • 16:13 - 16:17
    Dans ce cas-ci,
    on a filmé une tenture.
  • 16:17 - 16:21
    Il n'y a aucun mouvement perceptible
    dans cette vidéo.
  • 16:21 - 16:24
    Mais un enregistrement de deux minutes,
  • 16:24 - 16:27
    a permis d'analyser suffisamment
    de mouvements imperceptibles
  • 16:27 - 16:31
    causés par des courants d'air
    naturels dans la pièce
  • 16:31 - 16:34
    pour créer cette simulation.
  • 16:37 - 16:39
    Paradoxalement,
  • 16:39 - 16:42
    on est habitué à ce genre d'interactions
  • 16:42 - 16:44
    avec des objets virtuels,
  • 16:44 - 16:48
    dans les jeux vidéo ou les modèles 3D.
  • 16:48 - 16:52
    Mais pouvoir capter des informations
    sur des objets réels, dans le monde réel
  • 16:52 - 16:55
    en utilisant une vidéo normale,
  • 16:55 - 16:59
    est quelque chose de tout à fait innovant,
    avec un grand potentiel.
  • 16:59 - 17:03
    Voici les membres formidables
    qui ont contribué à ces projets.
  • 17:04 - 17:10
    (Applaudissements)
  • 17:12 - 17:16
    Ce que je vous ai montré aujourd'hui
    n'est que le début.
  • 17:16 - 17:18
    On vient juste de commencer
  • 17:18 - 17:21
    à découvrir ce qui est possible
    de réaliser avec ce genre d'images.
  • 17:21 - 17:24
    Ça nous donne de nouvelles méthodes
  • 17:24 - 17:28
    pour filmer notre environnement
    avec des technologies accessibles.
  • 17:28 - 17:30
    À l'avenir,
  • 17:30 - 17:32
    ces technologies pourront nous enseigner
  • 17:32 - 17:35
    des choses fascinantes sur le monde.
  • 17:35 - 17:36
    Merci.
  • 17:36 - 17:43
    (Applaudissements)
Title:
Des nouvelles technologies vidéo qui dévoilent les propriétés cachées des objets
Speaker:
Abe Davis
Description:

Des mouvements subtils ont lieu autour de nous continuellement, comme les vibrations infimes causées par le son. De nouvelles technologies prouvent que nous pouvons capter ces vibrations et recréer le son et les conversations à partir d'une vidéo d'objets apparemment immobiles. Abe Davis va un pas plus loin : regardez la démonstration de son logiciel qui permet à tout le monde d'interagir avec ces propriétés cachées, à partir d'une simple vidéo.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:57

French subtitles

Revisions