Return to Video

Pouvons-nous créer de nouveaux sens pour les humains ?

  • 0:01 - 0:06
    Nous sommes composés
    de toutes petites choses,
  • 0:06 - 0:08
    et nous sommes intégrés
    dans un très grand cosmos,
  • 0:08 - 0:13
    et le fait est que nous ne comprenons pas
    très bien la réalité
  • 0:13 - 0:14
    à aucune de ces échelles
  • 0:14 - 0:16
    et c'est parce que nos cerveaux
  • 0:16 - 0:20
    n'ont pas évolué pour comprendre
    le monde à cette échelle.
  • 0:20 - 0:24
    Au lieu de cela, nous sommes réduits
    à une fente très fine de perception
  • 0:24 - 0:26
    en plein milieu.
  • 0:27 - 0:31
    Ce qui est bizarre est que
    même dans cette tranche de réalité,
  • 0:31 - 0:34
    nous ne voyons pas la majorité
    de ce qu'il se passe.
  • 0:34 - 0:38
    Considérez les couleurs de notre monde.
    Ce sont des vagues de lumières,
  • 0:38 - 0:42
    des radiations électromagnétiques
    qui rebondissent sur les objets
  • 0:42 - 0:46
    et frappent des récepteurs spécialisés
    à l'arrière de nos yeux.
  • 0:46 - 0:49
    Mais nous ne voyons pas les vagues.
  • 0:49 - 0:51
    En fait, ce que nous voyons
  • 0:51 - 0:55
    représente moins d'un billionième
    de ce qu'il y a.
  • 0:55 - 0:58
    Il y a des ondes radio
    et des micro-ondes
  • 0:58 - 1:02
    et des rayons X et gamma
    qui traversent actuellement notre corps
  • 1:02 - 1:05
    et vous l'ignorez totalement,
  • 1:05 - 1:08
    car vous n'avez pas les récepteurs
    biologiques adéquats
  • 1:08 - 1:09
    pour les percevoir.
  • 1:10 - 1:12
    Il y a des milliers
    de conversations téléphoniques
  • 1:12 - 1:14
    qui vous traversent en ce moment,
  • 1:14 - 1:16
    et vous y êtes complètement aveugle.
  • 1:16 - 1:20
    Ce n'est pas que les choses
    sont intrinsèquement invisibles.
  • 1:20 - 1:25
    Les serpents incluent des infra-rouges
    dans leur réalité,
  • 1:25 - 1:29
    et les abeilles incluent des ultraviolets
    dans leur vision du monde,
  • 1:29 - 1:32
    et nous construisons des machines
    dans nos tableaux de bord
  • 1:32 - 1:35
    de voiture qui captent des signaux
    de la gamme des ondes radio,
  • 1:35 - 1:39
    et il y a dans les hôpitaux, des machines
    qui captent les rayons X.
  • 1:39 - 1:42
    Mais vous ne pouvez pas
    les percevoir vous-mêmes,
  • 1:42 - 1:43
    en tout cas pas encore,
  • 1:43 - 1:47
    parce que vous n'êtes pas équipés
    des capteurs adéquats.
  • 1:47 - 1:52
    Cela signifie que
    notre expérience de la réalité
  • 1:52 - 1:55
    est limitée par notre biologie,
  • 1:55 - 1:58
    et cela va contre l'idée reçue
  • 1:58 - 2:00
    que nos yeux, nos oreilles, nos doigts
  • 2:00 - 2:04
    perçoivent l'entière réalité objective
    qui nous entoure.
  • 2:04 - 2:10
    Nos cerveaux font plutôt un échantillon
    d'un petit peu du monde.
  • 2:10 - 2:12
    Parmi le royaume animal,
  • 2:12 - 2:15
    différents animaux perçoivent
    différents morceaux de la réalité.
  • 2:15 - 2:18
    Dans le monde sourd
    et aveugle de la tique,
  • 2:18 - 2:23
    les signaux importants sont
    la température et l'acide butyrique.
  • 2:23 - 2:26
    Dans le monde des fantômes noires
    que sont les knifefish,
  • 2:26 - 2:31
    le sens du monde est généreusement
    coloré par les champs électriques.
  • 2:31 - 2:33
    Et pour les chauves-souris
    et l'écholocation,
  • 2:33 - 2:37
    la réalité est construites
    par des vagues de compression de l'air.
  • 2:37 - 2:42
    C'est la tranche d'écosystème
    qu'ils perçoivent, et, en science,
  • 2:42 - 2:43
    nous avons un mot pour cela.
  • 2:43 - 2:45
    C'est appelé « Umwelt »,
  • 2:45 - 2:49
    c'est le mot allemand pour
    « environnement ».
  • 2:49 - 2:52
    Chaque animal suppose vraisemblablement
  • 2:52 - 2:56
    que son Umwelt est l'entière
    réalité objective,
  • 2:56 - 2:58
    car pourquoi vous arrêteriez-vous
    pour réfléchir
  • 2:58 - 3:01
    à l'existence d'une chose
    au-delà de votre perception.
  • 3:01 - 3:04
    Au lieu de celà, nous acceptons
    tous la réalité
  • 3:04 - 3:07
    comme elle nous est présentée.
  • 3:07 - 3:10
    Prenons conscience de cela.
  • 3:10 - 3:12
    Imaginez que vous êtes
    un chien de Saint-Hubert.
  • 3:13 - 3:15
    Votre monde est l'odorat.
  • 3:15 - 3:20
    Vous avez un long museau qui possède
    200 millions de récepteurs olfactifs,
  • 3:20 - 3:24
    et vous avez des narines humides qui
    attirent, piègent les molécules olfactives
  • 3:24 - 3:28
    et vos narines ont même des fentes
    pour pouvoir respirer profondément.
  • 3:28 - 3:31
    Pour vous, tout dépend de l'odorat.
  • 3:31 - 3:35
    Un jour, vous vous arrêtez
    en route avec une révélation.
  • 3:35 - 3:39
    Vous regardez votre maître
    humain et vous pensez :
  • 3:39 - 3:43
    « Quel sentiment cela fait-il d'avoir
    le pitoyable nez humain ?
  • 3:43 - 3:45
    (Rires)
  • 3:45 - 3:48
    Et de respirer par petites inspirations ?
  • 3:48 - 3:52
    Comment peut-on ne pas savoir
    qu'il y a un chat à 100 mètres,
  • 3:52 - 3:56
    ou que votre voisin était à cet endroit
    précis il y a six heures ? »
  • 3:56 - 3:58
    (Rires)
  • 3:58 - 4:01
    Parce que nous sommes humains,
  • 4:01 - 4:03
    nous ne faisons jamais l'expérience
    de ce monde d'odeurs,
  • 4:03 - 4:06
    donc il ne nous manque pas,
  • 4:06 - 4:10
    parce que nous sommes fermement
    ancrés dans notre Umwelt.
  • 4:10 - 4:14
    Mais la question est :
    sommes-nous coincés là ?
  • 4:14 - 4:19
    En tant que neuro-scientifique, je suis
    intéressé par la façon dont la technologie
  • 4:19 - 4:21
    pourrait étendre notre Umwelt,
  • 4:21 - 4:25
    et comment cela va changer
    l'expérience de l''être humain.
  • 4:26 - 4:30
    Nous savons déjà que nous pouvons lier
    notre technologie et notre biologie,
  • 4:30 - 4:34
    parce qu'il y a des centaines de milliers
    de personnes autour de nous
  • 4:34 - 4:37
    qui ont une audition ou une vision
    artificielle.
  • 4:37 - 4:42
    Cela fonctionne ainsi : vous prenez un
    microphone et vous digitalisez le signal,
  • 4:42 - 4:45
    et mettez une bande à électrodes
    directement dans l'oreille interne.
  • 4:45 - 4:48
    Ou, avec l'implant rétinien,
    vous prenez une caméra
  • 4:48 - 4:51
    et vous digitalisez le signal,
    et vous branchez une grille d'électrodes
  • 4:51 - 4:54
    directement au nerf optique.
  • 4:54 - 4:58
    Et il y a seulement quinze ans,
  • 4:58 - 5:02
    beaucoup de scientifiques pensaient que
    ces technologies ne fonctionneraient pas.
  • 5:02 - 5:07
    Pourquoi ? Parce que ces technologies
    parlent la langue de la Silicon Valley,
  • 5:07 - 5:12
    qui n'est pas le même dialecte que celui
    des organes de nos sens biologiques.
  • 5:12 - 5:15
    Mais le fait est que cela fonctionne.
  • 5:15 - 5:19
    Le cerveau comprend parfaitement
    comment utiliser les signaux.
  • 5:20 - 5:21
    Comment comprendre cela ?
  • 5:22 - 5:23
    Voici le secret :
  • 5:23 - 5:29
    votre cerveau n'entend et ne voit rien.
  • 5:29 - 5:35
    Votre cerveau est enfermé dans le silence
    et l'obscurité de votre crâne.
  • 5:35 - 5:39
    Tout ce qu'il voit sont
    des signaux électrochimiques
  • 5:39 - 5:42
    provenant de différents câbles de données,
  • 5:42 - 5:46
    et il ne travaille qu'avec cela
    et rien de plus.
  • 5:47 - 5:49
    De façon extraordinaire,
  • 5:49 - 5:52
    le cerveau est très bon pour
    recueillir ces signaux,
  • 5:52 - 5:55
    extraire les schémas et y donner un sens,
  • 5:55 - 5:59
    ainsi il prend le cosmos interne
    et concocte une histoire :
  • 5:59 - 6:04
    votre monde subjectif.
  • 6:04 - 6:06
    Voici le point clé :
  • 6:06 - 6:10
    votre cerveau ne sait pas,
    d'où viennent les données
  • 6:10 - 6:13
    et cela ne lui importe pas.
  • 6:13 - 6:17
    Quelle que soit l'information reçue,
    il comprend ce qu'il faut en faire.
  • 6:17 - 6:20
    Et c'est un type de machine très efficace.
  • 6:20 - 6:24
    C'est essentiellement
    un dispositif informatique généraliste,
  • 6:24 - 6:26
    qui recueille toutes les informations
  • 6:26 - 6:29
    et comprend ce qu'il doit en faire,
  • 6:29 - 6:33
    et cela, je pense, libère Mère Nature
  • 6:33 - 6:37
    de trafiquer avec différentes sortes
    de canaux d'entrée.
  • 6:37 - 6:40
    J'appelle cela le modèle d'évolution TPT,
  • 6:40 - 6:42
    je ne veux pas être trop technique
  • 6:42 - 6:45
    mais TPT signifie Tête de Pomme de Terre,
  • 6:45 - 6:49
    et j'utilise ce nom pour souligner
    tous les capteurs que
  • 6:49 - 6:52
    nous connaissons et aimons, comme
    nos yeux, nos oreilles et nos doigts,
  • 6:52 - 6:57
    qui sont principalement des dispositifs
    périphériques qu'il suffit de brancher :
  • 6:57 - 7:00
    vous les branchez et vous êtes paré.
  • 7:00 - 7:05
    Le cerveau comprend ce qu'il faut faire
    avec les données qu'il reçoit.
  • 7:06 - 7:08
    Et quand vous observez le règne animal,
  • 7:08 - 7:11
    vous trouvez beaucoup
    de dispositifs périphériques.
  • 7:11 - 7:15
    Les serpents ont des fossettes sensibles
    à la chaleur pour détecter les infrarouges
  • 7:15 - 7:18
    et le knifefish fantôme
    a des électro-récepteurs
  • 7:18 - 7:21
    et la musaraigne-souris fine
    a cet appendice
  • 7:21 - 7:24
    avec 22 doigts
  • 7:24 - 7:27
    lui permettant de sentir l'environnement
    et construire un modèle 3D du monde,
  • 7:27 - 7:31
    de nombreux oiseaux ont de la magnétite
    afin de s'orienter
  • 7:31 - 7:34
    par rapport au champ magnétique
    de la planète.
  • 7:34 - 7:38
    Cela signifie que la nature
    ne doit pas continuellement
  • 7:38 - 7:40
    reconcevoir le cerveau.
  • 7:40 - 7:45
    Au lieu de cela, les principes d'opération
    du cerveau établis,
  • 7:45 - 7:49
    la nature ne se soucie que de
    la conception de nouveaux périphériques.
  • 7:49 - 7:52
    Cela signifie que
  • 7:52 - 7:54
    la leçon a en tirer est
  • 7:54 - 7:58
    qu'il n'y a rien de vraiment
    spécial ou fondamental
  • 7:58 - 8:01
    concernant notre biologie
    à la naissance.
  • 8:01 - 8:03
    C'est simplement que nous avons hérité
  • 8:03 - 8:06
    d'une route complexe d'évolution.
  • 8:06 - 8:10
    Mais nous ne devons pas
    nous en contenter,
  • 8:10 - 8:12
    et notre meilleure preuve de principe
  • 8:12 - 8:14
    vient ce qui s'appelle
    la substitution des sens.
  • 8:14 - 8:18
    Cela correspond à nourrir
    le cerveau d'informations
  • 8:18 - 8:20
    via des canaux sensoriels inhabituels,
  • 8:20 - 8:23
    et le cerveau détermine
    ce qu'il doit en faire.
  • 8:23 - 8:26
    Cela peut sembler spéculatif,
  • 8:26 - 8:31
    mais le premier article démontrant cela a
    été publié en 1969 dans le journal Nature.
  • 8:32 - 8:34
    Un scientifique du nom de
    Paul Bach-y-Rita
  • 8:34 - 8:38
    a mis des gens aveugles
    sur une chaise de dentiste modifiée,
  • 8:38 - 8:40
    il a mis en place un flux vidéo,
  • 8:40 - 8:42
    il a mis quelque chose
    en face de la caméra,
  • 8:42 - 8:45
    et vous le sentiriez
    donner des petits coups
  • 8:45 - 8:48
    dans votre dos
    avec une grille de solénoïde.
  • 8:48 - 8:50
    Si vous remuez une tasse de café
    devant la caméra,
  • 8:50 - 8:52
    vous le sentez dans votre dos,
  • 8:52 - 8:55
    et, de façon extraordinaire, les gens
    aveugles étaient plutôt bons
  • 8:55 - 8:59
    pour déterminer ce qu'il y avait
    devant la caméra
  • 8:59 - 9:03
    juste en le sentant dans leur dos.
  • 9:03 - 9:06
    Il y a eu beaucoup d'incarnations
    modernes de cela.
  • 9:06 - 9:10
    Les lunettes soniques capturent
    un flux vidéo devant vous
  • 9:10 - 9:12
    et le transforme en paysage acoustique,
    afin que lorsque
  • 9:12 - 9:15
    les choses autour
    se rapprochent et s'éloignent
  • 9:15 - 9:17
    cela fait un « Bzz, bzz, bzz ».
  • 9:17 - 9:19
    Cela ressemble à une cacophonie
  • 9:19 - 9:23
    mais après quelques semaines,
    les personnes aveugles commencent
  • 9:23 - 9:25
    à bien comprendre
    ce qui est face à eux
  • 9:25 - 9:28
    en se basant uniquement
    sur ce qu'ils entendent.
  • 9:28 - 9:30
    Cela n'a pas à être
    via les oreilles :
  • 9:30 - 9:33
    ce système utilise une grille
    électro-tactile placée sur le front
  • 9:33 - 9:37
    afin que vous ressentiez sur votre front
    tout ce qu'il se passe face à vous.
  • 9:37 - 9:40
    Pourquoi le front ?
    Parce que vous ne l'utilisez pas.
  • 9:40 - 9:44
    L'incarnation la plus moderne
    est la Brainport,
  • 9:44 - 9:48
    c'est une petite grille d'électrodes
    placée sur votre langue
  • 9:48 - 9:52
    et elle transforme le flux vidéo
    en petits signaux électro-tactiles.
  • 9:52 - 9:58
    Les personnes aveugles l'utilisent si bien
    qu'ils peuvent marquer des paniers
  • 9:58 - 10:02
    ou se diriger dans de complexes
    courses d'obstacles.
  • 10:03 - 10:08
    Ils peuvent parvenir
    à voir avec leur langue.
  • 10:08 - 10:10
    Cela semble totalement fou, n'est-ce pas ?
  • 10:10 - 10:13
    Mais souvenez-vous que la vision
  • 10:13 - 10:17
    n'est que des signaux électrochimiques
    se déplaçant dans votre cerveau.
  • 10:17 - 10:19
    Votre cerveau ne sait pas
    d'où viennent les signaux,
  • 10:19 - 10:23
    il détermine simplement
    ce qu'il doit en faire.
  • 10:23 - 10:28
    Dans mon laboratoire c'est la substitution
    sensorielle pour les sourds
  • 10:28 - 10:31
    qui m'intéresse et c'est un projet
    que j'ai entrepris
  • 10:31 - 10:34
    avec un doctorant de mon laboratoire,
    Scott Novich, travaillant
  • 10:34 - 10:37
    sur le sujet dans le cadre de sa thèse.
  • 10:37 - 10:39
    Et voici ce que nous voulions faire :
  • 10:39 - 10:43
    nous voulions que le bruit
    du monde soit converti,
  • 10:43 - 10:47
    d'une façon ou d'une autre, afin qu'un
    sourd puisse comprendre ce qui est dit.
  • 10:47 - 10:52
    Etant donnés le pouvoir et l'ubiquité
    des systèmes portables,
  • 10:52 - 10:57
    nous voulions nous assurer que cela
    fonctionne sur les portables et tablettes,
  • 10:57 - 10:59
    et aussi faire une technologie portable,
  • 10:59 - 11:02
    quelque chose que vous pourriez
    porter sous vos vêtements.
  • 11:02 - 11:04
    Voici le concept.
  • 11:05 - 11:10
    Pendant que je parle, mon son
    est capturé par la tablette,
  • 11:10 - 11:16
    il est modélisé sur un gilet
    couverte de moteurs vibrants,
  • 11:16 - 11:20
    comme les moteurs dans vos portables.
  • 11:20 - 11:22
    Pendant je parle,
  • 11:22 - 11:28
    le son est traduit en un schéma
    de vibration sur le gilet.
  • 11:28 - 11:30
    Ce n'est pas juste conceptuel :
  • 11:30 - 11:35
    la tablette transmet en Bluetooth,
    et je porte actuellement la veste.
  • 11:35 - 11:37
    Donc, pendant que je parle --
    (Applaudissements) --
  • 11:38 - 11:44
    le son est traduit en schémas
    dynamiques de vibration.
  • 11:44 - 11:49
    Je sens l'acoustique qui m'entoure.
  • 11:49 - 11:53
    Nous l'avons testé
    avec des personnes sourdes
  • 11:53 - 11:57
    et il s'avère qu'après un petit moment,
  • 11:57 - 12:00
    les gens commencent à sentir,
    ils commencent à comprendre
  • 12:00 - 12:03
    le langage du gilet.
  • 12:03 - 12:08
    Voici Jonathan. Il a 37 ans.
    Il a un master.
  • 12:08 - 12:10
    Il est né sourd,
  • 12:10 - 12:14
    ce qui signifie qu'une partie
    de son Umwelt lui est inaccessible.
  • 12:14 - 12:19
    Jonathan s'est entrainé avec le gilet
    pendant 4 jours, 2 heures pas jour,
  • 12:19 - 12:22
    et le voici le 5ème jour.
  • 12:22 - 12:24
    Scott Novich : Toi.
  • 12:24 - 12:27
    David Eagleman : Scott dit un mot,
    Jonathan le sent sur la veste,
  • 12:27 - 12:30
    et l'écrit sur le tableau.
  • 12:30 - 12:34
    SN : Où. Où.
  • 12:34 - 12:38
    DE : Jonathan est capable de traduire
    ce schéma de vibrations compliqué
  • 12:38 - 12:41
    en une compréhension
    de ce qui est dit.
  • 12:41 - 12:44
    SN : Touche. Touche.
  • 12:44 - 12:49
    DE : Il ne fait pas cela --
  • 12:49 - 12:55
    (Applaudissements) --
  • 12:56 - 13:00
    Jonathan ne le fait pas consciemment,
    parce que les schémas sont trop complexes,
  • 13:00 - 13:06
    mais son cerveau commence à développer
    le modèle qui lui permet de comprendre
  • 13:06 - 13:08
    ce que signifient les données.
  • 13:08 - 13:12
    Nous espérons qu'après avoir
    porté cela pendant trois mois,
  • 13:12 - 13:17
    il expérimentera une perception directe
    de l'audition
  • 13:17 - 13:21
    de la même façon que lorsqu'un aveugle
    passe son doigt sur du braille,
  • 13:21 - 13:26
    il en perçoit le sens immédiatement,
    sans aucune intervention consciente.
  • 13:27 - 13:30
    Cette technologie a le potentiel
    de changer les règles du jeu,
  • 13:30 - 13:34
    parce que la seule autre solution
    à la surdité est un implant cochléaire,
  • 13:34 - 13:37
    et cela nécessite une chirurgie invasive.
  • 13:37 - 13:42
    Et cela peut être fabriqué pour 40 fois
    moins cher qu'un implant cochléaire,
  • 13:42 - 13:47
    rendant cette technologies accessible
    même aux pays les plus pauvres.
  • 13:48 - 13:53
    Nous sommes encouragés par nos résultats
    de la substitution sensorielle,
  • 13:53 - 13:57
    mais nous avons beaucoup pensé
    à l'addition sensorielle.
  • 13:57 - 14:03
    Comment pourrions-nous utiliser une telle
    technologie pour ajouter un sens
  • 14:03 - 14:06
    complètement nouveau,
    pour étendre l'Umwelt humain ?
  • 14:06 - 14:10
    Par exemple, pourrions-nous envoyer
    en temps réel des données d'internet
  • 14:10 - 14:12
    directement dans le cerveau de quelqu'un,
  • 14:12 - 14:16
    et peut-il développer une expérience
    perceptive directe ?
  • 14:16 - 14:18
    Voici une expérience que nous faisons
    au laboratoire.
  • 14:18 - 14:22
    Un sujet ressent un flux en temps réel
    de données d'internet
  • 14:22 - 14:24
    durant 5 secondes.
  • 14:24 - 14:27
    Puis, deux boutons apparaissent
    et il doit faire un choix.
  • 14:27 - 14:29
    Il ne sait pas ce qu'il se passe.
  • 14:29 - 14:32
    Il fait un choix et reçoit
    un retour une seconde après.
  • 14:32 - 14:33
    Seulement voilà :
  • 14:33 - 14:36
    le sujet ne connait pas
    la significations des motifs,
  • 14:36 - 14:39
    mais nous observons s'il comprend mieux
    sur quel bouton appuyer.
  • 14:39 - 14:41
    Il ne sait pas que nous envoyons
  • 14:41 - 14:45
    des données en temps réel de la bourse,
  • 14:45 - 14:47
    et il décide d'acheter et de vendre.
  • 14:47 - 14:49
    (Rires)
  • 14:49 - 14:53
    Et le retour lui dit si oui ou non
    il a fait le bon choix.
  • 14:53 - 14:56
    Ce que nous observons si
    nous pouvons étendre l'Umwelt humain
  • 14:56 - 14:59
    afin que, après plusieurs semaines,
    il parvienne à avoir
  • 14:59 - 15:05
    une expérience perceptive directe
    des mouvements économiques de la planète.
  • 15:05 - 15:08
    Nous vous dirons comment il s'en sort.
  • 15:08 - 15:10
    (Rires)
  • 15:11 - 15:13
    Une autre chose que nous faisons :
  • 15:13 - 15:17
    durant les conférences de ce matin,
    nous avons surveillé Twitter
  • 15:17 - 15:20
    et la hashtag TED2015,
  • 15:20 - 15:23
    nous avons procédé à
    une analyse automatique de sentiment :
  • 15:23 - 15:27
    est-ce que les gens utilisent des mots
    positifs, négatifs ou neutres ?
  • 15:27 - 15:30
    Et pendant ce temps,
  • 15:30 - 15:33
    je l'ai ressenti,
  • 15:33 - 15:37
    donc je suis branché
    à un agrégat d'émotions
  • 15:37 - 15:41
    de milliers de personne
    et ce en temps réel,
  • 15:41 - 15:45
    et c'est un nouveau type d'expérience
    humaine, parce que je peux savoir
  • 15:45 - 15:48
    comment vous allez
    et si vous appréciez ce que je dis.
  • 15:48 - 15:53
    (Rires)
    (Applaudissements)
  • 15:55 - 15:59
    C'est une expérience plus importante
    que celle vécue d'habitude par un humain.
  • 16:00 - 16:03
    Nous étendons aussi
    l'Umwelt des pilotes.
  • 16:03 - 16:07
    Dans ce cas, la veste envoie
    neuf mesures différentes
  • 16:07 - 16:08
    de ce quadrirotor,
  • 16:08 - 16:12
    la hauteur et l'angle
    et l'orientation et la direction,
  • 16:12 - 16:16
    et cela améliore la capacité
    du pilote à voler.
  • 16:16 - 16:21
    C'est comme s'il étendait sa peau.
  • 16:21 - 16:23
    Et ce n'est que le début.
  • 16:23 - 16:28
    Nous prévoyons de prendre un cockpit
    moderne plein d'indicateurs
  • 16:28 - 16:33
    et au lieu d'essayer de tout lire,
    vous le sentez.
  • 16:33 - 16:35
    Nous vivons dans un monde d'informations,
  • 16:35 - 16:39
    et il y a une différence entre
    accéder à de nombreuses données
  • 16:39 - 16:42
    et les expérimenter.
  • 16:42 - 16:46
    Je pense qu'il n'y a pas de limite
    aux possibilités
  • 16:46 - 16:48
    à l'horizon concernant
    l'expansion humaine.
  • 16:48 - 16:53
    Imaginez un astronaute
    capable de ressentir
  • 16:53 - 16:57
    la santé générale
    de la Station Spatiale Internationale,
  • 16:57 - 17:02
    ou que vous ressentiez les éléments
    invisibles de votre propre santé,
  • 17:02 - 17:05
    comme le taux de sucre dans le sang
    et l'état de votre microbiome,
  • 17:05 - 17:11
    ou avoir une vision à 360° ou voir
    les infrarouges ou les ultraviolets.
  • 17:11 - 17:15
    La clé est :
    alors que nous allons vers le futur,
  • 17:15 - 17:20
    nous allons augmenter notre capacité
    à choisir nos systèmes périphériques.
  • 17:20 - 17:23
    Nous n'avons plus à entendre que
    Mère Nature nous offre des sens
  • 17:23 - 17:25
    en temps venu,
  • 17:25 - 17:29
    au lieu de cela, comme tout bon parent,
    elle nous a donné les outils nécessaires
  • 17:29 - 17:34
    pour définir notre propre trajectoire.
  • 17:34 - 17:35
    La question est :
  • 17:35 - 17:41
    voulez-vous sortir et expérimenter
    votre univers ?
  • 17:41 - 17:43
    Merci.
  • 17:43 - 17:51
    (Applaudissements)
  • 17:59 - 18:02
    Chris Anderson : Vous le sentez ?
    DE : Ouais.
  • 18:02 - 18:05
    En fait, c'était la première fois que
    je sentais des applaudissements
  • 18:05 - 18:07
    C'est sympa,
    comme un massage. (Rires)
  • 18:07 - 18:11
    CA : Twitter devient fou.
    Twitter devient fou.
  • 18:11 - 18:13
    Donc, cette expérience de la bourse.
  • 18:13 - 18:18
    Cela pourrait être la première expérience
    sécurisant plus son financement
  • 18:18 - 18:20
    si ça fonctionne, n'est-ce pas ?
  • 18:20 - 18:23
    DE : C'est vrai, je n'aurais plus
    à écrire au NIH.
  • 18:23 - 18:26
    CA : Juste pour être
    sceptique un instant,
  • 18:26 - 18:29
    je veux dire, c'est génial mais
    la majorité des éléments jusqu'ici
  • 18:29 - 18:31
    n'indique-t-elle pas que
    la substitution sensorielle
  • 18:31 - 18:33
    fonctionne mais pas forcément
    l'addition ?
  • 18:33 - 18:37
    N'est-il pas possible qu'un aveugle
    puisse voir par sa langue
  • 18:37 - 18:42
    parce que le cortex visuel est toujours là
    prêt à travailler, et que c'est de cela
  • 18:42 - 18:44
    dont nous avons besoin ?
  • 18:44 - 18:46
    DE : C'est une excellente question.
    Nous ne savons pas
  • 18:46 - 18:50
    quelles sont les limites théoriques sur
    les données que le cerveau peut utiliser.
  • 18:50 - 18:53
    L'information générale est
    qu'il est extraordinairement flexible.
  • 18:53 - 18:57
    Donc quand quelqu'un devient aveugle,
    ce que nous appelions leur cortex visuel
  • 18:57 - 19:02
    est repris par d'autres choses :
    le toucher, l'audition, le vocabulaire.
  • 19:02 - 19:06
    Cela nous dit que le cortex
    a plus d'un tour dans son sac.
  • 19:06 - 19:09
    Il lance simplement
    des calculs sur les choses.
  • 19:09 - 19:12
    Et quand nous regardons autour de nous,
    par exemple le braille,
  • 19:12 - 19:15
    les gens obtiennent des informations
    par leurs doigts sur des bosses.
  • 19:15 - 19:19
    Je ne pense pas que nous ayons une raison
    de penser qu'il y a
  • 19:19 - 19:20
    une limite théorique.
  • 19:21 - 19:25
    CA : Si cela s'avère vrai,
    vous allez être submergé.
  • 19:25 - 19:28
    Il y a tellement d'applications
    possibles pour cela.
  • 19:28 - 19:32
    Êtes-vous prêt ? Qu'es-ce qui vous excite
    le plus, dans quelle direction cela ira ?
  • 19:32 - 19:34
    DE : Je pense qu'il y a
    beaucoup d'applications.
  • 19:34 - 19:38
    Pour aller au-delà de la substitution
    sensorielle, j'ai évoqué
  • 19:38 - 19:42
    les astronautes et la station spatiale,
    ils passent beaucoup de temps
  • 19:42 - 19:45
    à faire des contrôles, ils pourraient
    sentir ce qu'il se passe,
  • 19:45 - 19:49
    parce que cela fonctionne très bien
    pour les données multidimensionnelles.
  • 19:49 - 19:54
    La clé est : nos systèmes visuels sont
    bons pour détecter les bosses et bords,
  • 19:54 - 19:56
    mais sont très mauvais concernant
    notre monde actuel,
  • 19:56 - 19:58
    qui est fait d'écrans
    et de beaucoup de données.
  • 19:58 - 20:01
    Nous devons compenser cela
    avec notre vigilance.
  • 20:01 - 20:03
    C'est un moyen de ressentir
    l'état de quelque chose,
  • 20:03 - 20:07
    tout comme vous connaissez l'état
    de votre corps quand vous êtes debout.
  • 20:07 - 20:10
    Je pense que la machinerie lourde,
    la sécurité, sentir l'état
  • 20:10 - 20:13
    d'une usine, de votre équipement,
    on se dirige vers cela.
  • 20:13 - 20:17
    CA : David Eagleman, c'était
    une conférence incroyable. Merci beaucoup.
  • 20:17 - 20:22
    DE : Merci Chris.
    (Applaudissements)
Title:
Pouvons-nous créer de nouveaux sens pour les humains ?
Speaker:
David Eagleman
Description:

En tant qu'humains, nous percevons moins d'un billionième des ondes lumineuses. « Notre expérience de la réalité, dit le neuro-scientifique David Eagleman, est limitée par notre biologie ». Il veut changer cela. Sa recherche sur le fonctionnement de notre cerveau l'a mené à créer de nouvelles interfaces -- comme une veste sensorielle -- pour recueillir des informations, précédemment non perçues, sur le monde qui nous entoure.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
20:34

French subtitles

Revisions