Pouvons-nous créer de nouveaux sens pour les humains ?
-
0:01 - 0:06Nous sommes composés
de toutes petites choses, -
0:06 - 0:08et nous sommes intégrés
dans un très grand cosmos, -
0:08 - 0:13et le fait est que nous ne comprenons pas
très bien la réalité -
0:13 - 0:14à aucune de ces échelles
-
0:14 - 0:16et c'est parce que nos cerveaux
-
0:16 - 0:20n'ont pas évolué pour comprendre
le monde à cette échelle. -
0:20 - 0:24Au lieu de cela, nous sommes réduits
à une fente très fine de perception -
0:24 - 0:26en plein milieu.
-
0:27 - 0:31Ce qui est bizarre est que
même dans cette tranche de réalité, -
0:31 - 0:34nous ne voyons pas la majorité
de ce qu'il se passe. -
0:34 - 0:38Considérez les couleurs de notre monde.
Ce sont des vagues de lumières, -
0:38 - 0:42des radiations électromagnétiques
qui rebondissent sur les objets -
0:42 - 0:46et frappent des récepteurs spécialisés
à l'arrière de nos yeux. -
0:46 - 0:49Mais nous ne voyons pas les vagues.
-
0:49 - 0:51En fait, ce que nous voyons
-
0:51 - 0:55représente moins d'un billionième
de ce qu'il y a. -
0:55 - 0:58Il y a des ondes radio
et des micro-ondes -
0:58 - 1:02et des rayons X et gamma
qui traversent actuellement notre corps -
1:02 - 1:05et vous l'ignorez totalement,
-
1:05 - 1:08car vous n'avez pas les récepteurs
biologiques adéquats -
1:08 - 1:09pour les percevoir.
-
1:10 - 1:12Il y a des milliers
de conversations téléphoniques -
1:12 - 1:14qui vous traversent en ce moment,
-
1:14 - 1:16et vous y êtes complètement aveugle.
-
1:16 - 1:20Ce n'est pas que les choses
sont intrinsèquement invisibles. -
1:20 - 1:25Les serpents incluent des infra-rouges
dans leur réalité, -
1:25 - 1:29et les abeilles incluent des ultraviolets
dans leur vision du monde, -
1:29 - 1:32et nous construisons des machines
dans nos tableaux de bord -
1:32 - 1:35de voiture qui captent des signaux
de la gamme des ondes radio, -
1:35 - 1:39et il y a dans les hôpitaux, des machines
qui captent les rayons X. -
1:39 - 1:42Mais vous ne pouvez pas
les percevoir vous-mêmes, -
1:42 - 1:43en tout cas pas encore,
-
1:43 - 1:47parce que vous n'êtes pas équipés
des capteurs adéquats. -
1:47 - 1:52Cela signifie que
notre expérience de la réalité -
1:52 - 1:55est limitée par notre biologie,
-
1:55 - 1:58et cela va contre l'idée reçue
-
1:58 - 2:00que nos yeux, nos oreilles, nos doigts
-
2:00 - 2:04perçoivent l'entière réalité objective
qui nous entoure. -
2:04 - 2:10Nos cerveaux font plutôt un échantillon
d'un petit peu du monde. -
2:10 - 2:12Parmi le royaume animal,
-
2:12 - 2:15différents animaux perçoivent
différents morceaux de la réalité. -
2:15 - 2:18Dans le monde sourd
et aveugle de la tique, -
2:18 - 2:23les signaux importants sont
la température et l'acide butyrique. -
2:23 - 2:26Dans le monde des fantômes noires
que sont les knifefish, -
2:26 - 2:31le sens du monde est généreusement
coloré par les champs électriques. -
2:31 - 2:33Et pour les chauves-souris
et l'écholocation, -
2:33 - 2:37la réalité est construites
par des vagues de compression de l'air. -
2:37 - 2:42C'est la tranche d'écosystème
qu'ils perçoivent, et, en science, -
2:42 - 2:43nous avons un mot pour cela.
-
2:43 - 2:45C'est appelé « Umwelt »,
-
2:45 - 2:49c'est le mot allemand pour
« environnement ». -
2:49 - 2:52Chaque animal suppose vraisemblablement
-
2:52 - 2:56que son Umwelt est l'entière
réalité objective, -
2:56 - 2:58car pourquoi vous arrêteriez-vous
pour réfléchir -
2:58 - 3:01à l'existence d'une chose
au-delà de votre perception. -
3:01 - 3:04Au lieu de celà, nous acceptons
tous la réalité -
3:04 - 3:07comme elle nous est présentée.
-
3:07 - 3:10Prenons conscience de cela.
-
3:10 - 3:12Imaginez que vous êtes
un chien de Saint-Hubert. -
3:13 - 3:15Votre monde est l'odorat.
-
3:15 - 3:20Vous avez un long museau qui possède
200 millions de récepteurs olfactifs, -
3:20 - 3:24et vous avez des narines humides qui
attirent, piègent les molécules olfactives -
3:24 - 3:28et vos narines ont même des fentes
pour pouvoir respirer profondément. -
3:28 - 3:31Pour vous, tout dépend de l'odorat.
-
3:31 - 3:35Un jour, vous vous arrêtez
en route avec une révélation. -
3:35 - 3:39Vous regardez votre maître
humain et vous pensez : -
3:39 - 3:43« Quel sentiment cela fait-il d'avoir
le pitoyable nez humain ? -
3:43 - 3:45(Rires)
-
3:45 - 3:48Et de respirer par petites inspirations ?
-
3:48 - 3:52Comment peut-on ne pas savoir
qu'il y a un chat à 100 mètres, -
3:52 - 3:56ou que votre voisin était à cet endroit
précis il y a six heures ? » -
3:56 - 3:58(Rires)
-
3:58 - 4:01Parce que nous sommes humains,
-
4:01 - 4:03nous ne faisons jamais l'expérience
de ce monde d'odeurs, -
4:03 - 4:06donc il ne nous manque pas,
-
4:06 - 4:10parce que nous sommes fermement
ancrés dans notre Umwelt. -
4:10 - 4:14Mais la question est :
sommes-nous coincés là ? -
4:14 - 4:19En tant que neuro-scientifique, je suis
intéressé par la façon dont la technologie -
4:19 - 4:21pourrait étendre notre Umwelt,
-
4:21 - 4:25et comment cela va changer
l'expérience de l''être humain. -
4:26 - 4:30Nous savons déjà que nous pouvons lier
notre technologie et notre biologie, -
4:30 - 4:34parce qu'il y a des centaines de milliers
de personnes autour de nous -
4:34 - 4:37qui ont une audition ou une vision
artificielle. -
4:37 - 4:42Cela fonctionne ainsi : vous prenez un
microphone et vous digitalisez le signal, -
4:42 - 4:45et mettez une bande à électrodes
directement dans l'oreille interne. -
4:45 - 4:48Ou, avec l'implant rétinien,
vous prenez une caméra -
4:48 - 4:51et vous digitalisez le signal,
et vous branchez une grille d'électrodes -
4:51 - 4:54directement au nerf optique.
-
4:54 - 4:58Et il y a seulement quinze ans,
-
4:58 - 5:02beaucoup de scientifiques pensaient que
ces technologies ne fonctionneraient pas. -
5:02 - 5:07Pourquoi ? Parce que ces technologies
parlent la langue de la Silicon Valley, -
5:07 - 5:12qui n'est pas le même dialecte que celui
des organes de nos sens biologiques. -
5:12 - 5:15Mais le fait est que cela fonctionne.
-
5:15 - 5:19Le cerveau comprend parfaitement
comment utiliser les signaux. -
5:20 - 5:21Comment comprendre cela ?
-
5:22 - 5:23Voici le secret :
-
5:23 - 5:29votre cerveau n'entend et ne voit rien.
-
5:29 - 5:35Votre cerveau est enfermé dans le silence
et l'obscurité de votre crâne. -
5:35 - 5:39Tout ce qu'il voit sont
des signaux électrochimiques -
5:39 - 5:42provenant de différents câbles de données,
-
5:42 - 5:46et il ne travaille qu'avec cela
et rien de plus. -
5:47 - 5:49De façon extraordinaire,
-
5:49 - 5:52le cerveau est très bon pour
recueillir ces signaux, -
5:52 - 5:55extraire les schémas et y donner un sens,
-
5:55 - 5:59ainsi il prend le cosmos interne
et concocte une histoire : -
5:59 - 6:04votre monde subjectif.
-
6:04 - 6:06Voici le point clé :
-
6:06 - 6:10votre cerveau ne sait pas,
d'où viennent les données -
6:10 - 6:13et cela ne lui importe pas.
-
6:13 - 6:17Quelle que soit l'information reçue,
il comprend ce qu'il faut en faire. -
6:17 - 6:20Et c'est un type de machine très efficace.
-
6:20 - 6:24C'est essentiellement
un dispositif informatique généraliste, -
6:24 - 6:26qui recueille toutes les informations
-
6:26 - 6:29et comprend ce qu'il doit en faire,
-
6:29 - 6:33et cela, je pense, libère Mère Nature
-
6:33 - 6:37de trafiquer avec différentes sortes
de canaux d'entrée. -
6:37 - 6:40J'appelle cela le modèle d'évolution TPT,
-
6:40 - 6:42je ne veux pas être trop technique
-
6:42 - 6:45mais TPT signifie Tête de Pomme de Terre,
-
6:45 - 6:49et j'utilise ce nom pour souligner
tous les capteurs que -
6:49 - 6:52nous connaissons et aimons, comme
nos yeux, nos oreilles et nos doigts, -
6:52 - 6:57qui sont principalement des dispositifs
périphériques qu'il suffit de brancher : -
6:57 - 7:00vous les branchez et vous êtes paré.
-
7:00 - 7:05Le cerveau comprend ce qu'il faut faire
avec les données qu'il reçoit. -
7:06 - 7:08Et quand vous observez le règne animal,
-
7:08 - 7:11vous trouvez beaucoup
de dispositifs périphériques. -
7:11 - 7:15Les serpents ont des fossettes sensibles
à la chaleur pour détecter les infrarouges -
7:15 - 7:18et le knifefish fantôme
a des électro-récepteurs -
7:18 - 7:21et la musaraigne-souris fine
a cet appendice -
7:21 - 7:24avec 22 doigts
-
7:24 - 7:27lui permettant de sentir l'environnement
et construire un modèle 3D du monde, -
7:27 - 7:31de nombreux oiseaux ont de la magnétite
afin de s'orienter -
7:31 - 7:34par rapport au champ magnétique
de la planète. -
7:34 - 7:38Cela signifie que la nature
ne doit pas continuellement -
7:38 - 7:40reconcevoir le cerveau.
-
7:40 - 7:45Au lieu de cela, les principes d'opération
du cerveau établis, -
7:45 - 7:49la nature ne se soucie que de
la conception de nouveaux périphériques. -
7:49 - 7:52Cela signifie que
-
7:52 - 7:54la leçon a en tirer est
-
7:54 - 7:58qu'il n'y a rien de vraiment
spécial ou fondamental -
7:58 - 8:01concernant notre biologie
à la naissance. -
8:01 - 8:03C'est simplement que nous avons hérité
-
8:03 - 8:06d'une route complexe d'évolution.
-
8:06 - 8:10Mais nous ne devons pas
nous en contenter, -
8:10 - 8:12et notre meilleure preuve de principe
-
8:12 - 8:14vient ce qui s'appelle
la substitution des sens. -
8:14 - 8:18Cela correspond à nourrir
le cerveau d'informations -
8:18 - 8:20via des canaux sensoriels inhabituels,
-
8:20 - 8:23et le cerveau détermine
ce qu'il doit en faire. -
8:23 - 8:26Cela peut sembler spéculatif,
-
8:26 - 8:31mais le premier article démontrant cela a
été publié en 1969 dans le journal Nature. -
8:32 - 8:34Un scientifique du nom de
Paul Bach-y-Rita -
8:34 - 8:38a mis des gens aveugles
sur une chaise de dentiste modifiée, -
8:38 - 8:40il a mis en place un flux vidéo,
-
8:40 - 8:42il a mis quelque chose
en face de la caméra, -
8:42 - 8:45et vous le sentiriez
donner des petits coups -
8:45 - 8:48dans votre dos
avec une grille de solénoïde. -
8:48 - 8:50Si vous remuez une tasse de café
devant la caméra, -
8:50 - 8:52vous le sentez dans votre dos,
-
8:52 - 8:55et, de façon extraordinaire, les gens
aveugles étaient plutôt bons -
8:55 - 8:59pour déterminer ce qu'il y avait
devant la caméra -
8:59 - 9:03juste en le sentant dans leur dos.
-
9:03 - 9:06Il y a eu beaucoup d'incarnations
modernes de cela. -
9:06 - 9:10Les lunettes soniques capturent
un flux vidéo devant vous -
9:10 - 9:12et le transforme en paysage acoustique,
afin que lorsque -
9:12 - 9:15les choses autour
se rapprochent et s'éloignent -
9:15 - 9:17cela fait un « Bzz, bzz, bzz ».
-
9:17 - 9:19Cela ressemble à une cacophonie
-
9:19 - 9:23mais après quelques semaines,
les personnes aveugles commencent -
9:23 - 9:25à bien comprendre
ce qui est face à eux -
9:25 - 9:28en se basant uniquement
sur ce qu'ils entendent. -
9:28 - 9:30Cela n'a pas à être
via les oreilles : -
9:30 - 9:33ce système utilise une grille
électro-tactile placée sur le front -
9:33 - 9:37afin que vous ressentiez sur votre front
tout ce qu'il se passe face à vous. -
9:37 - 9:40Pourquoi le front ?
Parce que vous ne l'utilisez pas. -
9:40 - 9:44L'incarnation la plus moderne
est la Brainport, -
9:44 - 9:48c'est une petite grille d'électrodes
placée sur votre langue -
9:48 - 9:52et elle transforme le flux vidéo
en petits signaux électro-tactiles. -
9:52 - 9:58Les personnes aveugles l'utilisent si bien
qu'ils peuvent marquer des paniers -
9:58 - 10:02ou se diriger dans de complexes
courses d'obstacles. -
10:03 - 10:08Ils peuvent parvenir
à voir avec leur langue. -
10:08 - 10:10Cela semble totalement fou, n'est-ce pas ?
-
10:10 - 10:13Mais souvenez-vous que la vision
-
10:13 - 10:17n'est que des signaux électrochimiques
se déplaçant dans votre cerveau. -
10:17 - 10:19Votre cerveau ne sait pas
d'où viennent les signaux, -
10:19 - 10:23il détermine simplement
ce qu'il doit en faire. -
10:23 - 10:28Dans mon laboratoire c'est la substitution
sensorielle pour les sourds -
10:28 - 10:31qui m'intéresse et c'est un projet
que j'ai entrepris -
10:31 - 10:34avec un doctorant de mon laboratoire,
Scott Novich, travaillant -
10:34 - 10:37sur le sujet dans le cadre de sa thèse.
-
10:37 - 10:39Et voici ce que nous voulions faire :
-
10:39 - 10:43nous voulions que le bruit
du monde soit converti, -
10:43 - 10:47d'une façon ou d'une autre, afin qu'un
sourd puisse comprendre ce qui est dit. -
10:47 - 10:52Etant donnés le pouvoir et l'ubiquité
des systèmes portables, -
10:52 - 10:57nous voulions nous assurer que cela
fonctionne sur les portables et tablettes, -
10:57 - 10:59et aussi faire une technologie portable,
-
10:59 - 11:02quelque chose que vous pourriez
porter sous vos vêtements. -
11:02 - 11:04Voici le concept.
-
11:05 - 11:10Pendant que je parle, mon son
est capturé par la tablette, -
11:10 - 11:16il est modélisé sur un gilet
couverte de moteurs vibrants, -
11:16 - 11:20comme les moteurs dans vos portables.
-
11:20 - 11:22Pendant je parle,
-
11:22 - 11:28le son est traduit en un schéma
de vibration sur le gilet. -
11:28 - 11:30Ce n'est pas juste conceptuel :
-
11:30 - 11:35la tablette transmet en Bluetooth,
et je porte actuellement la veste. -
11:35 - 11:37Donc, pendant que je parle --
(Applaudissements) -- -
11:38 - 11:44le son est traduit en schémas
dynamiques de vibration. -
11:44 - 11:49Je sens l'acoustique qui m'entoure.
-
11:49 - 11:53Nous l'avons testé
avec des personnes sourdes -
11:53 - 11:57et il s'avère qu'après un petit moment,
-
11:57 - 12:00les gens commencent à sentir,
ils commencent à comprendre -
12:00 - 12:03le langage du gilet.
-
12:03 - 12:08Voici Jonathan. Il a 37 ans.
Il a un master. -
12:08 - 12:10Il est né sourd,
-
12:10 - 12:14ce qui signifie qu'une partie
de son Umwelt lui est inaccessible. -
12:14 - 12:19Jonathan s'est entrainé avec le gilet
pendant 4 jours, 2 heures pas jour, -
12:19 - 12:22et le voici le 5ème jour.
-
12:22 - 12:24Scott Novich : Toi.
-
12:24 - 12:27David Eagleman : Scott dit un mot,
Jonathan le sent sur la veste, -
12:27 - 12:30et l'écrit sur le tableau.
-
12:30 - 12:34SN : Où. Où.
-
12:34 - 12:38DE : Jonathan est capable de traduire
ce schéma de vibrations compliqué -
12:38 - 12:41en une compréhension
de ce qui est dit. -
12:41 - 12:44SN : Touche. Touche.
-
12:44 - 12:49DE : Il ne fait pas cela --
-
12:49 - 12:55(Applaudissements) --
-
12:56 - 13:00Jonathan ne le fait pas consciemment,
parce que les schémas sont trop complexes, -
13:00 - 13:06mais son cerveau commence à développer
le modèle qui lui permet de comprendre -
13:06 - 13:08ce que signifient les données.
-
13:08 - 13:12Nous espérons qu'après avoir
porté cela pendant trois mois, -
13:12 - 13:17il expérimentera une perception directe
de l'audition -
13:17 - 13:21de la même façon que lorsqu'un aveugle
passe son doigt sur du braille, -
13:21 - 13:26il en perçoit le sens immédiatement,
sans aucune intervention consciente. -
13:27 - 13:30Cette technologie a le potentiel
de changer les règles du jeu, -
13:30 - 13:34parce que la seule autre solution
à la surdité est un implant cochléaire, -
13:34 - 13:37et cela nécessite une chirurgie invasive.
-
13:37 - 13:42Et cela peut être fabriqué pour 40 fois
moins cher qu'un implant cochléaire, -
13:42 - 13:47rendant cette technologies accessible
même aux pays les plus pauvres. -
13:48 - 13:53Nous sommes encouragés par nos résultats
de la substitution sensorielle, -
13:53 - 13:57mais nous avons beaucoup pensé
à l'addition sensorielle. -
13:57 - 14:03Comment pourrions-nous utiliser une telle
technologie pour ajouter un sens -
14:03 - 14:06complètement nouveau,
pour étendre l'Umwelt humain ? -
14:06 - 14:10Par exemple, pourrions-nous envoyer
en temps réel des données d'internet -
14:10 - 14:12directement dans le cerveau de quelqu'un,
-
14:12 - 14:16et peut-il développer une expérience
perceptive directe ? -
14:16 - 14:18Voici une expérience que nous faisons
au laboratoire. -
14:18 - 14:22Un sujet ressent un flux en temps réel
de données d'internet -
14:22 - 14:24durant 5 secondes.
-
14:24 - 14:27Puis, deux boutons apparaissent
et il doit faire un choix. -
14:27 - 14:29Il ne sait pas ce qu'il se passe.
-
14:29 - 14:32Il fait un choix et reçoit
un retour une seconde après. -
14:32 - 14:33Seulement voilà :
-
14:33 - 14:36le sujet ne connait pas
la significations des motifs, -
14:36 - 14:39mais nous observons s'il comprend mieux
sur quel bouton appuyer. -
14:39 - 14:41Il ne sait pas que nous envoyons
-
14:41 - 14:45des données en temps réel de la bourse,
-
14:45 - 14:47et il décide d'acheter et de vendre.
-
14:47 - 14:49(Rires)
-
14:49 - 14:53Et le retour lui dit si oui ou non
il a fait le bon choix. -
14:53 - 14:56Ce que nous observons si
nous pouvons étendre l'Umwelt humain -
14:56 - 14:59afin que, après plusieurs semaines,
il parvienne à avoir -
14:59 - 15:05une expérience perceptive directe
des mouvements économiques de la planète. -
15:05 - 15:08Nous vous dirons comment il s'en sort.
-
15:08 - 15:10(Rires)
-
15:11 - 15:13Une autre chose que nous faisons :
-
15:13 - 15:17durant les conférences de ce matin,
nous avons surveillé Twitter -
15:17 - 15:20et la hashtag TED2015,
-
15:20 - 15:23nous avons procédé à
une analyse automatique de sentiment : -
15:23 - 15:27est-ce que les gens utilisent des mots
positifs, négatifs ou neutres ? -
15:27 - 15:30Et pendant ce temps,
-
15:30 - 15:33je l'ai ressenti,
-
15:33 - 15:37donc je suis branché
à un agrégat d'émotions -
15:37 - 15:41de milliers de personne
et ce en temps réel, -
15:41 - 15:45et c'est un nouveau type d'expérience
humaine, parce que je peux savoir -
15:45 - 15:48comment vous allez
et si vous appréciez ce que je dis. -
15:48 - 15:53(Rires)
(Applaudissements) -
15:55 - 15:59C'est une expérience plus importante
que celle vécue d'habitude par un humain. -
16:00 - 16:03Nous étendons aussi
l'Umwelt des pilotes. -
16:03 - 16:07Dans ce cas, la veste envoie
neuf mesures différentes -
16:07 - 16:08de ce quadrirotor,
-
16:08 - 16:12la hauteur et l'angle
et l'orientation et la direction, -
16:12 - 16:16et cela améliore la capacité
du pilote à voler. -
16:16 - 16:21C'est comme s'il étendait sa peau.
-
16:21 - 16:23Et ce n'est que le début.
-
16:23 - 16:28Nous prévoyons de prendre un cockpit
moderne plein d'indicateurs -
16:28 - 16:33et au lieu d'essayer de tout lire,
vous le sentez. -
16:33 - 16:35Nous vivons dans un monde d'informations,
-
16:35 - 16:39et il y a une différence entre
accéder à de nombreuses données -
16:39 - 16:42et les expérimenter.
-
16:42 - 16:46Je pense qu'il n'y a pas de limite
aux possibilités -
16:46 - 16:48à l'horizon concernant
l'expansion humaine. -
16:48 - 16:53Imaginez un astronaute
capable de ressentir -
16:53 - 16:57la santé générale
de la Station Spatiale Internationale, -
16:57 - 17:02ou que vous ressentiez les éléments
invisibles de votre propre santé, -
17:02 - 17:05comme le taux de sucre dans le sang
et l'état de votre microbiome, -
17:05 - 17:11ou avoir une vision à 360° ou voir
les infrarouges ou les ultraviolets. -
17:11 - 17:15La clé est :
alors que nous allons vers le futur, -
17:15 - 17:20nous allons augmenter notre capacité
à choisir nos systèmes périphériques. -
17:20 - 17:23Nous n'avons plus à entendre que
Mère Nature nous offre des sens -
17:23 - 17:25en temps venu,
-
17:25 - 17:29au lieu de cela, comme tout bon parent,
elle nous a donné les outils nécessaires -
17:29 - 17:34pour définir notre propre trajectoire.
-
17:34 - 17:35La question est :
-
17:35 - 17:41voulez-vous sortir et expérimenter
votre univers ? -
17:41 - 17:43Merci.
-
17:43 - 17:51(Applaudissements)
-
17:59 - 18:02Chris Anderson : Vous le sentez ?
DE : Ouais. -
18:02 - 18:05En fait, c'était la première fois que
je sentais des applaudissements -
18:05 - 18:07C'est sympa,
comme un massage. (Rires) -
18:07 - 18:11CA : Twitter devient fou.
Twitter devient fou. -
18:11 - 18:13Donc, cette expérience de la bourse.
-
18:13 - 18:18Cela pourrait être la première expérience
sécurisant plus son financement -
18:18 - 18:20si ça fonctionne, n'est-ce pas ?
-
18:20 - 18:23DE : C'est vrai, je n'aurais plus
à écrire au NIH. -
18:23 - 18:26CA : Juste pour être
sceptique un instant, -
18:26 - 18:29je veux dire, c'est génial mais
la majorité des éléments jusqu'ici -
18:29 - 18:31n'indique-t-elle pas que
la substitution sensorielle -
18:31 - 18:33fonctionne mais pas forcément
l'addition ? -
18:33 - 18:37N'est-il pas possible qu'un aveugle
puisse voir par sa langue -
18:37 - 18:42parce que le cortex visuel est toujours là
prêt à travailler, et que c'est de cela -
18:42 - 18:44dont nous avons besoin ?
-
18:44 - 18:46DE : C'est une excellente question.
Nous ne savons pas -
18:46 - 18:50quelles sont les limites théoriques sur
les données que le cerveau peut utiliser. -
18:50 - 18:53L'information générale est
qu'il est extraordinairement flexible. -
18:53 - 18:57Donc quand quelqu'un devient aveugle,
ce que nous appelions leur cortex visuel -
18:57 - 19:02est repris par d'autres choses :
le toucher, l'audition, le vocabulaire. -
19:02 - 19:06Cela nous dit que le cortex
a plus d'un tour dans son sac. -
19:06 - 19:09Il lance simplement
des calculs sur les choses. -
19:09 - 19:12Et quand nous regardons autour de nous,
par exemple le braille, -
19:12 - 19:15les gens obtiennent des informations
par leurs doigts sur des bosses. -
19:15 - 19:19Je ne pense pas que nous ayons une raison
de penser qu'il y a -
19:19 - 19:20une limite théorique.
-
19:21 - 19:25CA : Si cela s'avère vrai,
vous allez être submergé. -
19:25 - 19:28Il y a tellement d'applications
possibles pour cela. -
19:28 - 19:32Êtes-vous prêt ? Qu'es-ce qui vous excite
le plus, dans quelle direction cela ira ? -
19:32 - 19:34DE : Je pense qu'il y a
beaucoup d'applications. -
19:34 - 19:38Pour aller au-delà de la substitution
sensorielle, j'ai évoqué -
19:38 - 19:42les astronautes et la station spatiale,
ils passent beaucoup de temps -
19:42 - 19:45à faire des contrôles, ils pourraient
sentir ce qu'il se passe, -
19:45 - 19:49parce que cela fonctionne très bien
pour les données multidimensionnelles. -
19:49 - 19:54La clé est : nos systèmes visuels sont
bons pour détecter les bosses et bords, -
19:54 - 19:56mais sont très mauvais concernant
notre monde actuel, -
19:56 - 19:58qui est fait d'écrans
et de beaucoup de données. -
19:58 - 20:01Nous devons compenser cela
avec notre vigilance. -
20:01 - 20:03C'est un moyen de ressentir
l'état de quelque chose, -
20:03 - 20:07tout comme vous connaissez l'état
de votre corps quand vous êtes debout. -
20:07 - 20:10Je pense que la machinerie lourde,
la sécurité, sentir l'état -
20:10 - 20:13d'une usine, de votre équipement,
on se dirige vers cela. -
20:13 - 20:17CA : David Eagleman, c'était
une conférence incroyable. Merci beaucoup. -
20:17 - 20:22DE : Merci Chris.
(Applaudissements)
- Title:
- Pouvons-nous créer de nouveaux sens pour les humains ?
- Speaker:
- David Eagleman
- Description:
-
En tant qu'humains, nous percevons moins d'un billionième des ondes lumineuses. « Notre expérience de la réalité, dit le neuro-scientifique David Eagleman, est limitée par notre biologie ». Il veut changer cela. Sa recherche sur le fonctionnement de notre cerveau l'a mené à créer de nouvelles interfaces -- comme une veste sensorielle -- pour recueillir des informations, précédemment non perçues, sur le monde qui nous entoure.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 20:34
Elisabeth Buffard approved French subtitles for Can we create new senses for humans? | ||
Elisabeth Buffard edited French subtitles for Can we create new senses for humans? | ||
Elisabeth Buffard edited French subtitles for Can we create new senses for humans? | ||
Elisabeth Buffard edited French subtitles for Can we create new senses for humans? | ||
Grant Grames accepted French subtitles for Can we create new senses for humans? | ||
Grant Grames edited French subtitles for Can we create new senses for humans? | ||
Grant Grames edited French subtitles for Can we create new senses for humans? | ||
Morgane Quilfen edited French subtitles for Can we create new senses for humans? |