¿Podemos crear nuevos sentidos para los humanos?
-
0:01 - 0:06Estamos hechos de cosas muy pequeñas,
-
0:06 - 0:08e inmersos en un gran cosmos,
-
0:08 - 0:13y no entendemos bien la realidad
-
0:13 - 0:14de ninguna de esas escalas,
-
0:14 - 0:16y eso se debe a que el cerebro
-
0:16 - 0:20no ha evolucionado para entender
el mundo en esa escala. -
0:20 - 0:24En cambio, estamos atrapados en esta
rebanada muy delgada de percepción -
0:24 - 0:26justo en el medio.
-
0:27 - 0:31Pero es extraño, porque incluso en esa
rebanada de realidad que llamamos hogar, -
0:31 - 0:34no vemos gran parte de
la acción que ocurre. -
0:34 - 0:38Veamos los colores del mundo.
-
0:38 - 0:42Estas son ondas de luz, radiación
electromagnética que rebota en los objetos -
0:42 - 0:46y golpea receptores especializados
en la parte posterior de los ojos. -
0:46 - 0:49Pero no vemos todas
las ondas que existen. -
0:49 - 0:51De hecho, vemos
-
0:51 - 0:55menos de una diez billonésima
parte de lo que existe. -
0:55 - 0:58Hay ondas de radio, microondas
-
0:58 - 1:02rayos X y rayos gamma que atraviesan
nuestros cuerpos ahora mismo -
1:02 - 1:05y no somos conscientes de eso,
-
1:05 - 1:08porque no tenemos los receptores
biológicos adecuados -
1:08 - 1:09para detectarlos.
-
1:10 - 1:12Hay miles de conversaciones
de teléfonos móviles -
1:14 - 1:16y estamos completamente ciegos a eso.
-
1:16 - 1:20Pero no es que estas cosas
sean inherentemente invisibles. -
1:20 - 1:25Las serpientes perciben rayos infrarojos
-
1:25 - 1:29las abejas rayos ultravioletas,
-
1:29 - 1:32y, claro, construímos máquinas
en los tableros de nuestros autos -
1:32 - 1:35para capturar señales en el
rango de frecuencias de radio, -
1:35 - 1:39y construímos máquinas en hospitales
para capturar rayos X. -
1:39 - 1:42Pero no podemos percibir esto solos,
-
1:42 - 1:43al menos no todavía,
-
1:43 - 1:47porque no venimos equipados
con los sensores adecuados. -
1:47 - 1:52Esto significa que nuestra
experiencia de la realidad -
1:52 - 1:55se ve limitada por nuestra biología,
-
1:55 - 1:58y eso va en contra de la noción
del sentido común -
1:58 - 2:00de que la vista, el oído, el tacto
-
2:00 - 2:04apenas percibe la realidad
objetiva circundante. -
2:04 - 2:10En cambio, el cerebro muestra
solo una parte del mundo. -
2:10 - 2:12Ahora, en todo el reino animal,
-
2:12 - 2:15distintos animales perciben
diferentes partes de la realidad. -
2:15 - 2:18Así, en el mundo ciego
y sordo de la garrapata, -
2:18 - 2:23las señales importantes son
la temperatura y el ácido butírico; -
2:23 - 2:26en el mundo del pez cuchillo,
-
2:26 - 2:31su ambiente sensorial es profusamente
coloreado por campos eléctricos; -
2:31 - 2:33y para el murciélago de ecolocación,
-
2:33 - 2:37su mundo está compuesto por
ondas de aire comprimido. -
2:37 - 2:42Esa es la parte del ecosistema
que pueden captar, -
2:42 - 2:43y en la ciencia tenemos
una palabra para esto. -
2:43 - 2:45Es el "umwelt",
-
2:45 - 2:49término alemán para
denominar el mundo circundante. -
2:49 - 2:52Al parecer los animales suponen
-
2:52 - 2:56que su umwelt es toda la
realidad objetiva circundante, -
2:56 - 2:58ya que por qué dejaríamos de imaginar
-
2:58 - 3:01que existe algo más de
lo que podemos percibir. -
3:01 - 3:04En cambio, nosotros aceptamos la realidad
-
3:04 - 3:07como se nos presenta.
-
3:07 - 3:10Hagamos un despertar de conciencia.
-
3:10 - 3:12Imaginen que somos un perro sabueso.
-
3:13 - 3:15Nuestro mundo gira en torno al olfato.
-
3:15 - 3:20Tenemos un morro largo con
200 millones de receptores olfativos, -
3:20 - 3:24hocicos húmedos que atraen
y atrapan moléculas de olor, -
3:24 - 3:28y fosas nasales que tienen hendiduras
para inspirar grandes cantidades de aire. -
3:28 - 3:31Todo gira en torno al olfato.
-
3:31 - 3:35Un día tenemos una revelación.
-
3:35 - 3:39Miramos a nuestro
dueño humano y pensamos: -
3:39 - 3:43"¿Cómo debe ser tener esa lamentable,
nariz humana tan empobrecida? -
3:43 - 3:45(Risas)
-
3:45 - 3:48¿Qué se sentirá al inspirar pequeñas
y débiles cantidades de aire? -
3:48 - 3:52¿Cómo será no saber que hay
un gato a 90 m de distancia, -
3:52 - 3:56o que tu vecino estuvo
aquí mismo hace 6 horas?" -
3:56 - 3:58(Risas)
-
3:58 - 4:01Como somos humanos
-
4:01 - 4:03nunca hemos experimentado
ese mundo del olfato, -
4:03 - 4:06por eso no lo añoramos,
-
4:06 - 4:10porque estamos cómodos en nuestro umwelt.
-
4:10 - 4:14Pero la pregunta es,
¿debemos quedar atrapados en él? -
4:14 - 4:19Como neurólogo, me interesa
ver de qué forma la tecnología -
4:19 - 4:21podría expandir nuestro umwelt,
-
4:21 - 4:25y cómo eso podría cambiar
la experiencia de ser humano. -
4:26 - 4:30Ya sabemos que podemos conjugar
tecnología y biología -
4:30 - 4:34porque hay cientos de miles de personas
que andan por allí -
4:34 - 4:37con oído y vista artificiales.
-
4:37 - 4:42Eso funciona así, se pone un micrófono,
se digitaliza la señal -
4:42 - 4:45y se coloca una tira de electrodos
directamente en el oído interno. -
4:45 - 4:48O, con el implante de retina,
se coloca una cámara -
4:48 - 4:51se digitaliza la señal, y luego
se enchufa una tira de electrodos -
4:51 - 4:54directamente en el nervio óptico.
-
4:54 - 4:58Y, hace apenas 15 años,
-
4:58 - 5:02muchos científicos pensaban que
estas tecnologías no funcionarían. -
5:02 - 5:07¿Por qué? Estas tecnologías hablan
la lengua de Silicon Valley, y -
5:07 - 5:12esta no es exactamente la misma que la de
nuestros órganos sensoriales biológicos, -
5:12 - 5:15pero funcionan.
-
5:15 - 5:19El cerebro se las ingenia
para usar las señales. -
5:20 - 5:21¿Cómo podemos entender eso?
-
5:22 - 5:23Este es el gran secreto.
-
5:23 - 5:29El cerebro ni oye, ni ve esto.
-
5:29 - 5:35El cerebro está encerrado en una bóveda
en silencio y oscuridad en el cráneo. -
5:35 - 5:39Solo ve señales electroquímicas
-
5:39 - 5:42que vienen en diferentes cables de datos,
-
5:42 - 5:46solo trabaja con esto, nada más.
-
5:47 - 5:49Sorprendentemente,
-
5:49 - 5:52el cerebro es muy bueno
para captar estas señales -
5:52 - 5:55extraer patrones y darle significado,
-
5:55 - 5:59así, con este cosmos interior,
elabora una historia -
5:59 - 6:04y, de ahí, nuestro mundo subjetivo.
-
6:04 - 6:06Pero aquí está el secreto.
-
6:06 - 6:10El cerebro ni sabe,
ni le importa -
6:10 - 6:13de dónde vienen los datos.
-
6:13 - 6:17Cualquier información que llega,
sabe descifrar qué hacer con ella. -
6:17 - 6:20Es una máquina muy eficiente.
-
6:20 - 6:24Básicamente se trata de un dispositivo
de computación de propósito general, -
6:24 - 6:26sencillamente recibe todo
-
6:26 - 6:29y se da cuenta qué hacer con eso,
-
6:29 - 6:33y eso, creo, libera a la Madre Naturaleza
-
6:33 - 6:37para probar distintos canales de entrada.
-
6:37 - 6:40Lo llamo modelo evolutivo CP,
-
6:40 - 6:42no quiero entrar en detalles técnicos,
-
6:42 - 6:45CP significa Cabeza de Papa
-
6:45 - 6:49y uso este nombre para resaltar
que todos estos sensores -
6:49 - 6:52que conocemos y amamos,
como la vista, el oído y el tacto, -
6:52 - 6:57son solo dispositivos periféricos
enchufables: -
6:57 - 7:00se enchufan y funcionan.
-
7:00 - 7:05El cerebro determina
qué hacer con los datos que recibe. -
7:06 - 7:08Si analizamos el reino animal,
-
7:08 - 7:11encontramos muchos periféricos.
-
7:11 - 7:15Las serpientes tienen hoyos de
calor para detectar infrarrojos, -
7:15 - 7:18y el pez cuchillo
tiene electrorreceptores, -
7:18 - 7:21y el topo de nariz estrellada
tiene este apéndice -
7:21 - 7:24con 22 dedos
-
7:24 - 7:27con los que percibe y construye
un modelo 3D del mundo, -
7:27 - 7:31y muchas aves tienen magnetita
para orientarse -
7:31 - 7:34hacia campo magnético del planeta.
-
7:34 - 7:38Esto significa que la naturaleza
no tiene que rediseñar -
7:38 - 7:40continuamente al cerebro.
-
7:40 - 7:45En cambio, establecidos los principios
de la operación del cerebro, -
7:45 - 7:49la naturaleza solo tiene que
diseñar nuevos periféricos. -
7:49 - 7:52Esto significa lo siguiente:
-
7:52 - 7:54La lección que surge
-
7:54 - 7:58es que no hay nada realmente
especial o fundamental -
7:58 - 8:01en la biología que traemos.
-
8:01 - 8:03Es lo que hemos heredado
-
8:03 - 8:06a partir de un complejo camino evolutivo.
-
8:06 - 8:10Pero no tenemos por qué limitarnos a eso,
-
8:10 - 8:12y la mejor prueba de ese principio
-
8:12 - 8:14viene de lo que se llama
"sustitución sensorial". -
8:14 - 8:18Se refiere a la información
de entrada en el cerebro -
8:18 - 8:20por canales sensoriales inusuales;
-
8:20 - 8:23el cerebro entiende qué hacer con ella.
-
8:23 - 8:26Esto puede sonar a especulación,
-
8:26 - 8:31pero el primer trabajo que demuestra esto
se publicó en la revista Nature en 1969. -
8:32 - 8:34Un científico llamado Paul Bach-y-Rita
-
8:34 - 8:38puso ciegos en una
silla dentada modificada, -
8:38 - 8:40configuró un canal de video,
-
8:40 - 8:42y puso algo en frente de la cámara,
-
8:42 - 8:45para luego sentir
-
8:45 - 8:48una señal táctil en la espalda
mediante una red de solenoides. -
8:48 - 8:50Si uno mueve una taza de café
frente a la cámara, -
8:50 - 8:52uno la siente en la espalda,
-
8:52 - 8:55y, sorprendentemente, los ciegos
tienen buen desempeño -
8:55 - 8:59detectando qué hay frente a la cámara
-
8:59 - 9:03mediante vibraciones en
la parte baja de la espalda. -
9:03 - 9:06Ha habido muchas implementaciones
modernas de esto. -
9:06 - 9:10Las gafas sónicas toman
un canal de video del frente -
9:10 - 9:12y lo convierten en un paisaje sonoro,
-
9:12 - 9:15y conforme las cosas se mueven,
se acercan y se alejan, -
9:15 - 9:17hace un sonido "bzz, bzz, bzz".
-
9:17 - 9:19Suena como una cacofonía,
-
9:19 - 9:23pero después de varias semanas, los
ciegos empiezan a entender bastante bien -
9:23 - 9:25qué tienen enfrente
-
9:25 - 9:28a partir de lo que escuchan.
-
9:28 - 9:30Y no tiene por qué ser por los oídos:
-
9:30 - 9:33este sistema usa una rejilla
electrotáctil en la frente, -
9:33 - 9:37para sentir en la frente lo que
esté frente a la entrada de video, -
9:37 - 9:40¿Por qué la frente? Porque
no se usa para mucho más. -
9:40 - 9:44La implementación más moderna
se llama "brainport" -
9:44 - 9:48y es una rejillita eléctrica
ubicada en la lengua, -
9:48 - 9:52la señal de video se convierte
en pequeñas señales electrotáctiles, -
9:52 - 9:58y los ciegos lo usan tan bien que
pueden arrojar pelotas en una cesta, -
9:58 - 10:02o pueden realizar carreras
de obstáculos complejos. -
10:03 - 10:08Pueden ver con la lengua.
-
10:08 - 10:10¿Parece de locos, verdad?
-
10:10 - 10:13Pero recuerden que la visión siempre
-
10:13 - 10:17son señales electroquímicas
que recorren el cerebro. -
10:17 - 10:19El cerebro no sabe de
dónde vienen las señales. -
10:19 - 10:23Se da cuenta qué hacer con ellas.
-
10:23 - 10:28Por eso el interés de mi laboratorio
es la "sustitución sensorial" en sordos, -
10:28 - 10:31y este es el proyecto que realizamos
-
10:31 - 10:34con un estudiante de posgrado
en mi laboratorio, Scott Novich, -
10:34 - 10:37que encabeza esto en su tesis.
-
10:37 - 10:39Esto es lo que queríamos hacer:
-
10:39 - 10:43queríamos hacerlo convirtiendo
el sonido del mundo -
10:43 - 10:47de alguna forma para que un sordo
pudiera entender lo que se dice. -
10:47 - 10:52Y queríamos hacerlo, dado el poder
y ubicuidad de la informática portátil, -
10:52 - 10:57queríamos asegurarnos de que ejecutase
en teléfonos móviles y tabletas, -
10:57 - 10:59y también queríamos hacerlo portátil,
-
10:59 - 11:02algo que pudiéramos usar
debajo de la ropa. -
11:02 - 11:04Este es el concepto.
-
11:05 - 11:10Conforme hablo, una tableta
capta mi sonido, -
11:10 - 11:16y luego es mapeado en un chaleco
cubierto con motores vibratorios, -
11:16 - 11:20como los motores de sus móviles.
-
11:20 - 11:22Conforme hablo,
-
11:22 - 11:28el sonido se traduce en patrones
de vibración en el chaleco. -
11:28 - 11:30Esto no es solo un concepto:
-
11:30 - 11:35esta tableta transmite vía Bluetooth,
y ahora mismo tengo uno de esos chalecos. -
11:35 - 11:37Conforme hablo...
(Aplausos) -
11:38 - 11:44el sonido se traduce en patrones
dinámicos de vibración. -
11:44 - 11:49Siento el mundo sonoro a mi alrededor.
-
11:49 - 11:53Lo hemos estado probando
con personas sordas, -
11:53 - 11:57y resulta que solo un tiempo después,
-
11:57 - 12:00la gente puede empezar
a sentir, a entender -
12:00 - 12:03el lenguaje del chaleco.
-
12:03 - 12:08Este es Jonathan. Tiene 37 años.
Tiene un título de maestría. -
12:08 - 12:10Nació con sordera profunda,
-
12:10 - 12:14por eso hay una parte de su umwelt
que está fuera de su alcance. -
12:14 - 12:19Tuvimos que entrenar a Jonathan con el
chaleco durante 4 días, 2 horas al día, -
12:19 - 12:22y aquí está en el quinto día.
-
12:22 - 12:24Scott Novich: tú.
-
12:24 - 12:27David Eagleman: Scott dice una palabra,
Jonathan la siente en el chaleco, -
12:27 - 12:30y la escribe en la pizarra.
-
12:30 - 12:34SN: Dónde. Dónde.
-
12:34 - 12:38DE: Jonathan puede traducir este
complicado patrón de vibraciones -
12:38 - 12:41en una comprensión de lo que se dice.
-
12:41 - 12:44SN: Tacto. Tacto.
-
12:44 - 12:49DE: Pero no lo está...
-
12:49 - 12:55(Aplausos)
-
12:56 - 13:00Jonathan no lo hace conscientemente,
porque los patrones son muy complicados, -
13:00 - 13:06pero su cerebro está empezando a desbloquear
el patrón que le permite averiguar -
13:06 - 13:08qué significan los datos,
-
13:08 - 13:12y esperamos que en unos 3 meses
de usar el chaleco, -
13:12 - 13:17tenga una experiencia
de percepción de escuchar -
13:17 - 13:21como la que tiene de la lectura un ciego
que pasa un dedo sobre texto en braille, -
13:21 - 13:26el significado viene de inmediato sin
intervención consciente en absoluto. -
13:27 - 13:30Esta tecnología tiene el potencial
de un cambio importante, -
13:30 - 13:34porque la única solución alternativa
a la sordera es un implante coclear, -
13:34 - 13:37que requiere una cirugía invasiva.
-
13:37 - 13:42Construir esto es 40 veces más barato
que un implante coclear, -
13:42 - 13:47permite ofrecer esta tecnología al mundo,
incluso a los países más pobres. -
13:48 - 13:53Nos animan los resultados obtenidos
con la "sustitución sensorial", -
13:53 - 13:57pero hemos estado pensando mucho
en la "adición sensorial". -
13:57 - 14:03¿Cómo podríamos usar una tecnología
como esta para añadir un nuevo sentido, -
14:03 - 14:06para ampliar el umvelt humano?
-
14:06 - 14:10Por ejemplo, ¿podríamos ingresar
datos en tiempo real de Internet -
14:10 - 14:12en el cerebro de alguien?
-
14:12 - 14:16Ese alguien ¿puede desarrollar una
experiencia perceptiva directa? -
14:16 - 14:18Este es un experimento que
hacemos en el laboratorio. -
14:18 - 14:22Un sujeto siente en tiempo real
datos de la Red -
14:22 - 14:24durante 5 segundos.
-
14:24 - 14:27Luego, aparecen dos botones,
y tiene que hacer una elección. -
14:27 - 14:29No sabe qué está pasando.
-
14:29 - 14:32Hace una elección, y tiene
respuesta después de un segundo. -
14:32 - 14:33Es así:
-
14:33 - 14:36El sujeto no tiene idea del
significado de los patrones, -
14:36 - 14:39pero vemos si mejora en la elección
de qué botón presionar. -
14:39 - 14:41No sabe que los datos que le ingresamos
-
14:41 - 14:45son datos bursátiles en tiempo real,
-
14:45 - 14:47y está decidiendo comprar y vender.
-
14:47 - 14:49(Risas)
-
14:49 - 14:53La respuesta le dice si tomó
una buena decisión o no. -
14:53 - 14:56Estamos viendo si podemos
expandir el umwelt humano -
14:59 - 15:05una experiencia perceptiva directa de
los movimientos económicos del planeta. -
15:05 - 15:08Informaremos de eso más adelante
para ver cómo resulta. -
15:08 - 15:10(Risas)
-
15:11 - 15:13Otra cosa que estamos haciendo:
-
15:13 - 15:17Durante las charlas de la mañana,
filtramos automáticamente en Twitter -
15:17 - 15:20con el hashtag TED2015,
-
15:20 - 15:23e hicimos un análisis automatizado
de sentimientos -
15:23 - 15:27es decir, ¿las personas usaron palabras
positivas, negativas o neutras? -
15:27 - 15:30Y mientras esto sucedía
-
15:30 - 15:33lo he estado sintiendo,
-
15:33 - 15:37estoy enchufado a la emoción consolidada
-
15:37 - 15:41de miles de personas en tiempo real,
-
15:41 - 15:45es un nuevo tipo de experiencia humana,
porque ahora puedo saber -
15:45 - 15:48cómo le va a los oradores
y cuánto les gusta esto a Uds. -
15:48 - 15:53(Risas)
(Aplausos) -
15:55 - 15:59Es una experiencia más grande de la
que un ser humano normal puede tener. -
16:00 - 16:03También estamos ampliando
el umwelt de los pilotos. -
16:03 - 16:07En este caso, el chaleco transmite
9 métricas diferentes -
16:07 - 16:08desde este cuadricóptero,
-
16:08 - 16:12cabeceo, guiñada, giro,
orientación y rumbo, -
16:12 - 16:16y eso mejora la destreza del piloto.
-
16:16 - 16:21Es como si extendiera su piel,
a lo lejos. -
16:21 - 16:23Y eso es solo el principio.
-
16:23 - 16:28Estamos previendo tomar una
cabina moderna llena de manómetros -
16:28 - 16:33y en vez de tratar de leer
todo eso, sentirlo. -
16:33 - 16:35Ahora vivimos en un mundo de información,
-
16:35 - 16:39y hay una diferencia entre acceder
a grandes volúmenes de datos -
16:39 - 16:42y experimentarlos.
-
16:42 - 16:46Así que creo que en realidad
las posibilidades no tienen fin -
16:46 - 16:48en el horizonte de la expansión humana.
-
16:48 - 16:53Imaginen un astronauta que pueda sentir
-
16:53 - 16:57la salud general de la Estación
Espacial Internacional, -
16:57 - 17:02o, para el caso, que Uds. sientan los
estados invisibles de su propia salud, -
17:02 - 17:05como el nivel de azúcar en sangre
y el estado del microbioma, -
17:05 - 17:11o tener visión de 360º o ver
en el infrarrojo o ultravioleta. -
17:11 - 17:15La clave es esta: conforme
avanzamos hacia el futuro, -
17:15 - 17:20cada vez podremos elegir nuestros
propios dispositivos periféricos. -
17:20 - 17:23Ya no tenemos que esperar regalos
sensoriales de la Madre Naturaleza -
17:23 - 17:25en sus escalas de tiempo,
-
17:25 - 17:29pero en su lugar, como buena madre,
nos ha dado las herramientas necesarias -
17:29 - 17:34para hacer nuestro propio camino.
-
17:34 - 17:35Así que la pregunta ahora es:
-
17:35 - 17:41¿cómo quieren salir
a experimentar su universo? -
17:41 - 17:43Gracias.
-
17:43 - 17:51(Aplausos)
-
17:59 - 18:02Chris Anderson: ¿Puedes sentirlo?
DE: Sí. -
18:02 - 18:05En realidad, es la primera vez
que siento aplausos en el chaleco. -
18:05 - 18:07Es agradable. Es como un masaje.
(Risas) -
18:07 - 18:11CA: Twitter se vuelve loco.
-
18:11 - 18:13El experimento del mercado de valores,
-
18:13 - 18:18¿podría ser el primer experimento que
asegure su financiación para siempre, -
18:18 - 18:20de tener éxito?
-
18:20 - 18:23DE: Bueno, es cierto, ya no tendría
que escribirle al NIH. -
18:23 - 18:26CA: Bueno mira, para ser
escéptico por un minuto, -
18:26 - 18:29digo, es asombroso, pero
¿hay evidencia hasta el momento -
18:29 - 18:31de que funcione la sustitución sensorial,
-
18:31 - 18:33o la adición sensorial?
-
18:33 - 18:37¿No es posible que el ciego
pueda ver por la lengua -
18:37 - 18:42porque la corteza visual está
todavía allí, lista para procesar, -
18:42 - 18:44y que eso sea una parte necesaria?
-
18:44 - 18:46DE: Gran pregunta.
En realidad no tenemos ni idea -
18:46 - 18:50de cuáles son los límites teóricos de
los datos que puede asimilar el cerebro. -
18:50 - 18:53La historia general, sin embargo,
es que es extraordinariamente flexible. -
18:53 - 18:57Cuando una persona queda ciega,
lo que llamamos corteza visual -
18:57 - 19:02es ocupada por el tacto,
el oído, el vocabulario. -
19:02 - 19:06Eso nos dice que la corteza es acotada.
-
19:06 - 19:09Solo hace ciertos tipos de
cálculos sobre las cosas. -
19:09 - 19:12Y si miramos a nuestro alrededor las
cosas como el braille, por ejemplo, -
19:12 - 19:15las personas reciben información
mediante golpes en los dedos. -
19:15 - 19:19No creo que haya razón para pensar
que existe un límte teórico, -
19:19 - 19:20que conozcamos ese límite.
-
19:21 - 19:25CA: Si esto se comprueba,
estarás abrumado. -
19:25 - 19:28Hay muchas aplicaciones
posibles para esto. -
19:28 - 19:32¿Estás listo para esto? ¿Qué es lo que
más te entusiasma? ¿Qué se podría lograr? -
19:32 - 19:34DE: Creo que hay gran cantidad
de aplicaciones aquí. -
19:34 - 19:38En términos de sustitución sensorial
del mañana, algo empecé a mencionar -
19:38 - 19:42de astronautas en la estación espacial,
que pasan mucho tiempo -
19:42 - 19:45controlando cosas y podrían en cambio
ver que está pasando, -
19:45 - 19:49porque esto es bueno para
datos multidimensionales. -
19:49 - 19:54La clave es: nuestros sistemas visuales
son buenos detectando manchas y bordes, -
19:54 - 19:56pero son muy malos para
el mundo actual, -
19:56 - 19:58con pantallas que tienen
infinidad de datos. -
19:58 - 20:01Tenemos que rastrear eso
con nuestros sistemas de atención. -
20:01 - 20:03Esta es una manera de solo
sentir el estado de algo, -
20:03 - 20:07como conocer el estado del
cuerpo sobre la marcha. -
20:07 - 20:10La maquinaria pesada, la seguridad,
sentir el estado de una fábrica, -
20:10 - 20:13de un equipo, hacia allí
va en lo inmediato. -
20:13 - 20:17CA: David Eagleman, fue una charla
alucinante. Muchas gracias. -
20:17 - 20:22DE: Gracias, Chris.
(Aplausos)
- Title:
- ¿Podemos crear nuevos sentidos para los humanos?
- Speaker:
- David Eagleman
- Description:
-
Como seres humanos, podemos percibir menos de una diez billonésima de las ondas de luz. "Nuestra experiencia de la realidad", dice el neurocientífico David Eagleman, "está limitada por nuestra biología". Él quiere cambiar eso. Su investigación sobre los procesos cerebrales le ha llevado a crear nuevas interfaces, como un chaleco sensorial, para procesar información inédita sobre el mundo que nos rodea.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 20:34
Helene Batt edited Spanish subtitles for Can we create new senses for humans? | ||
Sebastian Betti edited Spanish subtitles for Can we create new senses for humans? | ||
Sebastian Betti edited Spanish subtitles for Can we create new senses for humans? | ||
Sebastian Betti approved Spanish subtitles for Can we create new senses for humans? | ||
Sebastian Betti edited Spanish subtitles for Can we create new senses for humans? | ||
Sebastian Betti edited Spanish subtitles for Can we create new senses for humans? | ||
Sebastian Betti edited Spanish subtitles for Can we create new senses for humans? | ||
Lidia Cámara de la Fuente accepted Spanish subtitles for Can we create new senses for humans? |