Return to Video

¿Podemos crear nuevos sentidos para los humanos?

  • 0:01 - 0:06
    Estamos hechos de cosas muy pequeñas,
  • 0:06 - 0:08
    e inmersos en un gran cosmos,
  • 0:08 - 0:13
    y no entendemos bien la realidad
  • 0:13 - 0:14
    de ninguna de esas escalas,
  • 0:14 - 0:16
    y eso se debe a que el cerebro
  • 0:16 - 0:20
    no ha evolucionado para entender
    el mundo en esa escala.
  • 0:20 - 0:24
    En cambio, estamos atrapados en esta
    rebanada muy delgada de percepción
  • 0:24 - 0:26
    justo en el medio.
  • 0:27 - 0:31
    Pero es extraño, porque incluso en esa
    rebanada de realidad que llamamos hogar,
  • 0:31 - 0:34
    no vemos gran parte de
    la acción que ocurre.
  • 0:34 - 0:38
    Veamos los colores del mundo.
  • 0:38 - 0:42
    Estas son ondas de luz, radiación
    electromagnética que rebota en los objetos
  • 0:42 - 0:46
    y golpea receptores especializados
    en la parte posterior de los ojos.
  • 0:46 - 0:49
    Pero no vemos todas
    las ondas que existen.
  • 0:49 - 0:51
    De hecho, vemos
  • 0:51 - 0:55
    menos de una diez billonésima
    parte de lo que existe.
  • 0:55 - 0:58
    Hay ondas de radio, microondas
  • 0:58 - 1:02
    rayos X y rayos gamma que atraviesan
    nuestros cuerpos ahora mismo
  • 1:02 - 1:05
    y no somos conscientes de eso,
  • 1:05 - 1:08
    porque no tenemos los receptores
    biológicos adecuados
  • 1:08 - 1:09
    para detectarlos.
  • 1:10 - 1:12
    Hay miles de conversaciones
    de teléfonos móviles
  • 1:14 - 1:16
    y estamos completamente ciegos a eso.
  • 1:16 - 1:20
    Pero no es que estas cosas
    sean inherentemente invisibles.
  • 1:20 - 1:25
    Las serpientes perciben rayos infrarojos
  • 1:25 - 1:29
    las abejas rayos ultravioletas,
  • 1:29 - 1:32
    y, claro, construímos máquinas
    en los tableros de nuestros autos
  • 1:32 - 1:35
    para capturar señales en el
    rango de frecuencias de radio,
  • 1:35 - 1:39
    y construímos máquinas en hospitales
    para capturar rayos X.
  • 1:39 - 1:42
    Pero no podemos percibir esto solos,
  • 1:42 - 1:43
    al menos no todavía,
  • 1:43 - 1:47
    porque no venimos equipados
    con los sensores adecuados.
  • 1:47 - 1:52
    Esto significa que nuestra
    experiencia de la realidad
  • 1:52 - 1:55
    se ve limitada por nuestra biología,
  • 1:55 - 1:58
    y eso va en contra de la noción
    del sentido común
  • 1:58 - 2:00
    de que la vista, el oído, el tacto
  • 2:00 - 2:04
    apenas percibe la realidad
    objetiva circundante.
  • 2:04 - 2:10
    En cambio, el cerebro muestra
    solo una parte del mundo.
  • 2:10 - 2:12
    Ahora, en todo el reino animal,
  • 2:12 - 2:15
    distintos animales perciben
    diferentes partes de la realidad.
  • 2:15 - 2:18
    Así, en el mundo ciego
    y sordo de la garrapata,
  • 2:18 - 2:23
    las señales importantes son
    la temperatura y el ácido butírico;
  • 2:23 - 2:26
    en el mundo del pez cuchillo,
  • 2:26 - 2:31
    su ambiente sensorial es profusamente
    coloreado por campos eléctricos;
  • 2:31 - 2:33
    y para el murciélago de ecolocación,
  • 2:33 - 2:37
    su mundo está compuesto por
    ondas de aire comprimido.
  • 2:37 - 2:42
    Esa es la parte del ecosistema
    que pueden captar,
  • 2:42 - 2:43
    y en la ciencia tenemos
    una palabra para esto.
  • 2:43 - 2:45
    Es el "umwelt",
  • 2:45 - 2:49
    término alemán para
    denominar el mundo circundante.
  • 2:49 - 2:52
    Al parecer los animales suponen
  • 2:52 - 2:56
    que su umwelt es toda la
    realidad objetiva circundante,
  • 2:56 - 2:58
    ya que por qué dejaríamos de imaginar
  • 2:58 - 3:01
    que existe algo más de
    lo que podemos percibir.
  • 3:01 - 3:04
    En cambio, nosotros aceptamos la realidad
  • 3:04 - 3:07
    como se nos presenta.
  • 3:07 - 3:10
    Hagamos un despertar de conciencia.
  • 3:10 - 3:12
    Imaginen que somos un perro sabueso.
  • 3:13 - 3:15
    Nuestro mundo gira en torno al olfato.
  • 3:15 - 3:20
    Tenemos un morro largo con
    200 millones de receptores olfativos,
  • 3:20 - 3:24
    hocicos húmedos que atraen
    y atrapan moléculas de olor,
  • 3:24 - 3:28
    y fosas nasales que tienen hendiduras
    para inspirar grandes cantidades de aire.
  • 3:28 - 3:31
    Todo gira en torno al olfato.
  • 3:31 - 3:35
    Un día tenemos una revelación.
  • 3:35 - 3:39
    Miramos a nuestro
    dueño humano y pensamos:
  • 3:39 - 3:43
    "¿Cómo debe ser tener esa lamentable,
    nariz humana tan empobrecida?
  • 3:43 - 3:45
    (Risas)
  • 3:45 - 3:48
    ¿Qué se sentirá al inspirar pequeñas
    y débiles cantidades de aire?
  • 3:48 - 3:52
    ¿Cómo será no saber que hay
    un gato a 90 m de distancia,
  • 3:52 - 3:56
    o que tu vecino estuvo
    aquí mismo hace 6 horas?"
  • 3:56 - 3:58
    (Risas)
  • 3:58 - 4:01
    Como somos humanos
  • 4:01 - 4:03
    nunca hemos experimentado
    ese mundo del olfato,
  • 4:03 - 4:06
    por eso no lo añoramos,
  • 4:06 - 4:10
    porque estamos cómodos en nuestro umwelt.
  • 4:10 - 4:14
    Pero la pregunta es,
    ¿debemos quedar atrapados en él?
  • 4:14 - 4:19
    Como neurólogo, me interesa
    ver de qué forma la tecnología
  • 4:19 - 4:21
    podría expandir nuestro umwelt,
  • 4:21 - 4:25
    y cómo eso podría cambiar
    la experiencia de ser humano.
  • 4:26 - 4:30
    Ya sabemos que podemos conjugar
    tecnología y biología
  • 4:30 - 4:34
    porque hay cientos de miles de personas
    que andan por allí
  • 4:34 - 4:37
    con oído y vista artificiales.
  • 4:37 - 4:42
    Eso funciona así, se pone un micrófono,
    se digitaliza la señal
  • 4:42 - 4:45
    y se coloca una tira de electrodos
    directamente en el oído interno.
  • 4:45 - 4:48
    O, con el implante de retina,
    se coloca una cámara
  • 4:48 - 4:51
    se digitaliza la señal, y luego
    se enchufa una tira de electrodos
  • 4:51 - 4:54
    directamente en el nervio óptico.
  • 4:54 - 4:58
    Y, hace apenas 15 años,
  • 4:58 - 5:02
    muchos científicos pensaban que
    estas tecnologías no funcionarían.
  • 5:02 - 5:07
    ¿Por qué? Estas tecnologías hablan
    la lengua de Silicon Valley, y
  • 5:07 - 5:12
    esta no es exactamente la misma que la de
    nuestros órganos sensoriales biológicos,
  • 5:12 - 5:15
    pero funcionan.
  • 5:15 - 5:19
    El cerebro se las ingenia
    para usar las señales.
  • 5:20 - 5:21
    ¿Cómo podemos entender eso?
  • 5:22 - 5:23
    Este es el gran secreto.
  • 5:23 - 5:29
    El cerebro ni oye, ni ve esto.
  • 5:29 - 5:35
    El cerebro está encerrado en una bóveda
    en silencio y oscuridad en el cráneo.
  • 5:35 - 5:39
    Solo ve señales electroquímicas
  • 5:39 - 5:42
    que vienen en diferentes cables de datos,
  • 5:42 - 5:46
    solo trabaja con esto, nada más.
  • 5:47 - 5:49
    Sorprendentemente,
  • 5:49 - 5:52
    el cerebro es muy bueno
    para captar estas señales
  • 5:52 - 5:55
    extraer patrones y darle significado,
  • 5:55 - 5:59
    así, con este cosmos interior,
    elabora una historia
  • 5:59 - 6:04
    y, de ahí, nuestro mundo subjetivo.
  • 6:04 - 6:06
    Pero aquí está el secreto.
  • 6:06 - 6:10
    El cerebro ni sabe,
    ni le importa
  • 6:10 - 6:13
    de dónde vienen los datos.
  • 6:13 - 6:17
    Cualquier información que llega,
    sabe descifrar qué hacer con ella.
  • 6:17 - 6:20
    Es una máquina muy eficiente.
  • 6:20 - 6:24
    Básicamente se trata de un dispositivo
    de computación de propósito general,
  • 6:24 - 6:26
    sencillamente recibe todo
  • 6:26 - 6:29
    y se da cuenta qué hacer con eso,
  • 6:29 - 6:33
    y eso, creo, libera a la Madre Naturaleza
  • 6:33 - 6:37
    para probar distintos canales de entrada.
  • 6:37 - 6:40
    Lo llamo modelo evolutivo CP,
  • 6:40 - 6:42
    no quiero entrar en detalles técnicos,
  • 6:42 - 6:45
    CP significa Cabeza de Papa
  • 6:45 - 6:49
    y uso este nombre para resaltar
    que todos estos sensores
  • 6:49 - 6:52
    que conocemos y amamos,
    como la vista, el oído y el tacto,
  • 6:52 - 6:57
    son solo dispositivos periféricos
    enchufables:
  • 6:57 - 7:00
    se enchufan y funcionan.
  • 7:00 - 7:05
    El cerebro determina
    qué hacer con los datos que recibe.
  • 7:06 - 7:08
    Si analizamos el reino animal,
  • 7:08 - 7:11
    encontramos muchos periféricos.
  • 7:11 - 7:15
    Las serpientes tienen hoyos de
    calor para detectar infrarrojos,
  • 7:15 - 7:18
    y el pez cuchillo
    tiene electrorreceptores,
  • 7:18 - 7:21
    y el topo de nariz estrellada
    tiene este apéndice
  • 7:21 - 7:24
    con 22 dedos
  • 7:24 - 7:27
    con los que percibe y construye
    un modelo 3D del mundo,
  • 7:27 - 7:31
    y muchas aves tienen magnetita
    para orientarse
  • 7:31 - 7:34
    hacia campo magnético del planeta.
  • 7:34 - 7:38
    Esto significa que la naturaleza
    no tiene que rediseñar
  • 7:38 - 7:40
    continuamente al cerebro.
  • 7:40 - 7:45
    En cambio, establecidos los principios
    de la operación del cerebro,
  • 7:45 - 7:49
    la naturaleza solo tiene que
    diseñar nuevos periféricos.
  • 7:49 - 7:52
    Esto significa lo siguiente:
  • 7:52 - 7:54
    La lección que surge
  • 7:54 - 7:58
    es que no hay nada realmente
    especial o fundamental
  • 7:58 - 8:01
    en la biología que traemos.
  • 8:01 - 8:03
    Es lo que hemos heredado
  • 8:03 - 8:06
    a partir de un complejo camino evolutivo.
  • 8:06 - 8:10
    Pero no tenemos por qué limitarnos a eso,
  • 8:10 - 8:12
    y la mejor prueba de ese principio
  • 8:12 - 8:14
    viene de lo que se llama
    "sustitución sensorial".
  • 8:14 - 8:18
    Se refiere a la información
    de entrada en el cerebro
  • 8:18 - 8:20
    por canales sensoriales inusuales;
  • 8:20 - 8:23
    el cerebro entiende qué hacer con ella.
  • 8:23 - 8:26
    Esto puede sonar a especulación,
  • 8:26 - 8:31
    pero el primer trabajo que demuestra esto
    se publicó en la revista Nature en 1969.
  • 8:32 - 8:34
    Un científico llamado Paul Bach-y-Rita
  • 8:34 - 8:38
    puso ciegos en una
    silla dentada modificada,
  • 8:38 - 8:40
    configuró un canal de video,
  • 8:40 - 8:42
    y puso algo en frente de la cámara,
  • 8:42 - 8:45
    para luego sentir
  • 8:45 - 8:48
    una señal táctil en la espalda
    mediante una red de solenoides.
  • 8:48 - 8:50
    Si uno mueve una taza de café
    frente a la cámara,
  • 8:50 - 8:52
    uno la siente en la espalda,
  • 8:52 - 8:55
    y, sorprendentemente, los ciegos
    tienen buen desempeño
  • 8:55 - 8:59
    detectando qué hay frente a la cámara
  • 8:59 - 9:03
    mediante vibraciones en
    la parte baja de la espalda.
  • 9:03 - 9:06
    Ha habido muchas implementaciones
    modernas de esto.
  • 9:06 - 9:10
    Las gafas sónicas toman
    un canal de video del frente
  • 9:10 - 9:12
    y lo convierten en un paisaje sonoro,
  • 9:12 - 9:15
    y conforme las cosas se mueven,
    se acercan y se alejan,
  • 9:15 - 9:17
    hace un sonido "bzz, bzz, bzz".
  • 9:17 - 9:19
    Suena como una cacofonía,
  • 9:19 - 9:23
    pero después de varias semanas, los
    ciegos empiezan a entender bastante bien
  • 9:23 - 9:25
    qué tienen enfrente
  • 9:25 - 9:28
    a partir de lo que escuchan.
  • 9:28 - 9:30
    Y no tiene por qué ser por los oídos:
  • 9:30 - 9:33
    este sistema usa una rejilla
    electrotáctil en la frente,
  • 9:33 - 9:37
    para sentir en la frente lo que
    esté frente a la entrada de video,
  • 9:37 - 9:40
    ¿Por qué la frente? Porque
    no se usa para mucho más.
  • 9:40 - 9:44
    La implementación más moderna
    se llama "brainport"
  • 9:44 - 9:48
    y es una rejillita eléctrica
    ubicada en la lengua,
  • 9:48 - 9:52
    la señal de video se convierte
    en pequeñas señales electrotáctiles,
  • 9:52 - 9:58
    y los ciegos lo usan tan bien que
    pueden arrojar pelotas en una cesta,
  • 9:58 - 10:02
    o pueden realizar carreras
    de obstáculos complejos.
  • 10:03 - 10:08
    Pueden ver con la lengua.
  • 10:08 - 10:10
    ¿Parece de locos, verdad?
  • 10:10 - 10:13
    Pero recuerden que la visión siempre
  • 10:13 - 10:17
    son señales electroquímicas
    que recorren el cerebro.
  • 10:17 - 10:19
    El cerebro no sabe de
    dónde vienen las señales.
  • 10:19 - 10:23
    Se da cuenta qué hacer con ellas.
  • 10:23 - 10:28
    Por eso el interés de mi laboratorio
    es la "sustitución sensorial" en sordos,
  • 10:28 - 10:31
    y este es el proyecto que realizamos
  • 10:31 - 10:34
    con un estudiante de posgrado
    en mi laboratorio, Scott Novich,
  • 10:34 - 10:37
    que encabeza esto en su tesis.
  • 10:37 - 10:39
    Esto es lo que queríamos hacer:
  • 10:39 - 10:43
    queríamos hacerlo convirtiendo
    el sonido del mundo
  • 10:43 - 10:47
    de alguna forma para que un sordo
    pudiera entender lo que se dice.
  • 10:47 - 10:52
    Y queríamos hacerlo, dado el poder
    y ubicuidad de la informática portátil,
  • 10:52 - 10:57
    queríamos asegurarnos de que ejecutase
    en teléfonos móviles y tabletas,
  • 10:57 - 10:59
    y también queríamos hacerlo portátil,
  • 10:59 - 11:02
    algo que pudiéramos usar
    debajo de la ropa.
  • 11:02 - 11:04
    Este es el concepto.
  • 11:05 - 11:10
    Conforme hablo, una tableta
    capta mi sonido,
  • 11:10 - 11:16
    y luego es mapeado en un chaleco
    cubierto con motores vibratorios,
  • 11:16 - 11:20
    como los motores de sus móviles.
  • 11:20 - 11:22
    Conforme hablo,
  • 11:22 - 11:28
    el sonido se traduce en patrones
    de vibración en el chaleco.
  • 11:28 - 11:30
    Esto no es solo un concepto:
  • 11:30 - 11:35
    esta tableta transmite vía Bluetooth,
    y ahora mismo tengo uno de esos chalecos.
  • 11:35 - 11:37
    Conforme hablo...
    (Aplausos)
  • 11:38 - 11:44
    el sonido se traduce en patrones
    dinámicos de vibración.
  • 11:44 - 11:49
    Siento el mundo sonoro a mi alrededor.
  • 11:49 - 11:53
    Lo hemos estado probando
    con personas sordas,
  • 11:53 - 11:57
    y resulta que solo un tiempo después,
  • 11:57 - 12:00
    la gente puede empezar
    a sentir, a entender
  • 12:00 - 12:03
    el lenguaje del chaleco.
  • 12:03 - 12:08
    Este es Jonathan. Tiene 37 años.
    Tiene un título de maestría.
  • 12:08 - 12:10
    Nació con sordera profunda,
  • 12:10 - 12:14
    por eso hay una parte de su umwelt
    que está fuera de su alcance.
  • 12:14 - 12:19
    Tuvimos que entrenar a Jonathan con el
    chaleco durante 4 días, 2 horas al día,
  • 12:19 - 12:22
    y aquí está en el quinto día.
  • 12:22 - 12:24
    Scott Novich: tú.
  • 12:24 - 12:27
    David Eagleman: Scott dice una palabra,
    Jonathan la siente en el chaleco,
  • 12:27 - 12:30
    y la escribe en la pizarra.
  • 12:30 - 12:34
    SN: Dónde. Dónde.
  • 12:34 - 12:38
    DE: Jonathan puede traducir este
    complicado patrón de vibraciones
  • 12:38 - 12:41
    en una comprensión de lo que se dice.
  • 12:41 - 12:44
    SN: Tacto. Tacto.
  • 12:44 - 12:49
    DE: Pero no lo está...
  • 12:49 - 12:55
    (Aplausos)
  • 12:56 - 13:00
    Jonathan no lo hace conscientemente,
    porque los patrones son muy complicados,
  • 13:00 - 13:06
    pero su cerebro está empezando a desbloquear
    el patrón que le permite averiguar
  • 13:06 - 13:08
    qué significan los datos,
  • 13:08 - 13:12
    y esperamos que en unos 3 meses
    de usar el chaleco,
  • 13:12 - 13:17
    tenga una experiencia
    de percepción de escuchar
  • 13:17 - 13:21
    como la que tiene de la lectura un ciego
    que pasa un dedo sobre texto en braille,
  • 13:21 - 13:26
    el significado viene de inmediato sin
    intervención consciente en absoluto.
  • 13:27 - 13:30
    Esta tecnología tiene el potencial
    de un cambio importante,
  • 13:30 - 13:34
    porque la única solución alternativa
    a la sordera es un implante coclear,
  • 13:34 - 13:37
    que requiere una cirugía invasiva.
  • 13:37 - 13:42
    Construir esto es 40 veces más barato
    que un implante coclear,
  • 13:42 - 13:47
    permite ofrecer esta tecnología al mundo,
    incluso a los países más pobres.
  • 13:48 - 13:53
    Nos animan los resultados obtenidos
    con la "sustitución sensorial",
  • 13:53 - 13:57
    pero hemos estado pensando mucho
    en la "adición sensorial".
  • 13:57 - 14:03
    ¿Cómo podríamos usar una tecnología
    como esta para añadir un nuevo sentido,
  • 14:03 - 14:06
    para ampliar el umvelt humano?
  • 14:06 - 14:10
    Por ejemplo, ¿podríamos ingresar
    datos en tiempo real de Internet
  • 14:10 - 14:12
    en el cerebro de alguien?
  • 14:12 - 14:16
    Ese alguien ¿puede desarrollar una
    experiencia perceptiva directa?
  • 14:16 - 14:18
    Este es un experimento que
    hacemos en el laboratorio.
  • 14:18 - 14:22
    Un sujeto siente en tiempo real
    datos de la Red
  • 14:22 - 14:24
    durante 5 segundos.
  • 14:24 - 14:27
    Luego, aparecen dos botones,
    y tiene que hacer una elección.
  • 14:27 - 14:29
    No sabe qué está pasando.
  • 14:29 - 14:32
    Hace una elección, y tiene
    respuesta después de un segundo.
  • 14:32 - 14:33
    Es así:
  • 14:33 - 14:36
    El sujeto no tiene idea del
    significado de los patrones,
  • 14:36 - 14:39
    pero vemos si mejora en la elección
    de qué botón presionar.
  • 14:39 - 14:41
    No sabe que los datos que le ingresamos
  • 14:41 - 14:45
    son datos bursátiles en tiempo real,
  • 14:45 - 14:47
    y está decidiendo comprar y vender.
  • 14:47 - 14:49
    (Risas)
  • 14:49 - 14:53
    La respuesta le dice si tomó
    una buena decisión o no.
  • 14:53 - 14:56
    Estamos viendo si podemos
    expandir el umwelt humano
  • 14:59 - 15:05
    una experiencia perceptiva directa de
    los movimientos económicos del planeta.
  • 15:05 - 15:08
    Informaremos de eso más adelante
    para ver cómo resulta.
  • 15:08 - 15:10
    (Risas)
  • 15:11 - 15:13
    Otra cosa que estamos haciendo:
  • 15:13 - 15:17
    Durante las charlas de la mañana,
    filtramos automáticamente en Twitter
  • 15:17 - 15:20
    con el hashtag TED2015,
  • 15:20 - 15:23
    e hicimos un análisis automatizado
    de sentimientos
  • 15:23 - 15:27
    es decir, ¿las personas usaron palabras
    positivas, negativas o neutras?
  • 15:27 - 15:30
    Y mientras esto sucedía
  • 15:30 - 15:33
    lo he estado sintiendo,
  • 15:33 - 15:37
    estoy enchufado a la emoción consolidada
  • 15:37 - 15:41
    de miles de personas en tiempo real,
  • 15:41 - 15:45
    es un nuevo tipo de experiencia humana,
    porque ahora puedo saber
  • 15:45 - 15:48
    cómo le va a los oradores
    y cuánto les gusta esto a Uds.
  • 15:48 - 15:53
    (Risas)
    (Aplausos)
  • 15:55 - 15:59
    Es una experiencia más grande de la
    que un ser humano normal puede tener.
  • 16:00 - 16:03
    También estamos ampliando
    el umwelt de los pilotos.
  • 16:03 - 16:07
    En este caso, el chaleco transmite
    9 métricas diferentes
  • 16:07 - 16:08
    desde este cuadricóptero,
  • 16:08 - 16:12
    cabeceo, guiñada, giro,
    orientación y rumbo,
  • 16:12 - 16:16
    y eso mejora la destreza del piloto.
  • 16:16 - 16:21
    Es como si extendiera su piel,
    a lo lejos.
  • 16:21 - 16:23
    Y eso es solo el principio.
  • 16:23 - 16:28
    Estamos previendo tomar una
    cabina moderna llena de manómetros
  • 16:28 - 16:33
    y en vez de tratar de leer
    todo eso, sentirlo.
  • 16:33 - 16:35
    Ahora vivimos en un mundo de información,
  • 16:35 - 16:39
    y hay una diferencia entre acceder
    a grandes volúmenes de datos
  • 16:39 - 16:42
    y experimentarlos.
  • 16:42 - 16:46
    Así que creo que en realidad
    las posibilidades no tienen fin
  • 16:46 - 16:48
    en el horizonte de la expansión humana.
  • 16:48 - 16:53
    Imaginen un astronauta que pueda sentir
  • 16:53 - 16:57
    la salud general de la Estación
    Espacial Internacional,
  • 16:57 - 17:02
    o, para el caso, que Uds. sientan los
    estados invisibles de su propia salud,
  • 17:02 - 17:05
    como el nivel de azúcar en sangre
    y el estado del microbioma,
  • 17:05 - 17:11
    o tener visión de 360º o ver
    en el infrarrojo o ultravioleta.
  • 17:11 - 17:15
    La clave es esta: conforme
    avanzamos hacia el futuro,
  • 17:15 - 17:20
    cada vez podremos elegir nuestros
    propios dispositivos periféricos.
  • 17:20 - 17:23
    Ya no tenemos que esperar regalos
    sensoriales de la Madre Naturaleza
  • 17:23 - 17:25
    en sus escalas de tiempo,
  • 17:25 - 17:29
    pero en su lugar, como buena madre,
    nos ha dado las herramientas necesarias
  • 17:29 - 17:34
    para hacer nuestro propio camino.
  • 17:34 - 17:35
    Así que la pregunta ahora es:
  • 17:35 - 17:41
    ¿cómo quieren salir
    a experimentar su universo?
  • 17:41 - 17:43
    Gracias.
  • 17:43 - 17:51
    (Aplausos)
  • 17:59 - 18:02
    Chris Anderson: ¿Puedes sentirlo?
    DE: Sí.
  • 18:02 - 18:05
    En realidad, es la primera vez
    que siento aplausos en el chaleco.
  • 18:05 - 18:07
    Es agradable. Es como un masaje.
    (Risas)
  • 18:07 - 18:11
    CA: Twitter se vuelve loco.
  • 18:11 - 18:13
    El experimento del mercado de valores,
  • 18:13 - 18:18
    ¿podría ser el primer experimento que
    asegure su financiación para siempre,
  • 18:18 - 18:20
    de tener éxito?
  • 18:20 - 18:23
    DE: Bueno, es cierto, ya no tendría
    que escribirle al NIH.
  • 18:23 - 18:26
    CA: Bueno mira, para ser
    escéptico por un minuto,
  • 18:26 - 18:29
    digo, es asombroso, pero
    ¿hay evidencia hasta el momento
  • 18:29 - 18:31
    de que funcione la sustitución sensorial,
  • 18:31 - 18:33
    o la adición sensorial?
  • 18:33 - 18:37
    ¿No es posible que el ciego
    pueda ver por la lengua
  • 18:37 - 18:42
    porque la corteza visual está
    todavía allí, lista para procesar,
  • 18:42 - 18:44
    y que eso sea una parte necesaria?
  • 18:44 - 18:46
    DE: Gran pregunta.
    En realidad no tenemos ni idea
  • 18:46 - 18:50
    de cuáles son los límites teóricos de
    los datos que puede asimilar el cerebro.
  • 18:50 - 18:53
    La historia general, sin embargo,
    es que es extraordinariamente flexible.
  • 18:53 - 18:57
    Cuando una persona queda ciega,
    lo que llamamos corteza visual
  • 18:57 - 19:02
    es ocupada por el tacto,
    el oído, el vocabulario.
  • 19:02 - 19:06
    Eso nos dice que la corteza es acotada.
  • 19:06 - 19:09
    Solo hace ciertos tipos de
    cálculos sobre las cosas.
  • 19:09 - 19:12
    Y si miramos a nuestro alrededor las
    cosas como el braille, por ejemplo,
  • 19:12 - 19:15
    las personas reciben información
    mediante golpes en los dedos.
  • 19:15 - 19:19
    No creo que haya razón para pensar
    que existe un límte teórico,
  • 19:19 - 19:20
    que conozcamos ese límite.
  • 19:21 - 19:25
    CA: Si esto se comprueba,
    estarás abrumado.
  • 19:25 - 19:28
    Hay muchas aplicaciones
    posibles para esto.
  • 19:28 - 19:32
    ¿Estás listo para esto? ¿Qué es lo que
    más te entusiasma? ¿Qué se podría lograr?
  • 19:32 - 19:34
    DE: Creo que hay gran cantidad
    de aplicaciones aquí.
  • 19:34 - 19:38
    En términos de sustitución sensorial
    del mañana, algo empecé a mencionar
  • 19:38 - 19:42
    de astronautas en la estación espacial,
    que pasan mucho tiempo
  • 19:42 - 19:45
    controlando cosas y podrían en cambio
    ver que está pasando,
  • 19:45 - 19:49
    porque esto es bueno para
    datos multidimensionales.
  • 19:49 - 19:54
    La clave es: nuestros sistemas visuales
    son buenos detectando manchas y bordes,
  • 19:54 - 19:56
    pero son muy malos para
    el mundo actual,
  • 19:56 - 19:58
    con pantallas que tienen
    infinidad de datos.
  • 19:58 - 20:01
    Tenemos que rastrear eso
    con nuestros sistemas de atención.
  • 20:01 - 20:03
    Esta es una manera de solo
    sentir el estado de algo,
  • 20:03 - 20:07
    como conocer el estado del
    cuerpo sobre la marcha.
  • 20:07 - 20:10
    La maquinaria pesada, la seguridad,
    sentir el estado de una fábrica,
  • 20:10 - 20:13
    de un equipo, hacia allí
    va en lo inmediato.
  • 20:13 - 20:17
    CA: David Eagleman, fue una charla
    alucinante. Muchas gracias.
  • 20:17 - 20:22
    DE: Gracias, Chris.
    (Aplausos)
Title:
¿Podemos crear nuevos sentidos para los humanos?
Speaker:
David Eagleman
Description:

Como seres humanos, podemos percibir menos de una diez billonésima de las ondas de luz. "Nuestra experiencia de la realidad", dice el neurocientífico David Eagleman, "está limitada por nuestra biología". Él quiere cambiar eso. Su investigación sobre los procesos cerebrales le ha llevado a crear nuevas interfaces, como un chaleco sensorial, para procesar información inédita sobre el mundo que nos rodea.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
20:34

Spanish subtitles

Revisions Compare revisions