Return to Video

Podemos criar novos sentidos para os seres humanos?

  • 0:01 - 0:05
    Somos feitos de partes bem pequenas,
  • 0:05 - 0:08
    e estamos inseridos
    num cosmos gigantesco,
  • 0:08 - 0:13
    e a questão é que não somos muito bons
    em compreender a realidade
  • 0:13 - 0:14
    em qualquer uma dessas escalas,
  • 0:14 - 0:16
    isso porque, nossos cérebros
  • 0:16 - 0:20
    não evoluíram para compreender
    o mundo nesta escala.
  • 0:20 - 0:24
    Em vez disso, estamos presos
    nesta fatia bem fina de percepção,
  • 0:24 - 0:26
    bem no meio.
  • 0:27 - 0:31
    Mas é estranho, porque mesmo nesta fatia
    de realidade que chamamos de lar,
  • 0:31 - 0:34
    não vemos a maioria das coisas
    que estão acontecendo.
  • 0:34 - 0:38
    Considere as cores do nosso mundo.
  • 0:38 - 0:42
    São ondas de luz, radiações
    eletromagnéticas refletidas pelos objetos,
  • 0:42 - 0:46
    que atingem receptores especiais
    no fundo dos nossos olhos.
  • 0:46 - 0:49
    Mas não vemos
    todas as ondas que existem.
  • 0:49 - 0:53
    Na verdade, vemos
    menos de 10 trilionésimos
  • 0:53 - 0:55
    de todas que existem.
  • 0:55 - 0:58
    Temos ondas de rádio e micro-ondas,
  • 0:58 - 1:02
    raios X e raios gama que atravessam
    o seu corpo bem agora,
  • 1:02 - 1:05
    e você está completamente
    inconsciente disto,
  • 1:05 - 1:08
    porque você não nasceu
    com os receptores biológicos adequados
  • 1:08 - 1:09
    para capturá-los.
  • 1:09 - 1:12
    Há milhares de conversas
    de telefones celulares
  • 1:12 - 1:14
    passando através de você bem agora,
  • 1:14 - 1:16
    e você está totalmente cego a isto.
  • 1:16 - 1:20
    Agora, não é que estas coisas
    sejam inerentemente invisíveis.
  • 1:20 - 1:25
    As cobras registram um pouco
    de infravermelho em sua realidade;
  • 1:25 - 1:29
    e abelhas registram o ultravioleta
    em sua visão do mundo;
  • 1:29 - 1:32
    e, é claro, construímos máquinas
    nos painéis de nossos carros
  • 1:32 - 1:35
    para captar sinais
    na faixa de frequência de rádio;
  • 1:35 - 1:39
    e construímos máquinas nos hospitais
    para captar a faixa de raio X.
  • 1:39 - 1:42
    Mas você não pode sentir
    nenhuma destas faixas por si mesmo,
  • 1:42 - 1:43
    pelo menos ainda não,
  • 1:43 - 1:47
    porque você não vem equipado
    com os sensores adequados.
  • 1:47 - 1:52
    Agora, o que isto quer dizer
    é que a nossa experiência da realidade
  • 1:52 - 1:55
    é limitada pela nossa biologia,
  • 1:55 - 1:58
    o que contraria
    a ideia comumente aceita
  • 1:58 - 2:00
    de que os olhos, ouvidos
    e as pontas dos dedos
  • 2:00 - 2:04
    captam a realidade objetiva
    ao nosso redor.
  • 2:04 - 2:10
    Em vez disso, nossos cérebros
    mostram apenas um pouco do mundo.
  • 2:10 - 2:12
    Agora, no reino animal,
  • 2:12 - 2:15
    vários animais captam
    partes diferentes da realidade.
  • 2:15 - 2:18
    Então, no mundo cego e surdo do carrapato,
  • 2:18 - 2:23
    os sinais importantes são:
    a temperatura e o ácido butírico;
  • 2:23 - 2:26
    no mundo do peixe fantasma negro,
  • 2:26 - 2:31
    o mundo sensorial é ricamente
    colorido por campos elétricos;
  • 2:31 - 2:33
    e para o morcego,
    que se orienta pelo eco,
  • 2:33 - 2:37
    a realidade é construída
    a partir das ondas de compressão de ar.
  • 2:37 - 2:41
    Essa é a fatia do ecossistema
    que eles podem captar
  • 2:41 - 2:45
    e, na ciência, há uma palavra
    para isto: "umwelt",
  • 2:45 - 2:49
    que é a palavra alemã
    para "o mundo ao redor".
  • 2:49 - 2:52
    Provavelmente todo animal crê
  • 2:52 - 2:56
    que o seu umwelt seja toda
    a realidade objetiva existente,
  • 2:56 - 3:01
    pois, por que deveríamos imaginar
    que há algo além do que podemos sentir?
  • 3:01 - 3:04
    Em vez disso, o que fazemos
    é aceitar a realidade
  • 3:04 - 3:07
    do modo que nos é apresentada.
  • 3:07 - 3:09
    Vamos deixar isto mais claro.
  • 3:09 - 3:12
    Imagine que você seja
    um cão da raça sabujo.
  • 3:13 - 3:15
    O seu mundo é só de cheiros.
  • 3:15 - 3:20
    Você tem um longo focinho
    com 200 milhões de receptores de odor,
  • 3:20 - 3:24
    e narinas úmidas que atraem
    e aprisionam moléculas de odor;
  • 3:24 - 3:28
    e suas narinas têm fendas
    para que você possa tomar bastante ar.
  • 3:28 - 3:31
    Tudo está relacionado ao cheiro para você.
  • 3:31 - 3:35
    Então um dia, você para
    numa de suas trilhas com uma revelação.
  • 3:35 - 3:38
    Olha para o seu dono e pensa:
  • 3:38 - 3:43
    "Como é ter este lamentável
    e empobrecido nariz de humano?"
  • 3:43 - 3:45
    (Risos)
  • 3:45 - 3:48
    Como é inalar tão pouco ar?
  • 3:48 - 3:52
    Como é possível não perceber que há
    um gato a 90 metros de distância,
  • 3:52 - 3:56
    ou que o seu vizinho estava
    neste mesmo lugar há seis horas?”
  • 3:56 - 3:58
    (Risos)
  • 3:58 - 4:01
    Então, porque somos humanos
  • 4:01 - 4:03
    e nunca experimentamos
    esse mundo do cheiro,
  • 4:03 - 4:06
    não sentimos falta,
  • 4:06 - 4:10
    pois estamos firmemente
    adaptados ao nosso umwelt.
  • 4:10 - 4:14
    Mas a questão é:
    "Temos que ficar presos nele?"
  • 4:14 - 4:19
    Como neurocientista, me interesso
    no modo em que a tecnologia
  • 4:19 - 4:21
    pode expandir o nosso umwelt,
  • 4:21 - 4:25
    e como isto vai mudar
    a experiência de ser humano.
  • 4:26 - 4:30
    Já sabemos que podemos unir
    a tecnologia à nossa biologia,
  • 4:30 - 4:34
    porque há centenas de milhares
    de pessoas andando por aí
  • 4:34 - 4:37
    com audição e visão artificiais.
  • 4:37 - 4:42
    Funciona assim: você pega
    um microfone e digitaliza o sinal;
  • 4:42 - 4:45
    e você coloca uma tira de eletrodo
    diretamente no ouvido interno.
  • 4:45 - 4:48
    Ou, com o implante de retina,
    você pega uma câmera
  • 4:48 - 4:51
    e digitaliza o sinal, então pluga
    uma rede de eletrodos
  • 4:51 - 4:54
    diretamente no nervo ótico.
  • 4:54 - 4:58
    E, há aproximadamente 15 anos,
  • 4:58 - 5:02
    muitos cientistas pensavam
    que estas tecnologias não funcionariam.
  • 5:02 - 5:07
    Por quê? Porque estas tecnologias
    falam a língua do Vale do Silício,
  • 5:07 - 5:12
    e este não é o mesmo dialeto
    dos nossos órgãos sensoriais naturais.
  • 5:12 - 5:15
    Mas o fato é que funciona;
  • 5:15 - 5:19
    o cérebro descobre como usar
    os sinais muito bem.
  • 5:20 - 5:21
    Agora, como conseguimos comprender?
  • 5:22 - 5:23
    Bem, aqui está o grande segredo:
  • 5:23 - 5:29
    o cérebro não ouve
    nem vê nada disto.
  • 5:29 - 5:35
    Ele está trancado num vácuo de silêncio
    e escuridão dentro do seu crânio.
  • 5:35 - 5:39
    Tudo o que ele vê
    são sinais eletroquímicos
  • 5:39 - 5:42
    que chegam até ele por meio
    de vários cabos de dados,
  • 5:42 - 5:46
    e isto é tudo o que ele tem
    para trabalhar e nada mais.
  • 5:46 - 5:48
    Agora, surpreendentemente,
  • 5:48 - 5:51
    o cérebro é muito eficiente
    em captar estes sinais,
  • 5:51 - 5:55
    extrair padrões deles
    e dar-lhes significado,
  • 5:55 - 5:58
    de modo que ele pega
    o cosmos interno
  • 5:58 - 6:03
    e monta uma história
    do seu mundo subjetivo.
  • 6:04 - 6:06
    Mas aqui esta o ponto-chave:
  • 6:06 - 6:10
    o cérebro não sabe, e nem se importa
  • 6:10 - 6:13
    com de onde ele retira as informações.
  • 6:13 - 6:17
    Ele tenta descobrir o que fazer
    com qualquer informação que chega.
  • 6:17 - 6:20
    É um tipo de máquina bem eficiente.
  • 6:20 - 6:24
    É essencialmente um dispositivo
    de computação de propósito geral,
  • 6:24 - 6:26
    e, simplesmente, capta tudo,
  • 6:26 - 6:29
    e descobre o que tem que fazer,
  • 6:29 - 6:33
    e isto, creio eu, libera a Mãe Natureza
  • 6:33 - 6:37
    para experimentar
    vários tipos de canais de entrada.
  • 6:37 - 6:40
    Eu chamo isto de modelo de evolução C.B.,
  • 6:40 - 6:42
    eu não quero ser muito técnico,
  • 6:42 - 6:45
    mas C.B. significa Cabeça de Batata,
  • 6:45 - 6:49
    e eu uso este nome para enfatizar
    que todos estes sensores
  • 6:49 - 6:52
    que nós conhecemos e amamos,
    como nossos olhos, ouvidos e dedos,
  • 6:52 - 6:57
    são meramente dispositivos
    periféricos “plug-and-play";
  • 6:57 - 7:00
    você os conecta e estão prontos
    para serem usados.
  • 7:00 - 7:05
    O cérebro descobre o que fazer
    com as informações que chegam.
  • 7:06 - 7:08
    E quando você olha para o reino animal,
  • 7:08 - 7:11
    você encontra muitos
    dispositivos periféricos.
  • 7:11 - 7:15
    As cobras têm fendas de calor
    que permitem detectar o infravermelho,
  • 7:15 - 7:18
    o fantasma negro tem receptores elétricos
  • 7:18 - 7:21
    e a toupeira-nariz-de-estrela
    tem um apêndice,
  • 7:21 - 7:24
    com 22 tentáculos,
  • 7:24 - 7:27
    que permite sentir o ambiente
    e construir um modelo 3D do mundo;
  • 7:27 - 7:31
    vários pássaros têm magnetita,
    e assim eles podem se orientar
  • 7:31 - 7:34
    pelo campo magnético do planeta.
  • 7:34 - 7:38
    Isto quer dizer que a natureza
    não tem que, continuamente,
  • 7:38 - 7:40
    reprojetar o cérebro.
  • 7:40 - 7:45
    Em vez disso, com as bases
    da operação cerebral estabelecidas,
  • 7:45 - 7:49
    tudo o que a natureza precisa
    é projetar novos periféricos.
  • 7:49 - 7:52
    Certo. Isto quer dizer o seguinte:
  • 7:52 - 7:54
    a lição que fica
  • 7:54 - 7:58
    é que não há nada realmente
    especial ou fundamental
  • 7:58 - 8:01
    sobre a biologia
    que nós precisamos discutir.
  • 8:01 - 8:03
    É apenas o que nós herdamos
  • 8:03 - 8:06
    de uma complexa estrada da evolução.
  • 8:06 - 8:10
    Mas não somos obrigados
    a continuar assim,
  • 8:10 - 8:12
    e nossa melhor prova deste princípio
  • 8:12 - 8:14
    vem do que é chamado
    de substituição sensorial.
  • 8:14 - 8:18
    Isto refere-se a alimentar
    o cérebro com informações
  • 8:18 - 8:20
    via canais sensoriais incomuns,
  • 8:20 - 8:23
    e o cérebro simplesmente
    descobre o que fazer com elas.
  • 8:23 - 8:26
    Bom, isto pode soar especulativo,
  • 8:26 - 8:31
    mas o primeiro artigo demonstrando isso
    foi publicado na revista Nature em 1969.
  • 8:32 - 8:34
    Um cientista chamado Paul Bach-y-Rita
  • 8:34 - 8:38
    colocou pessoas cegas
    numa cadeira de dentista modificada,
  • 8:38 - 8:40
    montou uma transmissão de vídeo
  • 8:40 - 8:42
    e colocou algo em frente à câmera,
  • 8:42 - 8:44
    então você sentiria
  • 8:44 - 8:47
    que a suas costas eram cutucadas
    por uma rede de solenoides.
  • 8:47 - 8:50
    Então se você mexesse uma xícara
    de café, em frente à câmera,
  • 8:50 - 8:52
    você sentiria isso em suas costas
  • 8:52 - 8:55
    e, surpreendentemente,
    as pessoas cegas foram muito bem
  • 8:55 - 8:59
    em descrever o que estava
    em frente à câmera,
  • 8:59 - 9:03
    apenas por sentir isso nas costas.
  • 9:03 - 9:06
    Agora, há vários modelos modernos disso.
  • 9:06 - 9:10
    Os óculos sônicos pegam
    uma transmissão de vídeo na sua frente
  • 9:10 - 9:12
    e a transformam numa paisagem sônica.
  • 9:12 - 9:14
    Conforme as coisas se movem ao redor,
  • 9:14 - 9:15
    e se aproximam ou se afastam,
  • 9:15 - 9:17
    soa como "buzz, buzz, buzz."
  • 9:17 - 9:19
    Soa como uma cacofonia,
  • 9:19 - 9:21
    mas após algumas semanas,
    as pessoas cegas
  • 9:21 - 9:23
    começam a ter um bom desempenho
  • 9:23 - 9:25
    na compreensão
    do que está à sua frente,
  • 9:25 - 9:28
    baseando-se apenas no que estão ouvindo.
  • 9:28 - 9:30
    E não precisa ser através do ouvidos:
  • 9:30 - 9:33
    esse sistema usa
    uma rede eletrotátil na testa;
  • 9:33 - 9:37
    e tudo o que estiver à frente da câmera
    será sentido pela sua testa.
  • 9:37 - 9:40
    Por que a testa? Porque você
    não a usa para nada.
  • 9:40 - 9:44
    O modelo mais moderno
    é chamado de BrainPort,
  • 9:44 - 9:48
    uma pequena rede elétrica
    colocada sobre a língua,
  • 9:48 - 9:52
    as imagens são transformadas
    em pequenos sinais eletrotáteis;
  • 9:52 - 9:58
    e os cegos se adaptaram tão bem
    que conseguem jogar uma bola na cesta,
  • 9:58 - 10:02
    ou conseguem percorrer
    rotas complexas com obstáculos.
  • 10:03 - 10:08
    Eles acabam vendo através da língua.
  • 10:08 - 10:10
    Bem, isto soa completamente insano, não é?
  • 10:10 - 10:14
    Mas lembre-se que toda visão
    é feita de sinais eletroquímicos
  • 10:14 - 10:17
    que viajam pelo cérebro.
  • 10:17 - 10:19
    O cérebro não sabe de onde vêm os sinais,
  • 10:19 - 10:23
    apenas descobre o que fazer com eles.
  • 10:23 - 10:28
    Então, meu interesse no meu laboratório
    é a substituição sensorial para os surdos,
  • 10:28 - 10:31
    e este é um projeto
    que eu tenho desenvolvido
  • 10:31 - 10:34
    com um aluno de pós-graduação
    no meu laboratório, Scott Novich,
  • 10:34 - 10:37
    que está encabeçando-o para a sua tese.
  • 10:37 - 10:39
    E aqui está o que queríamos fazer:
  • 10:39 - 10:43
    queríamos que o som
    do mundo fosse convertido
  • 10:43 - 10:47
    de modo que um surdo
    pudesse entender o que lhe foi dito.
  • 10:47 - 10:52
    Dado o poder e a onipresença
    da computação portátil;
  • 10:52 - 10:57
    queríamos ter certeza de que isso
    funcionaria em celulares e tablets;
  • 10:57 - 10:59
    e também queríamos torná-lo vestível,
  • 10:59 - 11:02
    algo que se pudesse
    usar por baixo das roupas.
  • 11:02 - 11:04
    Aqui está o conceito.
  • 11:05 - 11:10
    Conforme eu falo, minha voz
    é capturada pelo tablet
  • 11:10 - 11:16
    e, então, é mapeada sobre um colete
    coberto por motores vibratórios,
  • 11:16 - 11:20
    iguais aos motores do seu celular.
  • 11:20 - 11:22
    Conforme eu falo,
  • 11:22 - 11:28
    o som é traduzido para um padrão
    de vibração sobre o colete.
  • 11:28 - 11:30
    Agora, isto não é apenas conceitual:
  • 11:30 - 11:35
    este tablet está transmitindo em Bluetooth
    e eu estou usando o colete agora.
  • 11:35 - 11:38
    Então, conforme eu falo,
  • 11:38 - 11:44
    o som é traduzido em padrões
    dinâmicos de vibração. (Aplausos)
  • 11:44 - 11:49
    Estou sentindo o mundo sônico
    ao meu redor.
  • 11:49 - 11:53
    Estamos testando isso com surdos agora,
  • 11:53 - 11:57
    e após um curto espaço de tempo,
  • 11:57 - 12:00
    as pessoas começaram a sentir,
    elas começaram a entender
  • 12:00 - 12:03
    a linguagem do colete.
  • 12:03 - 12:08
    Este é o Jonathan. Ele tem 37 anos
    e possui mestrado.
  • 12:08 - 12:10
    Nasceu com surdez profunda,
  • 12:10 - 12:14
    o que significa que uma parte
    de seu umwelt está indisponível.
  • 12:14 - 12:19
    Então, treinamos Jonathan com o colete
    por quatro dias, duas horas ao dia,
  • 12:19 - 12:22
    e aqui está ele no quinto dia.
  • 12:22 - 12:24
    Scott Novich: Você.
  • 12:24 - 12:27
    David Eagleman: Scott diz uma palavra,
    Jonathan a sente sobre o colete
  • 12:27 - 12:30
    e a escreve no quadro.
  • 12:30 - 12:34
    SN: Onde. Onde.
  • 12:34 - 12:38
    DE: Jonathan é capaz de traduzir
    este complicado padrão de vibrações
  • 12:38 - 12:40
    para uma compreensão
    do que está sendo dito.
  • 12:40 - 12:44
    SN: Toque. Toque.
  • 12:46 - 12:49
    DN: Bem, ele não faz isso...
  • 12:49 - 12:55
    (Aplausos)
  • 12:56 - 13:00
    Jonathan não faz isso conscientemente,
    porque os padrões são bem complicados,
  • 13:00 - 13:06
    mas seu cérebro está começando a decifrar
    o padrão que lhe permita descobrir
  • 13:06 - 13:08
    o que os dados significam,
  • 13:08 - 13:12
    e nossa expectativa é de que,
    após o uso do colete por três meses,
  • 13:12 - 13:17
    ele terá uma experiência
    perceptiva direta de audição,
  • 13:17 - 13:21
    do mesmo modo que uma pessoa cega,
    ao passar o dedo sobre o braille,
  • 13:21 - 13:26
    entende o significado direto da página
    sem nenhum tipo de intervenção consciente.
  • 13:27 - 13:30
    Bom, essa tecnologia tem o potencial
    para ser um divisor de águas,
  • 13:30 - 13:34
    porque a única outra solução
    para a surdez é um implante coclear,
  • 13:34 - 13:37
    e isso requer uma cirurgia invasiva.
  • 13:37 - 13:42
    E isso pode ser feito 40 vezes mais barato
    do que um implante coclear,
  • 13:42 - 13:47
    o que torna essa tecnologia acessível,
    mesmo para os países mais pobres.
  • 13:48 - 13:53
    Ficamos muito encorajados pelos resultados
    com a substituição sensorial,
  • 13:53 - 13:57
    mas temos pensado muito
    sobre a ampliação sensorial.
  • 13:57 - 14:03
    Como podemos usar uma tecnologia
    como esta para adicionar novos sentidos,
  • 14:03 - 14:06
    expandir o umwelt humano?
  • 14:06 - 14:10
    Por exemplo, poderíamos levar
    dados da internet, em tempo real,
  • 14:10 - 14:12
    direto para o cérebro de alguém,
  • 14:12 - 14:16
    e esse alguém seria capaz de desenvolver
    uma experiência perceptiva direta?
  • 14:16 - 14:18
    Este é um experimento no laboratório:
  • 14:18 - 14:22
    um sujeito sente, em tempo real,
    os dados transmitidos pela internet
  • 14:22 - 14:24
    por cinco segundos.
  • 14:24 - 14:27
    Então, dois botões aparecem
    e ele tem que fazer uma escolha.
  • 14:27 - 14:29
    Ele não sabe o que está acontecendo.
  • 14:29 - 14:32
    Ele faz uma escolha e recebe
    feedback um segundo depois.
  • 14:32 - 14:36
    Agora veja, o sujeito não tem ideia
    do que todos os padrões querem dizer,
  • 14:36 - 14:39
    mas estamos vendo se ele fica melhor
    em descobrir qual botão deve apertar.
  • 14:39 - 14:41
    Ele não sabe que o que estamos fornecendo
  • 14:41 - 14:45
    são dados, em tempo real,
    do mercado de ações,
  • 14:45 - 14:47
    e ele toma decisões de compra e venda.
  • 14:47 - 14:49
    (Risos)
  • 14:49 - 14:53
    O feedback lhe diz
    se ele fez a coisa certa ou não.
  • 14:53 - 14:56
    Estamos vendo que podemos
    expandir o umwelt humano
  • 14:56 - 14:59
    de modo que ele venha a ter,
    após várias semanas,
  • 14:59 - 15:04
    uma experiência perceptiva direta
    dos movimentos econômicos do planeta.
  • 15:05 - 15:08
    Então nós apresentaremos um relatório
    sobre isso depois para ver como foi.
  • 15:08 - 15:10
    (Risos)
  • 15:11 - 15:13
    Aqui está outra coisa que estamos fazendo:
  • 15:13 - 15:17
    Durante as palestras esta manhã,
    nós filtramos automaticamente o Twitter
  • 15:17 - 15:20
    com a hashtag TED2015,
  • 15:20 - 15:22
    e fizemos uma análise
    automatizada de sentimentos,
  • 15:22 - 15:27
    quer dizer: as pessoas usavam
    palavras positivas, negativas ou neutras?
  • 15:27 - 15:30
    E enquanto tudo acontecia,
  • 15:30 - 15:33
    eu sentia tudo
  • 15:33 - 15:37
    e por isso eu estou plugado
    à emoção agregada
  • 15:37 - 15:41
    de milhares de pessoas, em tempo real,
  • 15:41 - 15:45
    e isto é um novo tipo de experiência
    humana, porque agora eu posso saber
  • 15:45 - 15:48
    como todos se sentem
    e o quanto vocês estão amando isso.
  • 15:48 - 15:53
    (Risos) (Aplausos)
  • 15:55 - 15:59
    É uma experiência maior
    do que um humano normalmente pode ter.
  • 16:00 - 16:03
    Também estamos expandindo
    o umwelt de pilotos.
  • 16:03 - 16:07
    Então, neste caso, o colete transmite
    nove medidas diferentes
  • 16:07 - 16:08
    a partir deste quadricóptero,
  • 16:08 - 16:12
    então balanço, movimento, giro,
    orientação e o rumo
  • 16:12 - 16:16
    e isso melhora a habilidade
    de voar do piloto.
  • 16:16 - 16:21
    É como se ele estendesse
    a pele até lá em cima, bem longe.
  • 16:21 - 16:22
    E isto é só o começo.
  • 16:22 - 16:28
    Pretendemos pegar uma cabine
    moderna, cheia de medidores,
  • 16:28 - 16:32
    e em vez de tentar ler tudo,
    você o sentirá.
  • 16:32 - 16:35
    Vivemos num mundo de informação agora,
  • 16:35 - 16:39
    e há uma diferença entre acessar
    enormes quantidades de dados
  • 16:39 - 16:42
    e experimentá-los.
  • 16:42 - 16:46
    Então, eu acho que não existe
    um fim para as possibilidades
  • 16:46 - 16:48
    no horizonte para a expansão humana.
  • 16:48 - 16:53
    Imagine um astronauta
    sendo capaz de sentir
  • 16:53 - 16:57
    a saúde geral da Estação Espacial
    Internacional,
  • 16:57 - 17:02
    ou, por falar nisso, você sentir
    o status invisível da sua própria saúde,
  • 17:02 - 17:05
    como o açúcar no sangue
    e o estado do seu microbioma;
  • 17:05 - 17:11
    ou ter uma visão de 360 graus;
    ou ver em infravermelho, ou ultravioleta.
  • 17:11 - 17:15
    Então a questão é que, conforme
    nos movemos para o futuro,
  • 17:15 - 17:20
    seremos cada vez mais capazes de escolher
    nossos dispositivos periféricos.
  • 17:20 - 17:23
    Não teremos mais que esperar
    pelos presentes sensoriais da Mãe Natureza
  • 17:23 - 17:25
    com seus prazos,
  • 17:25 - 17:27
    porém, como qualquer boa mãe,
  • 17:27 - 17:33
    ela nos deu as ferramentas necessárias
    para definirmos nossa própria trajetória.
  • 17:33 - 17:35
    Então a questão agora é:
  • 17:35 - 17:41
    Como você quer sair
    e experimentar o seu universo?
  • 17:41 - 17:42
    Obrigado.
  • 17:42 - 17:48
    (Aplausos)
  • 17:59 - 18:02
    Chris Anderson: Está sentindo isso?
    DE: Estou.
  • 18:02 - 18:05
    Na verdade, esta foi a primeira vez
    que eu senti aplausos no colete.
  • 18:05 - 18:07
    É legal! É como uma massagem.
    (Risos)
  • 18:07 - 18:10
    CA: O Twitter está bombando.
  • 18:11 - 18:13
    O experimento com o mercado de ações
  • 18:13 - 18:18
    seria o primeiro experimento a assegurar
    o próprio financiamento para sempre,
  • 18:18 - 18:20
    se for bem-sucedido, certo?
  • 18:20 - 18:22
    DE: Isso mesmo. Eu não teria
    que escrever mais para o INS.
  • 18:22 - 18:26
    CA: Veja, sendo um pouco cético,
    quero dizer,
  • 18:26 - 18:29
    isso é incrível, mas há
    evidência até o momento
  • 18:29 - 18:31
    de que a substituição sensorial funciona,
  • 18:31 - 18:33
    mas não necessariamente
    a adição sensorial.
  • 18:33 - 18:37
    Bem, não é possível que uma pessoa cega
    possa ver através da língua
  • 18:37 - 18:42
    porque o córtex visual
    ainda está lá, pronto para processar,
  • 18:42 - 18:44
    e que isso seja uma parte necessária?
  • 18:44 - 18:46
    DE: Ótima pergunta.
    Na verdade, não temos ideia
  • 18:46 - 18:48
    de quais são os limites teóricos
  • 18:48 - 18:51
    de que tipos de dados
    o cérebro pode assimilar.
  • 18:51 - 18:53
    O fato é que ele é extremamente flexível.
  • 18:53 - 18:57
    Quando uma pessoa fica cega,
    o que chamávamos de córtex visual
  • 18:57 - 19:02
    é ocupado por outras coisas,
    pelo tato, audição, vocabulário.
  • 19:02 - 19:06
    Isto nos mostra que o córtex
    tem um repertório limitado.
  • 19:06 - 19:09
    Ele apenas faz alguns tipos
    de cálculos sobre as coisas.
  • 19:09 - 19:12
    E quando olhamos ao redor
    para coisas como o braille, por exemplo,
  • 19:12 - 19:15
    as pessoas obtém informações
    nos dedos através de protuberâncias.
  • 19:15 - 19:19
    Então, eu não acho que há razão
    para pensar em limites teóricos
  • 19:19 - 19:20
    que nós conhecemos.
  • 19:21 - 19:25
    CA: Se isto for comprovado,
    você ficará sobrecarregado de trabalho.
  • 19:25 - 19:28
    Há muitas aplicações para isso.
  • 19:28 - 19:32
    Você está preparado? O que mais
    o anima nisto, o rumo que pode tomar?
  • 19:32 - 19:34
    DE: Eu creio que há
    várias aplicações aqui.
  • 19:34 - 19:38
    Além da substituição sensorial,
    as coisas que eu tinha começado a falar,
  • 19:38 - 19:42
    sobre os astronautas na estação espacial;
    eles gastam muito tempo
  • 19:42 - 19:45
    monitorando coisas e, em vez disso,
    poderiam sentir o que está acontecendo,
  • 19:45 - 19:49
    porque isto é muito bom
    para dados multidimensionais.
  • 19:49 - 19:54
    A questão é que nosso sistema visual
    é bom em detectar manchas e bordas,
  • 19:54 - 19:56
    mas é péssimo para o nosso mundo atual
  • 19:56 - 19:58
    cheio de telas
    com uma infinidade de dados.
  • 19:58 - 20:01
    Temos que rastrear isso
    com o nosso sistema de atenção.
  • 20:01 - 20:03
    Isto é só um jeito de sentir
    o estado de algo,
  • 20:03 - 20:06
    assim como você sabe qual é o estado
    do seu corpo quando em repouso.
  • 20:06 - 20:10
    Eu acho que a maquinaria pesada,
    segurança, sentir o estado de uma fábrica,
  • 20:10 - 20:13
    do seu equipamento,
    é algo que acontecerá em breve.
  • 20:13 - 20:16
    CA: David Eagleman, esta foi uma palestra
    alucinante. Muito obrigado.
  • 20:16 - 20:20
    DE: Obrigado, Chris.
    (Aplausos)
Title:
Podemos criar novos sentidos para os seres humanos?
Speaker:
David Eagleman
Description:

Como humanos, podemos perceber menos de dez trilionésimos de todas as ondas de luz. "Nossa experiência da realidade é limitada pela nossa biologia.", diz o neurocientista David Eagleman. Ele quer mudar isso. Sua pesquisa sobre os nossos processos cerebrais o levou a criar novas interfaces, como um colete sensorial, para assimilar informações anteriormente invisíveis sobre o mundo à nossa volta.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
20:34

Portuguese, Brazilian subtitles

Revisions