Return to Video

Possiamo creare nuovi sensi per l'essere umano?

  • 0:00 - 0:06
    Siamo fatti di parti molto piccole,
  • 0:06 - 0:08
    ma ci troviamo in un cosmo davvero grande
  • 0:08 - 0:13
    e il punto è che non siamo molto bravi
    a comprendere la realtà
  • 0:13 - 0:14
    in nessuna delle due dimensioni
  • 0:14 - 0:16
    perché i nostri cervelli
  • 0:16 - 0:20
    non sono ancora abbastanza evoluti
    per capire il mondo a una tale dimensione.
  • 0:20 - 0:24
    Siamo invece intrappolati in questa
    piccola fetta di percezione,
  • 0:24 - 0:26
    proprio al centro.
  • 0:27 - 0:31
    Ma la cosa strana è che, anche
    nella parte di realtà che ci è familiare,
  • 0:31 - 0:34
    in realtà non riusciamo a vedere
    la maggior parte di ciò che avviene.
  • 0:34 - 0:38
    Prendete i colori del nostro mondo,
    per esempio.
  • 0:38 - 0:42
    Onde di luce, radiazioni elettromagnetiche
    che rimbalzano sugli oggetti
  • 0:42 - 0:46
    e colpiscono recettori specializzati
    che stanno nel retro dei nostri occhi.
  • 0:46 - 0:49
    Ma non vediamo tutte le onde
    che ci sono in realtà.
  • 0:49 - 0:51
    Infatti ciò che vediamo
  • 0:51 - 0:55
    è meno di un decitrilionesimo
    dell'esistente.
  • 0:55 - 0:58
    Perciò ci sono
    onde radio, microonde
  • 0:58 - 1:02
    e raggi X e gamma che stanno passando
    attraverso il vostro corpo proprio ora
  • 1:02 - 1:05
    e ne siete totalmente inconsapevoli,
  • 1:05 - 1:08
    perché non possedete
    i recettori biologici adatti
  • 1:08 - 1:09
    per percepirli.
  • 1:09 - 1:13
    Migliaia di conversazioni al cellulare
    stanno passando attraverso di voi
  • 1:13 - 1:14
    proprio in questo momento
  • 1:14 - 1:16
    e ne siete completamente inconsapevoli.
  • 1:16 - 1:20
    Ora, non è che queste cose
    siano intrinsecamente invisibili.
  • 1:20 - 1:25
    I serpenti percepiscono alcuni infrarossi
    nella loro realtà
  • 1:25 - 1:29
    e le api includono gli ultravioletti
    nella loro visione del mondo
  • 1:29 - 1:32
    e, certo, costruiamo macchine
    nei cruscotti delle nostre auto
  • 1:32 - 1:35
    per cogliere segnali di una certa gamma
    di frequenze radio
  • 1:35 - 1:39
    e costruiamo macchine negli ospedali
    che colgono raggi X.
  • 1:39 - 1:42
    Ma nessuno di questi può essere percepito
    in completa autonomia,
  • 1:42 - 1:43
    o almeno non ancora,
  • 1:43 - 1:47
    perché non siamo equipaggiati
    dei sensori adeguati.
  • 1:47 - 1:52
    Dunque, questo significa
    che la nostra esperienza della realtà
  • 1:52 - 1:55
    è vincolata alla nostra biologia
  • 1:55 - 1:58
    e questo va contro la nozione comune
  • 1:58 - 2:00
    che i nostri occhi, le nostre orecchie
    e le nostre dita
  • 2:00 - 2:04
    colgono la realtà oggettiva
    che c'è là fuori.
  • 2:04 - 2:10
    Al contrario, il nostro cervello campiona
    solo una piccola parte di mondo.
  • 2:10 - 2:12
    In tutto il regno animale,
  • 2:12 - 2:15
    animali diversi captano
    parti diverse della realtà.
  • 2:15 - 2:18
    Per cui, nel mondo cieco e sordo
    della zecca,
  • 2:18 - 2:23
    i segnali importanti sono temperatura
    e acido butirrico;
  • 2:23 - 2:26
    nella realtà del pesce coltello,
  • 2:26 - 2:31
    il suo mondo sensoriale
    è riccamente colorato da campi elettrici
  • 2:31 - 2:33
    e per il pipistrello
    e la sua ecolocalizzazione,
  • 2:33 - 2:37
    la realtà è costruita a partire
    da onde di aria compressa.
  • 2:37 - 2:42
    È la fetta di ecosistema
    su cui possono fare affidamento;
  • 2:42 - 2:43
    in scienza c'è una parola per questo.
  • 2:43 - 2:45
    Si chiama umwelt,
  • 2:45 - 2:49
    che è una parola tedesca che indica
    il mondo circostante.
  • 2:49 - 2:52
    Ora, presumibilmente,
    ogni animale dà per scontato
  • 2:52 - 2:55
    che il suo umwelt sia l'intera
    e oggettiva realtà che c'è lì fuori,
  • 2:55 - 2:58
    perché per quale motivo mai
    ci si dovrebbe fermare a pensare
  • 2:58 - 3:01
    che possa esistere qualcosa
    oltre ciò che si riesce a percepire.
  • 3:01 - 3:04
    Al contrario, ciò che facciamo noi tutti
    è accettare la realtà
  • 3:04 - 3:07
    come ci si presenta.
  • 3:07 - 3:10
    Facciamoci un esame di coscienza.
  • 3:10 - 3:12
    Immaginate di essere un cane da caccia.
  • 3:13 - 3:15
    Il vostro intero mondo
    consiste nell'annusare.
  • 3:15 - 3:20
    Avete un lungo naso che ha
    200 milioni di recettori per gli odori
  • 3:20 - 3:24
    e avete narici umide che attraggono
    e intrappolano le molecole di odore:
  • 3:24 - 3:28
    le vostre narici sono belle grosse,
    così che possiate inalare tanta aria.
  • 3:28 - 3:31
    Per voi tutto è questione di fiuto.
  • 3:31 - 3:35
    Di colpo, un bel giorno,
    avete una rivelazione.
  • 3:35 - 3:39
    Guardate il vostro padrone umano
    e pensate:
  • 3:39 - 3:43
    "Come dev'essere avere quel penoso,
    piccolo naso impoverito da umano?
  • 3:43 - 3:45
    (Risate)
  • 3:45 - 3:48
    Come dev'essere quando respiri
    solo una flebile dose d'aria?
  • 3:48 - 3:52
    Come puoi non sapere che c'è un gatto
    a un centinaio di metri da qui,
  • 3:52 - 3:56
    o che il vicino era proprio
    in questo punto sei ore fa?"
  • 3:56 - 3:58
    (Risate)
  • 3:58 - 4:01
    Proprio perché siamo umani,
  • 4:01 - 4:03
    non abbiamo mai avuto esperienza
    di quel mondo di odori,
  • 4:03 - 4:06
    perciò non ci manca,
  • 4:06 - 4:10
    perché siamo fermamente radicati
    nel nostro umwelt.
  • 4:10 - 4:14
    Ma il punto è, siamo davvero obbligati
    a restare bloccati qui?
  • 4:14 - 4:19
    Ecco perché, da neuroscienziato,
    mi interessa il modo in cui la tecnologia
  • 4:19 - 4:21
    potrebbe espandere il nostro umwelt
  • 4:21 - 4:25
    e a come potrebbe cambiare
    l'esperienza di essere umani.
  • 4:26 - 4:30
    Sappiamo già di poter sposare
    tecnologia e biologia,
  • 4:30 - 4:34
    perché ci sono centinaia di migliaia
    di persone che camminano intorno a noi
  • 4:34 - 4:37
    con apparecchi acustici
    e di visione artificiale.
  • 4:37 - 4:42
    Funziona così: si prende un microfono,
    si digitalizza il segnale
  • 4:42 - 4:45
    e si mette una fascia di elettrodi
    direttamente nell'orecchio interno.
  • 4:45 - 4:48
    Oppure, nel caso degli impianti retinici,
    si prende una videocamera,
  • 4:48 - 4:51
    si digitalizza il segnale
    e si inserisce una griglia di elettrodi
  • 4:51 - 4:54
    direttamente nel nervo ottico.
  • 4:54 - 4:58
    E non più tardi di 15 anni fa,
  • 4:58 - 5:02
    molti scienziati pensavano che queste
    tecnologie non avrebbero funzionato.
  • 5:02 - 5:07
    Perché? Perché queste tecnologie
    parlano la lingua della Silicon Valley
  • 5:07 - 5:12
    che non è esattamente lo stesso dialetto
    dei nostri organi di senso naturali.
  • 5:12 - 5:15
    Ma il fatto è... che funziona:
  • 5:15 - 5:19
    il cervello capisce come usare i segnali.
  • 5:20 - 5:21
    Ora, come lo capiamo?
  • 5:22 - 5:23
    Beh, ecco il segreto:
  • 5:23 - 5:29
    Il vostro cervello non sente né vede
    niente di tutto questo.
  • 5:29 - 5:35
    Il cervello è rinchiuso in una cripta
    di silenzio e oscurità nel cranio.
  • 5:35 - 5:39
    L'unica cosa che riceve
    sono segnali elettrochimici
  • 5:39 - 5:42
    che arrivano tramite cavi dati diversi
  • 5:42 - 5:46
    e questo è tutto ciò
    con cui ha a che fare, nulla di più.
  • 5:47 - 5:49
    Sorprendentemente,
  • 5:49 - 5:52
    il cervello è molto bravo
    a ricevere questi segnali,
  • 5:52 - 5:55
    estrarne sequenze
    e assegnargli un significato,
  • 5:55 - 5:59
    così che possa prendere
    questo cosmo interiore e creare una storia
  • 5:59 - 6:04
    di questo, il vostro mondo soggettivo.
  • 6:04 - 6:06
    Ma ecco il punto chiave:
  • 6:06 - 6:10
    il vostro cervello non sa,
    e non gli importa di sapere,
  • 6:10 - 6:13
    da dove vengono i dati.
  • 6:13 - 6:17
    Qualsiasi informazione arrivi,
    semplicemente capisce cosa farne.
  • 6:17 - 6:20
    È un tipo di macchina molto efficiente.
  • 6:20 - 6:24
    Essenzialmente, è un generico
    dispositivo di computazione,
  • 6:24 - 6:26
    riceve qualsiasi tipo di dato
  • 6:26 - 6:29
    e capisce cosa farne
  • 6:29 - 6:33
    e questo, credo, permette
    a Madre Natura
  • 6:33 - 6:37
    di dilettarsi con ogni sorta
    di canali di input.
  • 6:37 - 6:40
    Io chiamo questo modello evolutivo "T.P."
  • 6:40 - 6:42
    ovvero, senza andare troppo sul tecnico,
  • 6:42 - 6:45
    "Testa di Patata";
  • 6:45 - 6:49
    uso questo nome per sottolineare
    che tutti i sensori
  • 6:49 - 6:52
    che conosciamo e amiamo (occhi,
    orecchie, dita delle mani),
  • 6:52 - 6:57
    sono semplicemente dispositivi
    plug-and-play ("collega-e-usa"):
  • 6:57 - 7:00
    Li collegate e il gioco è fatto.
  • 7:00 - 7:05
    Il cervello capisce cosa fare
    con i dati in ingresso.
  • 7:06 - 7:08
    E quando si osserva il regno animale,
  • 7:08 - 7:11
    si trovano parecchi
    dispositivi periferici.
  • 7:11 - 7:15
    I serpenti hanno recettori termici
    con i quali percepiscono gli infrarossi,
  • 7:15 - 7:18
    il pesce coltello ha elettrorecettori
  • 7:18 - 7:21
    la talpa dal muso stellato
    ha un'appendice
  • 7:21 - 7:24
    con 22 tentacoli
  • 7:24 - 7:27
    con i quali percepisce e costruisce
    un modello 3D del mondo,
  • 7:27 - 7:31
    e molti uccelli hanno la magnetite
    che permette loro di orientarsi
  • 7:31 - 7:34
    nel campo magnetico del pianeta.
  • 7:34 - 7:38
    Questo significa che la natura
    non deve continuamente
  • 7:38 - 7:40
    ridisegnare l'intero cervello.
  • 7:40 - 7:45
    Al contrario, una volta stabiliti i principi
    che regolano le attività cerebrali,
  • 7:45 - 7:49
    la natura deve preoccuparsi solo
    di disegnare nuove periferiche.
  • 7:49 - 7:52
    Ok. Dunque ecco cosa significa:
  • 7:52 - 7:54
    la morale della storia
  • 7:54 - 7:58
    è che non c'è niente
    di davvero speciale o fondamentale
  • 7:58 - 8:01
    nella biologia con cui
    siamo venuti al mondo.
  • 8:01 - 8:03
    È semplicemente ciò che abbiamo ereditato
  • 8:03 - 8:06
    da un complesso percorso evolutivo.
  • 8:06 - 8:10
    Ma non è per forza qualcosa
    a cui dobbiamo attenerci
  • 8:10 - 8:12
    e la prova di questo
  • 8:12 - 8:14
    è ciò che chiamiamo
    sostituzione sensoriale.
  • 8:14 - 8:18
    Ovvero introdurre informazioni
    nel cervello
  • 8:18 - 8:20
    tramite canali sensoriali inusuali:
  • 8:20 - 8:23
    il cervello capisce cosa farne.
  • 8:23 - 8:26
    Potrebbe sembrare fantascienza,
  • 8:26 - 8:31
    ma il primo articolo che lo dimostra
    è stato pubblicato su Nature nel 1969.
  • 8:32 - 8:34
    Uno scienziato di nome Paul Bach-y-Rita
  • 8:34 - 8:38
    mise delle persone cieche
    su una sedia da dentista modificata,
  • 8:38 - 8:40
    impostò una fonte video
  • 8:40 - 8:42
    e pose un oggetto davanti all'obiettivo
  • 8:42 - 8:45
    che poi sarebbe stato percepito
  • 8:45 - 8:48
    come un pungolare alla schiena
    tramite una griglia di solenoidi.
  • 8:48 - 8:50
    Quindi, ponendo una tazza di caffè
    davanti all'obiettivo,
  • 8:50 - 8:52
    lo si sentiva nella schiena
  • 8:52 - 8:55
    e sorprendentemente, i ciechi
    diventavano piuttosto bravi
  • 8:55 - 8:59
    a determinare quale fosse l'oggetto
    inquadrato dalla telecamera
  • 8:59 - 9:03
    soltanto sentendolo
    sulla schiena.
  • 9:03 - 9:06
    Ora, ci sono state diverse interpretazioni
    moderne di questo meccanismo.
  • 9:06 - 9:10
    Ci sono occhiali che ricevono dati video
    di ciò che ci sta di fronte
  • 9:10 - 9:12
    e li tramutano in un panorama sonoro,
  • 9:12 - 9:16
    così che, quando le cose si muovono,
    si avvicinano e si allontanano,
  • 9:16 - 9:17
    si sente un "Bzz, bzz, bzz".
  • 9:17 - 9:19
    Suona come una sorta di cacofonia,
  • 9:19 - 9:23
    ma dopo qualche settimana,
    i ciechi iniziano a capire molto bene
  • 9:23 - 9:25
    cosa sta di fronte a loro,
  • 9:25 - 9:28
    solo sulla base di ciò che sentono.
  • 9:28 - 9:30
    E non bisogna per forza
    passare dalle orecchie:
  • 9:30 - 9:33
    il sistema si serve di una griglia
    elettrica tattile sulla fronte,
  • 9:33 - 9:37
    così qualsiasi sia la cosa di fronte
    al video, la si sente sulla fronte.
  • 9:37 - 9:40
    Perché la fronte? Perché
    non la si usa per nient'altro.
  • 9:40 - 9:44
    L'incarnazione più moderna
    si chiama Brainport
  • 9:44 - 9:48
    ed è una piccola griglia elettrica
    da posizionare sulla lingua
  • 9:48 - 9:52
    così che la fonte video venga tramutata
    in piccoli segnali elettrici tattili
  • 9:52 - 9:58
    e i ciechi diventano così bravi a usarla
    che possono lanciare una palla in un cesto
  • 9:58 - 10:02
    o attraversare
    percorsi con ostacoli complessi.
  • 10:03 - 10:08
    Possono arrivare a vedere
    attraverso la lingua.
  • 10:08 - 10:10
    Sembra una follia vero?
  • 10:10 - 10:13
    Ma ricordate, la visione in fondo
  • 10:13 - 10:17
    non è altro che segnali elettrochimici
    che attraversano il cervello.
  • 10:17 - 10:19
    Il cervello non sa da dove vengono
    questi segnali.
  • 10:19 - 10:23
    Ma capisce cosa farne.
  • 10:23 - 10:28
    Nel mio laboratorio mi interesso
    di sostituzione sensoriale per sordi,
  • 10:28 - 10:31
    e questo è un progetto che ho intrapreso
  • 10:31 - 10:34
    con un laureando
    nel mio laboratorio, Scott Novich,
  • 10:34 - 10:37
    che lo sta conducendo per la tesi.
  • 10:37 - 10:39
    Ed ecco ciò che volevamo fare:
  • 10:39 - 10:43
    volevamo far sì che i suoni del mondo
    fossero convertiti
  • 10:43 - 10:47
    in un modo per cui i sordi
    potessero capire cosa veniva detto.
  • 10:47 - 10:52
    E volevamo farlo grazie al potere
    e all'ubiquità dei dispositivi portatili,
  • 10:52 - 10:57
    volevamo essere sicuri che questo
    potesse funzionare su telefoni e tablet
  • 10:57 - 10:59
    e volevamo che fosse
    qualcosa di indossabile,
  • 10:59 - 11:02
    qualcosa che si potesse indossare
    sotto i vestiti.
  • 11:02 - 11:04
    Quindi ecco il concetto.
  • 11:05 - 11:10
    Io parlo, il suono che emetto
    viene captato dal tablet
  • 11:10 - 11:16
    e viene mappato su un gilet
    ricoperto di motori vibranti,
  • 11:16 - 11:20
    come i motori dei cellulari.
  • 11:20 - 11:22
    Quindi, mentre parlo,
  • 11:22 - 11:28
    il suono è tradotto in una sequenza
    di vibrazioni sul gilet.
  • 11:28 - 11:30
    Beh, non è solo concettuale:
  • 11:30 - 11:35
    il tablet trasmette Bluetooth
    e sto indossando il gilet proprio ora.
  • 11:35 - 11:37
    Quindi, mentre parlo (Applausi)
  • 11:38 - 11:44
    il suono è tradotto in sequenze dinamiche
    di vibrazioni.
  • 11:44 - 11:49
    Sto sentendo il mondo sonoro
    intorno a me.
  • 11:49 - 11:53
    Stiamo testando questo dispositivo
    con persone sorde
  • 11:53 - 11:57
    ed è venuto fuori che in breve tempo
  • 11:57 - 12:00
    la gente comincia a sentire,
    cominciano a capire
  • 12:00 - 12:03
    il linguaggio del gilet.
  • 12:03 - 12:08
    Lui è Jonathan. Ha 37 anni.
    Ha una laurea magistrale.
  • 12:08 - 12:10
    È nato con una forma di sordità acuta,
  • 12:10 - 12:14
    che significa che c'è una parte del suo
    umwelt che non è per lui accessibile.
  • 12:14 - 12:19
    Abbiamo allenato Jonathan con il gilet
    per quattro giorni, due ore al giorno
  • 12:19 - 12:22
    ed eccolo, il quinto giorno.
  • 12:22 - 12:24
    Scott Novich: You.
  • 12:24 - 12:27
    David Eagleman: Scott dice una parola,
    Jonathan la sente sul gilet
  • 12:27 - 12:30
    e scrive sulla lavagna.
  • 12:30 - 12:34
    SN: Where. Where.
  • 12:34 - 12:38
    DE: Jonathan è in grado di tradurre
    questa complicata sequenza di vibrazioni
  • 12:38 - 12:41
    in una comprensione
    di ciò che viene detto.
  • 12:41 - 12:44
    SN: Touch. Touch.
  • 12:44 - 12:49
    DE: Ora non lo sta facendo...
  • 12:49 - 12:55
    (Applausi)
  • 12:56 - 13:00
    Jonathan non lo fa consapevolmente,
    perché le sequenze sono troppo complicate,
  • 13:00 - 13:06
    ma il suo cervello comincia a sbloccare
    la sequenza che gli permette di capire
  • 13:06 - 13:08
    cosa significano i dati
  • 13:08 - 13:12
    e ci aspettiamo che, indossando
    il gilet per circa tre mesi,
  • 13:12 - 13:17
    abbia un'esperienza uditiva diretta,
  • 13:17 - 13:21
    nello stesso modo in cui, quando un cieco
    passa il dito sul braille,
  • 13:21 - 13:26
    il significato arriva diretto dalla pagina
    senza alcuna mediazione cosciente.
  • 13:27 - 13:30
    Questa tecnologia ha il potenziale
    di cambiare le carte in tavola,
  • 13:30 - 13:34
    perché l'altra unica soluzione
    per la sordità è l'impianto cocleare,
  • 13:34 - 13:37
    che richiede una chirurgia invasiva.
  • 13:37 - 13:42
    E questo può essere 40 volte meno costoso
    di un impianto cocleare,
  • 13:42 - 13:47
    il che rende questa tecnologia fruibile
    globalmente, anche nei paesi più poveri.
  • 13:48 - 13:53
    I nostri risultati con la sostituzione
    sensoriale sono stati molto incoraggianti,
  • 13:53 - 13:57
    ma ciò che ci ha fatto pensare molto
    è l'addizione sensoriale.
  • 13:57 - 14:03
    Come possiamo usare una tecnologia simile
    per creare un senso completamente nuovo,
  • 14:03 - 14:06
    per espandere l'umwelt umano?
  • 14:06 - 14:10
    Per esempio, possiamo inserire
    dati da Internet in tempo reale
  • 14:10 - 14:12
    direttamente nel cervello di qualcuno
  • 14:12 - 14:16
    affinché possa sviluppare
    un'esperienza percettiva diretta?
  • 14:16 - 14:18
    Ecco un esperimento che stiamo conducendo
    in laboratorio.
  • 14:18 - 14:22
    Un soggetto sente un flusso di dati
    dal Net in tempo reale
  • 14:22 - 14:24
    per cinque secondi.
  • 14:24 - 14:27
    Poi appaiono due bottoni
    e deve fare una scelta.
  • 14:27 - 14:29
    Non sa cosa sta succedendo.
  • 14:29 - 14:32
    Compie una scelta
    e riceve un feedback dopo un secondo.
  • 14:32 - 14:33
    Ora, ecco il punto:
  • 14:33 - 14:36
    Il soggetto non ha idea
    del significato delle sequenze,
  • 14:36 - 14:39
    ma stiamo testando se migliori
    nella scelta di quale bottone spingere.
  • 14:39 - 14:41
    Non sa che ciò che stiamo inviando
  • 14:41 - 14:45
    sono dati in tempo reale dalla Borsa
  • 14:45 - 14:47
    e che sta effettuando decisioni
    di acquisto e di vendita.
  • 14:47 - 14:49
    (Risate)
  • 14:49 - 14:53
    E il feedback gli dice se ha fatto
    la cosa giusta o no.
  • 14:53 - 14:56
    Cio che stiamo vedendo è se è possibile
    espandere l'umwelt umano
  • 14:56 - 14:59
    così che arrivi ad avere,
    dopo qualche settimana,
  • 14:59 - 15:05
    un'esperienza percettiva diretta
    dei movimenti economici del pianeta.
  • 15:05 - 15:08
    Ma di questo ve ne parleremo più tardi
    per vedere quanto funziona.
  • 15:08 - 15:10
    (Risate)
  • 15:11 - 15:13
    Ecco un'altra cosa che stiamo facendo:
  • 15:13 - 15:17
    Durante gli interventi di questa mattina,
    abbiamo automaticamente cercato su Twitter
  • 15:17 - 15:20
    l'hashtag TED2015
  • 15:20 - 15:23
    e abbiamo fatto un'analisi
    d'opinioni automatica,
  • 15:23 - 15:27
    ovvero: le persone stanno usando
    parole positive, negative o neutre?
  • 15:27 - 15:30
    E mentre ciò avveniva,
  • 15:30 - 15:33
    io l'ho sentito
  • 15:33 - 15:37
    e così sono collegato
    alle emozioni collettive
  • 15:37 - 15:41
    di migliaia di persone in tempo reale
  • 15:41 - 15:45
    ed è un nuovo tipo di esperienza umana,
    perché ora posso sapere
  • 15:45 - 15:48
    come state e quanto vi sta piacendo
    tutto questo!
  • 15:48 - 15:53
    (Risate) (Applausi)
  • 15:55 - 15:59
    È un'esperienza più grande di quella
    che un umano può avere di solito.
  • 16:00 - 16:03
    Stiamo espandendo
    anche l'umwelt dei piloti.
  • 16:03 - 16:07
    In questo caso, il gilet sta captando
    nove differenti misure
  • 16:07 - 16:08
    da questo quadrimotore:
  • 16:08 - 16:12
    inclinazione, rotazione, ondeggiamento,
    orientamento e direzione
  • 16:12 - 16:16
    e questo migliora
    l'abilità del pilota di volare.
  • 16:16 - 16:21
    È come se, essenzialmente, la sua pelle
    sia estesa lassù, lontano.
  • 16:21 - 16:23
    E siamo solo all'inizio.
  • 16:23 - 16:28
    Ciò che abbiamo in mente è prendere
    una moderna cabina di pilotaggio
  • 16:28 - 16:33
    piena di strumenti che,
    invece di essere letti, siano sentiti.
  • 16:33 - 16:35
    Viviamo in un mondo di informazioni
  • 16:35 - 16:39
    e c'è una grande differenza
    tra l'accedere a tanti dati
  • 16:39 - 16:42
    e viverli.
  • 16:42 - 16:46
    Penso che non ci sia fine
    alle possibilità
  • 16:46 - 16:48
    all'orizzonte dell'espansione umana.
  • 16:48 - 16:53
    Immaginate un astronauta
    in grado di sentire
  • 16:53 - 16:57
    lo stato complessivo dell'intera
    Stazione Spaziale Internazionale,
  • 16:57 - 17:02
    o, sulla stessa linea, di sentire
    i valori invisibili della vostra salute,
  • 17:02 - 17:05
    come gli zuccheri nel sangue
    e lo stato del vostro microbioma,
  • 17:05 - 17:11
    o di vedere a 360 gradi
    o vedere a infrarossi o ultravioletti.
  • 17:11 - 17:15
    Perciò il punto è:
    andando verso il futuro,
  • 17:15 - 17:20
    saremo sempre più in grado di scegliere
    i nostri dispositivi periferici.
  • 17:20 - 17:23
    Non dobbiamo più aspettare
    i doni sensoriali di Madre Natura
  • 17:23 - 17:25
    al suo ritmo,
  • 17:25 - 17:29
    ma, come ogni bravo genitore,
    ci ha dato gli strumenti che ci servivano
  • 17:29 - 17:34
    per uscire e crearci
    la nostra propria traiettoria.
  • 17:34 - 17:35
    Perciò la questione è:
  • 17:35 - 17:41
    in che modo volete uscire
    e fare esperienza dell'universo?
  • 17:41 - 17:43
    Grazie.
  • 17:43 - 17:51
    (Applausi)
  • 17:59 - 18:01
    Chris Anderson: Lo senti?
    DE: Sì.
  • 18:01 - 18:05
    In realtà, questa è stata la prima volta
    che ho sentito un applauso sul gilet.
  • 18:05 - 18:07
    È bello. È come un massaggio. (Risate)
  • 18:07 - 18:11
    CA: Twitter sta impazzendo.
    Twitter sta impazzendo.
  • 18:11 - 18:13
    Dunque, quell'esperimento sulla Borsa.
  • 18:13 - 18:18
    Questo è il primo esperimento
    i cui risultati durerebbero per sempre,
  • 18:18 - 18:20
    giusto? se avete successo?
  • 18:20 - 18:23
    DE: Beh, è giusto, non dovrei
    più scrivere al NIH.
  • 18:23 - 18:26
    CA: Allora, giusto per essere
    scettici per un minuto,
  • 18:26 - 18:28
    intendo, è fantastico,
    ma non è forse vero
  • 18:28 - 18:31
    che ci sono prove del funzionamento
    della sostituzione sensoriale
  • 18:31 - 18:34
    ma non necessariamente
    dell'addizione sensoriale?
  • 18:34 - 18:37
    Intendo, non è possibile
    che il cieco veda attraverso la lingua
  • 18:37 - 18:42
    perché la corteccia visiva è già lì,
    pronta a processare
  • 18:42 - 18:44
    e che questo sia una parte necessaria?
  • 18:44 - 18:46
    DE: È un'ottima domanda.
    In realtà non abbiamo idea
  • 18:46 - 18:50
    di quali siano i limiti teorici del tipo
    di dati che il cervello può ricevere.
  • 18:50 - 18:53
    La storia generale, però,
    è che sia estremamente flessibile.
  • 18:53 - 18:57
    Quando una persona diventa cieca,
    ciò che chiamiamo corteccia visiva
  • 18:57 - 19:02
    viene presa in consegna da altre cose,
    tatto, udito, vocabolario.
  • 19:02 - 19:06
    Questo ci dice che la corteccia
    è una sorta di arco a una freccia.
  • 19:06 - 19:09
    Elabora solo certi tipi
    di computazione sulle cose.
  • 19:09 - 19:12
    Quando guardiamo al braille,
    per esempio,
  • 19:12 - 19:15
    si tratta di persone che colgono
    informazioni attraverso le dita.
  • 19:15 - 19:19
    Quindi non credo ci sia alcuna ragione
    per ritenere che esista un limite teorico
  • 19:19 - 19:20
    di cui conosciamo il confine.
  • 19:21 - 19:25
    CA: Se questo si dimostrasse vero,
    verresti sommerso di richieste.
  • 19:25 - 19:28
    Ci potrebbero essere tante applicazioni
    per una cosa del genere.
  • 19:28 - 19:32
    Sei pronto per questo?
    Quale potenzialità ti esalta di più?
  • 19:32 - 19:34
    DE: Beh, penso che ci siano
    molte possibili applicazioni.
  • 19:34 - 19:38
    Riguardo alla sostituzione sensoriale,
    le cose che menzionavo poco fa
  • 19:38 - 19:41
    degli astronauti nelle stazioni spaziali,
    che spendono così tanto tempo
  • 19:41 - 19:45
    a monitorare, mentre potrebbero
    semplicemente captare cosa sta succedendo,
  • 19:45 - 19:49
    perché se c'è un'applicazione per questa
    tecnologia, sono i dati multidimensionali.
  • 19:49 - 19:52
    La chiave è: i nostri sistemi visivi
    sono ottimi per cogliere macchie e bordi,
  • 19:52 - 19:56
    ma non lo sono altrettanto per ciò
    che è diventato il nostro mondo,
  • 19:56 - 19:57
    ovvero schermi
    con tanti, tanti dati.
  • 19:57 - 20:00
    Dobbiamo procedere a carponi
    tramite i nostri sistemi attentivi.
  • 20:00 - 20:04
    Perciò questo è un modo, in pratica,
    per percepire lo stato di qualcosa.
  • 20:04 - 20:07
    proprio come, dallo stato del tuo corpo,
    percepisci di essere in piedi.
  • 20:07 - 20:11
    Penso a macchinari pesanti, sicurezza,
    sentire lo stato di un'industria
  • 20:11 - 20:14
    della tua attrezzatura, ecco qualche
    applicazione per cui funzionerebbe.
  • 20:14 - 20:18
    CA: David Eagleman, è stato
    un intervento straordinario. Grazie mille.
  • 20:18 - 20:22
    DE: Grazie a te, Chris.
    (Applausi)
Title:
Possiamo creare nuovi sensi per l'essere umano?
Speaker:
David Eagleman
Description:

Da umani, riusciamo a percepire meno di un deci-trilionesimo di tutte le onde luminose. “La nostra esperienza della realtà”, dice il neuroscienziato David Eagleman, “è vincolata alla nostra biologia.” Ma lui vuole cambiare questa situazione. La sua ricerca nei processi cerebrali lo ha portato a creare nuove interfacce — come un "gilet sensoriale" — che permettono di ricevere informazioni sul mondo intorno a noi che prima ci sfuggivano.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
20:34

Italian subtitles

Revisions