Return to Video

Kan vi skapa nya mänskliga sinnen?

  • 0:01 - 0:05
    Vi är byggda av väldigt små saker,
  • 0:05 - 0:08
    och vi ingår i ett väldigt stort kosmos,
  • 0:08 - 0:12
    och vi är faktiskt inte speciellt bra på
    att förstå verkligheten
  • 0:12 - 0:14
    i någon av de skalorna,
  • 0:14 - 0:16
    och det beror på att våra hjärnor
  • 0:16 - 0:20
    inte har utvecklats för
    att förstå världen i den skalan.
  • 0:20 - 0:24
    Istället sitter vi fast
    i ett litet perceptionsområde
  • 0:24 - 0:26
    precis i mitten.
  • 0:27 - 0:31
    Men det blir konstigare, för inte ens
    i den verklighet som vi känner till
  • 0:31 - 0:34
    ser vi merparten av det som pågår.
  • 0:34 - 0:38
    Ta till exempel världens färger.
  • 0:38 - 0:39
    Det här är ljusvågor,
  • 0:39 - 0:42
    elektromagnetisk strålning
    som studsar från objekt
  • 0:42 - 0:46
    och träffar de speciella receptorer
    som finns längst bak i ögat.
  • 0:46 - 0:49
    Men vi ser inte alla vågor som finns.
  • 0:49 - 0:51
    Det är faktiskt så att det vi ser
  • 0:51 - 0:55
    är mindre än en tiondels biljondel
    av vad som finns där ute.
  • 0:55 - 0:58
    Så det finns radiovågor och mikrovågor
  • 0:58 - 1:02
    och röntgenstrålning och gammastrålning
    som passerar genom din kropp just nu
  • 1:02 - 1:05
    och du märker det inte ens,
  • 1:05 - 1:08
    eftersom du inte skapades
    med de biologiska receptorerna
  • 1:08 - 1:09
    för att göra det.
  • 1:09 - 1:12
    Det finns tusentals mobilkonversationer
  • 1:12 - 1:13
    som passerar genom dig just nu,
  • 1:13 - 1:16
    och du är helt blind för det.
  • 1:16 - 1:20
    Det beror inte på att de här sakerna
    i sig är omöjliga att se.
  • 1:20 - 1:25
    Ormar ser infrarött
    som en del av sin verklighet,
  • 1:25 - 1:28
    och honungsbin tar in ultraviolett
    i sin syn på världen,
  • 1:28 - 1:32
    och vi bygger förstås maskiner
    i instrumentbrädan på våra bilar
  • 1:32 - 1:35
    som kan plocka upp signaler
    i området för radiovågor,
  • 1:35 - 1:38
    och vi har byggt maskiner på sjukhus
    som kan läsa av röntgenstrålar.
  • 1:38 - 1:42
    Men du kan inte känna något av det här,
  • 1:42 - 1:43
    iallafall inte än,
  • 1:43 - 1:47
    eftersom du inte är utrustad
    med de rätta sensorerna.
  • 1:47 - 1:52
    Vad det betyder är
    att vår upplevelse av verkligheten
  • 1:52 - 1:55
    är begränsad av vår biologi,
  • 1:55 - 1:58
    och det går emot den känsla vi har
  • 1:58 - 2:00
    av att våra ögon, öron och fingertoppar
  • 2:00 - 2:04
    bara plockar upp
    den objektiva verkligheten.
  • 2:04 - 2:09
    Istället tar vår hjärna ut
    en liten del av världen.
  • 2:10 - 2:12
    I djurvärlden
  • 2:12 - 2:15
    uppfattar olika djur
    olika delar av verkligheten.
  • 2:15 - 2:18
    I fästingens dövblinda värld
  • 2:18 - 2:23
    är temperatur och smörsyra
    de viktiga signalerna.
  • 2:23 - 2:27
    Black ghost-fisken känner av sin omvärld
  • 2:27 - 2:30
    genom färgrika elektriska fält,
  • 2:30 - 2:33
    och den ekolodande fladdermusen
  • 2:33 - 2:37
    upplever en verklighet
    som skapas av tryckvågor i luften.
  • 2:37 - 2:41
    Den är den del av verkligheten
    som de kan uppfatta
  • 2:41 - 2:43
    och vi har ett ord för det
    inom vetenskapen.
  • 2:43 - 2:45
    Det kallas umwelt,
  • 2:45 - 2:49
    vilket är det tyska ordet för omvärld.
  • 2:49 - 2:52
    Vi säger att varje djur antar
    att dess umwelt
  • 2:52 - 2:55
    är den enda verklighet som finns,
  • 2:55 - 2:58
    för det verkar onödigt
    att försöka föreställa sig
  • 2:58 - 3:01
    att det finns något bortom
    det man kan uppfatta.
  • 3:01 - 3:04
    Det vi istället gör är
    att vi accepterar verkligheten
  • 3:04 - 3:07
    så som den presenteras för oss.
  • 3:07 - 3:09
    Vi funderar lite på det här.
  • 3:09 - 3:12
    Tänk dig att du är en blodhund.
  • 3:13 - 3:15
    Hela din värld kretsar kring lukter.
  • 3:15 - 3:20
    Du har en lång nos
    med 200 miljoner luktreceptorer
  • 3:20 - 3:24
    och du har våta näsborrar
    som drar till sig och fångar luktmolekyler
  • 3:24 - 3:28
    och dina näsborrar har till och med glipor
    så att du kan få nosen full av luft.
  • 3:28 - 3:31
    Allting handlar om lukt för dig.
  • 3:31 - 3:35
    Så en dag stannar du plötsligt till
    och får en slags uppenbarelse.
  • 3:35 - 3:38
    Du ser på din mänskliga ägare och tänker
  • 3:38 - 3:43
    "Hur är det att ha en sådan sorglig,
    menlös människonäsa?
  • 3:43 - 3:45
    (Skratt)
  • 3:45 - 3:48
    Hur känns det när du tar
    ett klent litet andetag med den näsan?
  • 3:48 - 3:52
    Hur kan du inte veta
    att det finns en katt på 90 meters håll,
  • 3:52 - 3:56
    eller att din granne stod
    på den här platsen för sex timmar sen?
  • 3:56 - 3:58
    (Skratt)
  • 3:58 - 4:00
    Eftersom vi är människor
  • 4:00 - 4:03
    har vi aldrig upplevt den där doftvärlden
  • 4:03 - 4:06
    så vi saknar den inte,
  • 4:06 - 4:10
    för vi är djupt förankrade i vår umwelt.
  • 4:10 - 4:14
    Men frågan är, behöver vi sitta fast där?
  • 4:14 - 4:19
    Som hjärnforskare är jag intresserad av
    de sätt som tekniken kan hjälpa oss
  • 4:19 - 4:21
    att utvidga vår umwelt,
  • 4:21 - 4:25
    och hur det kommer att förändra
    upplevelsen av att vara människa.
  • 4:26 - 4:31
    Vi vet redan att vi kan gifta ihop
    teknik och biologi, för det finns
  • 4:31 - 4:33
    hundratusentals människor som går omkring
  • 4:33 - 4:37
    med artificiell hörsel
    och artificiell syn.
  • 4:37 - 4:42
    Det fungerar genom att man tar en mikrofon
    och digitaliserar signalen, och man sätter
  • 4:42 - 4:45
    en elektronisk mottagare inuti innerörat.
  • 4:45 - 4:48
    Eller med retinaimplantat,
    då tar man en kamera,
  • 4:48 - 4:51
    digitaliserar signalen
    och sitter in ett elektroniskt rutnät
  • 4:51 - 4:54
    direkt i synnerven.
  • 4:54 - 4:58
    Och så sent som för 15 år sen
  • 4:58 - 5:01
    fanns det många forskare som tvivlade på
    att teknikerna skulle fungera.
  • 5:01 - 5:07
    Varför? För att teknikerna
    pratar Silicon Valley-språk,
  • 5:07 - 5:12
    och det är inte riktigt samma dialekt
    som våra biologiska sinnesorgan.
  • 5:12 - 5:14
    Men de fungerar faktiskt;
  • 5:14 - 5:19
    hjärnan är bra på att räkna ut
    hur den ska använda signalerna.
  • 5:19 - 5:21
    Hur kan vi förstå det?
  • 5:22 - 5:23
    Här är hemligheten:
  • 5:23 - 5:28
    Din hjärna hör eller ser
    ingenting av det här.
  • 5:29 - 5:35
    Din hjärna är instängd i ett tyst
    och mörkt valv inuti huvudet.
  • 5:35 - 5:39
    Allt den någonsin ser
    är elektrokemiska signaler
  • 5:39 - 5:41
    som kommer in via olika datakanaler,
  • 5:41 - 5:46
    det här är allt den har att jobba med,
    och ingenting annat.
  • 5:47 - 5:48
    Men fantastiskt nog
  • 5:48 - 5:51
    är hjärnan riktigt bra
    på att ta in signalerna,
  • 5:51 - 5:55
    hitta mönster och tilldela dem mening,
  • 5:55 - 5:59
    så den tar sitt inre kosmos
    och sätter ihop en historia
  • 5:59 - 6:04
    av det här, din subjektiva värld.
  • 6:04 - 6:06
    Men här är kärnbudskapet:
  • 6:06 - 6:10
    Din hjärna vet inte, och bryr sig inte om
  • 6:10 - 6:12
    var den får sin data ifrån.
  • 6:12 - 6:17
    Vilken information som än kommer in,
    räknar den ut vad den ska göra med den.
  • 6:17 - 6:20
    Och det är en väldigt effektiv maskin.
  • 6:20 - 6:24
    Det är en mångfunktionell beräkningsmaskin
  • 6:24 - 6:26
    och den tar in allt
  • 6:26 - 6:29
    och räknar ut vad den ska göra med det,
  • 6:29 - 6:33
    och det tror jag
    ger moder natur en möjlighet
  • 6:33 - 6:37
    att experimentera
    med olika kanaler för indata.
  • 6:37 - 6:40
    Jag kallar det här
    PH-modellen för evolution,
  • 6:40 - 6:42
    och jag vill inte bli för teknisk här,
  • 6:42 - 6:45
    men PH står för Potatishuvud,
  • 6:45 - 6:49
    och jag använder det namnet
    för att betona att alla dessa sensorer
  • 6:49 - 6:52
    som vi gillar så mycket, som våra ögon,
    ögon och fingertoppar,
  • 6:52 - 6:57
    bara är perifera utbytbara enheter:
  • 6:57 - 7:00
    Man sätter i dem, sen kan man köra.
  • 7:00 - 7:05
    Hjärnan räknar ut vad den ska göra
    med den data som kommer in.
  • 7:06 - 7:08
    Och om man ser sig om i djurriket
  • 7:08 - 7:11
    hittar man många perifera enheter.
  • 7:11 - 7:15
    Ormar har gropar i ansiktet
    där de kan känna av infrarött ljus
  • 7:15 - 7:18
    och ghost knife-fisken
    har elektroniska receptorer
  • 7:18 - 7:21
    och stjärnmullvaden
    har en slags nosutskott
  • 7:21 - 7:23
    med 22 fingrar
  • 7:23 - 7:27
    som den känner sig fram med
    och skapar en 3D-modell av världen,
  • 7:27 - 7:31
    och många fåglar har magnetit
    som att de kan navigera
  • 7:31 - 7:34
    efter jordens magnetiska fält.
  • 7:34 - 7:38
    Vad det här betyder
    är att naturen inte behöver
  • 7:38 - 7:40
    bygga om hjärnan hela tiden.
  • 7:40 - 7:44
    Istället, eftersom hjärnan
    fungerar som den gör,
  • 7:44 - 7:49
    är allt den behöver göra
    att designa nya kanaler för indata.
  • 7:49 - 7:52
    Okej. Vad det här betyder är:
  • 7:52 - 7:54
    Vad vi lär oss är
  • 7:54 - 7:58
    att det inte finns något speciellt
    eller grundläggande
  • 7:58 - 8:01
    med den biologi som vi
    har med oss från början.
  • 8:01 - 8:03
    Det är helt enkelt vad vi har ärvt
  • 8:03 - 8:06
    från en komplex evolution.
  • 8:06 - 8:09
    Men det är inte
    vad vi behöver nöja oss med,
  • 8:09 - 8:11
    och det bästa sättet att bevisa det
  • 8:11 - 8:14
    är något som kallas
    sensorisk substitution.
  • 8:14 - 8:18
    Och det handlar om
    att ge information till hjärnan
  • 8:18 - 8:20
    via ovanliga sensoriska kanaler,
  • 8:20 - 8:23
    och hjärnan bara räknar ut
    vad den ska göra med den.
  • 8:23 - 8:25
    Det kan låta spekulativt,
  • 8:25 - 8:31
    men den första rapporten som visade detta
    publicerades i tidskriften Nature 1969.
  • 8:32 - 8:34
    Forskaren Paul Bach-y-Rita
  • 8:34 - 8:38
    satte blinda människor
    i en omgjord tandläkarstol
  • 8:38 - 8:40
    han satte dit en videokamera,
  • 8:40 - 8:42
    och om han satte något framför kameran
  • 8:42 - 8:45
    så kände man det
  • 8:45 - 8:48
    som en tryckning i ryggen
    från ett rutsystem av spolar.
  • 8:48 - 8:50
    Vickade man en kaffekopp framför kameran
  • 8:50 - 8:52
    så kändes det i ryggen,
  • 8:52 - 8:55
    och fantastiskt nog
    blev blinda människor ganska bra på
  • 8:55 - 8:59
    att kunna avgöra
    vad som fanns framför kameran
  • 8:59 - 9:02
    bara genom att känna det i ländryggen.
  • 9:03 - 9:06
    Det har gjorts många
    moderna varianter av det här.
  • 9:06 - 9:09
    Ljudglasögonen filmar det
    som finns framför en
  • 9:09 - 9:12
    och omvandlar det till ett ljudlandskap
  • 9:12 - 9:15
    så när saker rör sig,
    kommer närmare och längre bort
  • 9:15 - 9:17
    låter de "Bzz, bzz, bzz".
  • 9:17 - 9:19
    Det låter som en kakafoni
  • 9:19 - 9:23
    men efter flera veckor
    blir blinda ganska bra på
  • 9:23 - 9:25
    att förstå vad som finns framför dem
  • 9:25 - 9:27
    bara baserat på vad de hör.
  • 9:27 - 9:29
    Och det behöver inte
    komma via öronen:
  • 9:29 - 9:33
    Det här systemet använder
    ett elektrotaktilt rutnät i pannan
  • 9:33 - 9:37
    så att det som finns framför kameran
    ger känselupplevelser i pannan.
  • 9:37 - 9:40
    Varför pannan? För att man inte
    använder den till så mycket annat.
  • 9:40 - 9:44
    Den mest moderna varianten
    kallas "hjärnporten",
  • 9:44 - 9:48
    och det är en litet elektroniskt rutnät
    som sitter på tungan
  • 9:48 - 9:52
    och videon blir omvandlad
    till små elektrotaktila signaler
  • 9:52 - 9:58
    och blinda blir så bra på att använda den
    så att de kan kasta en boll i en korg,
  • 9:58 - 10:03
    och de kan navigera
    genom komplexa hinderbanor.
  • 10:03 - 10:07
    De kan lära sig se med tungan.
  • 10:08 - 10:09
    Det låter helt galet, eller hur?
  • 10:09 - 10:13
    Men kom ihåg att synen bara är
  • 10:13 - 10:16
    elektrokemiska signaler
    som rusar runt i din hjärna.
  • 10:16 - 10:19
    Din hjärna vet inte
    varifrån signalerna kommer.
  • 10:19 - 10:22
    Den räknar bara ut
    vad den ska göra med dem.
  • 10:23 - 10:28
    Mitt intresseområde i labbet har varit
    sensorisk substitution för döva,
  • 10:29 - 10:31
    och det här är ett projekt
    som vi har genomfört
  • 10:31 - 10:34
    tillsammans med en doktorand
    i mitt labb, Scott Novich,
  • 10:34 - 10:37
    som specialiserar sig på detta
    i sin avhandling.
  • 10:37 - 10:38
    Detta är vad vi har velat göra:
  • 10:38 - 10:42
    Vi ville få ljud
    från omvärlden att omvandlas
  • 10:42 - 10:47
    så att en döv person
    kan förstå vad man säger.
  • 10:47 - 10:52
    Och vi ville göra det med hjälp av
    kraften hos mobil teknik,
  • 10:52 - 10:56
    vi ville att det skulle fungera
    på mobiltelefoner och surfplattor,
  • 10:56 - 10:59
    och vi ville också göra det
    till en kroppsnära produkt,
  • 10:59 - 11:02
    något man skulle kunna
    ha på sig under kläderna.
  • 11:02 - 11:04
    Konceptet ser ut så här.
  • 11:05 - 11:12
    När jag pratar fångas mitt ljud upp
    av surfplattan och placeras ut
  • 11:12 - 11:16
    på en väst som är täckt
    av små vibrerande motorer,
  • 11:16 - 11:19
    precis som motorerna i din mobiltelefon.
  • 11:20 - 11:24
    Så när jag pratar översätts ljudet
  • 11:24 - 11:28
    till ett vibrationsmönster på västen.
  • 11:28 - 11:30
    Det här är inte bara konceptuellt,
  • 11:30 - 11:35
    surfplattan sänder via Bluetooth
    och jag har på mig västen just nu.
  • 11:35 - 11:39
    Så när jag pratar översätts ljudet
  • 11:39 - 11:41
    (Applåder)
  • 11:41 - 11:44
    till dynamiska vibrationsmönster.
  • 11:44 - 11:49
    Jag känner ljudlandskapet runt mig.
  • 11:49 - 11:53
    Vi har testat det här med döva människor
  • 11:53 - 11:57
    och det visar sig att de
    efter en väldigt kort tid
  • 11:57 - 12:00
    kan börja känna och förstå
  • 12:00 - 12:02
    västens språk.
  • 12:03 - 12:07
    Det här är Jonathan, han är 37 år
    och har en magisterexamen.
  • 12:07 - 12:10
    Han föddes helt döv,
  • 12:10 - 12:14
    vilket betyder att en del av hans umwelt
    inte är tillgänglig för honom.
  • 12:14 - 12:18
    Vi lät Jonathan träna med västen
    i fyra dagar, två timmar om dagen,
  • 12:18 - 12:21
    och här är han den femte dagen.
  • 12:21 - 12:23
    Scott Novich: Du.
  • 12:23 - 12:27
    David Eagleman: Scott säger ett ord,
    Jonathan känner det via västen,
  • 12:27 - 12:29
    och han skriver det på tavlan.
  • 12:30 - 12:33
    SN: Var. Var.
  • 12:34 - 12:38
    DE: Jonathan kan översätta
    det här komplicerade vibrationsmönstret
  • 12:38 - 12:40
    så att han förstår vad som sägs.
  • 12:40 - 12:43
    SN: Känsel. Känsel.
  • 12:46 - 12:49
    DE: Han gör alltså inte det här --
  • 12:49 - 12:52
    (Applåder)
  • 12:56 - 13:00
    Jonathan gör inte det här medvetet,
    för mönstren är för komplicerade,
  • 13:00 - 13:05
    men hans hjärna börjar lista ut mönstret
    som låter den förstå
  • 13:05 - 13:08
    vad informationen betyder,
  • 13:08 - 13:12
    och vår förhoppning är
    att när han har burit den i tre månader
  • 13:12 - 13:17
    kommer han ha en påtaglig känsla
    av att höra saker
  • 13:17 - 13:21
    på samma sätt som när en blind person
    för sitt finger över blindskrift,
  • 13:21 - 13:26
    att betydelsen kommer direkt från sidan
    utan någon medveten ansträngning.
  • 13:27 - 13:30
    Den här tekniken har möjlighet
    att förändra området i grunden
  • 13:30 - 13:34
    eftersom den enda andra lösningen
    för dövhet är ett cochleaimplantat,
  • 13:34 - 13:37
    vilket kräver ett kirurgiskt ingrepp.
  • 13:37 - 13:42
    Och den här kostar 40 gånger mindre
    än ett cochleaimplantat,
  • 13:42 - 13:45
    vilket gör att tekniken
    kan användas globalt,
  • 13:45 - 13:47
    även i de fattigaste länderna.
  • 13:49 - 13:53
    Vår övertygelse har stärkts av de resultat
    vi har fått från sensorisk substutition
  • 13:53 - 13:57
    men en sak vi har tänkt mycket på
    är sensoriska tillägg.
  • 13:57 - 14:03
    Hur kan vi använda en sådan här teknik
    för att lägga till ett helt nytt sinne,
  • 14:03 - 14:06
    för att utvidga mänsklig umwelt?
  • 14:06 - 14:10
    Skulle vi till exempel kunna
    låta realtidsinformation från internet
  • 14:10 - 14:12
    gå rakt in i någons hjärna,
  • 14:12 - 14:15
    och se om de kan uppleva
    en direkt perception av den?
  • 14:16 - 14:18
    Här är ett experiment
    som vi håller på med.
  • 14:18 - 14:22
    En försöksperson känner av
    realtidsdata från internet
  • 14:22 - 14:24
    i fem sekunder.
  • 14:24 - 14:27
    Sen visas två knappar,
    och hen måste göra ett val.
  • 14:27 - 14:29
    Hen vet inte vad som pågår.
  • 14:29 - 14:31
    Hen gör ett val och får feedback
    efter en sekund.
  • 14:31 - 14:32
    Så här är det:
  • 14:32 - 14:35
    Försökspersonen vet inte
    vad mönstren betyder,
  • 14:35 - 14:39
    men vi ser om hen blir bättre på
    att veta vilken knapp man ska trycka på.
  • 14:39 - 14:41
    Hen vet inte att det vi skickar
  • 14:41 - 14:44
    är realtidsdata från aktiemarknaden
  • 14:44 - 14:47
    och hen gör köp- och säljbeslut.
  • 14:47 - 14:49
    (Skratt)
  • 14:49 - 14:52
    Och återkopplingen visar
    om beslutet var rätt eller inte.
  • 14:52 - 14:55
    Och vad vi får veta är
    om vi kan utvidga människans umwelt
  • 14:55 - 14:59
    så att hen efter flera veckor kan få
  • 14:59 - 15:05
    en direkt perceptuell upplevelse
    av världens ekonomiska rörelser.
  • 15:05 - 15:08
    Vi kommer att rapportera senare
    om hur det bra det går.
  • 15:08 - 15:10
    (Skratt)
  • 15:10 - 15:13
    Här är en annan sak som vi gör:
  • 15:13 - 15:17
    Under morgonen föredrag
    har vi samlat inlägg från Twitter
  • 15:17 - 15:19
    som nämner hashtaggen TED2015,
  • 15:19 - 15:22
    och vi har gjort
    en automatisk emotionsanalys,
  • 15:22 - 15:27
    vilket betyder, använder man positiva,
    negativa eller neutrala ord?
  • 15:27 - 15:29
    Och medan det här har pågått
  • 15:29 - 15:33
    har jag känt av det,
  • 15:33 - 15:37
    så jag är inkopplad till
    de samlade känslorna
  • 15:37 - 15:41
    från tusentals människor i realtid,
  • 15:41 - 15:45
    vilket är en ny typ av mänsklig upplevelse
    och därför kan jag nu veta
  • 15:45 - 15:48
    hur alla mår och hur mycket
    ni älskar det här.
  • 15:48 - 15:51
    (Skratt) (Applåder)
  • 15:55 - 15:59
    Det är en större upplevelse
    än en människa normalt kan ha.
  • 16:00 - 16:03
    Vi utvidgar också piloters umwelt.
  • 16:03 - 16:07
    I det här fallet skickar västen
    nio olika mätetal
  • 16:07 - 16:08
    från den här quadrokoptern,
  • 16:08 - 16:12
    som nosläge, kursändring, vingläge,
    orientering och kurs,
  • 16:12 - 16:15
    och det förbättrar den här pilotens
    skicklighet att flyga den.
  • 16:15 - 16:21
    Det är som att han hade
    sin hud långt där uppe.
  • 16:21 - 16:22
    Och det är bara början.
  • 16:22 - 16:28
    Vad vi tänker oss är att ta en cockpit
    som är full av reglage
  • 16:28 - 16:33
    och istället för att försöka läsa av alla
    kommer man att känna dem.
  • 16:33 - 16:35
    Vi lever i en värld av information nu,
  • 16:35 - 16:39
    och det finns en skillnad mellan
    att ha tillgång till stora datamängder
  • 16:39 - 16:42
    och att uppleva dem.
  • 16:42 - 16:46
    Jag tror inte det finns någon gräns
    för hur långt vi kan
  • 16:46 - 16:48
    utvidga mänskliga upplevelser i framtiden.
  • 16:48 - 16:53
    Tänk er en astronaut som kan känna
  • 16:53 - 16:57
    vilket allmäntillstånd
    den Internationella rymdstationen har,
  • 16:57 - 17:01
    eller att man själv kan känna av
    de osynliga tillstånden i kroppen,
  • 17:01 - 17:05
    som sitt blodsocker
    och den inre bakteriefloran,
  • 17:05 - 17:07
    eller att ha 360-gradig syn,
  • 17:07 - 17:11
    eller kunna se i infrarött
    eller ultraviolett.
  • 17:11 - 17:14
    Det viktiga är att när vi
    rör oss in i framtiden
  • 17:14 - 17:19
    kommer vi gradvis att kunna välja
    våra egna perifera enheter.
  • 17:19 - 17:23
    Vi behöver inte längre vänta
    på moder naturs sensoriska gåvor
  • 17:23 - 17:25
    i hennes tidsperspektiv,
  • 17:25 - 17:27
    utan istället har hon,
    som varje god förälder,
  • 17:27 - 17:33
    gett oss de verktyg vi behöver
    för att kunna skapa vår egen väg framåt.
  • 17:33 - 17:35
    Så frågan är,
  • 17:35 - 17:40
    hur vill du gå ut
    och uppleva ditt universum?
  • 17:40 - 17:42
    Tack.
  • 17:42 - 17:45
    (Applåder)
  • 17:59 - 18:01
    Chris Anderson: Känner du det?
    DE: Ja.
  • 18:01 - 18:05
    Det här var faktiskt första gången
    jag kände applåder genom västen.
  • 18:05 - 18:07
    Det är skönt,
    som en massage. (Skratt)
  • 18:07 - 18:10
    CA: Twitter löper amok.
    Twitter är helt galet nu.
  • 18:11 - 18:13
    Men det där experimentet
    med aktiemarknaden.
  • 18:13 - 18:18
    Det kan blir det första experimentet
    som har garanterad finansiering för evigt,
  • 18:18 - 18:20
    eller hur, om det lyckas?
  • 18:20 - 18:22
    DE: Ja, jag skulle inte behöva
    söka forskningspengar då.
  • 18:22 - 18:25
    CA: Men du, för att vara
    lite skeptisk en stund,
  • 18:25 - 18:29
    jag menar, det här är underbart,
    men visar inte resultaten hittills
  • 18:29 - 18:31
    att sensorisk substitution fungerar,
  • 18:31 - 18:33
    men inte nödvändigtvis sensoriska tillägg?
  • 18:33 - 18:36
    Är det inte möjligt att en blind person
    kan se genom tungan
  • 18:36 - 18:40
    eftersom syncortex fortfarande finns där,
  • 18:40 - 18:44
    redo att ta hand om signaler,
    att det är en viktig del av det hela?
  • 18:44 - 18:45
    DE: Det är en riktigt bra fråga.
  • 18:45 - 18:46
    Vi vet faktiskt inte
  • 18:46 - 18:50
    var de teoretiska gränserna går
    för vilken data hjärnan kan ta in.
  • 18:50 - 18:53
    Det vi vet är
    att den är otroligt flexibel.
  • 18:53 - 18:58
    Så när en person blir blind
    tas det vi kallade syncortex över
  • 18:58 - 19:02
    av andra saker,
    av känsel, hörsel, ordförråd.
  • 19:02 - 19:06
    Vad det säger oss är att hjärnbarken
    är ganska enkelspårig.
  • 19:06 - 19:09
    Den gör bara beräkningar på saker.
  • 19:09 - 19:12
    Och när vi ser på saker
    som blindskrift, till exempel,
  • 19:12 - 19:15
    får människor sin information
    genom upphöjningar under fingrarna.
  • 19:15 - 19:18
    Vi har ingen anledning
    att tro att vi har funnit
  • 19:18 - 19:21
    den teoretiska gränsen
    för vad som är möjligt.
  • 19:21 - 19:25
    CA: Om det här fungerar
    kommer du att bli översvämmad av...
  • 19:25 - 19:27
    Det finns så många
    tänkbara tillämpningar för det här.
  • 19:27 - 19:31
    Är du redo för det?
    Vilken riktning hoppas du mest på?
  • 19:31 - 19:34
    DE: Det finns många tillämpningar
    man kan tänka sig.
  • 19:34 - 19:38
    Bortom sensorisk substitution
    är det de saker som jag nämnde
  • 19:38 - 19:42
    om astronauter på rymdstationen,
    de tillbringar mycket av sin tid
  • 19:42 - 19:45
    med att läsa av saker, om de istället
    skulle kunna veta vad som händer,
  • 19:45 - 19:49
    för vad det här egentligen är bäst för
    är multidimensionella data.
  • 19:49 - 19:53
    Nyckeln är det här: Vår syn är bra på
    att upptäcka fläckar och kanter,
  • 19:53 - 19:56
    men det är riktigt dåligt på
    det som vår värld har blivit,
  • 19:56 - 19:58
    vilket är skärmar med massor av data.
  • 19:58 - 20:00
    Vi måste krypa fram
    med våra medvetna sinnen.
  • 20:00 - 20:03
    Det här är ett sätt
    att känna tillståndet hos något,
  • 20:03 - 20:06
    som vi känner av vår kropp
    när vi går och står.
  • 20:06 - 20:10
    Så jag tänker på tunga maskiner, säkerhet,
    att känna av tillståndet hos en fabrik,
  • 20:10 - 20:13
    av ens utrustning, det är något
    jag skulle vilja utforska direkt.
  • 20:13 - 20:16
    CA: David Eagleman, det var
    ett otroligt föredrag. Tack så mycket.
  • 20:16 - 20:19
    DE: Tack Chris. (Applåder)
Title:
Kan vi skapa nya mänskliga sinnen?
Speaker:
David Eagleman
Description:

Vi människor upplever mindre än en tiondels biljondel av alla ljusvågor. “Vår upplevelse av verkligheten är begränsad av vår biologi” säger hjärnforskaren David Eagleman. Han vill förändra det. Hans forskning om våra hjärnprocesser har fått honom att skapa nya gränssnitt - till exempel en känselväst - för att kunna ta in information från omvärlden som förut inte har kunnat upplevas.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
20:34

Swedish subtitles

Revisions