Return to Video

John Wilbanks: Să reunim datele noastre medicale.

  • 0:00 - 0:03
    Am veşti rele, am veşti bune,
  • 0:03 - 0:05
    şi am o misiune.
  • 0:05 - 0:08
    Vestea rea este că toţi ne îmbolnăvim.
  • 0:08 - 0:10
    Eu mă îmbolnăvesc, voi vă îmbolnăviţi.
  • 0:10 - 0:13
    Fiecare dintre noi se îmbolnăveşte, iar întrebarea este
  • 0:13 - 0:16
    cât de tare ne îmbolnăvim? Este ceva ce ne poate omorî?
  • 0:16 - 0:17
    Este ceva peste care putem trece?
  • 0:17 - 0:19
    Este ceva ce putem trata?
  • 0:19 - 0:22
    Ne îmbolnăvim de când ne ştim.
  • 0:22 - 0:26
    Aşa că am căutat întotdeauna să explicăm de ce ne îmbolnăvim.
  • 0:26 - 0:28
    Multă vreme a fost decizia zeilor, corect?
  • 0:28 - 0:31
    Zeii sunt supăraţi pe mine sau zeii mă testează.
  • 0:31 - 0:33
    Sau Dumnezeu, la singular, mai recent,
  • 0:33 - 0:36
    mă pedepseşte sau mă judecă.
  • 0:36 - 0:39
    Căutând continuu explicaţii,
  • 0:39 - 0:42
    ne-am apropiat din ce în ce mai mult de ştiinţă,
  • 0:42 - 0:45
    adică ipotezele cauzelor pentru care ne îmbolnăvim,
  • 0:45 - 0:49
    iar cu ipotezele privind cauzele, am încercat să le şi tratăm.
  • 0:49 - 0:54
    Acesta e Avicenna. A scris o carte acum 1000 de ani, "Canonul Medicinei",
  • 0:54 - 0:56
    şi regulile pe care le-a expus cu privire la testarea medicamentelor
  • 0:56 - 0:58
    sunt foarte similare cu cele pe care le avem astăzi.
  • 0:58 - 1:01
    Anume că boala şi medicamentul trebuie să fie la fel de puternice,
  • 1:01 - 1:03
    medicamentele trebuie să fie pure, şi la sfărşit trebuie să le
  • 1:03 - 1:06
    testăm pe oameni. Dacă punem împreună aceste teme
  • 1:06 - 1:11
    ale unei povestiri sau ipoteze despre testarea umană,
  • 1:11 - 1:13
    obținem rezultate frumoase,
  • 1:13 - 1:15
    chiar şi atunci când nu aveam o tehnologie dezvoltată.
  • 1:15 - 1:18
    Acesta e un bărbat pe nume Carlos Finlaz.
    Avea o ipoteză
  • 1:18 - 1:21
    prea îndrăzneaţă pentru vremea sa, în anii 1800.
  • 1:21 - 1:24
    Presupunea că febra galbenă nu se transmitea
  • 1:24 - 1:26
    prin hainele murdare, ci prin ţânţari.
  • 1:26 - 1:28
    Au râs de el. Timp de 20 de ani, l-au numit "omul ţânţar".
  • 1:28 - 1:32
    Dar el a făcut un experiment pe oameni.
  • 1:32 - 1:35
    Avea această ipoteză și a testat-o pe oameni.
  • 1:35 - 1:40
    A adus voluntari care s-au mutat în Cuba, au trăit în corturi
  • 1:40 - 1:43
    şi au fost, în cunoștință de cauză, infestaţi cu febră galbenă.
  • 1:43 - 1:46
    Unii dintre cei din corturi aveau haine murdare
  • 1:46 - 1:47
    iar alţii erau în corturi care erau pline
  • 1:47 - 1:49
    de ţânţari care fuseseră expuşi la febră galbenă.
  • 1:49 - 1:53
    S-a demonstrat definitiv că nu era praful magic
  • 1:53 - 1:56
    din hainele oamenilor, care cauza febra galbenă.
  • 1:56 - 1:59
    Dar n-am ştiut decât atunci când am testat pe oameni.
  • 1:59 - 2:01
    Şi pentru asta s-au înscris acei oameni.
  • 2:01 - 2:04
    Asta însemna să ai febră galbenă în Cuba la vremea aceea.
  • 2:04 - 2:09
    Sufereai într-un cort, în căldură, singur,
  • 2:09 - 2:12
    şi cel mai probabil mureai.
  • 2:12 - 2:15
    Dar oamenii s-au oferit voluntari pentru asta.
  • 2:15 - 2:18
    Nu e un exemplu rece de model ştiinţific experimental.
  • 2:18 - 2:21
    Ei au făcut de asemenea acest lucru frumos.
  • 2:21 - 2:25
    Au semnat acest document numit
    act de consimţire în cunoştinţă de cauză.
  • 2:25 - 2:27
    Un document de consimțire e o idee pentru care
  • 2:27 - 2:30
    ar trebui să fim mândri de noi ca societate.
  • 2:30 - 2:32
    Ne separă de naziştii de la Nuremberg,
  • 2:32 - 2:35
    care făceau experimente forțate. E ideea
  • 2:35 - 2:39
    că acordul de alăturare într-un studiu fără a-l înţelege nu e un acord.
  • 2:39 - 2:43
    Ne protejează de răutate, de vânzători ambulanţi,
  • 2:43 - 2:46
    de cei ce ar încerca să ne atragă într-un studiu clinic
  • 2:46 - 2:50
    pe care nu-l înţelegem sau cu care nu suntem de acord.
  • 2:50 - 2:54
    Astfel alăturăm firul ipotezei narative,
  • 2:54 - 2:57
    testarea pe oameni şi actul de consimţire
  • 2:57 - 2:59
    şi obţinem ce numim studiu clinic, modalitatea prin care realizăm
  • 2:59 - 3:02
    majoritatea lucrărilor medicale. Nu contează
  • 3:02 - 3:05
    dacă sunteţi în nord, sud, est, vest.
  • 3:05 - 3:09
    Studiile clinice constituie baza modalităţii de investigare
  • 3:09 - 3:11
    considerând un nou medicament,
  • 3:11 - 3:14
    îl testăm pe oameni, luăm sânge, facem experimente,
  • 3:14 - 3:16
    şi obţinem consimţământul pentru studiu
  • 3:16 - 3:19
    să fim siguri că nu ne batem joc de participanți.
  • 3:19 - 3:22
    Dar lumea se schimbă în ce priveşte studiul clinic,
  • 3:22 - 3:26
    destul de bine stabilit de zeci de ani,
  • 3:26 - 3:28
    poate 50 sau 100 de ani.
  • 3:28 - 3:31
    Acum putem aduna date despre genomii noştri,
  • 3:31 - 3:34
    dar, am văzut, genomii noştri nu sunt dispozabili.
  • 3:34 - 3:36
    Putem aduna informaţii despre mediul nostru.
  • 3:36 - 3:38
    Chiar mai important, putem aduna informaţii
  • 3:38 - 3:41
    despre deciziile noastre, se pare că sănătatea noastră
  • 3:41 - 3:44
    depinde mai mult de interacţiunea corpurilor noastre,
  • 3:44 - 3:47
    a genomilor noştri, prin alegerile noastre cu mediul înconjurător.
  • 3:47 - 3:50
    Metodele clinice pe care le avem nu sunt foarte bune
  • 3:50 - 3:53
    pentru a studia asta pentru că sunt bazate pe ideea
  • 3:53 - 3:55
    interacţiunii personale. Interacţionezi cu
  • 3:55 - 3:57
    medicul tău şi eşti înscris în studiu.
  • 3:57 - 3:59
    Aceasta e bunicul meu. Nu l-am întâlnit niciodată,
  • 3:59 - 4:03
    dar el o ţine pe mama mea; genele sale sunt în mine, corect?
  • 4:03 - 4:06
    Alegerile sale trec prin mine. Era fumător,
  • 4:06 - 4:09
    ca majoritatea oamenilor. Acesta e fiul meu.
  • 4:09 - 4:12
    Deci genele bunicului meu ajung până la el,
  • 4:12 - 4:15
    şi alegerile mele vor afecta sănătatea lui.
  • 4:15 - 4:17
    Tehnologia dintre aceste două fotografii
  • 4:17 - 4:21
    nu poate fi mai diferită decât este, dar metodologia
  • 4:21 - 4:25
    pentru studiile clinice nu s-a schimbat radical de-a lungul timpului.
  • 4:25 - 4:28
    Avem doar statistici mai bune.
  • 4:28 - 4:31
    Modul în care obţinem actul de consimţire a fost format în mare parte
  • 4:31 - 4:34
    după al Doilea Război Mondial, pe timpul când a fost făcută această poză.
  • 4:34 - 4:38
    Asta a fost acum 70 de ani, şi modul în care obţinem actul de consimţire în cunoştinţă de cauză,
  • 4:38 - 4:41
    acest instrument care a fost creat pentru a ne proteja de rău,
  • 4:41 - 4:44
    acum creează mentalitatea „silo". Datele pe care le colectăm
  • 4:44 - 4:47
    pentru cancerul de prostată sau pentru experimente de Alzheimer
  • 4:47 - 4:50
    ajung în cercuri închise unde pot fi folosite doar
  • 4:50 - 4:53
    pentru cancerul de prostată sau pentru cercetarea bolii Alzheimer.
  • 4:53 - 4:56
    În regulă? Nu pot fi transmise. Nu pot fi integrate.
  • 4:56 - 4:59
    Nu pot fi folosite decât de cei creditați.
  • 4:59 - 5:02
    Un fizician nu le poate accesa fără completarea unor documente.
  • 5:02 - 5:05
    Un informatician nu le poate accesa fără a completa documente.
  • 5:05 - 5:10
    Informaticienii nu sunt răbdători. Nu completează hârtii.
  • 5:10 - 5:14
    Acesta e un accident. Sunt unelte pe care le-am creat
  • 5:14 - 5:17
    pentru a ne proteja de rău, dar acum
  • 5:17 - 5:19
    ne protejează de inovaţie.
  • 5:19 - 5:23
    Nu acesta le era rostul. Nu acesta era scopul.
  • 5:23 - 5:25
    E un efect advers al unei puteri pe care am creat-o
  • 5:25 - 5:28
    cu bună intenție.
  • 5:28 - 5:31
    Cel mai deprimant este că
  • 5:31 - 5:33
    Facebook n-ar face niciodată o schimbare
  • 5:33 - 5:36
    atât de importantă ca un algoritm de publicitate
  • 5:36 - 5:40
    în care eşantionul a așa mic cum e cel din studiile clinice faza III.
  • 5:40 - 5:44
    Nu putem aduna informaţiile studiilor trecute
  • 5:44 - 5:48
    pentru a forma eşantioane semnificative dpdv statistic.
  • 5:48 - 5:51
    Şi asta e aiurea. 45 % din bărbaţi dezvoltă cancer.
  • 5:51 - 5:54
    38 % din femei dezvoltă cancer.
  • 5:54 - 5:57
    Unul din patru bărbaţi moare de cancer.
  • 5:57 - 6:00
    Una din cinci femei moare de cancer, cel puţin în Statele Unite.
  • 6:00 - 6:02
    Şi trei din patru medicamente oferite
  • 6:02 - 6:06
    dacă aveţi cancer eşuează.
    E un aspect personal pentru mine.
  • 6:06 - 6:08
    Sora mea a supraviețuit cancerului.
  • 6:08 - 6:12
    Soacra mea a supraviețuit cancerului. Cancerul e groaznic!
  • 6:12 - 6:14
    Iar când îl ai, nu dispui de multă intimitate în spital.
  • 6:14 - 6:17
    Eşti dezbrăcat marea majoritate a timpului.
  • 6:17 - 6:21
    Oameni pe care nu-i cunoşti intră în cameră,
    se uită la tine, te împung, te înţeapă.
  • 6:21 - 6:24
    Și când spun supravieţuitorilor de cancer că această unealtă pe care am creat-o
  • 6:24 - 6:27
    pentru a-i proteja, de fapt împiedică folosirea datele lor,
  • 6:27 - 6:29
    mai ales când doar 3-4% din cei cu cancer
  • 6:29 - 6:32
    se înscriu pentru un studiu clinic,
  • 6:32 - 6:36
    reacţia lor nu e "Mulţumesc că-mi protejezi intimitatea."
  • 6:36 - 6:39
    Reacția e de revoltă
  • 6:39 - 6:41
    că avem informaţii şi nu le putem folosi.
  • 6:41 - 6:43
    Și este un accident.
  • 6:43 - 6:46
    Preţul, în bani și vieți, este enorm.
  • 6:46 - 6:50
    226 de miliarde se cheltuiesc anual pe cancer în Statele Unite.
  • 6:50 - 6:53
    1500 de oameni mor pe zi în Statele Unite.
  • 6:53 - 6:56
    Şi situaţia se înrăutăţeşte.
  • 6:56 - 6:59
    Deci, vestea bună e că unele lucruri au fost modificate,
  • 6:59 - 7:00
    şi cel mai important lucru care s-a schimbat
  • 7:00 - 7:03
    este că ne putem face unele măsurători noi înșine
  • 7:03 - 7:06
    care obişnuiau să fie exclusive sistemului de sănătate.
  • 7:06 - 7:08
    Mulţi se referă la acest aspect ca la o epuizare digitală.
  • 7:08 - 7:11
    Îmi place s-o asemăn cu praful de pe lângă copilul meu.
  • 7:11 - 7:13
    Ne putem apleca şi analiza acest praf
  • 7:13 - 7:16
    şi putem învăţa multe despre sănătate de la el,
    aşa că dacă alegerile noastre
  • 7:16 - 7:18
    sunt o parte a sănătăţii noastre, ce mâncăm e un aspect
  • 7:18 - 7:21
    important al sănătăţii noastre. Puteţi face ceva simplu
  • 7:21 - 7:23
    şi elementar, anume să pozaţi mâncarea voastră,
  • 7:23 - 7:26
    şi dacă destui oameni fac asta, putem învăţa multe despre
  • 7:26 - 7:27
    felul în care mâncarea ne afectează sănătatea.
  • 7:27 - 7:32
    Un lucru interesant a reieșit, o aplicaţie pentru iPhone numită The Eatery --
  • 7:32 - 7:34
    credem că pizza noastră e mult mai sănătoasă
  • 7:34 - 7:38
    decât a altora. (Răsete)
  • 7:38 - 7:41
    Pare un rezultat neînsemnat, însă acesta e tipul de cercetare
  • 7:41 - 7:44
    care în trecut costa sistemul de sănătate ani
  • 7:44 - 7:46
    şi sute şi mii de dolari pentru a-l duce la capăt.
  • 7:46 - 7:50
    A fost realizat în cinci luni de o companie recent înfiinţată de câţiva oameni.
  • 7:50 - 7:52
    Nu am nici un interes financiar în ea.
  • 7:52 - 7:55
    Dar mai important, ne putem secvenția propriul genotip,
  • 7:55 - 7:58
    şi, deşi nu e dispozabil, ne dă indicii.
  • 7:58 - 8:01
    Vi-l pot arăta pe al meu. Sunt doar A, T, C şi G.
  • 8:01 - 8:03
    Asta e interpretarea lor. După cum vedeți,
  • 8:03 - 8:05
    am un risc de 32% pentru cancer de prostată,
  • 8:05 - 8:10
    22% risc pentru psoriazis şi 14% risc pentru Alzheimer.
  • 8:10 - 8:12
    Asta înseamnă, dacă eşti genetician, că o vei lua razna.
  • 8:12 - 8:16
    Vei spune "Vai, ai spus tuturor că ai gena ApoE E4.
    Ești nebun?"
  • 8:16 - 8:20
    Când am primit rezultatele, am început să consult doctori,
  • 8:20 - 8:22
    iar ei mi-au spus să nu spun nimănui, iar reacţia mea a fost:
  • 8:22 - 8:26
    "Asta va ajuta pe cineva să mă vindece când o să am boala?"
  • 8:26 - 8:29
    Şi nimeni nu putea să-mi spună da.
  • 8:29 - 8:31
    Trăiesc într-o reţea mondială, în care dacă împărtăşeşti lucruri,
  • 8:31 - 8:34
    se întamplă lucruri plăcute, nu neplăcute.
  • 8:34 - 8:36
    Aşa că am început să adun aceste date,
  • 8:36 - 8:39
    am devenit și mai îndrăzneț, am fost la medicul meu
  • 8:39 - 8:41
    şi i-am spus: "Vă rog daţi-mi analizele mele de sânge.
  • 8:41 - 8:43
    Vă rog, înapoiaţi-mi datele." Asta e analiza mea de sânge cea mai recentă.
  • 8:43 - 8:46
    După cum vedeți, am colesterol mare.
  • 8:46 - 8:48
    Am colesterolul dăunător ridicat,
  • 8:48 - 8:51
    am rezultate proaste ale ficatului,
    dar asta pentru că avusesem o petrecere cu mult vin
  • 8:51 - 8:54
    în seara dinaintea testului. (Râsete)
  • 8:54 - 8:59
    Dar uitaţi-vă cât de necalculabilă e această informaţie.
  • 8:59 - 9:02
    E ca fotografia bunicului meu cu mama mea în braţe
  • 9:02 - 9:05
    din punctul de vedere al datelor, iar eu a trebuit să intru în sistem
  • 9:05 - 9:07
    şi să le scot.
  • 9:07 - 9:11
    Aşa că ceea ce propun să facem
  • 9:11 - 9:13
    e să apucăm praful din urma noastră,
  • 9:13 - 9:16
    să analizăm genotipurile din corpurile noastre,
  • 9:16 - 9:19
    să obținem datele noastre din sistemul medical
  • 9:19 - 9:22
    şi să le folosim să construim ceva împreună, un patrimoniu comun.
  • 9:22 - 9:25
    S-a vorbit mult despre patrimoniul comun.
  • 9:25 - 9:28
    Un patrimoniu comun nu e nimic altceva decât
  • 9:28 - 9:31
    un bun public pe care-l construim din bunurile private.
  • 9:31 - 9:34
    Facem asta voluntar şi prin intermediul unor mijloace
  • 9:34 - 9:37
    standardizate legale.O facem prin intermediul unor tehnologii standardizate.
  • 9:37 - 9:40
    Un patrimoniu comun nu e nimic altceva. E ceva ce construim
  • 9:40 - 9:42
    împreună pentru că îl considerăm important.
  • 9:42 - 9:45
    Iar datele unui patrimoniu comun sunt ceva unic,
  • 9:45 - 9:48
    pentru că le facem pornind de la propriile noastre date. Şi chiar dacă
  • 9:48 - 9:50
    multora le place intimitatea ca modalitate de control
  • 9:50 - 9:53
    asupra datelor, şi sunt obsedaţi de intimitate, cel puţin
  • 9:53 - 9:56
    unii favorizăm împărtășirea ca formă de control.
  • 9:56 - 9:58
    Remarcabil la patrimoniile comune digitale
  • 9:58 - 10:01
    e că n-ai nevoie de un procentaj mare dacă mărimea eşantionului tău e suficientă
  • 10:01 - 10:04
    să creeze ceva masiv şi frumos.
  • 10:04 - 10:07
    Nu mulţi programatori scriu software gratis,
  • 10:07 - 10:09
    dar avem serverul Apache.
  • 10:09 - 10:12
    Nu mulţi oameni care citesc Wikipedia o şi editează,
  • 10:12 - 10:16
    dar funcţioneză. Atâta timp cât unora le place să împartă
  • 10:16 - 10:19
    ca formă de control, putem construi un patrimoniu comun, dacă putem extrage informațiile.
  • 10:19 - 10:22
    În biologie, cifrele sunt şi mai bune.
  • 10:22 - 10:24
    Vanderbilt a făcut un studiu întrebând oamenii dacă le poate
  • 10:24 - 10:28
    expune mostrele biologice, sângele, într-o bio-bancă.
  • 10:28 - 10:30
    Doar 5% din oameni au refuzat.
  • 10:30 - 10:33
    Sunt din Tennessee. Nu-i un stat prea susţinător al sţiinţei
  • 10:33 - 10:36
    în Statele Unite. (Râsete)
  • 10:36 - 10:38
    Totuși, doar 5% din oameni au refuzat.
  • 10:38 - 10:42
    Oamenilor le place să împartă, dacă le dai ocazia şi şansa.
  • 10:42 - 10:47
    Motivul pentru care am devenit obsedat de acest lucru,
    pe lângă aspectele familiale evidente,
  • 10:47 - 10:50
    este că petrec mult timp în jurul matematicienilor.
  • 10:50 - 10:53
    Matematicienii sunt atraşi de locurile cu multe date
  • 10:53 - 10:56
    pentru că le folosesc să scoată un semnal din orice lucru.
  • 10:56 - 10:59
    Aceste corelaţii pe care ei le obţin nu sunt
  • 10:59 - 11:03
    obligatoriu agentul cauzal al unui eveniment,
    dar matematica, în această epocă,
  • 11:03 - 11:05
    e ca un set gigant de unelte puternice
  • 11:05 - 11:09
    pe care le lăsăm nefolosite, neconectate la sănătate,
  • 11:09 - 11:11
    în timp ce folosim ferăstraie manuale.
  • 11:11 - 11:16
    Dacă avem multe genotipuri împărtăşite, multe rezultate
  • 11:16 - 11:19
    comune, multe alegeri de viaţă comune,
  • 11:19 - 11:21
    multe informaţii comune despre mediul înconjurător, putem începe
  • 11:21 - 11:24
    să găsim relaţiile dintre variaţiile subtile
  • 11:24 - 11:30
    dintre oameni, alegerile pe care le fac şi sănătatea pe care şi-o creează în consecință.
  • 11:30 - 11:32
    Există o infrastructură deschisă pentru asta.
  • 11:32 - 11:35
    Sage Bionetworks este o organizaţie non-profit care a construit un uriaş sistem matematic
  • 11:35 - 11:40
    ce aşteaptă date, care însă nu sunt nicăieri.
  • 11:40 - 11:44
    Asta e, deci, ceea ce fac eu. Am început ceva ce credem
  • 11:44 - 11:48
    că e primul sistem complet digital,
  • 11:48 - 11:53
    nelimitat în domeniul de aplicare, global în participare, etic aprobat,
  • 11:53 - 11:56
    un studiu de cercetare clinică în care contribuiţi datele.
  • 11:56 - 11:59
    Aşa că dacă apuci praful din spatele tău,
  • 11:59 - 12:01
    iei genomul din corpul tău,
  • 12:01 - 12:04
    dacă pătrunzi în sistemul medical şi reuşeşti să extragi datele tale medicale,
  • 12:04 - 12:08
    poţi să treci printr-un proces de consimţire online --
  • 12:08 - 12:10
    pentru că donarea pentru patrimoniu trebuie să fie voluntară
  • 12:10 - 12:13
    şi în cunoştinţă de cauză -- şi poţi efectiv să încarci
  • 12:13 - 12:16
    informaţia şi poţi s-o transmiţi către
  • 12:16 - 12:19
    matematicienii care vor efectua căutări de date
  • 12:19 - 12:21
    iar scopul e să se obţină 100.00 în primul an
  • 12:21 - 12:24
    şi un milion în primii cinci ani astfel încât să avem
  • 12:24 - 12:28
    suficient de multe informaţii pe care să le poţi folosi pentru a lua
  • 12:28 - 12:30
    mostre mici din studiile tradiţionale
  • 12:30 - 12:32
    pe care să le confrunţi,
  • 12:32 - 12:35
    ca să descoperi corelațiile subtile
  • 12:35 - 12:37
    dintre variaţiile care ne fac unici
  • 12:37 - 12:41
    şi genul de sănătate necesar pentru a ne dezvolta ca societate.
  • 12:41 - 12:44
    Mi-am petrecut mult timp în jurul altor patrimonii.
  • 12:44 - 12:47
    Am văzut începutul internetului,
  • 12:47 - 12:49
    primele patrimonii comune creative ale lumii şi există patru lucruri
  • 12:49 - 12:53
    pe care toate astea le împărtăşesc,
    anume că sunt toate foarte simple.
  • 12:53 - 12:56
    Dacă mergeți pe website şi să vă înscrieţi în acest studiu,
  • 12:56 - 12:58
    nu veţi vedea ceva complicat.
  • 12:58 - 13:03
    Dar nu e simplist. Aceste lucruri sunt slabe în mod intenţionat,
  • 13:03 - 13:06
    pentru că puteți adăuga putere şi control unui sistem,
  • 13:06 - 13:10
    dar e dificil de-a le elimina dacă sunt puse de la început,
  • 13:10 - 13:12
    deci, simplu nu înseamnă simplist,
  • 13:12 - 13:15
    iar slab nu înseamnă slăbiciune.
  • 13:15 - 13:17
    Acela sunt punctele forte în sistem.
  • 13:17 - 13:20
    Şi deschis nu înseamnă că nu sunt bani.
  • 13:20 - 13:23
    Sistemele închise, corporaţiile, fac o mulţime de bani
  • 13:23 - 13:26
    pe paginile de web publice, ăsta-i unul dintre motivele pentru care internetul public trăieşte,
  • 13:26 - 13:29
    anume că aceste corporaţii au un interes
  • 13:29 - 13:31
    în deschiderea sistemului.
  • 13:31 - 13:35
    Astfel toate astea fac parte din studiul clinic pe care l-am creat,
  • 13:35 - 13:39
    și puteţi face parte din el; trebuie doar să aveţi 14 ani
  • 13:39 - 13:41
    să fiţi dispuşi să semnaţi un contract care vă ce ere să fuți serioși,
  • 13:41 - 13:43
    şi practic eşti înscris.
  • 13:43 - 13:45
    Poţi începe analizarea datelor.
  • 13:45 - 13:49
    Trebuie să rezolvi şi o CAPTCHA de asemenea. (Râsete)
  • 13:49 - 13:53
    Şi, dacă doriţi pe deasupra să construiţi structuri corporative
  • 13:53 - 13:56
    e în regulă. Totul e specificat în acord,
  • 13:56 - 13:58
    dacă nu vă plac termenii, nu vă înregistraţi.
  • 13:58 - 14:01
    Sunt principiile de design ale unui patrimoniu comun
  • 14:01 - 14:04
    după care organizăm informaţiile din sănătate.
  • 14:04 - 14:07
    Un alt aspect la aceste sisteme e acela că nu-i nevoie decât
  • 14:07 - 14:10
    de un număr mic de oameni care lucrează împreună
  • 14:10 - 14:13
    pentru a le crea. Nu a fost nevoie de atât de mulţi oameni
  • 14:13 - 14:17
    pentru a face Wikipedia sau pentru a o păstra.
  • 14:17 - 14:19
    Şi trebuie să fim rezonabili în legătură cu sănătatea
  • 14:19 - 14:21
    şi urăsc mult cuvântul "pacient" (răbdător).
  • 14:21 - 14:24
    Nu-mi place să fiu răbdător când sistemele sunt defecte,
  • 14:24 - 14:27
    şi sistemul sanitar e defectuos.
  • 14:27 - 14:31
    Nu vorbesc despre politicile sănătăţii,
    ci despre cum abordăm ştiinţific sistemul sanitar.
  • 14:31 - 14:34
    Aşa că nu vreau să fiu răbdător.
    Şi sarcina pe care v-o încredinţez
  • 14:34 - 14:37
    e să nu fiţi răbdători. Mi-ar plăcea să încercaţi cu adevărat,
  • 14:37 - 14:40
    când ajungeţi acasă, să vă obţineţi datele.
  • 14:40 - 14:43
    Veţi fi şocaţi şi jigniţi şi, pun pariu, scandalizaţi,
  • 14:43 - 14:46
    de cât de greu e să le obţii.
  • 14:46 - 14:48
    Dar e o provocare pe care sper că o veţi accepta,
  • 14:48 - 14:51
    și poate chiar împărtăşi. Sau poate nu.
  • 14:51 - 14:52
    Dacă nu aveţi pe cineva în familie care e bolnav,
  • 14:52 - 14:55
    poate nu veţi fi nerezonabili. Dar în caz contrar,
  • 14:55 - 14:57
    sau dacă aţi fost bolnavi, poate veţi fi.
  • 14:57 - 15:01
    Şi vom putea face un experiment în următoarele luni
  • 15:01 - 15:04
    care ne va spune exact câţi oameni rezonabili există.
  • 15:04 - 15:06
    Asta e reţeaua Athena Breast Health, un studiu
  • 15:06 - 15:10
    pe 150.000 de femei din California.
  • 15:10 - 15:12
    Vor returna toate datele participantelor la studiu
  • 15:12 - 15:15
    într-o formă digitală, cu posibilitatea de a o încărca în
  • 15:15 - 15:18
    studiul pe care l-am început. Aşa că vom şti exact
  • 15:18 - 15:20
    câţi oameni doresc să fie nerezonabili.
  • 15:20 - 15:23
    Aşa că, voi încheia cu cel mai frumos
  • 15:23 - 15:26
    lucrul pe care l-am învăţat de când am renunţat la slujba mea,
  • 15:26 - 15:29
    acum un an, anume că în realitate nu-i nevoie
  • 15:29 - 15:33
    de mulţi pentru a ajunge la rezultate spectaculoase.
  • 15:33 - 15:36
    Trebuie să fim dispuşi doar să nu fim rezonabili
  • 15:36 - 15:38
    şi riscul nu e acelaşi pe care l-au avut acei 14 oameni
  • 15:38 - 15:40
    contagiaţi de febră galbenă. Corect?
  • 15:40 - 15:43
    E riscul de a fi gol, digital, în public. Știţi mai multe
  • 15:43 - 15:46
    despre mine şi sănătatea mea decât ştiu eu despre voi.
    E asimetric acum.
  • 15:46 - 15:50
    Să fii dezbrăcat şi singur poate fi terifiant.
  • 15:50 - 15:55
    Dar să fii dezgolit într-un grup, voluntar, poate fi destul de frumos.
  • 15:55 - 15:56
    Deci nu e nevoie de toţi.
  • 15:56 - 15:59
    E nevoie doar de câţiva dintre noi. Mulţumesc.
  • 15:59 - 16:05
    (Aplauze)
Title:
John Wilbanks: Să reunim datele noastre medicale.
Speaker:
John Wilbanks
Description:

Atunci când beneficiaţi de tratament medical sau luaţi parte la un studiu medical, intimitatea este importantă; legi stricte limitează ceea ce cercetătorii pot vedea şi şti despre dumnevoastră. Dar dacă datele dumneavoastră medicale ar putea fi folosite anonim de oricine care încearcă să testeze o ipoteză? John Wilbanks se întreabă dacă dorinţa de a ne proteja intimitatea îngreunează cercetările şi dacă datele medicale ar fi făcute publice ar putea să ducă la o inovaţie în domeniul medical.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:25
Ariana Bleau Lugo approved Romanian subtitles for Let's pool our medical data
Ariana Bleau Lugo accepted Romanian subtitles for Let's pool our medical data
Ariana Bleau Lugo edited Romanian subtitles for Let's pool our medical data
Ariana Bleau Lugo edited Romanian subtitles for Let's pool our medical data
Ariana Bleau Lugo edited Romanian subtitles for Let's pool our medical data
Ariana Bleau Lugo edited Romanian subtitles for Let's pool our medical data
Ariana Bleau Lugo edited Romanian subtitles for Let's pool our medical data
Ariana Bleau Lugo edited Romanian subtitles for Let's pool our medical data
Show all

Romanian subtitles

Revisions