1 00:00:00,000 --> 00:00:02,000 Tehát a biztonság két különböző dolog: 2 00:00:02,000 --> 00:00:04,000 egy érzés és egy valóság. 3 00:00:04,000 --> 00:00:06,000 És ezek különböznek. 4 00:00:06,000 --> 00:00:08,000 Érezheted magad biztonságban 5 00:00:08,000 --> 00:00:10,000 még akkor is ha nem vagy. 6 00:00:10,000 --> 00:00:12,000 És lehetsz biztonságban 7 00:00:12,000 --> 00:00:14,000 még akkor is, ha nem érzed. 8 00:00:14,000 --> 00:00:16,000 Tényleg, két külön fogalmunk van 9 00:00:16,000 --> 00:00:18,000 ugyanarra az egy szóra. 10 00:00:18,000 --> 00:00:20,000 És ebben a beszédemben 11 00:00:20,000 --> 00:00:22,000 szét akarom választani őket -- 12 00:00:22,000 --> 00:00:24,000 megfejtve mikor válnak szét 13 00:00:24,000 --> 00:00:26,000 és hogyan közelítenek. 14 00:00:26,000 --> 00:00:28,000 És itt a nyelv az igazi probléma. 15 00:00:28,000 --> 00:00:30,000 Nincs igazán sok jó szó 16 00:00:30,000 --> 00:00:33,000 a fogalmakra amikről beszélni fogunk. 17 00:00:33,000 --> 00:00:35,000 Tehát, ha a biztonságot 18 00:00:35,000 --> 00:00:37,000 a gazdasági oldaláról nézed, 19 00:00:37,000 --> 00:00:39,000 az egy kompromisszum. 20 00:00:39,000 --> 00:00:41,000 Valahányszor némi biztonságot kapsz, 21 00:00:41,000 --> 00:00:43,000 mindig adsz cserébe valamit. 22 00:00:43,000 --> 00:00:45,000 Lehet ez egy személyes döntés -- 23 00:00:45,000 --> 00:00:47,000 felszerelsz-e biztonsági riasztót otthonodba -- 24 00:00:47,000 --> 00:00:50,000 vagy egy nemzeti döntés -- mikor megszállsz egy idegen országot -- 25 00:00:50,000 --> 00:00:52,000 mindig lemondasz cserébe valamiről, 26 00:00:52,000 --> 00:00:55,000 pénzről vagy időröl, kényelemről, képességekről, 27 00:00:55,000 --> 00:00:58,000 talán alapvető szabadságokról. 28 00:00:58,000 --> 00:01:01,000 És amikor bármilyen biztonságot vizsgálsz, a kérdés 29 00:01:01,000 --> 00:01:04,000 nem az, hogy ettől nagyobb biztonságban leszünk-e, 30 00:01:04,000 --> 00:01:07,000 hanem, hogy megéri-e a kompromisszumot. 31 00:01:07,000 --> 00:01:09,000 Hallották az elmúlt pár évben, hogy 32 00:01:09,000 --> 00:01:11,000 a világ biztonságossabb mert Szaddam Husszein nincs hatalmon. 33 00:01:11,000 --> 00:01:14,000 Ez lehet akár igaz is, de nem igazán lényeges. 34 00:01:14,000 --> 00:01:17,000 A kérdés az, hogy megérte-e? 35 00:01:17,000 --> 00:01:20,000 És meghozhatod a saját döntésedet, 36 00:01:20,000 --> 00:01:22,000 és majd eldöntheted, hogy a megszállás megérte-e. 37 00:01:22,000 --> 00:01:24,000 Így kell gondolni a biztonságra -- 38 00:01:24,000 --> 00:01:26,000 a kompromisszum körülményeitől függően. 39 00:01:26,000 --> 00:01:29,000 Sokszor nincs helyes vagy helytelen döntés. 40 00:01:29,000 --> 00:01:31,000 Van akinek van otthon betörés elleni riasztója, 41 00:01:31,000 --> 00:01:33,000 és van akinek nincs. 42 00:01:33,000 --> 00:01:35,000 Ez attól függ hol lakunk, 43 00:01:35,000 --> 00:01:37,000 egyedül vagy családdal, 44 00:01:37,000 --> 00:01:39,000 mennyi értékes dolgunk van, 45 00:01:39,000 --> 00:01:41,000 mennyire vagyunk hajlandók elfogadni 46 00:01:41,000 --> 00:01:43,000 a lopás rizikóját. 47 00:01:43,000 --> 00:01:45,000 A politikában szintén 48 00:01:45,000 --> 00:01:47,000 vannak különböző vélemények. 49 00:01:47,000 --> 00:01:49,000 Ezek a kompromisszumok sokszor 50 00:01:49,000 --> 00:01:51,000 nem csak a biztonságról szólnak, 51 00:01:51,000 --> 00:01:53,000 és én azt gondolom, hogy ez igazán fontos. 52 00:01:53,000 --> 00:01:55,000 Az embereknek van egy ösztönös megérzésük 53 00:01:55,000 --> 00:01:57,000 ezekről a kompromisszumokról. 54 00:01:57,000 --> 00:01:59,000 Minden nap teszünk ilyeneket -- 55 00:01:59,000 --> 00:02:01,000 múlt éjjel a hotel szobámban, 56 00:02:01,000 --> 00:02:03,000 amikor eldöntöttem, hogy kettőre zárom az ajtót, 57 00:02:03,000 --> 00:02:05,000 vagy önök az autójukban, miközben ide vezettek, 58 00:02:05,000 --> 00:02:07,000 amikor ebédelni megyünk 59 00:02:07,000 --> 00:02:10,000 és eldöntjük, hogy a étel nem méreg és megesszük. 60 00:02:10,000 --> 00:02:12,000 Megtesszük ezeket a kompromisszumokat 61 00:02:12,000 --> 00:02:14,000 újra és újra, naponta többször. 62 00:02:14,000 --> 00:02:16,000 Sokszor észre se vesszük őket. 63 00:02:16,000 --> 00:02:18,000 Egyszerű részei az életnek; mind megtesszük. 64 00:02:18,000 --> 00:02:21,000 Mnden faj megteszi. 65 00:02:21,000 --> 00:02:23,000 Képzeljenek el egy nyulat, legel, 66 00:02:23,000 --> 00:02:26,000 és meglát egy rókát. 67 00:02:26,000 --> 00:02:28,000 A nyúl egy biztonsági döntést fog hozni: 68 00:02:28,000 --> 00:02:30,000 "Maradjak vagy fussak el?" 69 00:02:30,000 --> 00:02:32,000 És ha belegondolnak, 70 00:02:32,000 --> 00:02:35,000 a jó döntést hozó nyulak 71 00:02:35,000 --> 00:02:37,000 inkább maradnak életben és szaporodnak, 72 00:02:37,000 --> 00:02:39,000 míg a rossz döntést hozó nyulakat 73 00:02:39,000 --> 00:02:41,000 megeszik vagy éhen halnak. 74 00:02:41,000 --> 00:02:43,000 Tehát azt gondolnánk, hogy mi, 75 00:02:43,000 --> 00:02:46,000 mint a legsikeresebb faj a bolygón -- 76 00:02:46,000 --> 00:02:48,000 ön, én, mindannyian -- 77 00:02:48,000 --> 00:02:51,000 igazán jók lennénk ezekben a kompromisszumokban. 78 00:02:51,000 --> 00:02:53,000 És mégis úgy tünik, újra és újra, 79 00:02:53,000 --> 00:02:56,000 hogy menthetetlenül rosszak vagyunk. 80 00:02:56,000 --> 00:02:59,000 És én azt gondolom, hogy ez egy alapvetően érdekes kérdés. 81 00:02:59,000 --> 00:03:01,000 Megadom a rövid választ. 82 00:03:01,000 --> 00:03:03,000 A válasz az, hogy a biztonság érzésére válaszolunk, 83 00:03:03,000 --> 00:03:06,000 nem pedig a biztonság valóságára. 84 00:03:06,000 --> 00:03:09,000 Legtöbbször ez müködik. 85 00:03:10,000 --> 00:03:12,000 Legtöbbször, 86 00:03:12,000 --> 00:03:15,000 az érzés és a valóság ugyanaz. 87 00:03:15,000 --> 00:03:17,000 Ez biztosan igaz 88 00:03:17,000 --> 00:03:20,000 az emberiség őstörténetére. 89 00:03:20,000 --> 00:03:23,000 Azért fejlesztettük ki ezt a képességet, 90 00:03:23,000 --> 00:03:25,000 mert értelme volt fejlődésünk szempontjából. 91 00:03:25,000 --> 00:03:27,000 Úgy is gondolhatunk erre, 92 00:03:27,000 --> 00:03:29,000 hogy mi erősen optimalizálva vagyunk 93 00:03:29,000 --> 00:03:31,000 olyan kockázati döntésekre, amelyek 94 00:03:31,000 --> 00:03:34,000 a kis családi csoportokban való élettel jártak 95 00:03:34,000 --> 00:03:37,000 a kelet afrikai szavannákon, K.e. 100000-ben -- 96 00:03:37,000 --> 00:03:40,000 de nem annyira 2010-ben, New Yorkban. 97 00:03:41,000 --> 00:03:44,000 Létezik több előítélet is a kockázat érzékelésben. 98 00:03:44,000 --> 00:03:46,000 Sok jó kísérlet van erre. 99 00:03:46,000 --> 00:03:49,000 És láthatnak bizonyos, újra és újra megjelenő előítéleteket. 100 00:03:49,000 --> 00:03:51,000 Leírok önöknek négyet. 101 00:03:51,000 --> 00:03:54,000 Hajlamosak vagyunk eltúlozni a látványos és ritka kockázatokat 102 00:03:54,000 --> 00:03:56,000 és lekicsinyelni a gyakori rizikókat -- 103 00:03:56,000 --> 00:03:59,000 tehát a repülést az autóvezetés ellenében. 104 00:03:59,000 --> 00:04:01,000 Az ismeretlen rizikót kockázatosabbnak 105 00:04:01,000 --> 00:04:04,000 érzékeljük mint az ismerőst. 106 00:04:05,000 --> 00:04:07,000 Erre egy példa lenne, 107 00:04:07,000 --> 00:04:10,000 hogy az emberek félnek az idegenek általi emberrablástól, 108 00:04:10,000 --> 00:04:13,000 miközben az adatok szerint, a rokonok általi emberrablás sokkal megszokottabb. 109 00:04:13,000 --> 00:04:15,000 Ez a gyerekekre vonatkozik. 110 00:04:15,000 --> 00:04:18,000 Harmadik, a megszemélyesített kockázatot 111 00:04:18,000 --> 00:04:21,000 nagyobbnak érzékeljük, mint a névtelen rizikót -- 112 00:04:21,000 --> 00:04:24,000 tehát Bin Laden ijesztőbb, mert van neve. 113 00:04:24,000 --> 00:04:26,000 És a negyedik: 114 00:04:26,000 --> 00:04:28,000 az emberek alábecsülik a rizikókat 115 00:04:28,000 --> 00:04:30,000 az általuk szabályzott helyzetekben 116 00:04:30,000 --> 00:04:34,000 és felülbecsülik őket az általuk nem irányított helyzetekben. 117 00:04:34,000 --> 00:04:37,000 Tehát, ha egyszer elkezdtél ejtőernyőzni vagy dohányozni, 118 00:04:37,000 --> 00:04:39,000 alábecsülöd a kockázatot. 119 00:04:39,000 --> 00:04:42,000 Ha egy rizikót rád erőszakolnak -- a terrorizmus egy jó példa volt -- 120 00:04:42,000 --> 00:04:45,000 túl fogod becsülni, mert úgy érzed nincs az ellenőrzésed alatt. 121 00:04:47,000 --> 00:04:50,000 Létezik egy csomó más előítéletek, ezek az észlelési előítéletek, 122 00:04:50,000 --> 00:04:53,000 amelyek befolyásolják a kockázati döntéseinket. 123 00:04:53,000 --> 00:04:55,000 Például az elérhetőségi heurisztika, 124 00:04:55,000 --> 00:04:57,000 ami alapján 125 00:04:57,000 --> 00:05:00,000 valaminek a valószínűségét annak alapján becsüljük meg, 126 00:05:00,000 --> 00:05:04,000 hogy milyen könnyen jutnak eszünkbe példák rá. 127 00:05:04,000 --> 00:05:06,000 El tudják képzelni, ez hogy működik. 128 00:05:06,000 --> 00:05:09,000 Ha sokat hallunk tigris támadásokról, akkor sok tigris kell legyen a környékünkön. 129 00:05:09,000 --> 00:05:12,000 Ha nem hallunk oroszlán támadásokról, akkor nincs sok oroszlán a környékünkön. 130 00:05:12,000 --> 00:05:15,000 Ez az újságok feltalálásáig működik. 131 00:05:15,000 --> 00:05:17,000 Mert amit az újságok 132 00:05:17,000 --> 00:05:19,000 újra és újra elismétlik 133 00:05:19,000 --> 00:05:21,000 a ritka rizikókat. 134 00:05:21,000 --> 00:05:23,000 Az embereknek azt mondom: ha a hírekben van, nem kell miatta aggódni. 135 00:05:23,000 --> 00:05:25,000 Mert a definició szerint, 136 00:05:25,000 --> 00:05:28,000 a hír olyasmi, ami szinte soha nem történik meg. 137 00:05:28,000 --> 00:05:30,000 (Nevetés) 138 00:05:30,000 --> 00:05:33,000 Amikor valami annyira mindennapi, hogy az már nem hír -- 139 00:05:33,000 --> 00:05:35,000 autóbalesetek, családon belüli erőszak -- 140 00:05:35,000 --> 00:05:38,000 azok a rizikók, amelyektől tarthatunk. 141 00:05:38,000 --> 00:05:40,000 Mesemondó faj vagyunk. 142 00:05:40,000 --> 00:05:43,000 Jobban reagálunk a történetekre mint az adatokra. 143 00:05:43,000 --> 00:05:45,000 És létezik egy alapvető számismereti hiány. 144 00:05:45,000 --> 00:05:48,000 Vagyis az "Egy, kettő, három, sok" vicc valahogy igaz. 145 00:05:48,000 --> 00:05:51,000 A kis számokban vagyunk igazán jók. 146 00:05:51,000 --> 00:05:53,000 Egy mangó, két mangó, három mangó, 147 00:05:53,000 --> 00:05:55,000 10000 mangó, 100000 mangó -- 148 00:05:55,000 --> 00:05:58,000 ez már több mangó annál, amit rothadásuk előtt megehetsz. 149 00:05:58,000 --> 00:06:01,000 Tehát egy fél, egy negyed, egy ötöd -- ebben jók vagyunk. 150 00:06:01,000 --> 00:06:03,000 Egy milliomod, egy milliárdomod -- 151 00:06:03,000 --> 00:06:06,000 ezekben szinte soha nem vagyunk jók. 152 00:06:06,000 --> 00:06:08,000 Tehát problémánk van 153 00:06:08,000 --> 00:06:10,000 a nem mindennapi rizikókkal. 154 00:06:10,000 --> 00:06:12,000 És ezek az észlelési előítéletek 155 00:06:12,000 --> 00:06:15,000 szűrőként viselkednek köztünk és a valóság között. 156 00:06:15,000 --> 00:06:17,000 Az eredmény pedig az, 157 00:06:17,000 --> 00:06:19,000 hogy az érzés és a valóság kapcsolata elromlik, 158 00:06:19,000 --> 00:06:22,000 különbözők lesznek. 159 00:06:22,000 --> 00:06:25,000 Nos, vagy van egy érzésed -- nagyobb biztonságban érzed magad, mint vagy. 160 00:06:25,000 --> 00:06:27,000 Ez a hamis biztonság érzése. 161 00:06:27,000 --> 00:06:29,000 Másfelől pedig 162 00:06:29,000 --> 00:06:31,000 létezik a hamis bizonytalanság érzése. 163 00:06:31,000 --> 00:06:34,000 Sokat írtam a "biztonsági előadásról", 164 00:06:34,000 --> 00:06:37,000 termékek amiktől az emberek nagyobb biztonságban érzik magukat, 165 00:06:37,000 --> 00:06:39,000 de tulajdonképpen nem csinálnak semmit. 166 00:06:39,000 --> 00:06:41,000 Nincs valós szó a dolgokra amiktől biztonságban leszünk, 167 00:06:41,000 --> 00:06:43,000 de nem fogjuk magunkat tőle biztonságban érezni. 168 00:06:43,000 --> 00:06:46,000 Talán ezt kellene megtegye a CIA értünk. 169 00:06:48,000 --> 00:06:50,000 Vissza a gazdasághoz. 170 00:06:50,000 --> 00:06:54,000 Ha a gazdaság, a piac ösztönzi a biztonságot 171 00:06:54,000 --> 00:06:56,000 és ha az emberek kompromisszumokat kötnek 172 00:06:56,000 --> 00:06:59,000 a biztonság érzetükre alapozva, 173 00:06:59,000 --> 00:07:01,000 akkor a cégek okosan tennék ha elérnék, 174 00:07:01,000 --> 00:07:03,000 hogy az emberek nagyobb biztonságban 175 00:07:03,000 --> 00:07:06,000 érezzék magukat -- a gazdasági ösztönzőkért. 176 00:07:06,000 --> 00:07:09,000 És ezt két féle képpen lehet megcsinálni. 177 00:07:09,000 --> 00:07:11,000 Egy: valóbban biztonságot szolgáltatsz 178 00:07:11,000 --> 00:07:13,000 az embereknek és reméled észreveszik. 179 00:07:13,000 --> 00:07:16,000 Vagy kettő: eléred, hogy az emberek csak biztonságban 180 00:07:16,000 --> 00:07:19,000 érzzék magukat és reménykedsz, hogy nem veszik észre. 181 00:07:20,000 --> 00:07:23,000 Mitől veszik észre az emberek? 182 00:07:23,000 --> 00:07:25,000 Egy pár dolog szükséges: 183 00:07:25,000 --> 00:07:27,000 a biztonság megértése, 184 00:07:27,000 --> 00:07:29,000 a rizikók, a fenyegetések, 185 00:07:29,000 --> 00:07:32,000 az ellenintézkedések működését. 186 00:07:32,000 --> 00:07:34,000 De ha tudsz ezekről, nagyobb a valószínűsége, 187 00:07:34,000 --> 00:07:37,000 hogy az érzéseid megfelelnek a valóságnak. 188 00:07:37,000 --> 00:07:40,000 Elégséges számú valós példa segít. 189 00:07:40,000 --> 00:07:43,000 Mind ismerjük a bűnözési arányt a környékünkön, 190 00:07:43,000 --> 00:07:46,000 mert ott lakunk, és van róla egy érzésünk 191 00:07:46,000 --> 00:07:49,000 ami nagyjából megfelel a valóságnak. 192 00:07:49,000 --> 00:07:52,000 A biztonsági előadás lelepleződik 193 00:07:52,000 --> 00:07:55,000 amikor nyilvánvaló, hogy nem működik megfelelően. 194 00:07:55,000 --> 00:07:59,000 Rendben, mi az amitől az emberek nem veszik észre? 195 00:07:59,000 --> 00:08:01,000 Nos, a gyenge megértés. 196 00:08:01,000 --> 00:08:04,000 Ha nem érted a rizikókat, nem érted a költségeket, 197 00:08:04,000 --> 00:08:06,000 valószínűleg rossz kompromisszumot fogsz kötni, 198 00:08:06,000 --> 00:08:09,000 és az érzésed nem felel meg a valóságnak. 199 00:08:09,000 --> 00:08:11,000 Nincs elég példa. 200 00:08:11,000 --> 00:08:13,000 Létezik egy vele járó probléma 201 00:08:13,000 --> 00:08:15,000 az alacsony valószínűségű eseményekkel. 202 00:08:15,000 --> 00:08:17,000 Ha például 203 00:08:17,000 --> 00:08:19,000 a terrorizmus szinte soha nem történik meg, 204 00:08:19,000 --> 00:08:21,000 nagyon nehéz megítélni 205 00:08:21,000 --> 00:08:24,000 a terrorellenes intézkedések hatékonyságát. 206 00:08:25,000 --> 00:08:28,000 Ezért folytatják a szűzek feláldozását, 207 00:08:28,000 --> 00:08:31,000 és ezért működnek olyan jól az egyszarvú védelmek. 208 00:08:31,000 --> 00:08:34,000 Nincs elég példa a kudarcokra. 209 00:08:35,000 --> 00:08:38,000 Szintén, az érzések elfedik a problémákat -- 210 00:08:38,000 --> 00:08:40,000 azok az észlelési előítéletek, amikről beszéltem előbb, 211 00:08:40,000 --> 00:08:43,000 félelmek, népi hiedelmek, 212 00:08:43,000 --> 00:08:46,000 valójában egy nem megfelelő valóságmodell. 213 00:08:47,000 --> 00:08:50,000 Engedjék meg, hogy komplikáljam a dolgokat. 214 00:08:50,000 --> 00:08:52,000 Van érzés és valóság. 215 00:08:52,000 --> 00:08:55,000 Egy harmadik elemet akarok hozzáadni, a modellt. 216 00:08:55,000 --> 00:08:57,000 Érzés és modell a fejünkben, 217 00:08:57,000 --> 00:08:59,000 a valóság pedig a külvilág. 218 00:08:59,000 --> 00:09:02,000 Az nem vátozik; az valós. 219 00:09:02,000 --> 00:09:04,000 Tehát az érzés az intuícióra alapszik. 220 00:09:04,000 --> 00:09:06,000 A modell a gondolkodásra alapszik. 221 00:09:06,000 --> 00:09:09,000 Ez tulajdonképpen a különbség. 222 00:09:09,000 --> 00:09:11,000 Egy primitiv és egyszerű világban 223 00:09:11,000 --> 00:09:14,000 nincs igazán szükség a modellre. 224 00:09:14,000 --> 00:09:17,000 Mert az érzés közel van a valósághoz. 225 00:09:17,000 --> 00:09:19,000 Nincs szükséged modellre. 226 00:09:19,000 --> 00:09:21,000 De egy modern és komplex világban, 227 00:09:21,000 --> 00:09:23,000 szükséged van modellekre, 228 00:09:23,000 --> 00:09:26,000 hogy megérts egy csomó rizikót, azokból amikkel szembesülünk. 229 00:09:27,000 --> 00:09:29,000 Nem létezik érzés a baktériumokról. 230 00:09:29,000 --> 00:09:32,000 Szükséged van egy modellre, hogy megértsd őket. 231 00:09:32,000 --> 00:09:34,000 Tehát ez a modell 232 00:09:34,000 --> 00:09:37,000 egy intelligens ábrázolása a valóságnak. 233 00:09:37,000 --> 00:09:40,000 Természetesen, a tudomány és 234 00:09:40,000 --> 00:09:42,000 a technológia határolja be. 235 00:09:42,000 --> 00:09:45,000 Nem lehetett bakteriális elméletünk a betegségekről, 236 00:09:45,000 --> 00:09:48,000 mielőtt feltaláltuk a mikroszkópot, amivel láthattuk őket. 237 00:09:49,000 --> 00:09:52,000 Az észlelési hajlamaink határolják be. 238 00:09:52,000 --> 00:09:54,000 De megvan az a képessége, 239 00:09:54,000 --> 00:09:56,000 hogy felülírja az érzéseinket. 240 00:09:56,000 --> 00:09:59,000 Honnan kapjuk ezeket a modelleket? Másoktól kapjuk. 241 00:09:59,000 --> 00:10:02,000 A vallástól, a kúltúrából, 242 00:10:02,000 --> 00:10:04,000 tanároktól, idősebbektől. 243 00:10:04,000 --> 00:10:06,000 Egy pár éve, 244 00:10:06,000 --> 00:10:08,000 Dél-Afrikában voltam szafarin. 245 00:10:08,000 --> 00:10:11,000 A nyomkereső akivel voltam a Kruger Nemzeti Parkban nőtt fel. 246 00:10:11,000 --> 00:10:14,000 Néhány nagyon komplex túlélési modellje volt. 247 00:10:14,000 --> 00:10:16,000 És attól függött, hogy mi támadott meg: 248 00:10:16,000 --> 00:10:18,000 egy oroszlán vagy egy leopárd vagy egy orrszarvú vagy egy elefánt -- 249 00:10:18,000 --> 00:10:21,000 és mikor kell elszaladni, és mikor kell fára mászni -- 250 00:10:21,000 --> 00:10:23,000 illetve mikor nem szabad soha fára mászni. 251 00:10:23,000 --> 00:10:26,000 Én egy nap alatt meghaltam volna, 252 00:10:26,000 --> 00:10:28,000 de ő ott nőtt fel, 253 00:10:28,000 --> 00:10:30,000 és megértette hogyan kell életben maradni. 254 00:10:30,000 --> 00:10:32,000 Én New York-ban születtem. 255 00:10:32,000 --> 00:10:35,000 Elvihettem volna őt New York-ba és ő halt volna meg egy nap alatt. 256 00:10:35,000 --> 00:10:37,000 (Nevetés) 257 00:10:37,000 --> 00:10:39,000 Mivel különböző modelljeink voltak 258 00:10:39,000 --> 00:10:42,000 a különböző tapasztalatainkra alapozva. 259 00:10:43,000 --> 00:10:45,000 A modellek származhatnak a médiából, 260 00:10:45,000 --> 00:10:48,000 a választott hivatalnokoktól. 261 00:10:48,000 --> 00:10:51,000 Gondoljanak a terrorizmus modellekre, 262 00:10:51,000 --> 00:10:54,000 gyermekrablásra, 263 00:10:54,000 --> 00:10:56,000 repülés biztonságra, autós biztonságra. 264 00:10:56,000 --> 00:10:59,000 A modellek jöhetnek az iparból. 265 00:10:59,000 --> 00:11:01,000 Kettő amit követek: a biztonsági kamerák, 266 00:11:01,000 --> 00:11:03,000 azonosító kártyák, 267 00:11:03,000 --> 00:11:06,000 elég sok számítógépes biztonsági modell jön onnan. 268 00:11:06,000 --> 00:11:09,000 Egy csomó modell jön a tudományból. 269 00:11:09,000 --> 00:11:11,000 Az egészségi modellek nagyon jó példák. 270 00:11:11,000 --> 00:11:14,000 Gondoljanak a rákra, a madár vagy sertés influenzára, az atípusos tüdőgyulladásra. 271 00:11:14,000 --> 00:11:17,000 Az összes biztonsági érzésünk 272 00:11:17,000 --> 00:11:19,000 ezekről a betegségekről 273 00:11:19,000 --> 00:11:21,000 a modellektől származnak, 274 00:11:21,000 --> 00:11:24,000 amiket a média által megszűrt tudománytól kaptunk. 275 00:11:25,000 --> 00:11:28,000 Tehát a modellek változhatnak. 276 00:11:28,000 --> 00:11:30,000 A modellek nem statikusak. 277 00:11:30,000 --> 00:11:33,000 Ahogy jobban megszokjuk a környezetünket 278 00:11:33,000 --> 00:11:37,000 a modelljeink közeledhetnek az érzéseinkhez. 279 00:11:38,000 --> 00:11:40,000 Egy példa lehetne ez: 280 00:11:40,000 --> 00:11:42,000 ha visszamennénk 100 évet, 281 00:11:42,000 --> 00:11:45,000 amikor az elektromosság először kezdett elterjedni, 282 00:11:45,000 --> 00:11:47,000 sok félelem volt vele kapcsolatban. 283 00:11:47,000 --> 00:11:49,000 Voltak emberek akik féltek megnyomni a csengő gombját, 284 00:11:49,000 --> 00:11:52,000 mivel elektromosság volt benne, és az veszélyes volt. 285 00:11:52,000 --> 00:11:55,000 Mi már könnyedén vesszük az elektromosságot. 286 00:11:55,000 --> 00:11:57,000 Villanykörtéket cserélünk ki 287 00:11:57,000 --> 00:11:59,000 gondolkodás nélkül. 288 00:11:59,000 --> 00:12:03,000 A mi elektromosság biztonsági modellünk 289 00:12:03,000 --> 00:12:06,000 olyasmi amibe mi beleszülettünk. 290 00:12:06,000 --> 00:12:09,000 Nem változott amíg felnőttünk. 291 00:12:09,000 --> 00:12:12,000 És jók vagyunk benne. 292 00:12:12,000 --> 00:12:14,000 Vagy gondoljanak az Internet rizikóira 293 00:12:14,000 --> 00:12:16,000 a generációkon át -- 294 00:12:16,000 --> 00:12:18,000 hogyan viszonyulnak a szüleik az Internet biztonsághoz, 295 00:12:18,000 --> 00:12:20,000 ellentétben önökkel, 296 00:12:20,000 --> 00:12:23,000 ellentétben azzal, ahogy gyermekeink fognak. 297 00:12:23,000 --> 00:12:26,000 A modellek végül beleolvadnak a háttérbe. 298 00:12:27,000 --> 00:12:30,000 Az ösztönösség csak egy másik szó a megszokottra. 299 00:12:30,000 --> 00:12:32,000 Tehát ahogy a modelljük közeledik a valósághoz, 300 00:12:32,000 --> 00:12:34,000 és közelít az érzésekhez, 301 00:12:34,000 --> 00:12:37,000 sokszor nem is tudják, hogy ott van. 302 00:12:37,000 --> 00:12:39,000 Egy jó példa erre 303 00:12:39,000 --> 00:12:42,000 a tavalyi sertés influenza volt. 304 00:12:42,000 --> 00:12:44,000 Amikor a sertés influenza először megjelent, 305 00:12:44,000 --> 00:12:48,000 az első hírek sok túlreagálást okoztak. 306 00:12:48,000 --> 00:12:50,000 Aztán lett egy neve, 307 00:12:50,000 --> 00:12:52,000 amitől ijesztőbb lett mint a közönséges influenza, 308 00:12:52,000 --> 00:12:54,000 habár halálosabb volt. 309 00:12:54,000 --> 00:12:58,000 És az emberek azt gondolták, hogy az orvosok majd megbirkóznak vele. 310 00:12:58,000 --> 00:13:00,000 Tehát az ellenőrzés hiányának az érzése volt. 311 00:13:00,000 --> 00:13:02,000 És ez a két dolog 312 00:13:02,000 --> 00:13:04,000 felnagyította a rizikót. 313 00:13:04,000 --> 00:13:07,000 Ahogy az újdonság elkopott, teltek a hónapok, 314 00:13:07,000 --> 00:13:09,000 létezett egy adag tolerancia, 315 00:13:09,000 --> 00:13:11,000 az emberek hozzászoktak. 316 00:13:11,000 --> 00:13:14,000 Nem voltak új adatok, de kevesebb volt a félelem. 317 00:13:14,000 --> 00:13:16,000 Őszre 318 00:13:16,000 --> 00:13:18,000 az emberek azt gondolták, 319 00:13:18,000 --> 00:13:20,000 hogy az orvosoknak már meg kellet volna oldani ezt. 320 00:13:20,000 --> 00:13:22,000 És itt van egy fajta elágazás -- 321 00:13:22,000 --> 00:13:24,000 az embereknek választani kellett 322 00:13:24,000 --> 00:13:28,000 a félelem és az elfogadás között -- 323 00:13:28,000 --> 00:13:30,000 tulajdonképpen a félelem és a közöny között -- 324 00:13:30,000 --> 00:13:33,000 és valahogy a gyanút választották. 325 00:13:33,000 --> 00:13:36,000 És amikor az oltás megjelent a múlt télen, 326 00:13:36,000 --> 00:13:39,000 nagyon sok ember -- meglepő számban -- 327 00:13:39,000 --> 00:13:42,000 visszautasította az oltást -- 328 00:13:43,000 --> 00:13:45,000 mintegy szép példként arra, 329 00:13:45,000 --> 00:13:48,000 hogyan változik az emberek biztonsági érzése és modellje, 330 00:13:48,000 --> 00:13:50,000 elég vadul, 331 00:13:50,000 --> 00:13:52,000 új információ nélkül, 332 00:13:52,000 --> 00:13:54,000 új betáplált adat nélkül. 333 00:13:54,000 --> 00:13:57,000 Ilyen esetek sokszor fordulnak elő. 334 00:13:57,000 --> 00:14:00,000 Még egy komplikációt vezetek be. 335 00:14:00,000 --> 00:14:03,000 Van érzés, modell, valóság. 336 00:14:03,000 --> 00:14:05,000 Nekem egy nagyon relativisztikus nézetem van a biztonságról. 337 00:14:05,000 --> 00:14:08,000 Azt gondolom, függ a megfigyelőtől. 338 00:14:08,000 --> 00:14:10,000 És a legtöbb biztonsági döntésbe 339 00:14:10,000 --> 00:14:14,000 változatos emberek vannak érdekelve. 340 00:14:14,000 --> 00:14:16,000 És a résztvevők 341 00:14:16,000 --> 00:14:19,000 a sajátos kompromisszumaikkal 342 00:14:19,000 --> 00:14:21,000 megpróbálják befolyásolni a döntést. 343 00:14:21,000 --> 00:14:23,000 Én ezt az ő programjuknak nevezem. 344 00:14:23,000 --> 00:14:25,000 És láthatják a programot -- 345 00:14:25,000 --> 00:14:28,000 ez az értékesítés, ez a politika -- 346 00:14:28,000 --> 00:14:31,000 megpróbálnak meggyőzni, hogy ez legyen a modelled és nem az, 347 00:14:31,000 --> 00:14:33,000 megpróbálnak meggyőzni, hogy mellőzz egy modellt 348 00:14:33,000 --> 00:14:36,000 és bízz az érzéseidben, 349 00:14:36,000 --> 00:14:39,000 kiszorítva az embereket akiknek modelljét nem szereted. 350 00:14:39,000 --> 00:14:42,000 Ez nem ritka. 351 00:14:42,000 --> 00:14:45,000 Egy nagyon jó példa erre a dohányzás rizikója. 352 00:14:46,000 --> 00:14:49,000 Az elmúlt 50 évben a dohányzás rizikója 353 00:14:49,000 --> 00:14:51,000 megmutatja hogyan változott a modell, 354 00:14:51,000 --> 00:14:54,000 és azt is megmutatja hogyan harcolt egy iparág 355 00:14:54,000 --> 00:14:56,000 egy modell ellen, amit nem szeretett. 356 00:14:56,000 --> 00:14:59,000 Hasonlítsák ezt össze a passzív dohányzás vitával -- 357 00:14:59,000 --> 00:15:02,000 valószínüleg 20 évvel lemeradva. 358 00:15:02,000 --> 00:15:04,000 Gondoljanak a biztonsági övre. 359 00:15:04,000 --> 00:15:06,000 Amikor gyerek voltam, senki nem használt biztonsági övet. 360 00:15:06,000 --> 00:15:08,000 Manapság egy gyermek se enged vezetni, 361 00:15:08,000 --> 00:15:10,000 ha nem használod a biztonsági övet. 362 00:15:11,000 --> 00:15:13,000 Hasonlítsák ezt össze a légzsák vitával -- 363 00:15:13,000 --> 00:15:16,000 valószínüleg 30 évvel lemeradva. 364 00:15:16,000 --> 00:15:19,000 Mind példák a modellek változására. 365 00:15:21,000 --> 00:15:24,000 Megtanultuk, hogy nehéz a modelleket megváltoztatni. 366 00:15:24,000 --> 00:15:26,000 Nehéz a modelleket kimozdítani. 367 00:15:26,000 --> 00:15:28,000 Ha a modellek megfelelnek az érzéseiknek, 368 00:15:28,000 --> 00:15:31,000 nem is tudják, hogy van egy modelljük. 369 00:15:31,000 --> 00:15:33,000 És van egy másik észlelési előítélet, 370 00:15:33,000 --> 00:15:35,000 amit én igazolási előítéletnek nevezek, 371 00:15:35,000 --> 00:15:38,000 ahol hajlamosak vagyunk elfogadni az olyan adatot, 372 00:15:38,000 --> 00:15:40,000 amelyik igazolja a hiedelmeinket 373 00:15:40,000 --> 00:15:43,000 és elutasítjuk az olyan adatot amelyik ellentmond nekik. 374 00:15:44,000 --> 00:15:46,000 Tehát valószínűleg mellőzük a modellünk 375 00:15:46,000 --> 00:15:49,000 elleni bizonyítékot, még ha ellenállhatatlan is. 376 00:15:49,000 --> 00:15:52,000 Nagyon ellenállhatatlanná kell váljon mielőtt figyelembe vesszük. 377 00:15:53,000 --> 00:15:55,000 Nagyon nehezek az új, hosszú időre szóló modellek. 378 00:15:55,000 --> 00:15:57,000 A globális felmelegedés egy kiváló példa. 379 00:15:57,000 --> 00:15:59,000 Szörnyűek vagyunk a 80 évet 380 00:15:59,000 --> 00:16:01,000 felölelő modellekben. 381 00:16:01,000 --> 00:16:03,000 A következő aratásig tartunk ki. 382 00:16:03,000 --> 00:16:06,000 Gyakran kitartunk, mít a gyermekeink felnőnek. 383 00:16:06,000 --> 00:16:09,000 De 80 év, egyszerűen nem vagyunk jók ebben. 384 00:16:09,000 --> 00:16:12,000 Tehát ez egy nagyon nehezen elfogadható modell. 385 00:16:12,000 --> 00:16:16,000 Lehet a fejünkben egyszerre mindkét modell, 386 00:16:16,000 --> 00:16:19,000 vagy az a fajta probléma, 387 00:16:19,000 --> 00:16:22,000 amikor két dologban hiszünk egyszerre, 388 00:16:22,000 --> 00:16:24,000 vagy a kognitív disszonancia. 389 00:16:24,000 --> 00:16:26,000 Végül, 390 00:16:26,000 --> 00:16:29,000 az új modell helyetesíteni fogja a régi modellt. 391 00:16:29,000 --> 00:16:32,000 Erős érzések létrehozhatnak egy modellt. 392 00:16:32,000 --> 00:16:35,000 Szeptember 11.-e létrehozott egy biztonsági modellt 393 00:16:35,000 --> 00:16:37,000 sok ember fejében. 394 00:16:37,000 --> 00:16:40,000 Személyes bűnügyi tapasztalat szintén megteheti, 395 00:16:40,000 --> 00:16:42,000 személyes egészségügyi ijedelem, 396 00:16:42,000 --> 00:16:44,000 egy egészségügyi pánik a hírekben. 397 00:16:44,000 --> 00:16:46,000 Láthatják ezeket a pszichiáterek által 398 00:16:46,000 --> 00:16:48,000 villanólámpa eseményeknek nevezett dolgokat. 399 00:16:48,000 --> 00:16:51,000 Létrehozhatnak egy modellt azonnal, 400 00:16:51,000 --> 00:16:54,000 mert nagyon érzelmileg színezettek. 401 00:16:54,000 --> 00:16:56,000 Tehát a technológiai világban 402 00:16:56,000 --> 00:16:58,000 nincs tapasztalatunk, 403 00:16:58,000 --> 00:17:00,000 hogy megítéljük a modelleket. 404 00:17:00,000 --> 00:17:02,000 És másokban bízunk. Közvetítőkben bízunk. 405 00:17:02,000 --> 00:17:06,000 Vagyis ez addig működik amíg másokat javítunk ki. 406 00:17:06,000 --> 00:17:08,000 Kormányhivatalokban bízunk, 407 00:17:08,000 --> 00:17:13,000 hogy megmondják nekünk melyik gyógyszerek biztonságosak. 408 00:17:13,000 --> 00:17:15,000 Tegnap repültem ide. 409 00:17:15,000 --> 00:17:17,000 Nem ellenőriztem a repülőt. 410 00:17:17,000 --> 00:17:19,000 Megbíztam egy másik csoportban, 411 00:17:19,000 --> 00:17:22,000 hogy megállapítsa repülhet-e az én gépem. 412 00:17:22,000 --> 00:17:25,000 Itt vagyunk, senki se fél, hogy a tető ránk fog szakadni, 413 00:17:25,000 --> 00:17:28,000 nem azért mert ellenőriztük volna, 414 00:17:28,000 --> 00:17:30,000 hanem mert elég biztosak vagyunk abban, 415 00:17:30,000 --> 00:17:33,000 hogy az építési szabályok megfelelőek itt. 416 00:17:33,000 --> 00:17:35,000 Ez egy modell, amit simán elfogadunk 417 00:17:35,000 --> 00:17:37,000 nagyjából hit alapján. 418 00:17:37,000 --> 00:17:40,000 És ez rendben van. 419 00:17:42,000 --> 00:17:44,000 Nos, amit akarunk az az, 420 00:17:44,000 --> 00:17:46,000 hogy az emberek elég jártasak legyenek 421 00:17:46,000 --> 00:17:48,000 a megfelelőbb modellekben -- 422 00:17:48,000 --> 00:17:50,000 ez jelenjen meg az érzéseikben -- 423 00:17:50,000 --> 00:17:54,000 hogy meg tudják hozni a biztonsági döntéseiket. 424 00:17:54,000 --> 00:17:56,000 Amikor ezek nem működnek, 425 00:17:56,000 --> 00:17:58,000 két lehetőségünk van. 426 00:17:58,000 --> 00:18:00,000 Első, megjavíthatjuk az emberek érzéseit, 427 00:18:00,000 --> 00:18:02,000 egyenesen az érzésekhez fordulhatunk. 428 00:18:02,000 --> 00:18:05,000 Ez manipuláció, de működhet. 429 00:18:05,000 --> 00:18:07,000 A második, becsületesebb út, 430 00:18:07,000 --> 00:18:10,000 a modell megjavítása. 431 00:18:11,000 --> 00:18:13,000 A változás lassan történik. 432 00:18:13,000 --> 00:18:16,000 A dohányzás vita 40 évet tartott, 433 00:18:16,000 --> 00:18:19,000 és az egy könnyű eset volt. 434 00:18:19,000 --> 00:18:21,000 Egyes dolgok nehezek. 435 00:18:21,000 --> 00:18:23,000 Vagyis nagyon nehezek, 436 00:18:23,000 --> 00:18:25,000 az információ tűnik a legjobb reményünknek. 437 00:18:25,000 --> 00:18:27,000 És hazudtam. 438 00:18:27,000 --> 00:18:29,000 Emlékezenk, amikor azt mondtam: érzés, modell, valóság. 439 00:18:29,000 --> 00:18:32,000 Azt mondtam a valóság nem változik. De igen, változik. 440 00:18:32,000 --> 00:18:34,000 Egy technológiai világban élünk, 441 00:18:34,000 --> 00:18:37,000 a valóság állandóan változik. 442 00:18:37,000 --> 00:18:40,000 És talán -- fajunk esetében először -- az történik, hogy 443 00:18:40,000 --> 00:18:43,000 az érzés üldözi a modellt, a modell üldözi a valóságot, a valóság mozog -- 444 00:18:43,000 --> 00:18:46,000 talán soha nem érik egymást utol. 445 00:18:47,000 --> 00:18:49,000 Nem tudjuk. 446 00:18:49,000 --> 00:18:51,000 De hosszútávon, 447 00:18:51,000 --> 00:18:54,000 mind az érzés, mind a valóság fontosak. 448 00:18:54,000 --> 00:18:57,000 És befejezésül két rövid történettel fogom ezt ábrázolni. 449 00:18:57,000 --> 00:18:59,000 1982 -- nem tudom, hogy az emberek emlékni fognak erre -- 450 00:18:59,000 --> 00:19:02,000 akkor volt egy rövid Tylenol 451 00:19:02,000 --> 00:19:04,000 mérgezési járvány az USA-ban. 452 00:19:04,000 --> 00:19:07,000 Egy borzasztó történet. Valaki fogott egy Tylenol-os üveget, 453 00:19:07,000 --> 00:19:10,000 mérget tett bele, lezárta, visszatette a polcra. 454 00:19:10,000 --> 00:19:12,000 Valaki más megvette és meghalt. 455 00:19:12,000 --> 00:19:14,000 Ez megrémísztette az embereket. 456 00:19:14,000 --> 00:19:16,000 Volt egy pár másolós támadás is. 457 00:19:16,000 --> 00:19:19,000 Nem volt igazi rizikó, de az emberek meg voltak rémülve. 458 00:19:19,000 --> 00:19:21,000 És így jött létre a biztonsági 459 00:19:21,000 --> 00:19:23,000 kupakkal lezárt gyógyszerek iparága. 460 00:19:23,000 --> 00:19:25,000 Azok a biztonsági kupakok ebből származnak. 461 00:19:25,000 --> 00:19:27,000 Ez egy teljes biztonsági előadás. 462 00:19:27,000 --> 00:19:29,000 És házi feladatnak gondoljanak ki 10 módot ennek megkerülésére. 463 00:19:29,000 --> 00:19:32,000 Egyet megadok: a fecskendő. 464 00:19:32,000 --> 00:19:35,000 De az emberek jobban érezték magukat tőle. 465 00:19:35,000 --> 00:19:37,000 A biztonság érzésüket jobban 466 00:19:37,000 --> 00:19:39,000 közelítette a valósághoz. 467 00:19:39,000 --> 00:19:42,000 Utolsó történet, egy pár éve, egy barátnőm szült. 468 00:19:42,000 --> 00:19:44,000 Meglátogattam a kórházban. 469 00:19:44,000 --> 00:19:46,000 Kiderült, hogy most amikor egy csecsemő születik, 470 00:19:46,000 --> 00:19:48,000 tesznek egy RFID-es karkötőt a csecsemőre [RFID = rádiófrekvenciás azonosító] 471 00:19:48,000 --> 00:19:50,000 a párját meg az anyára teszik, 472 00:19:50,000 --> 00:19:52,000 tehát ha bárki más az anyán kivül kivinné a csecsemőt a szülészetről, 473 00:19:52,000 --> 00:19:54,000 megszólal a riasztó. 474 00:19:54,000 --> 00:19:56,000 Azt mondtam: "Nos, ez elegáns. 475 00:19:56,000 --> 00:19:58,000 Kiváncsi vagyok mennyire burjánzó 476 00:19:58,000 --> 00:20:00,000 a csecsemők rablása a kórházakból." 477 00:20:00,000 --> 00:20:02,000 Haza mentem, rákerestem. 478 00:20:02,000 --> 00:20:04,000 Tulajdonképpen, soha nem történik ilyen. 479 00:20:04,000 --> 00:20:06,000 De, ha belegondolnak, 480 00:20:06,000 --> 00:20:08,000 ha ön egy kórház volna, 481 00:20:08,000 --> 00:20:10,000 és el kellene vegye a csecsemőt az anyától, 482 00:20:10,000 --> 00:20:12,000 ki a szobából, valamilyen vizsgálatok miatt, 483 00:20:12,000 --> 00:20:14,000 hát legyen valamilyen jó biztonsági előadása, 484 00:20:14,000 --> 00:20:16,000 vagy máskülönben az anya letépi a karját. 485 00:20:16,000 --> 00:20:18,000 (Nevetés) 486 00:20:18,000 --> 00:20:20,000 Tehát fontos számunkra, 487 00:20:20,000 --> 00:20:22,000 akik a biztonságot tervezik, 488 00:20:22,000 --> 00:20:25,000 akik a biztonsági szabályokat hozzák, 489 00:20:25,000 --> 00:20:27,000 vagy akár a közpolitikát úgy módosítják, 490 00:20:27,000 --> 00:20:29,000 hogy érinti a biztonságot. 491 00:20:29,000 --> 00:20:32,000 Nem csak valóság, hanem érzés és valóság. 492 00:20:32,000 --> 00:20:34,000 Ami fontos, 493 00:20:34,000 --> 00:20:36,000 hogy ezek körülbelül egyformák legyenek. 494 00:20:36,000 --> 00:20:38,000 Fontos, hogy ha érzésünk megfelel a valóságnak, 495 00:20:38,000 --> 00:20:40,000 akkor jobb biztonsági döntéseket hozunk. 496 00:20:40,000 --> 00:20:42,000 Köszönöm. 497 00:20:42,000 --> 00:20:44,000 (Taps)