1 00:00:00,000 --> 00:00:02,000 Securitatea înseamnă două lucruri diferite: 2 00:00:02,000 --> 00:00:04,000 este o senzație și este o realitate. 3 00:00:04,000 --> 00:00:06,000 Iar ele sunt diferite. 4 00:00:06,000 --> 00:00:08,000 Poți să te simți în siguranță 5 00:00:08,000 --> 00:00:10,000 chiar dacă nu ești. 6 00:00:10,000 --> 00:00:12,000 Și poți fi în siguranță 7 00:00:12,000 --> 00:00:14,000 chiar dacă nu simți asta. 8 00:00:14,000 --> 00:00:16,000 Chiar avem două concepte separate 9 00:00:16,000 --> 00:00:18,000 mapate în același cuvânt. 10 00:00:18,000 --> 00:00:20,000 Și ce vreau să fac în acest discurs 11 00:00:20,000 --> 00:00:22,000 e să le separ una de alta -- 12 00:00:22,000 --> 00:00:24,000 înțelegând când diverg ele 13 00:00:24,000 --> 00:00:26,000 și cum converg ele. 14 00:00:26,000 --> 00:00:28,000 Iar limba chiar este o problemă aici. 15 00:00:28,000 --> 00:00:30,000 Nu există prea multe cuvinte potrivite 16 00:00:30,000 --> 00:00:33,000 pentru conceptele despre care vom vorbi. 17 00:00:33,000 --> 00:00:35,000 Deci dacă privești securitatea 18 00:00:35,000 --> 00:00:37,000 din punct de vedere economic, 19 00:00:37,000 --> 00:00:39,000 ea este un troc. 20 00:00:39,000 --> 00:00:41,000 De fiecare dată când obții ceva securitate, 21 00:00:41,000 --> 00:00:43,000 întotdeauna dai ceva în schimb. 22 00:00:43,000 --> 00:00:45,000 Fie că asta este o decizie personală -- 23 00:00:45,000 --> 00:00:47,000 instalezi o alarmă antifurt acasă -- 24 00:00:47,000 --> 00:00:50,000 sau o decizie națională -- când vei invada o țară străină -- 25 00:00:50,000 --> 00:00:52,000 vei da ceva la schimb, 26 00:00:52,000 --> 00:00:55,000 fie bani sau timp, confort, posibilități, 27 00:00:55,000 --> 00:00:58,000 poate libertăți fundamentale. 28 00:00:58,000 --> 00:01:01,000 Iar întrebarea care trebuie pusă când examinezi ceva de securitate 29 00:01:01,000 --> 00:01:04,000 nu este dacă asta ne aduce mai multă siguranță, 30 00:01:04,000 --> 00:01:07,000 ci dacă schimbul a meritat sau nu. 31 00:01:07,000 --> 00:01:09,000 Ați auzit în ultimii câțiva ani, 32 00:01:09,000 --> 00:01:11,000 că lumea este mai sigură fiindcă Saddam Hussein nu mai este la putere. 33 00:01:11,000 --> 00:01:14,000 Poate că este adevărat, dar nu este foarte relevant. 34 00:01:14,000 --> 00:01:17,000 Întrebarea este: a meritat? 35 00:01:17,000 --> 00:01:20,000 Și poți decide singur, iar apoi 36 00:01:20,000 --> 00:01:22,000 vei decide dacă invazia a meritat. 37 00:01:22,000 --> 00:01:24,000 Așa trebuie să gândești despre securitate -- 38 00:01:24,000 --> 00:01:26,000 în termeni de schimb. 39 00:01:26,000 --> 00:01:29,000 De multe ori nu există răspuns corect sau greșit. 40 00:01:29,000 --> 00:01:31,000 Unii din noi avem alarme în casele noastre, 41 00:01:31,000 --> 00:01:33,000 iar unii din noi nu avem. 42 00:01:33,000 --> 00:01:35,000 Și asta depinde de unde trăim, 43 00:01:35,000 --> 00:01:37,000 dacă trăim singuri sau avem o familie, 44 00:01:37,000 --> 00:01:39,000 cât de multe lucruri grozave avem, 45 00:01:39,000 --> 00:01:41,000 cât de mult dorim să acceptăm 46 00:01:41,000 --> 00:01:43,000 riscul furtului. 47 00:01:43,000 --> 00:01:45,000 În politică de asemenea 48 00:01:45,000 --> 00:01:47,000 sunt opinii diferite. 49 00:01:47,000 --> 00:01:49,000 De multe ori aceste schimburi 50 00:01:49,000 --> 00:01:51,000 sunt despre mai mult decât securitate, 51 00:01:51,000 --> 00:01:53,000 și cred că asta este foarte important. 52 00:01:53,000 --> 00:01:55,000 Oamenii au o intuiție înnăscută 53 00:01:55,000 --> 00:01:57,000 despre aceste schimburi. 54 00:01:57,000 --> 00:01:59,000 Le facem zilnic -- 55 00:01:59,000 --> 00:02:01,000 noaptea trecută în camera mea de hotel, 56 00:02:01,000 --> 00:02:03,000 când am decis să încui ușa de două ori, 57 00:02:03,000 --> 00:02:05,000 sau voi în mașinile cu care ați venit aici, 58 00:02:05,000 --> 00:02:07,000 când mergem la prânz 59 00:02:07,000 --> 00:02:10,000 și decidem că hrana nu este otravă și o vom mânca. 60 00:02:10,000 --> 00:02:12,000 Facem aceste schimburi iar și iar 61 00:02:12,000 --> 00:02:14,000 de mai multe ori pe zi. 62 00:02:14,000 --> 00:02:16,000 Adesea nici nu le observăm. 63 00:02:16,000 --> 00:02:18,000 Ele sunt parte a vieții, toți o facem. 64 00:02:18,000 --> 00:02:21,000 Fiecare specie o face. 65 00:02:21,000 --> 00:02:23,000 Imaginați-vă un iepure în câmp, mâncând iarba, 66 00:02:23,000 --> 00:02:26,000 și iepurele vede o vulpe. 67 00:02:26,000 --> 00:02:28,000 Iepurele va face un schimb de securitate. 68 00:02:28,000 --> 00:02:30,000 "Să stau sau să fug?" 69 00:02:30,000 --> 00:02:32,000 Și dacă vă gândiți la asta, 70 00:02:32,000 --> 00:02:35,000 iepurii care sunt buni la aceste schimburi 71 00:02:35,000 --> 00:02:37,000 vor tinde să trăiască și să se reproducă, 72 00:02:37,000 --> 00:02:39,000 iar iepurii care nu sunt buni la asta 73 00:02:39,000 --> 00:02:41,000 vor fi mâncați sau vor muri de foame. 74 00:02:41,000 --> 00:02:43,000 Deci ați gândi că noi, 75 00:02:43,000 --> 00:02:46,000 ca o specie de succes a planetei -- 76 00:02:46,000 --> 00:02:48,000 voi, eu, toți -- 77 00:02:48,000 --> 00:02:51,000 am fi foarte buni în a face aceste schimburi. 78 00:02:51,000 --> 00:02:53,000 Cu toate acestea se pare că, iar și iar, 79 00:02:53,000 --> 00:02:56,000 suntem foarte nepricepuți în asta. 80 00:02:56,000 --> 00:02:59,000 Și eu cred că asta este o întrebare fundamental interesantă. 81 00:02:59,000 --> 00:03:01,000 Vă voi da răspunsul scurt. 82 00:03:01,000 --> 00:03:03,000 Răspunsul este că răspundem la senzația de securitate 83 00:03:03,000 --> 00:03:06,000 și nu la realitate. 84 00:03:06,000 --> 00:03:09,000 În majoritatea cazurilor asta merge. 85 00:03:10,000 --> 00:03:12,000 În majoritatea cazurilor, 86 00:03:12,000 --> 00:03:15,000 senzația și realitatea sunt identice. 87 00:03:15,000 --> 00:03:17,000 În mod cert asta este adevărat 88 00:03:17,000 --> 00:03:20,000 pentru majoritatea preistoriei umane. 89 00:03:20,000 --> 00:03:23,000 Am dezvoltat această abilitate 90 00:03:23,000 --> 00:03:25,000 fiindcă are sens din puct de vedere evoluționar. 91 00:03:25,000 --> 00:03:27,000 Un mod de a gândi la asta 92 00:03:27,000 --> 00:03:29,000 este că suntem extrem de optimizați 93 00:03:29,000 --> 00:03:31,000 pentru decizii de risc 94 00:03:31,000 --> 00:03:34,000 tipice vieții în mici grupuri familiale 95 00:03:34,000 --> 00:03:37,000 în savana africană din anul 100.000 î.H. -- 96 00:03:37,000 --> 00:03:40,000 dar nu așa de mult pentru anul 2010, în New York. 97 00:03:41,000 --> 00:03:44,000 Există mai multe predispoziţii în perceperea riscului. 98 00:03:44,000 --> 00:03:46,000 Există o mulțime de experimente bune pentru asta. 99 00:03:46,000 --> 00:03:49,000 Și poți observa anumite predispoziţii care apar din nou și din nou. 100 00:03:49,000 --> 00:03:51,000 Vă voi da patru. 101 00:03:51,000 --> 00:03:54,000 Tindem să exagerăm riscurile spectaculoase și rare 102 00:03:54,000 --> 00:03:56,000 și să desconsiderăm riscurile comune -- 103 00:03:56,000 --> 00:03:59,000 de ex. a zbura comparat cu a conduce. 104 00:03:59,000 --> 00:04:01,000 Necunoscutul este perceput 105 00:04:01,000 --> 00:04:04,000 a fi mai riscant decât cunoscutul. 106 00:04:05,000 --> 00:04:07,000 Un exemplu ar fi, 107 00:04:07,000 --> 00:04:10,000 oamenilor le e teamă de străinii care răpesc copii, 108 00:04:10,000 --> 00:04:13,000 când datele susțin că răpirea de către rude este mult mai comună. 109 00:04:13,000 --> 00:04:15,000 Asta este pentru copii. 110 00:04:15,000 --> 00:04:18,000 Trei, riscurile personificate 111 00:04:18,000 --> 00:04:21,000 sunt percepute a fi mai mari decât riscurile anonime -- 112 00:04:21,000 --> 00:04:24,000 deci Bin Laden este mai înspăimântător fiindcă are un nume. 113 00:04:24,000 --> 00:04:26,000 Și a patra 114 00:04:26,000 --> 00:04:28,000 este că oamenii subestimează riscurile 115 00:04:28,000 --> 00:04:30,000 în situații pe care le controlează 116 00:04:30,000 --> 00:04:34,000 și le supraestimează în situații pe care nu le controlează. 117 00:04:34,000 --> 00:04:37,000 Deci odată ce te-ai apucat de sărituri cu parașuta sau de fumat, 118 00:04:37,000 --> 00:04:39,000 desconsideri riscurile. 119 00:04:39,000 --> 00:04:42,000 Dacă ți se impune un risc cu forța -- terorismul a fost un bun exemplu -- 120 00:04:42,000 --> 00:04:45,000 îl vei exagera, fiindcă simți că nu este sub controlul tău. 121 00:04:47,000 --> 00:04:50,000 Există o mulțime de alte predispoziţii, aceste predispoziţii cognitive, 122 00:04:50,000 --> 00:04:53,000 care afectează deciziile noastre de risc. 123 00:04:53,000 --> 00:04:55,000 Este heuristica disponibilității, 124 00:04:55,000 --> 00:04:57,000 care de fapt înseamnă 125 00:04:57,000 --> 00:05:00,000 că estimăm probabilitatea a ceva 126 00:05:00,000 --> 00:05:04,000 prin cât de ușor ne imaginăm instanțele ei. 127 00:05:04,000 --> 00:05:06,000 Puteți să vă imaginați cum funcționează asta. 128 00:05:06,000 --> 00:05:09,000 Dacă auziți mult despre atacuri de tigri, trebuie să fie mulți tigri în jur. 129 00:05:09,000 --> 00:05:12,000 Nu auziți despre atacuri de lei, deci nu sunt mulți lei în jur. 130 00:05:12,000 --> 00:05:15,000 Asta funcționează până inventezi ziarele. 131 00:05:15,000 --> 00:05:17,000 Fiindcă ziarele 132 00:05:17,000 --> 00:05:19,000 repetă din nou și din nou 133 00:05:19,000 --> 00:05:21,000 riscurile rare. 134 00:05:21,000 --> 00:05:23,000 Eu le spun oamenilor: dacă este în știri, nu te îngrijora. 135 00:05:23,000 --> 00:05:25,000 Fiindcă prin definiție, 136 00:05:25,000 --> 00:05:28,000 știrea este ceva care se întâmplă foarte rar. 137 00:05:28,000 --> 00:05:30,000 (Râsete) 138 00:05:30,000 --> 00:05:33,000 Când ceva este așa de comun. nu mai apare în știri -- 139 00:05:33,000 --> 00:05:35,000 accidente de mașină, violența domestică -- 140 00:05:35,000 --> 00:05:38,000 acelea sunt riscurile pentru care să te îngrijorezi. 141 00:05:38,000 --> 00:05:40,000 Suntem de asemenea o specie de povestitori. 142 00:05:40,000 --> 00:05:43,000 Răspundem mai mult la povești, decât la date. 143 00:05:43,000 --> 00:05:45,000 Și există o lipsă de știință în aprecierea numerelor. 144 00:05:45,000 --> 00:05:48,000 Adică bancul: "Una, două, trei, multe" pare să fie adevărat. 145 00:05:48,000 --> 00:05:51,000 Suntem foarte buni la numere mici. 146 00:05:51,000 --> 00:05:53,000 Un mango, două mango, trei mango, 147 00:05:53,000 --> 00:05:55,000 însă 10,000 de mango, 100,000 mango -- 148 00:05:55,000 --> 00:05:58,000 sunt totuși mai multe mango decât poți mânca înainte de a putrezi. 149 00:05:58,000 --> 00:06:01,000 Deci o jumătate, un sfert, o cincime -- suntem buni la asta. 150 00:06:01,000 --> 00:06:03,000 Unul dintr-un milion, unul dintr-un miliard -- 151 00:06:03,000 --> 00:06:06,000 ambele sunt aproape ca niciodată. 152 00:06:06,000 --> 00:06:08,000 Așa că avem problemă cu riscurile 153 00:06:08,000 --> 00:06:10,000 care nu sunt foarte comune. 154 00:06:10,000 --> 00:06:12,000 Iar aceste predispoziţii cognitive 155 00:06:12,000 --> 00:06:15,000 acționează ca niște filtre între noi și realitate. 156 00:06:15,000 --> 00:06:17,000 Și rezultatul 157 00:06:17,000 --> 00:06:19,000 este că senzația și realitatea ies din sincron, 158 00:06:19,000 --> 00:06:22,000 ajung diferite. 159 00:06:22,000 --> 00:06:25,000 Fie ai o senzație -- te simți mai sigur decât ești în realitate. 160 00:06:25,000 --> 00:06:27,000 Este o falsă senzație de securitate. 161 00:06:27,000 --> 00:06:29,000 Sau invers, 162 00:06:29,000 --> 00:06:31,000 și atunci este o falsă senzație de insecuritate. 163 00:06:31,000 --> 00:06:34,000 Scriu mult despre "scena securității", 164 00:06:34,000 --> 00:06:37,000 care sunt produsele care îi fac pe oamenii să se simtă în siguranță, 165 00:06:37,000 --> 00:06:39,000 dar de fapt nu fac ceva util. 166 00:06:39,000 --> 00:06:41,000 Nu există cuvânt pentru lucrurile care ne asigură securitatea, 167 00:06:41,000 --> 00:06:43,000 dar nu ne fac să ne simțim mai în siguranță. 168 00:06:43,000 --> 00:06:46,000 Poate asta ar trebui să facă CIA pentru noi. 169 00:06:48,000 --> 00:06:50,000 Deci înapoi la economie. 170 00:06:50,000 --> 00:06:54,000 Dacă economia, dacă piața, dirijează securitatea, 171 00:06:54,000 --> 00:06:56,000 și dacă oamenii fac schimburi 172 00:06:56,000 --> 00:06:59,000 bazate pe senzația de securitate, 173 00:06:59,000 --> 00:07:01,000 atunci companiile trebuie să facă 174 00:07:01,000 --> 00:07:03,000 oamenii să se simtă în siguranță 175 00:07:03,000 --> 00:07:06,000 pentru a culege recompensele economice. 176 00:07:06,000 --> 00:07:09,000 Și sunt două căi de a face asta. 177 00:07:09,000 --> 00:07:11,000 Prima, poți asigura securitatea omenilor 178 00:07:11,000 --> 00:07:13,000 și speri că vor observa. 179 00:07:13,000 --> 00:07:16,000 Sau a doua, poți să-i faci pe oameni să se simtă în siguranță 180 00:07:16,000 --> 00:07:19,000 și speri că nu vor observa. 181 00:07:20,000 --> 00:07:23,000 Deci ce-i face pe oameni să observe? 182 00:07:23,000 --> 00:07:25,000 Câteva lucruri: 183 00:07:25,000 --> 00:07:27,000 înțelegerea securității, 184 00:07:27,000 --> 00:07:29,000 a riscurilor, a amenințărilor, 185 00:07:29,000 --> 00:07:32,000 a contramăsurilor, cum funcționează ele. 186 00:07:32,000 --> 00:07:34,000 Dar dacă știi lucrurile, 187 00:07:34,000 --> 00:07:37,000 este mai probabil ca senzațiile tale să se potrivească cu realitatea. 188 00:07:37,000 --> 00:07:40,000 Multe exemple din lumea reală ne pot ajuta. 189 00:07:40,000 --> 00:07:43,000 Știm cu toții despre rata crimelor din cartierul nostru, 190 00:07:43,000 --> 00:07:46,000 fiindcă trăim acolo și avem o atitudine față de asta, 191 00:07:46,000 --> 00:07:49,000 senzație care de fapt se potrivește cu realitatea. 192 00:07:49,000 --> 00:07:52,000 Spectacolul de securitate este dezvăluit 193 00:07:52,000 --> 00:07:55,000 când este evident că nu funționează corect. 194 00:07:55,000 --> 00:07:59,000 În regulă, deci ce-i face pe oameni să nu observe? 195 00:07:59,000 --> 00:08:01,000 Ei bine, o slabă înțelegere. 196 00:08:01,000 --> 00:08:04,000 Dacă nu înțelegi riscurile, nu înțelegi costurile, 197 00:08:04,000 --> 00:08:06,000 vei face probabil schimbul greșit, 198 00:08:06,000 --> 00:08:09,000 și senzația ta nu se va potrivi cu realitatea. 199 00:08:09,000 --> 00:08:11,000 Nu sunt destule exemple. 200 00:08:11,000 --> 00:08:13,000 Este o problemă inerentă 201 00:08:13,000 --> 00:08:15,000 cu evenimentele de mică probabilitate. 202 00:08:15,000 --> 00:08:17,000 Dacă, de exemplu, 203 00:08:17,000 --> 00:08:19,000 terorismul se întâmplă foarte rar, 204 00:08:19,000 --> 00:08:21,000 este foarte greu de judecat 205 00:08:21,000 --> 00:08:24,000 eficacitatea măsurilor antiteroriste. 206 00:08:25,000 --> 00:08:28,000 De asta continui să sacrifici fecioare, 207 00:08:28,000 --> 00:08:31,000 și de asta funcționează așa de minunat apărarea ta bazată pe inorogi. 208 00:08:31,000 --> 00:08:34,000 Nu sunt destule exemple de eșecuri. 209 00:08:35,000 --> 00:08:38,000 De asemenea, sentimentele care obturează problemele -- 210 00:08:38,000 --> 00:08:40,000 predispoziţiile cognitive despre care am vorbit înainte, 211 00:08:40,000 --> 00:08:43,000 temeri, credințe populare, 212 00:08:43,000 --> 00:08:46,000 de fapt un model neadecvat al realității. 213 00:08:47,000 --> 00:08:50,000 Permiteți-mi să complic lucrurile. 214 00:08:50,000 --> 00:08:52,000 Am senzație și realitate. 215 00:08:52,000 --> 00:08:55,000 Vreau să adaug un al treilea element. Vreau să adaug modelul. 216 00:08:55,000 --> 00:08:57,000 Senzația și modelul este în capul nostru, 217 00:08:57,000 --> 00:08:59,000 realitatea este lumea din jur. 218 00:08:59,000 --> 00:09:02,000 Ea nu se schimbă; este reală. 219 00:09:02,000 --> 00:09:04,000 Senzația este bazată pe intuiția noastră. 220 00:09:04,000 --> 00:09:06,000 Modelul este bazat pe raționament. 221 00:09:06,000 --> 00:09:09,000 Asta este de fapt diferența. 222 00:09:09,000 --> 00:09:11,000 Într-o lume primitivă și simplă, 223 00:09:11,000 --> 00:09:14,000 chiar nu este nevoie de un model. 224 00:09:14,000 --> 00:09:17,000 Fiindcă senzația este aproape de realitate. 225 00:09:17,000 --> 00:09:19,000 Nu ai nevoie de un model. 226 00:09:19,000 --> 00:09:21,000 Dar într-o lume modernă și complexă, 227 00:09:21,000 --> 00:09:23,000 ai nevoie de modele 228 00:09:23,000 --> 00:09:26,000 pentru a înțelege mulțimea de riscuri care există. 229 00:09:27,000 --> 00:09:29,000 Nu există senzație despre microbi. 230 00:09:29,000 --> 00:09:32,000 Ai nevoie de un model pentru a-i înțelege. 231 00:09:32,000 --> 00:09:34,000 Deci acest model 232 00:09:34,000 --> 00:09:37,000 este o reprezentare inteligentă a realității. 233 00:09:37,000 --> 00:09:40,000 Este desigur limitat de știință, 234 00:09:40,000 --> 00:09:42,000 de tehnologie. 235 00:09:42,000 --> 00:09:45,000 Nu am putut avea o teorie a bolilor bazată pe microbi 236 00:09:45,000 --> 00:09:48,000 înainte de inventarea microscopului pentru a le vedea. 237 00:09:49,000 --> 00:09:52,000 Este limitat de predispoziţiile noastre cognitive. 238 00:09:52,000 --> 00:09:54,000 Dar are abilitatea 239 00:09:54,000 --> 00:09:56,000 de a suprascrie senzațiile noastre. 240 00:09:56,000 --> 00:09:59,000 De unde avem aceste modele? Le avem de la alții. 241 00:09:59,000 --> 00:10:02,000 Le avem din religie, cultură, 242 00:10:02,000 --> 00:10:04,000 profesori, strămoși. 243 00:10:04,000 --> 00:10:06,000 Cu câțiva ani în urmă, 244 00:10:06,000 --> 00:10:08,000 am fost în Africa de sud la un safari. 245 00:10:08,000 --> 00:10:11,000 Călăuza cu care am fost a crescut în Parcul Național Kruger. 246 00:10:11,000 --> 00:10:14,000 El avea niște modele foarte complexe despre cum să supraviețuiești. 247 00:10:14,000 --> 00:10:16,000 Iar asta depindea dacă te ataca 248 00:10:16,000 --> 00:10:18,000 un leu sau un leopard sau un rinocer sau un elefant -- 249 00:10:18,000 --> 00:10:21,000 și când trebuie să fugi, și când trebuie să te urci într-un copac -- 250 00:10:21,000 --> 00:10:23,000 și când nu trebuie să te urci într-un copac. 251 00:10:23,000 --> 00:10:26,000 Eu aș fi murit într-o singură zi, 252 00:10:26,000 --> 00:10:28,000 dar el s-a născut acolo, 253 00:10:28,000 --> 00:10:30,000 și înțelegea cum să supraviețuiești. 254 00:10:30,000 --> 00:10:32,000 Eu m-am născut în New York City. 255 00:10:32,000 --> 00:10:35,000 Dacă l-aș fi luat cu mine în New York, atunci el ar fi murit într-o singură zi. 256 00:10:35,000 --> 00:10:37,000 (Râsete) 257 00:10:37,000 --> 00:10:39,000 Fiindcă aveam modele diferite 258 00:10:39,000 --> 00:10:42,000 bazate pe experiențele noastre diferite. 259 00:10:43,000 --> 00:10:45,000 Modelele pot veni din massmedia, 260 00:10:45,000 --> 00:10:48,000 de la aleșii noștri oficiali. 261 00:10:48,000 --> 00:10:51,000 Gândiți-vă la modele de terorism, 262 00:10:51,000 --> 00:10:54,000 răpiri de copii, 263 00:10:54,000 --> 00:10:56,000 siguranța zborului, siguranța mașinii. 264 00:10:56,000 --> 00:10:59,000 Modelele pot veni din industrie. 265 00:10:59,000 --> 00:11:01,000 Cele două pe care la urmăresc sunt camerele de supraveghere, 266 00:11:01,000 --> 00:11:03,000 cardurile de identitate, 267 00:11:03,000 --> 00:11:06,000 destul de multe din modelele de securitatea calculatoarelor vin de acolo. 268 00:11:06,000 --> 00:11:09,000 O mulțime de modele vin din știință. 269 00:11:09,000 --> 00:11:11,000 Modelele de sănătate sunt un exemplu grozav. 270 00:11:11,000 --> 00:11:14,000 Gândiți-vă la cancer, gripa aviară, gripa porcină, SARS. 271 00:11:14,000 --> 00:11:17,000 Toate senzațiile noastre de securitate 272 00:11:17,000 --> 00:11:19,000 despre acele boli 273 00:11:19,000 --> 00:11:21,000 vin din modele 274 00:11:21,000 --> 00:11:24,000 date nouă, de fapt, de știință filtrată prin massmedia. 275 00:11:25,000 --> 00:11:28,000 Așa că modelele se pot schimba. 276 00:11:28,000 --> 00:11:30,000 Modelele nu sunt statice. 277 00:11:30,000 --> 00:11:33,000 Pe măsură ce devenim mai confortabili în mediile noastre, 278 00:11:33,000 --> 00:11:37,000 modelele noastre se pot muta mai aproape de senzațiile noastre. 279 00:11:38,000 --> 00:11:40,000 Un exemplu ar fi, 280 00:11:40,000 --> 00:11:42,000 dacă mergeți înapoi 100 de ani 281 00:11:42,000 --> 00:11:45,000 când electricitatea a început să fie folosită, 282 00:11:45,000 --> 00:11:47,000 erau multe temeri legate de ea. 283 00:11:47,000 --> 00:11:49,000 Erau oameni cărora le era frică să apese butonul soneriei, 284 00:11:49,000 --> 00:11:52,000 fiindcă era electricitate în el, iar asta era periculos. 285 00:11:52,000 --> 00:11:55,000 Noi suntem degajați privind electricitatea. 286 00:11:55,000 --> 00:11:57,000 Schimbăm becurile electrice 287 00:11:57,000 --> 00:11:59,000 fără să ne gândim la ea. 288 00:11:59,000 --> 00:12:03,000 Modelul nostru de securitate despre electricitate 289 00:12:03,000 --> 00:12:06,000 este ceva în care trăim de la naștere. 290 00:12:06,000 --> 00:12:09,000 El nu s-a schimbat pe durata vieții noastre. 291 00:12:09,000 --> 00:12:12,000 Și suntem buni la acest model. 292 00:12:12,000 --> 00:12:14,000 Sau gândiți-vă la riscurile 293 00:12:14,000 --> 00:12:16,000 Internetului perceput de generații -- 294 00:12:16,000 --> 00:12:18,000 cum tratează părinții voștri securitatea Internetului, 295 00:12:18,000 --> 00:12:20,000 față de cum faceți voi, 296 00:12:20,000 --> 00:12:23,000 față de cum vor face copiii noștri. 297 00:12:23,000 --> 00:12:26,000 În cele din urmă modelele dispar în fundal. 298 00:12:27,000 --> 00:12:30,000 Intuitiv este doar un alt cuvânt pentru familiar. 299 00:12:30,000 --> 00:12:32,000 Pe măsură ce modelul tău este aproape de realitate, 300 00:12:32,000 --> 00:12:34,000 și converge cu senzațiile, 301 00:12:34,000 --> 00:12:37,000 adesea nici nu știi că e acolo. 302 00:12:37,000 --> 00:12:39,000 Un exemplu drăguț pentru asta 303 00:12:39,000 --> 00:12:42,000 a fost gripa porcină de anul trecut. 304 00:12:42,000 --> 00:12:44,000 Când gripa porcină a apărut prima dată, 305 00:12:44,000 --> 00:12:48,000 știrile inițiale au provocat multe reacții exagerate. 306 00:12:48,000 --> 00:12:50,000 Apoi a avut un nume, 307 00:12:50,000 --> 00:12:52,000 ceea ce a făcut-o mai de speriat decât gripa normală, 308 00:12:52,000 --> 00:12:54,000 chiar dacă a fost mai mortală. 309 00:12:54,000 --> 00:12:58,000 Și oamenii au gândit că doctorii vor fi în stare să-i facă față. 310 00:12:58,000 --> 00:13:00,000 Deci a fost senzația lipsei de control. 311 00:13:00,000 --> 00:13:02,000 Iar aceste două lucruri 312 00:13:02,000 --> 00:13:04,000 au făcut riscul mai mare decât era. 313 00:13:04,000 --> 00:13:07,000 După ce a trecut noutatea, au trecut luni, 314 00:13:07,000 --> 00:13:09,000 a existat o doză de toleranță, 315 00:13:09,000 --> 00:13:11,000 oamenii s-au obișnuit cu ea. 316 00:13:11,000 --> 00:13:14,000 Nu existau date noi, dar era mai puțină frică. 317 00:13:14,000 --> 00:13:16,000 Până toamna, 318 00:13:16,000 --> 00:13:18,000 oamenii au gândit 319 00:13:18,000 --> 00:13:20,000 că doctorii au rezolvat deja asta. 320 00:13:20,000 --> 00:13:22,000 Și există un fel de bifurcație -- 321 00:13:22,000 --> 00:13:24,000 oamenii au trebuit să aleagă 322 00:13:24,000 --> 00:13:28,000 între frică și acceptare -- 323 00:13:28,000 --> 00:13:30,000 de fapt frică și indiferență -- 324 00:13:30,000 --> 00:13:33,000 și ei au devenit suspicioși. 325 00:13:33,000 --> 00:13:36,000 Și când a apărut vaccinul iarna trecută, 326 00:13:36,000 --> 00:13:39,000 erau o mulțime de oameni -- un număr surprinzător -- 327 00:13:39,000 --> 00:13:42,000 care au refuzat să-l ia -- 328 00:13:43,000 --> 00:13:45,000 ca un exemplu drăguț 329 00:13:45,000 --> 00:13:48,000 de cum se schimbă senzația de securitate a oamenilor, cum se schimbă modelul lor, 330 00:13:48,000 --> 00:13:50,000 într-un mod nebunesc 331 00:13:50,000 --> 00:13:52,000 fără informații noi, 332 00:13:52,000 --> 00:13:54,000 fără date noi de intrare. 333 00:13:54,000 --> 00:13:57,000 Acest lucru se întâmplă des. 334 00:13:57,000 --> 00:14:00,000 Voi mai face o complicare în plus. 335 00:14:00,000 --> 00:14:03,000 Avem senzație, model, realitate. 336 00:14:03,000 --> 00:14:05,000 Am o vedere foarte relativistă a securității. 337 00:14:05,000 --> 00:14:08,000 Cred că depinde de observator. 338 00:14:08,000 --> 00:14:10,000 Și majoritatea deciziilor de securitate 339 00:14:10,000 --> 00:14:14,000 implică o diversitate de oameni. 340 00:14:14,000 --> 00:14:16,000 Iar părțile interesate 341 00:14:16,000 --> 00:14:19,000 cu schimburi specifice 342 00:14:19,000 --> 00:14:21,000 vor încerca să influențeze decizia. 343 00:14:21,000 --> 00:14:23,000 Și eu numesc asta planul lor. 344 00:14:23,000 --> 00:14:25,000 Și vedeți planuri -- 345 00:14:25,000 --> 00:14:28,000 în marketing, în politică -- 346 00:14:28,000 --> 00:14:31,000 încercând să te convingă să ai un anumit model față de un altul, 347 00:14:31,000 --> 00:14:33,000 încercând să te convingă să ignori un model 348 00:14:33,000 --> 00:14:36,000 și să te încrezi în senzațiile tale, 349 00:14:36,000 --> 00:14:39,000 marginalizând oamenii cu modele care nu-ți plac. 350 00:14:39,000 --> 00:14:42,000 Asta nu este ceva neobişnuit. 351 00:14:42,000 --> 00:14:45,000 Un exemplu grozav este riscul fumatului. 352 00:14:46,000 --> 00:14:49,000 În istoria ultimilor 50 de ani, riscul fumatului 353 00:14:49,000 --> 00:14:51,000 arată cum se schimbă un model, 354 00:14:51,000 --> 00:14:54,000 și arată de asemenea cum o industrie luptă 355 00:14:54,000 --> 00:14:56,000 împotriva unui model care nu-i place. 356 00:14:56,000 --> 00:14:59,000 Comparați asta cu dezbaterea despre fumatul pasiv -- 357 00:14:59,000 --> 00:15:02,000 probabil cu aproape 20 de ani în urmă. 358 00:15:02,000 --> 00:15:04,000 Gândiți-vă la centurile de siguranță. 359 00:15:04,000 --> 00:15:06,000 Când eram copil, nimeni nu purta centura de siguranță. 360 00:15:06,000 --> 00:15:08,000 Azi, niciun copil nu te va lăsa să conduci 361 00:15:08,000 --> 00:15:10,000 dacă nu ai centura de siguranță. 362 00:15:11,000 --> 00:15:13,000 Comparați asta cu dezbaterea despre perna de aer -- 363 00:15:13,000 --> 00:15:16,000 probabil cu 30 de ani în urmă. 364 00:15:16,000 --> 00:15:19,000 Toate sunt exemple de schimbări de modele. 365 00:15:21,000 --> 00:15:24,000 Ceea ce învățăm este că schimbarea modelelor este dificilă. 366 00:15:24,000 --> 00:15:26,000 Modelele sunt greu de dislocat. 367 00:15:26,000 --> 00:15:28,000 Dacă sunt la fel cu senzațiile tale 368 00:15:28,000 --> 00:15:31,000 nu știi că ai un model. 369 00:15:31,000 --> 00:15:33,000 Și există o altă predispoziţie cognitivă 370 00:15:33,000 --> 00:15:35,000 pe care o numesc predispoziţie de confirmare, 371 00:15:35,000 --> 00:15:38,000 unde tindem să acceptăm datele 372 00:15:38,000 --> 00:15:40,000 care confirmă credințele noastre 373 00:15:40,000 --> 00:15:43,000 și să rejectăm datele care contrazic credințele noastre. 374 00:15:44,000 --> 00:15:46,000 Deci probabil vom ignora dovada 375 00:15:46,000 --> 00:15:49,000 împotriva modelului nostru, chiar dacă este convingătoare. 376 00:15:49,000 --> 00:15:52,000 Trebuie să devină foarte convingătoare înainte de a-i acorda atenție. 377 00:15:53,000 --> 00:15:55,000 Modele noi care se întind perioade lungi de timp sunt dificile. 378 00:15:55,000 --> 00:15:57,000 Încălzirea globală este un exemplu grozav. 379 00:15:57,000 --> 00:15:59,000 Suntem îngrozitori 380 00:15:59,000 --> 00:16:01,000 la modele care acoperă 80 de ani. 381 00:16:01,000 --> 00:16:03,000 Putem s-o facem până la următoarea recoltă. 382 00:16:03,000 --> 00:16:06,000 Adesea o putem face până cresc copiii noștri. 383 00:16:06,000 --> 00:16:09,000 Dar 80 de ani, pur și simplu nu suntem buni la asta. 384 00:16:09,000 --> 00:16:12,000 Deci este un model foarte greu de acceptat. 385 00:16:12,000 --> 00:16:16,000 Putem avea ambele modele simultan în cap, 386 00:16:16,000 --> 00:16:19,000 sau acel tip de problemă 387 00:16:19,000 --> 00:16:22,000 când avem ambele credințe simultan, 388 00:16:22,000 --> 00:16:24,000 sau disonanța cognitivă. 389 00:16:24,000 --> 00:16:26,000 În final modelul nou 390 00:16:26,000 --> 00:16:29,000 va înlocui modelul vechi. 391 00:16:29,000 --> 00:16:32,000 Senzațiile puternice pot crea un model. 392 00:16:32,000 --> 00:16:35,000 11 septembrie a creat un model de securitate 393 00:16:35,000 --> 00:16:37,000 în capul multor oameni. 394 00:16:37,000 --> 00:16:40,000 Experiența personală cu criminalitatea o poate face, 395 00:16:40,000 --> 00:16:42,000 panica pentru sănătatea personală, 396 00:16:42,000 --> 00:16:44,000 o panică de sănătate în știri. 397 00:16:44,000 --> 00:16:46,000 Psihiatrii numesc asta 398 00:16:46,000 --> 00:16:48,000 evenimente "se aprinde becul". 399 00:16:48,000 --> 00:16:51,000 Ele pot crea instantaneu un model, 400 00:16:51,000 --> 00:16:54,000 fiindcă sunt foarte emoționale. 401 00:16:54,000 --> 00:16:56,000 În lumea tehnologică 402 00:16:56,000 --> 00:16:58,000 nu avem experiența 403 00:16:58,000 --> 00:17:00,000 de a judeca modele. 404 00:17:00,000 --> 00:17:02,000 Și ne bazăm pe alții. Ne bazăm pe împuterniciți. 405 00:17:02,000 --> 00:17:06,000 Adică, asta funcționează cât timp este în regulă pentru alții. 406 00:17:06,000 --> 00:17:08,000 Ne bazăm pe agenții guvernamentale 407 00:17:08,000 --> 00:17:13,000 să ne spună care sunt medicamentele sigure. 408 00:17:13,000 --> 00:17:15,000 Ieri am zburat aici. 409 00:17:15,000 --> 00:17:17,000 Nu am verificat avionul. 410 00:17:17,000 --> 00:17:19,000 M-am bazat pe un alt grup 411 00:17:19,000 --> 00:17:22,000 să constate dacă avionul meu este sigur pentru zbor. 412 00:17:22,000 --> 00:17:25,000 Suntem aici, nimănui nu-i este teamă că acoperișul va cădea peste noi, 413 00:17:25,000 --> 00:17:28,000 nu fiindcă am verificat, 414 00:17:28,000 --> 00:17:30,000 ci fiindcă suntem destul de siguri 415 00:17:30,000 --> 00:17:33,000 că aici normele de construcție sunt bune. 416 00:17:33,000 --> 00:17:35,000 Este un model pe care-l acceptăm 417 00:17:35,000 --> 00:17:37,000 mai mult prin încredere. 418 00:17:37,000 --> 00:17:40,000 Și asta este în regulă. 419 00:17:42,000 --> 00:17:44,000 Ceea ce vrem este ca 420 00:17:44,000 --> 00:17:46,000 oamenii să devină suficient de obișnuiți 421 00:17:46,000 --> 00:17:48,000 cu modele mai bune -- 422 00:17:48,000 --> 00:17:50,000 să le reflecte în senzațiile lor -- 423 00:17:50,000 --> 00:17:54,000 să le permită să facă schimburi de securitate. 424 00:17:54,000 --> 00:17:56,000 Când acestea se strică, 425 00:17:56,000 --> 00:17:58,000 ai două opțiuni. 426 00:17:58,000 --> 00:18:00,000 Prima, poți repara senzațiile oamenilor, 427 00:18:00,000 --> 00:18:02,000 apelând direct la sentimente. 428 00:18:02,000 --> 00:18:05,000 Este manipulare, dar poate funcționa. 429 00:18:05,000 --> 00:18:07,000 A doua cale, mai cinstită, 430 00:18:07,000 --> 00:18:10,000 este să repari modelul. 431 00:18:11,000 --> 00:18:13,000 Schimbările se întâmplă încet. 432 00:18:13,000 --> 00:18:16,000 Dezbaterea despre fumat a luat 40 de ani, 433 00:18:16,000 --> 00:18:19,000 și asta a fost una ușoară. 434 00:18:19,000 --> 00:18:21,000 Unele din aceste lucruri sunt dificile. 435 00:18:21,000 --> 00:18:23,000 Adică foarte dificile, 436 00:18:23,000 --> 00:18:25,000 informația pare cea mai bună speranță pentru noi. 437 00:18:25,000 --> 00:18:27,000 Și am mințit. 438 00:18:27,000 --> 00:18:29,000 Țineți minte când am spus: senzație, model, realitate. 439 00:18:29,000 --> 00:18:32,000 Am spus că realitatea nu se schimbă. De fapt o face. 440 00:18:32,000 --> 00:18:34,000 Trăim într-o lume tehnologică; 441 00:18:34,000 --> 00:18:37,000 realitatea se schimbă tot timpul. 442 00:18:37,000 --> 00:18:40,000 Deci s-ar putea să avem -- pentru prima dată ca specie -- 443 00:18:40,000 --> 00:18:43,000 senzația urmărește modelul, modelul urmărește realitatea, 444 00:18:43,000 --> 00:18:46,000 iar realitatea se mișcă -- s-ar putea să nu se ajungă niciodată. 445 00:18:47,000 --> 00:18:49,000 Nu știm. 446 00:18:49,000 --> 00:18:51,000 Dar pe termen lung, 447 00:18:51,000 --> 00:18:54,000 sunt importante și senzația și realitatea. 448 00:18:54,000 --> 00:18:57,000 Și vreau să închei cu două istorioare pentru a ilustra asta. 449 00:18:57,000 --> 00:18:59,000 1982 -- nu știu dacă oamenii își vor aminti asta -- 450 00:18:59,000 --> 00:19:02,000 a fost o scurtă epidemie 451 00:19:02,000 --> 00:19:04,000 de otrăvire cu Tylenol în SUA. 452 00:19:04,000 --> 00:19:07,000 Este o poveste oribilă. Cineva a luat o sticlă de Tylenol, 453 00:19:07,000 --> 00:19:10,000 a pus otravă în ea, a închis-o la loc, a pus-o înapoi pe raft. 454 00:19:10,000 --> 00:19:12,000 Altcineva a cumpărat-o și a murit. 455 00:19:12,000 --> 00:19:14,000 Asta a îngrozit lumea. 456 00:19:14,000 --> 00:19:16,000 Au fost câteva cazuri de copiere a atacului. 457 00:19:16,000 --> 00:19:19,000 Nu exista un risc real, dar oamenii erau speriați. 458 00:19:19,000 --> 00:19:21,000 Și așa a fost inventată 459 00:19:21,000 --> 00:19:23,000 industria medicamentelor sigilate. 460 00:19:23,000 --> 00:19:25,000 Acele capace sigilate au rezultat din asta. 461 00:19:25,000 --> 00:19:27,000 Este un adevărat spectacol de securitate. 462 00:19:27,000 --> 00:19:29,000 Ca temă pentr acasă, gândiți-vă la 10 căi de a ocoli asta. 463 00:19:29,000 --> 00:19:32,000 Vă dau una: o seringă. 464 00:19:32,000 --> 00:19:35,000 Dar a făcut oamenii să se simtă mai bine. 465 00:19:35,000 --> 00:19:37,000 A făcut ca senzația lor de securitate 466 00:19:37,000 --> 00:19:39,000 să se potrivească mai mult cu realitatea. 467 00:19:39,000 --> 00:19:42,000 Ulima poveste, acum câțiva ani, o prietenă a născut. 468 00:19:42,000 --> 00:19:44,000 Am vizitat-o în spital. 469 00:19:44,000 --> 00:19:46,000 Am aflat că acum când se naște un copil, 470 00:19:46,000 --> 00:19:48,000 se pune o brățară cu identificator radio (RFID) bebelușului, 471 00:19:48,000 --> 00:19:50,000 se pune una corespunzătoare mamei, 472 00:19:50,000 --> 00:19:52,000 deci dacă oricine altcineva decât mama scoate copilul 473 00:19:52,000 --> 00:19:54,000 din maternitate, va suna o alarmă. 474 00:19:54,000 --> 00:19:56,000 Am zis: "Ei bine, asta este simplu dar elegant. 475 00:19:56,000 --> 00:19:58,000 Mă întreb cât de excesiv este furtul 476 00:19:58,000 --> 00:20:00,000 de bebeluși din spitale." 477 00:20:00,000 --> 00:20:02,000 Am mers acasă, am căutat asta. 478 00:20:02,000 --> 00:20:04,000 De fapt nu se întâmplă niciodată. 479 00:20:04,000 --> 00:20:06,000 Dar dacă te gândești la asta, 480 00:20:06,000 --> 00:20:08,000 dacă ești un spital, 481 00:20:08,000 --> 00:20:10,000 și dacă trebuie să iei un bebeluș de la mama lui, 482 00:20:10,000 --> 00:20:12,000 afară din cameră pentru niște teste, 483 00:20:12,000 --> 00:20:14,000 ar fi bine să ai un spectacol de securitate bun, 484 00:20:14,000 --> 00:20:16,000 sau mama îți va rupe brațul. 485 00:20:16,000 --> 00:20:18,000 (Râsete) 486 00:20:18,000 --> 00:20:20,000 Deci este important pentru noi, 487 00:20:20,000 --> 00:20:22,000 cei care proiectăm securitatea, 488 00:20:22,000 --> 00:20:25,000 care privim la politica de securitate, 489 00:20:25,000 --> 00:20:27,000 sau doar privim la politica publică 490 00:20:27,000 --> 00:20:29,000 în moduri care afectează securitatea. 491 00:20:29,000 --> 00:20:32,000 Nu este doar realitate, este senzație și realitate. 492 00:20:32,000 --> 00:20:34,000 Ce este important 493 00:20:34,000 --> 00:20:36,000 este ca ele să fie la fel. 494 00:20:36,000 --> 00:20:38,000 Este important, fiindcă dacă senzația se potrivește cu realitatea, 495 00:20:38,000 --> 00:20:40,000 facem schimburi mai bune de securitate. 496 00:20:40,000 --> 00:20:42,000 Vă mulțumesc. 497 00:20:42,000 --> 00:20:44,000 (Aplauze)