1 00:00:00,000 --> 00:00:02,000 Segurança são duas coisas diferentes: 2 00:00:02,000 --> 00:00:04,000 sensação, e realidade. 3 00:00:04,000 --> 00:00:06,000 E elas são de fato diferentes. 4 00:00:06,000 --> 00:00:08,000 Vocês podem se sentir seguros 5 00:00:08,000 --> 00:00:10,000 mesmo que não estejam. 6 00:00:10,000 --> 00:00:12,000 E podem estar seguros 7 00:00:12,000 --> 00:00:14,000 mesmo que não sintam essa segurança. 8 00:00:14,000 --> 00:00:16,000 Temos então dois conceitos distintos 9 00:00:16,000 --> 00:00:18,000 representados por uma só palavra. 10 00:00:18,000 --> 00:00:20,000 E o que quero fazer nesta palestra 11 00:00:20,000 --> 00:00:22,000 é separar um do outro -- 12 00:00:22,000 --> 00:00:24,000 compreendendo quando eles divergem 13 00:00:24,000 --> 00:00:26,000 e como convergem. 14 00:00:26,000 --> 00:00:28,000 E a linguagem aqui torna-se um problema. 15 00:00:28,000 --> 00:00:30,000 Não existem muitas palavras adequadas 16 00:00:30,000 --> 00:00:33,000 para os conceitos sobre os quais falaremos. 17 00:00:33,000 --> 00:00:35,000 Assim, se olharem para a segurança 18 00:00:35,000 --> 00:00:37,000 do ponto de vista econômico, 19 00:00:37,000 --> 00:00:39,000 ela é uma negociação. 20 00:00:39,000 --> 00:00:41,000 Toda vez que vocês obtêm alguma segurança, 21 00:00:41,000 --> 00:00:43,000 estão sempre negociando alguma coisa. 22 00:00:43,000 --> 00:00:45,000 Seja por uma decisão pessoal -- 23 00:00:45,000 --> 00:00:47,000 ao instalarem um alarme contra roubo em suas casas -- 24 00:00:47,000 --> 00:00:50,000 ou por uma decisão nacional -- ao invadirem um país estrangeiro -- 25 00:00:50,000 --> 00:00:52,000 vocês vão trocar uma coisa por outra, 26 00:00:52,000 --> 00:00:55,000 seja dinheiro, tempo, comodidade, potencialidades, 27 00:00:55,000 --> 00:00:58,000 talvez liberdades essenciais. 28 00:00:58,000 --> 00:01:01,000 E a pergunta a fazer quando consideramos a segurança de qualquer coisa 29 00:01:01,000 --> 00:01:04,000 não é se isto nos tornará mais seguros, 30 00:01:04,000 --> 00:01:07,000 mas se essa troca valerá a pena. 31 00:01:07,000 --> 00:01:09,000 Nos últimos anos vocês têm ouvido falar 32 00:01:09,000 --> 00:01:11,000 que o mundo está mais seguro porque Saddan Hussein não está no poder. 33 00:01:11,000 --> 00:01:14,000 Talvez seja verdade, mas isto não é extremamente relevante. 34 00:01:14,000 --> 00:01:17,000 A pergunta é: valeu a pena? 35 00:01:17,000 --> 00:01:20,000 Vocês podem tomar uma decisão, 36 00:01:20,000 --> 00:01:22,000 e depois refletirem se a invasão valeu a pena. 37 00:01:22,000 --> 00:01:24,000 É assim que pensam sobre segurança -- 38 00:01:24,000 --> 00:01:26,000 do ponto de vista da negociação. 39 00:01:26,000 --> 00:01:29,000 Geralmente, nesse caso, não há certo ou errado. 40 00:01:29,000 --> 00:01:31,000 Alguns de nós temos sistema de alarme contra roubo em casa, 41 00:01:31,000 --> 00:01:33,000 outros não. 42 00:01:33,000 --> 00:01:35,000 Isso depende de onde moramos, 43 00:01:35,000 --> 00:01:37,000 se vivemos sozinhos ou temos família, 44 00:01:37,000 --> 00:01:39,000 da quantidade de bens materiais que possuímos, 45 00:01:39,000 --> 00:01:41,000 ou até que ponto estamos dispostos a aceitar 46 00:01:41,000 --> 00:01:43,000 o risco de sermos roubados. 47 00:01:43,000 --> 00:01:45,000 Na politica também 48 00:01:45,000 --> 00:01:47,000 existem opiniões diferentes. 49 00:01:47,000 --> 00:01:49,000 Muitas vezes, essas negociações 50 00:01:49,000 --> 00:01:51,000 representam muito mais do que segurança apenas. 51 00:01:51,000 --> 00:01:53,000 E acho que isso é muito importante. 52 00:01:53,000 --> 00:01:55,000 As pessoas hoje têm uma intuição natural 53 00:01:55,000 --> 00:01:57,000 sobre essas negociações. 54 00:01:57,000 --> 00:01:59,000 Fazemos isso todos os dias -- 55 00:01:59,000 --> 00:02:01,000 a noite passada no quarto do hotel, 56 00:02:01,000 --> 00:02:03,000 quando decidi dar duas voltas na chave do quarto, 57 00:02:03,000 --> 00:02:05,000 ou vocês, quando vieram para cá de carro, 58 00:02:05,000 --> 00:02:07,000 quando vamos almoçar 59 00:02:07,000 --> 00:02:10,000 e decidimos comer porque a comida não é veneno. 60 00:02:10,000 --> 00:02:12,000 Fazemos concessões repetidas vezes, 61 00:02:12,000 --> 00:02:14,000 várias vezes ao dia. 62 00:02:14,000 --> 00:02:16,000 Às vezes nem percebemos. 63 00:02:16,000 --> 00:02:18,000 Isso quer dizer que estamos vivos; todos nós fazemos isso. 64 00:02:18,000 --> 00:02:21,000 Todas as espécies fazem. 65 00:02:21,000 --> 00:02:23,000 Imaginem um coelho num campo, comendo grama, 66 00:02:23,000 --> 00:02:26,000 e esse coelho avista uma raposa. 67 00:02:26,000 --> 00:02:28,000 Ele vai tomar decisões para sua segurança. 68 00:02:28,000 --> 00:02:30,000 "Devo ficar, ou fugir?" 69 00:02:30,000 --> 00:02:32,000 Se vocês pararem para pensar, 70 00:02:32,000 --> 00:02:35,000 os coelhos que são bons em tomar decisões 71 00:02:35,000 --> 00:02:37,000 tenderão a viver e a se reproduzir, 72 00:02:37,000 --> 00:02:39,000 enquanto aqueles que são ruins nisso 73 00:02:39,000 --> 00:02:41,000 serão devorados ou morrerão de fome. 74 00:02:41,000 --> 00:02:43,000 Então vocês hão de pensar 75 00:02:43,000 --> 00:02:46,000 que nós, como a espécie evoluída do planeta -- 76 00:02:46,000 --> 00:02:48,000 vocês, eu, todos nós -- 77 00:02:48,000 --> 00:02:51,000 seríamos muito bons em sacrificar uma coisa por outra. 78 00:02:51,000 --> 00:02:53,000 No entanto parece, mais uma vez, 79 00:02:53,000 --> 00:02:56,000 que somos irremediavelmente ruins nisso. 80 00:02:56,000 --> 00:02:59,000 E acho que essa é uma questão bastante interessante. 81 00:02:59,000 --> 00:03:01,000 Vou dar-lhes uma resposta em breves palavras. 82 00:03:01,000 --> 00:03:03,000 Na verdade, reagimos à sensação de segurança, 83 00:03:03,000 --> 00:03:06,000 e não àquilo que é real. 84 00:03:06,000 --> 00:03:09,000 O que, na maioria das vezes, funciona. 85 00:03:10,000 --> 00:03:12,000 Muitas vezes, 86 00:03:12,000 --> 00:03:15,000 sensação e realidade são a mesma coisa. 87 00:03:15,000 --> 00:03:17,000 Isso certamente é verdade 88 00:03:17,000 --> 00:03:20,000 para a maior parte da humanidade na pré-história. 89 00:03:20,000 --> 00:03:23,000 Desenvolvemos esta habilidade 90 00:03:23,000 --> 00:03:25,000 porque obedece à lógica evolutiva. 91 00:03:25,000 --> 00:03:27,000 Uma forma de entender isso 92 00:03:27,000 --> 00:03:29,000 é que somos altamente desenvolvidos 93 00:03:29,000 --> 00:03:31,000 para tomar decisões de risco 94 00:03:31,000 --> 00:03:34,000 que são endêmicas à vida em pequenos grupos familiares 95 00:03:34,000 --> 00:03:37,000 nas terras altas do Leste Africano em 100.000 a.C. -- 96 00:03:37,000 --> 00:03:40,000 já em Nova York em 2010, nem tanto. 97 00:03:41,000 --> 00:03:44,000 Existem várias distorções na percepção do que é um risco. 98 00:03:44,000 --> 00:03:46,000 Há muitas experiências enriquecedoras neste sentido. 99 00:03:46,000 --> 00:03:49,000 E vocês podem entender certas distorções que aparecem repetidas vezes. 100 00:03:49,000 --> 00:03:51,000 E vou citar quatro delas. 101 00:03:51,000 --> 00:03:54,000 Tendemos a agigantar riscos tremendos e raros 102 00:03:54,000 --> 00:03:56,000 e a minimizar riscos comuns -- 103 00:03:56,000 --> 00:03:59,000 como andar de avião e andar de carro. 104 00:03:59,000 --> 00:04:01,000 O desconhecido é considerado 105 00:04:01,000 --> 00:04:04,000 mais arriscado do que o que é familiar. 106 00:04:05,000 --> 00:04:07,000 Um exemplo disso seria 107 00:04:07,000 --> 00:04:10,000 o medo que as pessoas têm de serem sequestradas por estranhos, 108 00:04:10,000 --> 00:04:13,000 enquanto os dados apontam que é mais comum o sequestro por parentes. 109 00:04:13,000 --> 00:04:15,000 Isto, em se tratando de crianças. 110 00:04:15,000 --> 00:04:18,000 A terceira distorção seria os riscos personificados 111 00:04:18,000 --> 00:04:21,000 que são considerados maiores do que os anônimos -- 112 00:04:21,000 --> 00:04:24,000 desse jeito, Bin Laden é mais medonho porque tem um nome. 113 00:04:24,000 --> 00:04:26,000 E a quarta, 114 00:04:26,000 --> 00:04:28,000 é quando as pessoas subestimam os riscos 115 00:04:28,000 --> 00:04:30,000 em situações que podem ser controladas 116 00:04:30,000 --> 00:04:34,000 e os supervalorizam em situações de difícil controle. 117 00:04:34,000 --> 00:04:37,000 Uma vez que vocês resolvem fazer um salto em queda livre ou fumar, 118 00:04:37,000 --> 00:04:39,000 estão menosprezando os riscos. 119 00:04:39,000 --> 00:04:42,000 E se são submetidos a algum risco -- o terrorismo foi um bom exemplo -- 120 00:04:42,000 --> 00:04:45,000 vão supervalorizá-lo, porque acham que está fora de seu controle. 121 00:04:47,000 --> 00:04:50,000 Há uma série de outras distorções, chamadas cognitivas, 122 00:04:50,000 --> 00:04:53,000 que afetam nossas decisões em relação aos riscos. 123 00:04:53,000 --> 00:04:55,000 Como a heurística de disponibilidade, 124 00:04:55,000 --> 00:04:57,000 que basicamente significa 125 00:04:57,000 --> 00:05:00,000 que nós calculamos a probabilidade de alguma coisa 126 00:05:00,000 --> 00:05:04,000 pela sua facilidade em trazer alternativas à nossa mente. 127 00:05:04,000 --> 00:05:06,000 Então vocês podem imaginar como isso funciona. 128 00:05:06,000 --> 00:05:09,000 Se vocês ouvem falar muito sobre ataques de tigres, é porque existem muitos deles ao seu redor. 129 00:05:09,000 --> 00:05:12,000 Se não ouvem falar de ataques de leões, então não existem leões à solta. 130 00:05:12,000 --> 00:05:15,000 Isto funcionava antes da invenção dos jornais. 131 00:05:15,000 --> 00:05:17,000 Porque o que eles fazem 132 00:05:17,000 --> 00:05:19,000 é repetir várias vezes 133 00:05:19,000 --> 00:05:21,000 riscos incomuns. 134 00:05:21,000 --> 00:05:23,000 É o que sempre digo, se está nos noticiários, não se preocupem. 135 00:05:23,000 --> 00:05:25,000 Já que, por definição, 136 00:05:25,000 --> 00:05:28,000 notícias de jornal quase sempre são falsas. 137 00:05:28,000 --> 00:05:30,000 (Risos) 138 00:05:30,000 --> 00:05:33,000 Quando um fato é muito comum, deixa de estar nos noticiários -- 139 00:05:33,000 --> 00:05:35,000 acidentes de carro, violência doméstica -- 140 00:05:35,000 --> 00:05:38,000 esses são os riscos com os quais têm que se preocupar. 141 00:05:38,000 --> 00:05:40,000 Somos uma espécie de contadores de histórias. 142 00:05:40,000 --> 00:05:43,000 Respondemos a histórias mais do que aos dados. 143 00:05:43,000 --> 00:05:45,000 E existe a questão da quantidade. 144 00:05:45,000 --> 00:05:48,000 Isso significa que a brincadeira "Um, Dois, Três, um Montão" faz sentido. 145 00:05:48,000 --> 00:05:51,000 Somos muito bons em números pequenos. 146 00:05:51,000 --> 00:05:53,000 1 manga, 2 mangas, 3 mangas, 147 00:05:53,000 --> 00:05:55,000 10.000 mangas, 100.000 mangas -- 148 00:05:55,000 --> 00:05:58,000 são ainda mais mangas a comer antes de apodrecer. 149 00:05:58,000 --> 00:06:01,000 Assim 1/2, 1/4, 1/5 - somos bons nisso. 150 00:06:01,000 --> 00:06:03,000 1 em um milhão, 1 em um bilhão -- 151 00:06:03,000 --> 00:06:06,000 significam quase nunca. 152 00:06:06,000 --> 00:06:08,000 Da mesma forma temos problemas com os riscos 153 00:06:08,000 --> 00:06:10,000 que não são muito comuns. 154 00:06:10,000 --> 00:06:12,000 E o que essas distorções cognitivas fazem 155 00:06:12,000 --> 00:06:15,000 é agir como filtros entre nós e a realidade. 156 00:06:15,000 --> 00:06:17,000 E o resultado 157 00:06:17,000 --> 00:06:19,000 é que sensação e realidade ficam desequilibradas, 158 00:06:19,000 --> 00:06:22,000 ficam diferentes. 159 00:06:22,000 --> 00:06:25,000 Neste caso, ou vocês têm uma sensação -- se sentem mais seguros do que estão. 160 00:06:25,000 --> 00:06:27,000 Existe uma falsa sensação de segurança. 161 00:06:27,000 --> 00:06:29,000 Ou ao contrário, 162 00:06:29,000 --> 00:06:31,000 ou seja, uma falsa sensação de insegurança. 163 00:06:31,000 --> 00:06:34,000 Escrevo muito sobre "teatro de segurança," 164 00:06:34,000 --> 00:06:37,000 que são produtos que fazem as pessoas se sentirem seguras, 165 00:06:37,000 --> 00:06:39,000 mas que na verdade não fazem nada disso. 166 00:06:39,000 --> 00:06:41,000 Não existe uma palavra para definir aquilo que nos torna seguros, 167 00:06:41,000 --> 00:06:43,000 mas não nos faça sentir seguros. 168 00:06:43,000 --> 00:06:46,000 Talvez seja isso que a CIA tenha que fazer por nós. 169 00:06:48,000 --> 00:06:50,000 Mas voltemos à economia. 170 00:06:50,000 --> 00:06:54,000 Se a economia, ou o mercado, transmite segurança, 171 00:06:54,000 --> 00:06:56,000 e se as pessoas fazem sacrifícios 172 00:06:56,000 --> 00:06:59,000 baseadas na sensação de segurança, 173 00:06:59,000 --> 00:07:01,000 então a medida mais inteligente a ser tomada pelas companhias 174 00:07:01,000 --> 00:07:03,000 em favor dos incentivos econômicos 175 00:07:03,000 --> 00:07:06,000 é fazer com que as pessoas se sintam seguras. 176 00:07:06,000 --> 00:07:09,000 E existem dois caminhos para chegar a isto. 177 00:07:09,000 --> 00:07:11,000 Primeiro, podemos tornar as pessoas verdadeiramente seguras 178 00:07:11,000 --> 00:07:13,000 e ter a esperança de que elas percebam. 179 00:07:13,000 --> 00:07:16,000 Segundo, podemos fazer com que se sintam seguras 180 00:07:16,000 --> 00:07:19,000 e esperar que não percebam 181 00:07:20,000 --> 00:07:23,000 E o que fará com que elas percebam? 182 00:07:23,000 --> 00:07:25,000 Na verdade, uma série de coisas: 183 00:07:25,000 --> 00:07:27,000 a compreensão da segurança, 184 00:07:27,000 --> 00:07:29,000 dos riscos, das ameaças, 185 00:07:29,000 --> 00:07:32,000 das medidas prévias, e de como elas funcionam. 186 00:07:32,000 --> 00:07:34,000 Mas se vocês têm conhecimento das coisas, 187 00:07:34,000 --> 00:07:37,000 são mais propensos a ter suas sensações condizendo com a realidade. 188 00:07:37,000 --> 00:07:40,000 Um número suficiente de exemplos do mundo real ajuda muito. 189 00:07:40,000 --> 00:07:43,000 Todos nós sabemos do índice de criminalidade na nossa vizinhança, 190 00:07:43,000 --> 00:07:46,000 porque moramos lá, e temos essa sensação 191 00:07:46,000 --> 00:07:49,000 que basicamente corresponde à realidade. 192 00:07:49,000 --> 00:07:52,000 A câmera de segurança fica visível 193 00:07:52,000 --> 00:07:55,000 quando é óbvio que não está funcionando adequadamente. 194 00:07:55,000 --> 00:07:59,000 Tudo bem, então o que faz com que as pessoas não percebam? 195 00:07:59,000 --> 00:08:01,000 Uma noção precária. 196 00:08:01,000 --> 00:08:04,000 Se vocês não entendem os riscos, não entendem os custos. 197 00:08:04,000 --> 00:08:06,000 E provavelmente farão concessões equivocadas, 198 00:08:06,000 --> 00:08:09,000 e sua sensação não corresponderá à realidade. 199 00:08:09,000 --> 00:08:11,000 Não há exemplos suficientes. 200 00:08:11,000 --> 00:08:13,000 Existe um problema inerente 201 00:08:13,000 --> 00:08:15,000 aos eventos de baixa probabilidade. 202 00:08:15,000 --> 00:08:17,000 Se, por exemplo, 203 00:08:17,000 --> 00:08:19,000 o terrorismo quase nunca acontece, 204 00:08:19,000 --> 00:08:21,000 é muito difícil julgar 205 00:08:21,000 --> 00:08:24,000 a eficácia das medidas anti-terroristas. 206 00:08:25,000 --> 00:08:28,000 É por isso que vocês continuam sacrificando as virgens, 207 00:08:28,000 --> 00:08:31,000 e por isso as defesas do unicórnio estão funcionando perfeitamente. 208 00:08:31,000 --> 00:08:34,000 Não existem exemplos suficientes de fracassos. 209 00:08:35,000 --> 00:08:38,000 Além disso, as sensações estão ofuscando as questões -- 210 00:08:38,000 --> 00:08:40,000 as distorções cognitivas das quais falei anteriormente, 211 00:08:40,000 --> 00:08:43,000 medos, crenças populares, 212 00:08:43,000 --> 00:08:46,000 basicamente um modelo de realidade inadequado. 213 00:08:47,000 --> 00:08:50,000 Então vamos complicar as coisas. 214 00:08:50,000 --> 00:08:52,000 Eu tenho sensação e realidade. 215 00:08:52,000 --> 00:08:55,000 Quero acrescentar um terceiro elemento. Um modelo. 216 00:08:55,000 --> 00:08:57,000 Sensação e modelo em nossa mente, 217 00:08:57,000 --> 00:08:59,000 realidade no mundo exterior. 218 00:08:59,000 --> 00:09:02,000 Isto não muda; é real. 219 00:09:02,000 --> 00:09:04,000 Logo, a sensação baseia-se em nossa intuição. 220 00:09:04,000 --> 00:09:06,000 O modelo baseia-se na razão. 221 00:09:06,000 --> 00:09:09,000 Essa é basicamente a diferença. 222 00:09:09,000 --> 00:09:11,000 Num mundo simples e primitivo, 223 00:09:11,000 --> 00:09:14,000 não há motivo para um modelo. 224 00:09:14,000 --> 00:09:17,000 Porque a sensação está próxima da realidade. 225 00:09:17,000 --> 00:09:19,000 Vocês não precisam de um modelo. 226 00:09:19,000 --> 00:09:21,000 Mas num mundo complexo e moderno, 227 00:09:21,000 --> 00:09:23,000 vocês precisam de modelos 228 00:09:23,000 --> 00:09:26,000 para entender muitos dos riscos com os quais nos deparamos. 229 00:09:27,000 --> 00:09:29,000 Não há como sentir as bactérias. 230 00:09:29,000 --> 00:09:32,000 Vocês precisam de um modelo para entendê-las. 231 00:09:32,000 --> 00:09:34,000 Então este modelo 232 00:09:34,000 --> 00:09:37,000 é uma representação inteligente da realidade. 233 00:09:37,000 --> 00:09:40,000 E, é claro, limitado pela ciência, 234 00:09:40,000 --> 00:09:42,000 pela tecnologia. 235 00:09:42,000 --> 00:09:45,000 Não poderíamos ter uma teoria bacteriana de uma doença 236 00:09:45,000 --> 00:09:48,000 antes de inventarmos o microscópio e observá-las. 237 00:09:49,000 --> 00:09:52,000 Isto é limitado pelas nossas distorções cognitivas. 238 00:09:52,000 --> 00:09:54,000 Mas tem a habilidade 239 00:09:54,000 --> 00:09:56,000 de anular nossas sensações. 240 00:09:56,000 --> 00:09:59,000 Onde conseguimos estes modelos? Através de outros. 241 00:09:59,000 --> 00:10:02,000 Conseguimos modelos através da religião, da cultura, 242 00:10:02,000 --> 00:10:04,000 de professores, de idosos. 243 00:10:04,000 --> 00:10:06,000 Há alguns anos atrás, 244 00:10:06,000 --> 00:10:08,000 eu estava num safari na África do Sul. 245 00:10:08,000 --> 00:10:11,000 O guia que me acompanhava cresceu no Parque Nacional de Kruger. 246 00:10:11,000 --> 00:10:14,000 Ele tinha modelos bem complexos de sobrevivência. 247 00:10:14,000 --> 00:10:16,000 E tudo dependia de como você fosse atacado 248 00:10:16,000 --> 00:10:18,000 por um leão, um leopardo, um rinoceronte ou um elefante -- 249 00:10:18,000 --> 00:10:21,000 e quando você tinha que fugir, ou subir numa árvore -- 250 00:10:21,000 --> 00:10:23,000 quando você nunca poderia subir numa árvore. 251 00:10:23,000 --> 00:10:26,000 Eu teria morrido no mesmo dia, 252 00:10:26,000 --> 00:10:28,000 mas ele nasceu lá, 253 00:10:28,000 --> 00:10:30,000 e sabia como sobreviver. 254 00:10:30,000 --> 00:10:32,000 Eu nasci na cidade de Nova York. 255 00:10:32,000 --> 00:10:35,000 Eu poderia tê-lo levado para Nova York, e ele teria morrido no mesmo dia. 256 00:10:35,000 --> 00:10:37,000 (Risos) 257 00:10:37,000 --> 00:10:39,000 Isso porque tínhamos modelos diferentes 258 00:10:39,000 --> 00:10:42,000 baseados em experiências diferentes. 259 00:10:43,000 --> 00:10:45,000 Os modelos podem surgir da mídia, 260 00:10:45,000 --> 00:10:48,000 de nossos candidatos eleitos. 261 00:10:48,000 --> 00:10:51,000 Pensem nos modelos do terrorismo, 262 00:10:51,000 --> 00:10:54,000 sequestros de crianças, 263 00:10:54,000 --> 00:10:56,000 segurança aérea, segurança automobilística. 264 00:10:56,000 --> 00:10:59,000 Os modelos podem surgir da indústria. 265 00:10:59,000 --> 00:11:01,000 Os dois que estou acompanhando são câmeras de vigilância, 266 00:11:01,000 --> 00:11:03,000 e carteiras de identidade. 267 00:11:03,000 --> 00:11:06,000 Muitos dos nossos modelos de segurança da computação vêm daí. 268 00:11:06,000 --> 00:11:09,000 Muitos modelos surgem da ciência. 269 00:11:09,000 --> 00:11:11,000 Modelos da saúde são um grande exemplo. 270 00:11:11,000 --> 00:11:14,000 Pensem no câncer, na gripe aviária, na gripe suína, na SARS. 271 00:11:14,000 --> 00:11:17,000 Todas as nossas sensações de segurança 272 00:11:17,000 --> 00:11:19,000 a respeito dessas doenças 273 00:11:19,000 --> 00:11:21,000 surgem de modelos 274 00:11:21,000 --> 00:11:24,000 que certamente nos são dados pela ciência filtrada pela mídia. 275 00:11:25,000 --> 00:11:28,000 Logo, os modelos podem mudar. 276 00:11:28,000 --> 00:11:30,000 Os modelos não são estáticos. 277 00:11:30,000 --> 00:11:33,000 À medida em que nos tornamos mais confortáveis em nosso ambiente, 278 00:11:33,000 --> 00:11:37,000 nosso modelo pode se aproximar de nossas sensações. 279 00:11:38,000 --> 00:11:40,000 Um exemplo disso seria: 280 00:11:40,000 --> 00:11:42,000 se retrocederem 100 anos, 281 00:11:42,000 --> 00:11:45,000 quando a eletricidade estava apenas começando, 282 00:11:45,000 --> 00:11:47,000 havia muito medo em relação a ela. 283 00:11:47,000 --> 00:11:49,000 Por exemplo, algumas pessoas tinham medo de tocar campainhas, 284 00:11:49,000 --> 00:11:52,000 porque estavam carregadas de eletricidade, e aquilo era perigoso. 285 00:11:52,000 --> 00:11:55,000 Para nós, a eletricidade não tem mistério. 286 00:11:55,000 --> 00:11:57,000 Trocamos lâmpadas 287 00:11:57,000 --> 00:11:59,000 sem o menor problema. 288 00:11:59,000 --> 00:12:03,000 Nosso modelo de segurança em relação à eletricidade 289 00:12:03,000 --> 00:12:06,000 é uma coisa inata. 290 00:12:06,000 --> 00:12:09,000 Ela não mudou durante nosso crescimento. 291 00:12:09,000 --> 00:12:12,000 E somos bons nisso. 292 00:12:12,000 --> 00:12:14,000 Pensem então nos riscos 293 00:12:14,000 --> 00:12:16,000 da Internet através das gerações -- 294 00:12:16,000 --> 00:12:18,000 como seus pais lidam com a segurança na Internet, 295 00:12:18,000 --> 00:12:20,000 bem diferente de vocês, 296 00:12:20,000 --> 00:12:23,000 e como será com nossos filhos. 297 00:12:23,000 --> 00:12:26,000 Os modelos acabam desaparecendo. 298 00:12:27,000 --> 00:12:30,000 Intuitivo é apenas mais uma palavra para o que é familiar. 299 00:12:30,000 --> 00:12:32,000 Assim, a medida em que seu modelo se aproxima da realidade, 300 00:12:32,000 --> 00:12:34,000 e converge com as sensações, 301 00:12:34,000 --> 00:12:37,000 na maioria das vezes vocês não sabem que ele está lá. 302 00:12:37,000 --> 00:12:39,000 Logo, um bom exemplo disso 303 00:12:39,000 --> 00:12:42,000 surgiu com a gripe suína no ano passado. 304 00:12:42,000 --> 00:12:44,000 Quando a gripe suína apareceu pela primeira vez, 305 00:12:44,000 --> 00:12:48,000 as primeiras notícias causaram uma reação exagerada. 306 00:12:48,000 --> 00:12:50,000 Agora ela tinha um nome, 307 00:12:50,000 --> 00:12:52,000 que a tornava mais assustadora do que a gripe comum, 308 00:12:52,000 --> 00:12:54,000 embora fosse mais letal. 309 00:12:54,000 --> 00:12:58,000 E as pessoas achavam que os médicos deviam saber como lidar com ela. 310 00:12:58,000 --> 00:13:00,000 Então houve uma sensação de impotência. 311 00:13:00,000 --> 00:13:02,000 E essas duas coisas 312 00:13:02,000 --> 00:13:04,000 fizeram o risco ainda maior do que era. 313 00:13:04,000 --> 00:13:07,000 Quando deixou de ser novidade, os meses se passaram, 314 00:13:07,000 --> 00:13:09,000 houve uma dose de tolerância, 315 00:13:09,000 --> 00:13:11,000 e as pessoas se acostumaram a ela. 316 00:13:11,000 --> 00:13:14,000 Não havia nenhuma informação nova, mas havia menos temor. 317 00:13:14,000 --> 00:13:16,000 Quando chegou o outono, 318 00:13:16,000 --> 00:13:18,000 as pessoas achavam 319 00:13:18,000 --> 00:13:20,000 que os médicos já deveriam ter resolvido este problema. 320 00:13:20,000 --> 00:13:22,000 E há um tipo de divisão -- 321 00:13:22,000 --> 00:13:24,000 as pessoas tinham que escolher 322 00:13:24,000 --> 00:13:28,000 entre medo e aceitação -- 323 00:13:28,000 --> 00:13:30,000 na verdade, medo e indiferença -- 324 00:13:30,000 --> 00:13:33,000 e eles escolheram a desconfiança. 325 00:13:33,000 --> 00:13:36,000 E quando a vacina apareceu no último inverno, 326 00:13:36,000 --> 00:13:39,000 houve muitas pessoas -- um número surpreendente de pessoas -- 327 00:13:39,000 --> 00:13:42,000 que se recusaram a tomá-la -- 328 00:13:43,000 --> 00:13:45,000 como um bom exemplo 329 00:13:45,000 --> 00:13:48,000 de como mudam as sensações de segurança das pessoas, como mudam seus modelos, 330 00:13:48,000 --> 00:13:50,000 meio que descontroladamente, 331 00:13:50,000 --> 00:13:52,000 sem nenhuma informação nova, 332 00:13:52,000 --> 00:13:54,000 sem nenhum dado novo. 333 00:13:54,000 --> 00:13:57,000 Este tipo de coisa acontece muito. 334 00:13:57,000 --> 00:14:00,000 Vou citar mais um problema. 335 00:14:00,000 --> 00:14:03,000 Temos sensação, modelo, realidade. 336 00:14:03,000 --> 00:14:05,000 Tenho uma visão relativista de segurança. 337 00:14:05,000 --> 00:14:08,000 Acho que isso depende do observador. 338 00:14:08,000 --> 00:14:10,000 E muitas decisões sobre segurança 339 00:14:10,000 --> 00:14:14,000 têm uma variedade de pessoas envolvidas. 340 00:14:14,000 --> 00:14:16,000 E as partes interessadas 341 00:14:16,000 --> 00:14:19,000 em negociações específicas 342 00:14:19,000 --> 00:14:21,000 tentarão influenciar a decisão. 343 00:14:21,000 --> 00:14:23,000 E a isso eu chamo de sua ordem do dia. 344 00:14:23,000 --> 00:14:25,000 E vocês vêm a ordem do dia -- 345 00:14:25,000 --> 00:14:28,000 isto é comercialização, isto é política -- 346 00:14:28,000 --> 00:14:31,000 tentando convencer vocês a ter um modelo em detrimento de outro, 347 00:14:31,000 --> 00:14:33,000 tentando convencer vocês a ignorar um modelo 348 00:14:33,000 --> 00:14:36,000 e confiar em suas sensações, 349 00:14:36,000 --> 00:14:39,000 marginalizando as pessoas com modelos que vocês não gostam. 350 00:14:39,000 --> 00:14:42,000 Isto não é raro. 351 00:14:42,000 --> 00:14:45,000 Um exemplo, um ótimo exemplo, é o risco de fumar. 352 00:14:46,000 --> 00:14:49,000 Na história dos últimos 50 anos, o risco de fumar 353 00:14:49,000 --> 00:14:51,000 mostra como um modelo muda, 354 00:14:51,000 --> 00:14:54,000 e também mostra como uma indústria luta contra 355 00:14:54,000 --> 00:14:56,000 um modelo que ela não gosta. 356 00:14:56,000 --> 00:14:59,000 Façam uma comparação com a discussão sobre o fumante passivo -- 357 00:14:59,000 --> 00:15:02,000 há cerca de 20 anos atrás. 358 00:15:02,000 --> 00:15:04,000 Pensem nos cintos de segurança. 359 00:15:04,000 --> 00:15:06,000 Quando eu era criança, ninguém usava cinto de segurança. 360 00:15:06,000 --> 00:15:08,000 Hoje em dia, nenhuma criança deixa vocês dirigirem 361 00:15:08,000 --> 00:15:10,000 se não estiverem usando um. 362 00:15:11,000 --> 00:15:13,000 Façam uma comparação com a discussão sobre o airbag -- 363 00:15:13,000 --> 00:15:16,000 há cerca de 30 anos atrás. 364 00:15:16,000 --> 00:15:19,000 Todos os exemplos de modelos estão mudando. 365 00:15:21,000 --> 00:15:24,000 Aprendemos que é difícil trocar de modelos. 366 00:15:24,000 --> 00:15:26,000 Os modelos são difíceis de serem removidos. 367 00:15:26,000 --> 00:15:28,000 Se eles se igualarem às suas sensações, 368 00:15:28,000 --> 00:15:31,000 vocês nem saberão que têm um modelo. 369 00:15:31,000 --> 00:15:33,000 E há uma outra distorção cognitiva 370 00:15:33,000 --> 00:15:35,000 que chamarei de distorção de confirmação, 371 00:15:35,000 --> 00:15:38,000 onde temos uma tendência a aceitar os dados 372 00:15:38,000 --> 00:15:40,000 que confirmam nossas crenças, 373 00:15:40,000 --> 00:15:43,000 e a rejeitar aqueles que as contrariam. 374 00:15:44,000 --> 00:15:46,000 Assim, costumamos ignorar 375 00:15:46,000 --> 00:15:49,000 uma evidência contra nosso modelo, mesmo que seja convincente. 376 00:15:49,000 --> 00:15:52,000 Ela tem que ser bastante convincente para prestarmos atenção. 377 00:15:53,000 --> 00:15:55,000 É difícil haver novos modelos que se extendam por longos períodos. 378 00:15:55,000 --> 00:15:57,000 O aquecimento global é um ótimo exemplo. 379 00:15:57,000 --> 00:15:59,000 Somos péssimos 380 00:15:59,000 --> 00:16:01,000 para modelos que se extendem por 80 anos. 381 00:16:01,000 --> 00:16:03,000 Podemos colher a próxima safra. 382 00:16:03,000 --> 00:16:06,000 Podemos fazer isso até nossos filhos crescerem. 383 00:16:06,000 --> 00:16:09,000 Mas não somos bons nisso durante 80 anos. 384 00:16:09,000 --> 00:16:12,000 Logo, esse é um modelo muito difícil de aceitar. 385 00:16:12,000 --> 00:16:16,000 Podemos pensar nos dois modelos ao mesmo tempo, 386 00:16:16,000 --> 00:16:19,000 ou naquele tipo de problema 387 00:16:19,000 --> 00:16:22,000 em que sustentamos as duas opiniões, 388 00:16:22,000 --> 00:16:24,000 ou a dissonância cognitiva. 389 00:16:24,000 --> 00:16:26,000 E por fim, 390 00:16:26,000 --> 00:16:29,000 o modelo novo substituirá o antigo. 391 00:16:29,000 --> 00:16:32,000 Fortes sensações podem criar um modelo. 392 00:16:32,000 --> 00:16:35,000 O 11 de setembro criou um modelo de segurança 393 00:16:35,000 --> 00:16:37,000 nas mentes de muitas pessoas. 394 00:16:37,000 --> 00:16:40,000 Experiências pessoais com o crime também podem fazer isso, 395 00:16:40,000 --> 00:16:42,000 ameaças à saúde das pessoas, 396 00:16:42,000 --> 00:16:44,000 uma ameaça nos noticiários. 397 00:16:44,000 --> 00:16:46,000 Vocês verão esses chamados fatos-relâmpagos 398 00:16:46,000 --> 00:16:48,000 pelos psiquiatras. 399 00:16:48,000 --> 00:16:51,000 Eles podem criar um modelo rapidamente, 400 00:16:51,000 --> 00:16:54,000 porque são muito emotivos. 401 00:16:54,000 --> 00:16:56,000 Assim, no mundo tecnológico, 402 00:16:56,000 --> 00:16:58,000 não temos experiência 403 00:16:58,000 --> 00:17:00,000 para julgar modelos. 404 00:17:00,000 --> 00:17:02,000 E confiamos nos outros. Confiamos nos servidores proxy. 405 00:17:02,000 --> 00:17:06,000 Portanto, isto funciona o tempo suficiente para se corrigir os outros. 406 00:17:06,000 --> 00:17:08,000 Confiamos nas agências governamentais 407 00:17:08,000 --> 00:17:13,000 para que nos digam quais medicamentos são seguros. 408 00:17:13,000 --> 00:17:15,000 Cheguei aqui ontem de avião. 409 00:17:15,000 --> 00:17:17,000 Não inspecionei o avião. 410 00:17:17,000 --> 00:17:19,000 Confiei em algum outro grupo 411 00:17:19,000 --> 00:17:22,000 para determinar se meu avião estava seguro para voar. 412 00:17:22,000 --> 00:17:25,000 Estamos aqui, e nenhum de nós tem medo que o telhado caia em nossas cabeças, 413 00:17:25,000 --> 00:17:28,000 mas não é porque nós fizemos alguma inspeção, 414 00:17:28,000 --> 00:17:30,000 mas porque temos certeza 415 00:17:30,000 --> 00:17:33,000 que podemos confiar nos códigos de construção daqui. 416 00:17:33,000 --> 00:17:35,000 É um modelo que simplesmente aceitamos 417 00:17:35,000 --> 00:17:37,000 praticamente pela confiança. 418 00:17:37,000 --> 00:17:40,000 E está tudo bem. 419 00:17:42,000 --> 00:17:44,000 Agora, o que queremos 420 00:17:44,000 --> 00:17:46,000 é que as pessoas se familiarizem o bastante 421 00:17:46,000 --> 00:17:48,000 com modelos melhores -- 422 00:17:48,000 --> 00:17:50,000 que os tenha refletidos em suas sensações -- 423 00:17:50,000 --> 00:17:54,000 para lhes permitir fazer negociações de segurança. 424 00:17:54,000 --> 00:17:56,000 Mas quando elas entram em desequilíbrio, 425 00:17:56,000 --> 00:17:58,000 vocês têm duas opções. 426 00:17:58,000 --> 00:18:00,000 Primeiro, vocês podem definir as sensações das pessoas, 427 00:18:00,000 --> 00:18:02,000 apelando diretamente aos sentimentos. 428 00:18:02,000 --> 00:18:05,000 Isso é manipulação, mas pode funcionar. 429 00:18:05,000 --> 00:18:07,000 A segunda, e a maneira mais honesta, 430 00:18:07,000 --> 00:18:10,000 é realmente definir o modelo. 431 00:18:11,000 --> 00:18:13,000 A mudança ocorre lentamente. 432 00:18:13,000 --> 00:18:16,000 A discussão sobre o fumo levou 40 anos, 433 00:18:16,000 --> 00:18:19,000 e aquela foi uma das mais fáceis. 434 00:18:19,000 --> 00:18:21,000 Algumas dessas coisas são difíceis. 435 00:18:21,000 --> 00:18:23,000 Difíceis de verdade, embora 436 00:18:23,000 --> 00:18:25,000 a informação pareça ser nossa melhor esperança. 437 00:18:25,000 --> 00:18:27,000 E eu menti. 438 00:18:27,000 --> 00:18:29,000 Lembram-se quando eu falei sensação, modelo, e realidade? 439 00:18:29,000 --> 00:18:32,000 Eu disse que a realidade não se modifica. Isso não é verdade. 440 00:18:32,000 --> 00:18:34,000 Vivemos num mundo tecnológico; 441 00:18:34,000 --> 00:18:37,000 a realidade se modifica o tempo todo. 442 00:18:37,000 --> 00:18:40,000 Logo, teríamos -- pela primeira vez na nossa espécie -- 443 00:18:40,000 --> 00:18:43,000 a sensação indo atrás do modelo, o modelo atrás da realidade, e a realidade se deslocando -- 444 00:18:43,000 --> 00:18:46,000 talvez eles nunca se alcancem. 445 00:18:47,000 --> 00:18:49,000 Não sabemos. 446 00:18:49,000 --> 00:18:51,000 Mas a longo prazo, 447 00:18:51,000 --> 00:18:54,000 tanto a sensação quanto a realidade são importantes. 448 00:18:54,000 --> 00:18:57,000 E eu gostaria de encerrar com duas rápidas histórias para ilustrar isto. 449 00:18:57,000 --> 00:18:59,000 1982 -- não sei se as pessoas se lembrarão disto -- 450 00:18:59,000 --> 00:19:02,000 houve uma rápida epidemia 451 00:19:02,000 --> 00:19:04,000 de envenenamentos por Tylenol nos Estados Unidos. 452 00:19:04,000 --> 00:19:07,000 É uma história horrível. Alguém pegou um vidro de Tylenol, 453 00:19:07,000 --> 00:19:10,000 colocou veneno dentro, fechou o vidro e o colocou de volta na prateleira. 454 00:19:10,000 --> 00:19:12,000 Outra pessoa o comprou e morreu. 455 00:19:12,000 --> 00:19:14,000 Isto aterrorizou as pessoas. 456 00:19:14,000 --> 00:19:16,000 Houve um monte de ataques parecidos. 457 00:19:16,000 --> 00:19:19,000 Na verdade, não havia risco algum, mas as pessoas ficaram com medo. 458 00:19:19,000 --> 00:19:21,000 E foi assim 459 00:19:21,000 --> 00:19:23,000 que a indústria de drogas invioláveis foi inventada. 460 00:19:23,000 --> 00:19:25,000 Daí é que vieram as tampas invioláveis. 461 00:19:25,000 --> 00:19:27,000 É um perfeito teatro de segurança. 462 00:19:27,000 --> 00:19:29,000 Como tarefa de casa, pensem em 10 maneiras de se chegar até esse teatro. 463 00:19:29,000 --> 00:19:32,000 Vou citar apenas uma, a seringa. 464 00:19:32,000 --> 00:19:35,000 Mas isso fez com que as pessoas se sentissem melhor. 465 00:19:35,000 --> 00:19:37,000 Deu-lhes a sensação de segurança 466 00:19:37,000 --> 00:19:39,000 mais de acordo com a realidade. 467 00:19:39,000 --> 00:19:42,000 Última história, alguns anos atrás, uma amiga minha teve um filho. 468 00:19:42,000 --> 00:19:44,000 Vou visitá-la no hospital. 469 00:19:44,000 --> 00:19:46,000 Isso acontece agora quando um bebê nasce, 470 00:19:46,000 --> 00:19:48,000 eles colocam uma etiqueta RFID no bebê, 471 00:19:48,000 --> 00:19:50,000 e outra correspondente na mãe, 472 00:19:50,000 --> 00:19:52,000 de forma que se outra pessoa que não seja a mãe tirar o bebê do berçário, 473 00:19:52,000 --> 00:19:54,000 vai soar um alarme. 474 00:19:54,000 --> 00:19:56,000 Pensei, "Bom, isso parece simples. 475 00:19:56,000 --> 00:19:58,000 Imagino como deve ser violento o sequestro de bebês 476 00:19:58,000 --> 00:20:00,000 dos hospitais." 477 00:20:00,000 --> 00:20:02,000 Vou pra casa, e faço uma pesquisa. 478 00:20:02,000 --> 00:20:04,000 Isso raramente acontece. 479 00:20:04,000 --> 00:20:06,000 Mas se vocês pensarem nisso, 480 00:20:06,000 --> 00:20:08,000 se vocês trabalham num hospital, 481 00:20:08,000 --> 00:20:10,000 e precisam tirar um bebê de sua mãe, 482 00:20:10,000 --> 00:20:12,000 para fazer alguns testes, 483 00:20:12,000 --> 00:20:14,000 é melhor contarem com um bom teatro de segurança, 484 00:20:14,000 --> 00:20:16,000 ou a mãe vai arrancar o seu braço. 485 00:20:16,000 --> 00:20:18,000 (Risos) 486 00:20:18,000 --> 00:20:20,000 Assim, é importante para nós, 487 00:20:20,000 --> 00:20:22,000 que projetamos segurança, 488 00:20:22,000 --> 00:20:25,000 que analisamos a política de segurança, 489 00:20:25,000 --> 00:20:27,000 ou até a política pública 490 00:20:27,000 --> 00:20:29,000 de maneiras que afetam a segurança. 491 00:20:29,000 --> 00:20:32,000 Isso não é apenas realidade, é sensação e realidade. 492 00:20:32,000 --> 00:20:34,000 E o mais importante 493 00:20:34,000 --> 00:20:36,000 é que elas são a mesma coisa. 494 00:20:36,000 --> 00:20:38,000 É importante que, se nossas sensações correspondem à realidade, 495 00:20:38,000 --> 00:20:40,000 façamos melhores negociações de segurança. 496 00:20:40,000 --> 00:20:42,000 Obrigado. 497 00:20:42,000 --> 00:20:44,000 (Aplausos)