1 00:00:00,000 --> 00:00:02,000 Portanto, a segurança é duas coisas diferentes: 2 00:00:02,000 --> 00:00:04,000 é um sentimento, e é uma realidade. 3 00:00:04,000 --> 00:00:06,000 E elas são diferentes. 4 00:00:06,000 --> 00:00:08,000 Vocês podem sentir-se seguros 5 00:00:08,000 --> 00:00:10,000 mesmo que não o estejam. 6 00:00:10,000 --> 00:00:12,000 E podem estar seguros 7 00:00:12,000 --> 00:00:14,000 mesmo que não o sintam. 8 00:00:14,000 --> 00:00:16,000 Na realidade, temos dois conceitos separados 9 00:00:16,000 --> 00:00:18,000 presentes na mesma palavra. 10 00:00:18,000 --> 00:00:20,000 E o que eu quero fazer nesta palestra 11 00:00:20,000 --> 00:00:22,000 é separá-los -- 12 00:00:22,000 --> 00:00:24,000 descobrindo quando divergem 13 00:00:24,000 --> 00:00:26,000 e como convergem. 14 00:00:26,000 --> 00:00:28,000 E, a linguagem é um verdadeiro problema neste caso. 15 00:00:28,000 --> 00:00:30,000 Não existem muitas palavras adequadas 16 00:00:30,000 --> 00:00:33,000 para os conceitos de que vamos falar. 17 00:00:33,000 --> 00:00:35,000 Portanto, se olharem para a segurança 18 00:00:35,000 --> 00:00:37,000 em termos económicos, 19 00:00:37,000 --> 00:00:39,000 é uma negociação. 20 00:00:39,000 --> 00:00:41,000 Cada vez que têm alguma segurança, 21 00:00:41,000 --> 00:00:43,000 estão sempre a trocá-la por algo. 22 00:00:43,000 --> 00:00:45,000 Quer isto seja uma decisão pessoal -- 23 00:00:45,000 --> 00:00:47,000 quer vão instalar um sistema de alarme anti-roubos em vossa casa -- 24 00:00:47,000 --> 00:00:50,000 ou uma decisão nacional -- em que vão invadir algum país estrangeiro -- 25 00:00:50,000 --> 00:00:52,000 vão ter de negociar algo, 26 00:00:52,000 --> 00:00:55,000 seja dinheiro, ou tempo, conveniência, capacidades. 27 00:00:55,000 --> 00:00:58,000 talvez liberdades fundamentais. 28 00:00:58,000 --> 00:01:01,000 E a questão a fazer quando pensam na segurança de qualquer coisa 29 00:01:01,000 --> 00:01:04,000 não é se isto nos fará mais seguros, 30 00:01:04,000 --> 00:01:07,000 mas se vale a pena a escolha. 31 00:01:07,000 --> 00:01:09,000 Ouviram nos últimos anos, 32 00:01:09,000 --> 00:01:11,000 que o mundo está mais seguro porque o Saddam Hussein não está no poder. 33 00:01:11,000 --> 00:01:14,000 Isso pode ser verdade, mas não é terrivelmente relevante. 34 00:01:14,000 --> 00:01:17,000 A questão é, valeu a pena? 35 00:01:17,000 --> 00:01:20,000 Podem tomar a vossa própria decisão 36 00:01:20,000 --> 00:01:22,000 e então vão decidir se a invasão valeu a pena. 37 00:01:22,000 --> 00:01:24,000 É assim que pensam acerca de segurança -- 38 00:01:24,000 --> 00:01:26,000 em termos de escolhas. 39 00:01:26,000 --> 00:01:29,000 Agora, muitas vezes não existe um certo e um errado. 40 00:01:29,000 --> 00:01:31,000 Alguns de nós temos um sistema de alarme anti-roubo em casa, 41 00:01:31,000 --> 00:01:33,000 e alguns de nós não tem. 42 00:01:33,000 --> 00:01:35,000 E vai depender onde vivemos, 43 00:01:35,000 --> 00:01:37,000 se moramos sozinhos ou temos uma família, 44 00:01:37,000 --> 00:01:39,000 quantas coisas porreiras temos, 45 00:01:39,000 --> 00:01:41,000 e quanto estamos dispostos a aceitar 46 00:01:41,000 --> 00:01:43,000 o risco de roubo. 47 00:01:43,000 --> 00:01:45,000 Também na política, 48 00:01:45,000 --> 00:01:47,000 existem opiniões diferentes. 49 00:01:47,000 --> 00:01:49,000 Muitas vezes, estas escolhas 50 00:01:49,000 --> 00:01:51,000 são acerca de mais do que apenas a segurança, 51 00:01:51,000 --> 00:01:53,000 e eu penso que isso é realmente importante. 52 00:01:53,000 --> 00:01:55,000 Agora, as pessoas têm uma intuição natural 53 00:01:55,000 --> 00:01:57,000 acerca destas escolhas. 54 00:01:57,000 --> 00:01:59,000 Nós fazêmo-las todos os dias -- 55 00:01:59,000 --> 00:02:01,000 ontem à noite, no meu quarto de hotel, 56 00:02:01,000 --> 00:02:03,000 quando decidi trancar a porta, 57 00:02:03,000 --> 00:02:05,000 ou vocês, nos vossos carros, quando conduziram até aqui, 58 00:02:05,000 --> 00:02:07,000 quando vamos almoçar 59 00:02:07,000 --> 00:02:10,000 e decidimos que a comida não é veneno e que a vamos comer. 60 00:02:10,000 --> 00:02:12,000 Nós fazemos estas escolhas uma e outra vez 61 00:02:12,000 --> 00:02:14,000 múltiplas vezes por dia. 62 00:02:14,000 --> 00:02:16,000 Muitas vezes, nem nos vamos aperceber delas. 63 00:02:16,000 --> 00:02:18,000 Elas são apenas parte de estar vivo; todos nós as fazemos. 64 00:02:18,000 --> 00:02:21,000 Todas as espécies o fazem. 65 00:02:21,000 --> 00:02:23,000 Imaginem um coelho num campo, a comer erva, 66 00:02:23,000 --> 00:02:26,000 e o coelho vê uma raposa. 67 00:02:26,000 --> 00:02:28,000 O coelho vai fazer uma escolha de segurança: 68 00:02:28,000 --> 00:02:30,000 "Deverei ficar, ou fugir?" 69 00:02:30,000 --> 00:02:32,000 E se pensarem acerca disso, 70 00:02:32,000 --> 00:02:35,000 os coelhos que são bons a fazerem essa escolha 71 00:02:35,000 --> 00:02:37,000 tendem a viver e reproduzir-se 72 00:02:37,000 --> 00:02:39,000 e os coelhos que são maus 73 00:02:39,000 --> 00:02:41,000 vão ser comidos ou morrer de fome. 74 00:02:41,000 --> 00:02:43,000 Portanto, vocês pensam 75 00:02:43,000 --> 00:02:46,000 que nós, enquanto espécie bem sucedida no planeta -- 76 00:02:46,000 --> 00:02:48,000 vocês, eu, toda a gente -- 77 00:02:48,000 --> 00:02:51,000 seríamos realmente bons a fazer estas escolhas. 78 00:02:51,000 --> 00:02:53,000 Contudo, parece, uma e outra vez, 79 00:02:53,000 --> 00:02:56,000 que somos, desesperadamente, maus nisto. 80 00:02:56,000 --> 00:02:59,000 E eu penso que esta é uma questão interessante e fundamental. 81 00:02:59,000 --> 00:03:01,000 Vou-vos dar a resposta curta. 82 00:03:01,000 --> 00:03:03,000 A resposta é, nós respondemos ao sentimento de segurança 83 00:03:03,000 --> 00:03:06,000 e não à realidade. 84 00:03:06,000 --> 00:03:09,000 Agora, na maioria do tempo, isso funciona. 85 00:03:10,000 --> 00:03:12,000 Na maioria do tempo, 86 00:03:12,000 --> 00:03:15,000 o sentimento e a realidade são o mesmo. 87 00:03:15,000 --> 00:03:17,000 Isso é certamente verdade 88 00:03:17,000 --> 00:03:20,000 para a maioria da pré-história humana. 89 00:03:20,000 --> 00:03:23,000 Nós desenvolvemos esta capacidade 90 00:03:23,000 --> 00:03:25,000 porque faz sentido evolutivamente. 91 00:03:25,000 --> 00:03:27,000 Uma forma de pensar acerca disto 92 00:03:27,000 --> 00:03:29,000 é que somos altamente optimizados 93 00:03:29,000 --> 00:03:31,000 para decisões de risco 94 00:03:31,000 --> 00:03:34,000 que são endémicas a viver em pequenos grupos familiares 95 00:03:34,000 --> 00:03:37,000 nos planaltos do este de África em 100,000 A.C. -- 96 00:03:37,000 --> 00:03:40,000 2010 Nova Iorque, nem tanto. 97 00:03:41,000 --> 00:03:44,000 Agora, existem vários enviesamentos na percepção de risco. 98 00:03:44,000 --> 00:03:46,000 E muitas experiências boas acerca disto. 99 00:03:46,000 --> 00:03:49,000 E podem ver certos enviesamentos que surgem uma e outra vez. 100 00:03:49,000 --> 00:03:51,000 Portanto, vou-vos dar quatro. 101 00:03:51,000 --> 00:03:54,000 Tendemos a exagerar os riscos espectaculares e raros 102 00:03:54,000 --> 00:03:56,000 e subestimamos riscos comuns -- 103 00:03:56,000 --> 00:03:59,000 portanto, voar versus conduzir. 104 00:03:59,000 --> 00:04:01,000 O desconhecido é percepcionado 105 00:04:01,000 --> 00:04:04,000 como mais arriscado do que o familiar. 106 00:04:05,000 --> 00:04:07,000 Um exemplo será 107 00:04:07,000 --> 00:04:10,000 pessoas terem medo de raptos por estranhos, 108 00:04:10,000 --> 00:04:13,000 quando a informação confirma que raptos por familiares é muito mais comum. 109 00:04:13,000 --> 00:04:15,000 Isto para crianças. 110 00:04:15,000 --> 00:04:18,000 Terceiro, riscos personificados 111 00:04:18,000 --> 00:04:21,000 são percebidos como mais prováveis do que riscos anónimos -- 112 00:04:21,000 --> 00:04:24,000 portanto, o Bin Laden era ameaçador porque ele tem um nome. 113 00:04:24,000 --> 00:04:26,000 E o quarto 114 00:04:26,000 --> 00:04:28,000 é a subestima de riscos pelas pessoas 115 00:04:28,000 --> 00:04:30,000 em situações que podem controlar 116 00:04:30,000 --> 00:04:34,000 e a sobrestimação em situações que não controlam. 117 00:04:34,000 --> 00:04:37,000 Assim, quando começam a fazer paraquedismo ou a fumar, 118 00:04:37,000 --> 00:04:39,000 subestimam os riscos. 119 00:04:39,000 --> 00:04:42,000 Se um risco é forçado sobre vós -- o terrorismo foi um bom exemplo -- 120 00:04:42,000 --> 00:04:45,000 vão sobrestimá-lo, porque não sentem que é do vosso controlo. 121 00:04:47,000 --> 00:04:50,000 Existe uma variedade de outros enviesamentos destes, destes erros cognitivos, 122 00:04:50,000 --> 00:04:53,000 que afectam as nossas decisões de risco. 123 00:04:53,000 --> 00:04:55,000 Existe a heurística da disponibilidade, 124 00:04:55,000 --> 00:04:57,000 que basicamente quer dizer que 125 00:04:57,000 --> 00:05:00,000 avaliamos a probabilidade de algo 126 00:05:00,000 --> 00:05:04,000 conforme a facilidade mental de aceder à informação acerca disso. 127 00:05:04,000 --> 00:05:06,000 Por isso, podem imaginar como funciona. 128 00:05:06,000 --> 00:05:09,000 Se ouvirem muita informação acerca de ataques de tigres, têm de haver muitos tigres nas redondezas. 129 00:05:09,000 --> 00:05:12,000 Não ouvem acerca de ataques de leões, não existem muitos leões pela área. 130 00:05:12,000 --> 00:05:15,000 Isto funciona inventarem os jornais. 131 00:05:15,000 --> 00:05:17,000 Porque o que os jornais fazem 132 00:05:17,000 --> 00:05:19,000 é repetir vez após vez 133 00:05:19,000 --> 00:05:21,000 os riscos raros. 134 00:05:21,000 --> 00:05:23,000 Eu digo às pessoas, se está nas notícias, não se preocupem acerca disso. 135 00:05:23,000 --> 00:05:25,000 Porque, por definição, 136 00:05:25,000 --> 00:05:28,000 as notícias são algo que quase nunca acontece. 137 00:05:28,000 --> 00:05:30,000 (risos) 138 00:05:30,000 --> 00:05:33,000 Quando algo é muito comum, já não é notícia -- 139 00:05:33,000 --> 00:05:35,000 acidentes de carros, violência doméstica -- 140 00:05:35,000 --> 00:05:38,000 esses são os riscos com que se devem preocupar. 141 00:05:38,000 --> 00:05:40,000 Nós também somos uma espécie de contadores de histórias. 142 00:05:40,000 --> 00:05:43,000 Nós respondemos mais a histórias do que a informação. 143 00:05:43,000 --> 00:05:45,000 E existe alguma incapacidade matemática. 144 00:05:45,000 --> 00:05:48,000 Quer dizer, a piada "Um, dois, três, muitos" está, de certa forma, correcta. 145 00:05:48,000 --> 00:05:51,000 Nós somos muitos bons com números pequenos. 146 00:05:51,000 --> 00:05:53,000 Uma manda, duas mangas, três mangas, 147 00:05:53,000 --> 00:05:55,000 10,000 mangas, 100,000 mangas -- 148 00:05:55,000 --> 00:05:58,000 são muito mais mangas do que as que conseguem comer antes de apodrecerem. 149 00:05:58,000 --> 00:06:01,000 Por isso, uma metade, um quarto, um quinto -- somos bons nisso. 150 00:06:01,000 --> 00:06:03,000 Um num milhão, um num bilião -- 151 00:06:03,000 --> 00:06:06,000 não existem quase nunca. 152 00:06:06,000 --> 00:06:08,000 Por isto temos problemas com riscos 153 00:06:08,000 --> 00:06:10,000 que não são muitos comuns. 154 00:06:10,000 --> 00:06:12,000 E o que fazem esses enviesamentos cognitivos 155 00:06:12,000 --> 00:06:15,000 é agir como filtros entre nós e a realidade. 156 00:06:15,000 --> 00:06:17,000 E o resultado é que 157 00:06:17,000 --> 00:06:19,000 o sentimento e a realidade se tornam discrepantes 158 00:06:19,000 --> 00:06:22,000 se tornam diferentes. 159 00:06:22,000 --> 00:06:25,000 E ou têm uma sensação -- sentem-se mais seguros que dantes. 160 00:06:25,000 --> 00:06:27,000 Existe um falso sentimento de segurança. 161 00:06:27,000 --> 00:06:29,000 Ou [têm o sentimento] oposto, 162 00:06:29,000 --> 00:06:31,000 e esse é o falso sentimento de insegurança. 163 00:06:31,000 --> 00:06:34,000 Eu escrevo muito acerca do "teatro de segurança", 164 00:06:34,000 --> 00:06:37,000 que são produtos que fazem as pessoas sentirem-se seguras 165 00:06:37,000 --> 00:06:39,000 mas que, na realidade, não fazem nada. 166 00:06:39,000 --> 00:06:41,000 Não existem uma palavra real para as coisas que nos fazem seguros, 167 00:06:41,000 --> 00:06:43,000 mas que não nos fazem sentir seguros. 168 00:06:43,000 --> 00:06:46,000 Talvez seja isso o que a CIA faz supostamente por nós. 169 00:06:48,000 --> 00:06:50,000 Portanto, de volta à economia. 170 00:06:50,000 --> 00:06:54,000 Se a economia, se os mercados, impulsionam segurança, 171 00:06:54,000 --> 00:06:56,000 e se as pessoas fazem escolhas 172 00:06:56,000 --> 00:06:59,000 baseadas nos sentimentos de segurança, 173 00:06:59,000 --> 00:07:01,000 então, a coisa mais acertada para as companhias fazerem 174 00:07:01,000 --> 00:07:03,000 para os incentivos económicos 175 00:07:03,000 --> 00:07:06,000 é fazer as pessoas sentirem-se seguras. 176 00:07:06,000 --> 00:07:09,000 E existem duas formas de fazer isto. 177 00:07:09,000 --> 00:07:11,000 Uma, podem fazer as pessoas sentirem-se realmente seguras 178 00:07:11,000 --> 00:07:13,000 e esperar que elas reparem. 179 00:07:13,000 --> 00:07:16,000 Ou a segunda, podem fazer simplesmente as pessoas sentirem-se seguras 180 00:07:16,000 --> 00:07:19,000 e esperar que não reparem. 181 00:07:20,000 --> 00:07:23,000 E o que faz as pessoas repararem? 182 00:07:23,000 --> 00:07:25,000 Bem, um conjunto de coisas: 183 00:07:25,000 --> 00:07:27,000 compreensão da segurança, 184 00:07:27,000 --> 00:07:29,000 dos riscos, das ameaças, 185 00:07:29,000 --> 00:07:32,000 das medidas de combate, como funcionam. 186 00:07:32,000 --> 00:07:34,000 Mas se souberem coisas, 187 00:07:34,000 --> 00:07:37,000 é mais fácil que os vossos sentimentos coincidam com a realidade. 188 00:07:37,000 --> 00:07:40,000 Exemplos suficientes do mundo real ajudam. 189 00:07:40,000 --> 00:07:43,000 Todos sabemos a taxa de criminalidade do nosso bairro, 190 00:07:43,000 --> 00:07:46,000 porque vivemos aí, e temos um sentimento acerca disso 191 00:07:46,000 --> 00:07:49,000 que, praticamente, coincide com a realidade. 192 00:07:49,000 --> 00:07:52,000 Os teatros de segurança são expostos 193 00:07:52,000 --> 00:07:55,000 quando é óbvio que não estão a funcionar apropriadamente. 194 00:07:55,000 --> 00:07:59,000 Okay, portando, o que acontece quando as pessoas não reparam? 195 00:07:59,000 --> 00:08:01,000 Bem, um entendimento fraco. 196 00:08:01,000 --> 00:08:04,000 Se não compreenderem os riscos, não entendem os custos, 197 00:08:04,000 --> 00:08:06,000 e são capazes de fazer a escolha errada, 198 00:08:06,000 --> 00:08:09,000 e o vosso sentimento não coincide com a realidade. 199 00:08:09,000 --> 00:08:11,000 Não há exemplos suficientes. 200 00:08:11,000 --> 00:08:13,000 Existe um problema inerente 201 00:08:13,000 --> 00:08:15,000 com eventos com baixa probabilidade. 202 00:08:15,000 --> 00:08:17,000 Se, por exemplo, 203 00:08:17,000 --> 00:08:19,000 o terrorismo quase nunca ocorre, 204 00:08:19,000 --> 00:08:21,000 é muito difícil de avaliar 205 00:08:21,000 --> 00:08:24,000 a eficácia de medidas contra-terroristas. 206 00:08:25,000 --> 00:08:28,000 Este é o porquê de continuarem a sacrificar virgens, 207 00:08:28,000 --> 00:08:31,000 e porque as vossas defesas de unicórnios funcionam muito bem. 208 00:08:31,000 --> 00:08:34,000 Não existem exemplos suficientes de falhas. 209 00:08:35,000 --> 00:08:38,000 Para além disso, sentimentos que abafam os problemas -- 210 00:08:38,000 --> 00:08:40,000 os enviasamentos cognitivos de que falámos antes, 211 00:08:40,000 --> 00:08:43,000 os medos, as crenças populares, 212 00:08:43,000 --> 00:08:46,000 basicamente, um modelo inadequado da realidade. 213 00:08:47,000 --> 00:08:50,000 Deixem-me complicar as coisas. 214 00:08:50,000 --> 00:08:52,000 Eu tenho sentimento e realidade. 215 00:08:52,000 --> 00:08:55,000 Eu quero adicionar um terceiro elemento. Eu quero adicionar um modelo. 216 00:08:55,000 --> 00:08:57,000 O sentimento e o modelo [estão] na nossa cabeça, 217 00:08:57,000 --> 00:08:59,000 a realidade é o mundo exterior. 218 00:08:59,000 --> 00:09:02,000 Não muda; é real. 219 00:09:02,000 --> 00:09:04,000 Portanto, o sentimento é baseado na nossa intuição. 220 00:09:04,000 --> 00:09:06,000 O modelo é baseado na razão. 221 00:09:06,000 --> 00:09:09,000 Essa é a diferença fundamental. 222 00:09:09,000 --> 00:09:11,000 Num mundo primitivo e simples, 223 00:09:11,000 --> 00:09:14,000 não existem motivos para [a existência] de um modelo. 224 00:09:14,000 --> 00:09:17,000 Porque o sentimento está próximo da realidade. 225 00:09:17,000 --> 00:09:19,000 Não precisam de um modelo. 226 00:09:19,000 --> 00:09:21,000 Mas num mundo moderno e complexo, 227 00:09:21,000 --> 00:09:23,000 precisam de modelos 228 00:09:23,000 --> 00:09:26,000 para compreender os riscos com que nos defrontamos. 229 00:09:27,000 --> 00:09:29,000 Não existem sentimentos em relação a germes. 230 00:09:29,000 --> 00:09:32,000 Precisam do modelo para os compreender. 231 00:09:32,000 --> 00:09:34,000 Este modelo 232 00:09:34,000 --> 00:09:37,000 é uma representação inteligente da realidade. 233 00:09:37,000 --> 00:09:40,000 É, obviamente, limitado pela ciência, 234 00:09:40,000 --> 00:09:42,000 pela tecnologia. 235 00:09:42,000 --> 00:09:45,000 Não podíamos ter uma teoria de doenças de germes 236 00:09:45,000 --> 00:09:48,000 antes de inventarmos o microscópio para os ver. 237 00:09:49,000 --> 00:09:52,000 É limitado pelos nossos vieses cognitivos. 238 00:09:52,000 --> 00:09:54,000 Mas tem a capacidade 239 00:09:54,000 --> 00:09:56,000 de se sobrepôr aos nossos sentimentos. 240 00:09:56,000 --> 00:09:59,000 Onde aprendemos estes modelos? Aprendêmo-los dos outros. 241 00:09:59,000 --> 00:10:02,000 Aprendemo-los da religião, cultura, 242 00:10:02,000 --> 00:10:04,000 professores, anciãos. 243 00:10:04,000 --> 00:10:06,000 Há alguns anos, 244 00:10:06,000 --> 00:10:08,000 estava num safari na África do Sul. 245 00:10:08,000 --> 00:10:11,000 O batedor com quem estava tinha crescido no Parque Nacional de Kruger. 246 00:10:11,000 --> 00:10:14,000 Ele tinha alguns modelos muito complexos acerca de como sobreviver. 247 00:10:14,000 --> 00:10:16,000 E dependiam se eram atacados 248 00:10:16,000 --> 00:10:18,000 por um leão, ou um leopardo, ou um rinoceronte, ou um elefante -- 249 00:10:18,000 --> 00:10:21,000 e sobre quando tinham de correr, e quando tinham de subir a uma árvora -- 250 00:10:21,000 --> 00:10:23,000 quando nunca podiam subir a uma árvore. 251 00:10:23,000 --> 00:10:26,000 Eu teria morrido nesse dia, 252 00:10:26,000 --> 00:10:28,000 mas ele tinha nascido ali, 253 00:10:28,000 --> 00:10:30,000 e ele compreendia como sobreviver. 254 00:10:30,000 --> 00:10:32,000 Eu nasci na cidade de Nova Iorque. 255 00:10:32,000 --> 00:10:35,000 Eu poderia tê-lo levado a Nova Iorque, e ele teria morrido nesse dia. 256 00:10:35,000 --> 00:10:37,000 (risos) 257 00:10:37,000 --> 00:10:39,000 Porque tínhamos modelos diferentes 258 00:10:39,000 --> 00:10:42,000 baseados nas nossas diferenças. 259 00:10:43,000 --> 00:10:45,000 Os modelos podem vir dos meios de comunicação, 260 00:10:45,000 --> 00:10:48,000 dos nossos oficiais elegidos. 261 00:10:48,000 --> 00:10:51,000 Pensem em modelos de terrorismo, 262 00:10:51,000 --> 00:10:54,000 rapto infantil, 263 00:10:54,000 --> 00:10:56,000 segurança aérea, segurança automóvel. 264 00:10:56,000 --> 00:10:59,000 Os modelos podem vir da indústria. 265 00:10:59,000 --> 00:11:01,000 Os dois que eu sigo são as câmaras de vigilância, 266 00:11:01,000 --> 00:11:03,000 cartões de identificação, 267 00:11:03,000 --> 00:11:06,000 bastantes dos nossos modelos de segurança computacional vêm daí. 268 00:11:06,000 --> 00:11:09,000 Muitos dos modelos vêm da ciência. 269 00:11:09,000 --> 00:11:11,000 Os modelos de saúde são exemplos excelentes. 270 00:11:11,000 --> 00:11:14,000 Pensem em cancro, em gripe das aves, gripe suína, o vírus SARS. 271 00:11:14,000 --> 00:11:17,000 Todos os nossos sentimentos de segurança 272 00:11:17,000 --> 00:11:19,000 acerca dessas doenças 273 00:11:19,000 --> 00:11:21,000 vêm de modelos 274 00:11:21,000 --> 00:11:24,000 que nos são dados, na realidade, pela ciência filtrada pelos meios de comunicação. 275 00:11:25,000 --> 00:11:28,000 Por isso, os modelos podem mudar. 276 00:11:28,000 --> 00:11:30,000 Os modelos não são estáticos. 277 00:11:30,000 --> 00:11:33,000 À medida que nos tornamos mais confortáveis nos nossos ambientes, 278 00:11:33,000 --> 00:11:37,000 o nosso modelo pode tornar-se mais próximo dos nossos sentimentos. 279 00:11:38,000 --> 00:11:40,000 Por isso, um exemplo pode ser, 280 00:11:40,000 --> 00:11:42,000 se voltarem atrás no tempo 100 anos 281 00:11:42,000 --> 00:11:45,000 quando a electricidade ainda se estava a tornar comum, 282 00:11:45,000 --> 00:11:47,000 existiam muitos medos acerca disso. 283 00:11:47,000 --> 00:11:49,000 Quer dizer, havia pessoas que tinham medo de tocar à campainha, 284 00:11:49,000 --> 00:11:52,000 porque existia ali electricidade, e era perigoso. 285 00:11:52,000 --> 00:11:55,000 Para nós, somos bastante condescendentes em relação à electricidade. 286 00:11:55,000 --> 00:11:57,000 Nós mudamos lâmpadas 287 00:11:57,000 --> 00:11:59,000 sem sequer pensar nisso 288 00:11:59,000 --> 00:12:03,000 O nosso modelo de segurança acerca da electricidade 289 00:12:03,000 --> 00:12:06,000 é algo para o qual nascemos. 290 00:12:06,000 --> 00:12:09,000 Não mudou enquanto crescíamos. 291 00:12:09,000 --> 00:12:12,000 E somos bons nele., 292 00:12:12,000 --> 00:12:14,000 Ora, pensem nos riscos 293 00:12:14,000 --> 00:12:16,000 na Internet entre gerações -- 294 00:12:16,000 --> 00:12:18,000 como os vossos pais lidavam com a segurança da Internet, 295 00:12:18,000 --> 00:12:20,000 versus, como vocês o fazem, 296 00:12:20,000 --> 00:12:23,000 versus como os vossos filhos vão lidar. 297 00:12:23,000 --> 00:12:26,000 Os modelos acabam por se dissolver. 298 00:12:27,000 --> 00:12:30,000 Intuitivo é apenas outra palavra para familiar. 299 00:12:30,000 --> 00:12:32,000 Quando o nosso modelo é próximo da realidade, 300 00:12:32,000 --> 00:12:34,000 e converge com os sentimentos, 301 00:12:34,000 --> 00:12:37,000 vocês raramente se apercebem que ele lá está. 302 00:12:37,000 --> 00:12:39,000 Um bom exemplo disto 303 00:12:39,000 --> 00:12:42,000 veio o ano passado com a gripe suína. 304 00:12:42,000 --> 00:12:44,000 Quando a gripe suína apareceu, 305 00:12:44,000 --> 00:12:48,000 as notícias iniciais causaram muitas reacções excessivas. 306 00:12:48,000 --> 00:12:50,000 Tinha um nome, 307 00:12:50,000 --> 00:12:52,000 o que a fazia mais assustadora que a gripe comum, 308 00:12:52,000 --> 00:12:54,000 apesar desta ser mais mortal. 309 00:12:54,000 --> 00:12:58,000 E as pessoas pensavam que os médicos deveriam saber lidar com ela. 310 00:12:58,000 --> 00:13:00,000 Por isso existia um sentimento de falta de controlo. 311 00:13:00,000 --> 00:13:02,000 E essas duas coisas 312 00:13:02,000 --> 00:13:04,000 tornaram o risco mais do que ele era. 313 00:13:04,000 --> 00:13:07,000 Quando a novidade se desvaneceu, os meses passaram, 314 00:13:07,000 --> 00:13:09,000 existia uma quantidade de tolerância, 315 00:13:09,000 --> 00:13:11,000 as pessoas habituaram-se. 316 00:13:11,000 --> 00:13:14,000 Não existia informação nova, mas existia menos medo. 317 00:13:14,000 --> 00:13:16,000 No Outono, 318 00:13:16,000 --> 00:13:18,000 as pessoas pensaram 319 00:13:18,000 --> 00:13:20,000 que os médicos já deveriam ter resolvido isto. 320 00:13:20,000 --> 00:13:22,000 E existe uma espécie de bifurcação -- 321 00:13:22,000 --> 00:13:24,000 as pessoas tinham de escolher 322 00:13:24,000 --> 00:13:28,000 entre o medo e a aceitação -- 323 00:13:28,000 --> 00:13:30,000 ter medo ou indiferença -- 324 00:13:30,000 --> 00:13:33,000 elas escolheram suspeita. 325 00:13:33,000 --> 00:13:36,000 E quando a vacina surgiu o Inverno passado, 326 00:13:36,000 --> 00:13:39,000 existiu uma grande quantidade de pessoas - um número surpreendente - 327 00:13:39,000 --> 00:13:42,000 que se recusaram a recebê-la - 328 00:13:43,000 --> 00:13:45,000 é um bom exemplo 329 00:13:45,000 --> 00:13:48,000 que como os sentimentos de segurança das pessoas mudam, como os seus modelos mudam 330 00:13:48,000 --> 00:13:50,000 de forma rompante 331 00:13:50,000 --> 00:13:52,000 sem nova informação, 332 00:13:52,000 --> 00:13:54,000 sem novo dado. 333 00:13:54,000 --> 00:13:57,000 Este tipo de evento acontece frequentemente. 334 00:13:57,000 --> 00:14:00,000 Vou-vos mostrar mais uma complicação. 335 00:14:00,000 --> 00:14:03,000 nós temos sentimento, modelo, realidade. 336 00:14:03,000 --> 00:14:05,000 Eu tenho uma visão muito relativista da segurança. 337 00:14:05,000 --> 00:14:08,000 Eu penso que depende do observador. 338 00:14:08,000 --> 00:14:10,000 E a maioria das decisões de segurança 339 00:14:10,000 --> 00:14:14,000 têm uma variedade de pessoas envolvidas. 340 00:14:14,000 --> 00:14:16,000 E os responsáveis 341 00:14:16,000 --> 00:14:19,000 com vista em trocas específicas 342 00:14:19,000 --> 00:14:21,000 vão tentar influenciar a decisão. 343 00:14:21,000 --> 00:14:23,000 E eu exponho os seus planos. 344 00:14:23,000 --> 00:14:25,000 E vocês vêem os seus planos -- 345 00:14:25,000 --> 00:14:28,000 isto é marketing, isto é política -- 346 00:14:28,000 --> 00:14:31,000 tentar convencer-vos a aceitar um modelo versus outro, 347 00:14:31,000 --> 00:14:33,000 tentar convencer-vos a ignorar um modelo 348 00:14:33,000 --> 00:14:36,000 a confiar nos vossos sentimentos, 349 00:14:36,000 --> 00:14:39,000 marginalizando pessoas com modelos que vocês não gostam. 350 00:14:39,000 --> 00:14:42,000 Isto não é invulgar. 351 00:14:42,000 --> 00:14:45,000 Um exemplo, um óptimo exemplo, é o risco de fumar. 352 00:14:46,000 --> 00:14:49,000 Na história dos últimos 50 anos, o risco de fumar 353 00:14:49,000 --> 00:14:51,000 demonstra como um modelo muda, 354 00:14:51,000 --> 00:14:54,000 e também demonstra como uma indústria luta contra 355 00:14:54,000 --> 00:14:56,000 um modelo de que não gosta. 356 00:14:56,000 --> 00:14:59,000 Comparem isso com o debate de fumo em segunda mão -- 357 00:14:59,000 --> 00:15:02,000 está provavelmente atrasado 20 anos. 358 00:15:02,000 --> 00:15:04,000 Pensem acerca dos cintos de segurança. 359 00:15:04,000 --> 00:15:06,000 Quando eu era criança, ninguém usava cinto de segurança. 360 00:15:06,000 --> 00:15:08,000 Hoje em dia, nenhum miúdo vos deixa conduzir 361 00:15:08,000 --> 00:15:10,000 se não estiverem a usar cinto de segurança. 362 00:15:11,000 --> 00:15:13,000 Comparem isso ao debate acerca do airbag -- 363 00:15:13,000 --> 00:15:16,000 provavelmente atrasado 30 anos. 364 00:15:16,000 --> 00:15:19,000 Todos são exemplos de modelos em mudança. 365 00:15:21,000 --> 00:15:24,000 O que nós aprendemos é que mudar modelos é difícil. 366 00:15:24,000 --> 00:15:26,000 É difícil desinstalar modelos 367 00:15:26,000 --> 00:15:28,000 se eles coincidem com os nossos sentimentos. 368 00:15:28,000 --> 00:15:31,000 Vocês nem sequer sabem que têm um modelo. 369 00:15:31,000 --> 00:15:33,000 E existe outro erro cognitivo 370 00:15:33,000 --> 00:15:35,000 vou-lhe chamar enviusamento confirmatório, 371 00:15:35,000 --> 00:15:38,000 no qual tendemos a aceitar informação 372 00:15:38,000 --> 00:15:40,000 que confirma as nossas crenças 373 00:15:40,000 --> 00:15:43,000 e rejeita informação que contradiz aquilo em que acreditamos. 374 00:15:44,000 --> 00:15:46,000 Portanto, provas contra o nosso modelo, 375 00:15:46,000 --> 00:15:49,000 nós iremos, provavelmente, ignorar, mesmo que seja convincente. 376 00:15:49,000 --> 00:15:52,000 Tem de se tornar muito convincente para nós lhe prestarmos atenção. 377 00:15:53,000 --> 00:15:55,000 Os novos modelos que se estendem por largos periodo de tempo são difíceis. 378 00:15:55,000 --> 00:15:57,000 O aquecimento global é um óptimo exemplo. 379 00:15:57,000 --> 00:15:59,000 Nós somos terríveis 380 00:15:59,000 --> 00:16:01,000 com modelos que se estendem por 80 anos. 381 00:16:01,000 --> 00:16:03,000 nós podemos tratar da próxima ceifa. 382 00:16:03,000 --> 00:16:06,000 Nós podemos frequentemente pensar até quando os nossos filhos crescem. 383 00:16:06,000 --> 00:16:09,000 Mas 80 anos, nós simplesmente não somos bons [a pensar nisso]. 384 00:16:09,000 --> 00:16:12,000 Portanto, é um modelo muito difícil de aceitar. 385 00:16:12,000 --> 00:16:16,000 Nós podemos ter os dois modelos simultaneamente na nossa mente, 386 00:16:16,000 --> 00:16:19,000 ou esse tipo de problema 387 00:16:19,000 --> 00:16:22,000 em que estamos a manter as duas crenças em conjunto, 388 00:16:22,000 --> 00:16:24,000 ou a dissonância cognitiva. 389 00:16:24,000 --> 00:16:26,000 Eventualmente, 390 00:16:26,000 --> 00:16:29,000 o novo modelo irá substituir o velho modelo. 391 00:16:29,000 --> 00:16:32,000 Sentimentos fortes podem criar um modelo. 392 00:16:32,000 --> 00:16:35,000 O 11 de Setembro criou um modelo de segurança 393 00:16:35,000 --> 00:16:37,000 em muitas mentes. 394 00:16:37,000 --> 00:16:40,000 Também experiências pessoais com crime o podem fazer, 395 00:16:40,000 --> 00:16:42,000 sustos com saúde pessoal, 396 00:16:42,000 --> 00:16:44,000 um susto nas notícias relacionado com a saúde. 397 00:16:44,000 --> 00:16:46,000 Verão estes eventos chamados flashes 398 00:16:46,000 --> 00:16:48,000 pelos psiquiatras. 399 00:16:48,000 --> 00:16:51,000 Eles podem criar um modelo instantaneamente 400 00:16:51,000 --> 00:16:54,000 porque são tão emocionais. 401 00:16:54,000 --> 00:16:56,000 Por isso, num mundo tecnológico, 402 00:16:56,000 --> 00:16:58,000 nós não temos experiência 403 00:16:58,000 --> 00:17:00,000 em avaliar modelos. 404 00:17:00,000 --> 00:17:02,000 E confiamos nos outros. Nós confiamos nas vias de informação. 405 00:17:02,000 --> 00:17:06,000 Quero dizer, isto funciona desde que seja para corrigir outros. 406 00:17:06,000 --> 00:17:08,000 Nós confiamos em agências governamentais 407 00:17:08,000 --> 00:17:13,000 que nos dizem quais farmacêuticas são seguras. 408 00:17:13,000 --> 00:17:15,000 Eu voei para cá ontem. 409 00:17:15,000 --> 00:17:17,000 Eu não verifiquei [o estado] do avião. 410 00:17:17,000 --> 00:17:19,000 Eu confiei noutro grupo 411 00:17:19,000 --> 00:17:22,000 para determinar se era seguro voar no meu avião. 412 00:17:22,000 --> 00:17:25,000 Nós estamos aqui, nenhum de nós tem medo que o teto vá colapsar sobre nós, 413 00:17:25,000 --> 00:17:28,000 não porque verificámos, 414 00:17:28,000 --> 00:17:30,000 mas porque temos bastante certeza 415 00:17:30,000 --> 00:17:33,000 que as normas de construção aqui são boas. 416 00:17:33,000 --> 00:17:35,000 É um modelo que, basicamente, aceitamos 417 00:17:35,000 --> 00:17:37,000 por fé. 418 00:17:37,000 --> 00:17:40,000 E isso está bem. 419 00:17:42,000 --> 00:17:44,000 Agora, o que queremos 420 00:17:44,000 --> 00:17:46,000 é que as pessoas se sintam suficientemente familiarizadas 421 00:17:46,000 --> 00:17:48,000 com modelos melhores -- 422 00:17:48,000 --> 00:17:50,000 que isso se reflicta nos seus sentimentos -- 423 00:17:50,000 --> 00:17:54,000 e lhes permita fazer escolhas de segurança. 424 00:17:54,000 --> 00:17:56,000 Porque quando estes se distanciam 425 00:17:56,000 --> 00:17:58,000 têm duas opções: 426 00:17:58,000 --> 00:18:00,000 uma, podem corrigir os sentimentos das pessoas, 427 00:18:00,000 --> 00:18:02,000 apelar directamente aos sentimentos. 428 00:18:02,000 --> 00:18:05,000 É manipulação, mas pode funcionar. 429 00:18:05,000 --> 00:18:07,000 a segundo forma, mais honesta 430 00:18:07,000 --> 00:18:10,000 é corrigir o próprio modelo. 431 00:18:11,000 --> 00:18:13,000 A mudança acontece lentamente. 432 00:18:13,000 --> 00:18:16,000 O debate acerca do tabaco demorou 40 anos, 433 00:18:16,000 --> 00:18:19,000 e esse foi um fácil. 434 00:18:19,000 --> 00:18:21,000 Algumas coisas são difíceis. 435 00:18:21,000 --> 00:18:23,000 Eu quero dizer, realmente 436 00:18:23,000 --> 00:18:25,000 a informação parece ser a nossa maior esperança 437 00:18:25,000 --> 00:18:27,000 E eu menti. 438 00:18:27,000 --> 00:18:29,000 Lembram-se quando eu disse que sentimento, modelo, realidade. 439 00:18:29,000 --> 00:18:32,000 Eu disse que a realidade não muda. Na realidade muda. 440 00:18:32,000 --> 00:18:34,000 Nós vivemos num mundo tecnológico; 441 00:18:34,000 --> 00:18:37,000 a realidade muda a toda a hora. 442 00:18:37,000 --> 00:18:40,000 Portanto podemos ter -- pela primeira vez na [história] da nossa espécie -- 443 00:18:40,000 --> 00:18:43,000 sentimentos que perseguem modelos, modelos perseguem realidade, e a realidade a mudar -- 444 00:18:43,000 --> 00:18:46,000 podem nunca se vir a alcançar. 445 00:18:47,000 --> 00:18:49,000 Nós não sabemos. 446 00:18:49,000 --> 00:18:51,000 Mas a longo prazo 447 00:18:51,000 --> 00:18:54,000 sentimentos e realidade são importantes. 448 00:18:54,000 --> 00:18:57,000 E eu quero acabar com duas histórias rápidas para ilustrar estes pontos. 449 00:18:57,000 --> 00:18:59,000 1982 -- Eu não sei se vocês se vão lembrar disto -- 450 00:18:59,000 --> 00:19:02,000 houve uma curta epidemia 451 00:19:02,000 --> 00:19:04,000 de envenenamento por Tylenol nos Estados Unidos. 452 00:19:04,000 --> 00:19:07,000 Foi uma história horrível. Alguém pegou numa garrafa de Tylenol, 453 00:19:07,000 --> 00:19:10,000 colocou veneno, fechou-a, pô-la novamente na estante. 454 00:19:10,000 --> 00:19:12,000 Outra pessoa comprou-a e morreu. 455 00:19:12,000 --> 00:19:14,000 Isto aterrorizou as pessoas. 456 00:19:14,000 --> 00:19:16,000 Houve alguns ataques de imitadores. 457 00:19:16,000 --> 00:19:19,000 Não existia nenhum risco real, mas as pessoas estavam assustadas. 458 00:19:19,000 --> 00:19:21,000 E é por isto 459 00:19:21,000 --> 00:19:23,000 que a indústria de produtos farmacêuticos invioláveis foi inventada. 460 00:19:23,000 --> 00:19:25,000 Essas tampas invioláveis, que advieram disto. 461 00:19:25,000 --> 00:19:27,000 É absolutamente teatro de segurança. 462 00:19:27,000 --> 00:19:29,000 Como trabalho de casa, pensem em 10 formas de contorná-las. 463 00:19:29,000 --> 00:19:32,000 Eu dou-vos uma, uma seringa. 464 00:19:32,000 --> 00:19:35,000 Mas fez as pessoas sentirem-se melhor. 465 00:19:35,000 --> 00:19:37,000 Fez com que os seus sentimentos de segurança 466 00:19:37,000 --> 00:19:39,000 coincidissem mais com a realidade. 467 00:19:39,000 --> 00:19:42,000 Última história, há alguns anos, uma amiga minha deu à luz. 468 00:19:42,000 --> 00:19:44,000 Eu visitei-a no hospital. 469 00:19:44,000 --> 00:19:46,000 Acontece que, hoje em dia, quando o bebé nasce, 470 00:19:46,000 --> 00:19:48,000 eles colocam uma pulseira RFID no bebé, 471 00:19:48,000 --> 00:19:50,000 e colocam a pulseira correspondente na mãe. 472 00:19:50,000 --> 00:19:52,000 Por isso, se alguém, que não a mãe, levar o bebé para fora da maternidade, 473 00:19:52,000 --> 00:19:54,000 o alarme dispara. 474 00:19:54,000 --> 00:19:56,000 Eu disse, "Bem, isso é porreiro. 475 00:19:56,000 --> 00:19:58,000 Eu interrogo-me quão frequente são raptos de bebés 476 00:19:58,000 --> 00:20:00,000 dos hospitais." 477 00:20:00,000 --> 00:20:02,000 Eu chego a casa, e procuro. 478 00:20:02,000 --> 00:20:04,000 Praticamente nunca acontece. 479 00:20:04,000 --> 00:20:06,000 Mas se pensarem no assunto, 480 00:20:06,000 --> 00:20:08,000 se forem um hospital, 481 00:20:08,000 --> 00:20:10,000 e precisam de levar o bebé para longe da mãe, 482 00:20:10,000 --> 00:20:12,000 para fora do quarto para efectuar alguns testes, 483 00:20:12,000 --> 00:20:14,000 é melhor que tenham alguns adereços de segurança, 484 00:20:14,000 --> 00:20:16,000 ou ela vai-vos arrancar o braço. 485 00:20:16,000 --> 00:20:18,000 (risos) 486 00:20:18,000 --> 00:20:20,000 Por isso, isto é importante para nós, 487 00:20:20,000 --> 00:20:22,000 aqueles que desenvolvem segurança, 488 00:20:22,000 --> 00:20:25,000 que investigam normas de segurança, 489 00:20:25,000 --> 00:20:27,000 ou que até investigam normas públicas 490 00:20:27,000 --> 00:20:29,000 de formas que afectam a segurança. 491 00:20:29,000 --> 00:20:32,000 Não é apenas a realidade, é o sentimento e a realidade. 492 00:20:32,000 --> 00:20:34,000 O que é importante 493 00:20:34,000 --> 00:20:36,000 é que coincidam mais ou menos. 494 00:20:36,000 --> 00:20:38,000 é importante porque, se os nossos sentimentos coincidirem com a realidade, 495 00:20:38,000 --> 00:20:40,000 nós fazemos melhores escolhas de segurança. 496 00:20:40,000 --> 00:20:42,000 Obrigado. 497 00:20:42,000 --> 00:20:44,000 (Aplausos)