WEBVTT 00:00:00.000 --> 00:00:02.000 Segurança são duas coisas diferentes: 00:00:02.000 --> 00:00:04.000 sensação, e realidade. 00:00:04.000 --> 00:00:06.000 E elas são de fato diferentes. 00:00:06.000 --> 00:00:08.000 Vocês podem se sentir seguros 00:00:08.000 --> 00:00:10.000 mesmo que não estejam. 00:00:10.000 --> 00:00:12.000 E podem estar seguros 00:00:12.000 --> 00:00:14.000 mesmo que não sintam essa segurança. 00:00:14.000 --> 00:00:16.000 Temos então dois conceitos distintos 00:00:16.000 --> 00:00:18.000 representados por uma só palavra. 00:00:18.000 --> 00:00:20.000 E o que quero fazer nesta palestra 00:00:20.000 --> 00:00:22.000 é separar um do outro -- 00:00:22.000 --> 00:00:24.000 compreendendo quando eles divergem 00:00:24.000 --> 00:00:26.000 e como convergem. 00:00:26.000 --> 00:00:28.000 E a linguagem aqui torna-se um problema. 00:00:28.000 --> 00:00:30.000 Não existem muitas palavras adequadas 00:00:30.000 --> 00:00:33.000 para os conceitos sobre os quais falaremos. NOTE Paragraph 00:00:33.000 --> 00:00:35.000 Assim, se olharem para a segurança 00:00:35.000 --> 00:00:37.000 do ponto de vista econômico, 00:00:37.000 --> 00:00:39.000 ela é uma negociação. 00:00:39.000 --> 00:00:41.000 Toda vez que vocês obtêm alguma segurança, 00:00:41.000 --> 00:00:43.000 estão sempre negociando alguma coisa. 00:00:43.000 --> 00:00:45.000 Seja por uma decisão pessoal -- 00:00:45.000 --> 00:00:47.000 ao instalarem um alarme contra roubo em suas casas -- 00:00:47.000 --> 00:00:50.000 ou por uma decisão nacional -- ao invadirem um país estrangeiro -- 00:00:50.000 --> 00:00:52.000 vocês vão trocar uma coisa por outra, 00:00:52.000 --> 00:00:55.000 seja dinheiro, tempo, comodidade, potencialidades, 00:00:55.000 --> 00:00:58.000 talvez liberdades essenciais. 00:00:58.000 --> 00:01:01.000 E a pergunta a fazer quando consideramos a segurança de qualquer coisa 00:01:01.000 --> 00:01:04.000 não é se isto nos tornará mais seguros, 00:01:04.000 --> 00:01:07.000 mas se essa troca valerá a pena. 00:01:07.000 --> 00:01:09.000 Nos últimos anos vocês têm ouvido falar 00:01:09.000 --> 00:01:11.000 que o mundo está mais seguro porque Saddan Hussein não está no poder. 00:01:11.000 --> 00:01:14.000 Talvez seja verdade, mas isto não é extremamente relevante. 00:01:14.000 --> 00:01:17.000 A pergunta é: valeu a pena? 00:01:17.000 --> 00:01:20.000 Vocês podem tomar uma decisão, 00:01:20.000 --> 00:01:22.000 e depois refletirem se a invasão valeu a pena. 00:01:22.000 --> 00:01:24.000 É assim que pensam sobre segurança -- 00:01:24.000 --> 00:01:26.000 do ponto de vista da negociação. NOTE Paragraph 00:01:26.000 --> 00:01:29.000 Geralmente, nesse caso, não há certo ou errado. 00:01:29.000 --> 00:01:31.000 Alguns de nós temos sistema de alarme contra roubo em casa, 00:01:31.000 --> 00:01:33.000 outros não. 00:01:33.000 --> 00:01:35.000 Isso depende de onde moramos, 00:01:35.000 --> 00:01:37.000 se vivemos sozinhos ou temos família, 00:01:37.000 --> 00:01:39.000 da quantidade de bens materiais que possuímos, 00:01:39.000 --> 00:01:41.000 ou até que ponto estamos dispostos a aceitar 00:01:41.000 --> 00:01:43.000 o risco de sermos roubados. 00:01:43.000 --> 00:01:45.000 Na politica também 00:01:45.000 --> 00:01:47.000 existem opiniões diferentes. 00:01:47.000 --> 00:01:49.000 Muitas vezes, essas negociações 00:01:49.000 --> 00:01:51.000 representam muito mais do que segurança apenas. 00:01:51.000 --> 00:01:53.000 E acho que isso é muito importante. 00:01:53.000 --> 00:01:55.000 As pessoas hoje têm uma intuição natural 00:01:55.000 --> 00:01:57.000 sobre essas negociações. 00:01:57.000 --> 00:01:59.000 Fazemos isso todos os dias -- 00:01:59.000 --> 00:02:01.000 a noite passada no quarto do hotel, 00:02:01.000 --> 00:02:03.000 quando decidi dar duas voltas na chave do quarto, 00:02:03.000 --> 00:02:05.000 ou vocês, quando vieram para cá de carro, 00:02:05.000 --> 00:02:07.000 quando vamos almoçar 00:02:07.000 --> 00:02:10.000 e decidimos comer porque a comida não é veneno. 00:02:10.000 --> 00:02:12.000 Fazemos concessões repetidas vezes, 00:02:12.000 --> 00:02:14.000 várias vezes ao dia. 00:02:14.000 --> 00:02:16.000 Às vezes nem percebemos. 00:02:16.000 --> 00:02:18.000 Isso quer dizer que estamos vivos; todos nós fazemos isso. NOTE Paragraph 00:02:18.000 --> 00:02:21.000 Todas as espécies fazem. 00:02:21.000 --> 00:02:23.000 Imaginem um coelho num campo, comendo grama, 00:02:23.000 --> 00:02:26.000 e esse coelho avista uma raposa. 00:02:26.000 --> 00:02:28.000 Ele vai tomar decisões para sua segurança. 00:02:28.000 --> 00:02:30.000 "Devo ficar, ou fugir?" 00:02:30.000 --> 00:02:32.000 Se vocês pararem para pensar, 00:02:32.000 --> 00:02:35.000 os coelhos que são bons em tomar decisões 00:02:35.000 --> 00:02:37.000 tenderão a viver e a se reproduzir, 00:02:37.000 --> 00:02:39.000 enquanto aqueles que são ruins nisso 00:02:39.000 --> 00:02:41.000 serão devorados ou morrerão de fome. 00:02:41.000 --> 00:02:43.000 Então vocês hão de pensar 00:02:43.000 --> 00:02:46.000 que nós, como a espécie evoluída do planeta -- 00:02:46.000 --> 00:02:48.000 vocês, eu, todos nós -- 00:02:48.000 --> 00:02:51.000 seríamos muito bons em sacrificar uma coisa por outra. 00:02:51.000 --> 00:02:53.000 No entanto parece, mais uma vez, 00:02:53.000 --> 00:02:56.000 que somos irremediavelmente ruins nisso. 00:02:56.000 --> 00:02:59.000 E acho que essa é uma questão bastante interessante. NOTE Paragraph 00:02:59.000 --> 00:03:01.000 Vou dar-lhes uma resposta em breves palavras. 00:03:01.000 --> 00:03:03.000 Na verdade, reagimos à sensação de segurança, 00:03:03.000 --> 00:03:06.000 e não àquilo que é real. 00:03:06.000 --> 00:03:09.000 O que, na maioria das vezes, funciona. 00:03:10.000 --> 00:03:12.000 Muitas vezes, 00:03:12.000 --> 00:03:15.000 sensação e realidade são a mesma coisa. 00:03:15.000 --> 00:03:17.000 Isso certamente é verdade 00:03:17.000 --> 00:03:20.000 para a maior parte da humanidade na pré-história. 00:03:20.000 --> 00:03:23.000 Desenvolvemos esta habilidade 00:03:23.000 --> 00:03:25.000 porque obedece à lógica evolutiva. 00:03:25.000 --> 00:03:27.000 Uma forma de entender isso 00:03:27.000 --> 00:03:29.000 é que somos altamente desenvolvidos 00:03:29.000 --> 00:03:31.000 para tomar decisões de risco 00:03:31.000 --> 00:03:34.000 que são endêmicas à vida em pequenos grupos familiares 00:03:34.000 --> 00:03:37.000 nas terras altas do Leste Africano em 100.000 a.C. -- 00:03:37.000 --> 00:03:40.000 já em Nova York em 2010, nem tanto. NOTE Paragraph 00:03:41.000 --> 00:03:44.000 Existem várias distorções na percepção do que é um risco. 00:03:44.000 --> 00:03:46.000 Há muitas experiências enriquecedoras neste sentido. 00:03:46.000 --> 00:03:49.000 E vocês podem entender certas distorções que aparecem repetidas vezes. 00:03:49.000 --> 00:03:51.000 E vou citar quatro delas. 00:03:51.000 --> 00:03:54.000 Tendemos a agigantar riscos tremendos e raros 00:03:54.000 --> 00:03:56.000 e a minimizar riscos comuns -- 00:03:56.000 --> 00:03:59.000 como andar de avião e andar de carro. 00:03:59.000 --> 00:04:01.000 O desconhecido é considerado 00:04:01.000 --> 00:04:04.000 mais arriscado do que o que é familiar. 00:04:05.000 --> 00:04:07.000 Um exemplo disso seria 00:04:07.000 --> 00:04:10.000 o medo que as pessoas têm de serem sequestradas por estranhos, 00:04:10.000 --> 00:04:13.000 enquanto os dados apontam que é mais comum o sequestro por parentes. 00:04:13.000 --> 00:04:15.000 Isto, em se tratando de crianças. 00:04:15.000 --> 00:04:18.000 A terceira distorção seria os riscos personificados 00:04:18.000 --> 00:04:21.000 que são considerados maiores do que os anônimos -- 00:04:21.000 --> 00:04:24.000 desse jeito, Bin Laden é mais medonho porque tem um nome. 00:04:24.000 --> 00:04:26.000 E a quarta, 00:04:26.000 --> 00:04:28.000 é quando as pessoas subestimam os riscos 00:04:28.000 --> 00:04:30.000 em situações que podem ser controladas 00:04:30.000 --> 00:04:34.000 e os supervalorizam em situações de difícil controle. 00:04:34.000 --> 00:04:37.000 Uma vez que vocês resolvem fazer um salto em queda livre ou fumar, 00:04:37.000 --> 00:04:39.000 estão menosprezando os riscos. 00:04:39.000 --> 00:04:42.000 E se são submetidos a algum risco -- o terrorismo foi um bom exemplo -- 00:04:42.000 --> 00:04:45.000 vão supervalorizá-lo, porque acham que está fora de seu controle. NOTE Paragraph 00:04:47.000 --> 00:04:50.000 Há uma série de outras distorções, chamadas cognitivas, 00:04:50.000 --> 00:04:53.000 que afetam nossas decisões em relação aos riscos. 00:04:53.000 --> 00:04:55.000 Como a heurística de disponibilidade, 00:04:55.000 --> 00:04:57.000 que basicamente significa 00:04:57.000 --> 00:05:00.000 que nós calculamos a probabilidade de alguma coisa 00:05:00.000 --> 00:05:04.000 pela sua facilidade em trazer alternativas à nossa mente. 00:05:04.000 --> 00:05:06.000 Então vocês podem imaginar como isso funciona. 00:05:06.000 --> 00:05:09.000 Se vocês ouvem falar muito sobre ataques de tigres, é porque existem muitos deles ao seu redor. 00:05:09.000 --> 00:05:12.000 Se não ouvem falar de ataques de leões, então não existem leões à solta. 00:05:12.000 --> 00:05:15.000 Isto funcionava antes da invenção dos jornais. 00:05:15.000 --> 00:05:17.000 Porque o que eles fazem 00:05:17.000 --> 00:05:19.000 é repetir várias vezes 00:05:19.000 --> 00:05:21.000 riscos incomuns. 00:05:21.000 --> 00:05:23.000 É o que sempre digo, se está nos noticiários, não se preocupem. 00:05:23.000 --> 00:05:25.000 Já que, por definição, 00:05:25.000 --> 00:05:28.000 notícias de jornal quase sempre são falsas. 00:05:28.000 --> 00:05:30.000 (Risos) 00:05:30.000 --> 00:05:33.000 Quando um fato é muito comum, deixa de estar nos noticiários -- 00:05:33.000 --> 00:05:35.000 acidentes de carro, violência doméstica -- 00:05:35.000 --> 00:05:38.000 esses são os riscos com os quais têm que se preocupar. NOTE Paragraph 00:05:38.000 --> 00:05:40.000 Somos uma espécie de contadores de histórias. 00:05:40.000 --> 00:05:43.000 Respondemos a histórias mais do que aos dados. 00:05:43.000 --> 00:05:45.000 E existe a questão da quantidade. 00:05:45.000 --> 00:05:48.000 Isso significa que a brincadeira "Um, Dois, Três, um Montão" faz sentido. 00:05:48.000 --> 00:05:51.000 Somos muito bons em números pequenos. 00:05:51.000 --> 00:05:53.000 1 manga, 2 mangas, 3 mangas, 00:05:53.000 --> 00:05:55.000 10.000 mangas, 100.000 mangas -- 00:05:55.000 --> 00:05:58.000 são ainda mais mangas a comer antes de apodrecer. 00:05:58.000 --> 00:06:01.000 Assim 1/2, 1/4, 1/5 - somos bons nisso. 00:06:01.000 --> 00:06:03.000 1 em um milhão, 1 em um bilhão -- 00:06:03.000 --> 00:06:06.000 significam quase nunca. 00:06:06.000 --> 00:06:08.000 Da mesma forma temos problemas com os riscos 00:06:08.000 --> 00:06:10.000 que não são muito comuns. NOTE Paragraph 00:06:10.000 --> 00:06:12.000 E o que essas distorções cognitivas fazem 00:06:12.000 --> 00:06:15.000 é agir como filtros entre nós e a realidade. 00:06:15.000 --> 00:06:17.000 E o resultado 00:06:17.000 --> 00:06:19.000 é que sensação e realidade ficam desequilibradas, 00:06:19.000 --> 00:06:22.000 ficam diferentes. 00:06:22.000 --> 00:06:25.000 Neste caso, ou vocês têm uma sensação -- se sentem mais seguros do que estão. 00:06:25.000 --> 00:06:27.000 Existe uma falsa sensação de segurança. 00:06:27.000 --> 00:06:29.000 Ou ao contrário, 00:06:29.000 --> 00:06:31.000 ou seja, uma falsa sensação de insegurança. 00:06:31.000 --> 00:06:34.000 Escrevo muito sobre "teatro de segurança," 00:06:34.000 --> 00:06:37.000 que são produtos que fazem as pessoas se sentirem seguras, 00:06:37.000 --> 00:06:39.000 mas que na verdade não fazem nada disso. 00:06:39.000 --> 00:06:41.000 Não existe uma palavra para definir aquilo que nos torna seguros, 00:06:41.000 --> 00:06:43.000 mas não nos faça sentir seguros. 00:06:43.000 --> 00:06:46.000 Talvez seja isso que a CIA tenha que fazer por nós. NOTE Paragraph 00:06:48.000 --> 00:06:50.000 Mas voltemos à economia. 00:06:50.000 --> 00:06:54.000 Se a economia, ou o mercado, transmite segurança, 00:06:54.000 --> 00:06:56.000 e se as pessoas fazem sacrifícios 00:06:56.000 --> 00:06:59.000 baseadas na sensação de segurança, 00:06:59.000 --> 00:07:01.000 então a medida mais inteligente a ser tomada pelas companhias 00:07:01.000 --> 00:07:03.000 em favor dos incentivos econômicos 00:07:03.000 --> 00:07:06.000 é fazer com que as pessoas se sintam seguras. 00:07:06.000 --> 00:07:09.000 E existem dois caminhos para chegar a isto. 00:07:09.000 --> 00:07:11.000 Primeiro, podemos tornar as pessoas verdadeiramente seguras 00:07:11.000 --> 00:07:13.000 e ter a esperança de que elas percebam. 00:07:13.000 --> 00:07:16.000 Segundo, podemos fazer com que se sintam seguras 00:07:16.000 --> 00:07:19.000 e esperar que não percebam 00:07:20.000 --> 00:07:23.000 E o que fará com que elas percebam? 00:07:23.000 --> 00:07:25.000 Na verdade, uma série de coisas: 00:07:25.000 --> 00:07:27.000 a compreensão da segurança, 00:07:27.000 --> 00:07:29.000 dos riscos, das ameaças, 00:07:29.000 --> 00:07:32.000 das medidas prévias, e de como elas funcionam. 00:07:32.000 --> 00:07:34.000 Mas se vocês têm conhecimento das coisas, 00:07:34.000 --> 00:07:37.000 são mais propensos a ter suas sensações condizendo com a realidade. 00:07:37.000 --> 00:07:40.000 Um número suficiente de exemplos do mundo real ajuda muito. NOTE Paragraph 00:07:40.000 --> 00:07:43.000 Todos nós sabemos do índice de criminalidade na nossa vizinhança, 00:07:43.000 --> 00:07:46.000 porque moramos lá, e temos essa sensação 00:07:46.000 --> 00:07:49.000 que basicamente corresponde à realidade. 00:07:49.000 --> 00:07:52.000 A câmera de segurança fica visível 00:07:52.000 --> 00:07:55.000 quando é óbvio que não está funcionando adequadamente. 00:07:55.000 --> 00:07:59.000 Tudo bem, então o que faz com que as pessoas não percebam? 00:07:59.000 --> 00:08:01.000 Uma noção precária. 00:08:01.000 --> 00:08:04.000 Se vocês não entendem os riscos, não entendem os custos. 00:08:04.000 --> 00:08:06.000 E provavelmente farão concessões equivocadas, 00:08:06.000 --> 00:08:09.000 e sua sensação não corresponderá à realidade. 00:08:09.000 --> 00:08:11.000 Não há exemplos suficientes. 00:08:11.000 --> 00:08:13.000 Existe um problema inerente 00:08:13.000 --> 00:08:15.000 aos eventos de baixa probabilidade. 00:08:15.000 --> 00:08:17.000 Se, por exemplo, 00:08:17.000 --> 00:08:19.000 o terrorismo quase nunca acontece, 00:08:19.000 --> 00:08:21.000 é muito difícil julgar 00:08:21.000 --> 00:08:24.000 a eficácia das medidas anti-terroristas. 00:08:25.000 --> 00:08:28.000 É por isso que vocês continuam sacrificando as virgens, 00:08:28.000 --> 00:08:31.000 e por isso as defesas do unicórnio estão funcionando perfeitamente. 00:08:31.000 --> 00:08:34.000 Não existem exemplos suficientes de fracassos. 00:08:35.000 --> 00:08:38.000 Além disso, as sensações estão ofuscando as questões -- 00:08:38.000 --> 00:08:40.000 as distorções cognitivas das quais falei anteriormente, 00:08:40.000 --> 00:08:43.000 medos, crenças populares, 00:08:43.000 --> 00:08:46.000 basicamente um modelo de realidade inadequado. NOTE Paragraph 00:08:47.000 --> 00:08:50.000 Então vamos complicar as coisas. 00:08:50.000 --> 00:08:52.000 Eu tenho sensação e realidade. 00:08:52.000 --> 00:08:55.000 Quero acrescentar um terceiro elemento. Um modelo. 00:08:55.000 --> 00:08:57.000 Sensação e modelo em nossa mente, 00:08:57.000 --> 00:08:59.000 realidade no mundo exterior. 00:08:59.000 --> 00:09:02.000 Isto não muda; é real. 00:09:02.000 --> 00:09:04.000 Logo, a sensação baseia-se em nossa intuição. 00:09:04.000 --> 00:09:06.000 O modelo baseia-se na razão. 00:09:06.000 --> 00:09:09.000 Essa é basicamente a diferença. 00:09:09.000 --> 00:09:11.000 Num mundo simples e primitivo, 00:09:11.000 --> 00:09:14.000 não há motivo para um modelo. 00:09:14.000 --> 00:09:17.000 Porque a sensação está próxima da realidade. 00:09:17.000 --> 00:09:19.000 Vocês não precisam de um modelo. 00:09:19.000 --> 00:09:21.000 Mas num mundo complexo e moderno, 00:09:21.000 --> 00:09:23.000 vocês precisam de modelos 00:09:23.000 --> 00:09:26.000 para entender muitos dos riscos com os quais nos deparamos. 00:09:27.000 --> 00:09:29.000 Não há como sentir as bactérias. 00:09:29.000 --> 00:09:32.000 Vocês precisam de um modelo para entendê-las. 00:09:32.000 --> 00:09:34.000 Então este modelo 00:09:34.000 --> 00:09:37.000 é uma representação inteligente da realidade. 00:09:37.000 --> 00:09:40.000 E, é claro, limitado pela ciência, 00:09:40.000 --> 00:09:42.000 pela tecnologia. 00:09:42.000 --> 00:09:45.000 Não poderíamos ter uma teoria bacteriana de uma doença 00:09:45.000 --> 00:09:48.000 antes de inventarmos o microscópio e observá-las. 00:09:49.000 --> 00:09:52.000 Isto é limitado pelas nossas distorções cognitivas. 00:09:52.000 --> 00:09:54.000 Mas tem a habilidade 00:09:54.000 --> 00:09:56.000 de anular nossas sensações. NOTE Paragraph 00:09:56.000 --> 00:09:59.000 Onde conseguimos estes modelos? Através de outros. 00:09:59.000 --> 00:10:02.000 Conseguimos modelos através da religião, da cultura, 00:10:02.000 --> 00:10:04.000 de professores, de idosos. 00:10:04.000 --> 00:10:06.000 Há alguns anos atrás, 00:10:06.000 --> 00:10:08.000 eu estava num safari na África do Sul. 00:10:08.000 --> 00:10:11.000 O guia que me acompanhava cresceu no Parque Nacional de Kruger. 00:10:11.000 --> 00:10:14.000 Ele tinha modelos bem complexos de sobrevivência. 00:10:14.000 --> 00:10:16.000 E tudo dependia de como você fosse atacado 00:10:16.000 --> 00:10:18.000 por um leão, um leopardo, um rinoceronte ou um elefante -- 00:10:18.000 --> 00:10:21.000 e quando você tinha que fugir, ou subir numa árvore -- 00:10:21.000 --> 00:10:23.000 quando você nunca poderia subir numa árvore. 00:10:23.000 --> 00:10:26.000 Eu teria morrido no mesmo dia, 00:10:26.000 --> 00:10:28.000 mas ele nasceu lá, 00:10:28.000 --> 00:10:30.000 e sabia como sobreviver. 00:10:30.000 --> 00:10:32.000 Eu nasci na cidade de Nova York. 00:10:32.000 --> 00:10:35.000 Eu poderia tê-lo levado para Nova York, e ele teria morrido no mesmo dia. 00:10:35.000 --> 00:10:37.000 (Risos) 00:10:37.000 --> 00:10:39.000 Isso porque tínhamos modelos diferentes 00:10:39.000 --> 00:10:42.000 baseados em experiências diferentes. NOTE Paragraph 00:10:43.000 --> 00:10:45.000 Os modelos podem surgir da mídia, 00:10:45.000 --> 00:10:48.000 de nossos candidatos eleitos. 00:10:48.000 --> 00:10:51.000 Pensem nos modelos do terrorismo, 00:10:51.000 --> 00:10:54.000 sequestros de crianças, 00:10:54.000 --> 00:10:56.000 segurança aérea, segurança automobilística. 00:10:56.000 --> 00:10:59.000 Os modelos podem surgir da indústria. 00:10:59.000 --> 00:11:01.000 Os dois que estou acompanhando são câmeras de vigilância, 00:11:01.000 --> 00:11:03.000 e carteiras de identidade. 00:11:03.000 --> 00:11:06.000 Muitos dos nossos modelos de segurança da computação vêm daí. 00:11:06.000 --> 00:11:09.000 Muitos modelos surgem da ciência. 00:11:09.000 --> 00:11:11.000 Modelos da saúde são um grande exemplo. 00:11:11.000 --> 00:11:14.000 Pensem no câncer, na gripe aviária, na gripe suína, na SARS. 00:11:14.000 --> 00:11:17.000 Todas as nossas sensações de segurança 00:11:17.000 --> 00:11:19.000 a respeito dessas doenças 00:11:19.000 --> 00:11:21.000 surgem de modelos 00:11:21.000 --> 00:11:24.000 que certamente nos são dados pela ciência filtrada pela mídia. 00:11:25.000 --> 00:11:28.000 Logo, os modelos podem mudar. 00:11:28.000 --> 00:11:30.000 Os modelos não são estáticos. 00:11:30.000 --> 00:11:33.000 À medida em que nos tornamos mais confortáveis em nosso ambiente, 00:11:33.000 --> 00:11:37.000 nosso modelo pode se aproximar de nossas sensações. NOTE Paragraph 00:11:38.000 --> 00:11:40.000 Um exemplo disso seria: 00:11:40.000 --> 00:11:42.000 se retrocederem 100 anos, 00:11:42.000 --> 00:11:45.000 quando a eletricidade estava apenas começando, 00:11:45.000 --> 00:11:47.000 havia muito medo em relação a ela. 00:11:47.000 --> 00:11:49.000 Por exemplo, algumas pessoas tinham medo de tocar campainhas, 00:11:49.000 --> 00:11:52.000 porque estavam carregadas de eletricidade, e aquilo era perigoso. 00:11:52.000 --> 00:11:55.000 Para nós, a eletricidade não tem mistério. 00:11:55.000 --> 00:11:57.000 Trocamos lâmpadas 00:11:57.000 --> 00:11:59.000 sem o menor problema. 00:11:59.000 --> 00:12:03.000 Nosso modelo de segurança em relação à eletricidade 00:12:03.000 --> 00:12:06.000 é uma coisa inata. 00:12:06.000 --> 00:12:09.000 Ela não mudou durante nosso crescimento. 00:12:09.000 --> 00:12:12.000 E somos bons nisso. 00:12:12.000 --> 00:12:14.000 Pensem então nos riscos 00:12:14.000 --> 00:12:16.000 da Internet através das gerações -- 00:12:16.000 --> 00:12:18.000 como seus pais lidam com a segurança na Internet, 00:12:18.000 --> 00:12:20.000 bem diferente de vocês, 00:12:20.000 --> 00:12:23.000 e como será com nossos filhos. 00:12:23.000 --> 00:12:26.000 Os modelos acabam desaparecendo. 00:12:27.000 --> 00:12:30.000 Intuitivo é apenas mais uma palavra para o que é familiar. NOTE Paragraph 00:12:30.000 --> 00:12:32.000 Assim, a medida em que seu modelo se aproxima da realidade, 00:12:32.000 --> 00:12:34.000 e converge com as sensações, 00:12:34.000 --> 00:12:37.000 na maioria das vezes vocês não sabem que ele está lá. 00:12:37.000 --> 00:12:39.000 Logo, um bom exemplo disso 00:12:39.000 --> 00:12:42.000 surgiu com a gripe suína no ano passado. 00:12:42.000 --> 00:12:44.000 Quando a gripe suína apareceu pela primeira vez, 00:12:44.000 --> 00:12:48.000 as primeiras notícias causaram uma reação exagerada. 00:12:48.000 --> 00:12:50.000 Agora ela tinha um nome, 00:12:50.000 --> 00:12:52.000 que a tornava mais assustadora do que a gripe comum, 00:12:52.000 --> 00:12:54.000 embora fosse mais letal. 00:12:54.000 --> 00:12:58.000 E as pessoas achavam que os médicos deviam saber como lidar com ela. 00:12:58.000 --> 00:13:00.000 Então houve uma sensação de impotência. 00:13:00.000 --> 00:13:02.000 E essas duas coisas 00:13:02.000 --> 00:13:04.000 fizeram o risco ainda maior do que era. 00:13:04.000 --> 00:13:07.000 Quando deixou de ser novidade, os meses se passaram, 00:13:07.000 --> 00:13:09.000 houve uma dose de tolerância, 00:13:09.000 --> 00:13:11.000 e as pessoas se acostumaram a ela. 00:13:11.000 --> 00:13:14.000 Não havia nenhuma informação nova, mas havia menos temor. 00:13:14.000 --> 00:13:16.000 Quando chegou o outono, 00:13:16.000 --> 00:13:18.000 as pessoas achavam 00:13:18.000 --> 00:13:20.000 que os médicos já deveriam ter resolvido este problema. 00:13:20.000 --> 00:13:22.000 E há um tipo de divisão -- 00:13:22.000 --> 00:13:24.000 as pessoas tinham que escolher 00:13:24.000 --> 00:13:28.000 entre medo e aceitação -- 00:13:28.000 --> 00:13:30.000 na verdade, medo e indiferença -- 00:13:30.000 --> 00:13:33.000 e eles escolheram a desconfiança. 00:13:33.000 --> 00:13:36.000 E quando a vacina apareceu no último inverno, 00:13:36.000 --> 00:13:39.000 houve muitas pessoas -- um número surpreendente de pessoas -- 00:13:39.000 --> 00:13:42.000 que se recusaram a tomá-la -- 00:13:43.000 --> 00:13:45.000 como um bom exemplo 00:13:45.000 --> 00:13:48.000 de como mudam as sensações de segurança das pessoas, como mudam seus modelos, 00:13:48.000 --> 00:13:50.000 meio que descontroladamente, 00:13:50.000 --> 00:13:52.000 sem nenhuma informação nova, 00:13:52.000 --> 00:13:54.000 sem nenhum dado novo. 00:13:54.000 --> 00:13:57.000 Este tipo de coisa acontece muito. NOTE Paragraph 00:13:57.000 --> 00:14:00.000 Vou citar mais um problema. 00:14:00.000 --> 00:14:03.000 Temos sensação, modelo, realidade. 00:14:03.000 --> 00:14:05.000 Tenho uma visão relativista de segurança. 00:14:05.000 --> 00:14:08.000 Acho que isso depende do observador. 00:14:08.000 --> 00:14:10.000 E muitas decisões sobre segurança 00:14:10.000 --> 00:14:14.000 têm uma variedade de pessoas envolvidas. 00:14:14.000 --> 00:14:16.000 E as partes interessadas 00:14:16.000 --> 00:14:19.000 em negociações específicas 00:14:19.000 --> 00:14:21.000 tentarão influenciar a decisão. 00:14:21.000 --> 00:14:23.000 E a isso eu chamo de sua ordem do dia. 00:14:23.000 --> 00:14:25.000 E vocês vêm a ordem do dia -- 00:14:25.000 --> 00:14:28.000 isto é comercialização, isto é política -- 00:14:28.000 --> 00:14:31.000 tentando convencer vocês a ter um modelo em detrimento de outro, 00:14:31.000 --> 00:14:33.000 tentando convencer vocês a ignorar um modelo 00:14:33.000 --> 00:14:36.000 e confiar em suas sensações, 00:14:36.000 --> 00:14:39.000 marginalizando as pessoas com modelos que vocês não gostam. 00:14:39.000 --> 00:14:42.000 Isto não é raro. 00:14:42.000 --> 00:14:45.000 Um exemplo, um ótimo exemplo, é o risco de fumar. 00:14:46.000 --> 00:14:49.000 Na história dos últimos 50 anos, o risco de fumar 00:14:49.000 --> 00:14:51.000 mostra como um modelo muda, 00:14:51.000 --> 00:14:54.000 e também mostra como uma indústria luta contra 00:14:54.000 --> 00:14:56.000 um modelo que ela não gosta. 00:14:56.000 --> 00:14:59.000 Façam uma comparação com a discussão sobre o fumante passivo -- 00:14:59.000 --> 00:15:02.000 há cerca de 20 anos atrás. 00:15:02.000 --> 00:15:04.000 Pensem nos cintos de segurança. 00:15:04.000 --> 00:15:06.000 Quando eu era criança, ninguém usava cinto de segurança. 00:15:06.000 --> 00:15:08.000 Hoje em dia, nenhuma criança deixa vocês dirigirem 00:15:08.000 --> 00:15:10.000 se não estiverem usando um. 00:15:11.000 --> 00:15:13.000 Façam uma comparação com a discussão sobre o airbag -- 00:15:13.000 --> 00:15:16.000 há cerca de 30 anos atrás. NOTE Paragraph 00:15:16.000 --> 00:15:19.000 Todos os exemplos de modelos estão mudando. 00:15:21.000 --> 00:15:24.000 Aprendemos que é difícil trocar de modelos. 00:15:24.000 --> 00:15:26.000 Os modelos são difíceis de serem removidos. 00:15:26.000 --> 00:15:28.000 Se eles se igualarem às suas sensações, 00:15:28.000 --> 00:15:31.000 vocês nem saberão que têm um modelo. 00:15:31.000 --> 00:15:33.000 E há uma outra distorção cognitiva 00:15:33.000 --> 00:15:35.000 que chamarei de distorção de confirmação, 00:15:35.000 --> 00:15:38.000 onde temos uma tendência a aceitar os dados 00:15:38.000 --> 00:15:40.000 que confirmam nossas crenças, 00:15:40.000 --> 00:15:43.000 e a rejeitar aqueles que as contrariam. 00:15:44.000 --> 00:15:46.000 Assim, costumamos ignorar 00:15:46.000 --> 00:15:49.000 uma evidência contra nosso modelo, mesmo que seja convincente. 00:15:49.000 --> 00:15:52.000 Ela tem que ser bastante convincente para prestarmos atenção. 00:15:53.000 --> 00:15:55.000 É difícil haver novos modelos que se extendam por longos períodos. 00:15:55.000 --> 00:15:57.000 O aquecimento global é um ótimo exemplo. 00:15:57.000 --> 00:15:59.000 Somos péssimos 00:15:59.000 --> 00:16:01.000 para modelos que se extendem por 80 anos. 00:16:01.000 --> 00:16:03.000 Podemos colher a próxima safra. 00:16:03.000 --> 00:16:06.000 Podemos fazer isso até nossos filhos crescerem. 00:16:06.000 --> 00:16:09.000 Mas não somos bons nisso durante 80 anos. 00:16:09.000 --> 00:16:12.000 Logo, esse é um modelo muito difícil de aceitar. 00:16:12.000 --> 00:16:16.000 Podemos pensar nos dois modelos ao mesmo tempo, 00:16:16.000 --> 00:16:19.000 ou naquele tipo de problema 00:16:19.000 --> 00:16:22.000 em que sustentamos as duas opiniões, 00:16:22.000 --> 00:16:24.000 ou a dissonância cognitiva. 00:16:24.000 --> 00:16:26.000 E por fim, 00:16:26.000 --> 00:16:29.000 o modelo novo substituirá o antigo. NOTE Paragraph 00:16:29.000 --> 00:16:32.000 Fortes sensações podem criar um modelo. 00:16:32.000 --> 00:16:35.000 O 11 de setembro criou um modelo de segurança 00:16:35.000 --> 00:16:37.000 nas mentes de muitas pessoas. 00:16:37.000 --> 00:16:40.000 Experiências pessoais com o crime também podem fazer isso, 00:16:40.000 --> 00:16:42.000 ameaças à saúde das pessoas, 00:16:42.000 --> 00:16:44.000 uma ameaça nos noticiários. 00:16:44.000 --> 00:16:46.000 Vocês verão esses chamados fatos-relâmpagos 00:16:46.000 --> 00:16:48.000 pelos psiquiatras. 00:16:48.000 --> 00:16:51.000 Eles podem criar um modelo rapidamente, 00:16:51.000 --> 00:16:54.000 porque são muito emotivos. NOTE Paragraph 00:16:54.000 --> 00:16:56.000 Assim, no mundo tecnológico, 00:16:56.000 --> 00:16:58.000 não temos experiência 00:16:58.000 --> 00:17:00.000 para julgar modelos. 00:17:00.000 --> 00:17:02.000 E confiamos nos outros. Confiamos nos servidores proxy. 00:17:02.000 --> 00:17:06.000 Portanto, isto funciona o tempo suficiente para se corrigir os outros. 00:17:06.000 --> 00:17:08.000 Confiamos nas agências governamentais 00:17:08.000 --> 00:17:13.000 para que nos digam quais medicamentos são seguros. 00:17:13.000 --> 00:17:15.000 Cheguei aqui ontem de avião. 00:17:15.000 --> 00:17:17.000 Não inspecionei o avião. 00:17:17.000 --> 00:17:19.000 Confiei em algum outro grupo 00:17:19.000 --> 00:17:22.000 para determinar se meu avião estava seguro para voar. 00:17:22.000 --> 00:17:25.000 Estamos aqui, e nenhum de nós tem medo que o telhado caia em nossas cabeças, 00:17:25.000 --> 00:17:28.000 mas não é porque nós fizemos alguma inspeção, 00:17:28.000 --> 00:17:30.000 mas porque temos certeza 00:17:30.000 --> 00:17:33.000 que podemos confiar nos códigos de construção daqui. 00:17:33.000 --> 00:17:35.000 É um modelo que simplesmente aceitamos 00:17:35.000 --> 00:17:37.000 praticamente pela confiança. 00:17:37.000 --> 00:17:40.000 E está tudo bem. NOTE Paragraph 00:17:42.000 --> 00:17:44.000 Agora, o que queremos 00:17:44.000 --> 00:17:46.000 é que as pessoas se familiarizem o bastante 00:17:46.000 --> 00:17:48.000 com modelos melhores -- 00:17:48.000 --> 00:17:50.000 que os tenha refletidos em suas sensações -- 00:17:50.000 --> 00:17:54.000 para lhes permitir fazer negociações de segurança. 00:17:54.000 --> 00:17:56.000 Mas quando elas entram em desequilíbrio, 00:17:56.000 --> 00:17:58.000 vocês têm duas opções. 00:17:58.000 --> 00:18:00.000 Primeiro, vocês podem definir as sensações das pessoas, 00:18:00.000 --> 00:18:02.000 apelando diretamente aos sentimentos. 00:18:02.000 --> 00:18:05.000 Isso é manipulação, mas pode funcionar. 00:18:05.000 --> 00:18:07.000 A segunda, e a maneira mais honesta, 00:18:07.000 --> 00:18:10.000 é realmente definir o modelo. 00:18:11.000 --> 00:18:13.000 A mudança ocorre lentamente. 00:18:13.000 --> 00:18:16.000 A discussão sobre o fumo levou 40 anos, 00:18:16.000 --> 00:18:19.000 e aquela foi uma das mais fáceis. 00:18:19.000 --> 00:18:21.000 Algumas dessas coisas são difíceis. 00:18:21.000 --> 00:18:23.000 Difíceis de verdade, embora 00:18:23.000 --> 00:18:25.000 a informação pareça ser nossa melhor esperança. NOTE Paragraph 00:18:25.000 --> 00:18:27.000 E eu menti. 00:18:27.000 --> 00:18:29.000 Lembram-se quando eu falei sensação, modelo, e realidade? 00:18:29.000 --> 00:18:32.000 Eu disse que a realidade não se modifica. Isso não é verdade. 00:18:32.000 --> 00:18:34.000 Vivemos num mundo tecnológico; 00:18:34.000 --> 00:18:37.000 a realidade se modifica o tempo todo. 00:18:37.000 --> 00:18:40.000 Logo, teríamos -- pela primeira vez na nossa espécie -- 00:18:40.000 --> 00:18:43.000 a sensação indo atrás do modelo, o modelo atrás da realidade, e a realidade se deslocando -- 00:18:43.000 --> 00:18:46.000 talvez eles nunca se alcancem. 00:18:47.000 --> 00:18:49.000 Não sabemos. 00:18:49.000 --> 00:18:51.000 Mas a longo prazo, 00:18:51.000 --> 00:18:54.000 tanto a sensação quanto a realidade são importantes. 00:18:54.000 --> 00:18:57.000 E eu gostaria de encerrar com duas rápidas histórias para ilustrar isto. NOTE Paragraph 00:18:57.000 --> 00:18:59.000 1982 -- não sei se as pessoas se lembrarão disto -- 00:18:59.000 --> 00:19:02.000 houve uma rápida epidemia 00:19:02.000 --> 00:19:04.000 de envenenamentos por Tylenol nos Estados Unidos. 00:19:04.000 --> 00:19:07.000 É uma história horrível. Alguém pegou um vidro de Tylenol, 00:19:07.000 --> 00:19:10.000 colocou veneno dentro, fechou o vidro e o colocou de volta na prateleira. 00:19:10.000 --> 00:19:12.000 Outra pessoa o comprou e morreu. 00:19:12.000 --> 00:19:14.000 Isto aterrorizou as pessoas. 00:19:14.000 --> 00:19:16.000 Houve um monte de ataques parecidos. 00:19:16.000 --> 00:19:19.000 Na verdade, não havia risco algum, mas as pessoas ficaram com medo. 00:19:19.000 --> 00:19:21.000 E foi assim 00:19:21.000 --> 00:19:23.000 que a indústria de drogas invioláveis foi inventada. 00:19:23.000 --> 00:19:25.000 Daí é que vieram as tampas invioláveis. 00:19:25.000 --> 00:19:27.000 É um perfeito teatro de segurança. 00:19:27.000 --> 00:19:29.000 Como tarefa de casa, pensem em 10 maneiras de se chegar até esse teatro. 00:19:29.000 --> 00:19:32.000 Vou citar apenas uma, a seringa. 00:19:32.000 --> 00:19:35.000 Mas isso fez com que as pessoas se sentissem melhor. 00:19:35.000 --> 00:19:37.000 Deu-lhes a sensação de segurança 00:19:37.000 --> 00:19:39.000 mais de acordo com a realidade. NOTE Paragraph 00:19:39.000 --> 00:19:42.000 Última história, alguns anos atrás, uma amiga minha teve um filho. 00:19:42.000 --> 00:19:44.000 Vou visitá-la no hospital. 00:19:44.000 --> 00:19:46.000 Isso acontece agora quando um bebê nasce, 00:19:46.000 --> 00:19:48.000 eles colocam uma etiqueta RFID no bebê, 00:19:48.000 --> 00:19:50.000 e outra correspondente na mãe, 00:19:50.000 --> 00:19:52.000 de forma que se outra pessoa que não seja a mãe tirar o bebê do berçário, 00:19:52.000 --> 00:19:54.000 vai soar um alarme. 00:19:54.000 --> 00:19:56.000 Pensei, "Bom, isso parece simples. 00:19:56.000 --> 00:19:58.000 Imagino como deve ser violento o sequestro de bebês 00:19:58.000 --> 00:20:00.000 dos hospitais." 00:20:00.000 --> 00:20:02.000 Vou pra casa, e faço uma pesquisa. 00:20:02.000 --> 00:20:04.000 Isso raramente acontece. 00:20:04.000 --> 00:20:06.000 Mas se vocês pensarem nisso, 00:20:06.000 --> 00:20:08.000 se vocês trabalham num hospital, 00:20:08.000 --> 00:20:10.000 e precisam tirar um bebê de sua mãe, 00:20:10.000 --> 00:20:12.000 para fazer alguns testes, 00:20:12.000 --> 00:20:14.000 é melhor contarem com um bom teatro de segurança, 00:20:14.000 --> 00:20:16.000 ou a mãe vai arrancar o seu braço. NOTE Paragraph 00:20:16.000 --> 00:20:18.000 (Risos) NOTE Paragraph 00:20:18.000 --> 00:20:20.000 Assim, é importante para nós, 00:20:20.000 --> 00:20:22.000 que projetamos segurança, 00:20:22.000 --> 00:20:25.000 que analisamos a política de segurança, 00:20:25.000 --> 00:20:27.000 ou até a política pública 00:20:27.000 --> 00:20:29.000 de maneiras que afetam a segurança. 00:20:29.000 --> 00:20:32.000 Isso não é apenas realidade, é sensação e realidade. 00:20:32.000 --> 00:20:34.000 E o mais importante 00:20:34.000 --> 00:20:36.000 é que elas são a mesma coisa. 00:20:36.000 --> 00:20:38.000 É importante que, se nossas sensações correspondem à realidade, 00:20:38.000 --> 00:20:40.000 façamos melhores negociações de segurança. NOTE Paragraph 00:20:40.000 --> 00:20:42.000 Obrigado. NOTE Paragraph 00:20:42.000 --> 00:20:44.000 (Aplausos)