WEBVTT 00:00:00.000 --> 00:00:02.000 Portanto, a segurança é duas coisas diferentes: 00:00:02.000 --> 00:00:04.000 é um sentimento, e é uma realidade. 00:00:04.000 --> 00:00:06.000 E elas são diferentes. 00:00:06.000 --> 00:00:08.000 Vocês podem sentir-se seguros 00:00:08.000 --> 00:00:10.000 mesmo que não o estejam. 00:00:10.000 --> 00:00:12.000 E podem estar seguros 00:00:12.000 --> 00:00:14.000 mesmo que não o sintam. 00:00:14.000 --> 00:00:16.000 Na realidade, temos dois conceitos separados 00:00:16.000 --> 00:00:18.000 presentes na mesma palavra. 00:00:18.000 --> 00:00:20.000 E o que eu quero fazer nesta palestra 00:00:20.000 --> 00:00:22.000 é separá-los -- 00:00:22.000 --> 00:00:24.000 descobrindo quando divergem 00:00:24.000 --> 00:00:26.000 e como convergem. 00:00:26.000 --> 00:00:28.000 E, a linguagem é um verdadeiro problema neste caso. 00:00:28.000 --> 00:00:30.000 Não existem muitas palavras adequadas 00:00:30.000 --> 00:00:33.000 para os conceitos de que vamos falar. NOTE Paragraph 00:00:33.000 --> 00:00:35.000 Portanto, se olharem para a segurança 00:00:35.000 --> 00:00:37.000 em termos económicos, 00:00:37.000 --> 00:00:39.000 é uma negociação. 00:00:39.000 --> 00:00:41.000 Cada vez que têm alguma segurança, 00:00:41.000 --> 00:00:43.000 estão sempre a trocá-la por algo. 00:00:43.000 --> 00:00:45.000 Quer isto seja uma decisão pessoal -- 00:00:45.000 --> 00:00:47.000 quer vão instalar um sistema de alarme anti-roubos em vossa casa -- 00:00:47.000 --> 00:00:50.000 ou uma decisão nacional -- em que vão invadir algum país estrangeiro -- 00:00:50.000 --> 00:00:52.000 vão ter de negociar algo, 00:00:52.000 --> 00:00:55.000 seja dinheiro, ou tempo, conveniência, capacidades. 00:00:55.000 --> 00:00:58.000 talvez liberdades fundamentais. 00:00:58.000 --> 00:01:01.000 E a questão a fazer quando pensam na segurança de qualquer coisa 00:01:01.000 --> 00:01:04.000 não é se isto nos fará mais seguros, 00:01:04.000 --> 00:01:07.000 mas se vale a pena a escolha. 00:01:07.000 --> 00:01:09.000 Ouviram nos últimos anos, 00:01:09.000 --> 00:01:11.000 que o mundo está mais seguro porque o Saddam Hussein não está no poder. 00:01:11.000 --> 00:01:14.000 Isso pode ser verdade, mas não é terrivelmente relevante. 00:01:14.000 --> 00:01:17.000 A questão é, valeu a pena? 00:01:17.000 --> 00:01:20.000 Podem tomar a vossa própria decisão 00:01:20.000 --> 00:01:22.000 e então vão decidir se a invasão valeu a pena. 00:01:22.000 --> 00:01:24.000 É assim que pensam acerca de segurança -- 00:01:24.000 --> 00:01:26.000 em termos de escolhas. NOTE Paragraph 00:01:26.000 --> 00:01:29.000 Agora, muitas vezes não existe um certo e um errado. 00:01:29.000 --> 00:01:31.000 Alguns de nós temos um sistema de alarme anti-roubo em casa, 00:01:31.000 --> 00:01:33.000 e alguns de nós não tem. 00:01:33.000 --> 00:01:35.000 E vai depender onde vivemos, 00:01:35.000 --> 00:01:37.000 se moramos sozinhos ou temos uma família, 00:01:37.000 --> 00:01:39.000 quantas coisas porreiras temos, 00:01:39.000 --> 00:01:41.000 e quanto estamos dispostos a aceitar 00:01:41.000 --> 00:01:43.000 o risco de roubo. 00:01:43.000 --> 00:01:45.000 Também na política, 00:01:45.000 --> 00:01:47.000 existem opiniões diferentes. 00:01:47.000 --> 00:01:49.000 Muitas vezes, estas escolhas 00:01:49.000 --> 00:01:51.000 são acerca de mais do que apenas a segurança, 00:01:51.000 --> 00:01:53.000 e eu penso que isso é realmente importante. 00:01:53.000 --> 00:01:55.000 Agora, as pessoas têm uma intuição natural 00:01:55.000 --> 00:01:57.000 acerca destas escolhas. 00:01:57.000 --> 00:01:59.000 Nós fazêmo-las todos os dias -- 00:01:59.000 --> 00:02:01.000 ontem à noite, no meu quarto de hotel, 00:02:01.000 --> 00:02:03.000 quando decidi trancar a porta, 00:02:03.000 --> 00:02:05.000 ou vocês, nos vossos carros, quando conduziram até aqui, 00:02:05.000 --> 00:02:07.000 quando vamos almoçar 00:02:07.000 --> 00:02:10.000 e decidimos que a comida não é veneno e que a vamos comer. 00:02:10.000 --> 00:02:12.000 Nós fazemos estas escolhas uma e outra vez 00:02:12.000 --> 00:02:14.000 múltiplas vezes por dia. 00:02:14.000 --> 00:02:16.000 Muitas vezes, nem nos vamos aperceber delas. 00:02:16.000 --> 00:02:18.000 Elas são apenas parte de estar vivo; todos nós as fazemos. NOTE Paragraph 00:02:18.000 --> 00:02:21.000 Todas as espécies o fazem. 00:02:21.000 --> 00:02:23.000 Imaginem um coelho num campo, a comer erva, 00:02:23.000 --> 00:02:26.000 e o coelho vê uma raposa. 00:02:26.000 --> 00:02:28.000 O coelho vai fazer uma escolha de segurança: 00:02:28.000 --> 00:02:30.000 "Deverei ficar, ou fugir?" 00:02:30.000 --> 00:02:32.000 E se pensarem acerca disso, 00:02:32.000 --> 00:02:35.000 os coelhos que são bons a fazerem essa escolha 00:02:35.000 --> 00:02:37.000 tendem a viver e reproduzir-se 00:02:37.000 --> 00:02:39.000 e os coelhos que são maus 00:02:39.000 --> 00:02:41.000 vão ser comidos ou morrer de fome. 00:02:41.000 --> 00:02:43.000 Portanto, vocês pensam 00:02:43.000 --> 00:02:46.000 que nós, enquanto espécie bem sucedida no planeta -- 00:02:46.000 --> 00:02:48.000 vocês, eu, toda a gente -- 00:02:48.000 --> 00:02:51.000 seríamos realmente bons a fazer estas escolhas. 00:02:51.000 --> 00:02:53.000 Contudo, parece, uma e outra vez, 00:02:53.000 --> 00:02:56.000 que somos, desesperadamente, maus nisto. 00:02:56.000 --> 00:02:59.000 E eu penso que esta é uma questão interessante e fundamental. NOTE Paragraph 00:02:59.000 --> 00:03:01.000 Vou-vos dar a resposta curta. 00:03:01.000 --> 00:03:03.000 A resposta é, nós respondemos ao sentimento de segurança 00:03:03.000 --> 00:03:06.000 e não à realidade. 00:03:06.000 --> 00:03:09.000 Agora, na maioria do tempo, isso funciona. 00:03:10.000 --> 00:03:12.000 Na maioria do tempo, 00:03:12.000 --> 00:03:15.000 o sentimento e a realidade são o mesmo. 00:03:15.000 --> 00:03:17.000 Isso é certamente verdade 00:03:17.000 --> 00:03:20.000 para a maioria da pré-história humana. 00:03:20.000 --> 00:03:23.000 Nós desenvolvemos esta capacidade 00:03:23.000 --> 00:03:25.000 porque faz sentido evolutivamente. 00:03:25.000 --> 00:03:27.000 Uma forma de pensar acerca disto 00:03:27.000 --> 00:03:29.000 é que somos altamente optimizados 00:03:29.000 --> 00:03:31.000 para decisões de risco 00:03:31.000 --> 00:03:34.000 que são endémicas a viver em pequenos grupos familiares 00:03:34.000 --> 00:03:37.000 nos planaltos do este de África em 100,000 A.C. -- 00:03:37.000 --> 00:03:40.000 2010 Nova Iorque, nem tanto. NOTE Paragraph 00:03:41.000 --> 00:03:44.000 Agora, existem vários enviesamentos na percepção de risco. 00:03:44.000 --> 00:03:46.000 E muitas experiências boas acerca disto. 00:03:46.000 --> 00:03:49.000 E podem ver certos enviesamentos que surgem uma e outra vez. 00:03:49.000 --> 00:03:51.000 Portanto, vou-vos dar quatro. 00:03:51.000 --> 00:03:54.000 Tendemos a exagerar os riscos espectaculares e raros 00:03:54.000 --> 00:03:56.000 e subestimamos riscos comuns -- 00:03:56.000 --> 00:03:59.000 portanto, voar versus conduzir. 00:03:59.000 --> 00:04:01.000 O desconhecido é percepcionado 00:04:01.000 --> 00:04:04.000 como mais arriscado do que o familiar. 00:04:05.000 --> 00:04:07.000 Um exemplo será 00:04:07.000 --> 00:04:10.000 pessoas terem medo de raptos por estranhos, 00:04:10.000 --> 00:04:13.000 quando a informação confirma que raptos por familiares é muito mais comum. 00:04:13.000 --> 00:04:15.000 Isto para crianças. 00:04:15.000 --> 00:04:18.000 Terceiro, riscos personificados 00:04:18.000 --> 00:04:21.000 são percebidos como mais prováveis do que riscos anónimos -- 00:04:21.000 --> 00:04:24.000 portanto, o Bin Laden era ameaçador porque ele tem um nome. 00:04:24.000 --> 00:04:26.000 E o quarto 00:04:26.000 --> 00:04:28.000 é a subestima de riscos pelas pessoas 00:04:28.000 --> 00:04:30.000 em situações que podem controlar 00:04:30.000 --> 00:04:34.000 e a sobrestimação em situações que não controlam. 00:04:34.000 --> 00:04:37.000 Assim, quando começam a fazer paraquedismo ou a fumar, 00:04:37.000 --> 00:04:39.000 subestimam os riscos. 00:04:39.000 --> 00:04:42.000 Se um risco é forçado sobre vós -- o terrorismo foi um bom exemplo -- 00:04:42.000 --> 00:04:45.000 vão sobrestimá-lo, porque não sentem que é do vosso controlo. NOTE Paragraph 00:04:47.000 --> 00:04:50.000 Existe uma variedade de outros enviesamentos destes, destes erros cognitivos, 00:04:50.000 --> 00:04:53.000 que afectam as nossas decisões de risco. 00:04:53.000 --> 00:04:55.000 Existe a heurística da disponibilidade, 00:04:55.000 --> 00:04:57.000 que basicamente quer dizer que 00:04:57.000 --> 00:05:00.000 avaliamos a probabilidade de algo 00:05:00.000 --> 00:05:04.000 conforme a facilidade mental de aceder à informação acerca disso. 00:05:04.000 --> 00:05:06.000 Por isso, podem imaginar como funciona. 00:05:06.000 --> 00:05:09.000 Se ouvirem muita informação acerca de ataques de tigres, têm de haver muitos tigres nas redondezas. 00:05:09.000 --> 00:05:12.000 Não ouvem acerca de ataques de leões, não existem muitos leões pela área. 00:05:12.000 --> 00:05:15.000 Isto funciona inventarem os jornais. 00:05:15.000 --> 00:05:17.000 Porque o que os jornais fazem 00:05:17.000 --> 00:05:19.000 é repetir vez após vez 00:05:19.000 --> 00:05:21.000 os riscos raros. 00:05:21.000 --> 00:05:23.000 Eu digo às pessoas, se está nas notícias, não se preocupem acerca disso. 00:05:23.000 --> 00:05:25.000 Porque, por definição, 00:05:25.000 --> 00:05:28.000 as notícias são algo que quase nunca acontece. 00:05:28.000 --> 00:05:30.000 (risos) 00:05:30.000 --> 00:05:33.000 Quando algo é muito comum, já não é notícia -- 00:05:33.000 --> 00:05:35.000 acidentes de carros, violência doméstica -- 00:05:35.000 --> 00:05:38.000 esses são os riscos com que se devem preocupar. NOTE Paragraph 00:05:38.000 --> 00:05:40.000 Nós também somos uma espécie de contadores de histórias. 00:05:40.000 --> 00:05:43.000 Nós respondemos mais a histórias do que a informação. 00:05:43.000 --> 00:05:45.000 E existe alguma incapacidade matemática. 00:05:45.000 --> 00:05:48.000 Quer dizer, a piada "Um, dois, três, muitos" está, de certa forma, correcta. 00:05:48.000 --> 00:05:51.000 Nós somos muitos bons com números pequenos. 00:05:51.000 --> 00:05:53.000 Uma manda, duas mangas, três mangas, 00:05:53.000 --> 00:05:55.000 10,000 mangas, 100,000 mangas -- 00:05:55.000 --> 00:05:58.000 são muito mais mangas do que as que conseguem comer antes de apodrecerem. 00:05:58.000 --> 00:06:01.000 Por isso, uma metade, um quarto, um quinto -- somos bons nisso. 00:06:01.000 --> 00:06:03.000 Um num milhão, um num bilião -- 00:06:03.000 --> 00:06:06.000 não existem quase nunca. 00:06:06.000 --> 00:06:08.000 Por isto temos problemas com riscos 00:06:08.000 --> 00:06:10.000 que não são muitos comuns. NOTE Paragraph 00:06:10.000 --> 00:06:12.000 E o que fazem esses enviesamentos cognitivos 00:06:12.000 --> 00:06:15.000 é agir como filtros entre nós e a realidade. 00:06:15.000 --> 00:06:17.000 E o resultado é que 00:06:17.000 --> 00:06:19.000 o sentimento e a realidade se tornam discrepantes 00:06:19.000 --> 00:06:22.000 se tornam diferentes. 00:06:22.000 --> 00:06:25.000 E ou têm uma sensação -- sentem-se mais seguros que dantes. 00:06:25.000 --> 00:06:27.000 Existe um falso sentimento de segurança. 00:06:27.000 --> 00:06:29.000 Ou [têm o sentimento] oposto, 00:06:29.000 --> 00:06:31.000 e esse é o falso sentimento de insegurança. 00:06:31.000 --> 00:06:34.000 Eu escrevo muito acerca do "teatro de segurança", 00:06:34.000 --> 00:06:37.000 que são produtos que fazem as pessoas sentirem-se seguras 00:06:37.000 --> 00:06:39.000 mas que, na realidade, não fazem nada. 00:06:39.000 --> 00:06:41.000 Não existem uma palavra real para as coisas que nos fazem seguros, 00:06:41.000 --> 00:06:43.000 mas que não nos fazem sentir seguros. 00:06:43.000 --> 00:06:46.000 Talvez seja isso o que a CIA faz supostamente por nós. NOTE Paragraph 00:06:48.000 --> 00:06:50.000 Portanto, de volta à economia. 00:06:50.000 --> 00:06:54.000 Se a economia, se os mercados, impulsionam segurança, 00:06:54.000 --> 00:06:56.000 e se as pessoas fazem escolhas 00:06:56.000 --> 00:06:59.000 baseadas nos sentimentos de segurança, 00:06:59.000 --> 00:07:01.000 então, a coisa mais acertada para as companhias fazerem 00:07:01.000 --> 00:07:03.000 para os incentivos económicos 00:07:03.000 --> 00:07:06.000 é fazer as pessoas sentirem-se seguras. 00:07:06.000 --> 00:07:09.000 E existem duas formas de fazer isto. 00:07:09.000 --> 00:07:11.000 Uma, podem fazer as pessoas sentirem-se realmente seguras 00:07:11.000 --> 00:07:13.000 e esperar que elas reparem. 00:07:13.000 --> 00:07:16.000 Ou a segunda, podem fazer simplesmente as pessoas sentirem-se seguras 00:07:16.000 --> 00:07:19.000 e esperar que não reparem. 00:07:20.000 --> 00:07:23.000 E o que faz as pessoas repararem? 00:07:23.000 --> 00:07:25.000 Bem, um conjunto de coisas: 00:07:25.000 --> 00:07:27.000 compreensão da segurança, 00:07:27.000 --> 00:07:29.000 dos riscos, das ameaças, 00:07:29.000 --> 00:07:32.000 das medidas de combate, como funcionam. 00:07:32.000 --> 00:07:34.000 Mas se souberem coisas, 00:07:34.000 --> 00:07:37.000 é mais fácil que os vossos sentimentos coincidam com a realidade. 00:07:37.000 --> 00:07:40.000 Exemplos suficientes do mundo real ajudam. NOTE Paragraph 00:07:40.000 --> 00:07:43.000 Todos sabemos a taxa de criminalidade do nosso bairro, 00:07:43.000 --> 00:07:46.000 porque vivemos aí, e temos um sentimento acerca disso 00:07:46.000 --> 00:07:49.000 que, praticamente, coincide com a realidade. 00:07:49.000 --> 00:07:52.000 Os teatros de segurança são expostos 00:07:52.000 --> 00:07:55.000 quando é óbvio que não estão a funcionar apropriadamente. 00:07:55.000 --> 00:07:59.000 Okay, portando, o que acontece quando as pessoas não reparam? 00:07:59.000 --> 00:08:01.000 Bem, um entendimento fraco. 00:08:01.000 --> 00:08:04.000 Se não compreenderem os riscos, não entendem os custos, 00:08:04.000 --> 00:08:06.000 e são capazes de fazer a escolha errada, 00:08:06.000 --> 00:08:09.000 e o vosso sentimento não coincide com a realidade. 00:08:09.000 --> 00:08:11.000 Não há exemplos suficientes. 00:08:11.000 --> 00:08:13.000 Existe um problema inerente 00:08:13.000 --> 00:08:15.000 com eventos com baixa probabilidade. 00:08:15.000 --> 00:08:17.000 Se, por exemplo, 00:08:17.000 --> 00:08:19.000 o terrorismo quase nunca ocorre, 00:08:19.000 --> 00:08:21.000 é muito difícil de avaliar 00:08:21.000 --> 00:08:24.000 a eficácia de medidas contra-terroristas. 00:08:25.000 --> 00:08:28.000 Este é o porquê de continuarem a sacrificar virgens, 00:08:28.000 --> 00:08:31.000 e porque as vossas defesas de unicórnios funcionam muito bem. 00:08:31.000 --> 00:08:34.000 Não existem exemplos suficientes de falhas. 00:08:35.000 --> 00:08:38.000 Para além disso, sentimentos que abafam os problemas -- 00:08:38.000 --> 00:08:40.000 os enviasamentos cognitivos de que falámos antes, 00:08:40.000 --> 00:08:43.000 os medos, as crenças populares, 00:08:43.000 --> 00:08:46.000 basicamente, um modelo inadequado da realidade. NOTE Paragraph 00:08:47.000 --> 00:08:50.000 Deixem-me complicar as coisas. 00:08:50.000 --> 00:08:52.000 Eu tenho sentimento e realidade. 00:08:52.000 --> 00:08:55.000 Eu quero adicionar um terceiro elemento. Eu quero adicionar um modelo. 00:08:55.000 --> 00:08:57.000 O sentimento e o modelo [estão] na nossa cabeça, 00:08:57.000 --> 00:08:59.000 a realidade é o mundo exterior. 00:08:59.000 --> 00:09:02.000 Não muda; é real. 00:09:02.000 --> 00:09:04.000 Portanto, o sentimento é baseado na nossa intuição. 00:09:04.000 --> 00:09:06.000 O modelo é baseado na razão. 00:09:06.000 --> 00:09:09.000 Essa é a diferença fundamental. 00:09:09.000 --> 00:09:11.000 Num mundo primitivo e simples, 00:09:11.000 --> 00:09:14.000 não existem motivos para [a existência] de um modelo. 00:09:14.000 --> 00:09:17.000 Porque o sentimento está próximo da realidade. 00:09:17.000 --> 00:09:19.000 Não precisam de um modelo. 00:09:19.000 --> 00:09:21.000 Mas num mundo moderno e complexo, 00:09:21.000 --> 00:09:23.000 precisam de modelos 00:09:23.000 --> 00:09:26.000 para compreender os riscos com que nos defrontamos. 00:09:27.000 --> 00:09:29.000 Não existem sentimentos em relação a germes. 00:09:29.000 --> 00:09:32.000 Precisam do modelo para os compreender. 00:09:32.000 --> 00:09:34.000 Este modelo 00:09:34.000 --> 00:09:37.000 é uma representação inteligente da realidade. 00:09:37.000 --> 00:09:40.000 É, obviamente, limitado pela ciência, 00:09:40.000 --> 00:09:42.000 pela tecnologia. 00:09:42.000 --> 00:09:45.000 Não podíamos ter uma teoria de doenças de germes 00:09:45.000 --> 00:09:48.000 antes de inventarmos o microscópio para os ver. 00:09:49.000 --> 00:09:52.000 É limitado pelos nossos vieses cognitivos. 00:09:52.000 --> 00:09:54.000 Mas tem a capacidade 00:09:54.000 --> 00:09:56.000 de se sobrepôr aos nossos sentimentos. NOTE Paragraph 00:09:56.000 --> 00:09:59.000 Onde aprendemos estes modelos? Aprendêmo-los dos outros. 00:09:59.000 --> 00:10:02.000 Aprendemo-los da religião, cultura, 00:10:02.000 --> 00:10:04.000 professores, anciãos. 00:10:04.000 --> 00:10:06.000 Há alguns anos, 00:10:06.000 --> 00:10:08.000 estava num safari na África do Sul. 00:10:08.000 --> 00:10:11.000 O batedor com quem estava tinha crescido no Parque Nacional de Kruger. 00:10:11.000 --> 00:10:14.000 Ele tinha alguns modelos muito complexos acerca de como sobreviver. 00:10:14.000 --> 00:10:16.000 E dependiam se eram atacados 00:10:16.000 --> 00:10:18.000 por um leão, ou um leopardo, ou um rinoceronte, ou um elefante -- 00:10:18.000 --> 00:10:21.000 e sobre quando tinham de correr, e quando tinham de subir a uma árvora -- 00:10:21.000 --> 00:10:23.000 quando nunca podiam subir a uma árvore. 00:10:23.000 --> 00:10:26.000 Eu teria morrido nesse dia, 00:10:26.000 --> 00:10:28.000 mas ele tinha nascido ali, 00:10:28.000 --> 00:10:30.000 e ele compreendia como sobreviver. 00:10:30.000 --> 00:10:32.000 Eu nasci na cidade de Nova Iorque. 00:10:32.000 --> 00:10:35.000 Eu poderia tê-lo levado a Nova Iorque, e ele teria morrido nesse dia. 00:10:35.000 --> 00:10:37.000 (risos) 00:10:37.000 --> 00:10:39.000 Porque tínhamos modelos diferentes 00:10:39.000 --> 00:10:42.000 baseados nas nossas diferenças. NOTE Paragraph 00:10:43.000 --> 00:10:45.000 Os modelos podem vir dos meios de comunicação, 00:10:45.000 --> 00:10:48.000 dos nossos oficiais elegidos. 00:10:48.000 --> 00:10:51.000 Pensem em modelos de terrorismo, 00:10:51.000 --> 00:10:54.000 rapto infantil, 00:10:54.000 --> 00:10:56.000 segurança aérea, segurança automóvel. 00:10:56.000 --> 00:10:59.000 Os modelos podem vir da indústria. 00:10:59.000 --> 00:11:01.000 Os dois que eu sigo são as câmaras de vigilância, 00:11:01.000 --> 00:11:03.000 cartões de identificação, 00:11:03.000 --> 00:11:06.000 bastantes dos nossos modelos de segurança computacional vêm daí. 00:11:06.000 --> 00:11:09.000 Muitos dos modelos vêm da ciência. 00:11:09.000 --> 00:11:11.000 Os modelos de saúde são exemplos excelentes. 00:11:11.000 --> 00:11:14.000 Pensem em cancro, em gripe das aves, gripe suína, o vírus SARS. 00:11:14.000 --> 00:11:17.000 Todos os nossos sentimentos de segurança 00:11:17.000 --> 00:11:19.000 acerca dessas doenças 00:11:19.000 --> 00:11:21.000 vêm de modelos 00:11:21.000 --> 00:11:24.000 que nos são dados, na realidade, pela ciência filtrada pelos meios de comunicação. 00:11:25.000 --> 00:11:28.000 Por isso, os modelos podem mudar. 00:11:28.000 --> 00:11:30.000 Os modelos não são estáticos. 00:11:30.000 --> 00:11:33.000 À medida que nos tornamos mais confortáveis nos nossos ambientes, 00:11:33.000 --> 00:11:37.000 o nosso modelo pode tornar-se mais próximo dos nossos sentimentos. NOTE Paragraph 00:11:38.000 --> 00:11:40.000 Por isso, um exemplo pode ser, 00:11:40.000 --> 00:11:42.000 se voltarem atrás no tempo 100 anos 00:11:42.000 --> 00:11:45.000 quando a electricidade ainda se estava a tornar comum, 00:11:45.000 --> 00:11:47.000 existiam muitos medos acerca disso. 00:11:47.000 --> 00:11:49.000 Quer dizer, havia pessoas que tinham medo de tocar à campainha, 00:11:49.000 --> 00:11:52.000 porque existia ali electricidade, e era perigoso. 00:11:52.000 --> 00:11:55.000 Para nós, somos bastante condescendentes em relação à electricidade. 00:11:55.000 --> 00:11:57.000 Nós mudamos lâmpadas 00:11:57.000 --> 00:11:59.000 sem sequer pensar nisso 00:11:59.000 --> 00:12:03.000 O nosso modelo de segurança acerca da electricidade 00:12:03.000 --> 00:12:06.000 é algo para o qual nascemos. 00:12:06.000 --> 00:12:09.000 Não mudou enquanto crescíamos. 00:12:09.000 --> 00:12:12.000 E somos bons nele., 00:12:12.000 --> 00:12:14.000 Ora, pensem nos riscos 00:12:14.000 --> 00:12:16.000 na Internet entre gerações -- 00:12:16.000 --> 00:12:18.000 como os vossos pais lidavam com a segurança da Internet, 00:12:18.000 --> 00:12:20.000 versus, como vocês o fazem, 00:12:20.000 --> 00:12:23.000 versus como os vossos filhos vão lidar. 00:12:23.000 --> 00:12:26.000 Os modelos acabam por se dissolver. 00:12:27.000 --> 00:12:30.000 Intuitivo é apenas outra palavra para familiar. NOTE Paragraph 00:12:30.000 --> 00:12:32.000 Quando o nosso modelo é próximo da realidade, 00:12:32.000 --> 00:12:34.000 e converge com os sentimentos, 00:12:34.000 --> 00:12:37.000 vocês raramente se apercebem que ele lá está. 00:12:37.000 --> 00:12:39.000 Um bom exemplo disto 00:12:39.000 --> 00:12:42.000 veio o ano passado com a gripe suína. 00:12:42.000 --> 00:12:44.000 Quando a gripe suína apareceu, 00:12:44.000 --> 00:12:48.000 as notícias iniciais causaram muitas reacções excessivas. 00:12:48.000 --> 00:12:50.000 Tinha um nome, 00:12:50.000 --> 00:12:52.000 o que a fazia mais assustadora que a gripe comum, 00:12:52.000 --> 00:12:54.000 apesar desta ser mais mortal. 00:12:54.000 --> 00:12:58.000 E as pessoas pensavam que os médicos deveriam saber lidar com ela. 00:12:58.000 --> 00:13:00.000 Por isso existia um sentimento de falta de controlo. 00:13:00.000 --> 00:13:02.000 E essas duas coisas 00:13:02.000 --> 00:13:04.000 tornaram o risco mais do que ele era. 00:13:04.000 --> 00:13:07.000 Quando a novidade se desvaneceu, os meses passaram, 00:13:07.000 --> 00:13:09.000 existia uma quantidade de tolerância, 00:13:09.000 --> 00:13:11.000 as pessoas habituaram-se. 00:13:11.000 --> 00:13:14.000 Não existia informação nova, mas existia menos medo. 00:13:14.000 --> 00:13:16.000 No Outono, 00:13:16.000 --> 00:13:18.000 as pessoas pensaram 00:13:18.000 --> 00:13:20.000 que os médicos já deveriam ter resolvido isto. 00:13:20.000 --> 00:13:22.000 E existe uma espécie de bifurcação -- 00:13:22.000 --> 00:13:24.000 as pessoas tinham de escolher 00:13:24.000 --> 00:13:28.000 entre o medo e a aceitação -- 00:13:28.000 --> 00:13:30.000 ter medo ou indiferença -- 00:13:30.000 --> 00:13:33.000 elas escolheram suspeita. 00:13:33.000 --> 00:13:36.000 E quando a vacina surgiu o Inverno passado, 00:13:36.000 --> 00:13:39.000 existiu uma grande quantidade de pessoas - um número surpreendente - 00:13:39.000 --> 00:13:42.000 que se recusaram a recebê-la - 00:13:43.000 --> 00:13:45.000 é um bom exemplo 00:13:45.000 --> 00:13:48.000 que como os sentimentos de segurança das pessoas mudam, como os seus modelos mudam 00:13:48.000 --> 00:13:50.000 de forma rompante 00:13:50.000 --> 00:13:52.000 sem nova informação, 00:13:52.000 --> 00:13:54.000 sem novo dado. 00:13:54.000 --> 00:13:57.000 Este tipo de evento acontece frequentemente. NOTE Paragraph 00:13:57.000 --> 00:14:00.000 Vou-vos mostrar mais uma complicação. 00:14:00.000 --> 00:14:03.000 nós temos sentimento, modelo, realidade. 00:14:03.000 --> 00:14:05.000 Eu tenho uma visão muito relativista da segurança. 00:14:05.000 --> 00:14:08.000 Eu penso que depende do observador. 00:14:08.000 --> 00:14:10.000 E a maioria das decisões de segurança 00:14:10.000 --> 00:14:14.000 têm uma variedade de pessoas envolvidas. 00:14:14.000 --> 00:14:16.000 E os responsáveis 00:14:16.000 --> 00:14:19.000 com vista em trocas específicas 00:14:19.000 --> 00:14:21.000 vão tentar influenciar a decisão. 00:14:21.000 --> 00:14:23.000 E eu exponho os seus planos. 00:14:23.000 --> 00:14:25.000 E vocês vêem os seus planos -- 00:14:25.000 --> 00:14:28.000 isto é marketing, isto é política -- 00:14:28.000 --> 00:14:31.000 tentar convencer-vos a aceitar um modelo versus outro, 00:14:31.000 --> 00:14:33.000 tentar convencer-vos a ignorar um modelo 00:14:33.000 --> 00:14:36.000 a confiar nos vossos sentimentos, 00:14:36.000 --> 00:14:39.000 marginalizando pessoas com modelos que vocês não gostam. 00:14:39.000 --> 00:14:42.000 Isto não é invulgar. 00:14:42.000 --> 00:14:45.000 Um exemplo, um óptimo exemplo, é o risco de fumar. 00:14:46.000 --> 00:14:49.000 Na história dos últimos 50 anos, o risco de fumar 00:14:49.000 --> 00:14:51.000 demonstra como um modelo muda, 00:14:51.000 --> 00:14:54.000 e também demonstra como uma indústria luta contra 00:14:54.000 --> 00:14:56.000 um modelo de que não gosta. 00:14:56.000 --> 00:14:59.000 Comparem isso com o debate de fumo em segunda mão -- 00:14:59.000 --> 00:15:02.000 está provavelmente atrasado 20 anos. 00:15:02.000 --> 00:15:04.000 Pensem acerca dos cintos de segurança. 00:15:04.000 --> 00:15:06.000 Quando eu era criança, ninguém usava cinto de segurança. 00:15:06.000 --> 00:15:08.000 Hoje em dia, nenhum miúdo vos deixa conduzir 00:15:08.000 --> 00:15:10.000 se não estiverem a usar cinto de segurança. 00:15:11.000 --> 00:15:13.000 Comparem isso ao debate acerca do airbag -- 00:15:13.000 --> 00:15:16.000 provavelmente atrasado 30 anos. NOTE Paragraph 00:15:16.000 --> 00:15:19.000 Todos são exemplos de modelos em mudança. 00:15:21.000 --> 00:15:24.000 O que nós aprendemos é que mudar modelos é difícil. 00:15:24.000 --> 00:15:26.000 É difícil desinstalar modelos 00:15:26.000 --> 00:15:28.000 se eles coincidem com os nossos sentimentos. 00:15:28.000 --> 00:15:31.000 Vocês nem sequer sabem que têm um modelo. 00:15:31.000 --> 00:15:33.000 E existe outro erro cognitivo 00:15:33.000 --> 00:15:35.000 vou-lhe chamar enviusamento confirmatório, 00:15:35.000 --> 00:15:38.000 no qual tendemos a aceitar informação 00:15:38.000 --> 00:15:40.000 que confirma as nossas crenças 00:15:40.000 --> 00:15:43.000 e rejeita informação que contradiz aquilo em que acreditamos. 00:15:44.000 --> 00:15:46.000 Portanto, provas contra o nosso modelo, 00:15:46.000 --> 00:15:49.000 nós iremos, provavelmente, ignorar, mesmo que seja convincente. 00:15:49.000 --> 00:15:52.000 Tem de se tornar muito convincente para nós lhe prestarmos atenção. 00:15:53.000 --> 00:15:55.000 Os novos modelos que se estendem por largos periodo de tempo são difíceis. 00:15:55.000 --> 00:15:57.000 O aquecimento global é um óptimo exemplo. 00:15:57.000 --> 00:15:59.000 Nós somos terríveis 00:15:59.000 --> 00:16:01.000 com modelos que se estendem por 80 anos. 00:16:01.000 --> 00:16:03.000 nós podemos tratar da próxima ceifa. 00:16:03.000 --> 00:16:06.000 Nós podemos frequentemente pensar até quando os nossos filhos crescem. 00:16:06.000 --> 00:16:09.000 Mas 80 anos, nós simplesmente não somos bons [a pensar nisso]. 00:16:09.000 --> 00:16:12.000 Portanto, é um modelo muito difícil de aceitar. 00:16:12.000 --> 00:16:16.000 Nós podemos ter os dois modelos simultaneamente na nossa mente, 00:16:16.000 --> 00:16:19.000 ou esse tipo de problema 00:16:19.000 --> 00:16:22.000 em que estamos a manter as duas crenças em conjunto, 00:16:22.000 --> 00:16:24.000 ou a dissonância cognitiva. 00:16:24.000 --> 00:16:26.000 Eventualmente, 00:16:26.000 --> 00:16:29.000 o novo modelo irá substituir o velho modelo. NOTE Paragraph 00:16:29.000 --> 00:16:32.000 Sentimentos fortes podem criar um modelo. 00:16:32.000 --> 00:16:35.000 O 11 de Setembro criou um modelo de segurança 00:16:35.000 --> 00:16:37.000 em muitas mentes. 00:16:37.000 --> 00:16:40.000 Também experiências pessoais com crime o podem fazer, 00:16:40.000 --> 00:16:42.000 sustos com saúde pessoal, 00:16:42.000 --> 00:16:44.000 um susto nas notícias relacionado com a saúde. 00:16:44.000 --> 00:16:46.000 Verão estes eventos chamados flashes 00:16:46.000 --> 00:16:48.000 pelos psiquiatras. 00:16:48.000 --> 00:16:51.000 Eles podem criar um modelo instantaneamente 00:16:51.000 --> 00:16:54.000 porque são tão emocionais. NOTE Paragraph 00:16:54.000 --> 00:16:56.000 Por isso, num mundo tecnológico, 00:16:56.000 --> 00:16:58.000 nós não temos experiência 00:16:58.000 --> 00:17:00.000 em avaliar modelos. 00:17:00.000 --> 00:17:02.000 E confiamos nos outros. Nós confiamos nas vias de informação. 00:17:02.000 --> 00:17:06.000 Quero dizer, isto funciona desde que seja para corrigir outros. 00:17:06.000 --> 00:17:08.000 Nós confiamos em agências governamentais 00:17:08.000 --> 00:17:13.000 que nos dizem quais farmacêuticas são seguras. 00:17:13.000 --> 00:17:15.000 Eu voei para cá ontem. 00:17:15.000 --> 00:17:17.000 Eu não verifiquei [o estado] do avião. 00:17:17.000 --> 00:17:19.000 Eu confiei noutro grupo 00:17:19.000 --> 00:17:22.000 para determinar se era seguro voar no meu avião. 00:17:22.000 --> 00:17:25.000 Nós estamos aqui, nenhum de nós tem medo que o teto vá colapsar sobre nós, 00:17:25.000 --> 00:17:28.000 não porque verificámos, 00:17:28.000 --> 00:17:30.000 mas porque temos bastante certeza 00:17:30.000 --> 00:17:33.000 que as normas de construção aqui são boas. 00:17:33.000 --> 00:17:35.000 É um modelo que, basicamente, aceitamos 00:17:35.000 --> 00:17:37.000 por fé. 00:17:37.000 --> 00:17:40.000 E isso está bem. NOTE Paragraph 00:17:42.000 --> 00:17:44.000 Agora, o que queremos 00:17:44.000 --> 00:17:46.000 é que as pessoas se sintam suficientemente familiarizadas 00:17:46.000 --> 00:17:48.000 com modelos melhores -- 00:17:48.000 --> 00:17:50.000 que isso se reflicta nos seus sentimentos -- 00:17:50.000 --> 00:17:54.000 e lhes permita fazer escolhas de segurança. 00:17:54.000 --> 00:17:56.000 Porque quando estes se distanciam 00:17:56.000 --> 00:17:58.000 têm duas opções: 00:17:58.000 --> 00:18:00.000 uma, podem corrigir os sentimentos das pessoas, 00:18:00.000 --> 00:18:02.000 apelar directamente aos sentimentos. 00:18:02.000 --> 00:18:05.000 É manipulação, mas pode funcionar. 00:18:05.000 --> 00:18:07.000 a segundo forma, mais honesta 00:18:07.000 --> 00:18:10.000 é corrigir o próprio modelo. 00:18:11.000 --> 00:18:13.000 A mudança acontece lentamente. 00:18:13.000 --> 00:18:16.000 O debate acerca do tabaco demorou 40 anos, 00:18:16.000 --> 00:18:19.000 e esse foi um fácil. 00:18:19.000 --> 00:18:21.000 Algumas coisas são difíceis. 00:18:21.000 --> 00:18:23.000 Eu quero dizer, realmente 00:18:23.000 --> 00:18:25.000 a informação parece ser a nossa maior esperança NOTE Paragraph 00:18:25.000 --> 00:18:27.000 E eu menti. 00:18:27.000 --> 00:18:29.000 Lembram-se quando eu disse que sentimento, modelo, realidade. 00:18:29.000 --> 00:18:32.000 Eu disse que a realidade não muda. Na realidade muda. 00:18:32.000 --> 00:18:34.000 Nós vivemos num mundo tecnológico; 00:18:34.000 --> 00:18:37.000 a realidade muda a toda a hora. 00:18:37.000 --> 00:18:40.000 Portanto podemos ter -- pela primeira vez na [história] da nossa espécie -- 00:18:40.000 --> 00:18:43.000 sentimentos que perseguem modelos, modelos perseguem realidade, e a realidade a mudar -- 00:18:43.000 --> 00:18:46.000 podem nunca se vir a alcançar. 00:18:47.000 --> 00:18:49.000 Nós não sabemos. 00:18:49.000 --> 00:18:51.000 Mas a longo prazo 00:18:51.000 --> 00:18:54.000 sentimentos e realidade são importantes. 00:18:54.000 --> 00:18:57.000 E eu quero acabar com duas histórias rápidas para ilustrar estes pontos. NOTE Paragraph 00:18:57.000 --> 00:18:59.000 1982 -- Eu não sei se vocês se vão lembrar disto -- 00:18:59.000 --> 00:19:02.000 houve uma curta epidemia 00:19:02.000 --> 00:19:04.000 de envenenamento por Tylenol nos Estados Unidos. 00:19:04.000 --> 00:19:07.000 Foi uma história horrível. Alguém pegou numa garrafa de Tylenol, 00:19:07.000 --> 00:19:10.000 colocou veneno, fechou-a, pô-la novamente na estante. 00:19:10.000 --> 00:19:12.000 Outra pessoa comprou-a e morreu. 00:19:12.000 --> 00:19:14.000 Isto aterrorizou as pessoas. 00:19:14.000 --> 00:19:16.000 Houve alguns ataques de imitadores. 00:19:16.000 --> 00:19:19.000 Não existia nenhum risco real, mas as pessoas estavam assustadas. 00:19:19.000 --> 00:19:21.000 E é por isto 00:19:21.000 --> 00:19:23.000 que a indústria de produtos farmacêuticos invioláveis foi inventada. 00:19:23.000 --> 00:19:25.000 Essas tampas invioláveis, que advieram disto. 00:19:25.000 --> 00:19:27.000 É absolutamente teatro de segurança. 00:19:27.000 --> 00:19:29.000 Como trabalho de casa, pensem em 10 formas de contorná-las. 00:19:29.000 --> 00:19:32.000 Eu dou-vos uma, uma seringa. 00:19:32.000 --> 00:19:35.000 Mas fez as pessoas sentirem-se melhor. 00:19:35.000 --> 00:19:37.000 Fez com que os seus sentimentos de segurança 00:19:37.000 --> 00:19:39.000 coincidissem mais com a realidade. NOTE Paragraph 00:19:39.000 --> 00:19:42.000 Última história, há alguns anos, uma amiga minha deu à luz. 00:19:42.000 --> 00:19:44.000 Eu visitei-a no hospital. 00:19:44.000 --> 00:19:46.000 Acontece que, hoje em dia, quando o bebé nasce, 00:19:46.000 --> 00:19:48.000 eles colocam uma pulseira RFID no bebé, 00:19:48.000 --> 00:19:50.000 e colocam a pulseira correspondente na mãe. 00:19:50.000 --> 00:19:52.000 Por isso, se alguém, que não a mãe, levar o bebé para fora da maternidade, 00:19:52.000 --> 00:19:54.000 o alarme dispara. 00:19:54.000 --> 00:19:56.000 Eu disse, "Bem, isso é porreiro. 00:19:56.000 --> 00:19:58.000 Eu interrogo-me quão frequente são raptos de bebés 00:19:58.000 --> 00:20:00.000 dos hospitais." 00:20:00.000 --> 00:20:02.000 Eu chego a casa, e procuro. 00:20:02.000 --> 00:20:04.000 Praticamente nunca acontece. 00:20:04.000 --> 00:20:06.000 Mas se pensarem no assunto, 00:20:06.000 --> 00:20:08.000 se forem um hospital, 00:20:08.000 --> 00:20:10.000 e precisam de levar o bebé para longe da mãe, 00:20:10.000 --> 00:20:12.000 para fora do quarto para efectuar alguns testes, 00:20:12.000 --> 00:20:14.000 é melhor que tenham alguns adereços de segurança, 00:20:14.000 --> 00:20:16.000 ou ela vai-vos arrancar o braço. NOTE Paragraph 00:20:16.000 --> 00:20:18.000 (risos) NOTE Paragraph 00:20:18.000 --> 00:20:20.000 Por isso, isto é importante para nós, 00:20:20.000 --> 00:20:22.000 aqueles que desenvolvem segurança, 00:20:22.000 --> 00:20:25.000 que investigam normas de segurança, 00:20:25.000 --> 00:20:27.000 ou que até investigam normas públicas 00:20:27.000 --> 00:20:29.000 de formas que afectam a segurança. 00:20:29.000 --> 00:20:32.000 Não é apenas a realidade, é o sentimento e a realidade. 00:20:32.000 --> 00:20:34.000 O que é importante 00:20:34.000 --> 00:20:36.000 é que coincidam mais ou menos. 00:20:36.000 --> 00:20:38.000 é importante porque, se os nossos sentimentos coincidirem com a realidade, 00:20:38.000 --> 00:20:40.000 nós fazemos melhores escolhas de segurança. NOTE Paragraph 00:20:40.000 --> 00:20:42.000 Obrigado. NOTE Paragraph 00:20:42.000 --> 00:20:44.000 (Aplausos)