1 00:00:00,000 --> 00:00:02,000 La seguridad es dos cosas diferentes: 2 00:00:02,000 --> 00:00:04,000 es una sensación, y es una realidad. 3 00:00:04,000 --> 00:00:06,000 Y son diferentes. 4 00:00:06,000 --> 00:00:08,000 Podrían sentirse seguros 5 00:00:08,000 --> 00:00:10,000 aun cuando no lo estén. 6 00:00:10,000 --> 00:00:12,000 Y pueden estar seguros 7 00:00:12,000 --> 00:00:14,000 aun cuando no se sientan seguros. 8 00:00:14,000 --> 00:00:16,000 En realidad, tenemos dos conceptos distintos 9 00:00:16,000 --> 00:00:18,000 asignados a la misma palabra. 10 00:00:18,000 --> 00:00:20,000 Y lo que quiero hacer en esta charla 11 00:00:20,000 --> 00:00:22,000 es separar el uno del otro 12 00:00:22,000 --> 00:00:24,000 y darnos cuenta de cuándo divergen 13 00:00:24,000 --> 00:00:26,000 y de cómo convergen. 14 00:00:26,000 --> 00:00:28,000 Y en realidad el lenguaje es un problema para esto. 15 00:00:28,000 --> 00:00:30,000 No hay muchas palabras útiles 16 00:00:30,000 --> 00:00:33,000 para los conceptos que vamos a describir. 17 00:00:33,000 --> 00:00:35,000 Así que si miran la seguridad 18 00:00:35,000 --> 00:00:37,000 del punto de vista económico, 19 00:00:37,000 --> 00:00:39,000 se trata de intercambiar una cosa por otra. 20 00:00:39,000 --> 00:00:41,000 Cada vez que obtienen un poco de seguridad, 21 00:00:41,000 --> 00:00:43,000 siempre están intercambiándola por otra cosa. 22 00:00:43,000 --> 00:00:45,000 Sea esta es una decisión personal 23 00:00:45,000 --> 00:00:47,000 -si van a instalar una alarma antirrobo en su hogar- 24 00:00:47,000 --> 00:00:50,000 o una decisión nacional -si van a invadir otro país- 25 00:00:50,000 --> 00:00:52,000 van a sacrificar algo, 26 00:00:52,000 --> 00:00:55,000 ya sea dinero o tiempo, comodidad, capacidad, 27 00:00:55,000 --> 00:00:58,000 quizás libertades fundamentales. 28 00:00:58,000 --> 00:01:01,000 Y lo que deben preguntarse cuando miran algo de seguridad 29 00:01:01,000 --> 00:01:04,000 no es si esto nos hace más seguros, 30 00:01:04,000 --> 00:01:07,000 sino que si vale la pena el sacrificio. 31 00:01:07,000 --> 00:01:09,000 Han escuchado durante los últimos años que 32 00:01:09,000 --> 00:01:11,000 el mundo es más seguro porque Saddam Hussein no gobierna Irak. 33 00:01:11,000 --> 00:01:14,000 Eso puede ser cierto, pero no es terriblemente relevante. 34 00:01:14,000 --> 00:01:17,000 La pregunta es: ¿Valió la pena? 35 00:01:17,000 --> 00:01:20,000 Y pueden tomar su propia decisión 36 00:01:20,000 --> 00:01:22,000 y con eso decidir si la invasión valió la pena. 37 00:01:22,000 --> 00:01:24,000 Así se piensa acerca de la seguridad; 38 00:01:24,000 --> 00:01:26,000 en términos de decidirse por algo en desmedro de otra cosa. 39 00:01:26,000 --> 00:01:29,000 A menudo no hay buenas o malas decisiones en esto. 40 00:01:29,000 --> 00:01:31,000 Algunos de nosotros tenemos alarmas antirrobo en la casa 41 00:01:31,000 --> 00:01:33,000 y otros no lo tenemos. 42 00:01:33,000 --> 00:01:35,000 Y dependerá de donde vivimos, 43 00:01:35,000 --> 00:01:37,000 si es que vivimos solos o tenemos familia, 44 00:01:37,000 --> 00:01:39,000 la cantidad de cosas preciadas que tengamos, 45 00:01:39,000 --> 00:01:41,000 cuánto riesgo de robo 46 00:01:41,000 --> 00:01:43,000 estemos dispuestos a aceptar. 47 00:01:43,000 --> 00:01:45,000 En la política también 48 00:01:45,000 --> 00:01:47,000 hay diferentes opiniones. 49 00:01:47,000 --> 00:01:49,000 Muchas veces, estos sacrificios 50 00:01:49,000 --> 00:01:51,000 son sobre más que sólo seguridad, 51 00:01:51,000 --> 00:01:53,000 y creo que eso es muy importante. 52 00:01:53,000 --> 00:01:55,000 Ahora, la gente tiene una intuición natural 53 00:01:55,000 --> 00:01:57,000 sobre estos sacrificios. 54 00:01:57,000 --> 00:01:59,000 Los hacemos todos los días; 55 00:01:59,000 --> 00:02:01,000 anoche en mi habitación de hotel, 56 00:02:01,000 --> 00:02:03,000 cuando decidí cerrar la puerta con doble llave, 57 00:02:03,000 --> 00:02:05,000 o cuando ustedes conducían para acá en su automóvil, 58 00:02:05,000 --> 00:02:07,000 cuando vamos a almorzar 59 00:02:07,000 --> 00:02:10,000 y decidimos que la comida no tiene veneno y la comemos. 60 00:02:10,000 --> 00:02:12,000 Tomamos estas decisiones una y otra vez 61 00:02:12,000 --> 00:02:14,000 muchas veces al día. 62 00:02:14,000 --> 00:02:16,000 A menudo ni siquiera nos damos cuenta. 63 00:02:16,000 --> 00:02:18,000 Son parte de estar vivo, todos lo hacemos. 64 00:02:18,000 --> 00:02:21,000 Todas las especies lo hacen. 65 00:02:21,000 --> 00:02:23,000 Imaginen un conejo en un campo, comiendo pasto, 66 00:02:23,000 --> 00:02:26,000 y el conejo repentinamente ve un zorro. 67 00:02:26,000 --> 00:02:28,000 Ese conejo tomará una decisión para su seguridad: 68 00:02:28,000 --> 00:02:30,000 "¿Debo quedarme o debo huir?" 69 00:02:30,000 --> 00:02:32,000 Y si lo piensan, 70 00:02:32,000 --> 00:02:35,000 los conejos que toman la decisión apropiada 71 00:02:35,000 --> 00:02:37,000 tienden a vivir y reproducirse, 72 00:02:37,000 --> 00:02:39,000 y los conejos que no lo hacen bien 73 00:02:39,000 --> 00:02:41,000 son comidos o se mueren de hambre. 74 00:02:41,000 --> 00:02:43,000 Así que uno pensaría 75 00:02:43,000 --> 00:02:46,000 que nosotros, como una especie exitosa en el planeta 76 00:02:46,000 --> 00:02:48,000 -ustedes, yo, todos nosotros- 77 00:02:48,000 --> 00:02:51,000 seríamos muy buenos para elegir una cosa en vez de otra. 78 00:02:51,000 --> 00:02:53,000 Y sin embargo observamos que, una y otra vez, 79 00:02:53,000 --> 00:02:56,000 somos irremediablemente malos para esto. 80 00:02:56,000 --> 00:02:59,000 Y creo que eso es una pregunta fundamentalmente interesante. 81 00:02:59,000 --> 00:03:01,000 Les daré la respuesta corta. 82 00:03:01,000 --> 00:03:03,000 La respuesta es que respondemos a la sensación de seguridad 83 00:03:03,000 --> 00:03:06,000 y no a la realidad. 84 00:03:06,000 --> 00:03:09,000 Ahora, la mayoría de las veces, eso funciona. 85 00:03:10,000 --> 00:03:12,000 La mayor parte del tiempo 86 00:03:12,000 --> 00:03:15,000 la sensación y la realidad son iguales. 87 00:03:15,000 --> 00:03:17,000 Sin duda eso es cierto 88 00:03:17,000 --> 00:03:20,000 para casi toda la prehistoria humana. 89 00:03:20,000 --> 00:03:23,000 Hemos desarrollado esta habilidad 90 00:03:23,000 --> 00:03:25,000 porque obedece la lógica evolutiva. 91 00:03:25,000 --> 00:03:27,000 Una manera de pensarlo 92 00:03:27,000 --> 00:03:29,000 es que estamos altamente optimizados 93 00:03:29,000 --> 00:03:31,000 para tomar decisiones sobre riesgos endémicos 94 00:03:31,000 --> 00:03:34,000 a los que viven en pequeños grupos familiares 95 00:03:34,000 --> 00:03:37,000 en las tierras altas de África oriental 100 mil años a. C., 96 00:03:37,000 --> 00:03:40,000 y no tanto para Nueva York el 2010. 97 00:03:41,000 --> 00:03:44,000 Ahora bien, hay varios sesgos en la percepción del riesgo. 98 00:03:44,000 --> 00:03:46,000 Hay muchos experimentos buenos sobre esto. 99 00:03:46,000 --> 00:03:49,000 Y pueden ver ciertos sesgos que surgen una y otra vez. 100 00:03:49,000 --> 00:03:51,000 Y les voy a dar cuatro. 101 00:03:51,000 --> 00:03:54,000 Tendemos a exagerar los riesgos espectaculares e inusuales 102 00:03:54,000 --> 00:03:56,000 y minimizar los riesgos comunes; 103 00:03:56,000 --> 00:03:59,000 por eso la diferencia entre volar y manejar. 104 00:03:59,000 --> 00:04:01,000 Lo desconocido es percibido 105 00:04:01,000 --> 00:04:04,000 como más riesgoso que lo familiar. 106 00:04:05,000 --> 00:04:07,000 Un ejemplo sería que 107 00:04:07,000 --> 00:04:10,000 la gente teme ser secuestrada por desconocidos 108 00:04:10,000 --> 00:04:13,000 y los datos muestran que ser secuestrado por familiares es mucho más común. 109 00:04:13,000 --> 00:04:15,000 Esto se aplica para niños. 110 00:04:15,000 --> 00:04:18,000 En tercer lugar, los riesgos personificados 111 00:04:18,000 --> 00:04:21,000 son percibidos como mayores que los riesgos anónimos; 112 00:04:21,000 --> 00:04:24,000 por eso Bin Laden da más miedo porque tiene nombre. 113 00:04:24,000 --> 00:04:26,000 Y el cuarto es que 114 00:04:26,000 --> 00:04:28,000 la gente subestima los riesgos 115 00:04:28,000 --> 00:04:30,000 en situaciones donde tienen el control 116 00:04:30,000 --> 00:04:34,000 y los sobreestiman en situaciones que no controlan. 117 00:04:34,000 --> 00:04:37,000 Así que cuando practicas paracaidismo o fumas 118 00:04:37,000 --> 00:04:39,000 minimizas los riesgos de estos. 119 00:04:39,000 --> 00:04:42,000 Si te fuerzan a aceptar un riesgo -el terrorismo es un buen ejemplo- 120 00:04:42,000 --> 00:04:45,000 lo exagerarás, porque no sientes como si lo controlaras. 121 00:04:47,000 --> 00:04:50,000 Hay un montón de sesgos más, de estos sesgos cognitivos, 122 00:04:50,000 --> 00:04:53,000 que afectan nuestras decisiones sobre riesgos. 123 00:04:53,000 --> 00:04:55,000 Está la heurística de disponibilidad, 124 00:04:55,000 --> 00:04:57,000 que significa básicamente 125 00:04:57,000 --> 00:05:00,000 que estimamos la probabilidad de cualquier cosa 126 00:05:00,000 --> 00:05:04,000 por lo fácil que es pensar en instancias de esto. 127 00:05:04,000 --> 00:05:06,000 Y se pueden imaginar cómo funciona eso. 128 00:05:06,000 --> 00:05:09,000 Si escuchas mucho sobre ataques de tigre deben haber muchos tigres alrededor. 129 00:05:09,000 --> 00:05:12,000 No escuchas hablar de ataques de león así que no hay muchos leones alrededor. 130 00:05:12,000 --> 00:05:15,000 Esto funciona hasta que inventas los periódicos. 131 00:05:15,000 --> 00:05:17,000 Porque lo que los periódicos hacen 132 00:05:17,000 --> 00:05:19,000 es repetir una y otra vez 133 00:05:19,000 --> 00:05:21,000 los riesgos inusuales. 134 00:05:21,000 --> 00:05:23,000 Le digo a la gente: "si está en las noticias, no te preocupes por eso". 135 00:05:23,000 --> 00:05:25,000 Porque, por definición, 136 00:05:25,000 --> 00:05:28,000 las noticias son algo que casi nunca sucede. 137 00:05:28,000 --> 00:05:30,000 (Risas) 138 00:05:30,000 --> 00:05:33,000 Cuando algo es tan común que deja de ser noticia 139 00:05:33,000 --> 00:05:35,000 (accidentes automovilísticos, violencia familiar); 140 00:05:35,000 --> 00:05:38,000 esos son los riesgos que hay que tener presentes. 141 00:05:38,000 --> 00:05:40,000 También somos una especie que contamos historias. 142 00:05:40,000 --> 00:05:43,000 Respondemos ante las historias más que a los datos. 143 00:05:43,000 --> 00:05:45,000 Y tenemos algo de incapacidad aritmética básica. 144 00:05:45,000 --> 00:05:48,000 Es decir, el chiste de "Uno, dos, tres, muchos" no se equivoca mucho. 145 00:05:48,000 --> 00:05:51,000 Somos muy buenos para los números pequeños. 146 00:05:51,000 --> 00:05:53,000 Un mango, dos mangos, tres mangos; 147 00:05:53,000 --> 00:05:55,000 diez mil mangos, cien mil mangos: 148 00:05:55,000 --> 00:05:58,000 son más mangos de los que puedas comer antes que se pudran. 149 00:05:58,000 --> 00:06:01,000 Así que la mitad, un cuarto, un quinto; somos buenos para eso. 150 00:06:01,000 --> 00:06:03,000 Uno en un millón, uno en un billón; 151 00:06:03,000 --> 00:06:06,000 los dos son casi nunca. 152 00:06:06,000 --> 00:06:08,000 Así que tenemos problemas con los riesgos 153 00:06:08,000 --> 00:06:10,000 que no son muy frecuentes. 154 00:06:10,000 --> 00:06:12,000 Y lo que estos sesgos cognitivos hacen 155 00:06:12,000 --> 00:06:15,000 es que actúan como filtros entre nosotros y la realidad. 156 00:06:15,000 --> 00:06:17,000 Y el resultado es que 157 00:06:17,000 --> 00:06:19,000 la sensación y la realidad se desequilibran, 158 00:06:19,000 --> 00:06:22,000 se tornan diferentes. 159 00:06:22,000 --> 00:06:25,000 Así que puedes tener la sensación; sentirte más seguro de lo que estás. 160 00:06:25,000 --> 00:06:27,000 Hay una sensación irreal de seguridad. 161 00:06:27,000 --> 00:06:29,000 O al contrario, 162 00:06:29,000 --> 00:06:31,000 y esa es una sensación irreal de inseguridad. 163 00:06:31,000 --> 00:06:34,000 Escribo mucho sobre "teatro de seguridad", 164 00:06:34,000 --> 00:06:37,000 que son productos que hacen que la gente se sienta segura 165 00:06:37,000 --> 00:06:39,000 pero que en realidad no hacen nada. 166 00:06:39,000 --> 00:06:41,000 No hay una palabra apropiada para cosas que nos den seguridad, 167 00:06:41,000 --> 00:06:43,000 pero que no nos hagan sentir seguros. 168 00:06:43,000 --> 00:06:46,000 Quizás esto es lo que se supone que la CIA debería lograr. 169 00:06:48,000 --> 00:06:50,000 Y volvamos a la economía. 170 00:06:50,000 --> 00:06:54,000 Si la economía, si el mercado, son lo que impulsan a la seguridad 171 00:06:54,000 --> 00:06:56,000 y si la gente hace concesiones 172 00:06:56,000 --> 00:06:59,000 basadas en su sensación de seguridad, 173 00:06:59,000 --> 00:07:01,000 entonces lo más inteligente que las empresas pueden hacer 174 00:07:01,000 --> 00:07:03,000 por sus propios incentivos económicos 175 00:07:03,000 --> 00:07:06,000 es lograr la gente se sienta segura. 176 00:07:06,000 --> 00:07:09,000 Y hay dos maneras de hacer esto. 177 00:07:09,000 --> 00:07:11,000 Uno, pueden hacer que la gente realmente esté segura 178 00:07:11,000 --> 00:07:13,000 y esperar que se den cuenta. 179 00:07:13,000 --> 00:07:16,000 O dos, pueden hacer que la gente se sienta segura 180 00:07:16,000 --> 00:07:19,000 y esperar que no se den cuenta. 181 00:07:20,000 --> 00:07:23,000 Entonces, ¿qué hace que la gente se dé cuenta? 182 00:07:23,000 --> 00:07:25,000 Bueno, un par de cosas: 183 00:07:25,000 --> 00:07:27,000 entender qué es la seguridad, 184 00:07:27,000 --> 00:07:29,000 los riesgos, las amenazas, 185 00:07:29,000 --> 00:07:32,000 las medidas previas, cómo funcionan. 186 00:07:32,000 --> 00:07:34,000 Pero si sabes esas cosas, 187 00:07:34,000 --> 00:07:37,000 es más probable que tus sensaciones calcen con la realidad. 188 00:07:37,000 --> 00:07:40,000 Ayuda tener suficientes ejemplos del mundo real. 189 00:07:40,000 --> 00:07:43,000 Ahora todos sabemos la tasa de crímenes en nuestro vecindario, 190 00:07:43,000 --> 00:07:46,000 porque vivimos allí y tenemos una sensación al respecto 191 00:07:46,000 --> 00:07:49,000 que esencialmente calza con la realidad. 192 00:07:49,000 --> 00:07:52,000 El teatro de seguridad queda expuesto 193 00:07:52,000 --> 00:07:55,000 cuando es obvio que no está funcionando correctamente. 194 00:07:55,000 --> 00:07:59,000 Y entonces, ¿qué hace que la gente no se dé cuenta? 195 00:07:59,000 --> 00:08:01,000 Bueno, una mala comprensión. 196 00:08:01,000 --> 00:08:04,000 Si no entiendes los riesgos, no entiendes los costos, 197 00:08:04,000 --> 00:08:06,000 es probable que tomes una mala decisión, 198 00:08:06,000 --> 00:08:09,000 y que tu sensación no corresponda con la realidad. 199 00:08:09,000 --> 00:08:11,000 Ejemplos insuficientes: 200 00:08:11,000 --> 00:08:13,000 Hay un problema intrínseco 201 00:08:13,000 --> 00:08:15,000 con eventos de baja probabilidad. 202 00:08:15,000 --> 00:08:17,000 Si, por ejemplo, casi nunca hay 203 00:08:17,000 --> 00:08:19,000 actos terroristas, 204 00:08:19,000 --> 00:08:21,000 es muy difícil medir cuan eficientes 205 00:08:21,000 --> 00:08:24,000 son las medidas en la lucha contra el terrorismo. 206 00:08:25,000 --> 00:08:28,000 Por eso sigues sacrificando vírgenes, 207 00:08:28,000 --> 00:08:31,000 y la razón que tus defensas de unicornio estén funcionando de maravilla. 208 00:08:31,000 --> 00:08:34,000 No hay suficientes ejemplos de fracasos. 209 00:08:35,000 --> 00:08:38,000 Además, las sensaciones que nublan los temas; 210 00:08:38,000 --> 00:08:40,000 los sesgos cognitivos que mencioné antes, 211 00:08:40,000 --> 00:08:43,000 los miedos, las creencias populares, 212 00:08:43,000 --> 00:08:46,000 son básicamente un modelo inadecuado de la realidad. 213 00:08:47,000 --> 00:08:50,000 Y déjenme complicar las cosas. 214 00:08:50,000 --> 00:08:52,000 Está la sensación y la realidad. 215 00:08:52,000 --> 00:08:55,000 Quiero añadir un tercer elemento. Quiero añadir el modelo. 216 00:08:55,000 --> 00:08:57,000 Sensación y modelo dentro de nuestra cabeza, 217 00:08:57,000 --> 00:08:59,000 la realidad es el mundo exterior. 218 00:08:59,000 --> 00:09:02,000 No cambia, es real. 219 00:09:02,000 --> 00:09:04,000 Y la sensación se basa en la intuición. 220 00:09:04,000 --> 00:09:06,000 El modelamiento se basa en la razón. 221 00:09:06,000 --> 00:09:09,000 Eso es básicamente la diferencia. 222 00:09:09,000 --> 00:09:11,000 En un mundo primitivo y simple, 223 00:09:11,000 --> 00:09:14,000 no hay ninguna razón real para un modelo. 224 00:09:14,000 --> 00:09:17,000 Porque la sensación es muy similar a la realidad. 225 00:09:17,000 --> 00:09:19,000 No necesitas un modelo. 226 00:09:19,000 --> 00:09:21,000 Pero en un mundo moderno y complejo, 227 00:09:21,000 --> 00:09:23,000 necesitas modelos para 228 00:09:23,000 --> 00:09:26,000 comprender muchos de los riesgos que enfrentamos. 229 00:09:27,000 --> 00:09:29,000 Los gérmenes no nos generan una sensación. 230 00:09:29,000 --> 00:09:32,000 Se necesita un modelo para entenderlos. 231 00:09:32,000 --> 00:09:34,000 Así que este modelo es una 232 00:09:34,000 --> 00:09:37,000 representación inteligente de la realidad. 233 00:09:37,000 --> 00:09:40,000 Está, por supuesto, limitado por la ciencia, 234 00:09:40,000 --> 00:09:42,000 por la tecnología. 235 00:09:42,000 --> 00:09:45,000 No podríamos tener una teoría de los gérmenes en enfermedades 236 00:09:45,000 --> 00:09:48,000 antes de que inventáramos el microscopio para verlos. 237 00:09:49,000 --> 00:09:52,000 Está limitado por nuestros prejuicios cognitivos. 238 00:09:52,000 --> 00:09:54,000 Pero tiene la capacidad de 239 00:09:54,000 --> 00:09:56,000 imponerse por sobre nuestras sensaciones. 240 00:09:56,000 --> 00:09:59,000 ¿De dónde obtenemos estos modelos? De los demás. 241 00:09:59,000 --> 00:10:02,000 Los obtenemos de la religión, de la cultura, 242 00:10:02,000 --> 00:10:04,000 de los profesores, de los mayores. 243 00:10:04,000 --> 00:10:06,000 Hace un par de años 244 00:10:06,000 --> 00:10:08,000 estaba de safari en Sudáfrica. 245 00:10:08,000 --> 00:10:11,000 El guía con que estaba había crecido en el Parque Nacional Kruger. 246 00:10:11,000 --> 00:10:14,000 Tenía unos modelos de supervivencia muy complejos. 247 00:10:14,000 --> 00:10:16,000 Y dependía de si habías sido atacado 248 00:10:16,000 --> 00:10:18,000 por un león o un leopardo o un rinoceronte o un elefante 249 00:10:18,000 --> 00:10:21,000 -y cuando tenías que huir, y cuando tenías que subirte a un árbol, 250 00:10:21,000 --> 00:10:23,000 cuando no podías en ningún caso subirte a un árbol-. 251 00:10:23,000 --> 00:10:26,000 Me habría muerto en un día 252 00:10:26,000 --> 00:10:28,000 pero él nació allí 253 00:10:28,000 --> 00:10:30,000 y entendía cómo sobrevivir. 254 00:10:30,000 --> 00:10:32,000 Yo nací en Nueva York. 255 00:10:32,000 --> 00:10:35,000 Lo podría haber llevado a Nueva York y él se habría muerto en un día. 256 00:10:35,000 --> 00:10:37,000 (Risas) 257 00:10:37,000 --> 00:10:39,000 Porque teníamos modelos diferentes 258 00:10:39,000 --> 00:10:42,000 basados en nuestras experiencias diferentes. 259 00:10:43,000 --> 00:10:45,000 Los modelos pueden provenir de los medios, 260 00:10:45,000 --> 00:10:48,000 de nuestros políticos electos. 261 00:10:48,000 --> 00:10:51,000 Piensen en los modelos de terrorismo, 262 00:10:51,000 --> 00:10:54,000 de secuestro infantil, 263 00:10:54,000 --> 00:10:56,000 de seguridad aérea, seguridad de los vehículos. 264 00:10:56,000 --> 00:10:59,000 Los modelos pueden provenir de la industria. 265 00:10:59,000 --> 00:11:01,000 Los dos que estoy siguiendo son las cámaras de vigilancia 266 00:11:01,000 --> 00:11:03,000 y las tarjetas de identificación, 267 00:11:03,000 --> 00:11:06,000 muchos de nuestros modelos de seguridad informática vienen de esto. 268 00:11:06,000 --> 00:11:09,000 Muchos de los modelos provienen de la ciencia. 269 00:11:09,000 --> 00:11:11,000 Un muy buen ejemplo son los modelos de salud. 270 00:11:11,000 --> 00:11:14,000 Piensen en cáncer, en gripe aviar, en gripe porcina, en SARS. 271 00:11:14,000 --> 00:11:17,000 Todas nuestras sensaciones de seguridad 272 00:11:17,000 --> 00:11:19,000 acerca de esas enfermedades 273 00:11:19,000 --> 00:11:21,000 provienen, en realidad, de los modelos 274 00:11:21,000 --> 00:11:24,000 entregados a nosotros por la ciencia filtrada a través de los medios. 275 00:11:25,000 --> 00:11:28,000 Y los modelos pueden cambiar. 276 00:11:28,000 --> 00:11:30,000 Los modelos no son estáticos. 277 00:11:30,000 --> 00:11:33,000 A medida que nos sentimos más cómodos en nuestros ambientes, 278 00:11:33,000 --> 00:11:37,000 nuestro modelo se va acercando a nuestra sensación. 279 00:11:38,000 --> 00:11:40,000 Así que un ejemplo podría ser, 280 00:11:40,000 --> 00:11:42,000 si nos remontamos 100 años atrás 281 00:11:42,000 --> 00:11:45,000 cuando la electricidad se tornaba cada vez más común, 282 00:11:45,000 --> 00:11:47,000 había un montón de temores con respecto a esta. 283 00:11:47,000 --> 00:11:49,000 Quiero decir, había personas que tenían miedo de presionar un timbre 284 00:11:49,000 --> 00:11:52,000 ya que había electricidad dentro de él y eso era peligroso. 285 00:11:52,000 --> 00:11:55,000 Para nosotros no hay problemas cerca de la electricidad. 286 00:11:55,000 --> 00:11:57,000 Cambiamos las ampolletas 287 00:11:57,000 --> 00:11:59,000 sin siquiera pensar en ello. 288 00:11:59,000 --> 00:12:03,000 Nuestro modelo de seguridad con respecto a la electricidad 289 00:12:03,000 --> 00:12:06,000 es algo con lo cual nacemos. 290 00:12:06,000 --> 00:12:09,000 No ha cambiado mientras hemos ido creciendo. 291 00:12:09,000 --> 00:12:12,000 Y somos buenos para manejarlo. 292 00:12:12,000 --> 00:12:14,000 O piensen en los riesgos 293 00:12:14,000 --> 00:12:16,000 con respecto a Internet entre generaciones; 294 00:12:16,000 --> 00:12:18,000 cómo sus padres determinan la seguridad en Internet 295 00:12:18,000 --> 00:12:20,000 frente a cómo lo hacen ustedes 296 00:12:20,000 --> 00:12:23,000 frente a cómo lo harán nuestros hijos. 297 00:12:23,000 --> 00:12:26,000 Con el tiempo los modelos se van al inconsciente. 298 00:12:27,000 --> 00:12:30,000 Intuitivo es sólo otra palabra para familiar. 299 00:12:30,000 --> 00:12:32,000 Así que cuando el modelo se acerca a la realidad 300 00:12:32,000 --> 00:12:34,000 y converge con las sensaciones, 301 00:12:34,000 --> 00:12:37,000 a menudo no te das cuenta que está ahí. 302 00:12:37,000 --> 00:12:39,000 Y un buen ejemplo de esto 303 00:12:39,000 --> 00:12:42,000 apareció el año pasado con la gripe porcina. 304 00:12:42,000 --> 00:12:44,000 Cuando la gripe porcina apareció por primera vez 305 00:12:44,000 --> 00:12:48,000 la noticia inicial causó una reacción muy exagerada. 306 00:12:48,000 --> 00:12:50,000 Ahora tenía un nombre, 307 00:12:50,000 --> 00:12:52,000 lo que la hacía más atemorizante que la gripe común, 308 00:12:52,000 --> 00:12:54,000 a pesar de que era más letal. 309 00:12:54,000 --> 00:12:58,000 Y la gente pensó que los médicos debían ser capaces de manejarla. 310 00:12:58,000 --> 00:13:00,000 Así que estaba esa sensación de falta de control. 311 00:13:00,000 --> 00:13:02,000 Y esas dos cosas 312 00:13:02,000 --> 00:13:04,000 hacían que el riesgo pareciera más de lo que era. 313 00:13:04,000 --> 00:13:07,000 Mientras fue desapareciendo la novedad y pasando los meses, 314 00:13:07,000 --> 00:13:09,000 hubo una cantidad de tolerancia, 315 00:13:09,000 --> 00:13:11,000 la gente se acostumbró. 316 00:13:11,000 --> 00:13:14,000 No hubo datos nuevos, pero había menos temor. 317 00:13:14,000 --> 00:13:16,000 Para la llegada del otoño, 318 00:13:16,000 --> 00:13:18,000 la gente pensaba 319 00:13:18,000 --> 00:13:20,000 que los médicos ya deberían haberlo resuelto. 320 00:13:20,000 --> 00:13:22,000 Y hay una especie de bifurcación; 321 00:13:22,000 --> 00:13:24,000 la gente tuvo que elegir 322 00:13:24,000 --> 00:13:28,000 entre el miedo y la aceptación 323 00:13:28,000 --> 00:13:30,000 -en realidad entre el miedo y la indiferencia- 324 00:13:30,000 --> 00:13:33,000 y como que en realidad quedaron sospechosos. 325 00:13:33,000 --> 00:13:36,000 Y cuando el invierno pasado apareció la vacuna 326 00:13:36,000 --> 00:13:39,000 hubo una gran cantidad de personas -un número sorprendente- 327 00:13:39,000 --> 00:13:42,000 que se negó a ponérsela; 328 00:13:43,000 --> 00:13:45,000 un buen ejemplo de 329 00:13:45,000 --> 00:13:48,000 cómo cambian las sensaciones de seguridad, cómo cambian sus modelos, 330 00:13:48,000 --> 00:13:50,000 un poco descontrolados 331 00:13:50,000 --> 00:13:52,000 sin nueva información, 332 00:13:52,000 --> 00:13:54,000 sin nuevos inputs. 333 00:13:54,000 --> 00:13:57,000 Este tipo de cosas sucede frecuentemente. 334 00:13:57,000 --> 00:14:00,000 Les voy a dar una complicación más. 335 00:14:00,000 --> 00:14:03,000 Tenemos la sensación, el modelo, la realidad. 336 00:14:03,000 --> 00:14:05,000 Tengo una visión muy relativista de la seguridad. 337 00:14:05,000 --> 00:14:08,000 Creo que depende del observador. 338 00:14:08,000 --> 00:14:10,000 Y la mayoría de las decisiones sobre seguridad 339 00:14:10,000 --> 00:14:14,000 involucran a varias personas. 340 00:14:14,000 --> 00:14:16,000 Y las partes interesadas, 341 00:14:16,000 --> 00:14:19,000 cada una con beneficios y perdidas propias, 342 00:14:19,000 --> 00:14:21,000 tratarán de influenciar la decisión. 343 00:14:21,000 --> 00:14:23,000 Yo llamo a eso su agenda. 344 00:14:23,000 --> 00:14:25,000 Y se pueden ver las agendas 345 00:14:25,000 --> 00:14:28,000 -en el marketing, en la política- 346 00:14:28,000 --> 00:14:31,000 tratando de convencerlos de elegir un modelo en vez de otro, 347 00:14:31,000 --> 00:14:33,000 tratando de convencerlos de ignorar un modelo 348 00:14:33,000 --> 00:14:36,000 y de confiar en sus sensaciones, 349 00:14:36,000 --> 00:14:39,000 dejando de lado a las personas con modelos que no les gustan. 350 00:14:39,000 --> 00:14:42,000 Esto es bastante frecuente. 351 00:14:42,000 --> 00:14:45,000 Un ejemplo, un gran ejemplo, es el riesgo de fumar. 352 00:14:46,000 --> 00:14:49,000 Durante los últimos 50 años, el riesgo de fumar 353 00:14:49,000 --> 00:14:51,000 muestra cómo va cambiando un modelo 354 00:14:51,000 --> 00:14:54,000 y también muestra cómo una industria pelea contra 355 00:14:54,000 --> 00:14:56,000 un modelo que no le gusta. 356 00:14:56,000 --> 00:14:59,000 Comparen esto con el debate del humo de segunda mano; 357 00:14:59,000 --> 00:15:02,000 el mismo caso probablemente 20 años antes. 358 00:15:02,000 --> 00:15:04,000 Piensen acerca de los cinturones de seguridad. 359 00:15:04,000 --> 00:15:06,000 Cuando yo era niño, nadie se ponía el cinturón de seguridad. 360 00:15:06,000 --> 00:15:08,000 Hoy en día, ningún niño te permite manejar 361 00:15:08,000 --> 00:15:10,000 si no lo llevas puesto. 362 00:15:11,000 --> 00:15:13,000 Comparen esto con el debate del airbag; 363 00:15:13,000 --> 00:15:16,000 probablemente como 30 años atrasado. 364 00:15:16,000 --> 00:15:19,000 Todos son ejemplos de modelos que van cambiando. 365 00:15:21,000 --> 00:15:24,000 Lo que aprendemos es que cambiar los modelos es difícil. 366 00:15:24,000 --> 00:15:26,000 Los modelos son difíciles de desalojar. 367 00:15:26,000 --> 00:15:28,000 Si estos son iguales a sus sensaciones, 368 00:15:28,000 --> 00:15:31,000 ni siquiera se darán cuenta que tienen un modelo. 369 00:15:31,000 --> 00:15:33,000 Y hay otro sesgo cognitivo que 370 00:15:33,000 --> 00:15:35,000 llamaré sesgo de confirmación, 371 00:15:35,000 --> 00:15:38,000 donde tendemos a aceptar los datos 372 00:15:38,000 --> 00:15:40,000 que confirman nuestras creencias 373 00:15:40,000 --> 00:15:43,000 y rechazar los datos que las contradicen. 374 00:15:44,000 --> 00:15:46,000 Y es probable que ignoremos 375 00:15:46,000 --> 00:15:49,000 la evidencia en contra de nuestro modelo, incluso si es convincente. 376 00:15:49,000 --> 00:15:52,000 Debe ser súper convincente antes de que le prestemos atención. 377 00:15:53,000 --> 00:15:55,000 Aún más complejos son los nuevos modelos que se extenderán por mucho tiempo. 378 00:15:55,000 --> 00:15:57,000 El calentamiento global es un gran ejemplo. 379 00:15:57,000 --> 00:15:59,000 Somos terribles 380 00:15:59,000 --> 00:16:01,000 para modelos que abarcan 80 años. 381 00:16:01,000 --> 00:16:03,000 Podemos modelar la próxima cosecha. 382 00:16:03,000 --> 00:16:06,000 De repente podemos modelar hasta que nuestros hijos crezcan. 383 00:16:06,000 --> 00:16:09,000 Pero simplemente no somos buenos para 80 años. 384 00:16:09,000 --> 00:16:12,000 Y entonces es un modelo muy difícil de aceptar. 385 00:16:12,000 --> 00:16:16,000 Podemos tener ambos modelos en nuestra cabeza al mismo tiempo, 386 00:16:16,000 --> 00:16:19,000 ese tipo de problema 387 00:16:19,000 --> 00:16:22,000 donde tenemos ambas creencias al mismo tiempo; 388 00:16:22,000 --> 00:16:24,000 la disonancia cognitiva. 389 00:16:24,000 --> 00:16:26,000 Con el tiempo, 390 00:16:26,000 --> 00:16:29,000 el nuevo modelo reemplazará al antiguo. 391 00:16:29,000 --> 00:16:32,000 Las sensaciones fuertes pueden crear un modelo. 392 00:16:32,000 --> 00:16:35,000 El 11 de septiembre creó un modelo de seguridad 393 00:16:35,000 --> 00:16:37,000 en las mentes de mucha gente. 394 00:16:37,000 --> 00:16:40,000 También se pueden crear a través de experiencias personales con crímenes, 395 00:16:40,000 --> 00:16:42,000 a través de sustos de salud personales, 396 00:16:42,000 --> 00:16:44,000 de problemas de salud en las noticias. 397 00:16:44,000 --> 00:16:46,000 Verán estos eventos llamados "flash de luz" 398 00:16:46,000 --> 00:16:48,000 por los psiquiatras. 399 00:16:48,000 --> 00:16:51,000 Pueden crear un modelo de forma instantánea, 400 00:16:51,000 --> 00:16:54,000 porque son muy emotivos. 401 00:16:54,000 --> 00:16:56,000 Y en el mundo tecnológico 402 00:16:56,000 --> 00:16:58,000 no tenemos experiencia 403 00:16:58,000 --> 00:17:00,000 para elegir los modelos. 404 00:17:00,000 --> 00:17:02,000 Y dependemos de otros. Dependemos de representantes. 405 00:17:02,000 --> 00:17:06,000 Quiero decir, esto funciona mientras sea para corregir a otros. 406 00:17:06,000 --> 00:17:08,000 Dependemos de los organismos gubernamentales para 407 00:17:08,000 --> 00:17:13,000 que nos digan qué medicamentos son seguros. 408 00:17:13,000 --> 00:17:15,000 Volé ayer para acá. 409 00:17:15,000 --> 00:17:17,000 No revisé el avión. 410 00:17:17,000 --> 00:17:19,000 Confié en algún otro grupo 411 00:17:19,000 --> 00:17:22,000 para determinar si mi avión era seguro para volar. 412 00:17:22,000 --> 00:17:25,000 Estamos aquí, nadie teme que el techo se vaya a caer sobre nosotros, 413 00:17:25,000 --> 00:17:28,000 no porque lo comprobamos, 414 00:17:28,000 --> 00:17:30,000 sino porque tenemos bastante confianza que 415 00:17:30,000 --> 00:17:33,000 los códigos de construcción son buenos. 416 00:17:33,000 --> 00:17:35,000 Es un modelo que simplemente aceptamos 417 00:17:35,000 --> 00:17:37,000 sólo por fe. 418 00:17:37,000 --> 00:17:40,000 Y eso está bien. 419 00:17:42,000 --> 00:17:44,000 Ahora, lo que queremos 420 00:17:44,000 --> 00:17:46,000 es que la gente se familiarice lo suficiente 421 00:17:46,000 --> 00:17:48,000 con modelos buenos 422 00:17:48,000 --> 00:17:50,000 -y que se reflejen en lo que sienten- 423 00:17:50,000 --> 00:17:54,000 para que puedan tomar buenas decisiones de seguridad. 424 00:17:54,000 --> 00:17:56,000 Y entonces cuando estos se desalinean 425 00:17:56,000 --> 00:17:58,000 se tienen dos opciones. 426 00:17:58,000 --> 00:18:00,000 Una es arreglar las sensaciones de la gente, 427 00:18:00,000 --> 00:18:02,000 apelar directamente a las sensaciones y sentimientos. 428 00:18:02,000 --> 00:18:05,000 Es manipulativo, pero puede funcionar. 429 00:18:05,000 --> 00:18:07,000 La segunda manera, que es más honesta, 430 00:18:07,000 --> 00:18:10,000 es realmente solucionar el modelo. 431 00:18:11,000 --> 00:18:13,000 El cambio se produce lentamente. 432 00:18:13,000 --> 00:18:16,000 El debate del cigarrillo tomó 40 años, 433 00:18:16,000 --> 00:18:19,000 y ese era uno simple. 434 00:18:19,000 --> 00:18:21,000 Algunos de estos son difíciles. 435 00:18:21,000 --> 00:18:23,000 Quiero decir, sin embargo, 436 00:18:23,000 --> 00:18:25,000 que la información parece ser nuestra mejor esperanza. 437 00:18:25,000 --> 00:18:27,000 Y les mentí. 438 00:18:27,000 --> 00:18:29,000 Recuerdan cuando dije lo de la sensación, el modelo, la realidad. 439 00:18:29,000 --> 00:18:32,000 Dije que la realidad no cambia. Pero en verdad sí cambia. 440 00:18:32,000 --> 00:18:34,000 Vivimos en un mundo tecnológico; 441 00:18:34,000 --> 00:18:37,000 la realidad cambia todo el tiempo. 442 00:18:37,000 --> 00:18:40,000 Así que podríamos tener -por primera vez para nuestra especie- 443 00:18:40,000 --> 00:18:43,000 la sensación persiguiendo al modelo, el modelo persiguiendo la realidad, 444 00:18:43,000 --> 00:18:46,000 la realidad va cambiando; y puede que jamás se vayan a alcanzar. 445 00:18:47,000 --> 00:18:49,000 No lo sabemos. 446 00:18:49,000 --> 00:18:51,000 Pero en el largo plazo, 447 00:18:51,000 --> 00:18:54,000 tanto la sensación como la realidad son importantes. 448 00:18:54,000 --> 00:18:57,000 Y quiero cerrar con dos historias rápidas para ilustrar esto. 449 00:18:57,000 --> 00:18:59,000 En 1982 -no sé si la gente recordará esto- 450 00:18:59,000 --> 00:19:02,000 hubo una epidemia de corta duración 451 00:19:02,000 --> 00:19:04,000 de envenenamientos con Tylenol en los Estados Unidos. 452 00:19:04,000 --> 00:19:07,000 Es una historia horrible. Alguien tomó una botella de Tylenol, 453 00:19:07,000 --> 00:19:10,000 puso veneno en ella, la cerró y volvió a ponerla en el estante. 454 00:19:10,000 --> 00:19:12,000 Otra persona la compró y murió. 455 00:19:12,000 --> 00:19:14,000 Esto aterrorizó a todo el mundo. 456 00:19:14,000 --> 00:19:16,000 Hubo un par de ataques que imitaron esto. 457 00:19:16,000 --> 00:19:19,000 No había riesgo real, pero la gente estaba asustada. 458 00:19:19,000 --> 00:19:21,000 Y así es como 459 00:19:21,000 --> 00:19:23,000 se inventó la industria farmacéutica a prueba de manipulaciones. 460 00:19:23,000 --> 00:19:25,000 Esas tapas difíciles de abrir surgieron de esto. 461 00:19:25,000 --> 00:19:27,000 Es totalmente teatro de seguridad. 462 00:19:27,000 --> 00:19:29,000 Como tarea para la casa piensen en 10 maneras de vulnerarlas. 463 00:19:29,000 --> 00:19:32,000 Les daré una; una jeringa. 464 00:19:32,000 --> 00:19:35,000 Sin embargo hizo que la gente se sintiera mejor. 465 00:19:35,000 --> 00:19:37,000 Hizo que su sensación de seguridad 466 00:19:37,000 --> 00:19:39,000 se pareciera más a la realidad. 467 00:19:39,000 --> 00:19:42,000 Última historia; hace unos años una amiga mía dio a luz. 468 00:19:42,000 --> 00:19:44,000 La visité en el hospital. 469 00:19:44,000 --> 00:19:46,000 Resulta que ahora cuando un bebé nace 470 00:19:46,000 --> 00:19:48,000 le ponen al bebé una pulsera RFID, 471 00:19:48,000 --> 00:19:50,000 le ponen una pulsera relacionada a la madre 472 00:19:50,000 --> 00:19:52,000 y si otra persona retira al bebé de la sala de maternidad 473 00:19:52,000 --> 00:19:54,000 suena una alarma. 474 00:19:54,000 --> 00:19:56,000 Me dije: "Bueno, eso está bien bueno. 475 00:19:56,000 --> 00:19:58,000 Me pregunto cuán comunes son los robos de bebé 476 00:19:58,000 --> 00:20:00,000 desde los hospitales." 477 00:20:00,000 --> 00:20:02,000 Me voy a casa y lo busco. 478 00:20:02,000 --> 00:20:04,000 Básicamente no sucede jamás. 479 00:20:04,000 --> 00:20:06,000 Pero si lo piensas, 480 00:20:06,000 --> 00:20:08,000 si eres un hospital 481 00:20:08,000 --> 00:20:10,000 y tienes que alejar al bebé de su madre, 482 00:20:10,000 --> 00:20:12,000 fuera de la pieza para tomar algunos exámenes, 483 00:20:12,000 --> 00:20:14,000 mejor que tengas un buen teatro de seguridad 484 00:20:14,000 --> 00:20:16,000 o te va a arrancar el brazo entero. 485 00:20:16,000 --> 00:20:18,000 (Risas) 486 00:20:18,000 --> 00:20:20,000 Así que es importante para nosotros, 487 00:20:20,000 --> 00:20:22,000 aquellos de nosotros que diseñamos seguridad, 488 00:20:22,000 --> 00:20:25,000 que observamos las políticas de seguridad, 489 00:20:25,000 --> 00:20:27,000 o incluso miramos a las políticas públicas 490 00:20:27,000 --> 00:20:29,000 y las maneras que estas afectan a la seguridad. 491 00:20:29,000 --> 00:20:32,000 No es sólo la realidad, es sensación y la realidad. 492 00:20:32,000 --> 00:20:34,000 Lo que es importante 493 00:20:34,000 --> 00:20:36,000 es que sean más o menos iguales. 494 00:20:36,000 --> 00:20:38,000 Es importante que -si nuestras sensaciones calzan con la realidad- 495 00:20:38,000 --> 00:20:40,000 tomemos mejores decisiones de seguridad. 496 00:20:40,000 --> 00:20:42,000 Gracias. 497 00:20:42,000 --> 00:20:44,000 (Aplausos)