1 00:00:00,000 --> 00:00:02,000 La seguretat és dues coses diferents: 2 00:00:02,000 --> 00:00:04,000 és una sensació i és una realitat. 3 00:00:04,000 --> 00:00:06,000 I són diferents. 4 00:00:06,000 --> 00:00:08,000 Ens podem sentir segurs 5 00:00:08,000 --> 00:00:10,000 fins i tot quan no és així. 6 00:00:10,000 --> 00:00:12,000 I podem ser-ho, 7 00:00:12,000 --> 00:00:14,000 fins i tot quan no ho sentim. 8 00:00:14,000 --> 00:00:16,000 Tenim dos conceptes separats 9 00:00:16,000 --> 00:00:18,000 dins la mateixa paraula. 10 00:00:18,000 --> 00:00:20,000 El que vull fer en aquesta xerrada 11 00:00:20,000 --> 00:00:22,000 és separar-los, 12 00:00:22,000 --> 00:00:24,000 descobrint quan divergeixen 13 00:00:24,000 --> 00:00:26,000 and com convergeixen. 14 00:00:26,000 --> 00:00:28,000 I la llengua és un problema real en aquest cas. 15 00:00:28,000 --> 00:00:30,000 No hi ha gaires paraules 16 00:00:30,000 --> 00:00:33,000 pels conceptes dels quals parlarem. 17 00:00:33,000 --> 00:00:35,000 Si mirem la seguretat 18 00:00:35,000 --> 00:00:37,000 en termes econòmics, 19 00:00:37,000 --> 00:00:39,000 es tracta d'un intercanvi. 20 00:00:39,000 --> 00:00:41,000 Cada vegada que aconseguim certa seguretat, 21 00:00:41,000 --> 00:00:43,000 estem sacrificant quelcom. 22 00:00:43,000 --> 00:00:45,000 Tant si es tracta d'una decisió personal, 23 00:00:45,000 --> 00:00:47,000 per exemple, instal·lar una alarma contra lladres a casa, 24 00:00:47,000 --> 00:00:50,000 o una decisió nacional, envair un altre país; 25 00:00:50,000 --> 00:00:52,000 sacrificarem alguna cosa: 26 00:00:52,000 --> 00:00:55,000 o diners o temps, comoditat, capacitats, 27 00:00:55,000 --> 00:00:58,000 potser llibertats fonamentals. 28 00:00:58,000 --> 00:01:01,000 La pregunta que hem de fer-nos quan estem davant d'una cosa relacionada amb la seguretat 29 00:01:01,000 --> 00:01:04,000 no és si ens fa sentir més segurs, 30 00:01:04,000 --> 00:01:07,000 sinó si val la pena el sacrifici. 31 00:01:07,000 --> 00:01:09,000 Heu sentit a dir en els últims anys 32 00:01:09,000 --> 00:01:11,000 que el món és un lloc més segur perquè en Saddam Hussein no és al poder. 33 00:01:11,000 --> 00:01:14,000 Potser és cert, però no és tan rellevant. 34 00:01:14,000 --> 00:01:17,000 La pregunta és: va valer la pena? 35 00:01:17,000 --> 00:01:20,000 Podeu prendre les vostres decisions 36 00:01:20,000 --> 00:01:22,000 i després decidir si la invasió va valer o no la pena. 37 00:01:22,000 --> 00:01:24,000 Així és com es pensa sobre seguretat; 38 00:01:24,000 --> 00:01:26,000 en termes de sacrifici. 39 00:01:26,000 --> 00:01:29,000 En moltes ocasions, no hi ha bé o malament. 40 00:01:29,000 --> 00:01:31,000 Algunes persones tenen una alarma contra lladres a casa 41 00:01:31,000 --> 00:01:33,000 i d'altres no en tenen. 42 00:01:33,000 --> 00:01:35,000 Depèn d'on viuen, 43 00:01:35,000 --> 00:01:37,000 de si tenen o no família, 44 00:01:37,000 --> 00:01:39,000 de la quantitat de coses valuoses que tenen, 45 00:01:39,000 --> 00:01:41,000 de fins a quin punt estan disposats a acceptar 46 00:01:41,000 --> 00:01:43,000 el risc de que els entrin a casa. 47 00:01:43,000 --> 00:01:45,000 En política, 48 00:01:45,000 --> 00:01:47,000 hi ha diferents opinions. 49 00:01:47,000 --> 00:01:49,000 Moltes vegades, aquests sacrificis 50 00:01:49,000 --> 00:01:51,000 van més enllà de la seguretat: 51 00:01:51,000 --> 00:01:53,000 crec que això és realment important. 52 00:01:53,000 --> 00:01:55,000 La gent té una intuició natural 53 00:01:55,000 --> 00:01:57,000 per aquests sacrificis. 54 00:01:57,000 --> 00:01:59,000 Els fem cada dia; 55 00:01:59,000 --> 00:02:01,000 ahir a la nit a l'habitació de l'hotel 56 00:02:01,000 --> 00:02:03,000 quan vaig decidir tancar la porta amb doble clau, 57 00:02:03,000 --> 00:02:05,000 o vosaltres al cotxe quan conduíeu per arribar aquí, 58 00:02:05,000 --> 00:02:07,000 quan anem a dinar 59 00:02:07,000 --> 00:02:10,000 i decidim que el menjar no està en males condicions i ens el mengem. 60 00:02:10,000 --> 00:02:12,000 Prenem aquest tipus de decisions constantment, 61 00:02:12,000 --> 00:02:14,000 moltes vegades al dia. 62 00:02:14,000 --> 00:02:16,000 Sovint ni tan sols ens adonem. 63 00:02:16,000 --> 00:02:18,000 Forma part de ser viu; tothom ho fa. 64 00:02:18,000 --> 00:02:21,000 Totes les espècies ho fan. 65 00:02:21,000 --> 00:02:23,000 Imagineu-vos un conill al camp que està menjant 66 00:02:23,000 --> 00:02:26,000 i que veu una guineu. 67 00:02:26,000 --> 00:02:28,000 El conill pendrà un decisió de seguretat: 68 00:02:28,000 --> 00:02:30,000 "Em quedo o me'n vaig?" 69 00:02:30,000 --> 00:02:32,000 I si ho penseu bé, 70 00:02:32,000 --> 00:02:35,000 els conills que són bons prenent aquest tipus de decisió 71 00:02:35,000 --> 00:02:37,000 tendeixen a viure i reproduir-se 72 00:02:37,000 --> 00:02:39,000 i els que no ho són 73 00:02:39,000 --> 00:02:41,000 moriran de gana o bé se'ls menjaran. 74 00:02:41,000 --> 00:02:43,000 Seria d'esperar 75 00:02:43,000 --> 00:02:46,000 que, com espècie triomfadora del planeta, 76 00:02:46,000 --> 00:02:48,000 vosaltres, jo, tothom 77 00:02:48,000 --> 00:02:51,000 siguéssim realment bons a l'hora de prendre aquestes decisions. 78 00:02:51,000 --> 00:02:53,000 Per contra, sembla ser 79 00:02:53,000 --> 00:02:56,000 que som terriblement dolents. 80 00:02:56,000 --> 00:02:59,000 Crec que és una qüestió realment interessant. 81 00:02:59,000 --> 00:03:01,000 Us donaré la resposta curta. 82 00:03:01,000 --> 00:03:03,000 La resposta és que responem a la sensació de seguretat 83 00:03:03,000 --> 00:03:06,000 i no pas a la realitat. 84 00:03:06,000 --> 00:03:09,000 La majoria de vegades, funciona. 85 00:03:10,000 --> 00:03:12,000 La majoria de vegades, 86 00:03:12,000 --> 00:03:15,000 sensació i realitat són el mateix. 87 00:03:15,000 --> 00:03:17,000 Certament, això és veritat 88 00:03:17,000 --> 00:03:20,000 en gran part de la prehistòria humana. 89 00:03:20,000 --> 00:03:23,000 Hem desenvolupat aquesta habilitat 90 00:03:23,000 --> 00:03:25,000 perquè té sentit evolutiu. 91 00:03:25,000 --> 00:03:27,000 Una manera de veure-ho 92 00:03:27,000 --> 00:03:29,000 és que estem realment optimitzats 93 00:03:29,000 --> 00:03:31,000 per prendre decisions sobre riscos propis 94 00:03:31,000 --> 00:03:34,000 de la gent que viu en grups familiars reduïts 95 00:03:34,000 --> 00:03:37,000 a les terres altes de l'Àfrica oriental l'any 100.000 a.C. 96 00:03:37,000 --> 00:03:40,000 però no tant per Nova York l'any 2010. 97 00:03:41,000 --> 00:03:44,000 Hi ha diversos biaixos en la percepció de riscos. 98 00:03:44,000 --> 00:03:46,000 Hi ha molts experiments bons sobre això. 99 00:03:46,000 --> 00:03:49,000 I es veu com certs biaixos apareixen de forma constant. 100 00:03:49,000 --> 00:03:51,000 Us en donaré quatre. 101 00:03:51,000 --> 00:03:54,000 Tenim tendència a exagerar riscos extraordinaris i poc freqüents 102 00:03:54,000 --> 00:03:56,000 i a minimitzar els riscos corrents: 103 00:03:56,000 --> 00:03:59,000 volar enfront conduir. 104 00:03:59,000 --> 00:04:01,000 Allò desconegut es percep 105 00:04:01,000 --> 00:04:04,000 més arriscat que allò que és familiar. 106 00:04:05,000 --> 00:04:07,000 Per exemple, 107 00:04:07,000 --> 00:04:10,000 les persones tener por de que els segresti un desconegut, 108 00:04:10,000 --> 00:04:13,000 però hi ha dades que demostren que és molt més comú que el segrest el faci un familiar. 109 00:04:13,000 --> 00:04:15,000 Això pel que fa els nens. 110 00:04:15,000 --> 00:04:18,000 En tercer lloc, els riscos personificats 111 00:04:18,000 --> 00:04:21,000 es valoren més que els riscs anònims. 112 00:04:21,000 --> 00:04:24,000 Així, Bin Laden fa més por perquè té nom. 113 00:04:24,000 --> 00:04:26,000 I, per últim, 114 00:04:26,000 --> 00:04:28,000 la gent infravalora els riscos 115 00:04:28,000 --> 00:04:30,000 en situacions on tenen el control 116 00:04:30,000 --> 00:04:34,000 i els sobreestima en situacions on no el tenen. 117 00:04:34,000 --> 00:04:37,000 Així doncs, quan comencem a fumar o a fer paracaigudisme, 118 00:04:37,000 --> 00:04:39,000 minimitzem els riscos. 119 00:04:39,000 --> 00:04:42,000 Si se'ns imposa un risc (el terrorisme és un bon exemple), 120 00:04:42,000 --> 00:04:45,000 l'exagerarem perquè no tenim la sensació de tenir-ne el control. 121 00:04:47,000 --> 00:04:50,000 Hi ha un grapat d'altres biaixos cognitius 122 00:04:50,000 --> 00:04:53,000 que afecten la pressa de decisions de riscos. 123 00:04:53,000 --> 00:04:55,000 Està l'heurística de la disponibilitat, 124 00:04:55,000 --> 00:04:57,000 que significa 125 00:04:57,000 --> 00:05:00,000 que s'estima la probabilitat d'alguna cosa 126 00:05:00,000 --> 00:05:04,000 segons com sigui de fàcil trobar-ne exemples. 127 00:05:04,000 --> 00:05:06,000 Sabeu com funciona. 128 00:05:06,000 --> 00:05:09,000 Si sentim molt a parlar d'atacs de tigre, hi ha d'haver molts tigres a prop. 129 00:05:09,000 --> 00:05:12,000 Si no sentim a parlar d'atacs de lleó, és que no n'hi ha gaires a prop. 130 00:05:12,000 --> 00:05:15,000 Això va funcionar fins que es van inventir els diaris. 131 00:05:15,000 --> 00:05:17,000 El que fan els diaris 132 00:05:17,000 --> 00:05:19,000 és repetir una vegada i una altra 133 00:05:19,000 --> 00:05:21,000 els riscos poc freqüents. 134 00:05:21,000 --> 00:05:23,000 Jo sovint dic: "Si és als diaris, no t'hi preocupis". 135 00:05:23,000 --> 00:05:25,000 Per definició, 136 00:05:25,000 --> 00:05:28,000 una noticia és quelcom que gairebé mai passa. 137 00:05:28,000 --> 00:05:30,000 (Rialles) 138 00:05:30,000 --> 00:05:33,000 Quan una cosa és freqüent, deixa de ser notícia; 139 00:05:33,000 --> 00:05:35,000 accidents de cotxe, violència de gènere: 140 00:05:35,000 --> 00:05:38,000 aquests són els riscos que us han de preocupar. 141 00:05:38,000 --> 00:05:40,000 Som també una espècie de grans narradors. 142 00:05:40,000 --> 00:05:43,000 Responem més a les històries que no pas a les dades. 143 00:05:43,000 --> 00:05:45,000 Estem incapacitats per a l'aritmètica bàsica. 144 00:05:45,000 --> 00:05:48,000 L'acudit "Un, dos, tres, molts" és encertat. 145 00:05:48,000 --> 00:05:51,000 Som bons amb números petits. 146 00:05:51,000 --> 00:05:53,000 Una poma, dues pomes, tres pomes, 147 00:05:53,000 --> 00:05:55,000 10.000 pomes, 100.000 pomes... 148 00:05:55,000 --> 00:05:58,000 són moltes més pomes de les que podem menjar abans no es facin malbé. 149 00:05:58,000 --> 00:06:01,000 Som bons quan es tracta d'un mig, un quart, una cinquena part. 150 00:06:01,000 --> 00:06:03,000 un entre un milió, un entre deu mil milions, 151 00:06:03,000 --> 00:06:06,000 no passen gaire sovint. 152 00:06:06,000 --> 00:06:08,000 Tenim problemes amb els riscos 153 00:06:08,000 --> 00:06:10,000 que no són gaire freqüents. 154 00:06:10,000 --> 00:06:12,000 El que fan aquests biaixos cognitius 155 00:06:12,000 --> 00:06:15,000 és fer de filtres entre nosaltres i la realitat. 156 00:06:15,000 --> 00:06:17,000 El resultat 157 00:06:17,000 --> 00:06:19,000 és que sensació i realitat es desequilibren, 158 00:06:19,000 --> 00:06:22,000 són diferents. 159 00:06:22,000 --> 00:06:25,000 O bé, teniu la sensació de sentir-vos més segurs del que sou realment 160 00:06:25,000 --> 00:06:27,000 i es tracta d'un fals sentiment de seguretat; 161 00:06:27,000 --> 00:06:29,000 o bé, al contrari, 162 00:06:29,000 --> 00:06:31,000 i és una falsa sensació d'inseguretat. 163 00:06:31,000 --> 00:06:34,000 Escric sovint sobre "el teatre de la seguretat", 164 00:06:34,000 --> 00:06:37,000 que són productes que fan que la gent se senti segura, 165 00:06:37,000 --> 00:06:39,000 però que no fan res en realitat. 166 00:06:39,000 --> 00:06:41,000 No hi ha cap paraula realment per anomenar les coses que es fan sentir segurs, 167 00:06:41,000 --> 00:06:43,000 però que no fan res per donar-nos aquesta seguretat. 168 00:06:43,000 --> 00:06:46,000 Potser és el que se suposa que ha de fer la CIA. 169 00:06:48,000 --> 00:06:50,000 Però tornem al tema econòmic. 170 00:06:50,000 --> 00:06:54,000 Si l'economia, si el mercat, dóna seguretat, 171 00:06:54,000 --> 00:06:56,000 i si la gent fa sacrificis 172 00:06:56,000 --> 00:06:59,000 basant-se en la sensació de seguretat, 173 00:06:59,000 --> 00:07:01,000 aleshores el que les empreses han de fer 174 00:07:01,000 --> 00:07:03,000 d'acord amb l'incentiu econòmic 175 00:07:03,000 --> 00:07:06,000 és fer que la gent se senti segura. 176 00:07:06,000 --> 00:07:09,000 Hi ha dues formes de fer-ho. 177 00:07:09,000 --> 00:07:11,000 D'una banda, es pot fer que la gent sigui segura de debó 178 00:07:11,000 --> 00:07:13,000 i esperar que se n'adonin. 179 00:07:13,000 --> 00:07:16,000 O bé, fer que la gent se senti segura 180 00:07:16,000 --> 00:07:19,000 i esperar que no se n'adonin. 181 00:07:20,000 --> 00:07:23,000 Què fa que la gent se n'adoni? 182 00:07:23,000 --> 00:07:25,000 Un parell de coses: 183 00:07:25,000 --> 00:07:27,000 entendre la seguretat, 184 00:07:27,000 --> 00:07:29,000 els riscos, les amenaces, 185 00:07:29,000 --> 00:07:32,000 les contramesures, com funciona tot això. 186 00:07:32,000 --> 00:07:34,000 Si sabem coses, 187 00:07:34,000 --> 00:07:37,000 és més probable que les nostres sensacions i la realitat siguin iguals. 188 00:07:37,000 --> 00:07:40,000 Es veurà més clar amb exemples. 189 00:07:40,000 --> 00:07:43,000 Tots sabem fins a quin punt el nostre barri és segur, 190 00:07:43,000 --> 00:07:46,000 perquè hi vivim i tenim una sensació de la seguretat 191 00:07:46,000 --> 00:07:49,000 que bàsicament és la realitat. 192 00:07:49,000 --> 00:07:52,000 El teatre de la seguretat queda al descobert 193 00:07:52,000 --> 00:07:55,000 quan està clar que no funciona de la manera correcta. 194 00:07:55,000 --> 00:07:59,000 I bé, què fa que la gent no se n'adoni? 195 00:07:59,000 --> 00:08:01,000 Doncs, un entendiment limitat. 196 00:08:01,000 --> 00:08:04,000 Si no s'entenen els riscos, no s'entenen els costos, 197 00:08:04,000 --> 00:08:06,000 les probabilitats de que el sacrifici no sigui correcte augmenten 198 00:08:06,000 --> 00:08:09,000 i la sensació no és igual a la realitat. 199 00:08:09,000 --> 00:08:11,000 No són prou exemples. 200 00:08:11,000 --> 00:08:13,000 Hi ha un problema inherent 201 00:08:13,000 --> 00:08:15,000 amb els aconteixements de probabilitat baixa. 202 00:08:15,000 --> 00:08:17,000 Si, per exemple, 203 00:08:17,000 --> 00:08:19,000 gairebé mai hi ha actes terroristes, 204 00:08:19,000 --> 00:08:21,000 és molt difícil de valorar 205 00:08:21,000 --> 00:08:24,000 l'eficàcia de les mesures antiterroriestes. 206 00:08:25,000 --> 00:08:28,000 És per això que seguim sacrificant verges 207 00:08:28,000 --> 00:08:31,000 i que ens funcionin tan bé les defenses d'unicorn. 208 00:08:31,000 --> 00:08:34,000 No hi ha prou exemples de fracasos. 209 00:08:35,000 --> 00:08:38,000 També hi ha sensacions que ennuvolen els temes; 210 00:08:38,000 --> 00:08:40,000 els biaixos cognitius de què us parlava abans, 211 00:08:40,000 --> 00:08:43,000 pors, creences populars, 212 00:08:43,000 --> 00:08:46,000 fonamentalment un model de realitat inadequat. 213 00:08:47,000 --> 00:08:50,000 Permetèu-me que compliqui les coses. 214 00:08:50,000 --> 00:08:52,000 Tinc la sensació i la realitat. 215 00:08:52,000 --> 00:08:55,000 Vull afegir un altre element. El model. 216 00:08:55,000 --> 00:08:57,000 La sensació i el model estan a la nostra ment, 217 00:08:57,000 --> 00:08:59,000 però la realitat és el món exterior. 218 00:08:59,000 --> 00:09:02,000 No canvia; és real. 219 00:09:02,000 --> 00:09:04,000 La sensació es basa en la intuició. 220 00:09:04,000 --> 00:09:06,000 El model es basa en la raó. 221 00:09:06,000 --> 00:09:09,000 Aquesta és bàsicament la diferència. 222 00:09:09,000 --> 00:09:11,000 En un món primitiu i simple, 223 00:09:11,000 --> 00:09:14,000 no hi ha cap motiu per a que hi hagi un model 224 00:09:14,000 --> 00:09:17,000 perquè la sensació està molt a prop de la realitat. 225 00:09:17,000 --> 00:09:19,000 No és necessari cap model. 226 00:09:19,000 --> 00:09:21,000 Però en un món modern i complex, 227 00:09:21,000 --> 00:09:23,000 els models són necessaris 228 00:09:23,000 --> 00:09:26,000 per entendre molts dels riscos als que ens enfrontem. 229 00:09:27,000 --> 00:09:29,000 No hi ha cap sensació sobre els gèrmens. 230 00:09:29,000 --> 00:09:32,000 És necessari tenir un model per entendre'ls. 231 00:09:32,000 --> 00:09:34,000 El model 232 00:09:34,000 --> 00:09:37,000 és una representació intel·ligent de la realitat. 233 00:09:37,000 --> 00:09:40,000 És obvi que està limitat per la ciència, 234 00:09:40,000 --> 00:09:42,000 per la tecnologia. 235 00:09:42,000 --> 00:09:45,000 No era possible tenir una teoria d'enfermetat causada per gèrmens 236 00:09:45,000 --> 00:09:48,000 abans de que s'inventés el microscopi que ens permetria veure'ls. 237 00:09:49,000 --> 00:09:52,000 Està limitat pels biaixos cognitius. 238 00:09:52,000 --> 00:09:54,000 Té l'habilitat 239 00:09:54,000 --> 00:09:56,000 d'anular les sensacions. 240 00:09:56,000 --> 00:09:59,000 D'on treiem els models? D'altres llocs. 241 00:09:59,000 --> 00:10:02,000 De la religió, la cultura, 242 00:10:02,000 --> 00:10:04,000 els professors, les persones grans. 243 00:10:04,000 --> 00:10:06,000 Fa un parell d'anys, 244 00:10:06,000 --> 00:10:08,000 vaig fer un safari a Sudàfrica. 245 00:10:08,000 --> 00:10:11,000 El rastrejador amb qui anava va críxer al Kruger National Park. 246 00:10:11,000 --> 00:10:14,000 Tenia alguns models força complexos sobre com sobreviure. 247 00:10:14,000 --> 00:10:16,000 En funció de si t'atacava 248 00:10:16,000 --> 00:10:18,000 un lleó, un lleopard, un rinoceront o un elefant, 249 00:10:18,000 --> 00:10:21,000 s'havia de córrer o enfilar-se a un arbre 250 00:10:21,000 --> 00:10:23,000 o no enfilar-s'hi mai. 251 00:10:23,000 --> 00:10:26,000 Jo no hauria sobreviscut ni un dia, 252 00:10:26,000 --> 00:10:28,000 però ell va néixer allà 253 00:10:28,000 --> 00:10:30,000 i entenia com sobreviure-hi. 254 00:10:30,000 --> 00:10:32,000 Jo vaig néixer a Nova York. 255 00:10:32,000 --> 00:10:35,000 Si l'hagués dut a Nova York, no hauria sobreviscut ni un dia. 256 00:10:35,000 --> 00:10:37,000 (Rialles) 257 00:10:37,000 --> 00:10:39,000 La raó és que teníem diferents models 258 00:10:39,000 --> 00:10:42,000 que es basaven en experiències diferents. 259 00:10:43,000 --> 00:10:45,000 Models que provenen dels mitjans de comunicació, 260 00:10:45,000 --> 00:10:48,000 dels funcionaris electes. 261 00:10:48,000 --> 00:10:51,000 Models de terrorisme, 262 00:10:51,000 --> 00:10:54,000 de segrest de nens, 263 00:10:54,000 --> 00:10:56,000 de seguretat aèria, de seguretat en carretera. 264 00:10:56,000 --> 00:10:59,000 Els models poden tenir l'origen a la indústria. 265 00:10:59,000 --> 00:11:01,000 Per exemple, les càmeres de vigilància 266 00:11:01,000 --> 00:11:03,000 o els carnets d'identitat, 267 00:11:03,000 --> 00:11:06,000 molts dels nostres models de seguretat computeritzats provenen d'aquí. 268 00:11:06,000 --> 00:11:09,000 Molts models provenen de la ciència. 269 00:11:09,000 --> 00:11:11,000 Els models de salut són un bon exemple. 270 00:11:11,000 --> 00:11:14,000 Penseu en el càncer, en la grip aviària, la grip porcina o la síndrome respiratòria aguda greu. 271 00:11:14,000 --> 00:11:17,000 La sensació de seguretat que tenim 272 00:11:17,000 --> 00:11:19,000 enfront aquestes malalties 273 00:11:19,000 --> 00:11:21,000 venen de models 274 00:11:21,000 --> 00:11:24,000 que ens ha donat la ciència a través dels mitjans de comunicació. 275 00:11:25,000 --> 00:11:28,000 Els models poden canviar. 276 00:11:28,000 --> 00:11:30,000 No són estàtics. 277 00:11:30,000 --> 00:11:33,000 A mida que es sentim més còmodes en un medi, 278 00:11:33,000 --> 00:11:37,000 el model s'apropa a les sensacions. 279 00:11:38,000 --> 00:11:40,000 Un exemple podria ser el següent: 280 00:11:40,000 --> 00:11:42,000 pensen en fa 100 anys, 281 00:11:42,000 --> 00:11:45,000 en el moment en què l'electricitat començava a estendre's; 282 00:11:45,000 --> 00:11:47,000 hi havia molts temors al voltant d'aquest descobriment. 283 00:11:47,000 --> 00:11:49,000 Hi havia gent que tenia por de prémer el timbre 284 00:11:49,000 --> 00:11:52,000 perque hi havia electricitat i era perillosa. 285 00:11:52,000 --> 00:11:55,000 Nosaltres ens sentim còmodes amb l'electricitat. 286 00:11:55,000 --> 00:11:57,000 Canviem bombetes 287 00:11:57,000 --> 00:11:59,000 sense ni tan sols pensar-hi. 288 00:11:59,000 --> 00:12:03,000 Hem nascut dins d'aquest model 289 00:12:03,000 --> 00:12:06,000 de seguretat pel que fa a l'electricitat. 290 00:12:06,000 --> 00:12:09,000 No ha canviat mentre ens feiem grans. 291 00:12:09,000 --> 00:12:12,000 Som bons fent-lo servir. 292 00:12:12,000 --> 00:12:14,000 Un altre exemple: penseu en els riscos 293 00:12:14,000 --> 00:12:16,000 d'Internet al llarg de generacions 294 00:12:16,000 --> 00:12:18,000 com els vostres pares enfoquen la seguretat pel que fa a Internet 295 00:12:18,000 --> 00:12:20,000 enfront a com ho feu vosaltres, 296 00:12:20,000 --> 00:12:23,000 enfront a com ho faran els vostres fills. 297 00:12:23,000 --> 00:12:26,000 Els models acaben per esvair-se. 298 00:12:27,000 --> 00:12:30,000 La intuició és un sinòmin de familiar. 299 00:12:30,000 --> 00:12:32,000 Quan el model està a prop de la realitat 300 00:12:32,000 --> 00:12:34,000 i s'uneix a les sensacions, 301 00:12:34,000 --> 00:12:37,000 no sabem que hi és. 302 00:12:37,000 --> 00:12:39,000 Un bon exemple d'això 303 00:12:39,000 --> 00:12:42,000 és la grip porcina. 304 00:12:42,000 --> 00:12:44,000 Quan va aparèixer per primera vegada, 305 00:12:44,000 --> 00:12:48,000 les notícies van provocar reaccions desmesurades. 306 00:12:48,000 --> 00:12:50,000 Era una enfermetat amb nom, 307 00:12:50,000 --> 00:12:52,000 la qual cosa que tinguéssim més por que no pas per la grip normal, 308 00:12:52,000 --> 00:12:54,000 tot i que aquesta última és més mortal. 309 00:12:54,000 --> 00:12:58,000 I la gent pensava que els metges havien de ser capaços de tractar-la. 310 00:12:58,000 --> 00:13:00,000 Hi havia, doncs, una sensació de falta de control. 311 00:13:00,000 --> 00:13:02,000 Aquests dos fets 312 00:13:02,000 --> 00:13:04,000 feien que el risc fos més gran del que era real. 313 00:13:04,000 --> 00:13:07,000 A mida que la novetat desapareixia i que passaven els mesos, 314 00:13:07,000 --> 00:13:09,000 va aparèixer una certa tolerància 315 00:13:09,000 --> 00:13:11,000 i la gent s'hi va acostumar. 316 00:13:11,000 --> 00:13:14,000 No hi havia nova informació, però hi havia menys por. 317 00:13:14,000 --> 00:13:16,000 A la tardor, 318 00:13:16,000 --> 00:13:18,000 la gent creia 319 00:13:18,000 --> 00:13:20,000 que els metges havien de tenir ja una solució. 320 00:13:20,000 --> 00:13:22,000 És una mena de bifurcació: 321 00:13:22,000 --> 00:13:24,000 la gent havia d'escollir 322 00:13:24,000 --> 00:13:28,000 entre por i acceptació; 323 00:13:28,000 --> 00:13:30,000 bé, millor dit, entre por i indiferència, 324 00:13:30,000 --> 00:13:33,000 i van escollir més aviat la sospita. 325 00:13:33,000 --> 00:13:36,000 I quan, a l'hivern, va aparèixer la vacuna 326 00:13:36,000 --> 00:13:39,000 va haver-hi molta gent (de fet, un nombre realment alt) 327 00:13:39,000 --> 00:13:42,000 que s'hi va negar. 328 00:13:43,000 --> 00:13:45,000 És un bon exemple 329 00:13:45,000 --> 00:13:48,000 de com les sensacions de seguretat i els models canvien, 330 00:13:48,000 --> 00:13:50,000 de forma un tant descontrolada, 331 00:13:50,000 --> 00:13:52,000 sense nova informació, 332 00:13:52,000 --> 00:13:54,000 sense noves dades. 333 00:13:54,000 --> 00:13:57,000 Coses com aquesta passen sovint. 334 00:13:57,000 --> 00:14:00,000 Ho complicaré una mica més. 335 00:14:00,000 --> 00:14:03,000 Tenim la sensació, el model, la realitat. 336 00:14:03,000 --> 00:14:05,000 Tinc una visió molt relativista de la seguretat. 337 00:14:05,000 --> 00:14:08,000 Crec que depén de l'observador. 338 00:14:08,000 --> 00:14:10,000 Moltes decisions de seguretat 339 00:14:10,000 --> 00:14:14,000 comporten que hi hagi diferents persones involucrades. 340 00:14:14,000 --> 00:14:16,000 I els interessats 341 00:14:16,000 --> 00:14:19,000 que tenen sacrificis determinats 342 00:14:19,000 --> 00:14:21,000 intentaran influir en la decisió. 343 00:14:21,000 --> 00:14:23,000 És el que anomeno la seva agenda. 344 00:14:23,000 --> 00:14:25,000 Podem veure en aquestes agendes, 345 00:14:25,000 --> 00:14:28,000 (en màrqueting, en política) 346 00:14:28,000 --> 00:14:31,000 que intenten convèncer-vos d'un model enfront un altre, 347 00:14:31,000 --> 00:14:33,000 que intenten convèncer-vos d'ignorar un model 348 00:14:33,000 --> 00:14:36,000 i confiar en les vostres sensacions, 349 00:14:36,000 --> 00:14:39,000 aillant la gent que té models que no us agraden. 350 00:14:39,000 --> 00:14:42,000 No és gens estrany. 351 00:14:42,000 --> 00:14:45,000 Un bon exemple és el risc del tabaquisme. 352 00:14:46,000 --> 00:14:49,000 En els últims 50 anys, el risc del tabaquisme 353 00:14:49,000 --> 00:14:51,000 mostra com canvia un model 354 00:14:51,000 --> 00:14:54,000 i com la indústria lluita 355 00:14:54,000 --> 00:14:56,000 contra un model que no li agrada. 356 00:14:56,000 --> 00:14:59,000 Ho podem comparar al debat sobre el tabaquisme passiu, 357 00:14:59,000 --> 00:15:02,000 fa uns 20 anys aproximadament. 358 00:15:02,000 --> 00:15:04,000 Penseu en els cinturons de seguretat. 359 00:15:04,000 --> 00:15:06,000 Quan era petit, ningú no portava el cinturó de seguretat. 360 00:15:06,000 --> 00:15:08,000 Ara, cap nen no us deixarà conduir 361 00:15:08,000 --> 00:15:10,000 a menys que us poseu el cinturó. 362 00:15:11,000 --> 00:15:13,000 Ho podem comparar al debat sobre l'airbag, 363 00:15:13,000 --> 00:15:16,000 fa uns 30 anys aproximadament. 364 00:15:16,000 --> 00:15:19,000 Són exemples de models que canvien. 365 00:15:21,000 --> 00:15:24,000 I el que aprenem és que és difícil canviar un model. 366 00:15:24,000 --> 00:15:26,000 És difícil desplaçar un model. 367 00:15:26,000 --> 00:15:28,000 Si model i sensació és el mateix, 368 00:15:28,000 --> 00:15:31,000 ni tan sols ens adonem que tenim un model. 369 00:15:31,000 --> 00:15:33,000 Hi ha un altre biaix cognitiu, 370 00:15:33,000 --> 00:15:35,000 que anomeno biaix de confirmació, 371 00:15:35,000 --> 00:15:38,000 i és que tenim tendència a aceptar la informació 372 00:15:38,000 --> 00:15:40,000 que confirma les nostres creences 373 00:15:40,000 --> 00:15:43,000 i a rebutjar la informació que les contradiu. 374 00:15:44,000 --> 00:15:46,000 És probable que no fem cas a la informació 375 00:15:46,000 --> 00:15:49,000 en contra del nostre model, encara que sigui molt persuasiva. 376 00:15:49,000 --> 00:15:52,000 Haurà de ser molt i molt persuasiva per a que hi parem atenció. 377 00:15:53,000 --> 00:15:55,000 Els models nous que s'estenen llargs períodes són difícils. 378 00:15:55,000 --> 00:15:57,000 L'escalfament global és un bon exemple. 379 00:15:57,000 --> 00:15:59,000 Som molt dolents 380 00:15:59,000 --> 00:16:01,000 amb models que abasten 80 anys. 381 00:16:01,000 --> 00:16:03,000 Podem ser-hi per a la propera collita. 382 00:16:03,000 --> 00:16:06,000 Podem ser-hi fins que els fills són grans. 383 00:16:06,000 --> 00:16:09,000 Però 80 anys, és massa temps per a nosaltres. 384 00:16:09,000 --> 00:16:12,000 És un model molt difícil d'acceptar. 385 00:16:12,000 --> 00:16:16,000 Podem tenir dos models al cap de forma simultània, 386 00:16:16,000 --> 00:16:19,000 com el tipus de problema 387 00:16:19,000 --> 00:16:22,000 on tenim dues creences al mateix temps; 388 00:16:22,000 --> 00:16:24,000 la dissonància cognitiva. 389 00:16:24,000 --> 00:16:26,000 Al final, 390 00:16:26,000 --> 00:16:29,000 el nou model substituirà l'antic. 391 00:16:29,000 --> 00:16:32,000 Les sensacions fortes poden crear un model. 392 00:16:32,000 --> 00:16:35,000 L'onze de setembre va crear un model de seguretat 393 00:16:35,000 --> 00:16:37,000 a les ments de moltes persones. 394 00:16:37,000 --> 00:16:40,000 Les experiències personals relacionades amb delictes també en poden crear: 395 00:16:40,000 --> 00:16:42,000 un problema de salut personal, 396 00:16:42,000 --> 00:16:44,000 un problema de salut a les notícies. 397 00:16:44,000 --> 00:16:46,000 Són el que els psiquiatres anomenen 398 00:16:46,000 --> 00:16:48,000 esdeveniments flash. 399 00:16:48,000 --> 00:16:51,000 Poden crear un model de forma instantània 400 00:16:51,000 --> 00:16:54,000 perquè són esdeveniments molt emotius. 401 00:16:54,000 --> 00:16:56,000 En el món tecnològic, 402 00:16:56,000 --> 00:16:58,000 no tenim experiència 403 00:16:58,000 --> 00:17:00,000 per jutjar els models. 404 00:17:00,000 --> 00:17:02,000 Confiem en altres. Confiem en intermediaris. 405 00:17:02,000 --> 00:17:06,000 És a dir, això funciona mentre sigui per corregir altres. 406 00:17:06,000 --> 00:17:08,000 Confiem que les agències gubernamentals 407 00:17:08,000 --> 00:17:13,000 ens diguin quins medicaments són segurs. 408 00:17:13,000 --> 00:17:15,000 Vaig arribar aquí ahir en avió. 409 00:17:15,000 --> 00:17:17,000 No vaig examinar l'aparell. 410 00:17:17,000 --> 00:17:19,000 Vaig confiar en un altre grup 411 00:17:19,000 --> 00:17:22,000 perquè decidís si era segur volar en aquell avió. 412 00:17:22,000 --> 00:17:25,000 Estem aquí; ningú no té por que el sostre caigui, 413 00:17:25,000 --> 00:17:28,000 no perquè ho hem inspeccionat 414 00:17:28,000 --> 00:17:30,000 sinó perquè estem força segurs 415 00:17:30,000 --> 00:17:33,000 que els codis de construcció són bons. 416 00:17:33,000 --> 00:17:35,000 És un model que acceptem 417 00:17:35,000 --> 00:17:37,000 quasi per fe. 418 00:17:37,000 --> 00:17:40,000 I està bé. 419 00:17:42,000 --> 00:17:44,000 El que volem 420 00:17:44,000 --> 00:17:46,000 és que la gent es familiaritzi 421 00:17:46,000 --> 00:17:48,000 amb models millors 422 00:17:48,000 --> 00:17:50,000 (que siguin un reflex de les seves sensacions) 423 00:17:50,000 --> 00:17:54,000 que els permetin fer sacrificis de seguretat. 424 00:17:54,000 --> 00:17:56,000 Quan aquests es desequilibren, 425 00:17:56,000 --> 00:17:58,000 tenim dues opcions. 426 00:17:58,000 --> 00:18:00,000 En primer lloc, podem arreglar les sensacions de la gent, 427 00:18:00,000 --> 00:18:02,000 apel·lant directament a les seves sensacions. 428 00:18:02,000 --> 00:18:05,000 És manipulatiu, però pot funcionar. 429 00:18:05,000 --> 00:18:07,000 L'altra manera, més honesta, 430 00:18:07,000 --> 00:18:10,000 és realment arreglar el model. 431 00:18:11,000 --> 00:18:13,000 Els canvis són lents. 432 00:18:13,000 --> 00:18:16,000 El debat sobre el tabac va durar 40 anys 433 00:18:16,000 --> 00:18:19,000 i es tractava d'un model fàcil. 434 00:18:19,000 --> 00:18:21,000 Alguns són complicats. 435 00:18:21,000 --> 00:18:23,000 El que vull dir és que 436 00:18:23,000 --> 00:18:25,000 sembla que la informació és la millor esperança. 437 00:18:25,000 --> 00:18:27,000 He dit una mentida. 438 00:18:27,000 --> 00:18:29,000 Recordeu quan he parlat de sensació, model i realitat? 439 00:18:29,000 --> 00:18:32,000 He dit que la realitat no canvia. De fet, sí que ho fa. 440 00:18:32,000 --> 00:18:34,000 Vivim en un món tecnològic; 441 00:18:34,000 --> 00:18:37,000 la realitat canvia constantment. 442 00:18:37,000 --> 00:18:40,000 Per primera vegada en la història de la nostra espècie, podem trobar-nos amb el cas 443 00:18:40,000 --> 00:18:43,000 en què la sensació persegueix el model, el model persegueix la realitat, 444 00:18:43,000 --> 00:18:46,000 la realitat es mou; potser mai no s'enxamparan. 445 00:18:47,000 --> 00:18:49,000 No ho sabem. 446 00:18:49,000 --> 00:18:51,000 Però a la llarga, 447 00:18:51,000 --> 00:18:54,000 tant la sensació com la realitat són importants. 448 00:18:54,000 --> 00:18:57,000 Vull acabar amb dues breus històries per il·lustrar això. 449 00:18:57,000 --> 00:18:59,000 1982. No sé si recordeu 450 00:18:59,000 --> 00:19:02,000 que hi va haver una epidèmia curta 451 00:19:02,000 --> 00:19:04,000 d'enverinament de Tylenol als Estats Units. 452 00:19:04,000 --> 00:19:07,000 És una història terrible: algú va prendre una ampolla de Tylenol, 453 00:19:07,000 --> 00:19:10,000 hi va posar verí, la va tancar i la va deixar a la prestatgeria. 454 00:19:10,000 --> 00:19:12,000 Una altra persona la va comprar i va morir. 455 00:19:12,000 --> 00:19:14,000 La gent estqava aterrida. 456 00:19:14,000 --> 00:19:16,000 Hi va haver un parell d'imitacions. 457 00:19:16,000 --> 00:19:19,000 No hi havia cap risc real, però la gent estava espantada. 458 00:19:19,000 --> 00:19:21,000 Així és com va aparèixer 459 00:19:21,000 --> 00:19:23,000 la indústria de segellament de medicaments. 460 00:19:23,000 --> 00:19:25,000 Així és com van aparèixer els taps segellats. 461 00:19:25,000 --> 00:19:27,000 És el teatre de seguretat complet. 462 00:19:27,000 --> 00:19:29,000 Us posaré deures: penseu en 10 maneres de d'evitar-los. 463 00:19:29,000 --> 00:19:32,000 Un en diré una: una xeringa. 464 00:19:32,000 --> 00:19:35,000 Però va fer que la gent se sentís millor. 465 00:19:35,000 --> 00:19:37,000 Va fer que la sensació de seguretat 466 00:19:37,000 --> 00:19:39,000 s'apropés a la realitat. 467 00:19:39,000 --> 00:19:42,000 L'última història, fa uns anys. Una amiga meva té un fill. 468 00:19:42,000 --> 00:19:44,000 La vaig anar a veure a l'hospital. 469 00:19:44,000 --> 00:19:46,000 Ara quan neix un nen, 470 00:19:46,000 --> 00:19:48,000 li posen una pulsera RFID al nadó 471 00:19:48,000 --> 00:19:50,000 i una altra a la mare, 472 00:19:50,000 --> 00:19:52,000 de manera que si algú que no és la mare prova de treure el nen de l'àrea de maternitat, 473 00:19:52,000 --> 00:19:54,000 es dispara l'alarma. 474 00:19:54,000 --> 00:19:56,000 Vaig dir, "Això és força ingeniós. 475 00:19:56,000 --> 00:19:58,000 Em pregunto 476 00:19:58,000 --> 00:20:00,000 fora dels hospitals". 477 00:20:00,000 --> 00:20:02,000 Quan vaig arribar a casa, ho vaig mirar. 478 00:20:02,000 --> 00:20:04,000 No passa gairebé mai. 479 00:20:04,000 --> 00:20:06,000 Però penseu-ho bé: 480 00:20:06,000 --> 00:20:08,000 si esteu a l'hospital 481 00:20:08,000 --> 00:20:10,000 i heu de prendre el nadó lluny de la seva mare 482 00:20:10,000 --> 00:20:12,000 i fora de la sala per fer-li proves, 483 00:20:12,000 --> 00:20:14,000 és millor tenir un bon teatre de seguretat 484 00:20:14,000 --> 00:20:16,000 o la mare us arrencarà el braç. 485 00:20:16,000 --> 00:20:18,000 (Rialles) 486 00:20:18,000 --> 00:20:20,000 És important per aquells de nosaltres 487 00:20:20,000 --> 00:20:22,000 que dissenyem la seguretat, 488 00:20:22,000 --> 00:20:25,000 que observem les polítiques de seguretat 489 00:20:25,000 --> 00:20:27,000 o fins i tot les polítiques públiques 490 00:20:27,000 --> 00:20:29,000 en formes que afecten la seguretat. 491 00:20:29,000 --> 00:20:32,000 No és només realitat, és sensació i realitat. 492 00:20:32,000 --> 00:20:34,000 El que és important 493 00:20:34,000 --> 00:20:36,000 és que són pràcticament el mateix. 494 00:20:36,000 --> 00:20:38,000 Si les nostres sensacions són iguals a la realitat, 495 00:20:38,000 --> 00:20:40,000 és important que fem prenem bones decisions de seguretat. 496 00:20:40,000 --> 00:20:42,000 Gràcies. 497 00:20:42,000 --> 00:20:44,000 (Aplaudiments)