WEBVTT 00:00:00.000 --> 00:00:02.000 La seguretat és dues coses diferents: 00:00:02.000 --> 00:00:04.000 és una sensació i és una realitat. 00:00:04.000 --> 00:00:06.000 I són diferents. 00:00:06.000 --> 00:00:08.000 Ens podem sentir segurs 00:00:08.000 --> 00:00:10.000 fins i tot quan no és així. 00:00:10.000 --> 00:00:12.000 I podem ser-ho, 00:00:12.000 --> 00:00:14.000 fins i tot quan no ho sentim. 00:00:14.000 --> 00:00:16.000 Tenim dos conceptes separats 00:00:16.000 --> 00:00:18.000 dins la mateixa paraula. 00:00:18.000 --> 00:00:20.000 El que vull fer en aquesta xerrada 00:00:20.000 --> 00:00:22.000 és separar-los, 00:00:22.000 --> 00:00:24.000 descobrint quan divergeixen 00:00:24.000 --> 00:00:26.000 and com convergeixen. 00:00:26.000 --> 00:00:28.000 I la llengua és un problema real en aquest cas. 00:00:28.000 --> 00:00:30.000 No hi ha gaires paraules 00:00:30.000 --> 00:00:33.000 pels conceptes dels quals parlarem. NOTE Paragraph 00:00:33.000 --> 00:00:35.000 Si mirem la seguretat 00:00:35.000 --> 00:00:37.000 en termes econòmics, 00:00:37.000 --> 00:00:39.000 es tracta d'un intercanvi. 00:00:39.000 --> 00:00:41.000 Cada vegada que aconseguim certa seguretat, 00:00:41.000 --> 00:00:43.000 estem sacrificant quelcom. 00:00:43.000 --> 00:00:45.000 Tant si es tracta d'una decisió personal, 00:00:45.000 --> 00:00:47.000 per exemple, instal·lar una alarma contra lladres a casa, 00:00:47.000 --> 00:00:50.000 o una decisió nacional, envair un altre país; 00:00:50.000 --> 00:00:52.000 sacrificarem alguna cosa: 00:00:52.000 --> 00:00:55.000 o diners o temps, comoditat, capacitats, 00:00:55.000 --> 00:00:58.000 potser llibertats fonamentals. 00:00:58.000 --> 00:01:01.000 La pregunta que hem de fer-nos quan estem davant d'una cosa relacionada amb la seguretat 00:01:01.000 --> 00:01:04.000 no és si ens fa sentir més segurs, 00:01:04.000 --> 00:01:07.000 sinó si val la pena el sacrifici. 00:01:07.000 --> 00:01:09.000 Heu sentit a dir en els últims anys 00:01:09.000 --> 00:01:11.000 que el món és un lloc més segur perquè en Saddam Hussein no és al poder. 00:01:11.000 --> 00:01:14.000 Potser és cert, però no és tan rellevant. 00:01:14.000 --> 00:01:17.000 La pregunta és: va valer la pena? 00:01:17.000 --> 00:01:20.000 Podeu prendre les vostres decisions 00:01:20.000 --> 00:01:22.000 i després decidir si la invasió va valer o no la pena. 00:01:22.000 --> 00:01:24.000 Així és com es pensa sobre seguretat; 00:01:24.000 --> 00:01:26.000 en termes de sacrifici. NOTE Paragraph 00:01:26.000 --> 00:01:29.000 En moltes ocasions, no hi ha bé o malament. 00:01:29.000 --> 00:01:31.000 Algunes persones tenen una alarma contra lladres a casa 00:01:31.000 --> 00:01:33.000 i d'altres no en tenen. 00:01:33.000 --> 00:01:35.000 Depèn d'on viuen, 00:01:35.000 --> 00:01:37.000 de si tenen o no família, 00:01:37.000 --> 00:01:39.000 de la quantitat de coses valuoses que tenen, 00:01:39.000 --> 00:01:41.000 de fins a quin punt estan disposats a acceptar 00:01:41.000 --> 00:01:43.000 el risc de que els entrin a casa. 00:01:43.000 --> 00:01:45.000 En política, 00:01:45.000 --> 00:01:47.000 hi ha diferents opinions. 00:01:47.000 --> 00:01:49.000 Moltes vegades, aquests sacrificis 00:01:49.000 --> 00:01:51.000 van més enllà de la seguretat: 00:01:51.000 --> 00:01:53.000 crec que això és realment important. 00:01:53.000 --> 00:01:55.000 La gent té una intuició natural 00:01:55.000 --> 00:01:57.000 per aquests sacrificis. 00:01:57.000 --> 00:01:59.000 Els fem cada dia; 00:01:59.000 --> 00:02:01.000 ahir a la nit a l'habitació de l'hotel 00:02:01.000 --> 00:02:03.000 quan vaig decidir tancar la porta amb doble clau, 00:02:03.000 --> 00:02:05.000 o vosaltres al cotxe quan conduíeu per arribar aquí, 00:02:05.000 --> 00:02:07.000 quan anem a dinar 00:02:07.000 --> 00:02:10.000 i decidim que el menjar no està en males condicions i ens el mengem. 00:02:10.000 --> 00:02:12.000 Prenem aquest tipus de decisions constantment, 00:02:12.000 --> 00:02:14.000 moltes vegades al dia. 00:02:14.000 --> 00:02:16.000 Sovint ni tan sols ens adonem. 00:02:16.000 --> 00:02:18.000 Forma part de ser viu; tothom ho fa. NOTE Paragraph 00:02:18.000 --> 00:02:21.000 Totes les espècies ho fan. 00:02:21.000 --> 00:02:23.000 Imagineu-vos un conill al camp que està menjant 00:02:23.000 --> 00:02:26.000 i que veu una guineu. 00:02:26.000 --> 00:02:28.000 El conill pendrà un decisió de seguretat: 00:02:28.000 --> 00:02:30.000 "Em quedo o me'n vaig?" 00:02:30.000 --> 00:02:32.000 I si ho penseu bé, 00:02:32.000 --> 00:02:35.000 els conills que són bons prenent aquest tipus de decisió 00:02:35.000 --> 00:02:37.000 tendeixen a viure i reproduir-se 00:02:37.000 --> 00:02:39.000 i els que no ho són 00:02:39.000 --> 00:02:41.000 moriran de gana o bé se'ls menjaran. 00:02:41.000 --> 00:02:43.000 Seria d'esperar 00:02:43.000 --> 00:02:46.000 que, com espècie triomfadora del planeta, 00:02:46.000 --> 00:02:48.000 vosaltres, jo, tothom 00:02:48.000 --> 00:02:51.000 siguéssim realment bons a l'hora de prendre aquestes decisions. 00:02:51.000 --> 00:02:53.000 Per contra, sembla ser 00:02:53.000 --> 00:02:56.000 que som terriblement dolents. 00:02:56.000 --> 00:02:59.000 Crec que és una qüestió realment interessant. NOTE Paragraph 00:02:59.000 --> 00:03:01.000 Us donaré la resposta curta. 00:03:01.000 --> 00:03:03.000 La resposta és que responem a la sensació de seguretat 00:03:03.000 --> 00:03:06.000 i no pas a la realitat. 00:03:06.000 --> 00:03:09.000 La majoria de vegades, funciona. 00:03:10.000 --> 00:03:12.000 La majoria de vegades, 00:03:12.000 --> 00:03:15.000 sensació i realitat són el mateix. 00:03:15.000 --> 00:03:17.000 Certament, això és veritat 00:03:17.000 --> 00:03:20.000 en gran part de la prehistòria humana. 00:03:20.000 --> 00:03:23.000 Hem desenvolupat aquesta habilitat 00:03:23.000 --> 00:03:25.000 perquè té sentit evolutiu. 00:03:25.000 --> 00:03:27.000 Una manera de veure-ho 00:03:27.000 --> 00:03:29.000 és que estem realment optimitzats 00:03:29.000 --> 00:03:31.000 per prendre decisions sobre riscos propis 00:03:31.000 --> 00:03:34.000 de la gent que viu en grups familiars reduïts 00:03:34.000 --> 00:03:37.000 a les terres altes de l'Àfrica oriental l'any 100.000 a.C. 00:03:37.000 --> 00:03:40.000 però no tant per Nova York l'any 2010. NOTE Paragraph 00:03:41.000 --> 00:03:44.000 Hi ha diversos biaixos en la percepció de riscos. 00:03:44.000 --> 00:03:46.000 Hi ha molts experiments bons sobre això. 00:03:46.000 --> 00:03:49.000 I es veu com certs biaixos apareixen de forma constant. 00:03:49.000 --> 00:03:51.000 Us en donaré quatre. 00:03:51.000 --> 00:03:54.000 Tenim tendència a exagerar riscos extraordinaris i poc freqüents 00:03:54.000 --> 00:03:56.000 i a minimitzar els riscos corrents: 00:03:56.000 --> 00:03:59.000 volar enfront conduir. 00:03:59.000 --> 00:04:01.000 Allò desconegut es percep 00:04:01.000 --> 00:04:04.000 més arriscat que allò que és familiar. 00:04:05.000 --> 00:04:07.000 Per exemple, 00:04:07.000 --> 00:04:10.000 les persones tener por de que els segresti un desconegut, 00:04:10.000 --> 00:04:13.000 però hi ha dades que demostren que és molt més comú que el segrest el faci un familiar. 00:04:13.000 --> 00:04:15.000 Això pel que fa els nens. 00:04:15.000 --> 00:04:18.000 En tercer lloc, els riscos personificats 00:04:18.000 --> 00:04:21.000 es valoren més que els riscs anònims. 00:04:21.000 --> 00:04:24.000 Així, Bin Laden fa més por perquè té nom. 00:04:24.000 --> 00:04:26.000 I, per últim, 00:04:26.000 --> 00:04:28.000 la gent infravalora els riscos 00:04:28.000 --> 00:04:30.000 en situacions on tenen el control 00:04:30.000 --> 00:04:34.000 i els sobreestima en situacions on no el tenen. 00:04:34.000 --> 00:04:37.000 Així doncs, quan comencem a fumar o a fer paracaigudisme, 00:04:37.000 --> 00:04:39.000 minimitzem els riscos. 00:04:39.000 --> 00:04:42.000 Si se'ns imposa un risc (el terrorisme és un bon exemple), 00:04:42.000 --> 00:04:45.000 l'exagerarem perquè no tenim la sensació de tenir-ne el control. NOTE Paragraph 00:04:47.000 --> 00:04:50.000 Hi ha un grapat d'altres biaixos cognitius 00:04:50.000 --> 00:04:53.000 que afecten la pressa de decisions de riscos. 00:04:53.000 --> 00:04:55.000 Està l'heurística de la disponibilitat, 00:04:55.000 --> 00:04:57.000 que significa 00:04:57.000 --> 00:05:00.000 que s'estima la probabilitat d'alguna cosa 00:05:00.000 --> 00:05:04.000 segons com sigui de fàcil trobar-ne exemples. 00:05:04.000 --> 00:05:06.000 Sabeu com funciona. 00:05:06.000 --> 00:05:09.000 Si sentim molt a parlar d'atacs de tigre, hi ha d'haver molts tigres a prop. 00:05:09.000 --> 00:05:12.000 Si no sentim a parlar d'atacs de lleó, és que no n'hi ha gaires a prop. 00:05:12.000 --> 00:05:15.000 Això va funcionar fins que es van inventir els diaris. 00:05:15.000 --> 00:05:17.000 El que fan els diaris 00:05:17.000 --> 00:05:19.000 és repetir una vegada i una altra 00:05:19.000 --> 00:05:21.000 els riscos poc freqüents. 00:05:21.000 --> 00:05:23.000 Jo sovint dic: "Si és als diaris, no t'hi preocupis". 00:05:23.000 --> 00:05:25.000 Per definició, 00:05:25.000 --> 00:05:28.000 una noticia és quelcom que gairebé mai passa. 00:05:28.000 --> 00:05:30.000 (Rialles) 00:05:30.000 --> 00:05:33.000 Quan una cosa és freqüent, deixa de ser notícia; 00:05:33.000 --> 00:05:35.000 accidents de cotxe, violència de gènere: 00:05:35.000 --> 00:05:38.000 aquests són els riscos que us han de preocupar. NOTE Paragraph 00:05:38.000 --> 00:05:40.000 Som també una espècie de grans narradors. 00:05:40.000 --> 00:05:43.000 Responem més a les històries que no pas a les dades. 00:05:43.000 --> 00:05:45.000 Estem incapacitats per a l'aritmètica bàsica. 00:05:45.000 --> 00:05:48.000 L'acudit "Un, dos, tres, molts" és encertat. 00:05:48.000 --> 00:05:51.000 Som bons amb números petits. 00:05:51.000 --> 00:05:53.000 Una poma, dues pomes, tres pomes, 00:05:53.000 --> 00:05:55.000 10.000 pomes, 100.000 pomes... 00:05:55.000 --> 00:05:58.000 són moltes més pomes de les que podem menjar abans no es facin malbé. 00:05:58.000 --> 00:06:01.000 Som bons quan es tracta d'un mig, un quart, una cinquena part. 00:06:01.000 --> 00:06:03.000 un entre un milió, un entre deu mil milions, 00:06:03.000 --> 00:06:06.000 no passen gaire sovint. 00:06:06.000 --> 00:06:08.000 Tenim problemes amb els riscos 00:06:08.000 --> 00:06:10.000 que no són gaire freqüents. NOTE Paragraph 00:06:10.000 --> 00:06:12.000 El que fan aquests biaixos cognitius 00:06:12.000 --> 00:06:15.000 és fer de filtres entre nosaltres i la realitat. 00:06:15.000 --> 00:06:17.000 El resultat 00:06:17.000 --> 00:06:19.000 és que sensació i realitat es desequilibren, 00:06:19.000 --> 00:06:22.000 són diferents. 00:06:22.000 --> 00:06:25.000 O bé, teniu la sensació de sentir-vos més segurs del que sou realment 00:06:25.000 --> 00:06:27.000 i es tracta d'un fals sentiment de seguretat; 00:06:27.000 --> 00:06:29.000 o bé, al contrari, 00:06:29.000 --> 00:06:31.000 i és una falsa sensació d'inseguretat. 00:06:31.000 --> 00:06:34.000 Escric sovint sobre "el teatre de la seguretat", 00:06:34.000 --> 00:06:37.000 que són productes que fan que la gent se senti segura, 00:06:37.000 --> 00:06:39.000 però que no fan res en realitat. 00:06:39.000 --> 00:06:41.000 No hi ha cap paraula realment per anomenar les coses que es fan sentir segurs, 00:06:41.000 --> 00:06:43.000 però que no fan res per donar-nos aquesta seguretat. 00:06:43.000 --> 00:06:46.000 Potser és el que se suposa que ha de fer la CIA. NOTE Paragraph 00:06:48.000 --> 00:06:50.000 Però tornem al tema econòmic. 00:06:50.000 --> 00:06:54.000 Si l'economia, si el mercat, dóna seguretat, 00:06:54.000 --> 00:06:56.000 i si la gent fa sacrificis 00:06:56.000 --> 00:06:59.000 basant-se en la sensació de seguretat, 00:06:59.000 --> 00:07:01.000 aleshores el que les empreses han de fer 00:07:01.000 --> 00:07:03.000 d'acord amb l'incentiu econòmic 00:07:03.000 --> 00:07:06.000 és fer que la gent se senti segura. 00:07:06.000 --> 00:07:09.000 Hi ha dues formes de fer-ho. 00:07:09.000 --> 00:07:11.000 D'una banda, es pot fer que la gent sigui segura de debó 00:07:11.000 --> 00:07:13.000 i esperar que se n'adonin. 00:07:13.000 --> 00:07:16.000 O bé, fer que la gent se senti segura 00:07:16.000 --> 00:07:19.000 i esperar que no se n'adonin. 00:07:20.000 --> 00:07:23.000 Què fa que la gent se n'adoni? 00:07:23.000 --> 00:07:25.000 Un parell de coses: 00:07:25.000 --> 00:07:27.000 entendre la seguretat, 00:07:27.000 --> 00:07:29.000 els riscos, les amenaces, 00:07:29.000 --> 00:07:32.000 les contramesures, com funciona tot això. 00:07:32.000 --> 00:07:34.000 Si sabem coses, 00:07:34.000 --> 00:07:37.000 és més probable que les nostres sensacions i la realitat siguin iguals. 00:07:37.000 --> 00:07:40.000 Es veurà més clar amb exemples. NOTE Paragraph 00:07:40.000 --> 00:07:43.000 Tots sabem fins a quin punt el nostre barri és segur, 00:07:43.000 --> 00:07:46.000 perquè hi vivim i tenim una sensació de la seguretat 00:07:46.000 --> 00:07:49.000 que bàsicament és la realitat. 00:07:49.000 --> 00:07:52.000 El teatre de la seguretat queda al descobert 00:07:52.000 --> 00:07:55.000 quan està clar que no funciona de la manera correcta. 00:07:55.000 --> 00:07:59.000 I bé, què fa que la gent no se n'adoni? 00:07:59.000 --> 00:08:01.000 Doncs, un entendiment limitat. 00:08:01.000 --> 00:08:04.000 Si no s'entenen els riscos, no s'entenen els costos, 00:08:04.000 --> 00:08:06.000 les probabilitats de que el sacrifici no sigui correcte augmenten 00:08:06.000 --> 00:08:09.000 i la sensació no és igual a la realitat. 00:08:09.000 --> 00:08:11.000 No són prou exemples. 00:08:11.000 --> 00:08:13.000 Hi ha un problema inherent 00:08:13.000 --> 00:08:15.000 amb els aconteixements de probabilitat baixa. 00:08:15.000 --> 00:08:17.000 Si, per exemple, 00:08:17.000 --> 00:08:19.000 gairebé mai hi ha actes terroristes, 00:08:19.000 --> 00:08:21.000 és molt difícil de valorar 00:08:21.000 --> 00:08:24.000 l'eficàcia de les mesures antiterroriestes. 00:08:25.000 --> 00:08:28.000 És per això que seguim sacrificant verges 00:08:28.000 --> 00:08:31.000 i que ens funcionin tan bé les defenses d'unicorn. 00:08:31.000 --> 00:08:34.000 No hi ha prou exemples de fracasos. 00:08:35.000 --> 00:08:38.000 També hi ha sensacions que ennuvolen els temes; 00:08:38.000 --> 00:08:40.000 els biaixos cognitius de què us parlava abans, 00:08:40.000 --> 00:08:43.000 pors, creences populars, 00:08:43.000 --> 00:08:46.000 fonamentalment un model de realitat inadequat. NOTE Paragraph 00:08:47.000 --> 00:08:50.000 Permetèu-me que compliqui les coses. 00:08:50.000 --> 00:08:52.000 Tinc la sensació i la realitat. 00:08:52.000 --> 00:08:55.000 Vull afegir un altre element. El model. 00:08:55.000 --> 00:08:57.000 La sensació i el model estan a la nostra ment, 00:08:57.000 --> 00:08:59.000 però la realitat és el món exterior. 00:08:59.000 --> 00:09:02.000 No canvia; és real. 00:09:02.000 --> 00:09:04.000 La sensació es basa en la intuició. 00:09:04.000 --> 00:09:06.000 El model es basa en la raó. 00:09:06.000 --> 00:09:09.000 Aquesta és bàsicament la diferència. 00:09:09.000 --> 00:09:11.000 En un món primitiu i simple, 00:09:11.000 --> 00:09:14.000 no hi ha cap motiu per a que hi hagi un model 00:09:14.000 --> 00:09:17.000 perquè la sensació està molt a prop de la realitat. 00:09:17.000 --> 00:09:19.000 No és necessari cap model. 00:09:19.000 --> 00:09:21.000 Però en un món modern i complex, 00:09:21.000 --> 00:09:23.000 els models són necessaris 00:09:23.000 --> 00:09:26.000 per entendre molts dels riscos als que ens enfrontem. 00:09:27.000 --> 00:09:29.000 No hi ha cap sensació sobre els gèrmens. 00:09:29.000 --> 00:09:32.000 És necessari tenir un model per entendre'ls. 00:09:32.000 --> 00:09:34.000 El model 00:09:34.000 --> 00:09:37.000 és una representació intel·ligent de la realitat. 00:09:37.000 --> 00:09:40.000 És obvi que està limitat per la ciència, 00:09:40.000 --> 00:09:42.000 per la tecnologia. 00:09:42.000 --> 00:09:45.000 No era possible tenir una teoria d'enfermetat causada per gèrmens 00:09:45.000 --> 00:09:48.000 abans de que s'inventés el microscopi que ens permetria veure'ls. 00:09:49.000 --> 00:09:52.000 Està limitat pels biaixos cognitius. 00:09:52.000 --> 00:09:54.000 Té l'habilitat 00:09:54.000 --> 00:09:56.000 d'anular les sensacions. NOTE Paragraph 00:09:56.000 --> 00:09:59.000 D'on treiem els models? D'altres llocs. 00:09:59.000 --> 00:10:02.000 De la religió, la cultura, 00:10:02.000 --> 00:10:04.000 els professors, les persones grans. 00:10:04.000 --> 00:10:06.000 Fa un parell d'anys, 00:10:06.000 --> 00:10:08.000 vaig fer un safari a Sudàfrica. 00:10:08.000 --> 00:10:11.000 El rastrejador amb qui anava va críxer al Kruger National Park. 00:10:11.000 --> 00:10:14.000 Tenia alguns models força complexos sobre com sobreviure. 00:10:14.000 --> 00:10:16.000 En funció de si t'atacava 00:10:16.000 --> 00:10:18.000 un lleó, un lleopard, un rinoceront o un elefant, 00:10:18.000 --> 00:10:21.000 s'havia de córrer o enfilar-se a un arbre 00:10:21.000 --> 00:10:23.000 o no enfilar-s'hi mai. 00:10:23.000 --> 00:10:26.000 Jo no hauria sobreviscut ni un dia, 00:10:26.000 --> 00:10:28.000 però ell va néixer allà 00:10:28.000 --> 00:10:30.000 i entenia com sobreviure-hi. 00:10:30.000 --> 00:10:32.000 Jo vaig néixer a Nova York. 00:10:32.000 --> 00:10:35.000 Si l'hagués dut a Nova York, no hauria sobreviscut ni un dia. 00:10:35.000 --> 00:10:37.000 (Rialles) 00:10:37.000 --> 00:10:39.000 La raó és que teníem diferents models 00:10:39.000 --> 00:10:42.000 que es basaven en experiències diferents. NOTE Paragraph 00:10:43.000 --> 00:10:45.000 Models que provenen dels mitjans de comunicació, 00:10:45.000 --> 00:10:48.000 dels funcionaris electes. 00:10:48.000 --> 00:10:51.000 Models de terrorisme, 00:10:51.000 --> 00:10:54.000 de segrest de nens, 00:10:54.000 --> 00:10:56.000 de seguretat aèria, de seguretat en carretera. 00:10:56.000 --> 00:10:59.000 Els models poden tenir l'origen a la indústria. 00:10:59.000 --> 00:11:01.000 Per exemple, les càmeres de vigilància 00:11:01.000 --> 00:11:03.000 o els carnets d'identitat, 00:11:03.000 --> 00:11:06.000 molts dels nostres models de seguretat computeritzats provenen d'aquí. 00:11:06.000 --> 00:11:09.000 Molts models provenen de la ciència. 00:11:09.000 --> 00:11:11.000 Els models de salut són un bon exemple. 00:11:11.000 --> 00:11:14.000 Penseu en el càncer, en la grip aviària, la grip porcina o la síndrome respiratòria aguda greu. 00:11:14.000 --> 00:11:17.000 La sensació de seguretat que tenim 00:11:17.000 --> 00:11:19.000 enfront aquestes malalties 00:11:19.000 --> 00:11:21.000 venen de models 00:11:21.000 --> 00:11:24.000 que ens ha donat la ciència a través dels mitjans de comunicació. 00:11:25.000 --> 00:11:28.000 Els models poden canviar. 00:11:28.000 --> 00:11:30.000 No són estàtics. 00:11:30.000 --> 00:11:33.000 A mida que es sentim més còmodes en un medi, 00:11:33.000 --> 00:11:37.000 el model s'apropa a les sensacions. NOTE Paragraph 00:11:38.000 --> 00:11:40.000 Un exemple podria ser el següent: 00:11:40.000 --> 00:11:42.000 pensen en fa 100 anys, 00:11:42.000 --> 00:11:45.000 en el moment en què l'electricitat començava a estendre's; 00:11:45.000 --> 00:11:47.000 hi havia molts temors al voltant d'aquest descobriment. 00:11:47.000 --> 00:11:49.000 Hi havia gent que tenia por de prémer el timbre 00:11:49.000 --> 00:11:52.000 perque hi havia electricitat i era perillosa. 00:11:52.000 --> 00:11:55.000 Nosaltres ens sentim còmodes amb l'electricitat. 00:11:55.000 --> 00:11:57.000 Canviem bombetes 00:11:57.000 --> 00:11:59.000 sense ni tan sols pensar-hi. 00:11:59.000 --> 00:12:03.000 Hem nascut dins d'aquest model 00:12:03.000 --> 00:12:06.000 de seguretat pel que fa a l'electricitat. 00:12:06.000 --> 00:12:09.000 No ha canviat mentre ens feiem grans. 00:12:09.000 --> 00:12:12.000 Som bons fent-lo servir. 00:12:12.000 --> 00:12:14.000 Un altre exemple: penseu en els riscos 00:12:14.000 --> 00:12:16.000 d'Internet al llarg de generacions 00:12:16.000 --> 00:12:18.000 com els vostres pares enfoquen la seguretat pel que fa a Internet 00:12:18.000 --> 00:12:20.000 enfront a com ho feu vosaltres, 00:12:20.000 --> 00:12:23.000 enfront a com ho faran els vostres fills. 00:12:23.000 --> 00:12:26.000 Els models acaben per esvair-se. 00:12:27.000 --> 00:12:30.000 La intuició és un sinòmin de familiar. NOTE Paragraph 00:12:30.000 --> 00:12:32.000 Quan el model està a prop de la realitat 00:12:32.000 --> 00:12:34.000 i s'uneix a les sensacions, 00:12:34.000 --> 00:12:37.000 no sabem que hi és. 00:12:37.000 --> 00:12:39.000 Un bon exemple d'això 00:12:39.000 --> 00:12:42.000 és la grip porcina. 00:12:42.000 --> 00:12:44.000 Quan va aparèixer per primera vegada, 00:12:44.000 --> 00:12:48.000 les notícies van provocar reaccions desmesurades. 00:12:48.000 --> 00:12:50.000 Era una enfermetat amb nom, 00:12:50.000 --> 00:12:52.000 la qual cosa que tinguéssim més por que no pas per la grip normal, 00:12:52.000 --> 00:12:54.000 tot i que aquesta última és més mortal. 00:12:54.000 --> 00:12:58.000 I la gent pensava que els metges havien de ser capaços de tractar-la. 00:12:58.000 --> 00:13:00.000 Hi havia, doncs, una sensació de falta de control. 00:13:00.000 --> 00:13:02.000 Aquests dos fets 00:13:02.000 --> 00:13:04.000 feien que el risc fos més gran del que era real. 00:13:04.000 --> 00:13:07.000 A mida que la novetat desapareixia i que passaven els mesos, 00:13:07.000 --> 00:13:09.000 va aparèixer una certa tolerància 00:13:09.000 --> 00:13:11.000 i la gent s'hi va acostumar. 00:13:11.000 --> 00:13:14.000 No hi havia nova informació, però hi havia menys por. 00:13:14.000 --> 00:13:16.000 A la tardor, 00:13:16.000 --> 00:13:18.000 la gent creia 00:13:18.000 --> 00:13:20.000 que els metges havien de tenir ja una solució. 00:13:20.000 --> 00:13:22.000 És una mena de bifurcació: 00:13:22.000 --> 00:13:24.000 la gent havia d'escollir 00:13:24.000 --> 00:13:28.000 entre por i acceptació; 00:13:28.000 --> 00:13:30.000 bé, millor dit, entre por i indiferència, 00:13:30.000 --> 00:13:33.000 i van escollir més aviat la sospita. 00:13:33.000 --> 00:13:36.000 I quan, a l'hivern, va aparèixer la vacuna 00:13:36.000 --> 00:13:39.000 va haver-hi molta gent (de fet, un nombre realment alt) 00:13:39.000 --> 00:13:42.000 que s'hi va negar. 00:13:43.000 --> 00:13:45.000 És un bon exemple 00:13:45.000 --> 00:13:48.000 de com les sensacions de seguretat i els models canvien, 00:13:48.000 --> 00:13:50.000 de forma un tant descontrolada, 00:13:50.000 --> 00:13:52.000 sense nova informació, 00:13:52.000 --> 00:13:54.000 sense noves dades. 00:13:54.000 --> 00:13:57.000 Coses com aquesta passen sovint. NOTE Paragraph 00:13:57.000 --> 00:14:00.000 Ho complicaré una mica més. 00:14:00.000 --> 00:14:03.000 Tenim la sensació, el model, la realitat. 00:14:03.000 --> 00:14:05.000 Tinc una visió molt relativista de la seguretat. 00:14:05.000 --> 00:14:08.000 Crec que depén de l'observador. 00:14:08.000 --> 00:14:10.000 Moltes decisions de seguretat 00:14:10.000 --> 00:14:14.000 comporten que hi hagi diferents persones involucrades. 00:14:14.000 --> 00:14:16.000 I els interessats 00:14:16.000 --> 00:14:19.000 que tenen sacrificis determinats 00:14:19.000 --> 00:14:21.000 intentaran influir en la decisió. 00:14:21.000 --> 00:14:23.000 És el que anomeno la seva agenda. 00:14:23.000 --> 00:14:25.000 Podem veure en aquestes agendes, 00:14:25.000 --> 00:14:28.000 (en màrqueting, en política) 00:14:28.000 --> 00:14:31.000 que intenten convèncer-vos d'un model enfront un altre, 00:14:31.000 --> 00:14:33.000 que intenten convèncer-vos d'ignorar un model 00:14:33.000 --> 00:14:36.000 i confiar en les vostres sensacions, 00:14:36.000 --> 00:14:39.000 aillant la gent que té models que no us agraden. 00:14:39.000 --> 00:14:42.000 No és gens estrany. 00:14:42.000 --> 00:14:45.000 Un bon exemple és el risc del tabaquisme. 00:14:46.000 --> 00:14:49.000 En els últims 50 anys, el risc del tabaquisme 00:14:49.000 --> 00:14:51.000 mostra com canvia un model 00:14:51.000 --> 00:14:54.000 i com la indústria lluita 00:14:54.000 --> 00:14:56.000 contra un model que no li agrada. 00:14:56.000 --> 00:14:59.000 Ho podem comparar al debat sobre el tabaquisme passiu, 00:14:59.000 --> 00:15:02.000 fa uns 20 anys aproximadament. 00:15:02.000 --> 00:15:04.000 Penseu en els cinturons de seguretat. 00:15:04.000 --> 00:15:06.000 Quan era petit, ningú no portava el cinturó de seguretat. 00:15:06.000 --> 00:15:08.000 Ara, cap nen no us deixarà conduir 00:15:08.000 --> 00:15:10.000 a menys que us poseu el cinturó. 00:15:11.000 --> 00:15:13.000 Ho podem comparar al debat sobre l'airbag, 00:15:13.000 --> 00:15:16.000 fa uns 30 anys aproximadament. NOTE Paragraph 00:15:16.000 --> 00:15:19.000 Són exemples de models que canvien. 00:15:21.000 --> 00:15:24.000 I el que aprenem és que és difícil canviar un model. 00:15:24.000 --> 00:15:26.000 És difícil desplaçar un model. 00:15:26.000 --> 00:15:28.000 Si model i sensació és el mateix, 00:15:28.000 --> 00:15:31.000 ni tan sols ens adonem que tenim un model. 00:15:31.000 --> 00:15:33.000 Hi ha un altre biaix cognitiu, 00:15:33.000 --> 00:15:35.000 que anomeno biaix de confirmació, 00:15:35.000 --> 00:15:38.000 i és que tenim tendència a aceptar la informació 00:15:38.000 --> 00:15:40.000 que confirma les nostres creences 00:15:40.000 --> 00:15:43.000 i a rebutjar la informació que les contradiu. 00:15:44.000 --> 00:15:46.000 És probable que no fem cas a la informació 00:15:46.000 --> 00:15:49.000 en contra del nostre model, encara que sigui molt persuasiva. 00:15:49.000 --> 00:15:52.000 Haurà de ser molt i molt persuasiva per a que hi parem atenció. 00:15:53.000 --> 00:15:55.000 Els models nous que s'estenen llargs períodes són difícils. 00:15:55.000 --> 00:15:57.000 L'escalfament global és un bon exemple. 00:15:57.000 --> 00:15:59.000 Som molt dolents 00:15:59.000 --> 00:16:01.000 amb models que abasten 80 anys. 00:16:01.000 --> 00:16:03.000 Podem ser-hi per a la propera collita. 00:16:03.000 --> 00:16:06.000 Podem ser-hi fins que els fills són grans. 00:16:06.000 --> 00:16:09.000 Però 80 anys, és massa temps per a nosaltres. 00:16:09.000 --> 00:16:12.000 És un model molt difícil d'acceptar. 00:16:12.000 --> 00:16:16.000 Podem tenir dos models al cap de forma simultània, 00:16:16.000 --> 00:16:19.000 com el tipus de problema 00:16:19.000 --> 00:16:22.000 on tenim dues creences al mateix temps; 00:16:22.000 --> 00:16:24.000 la dissonància cognitiva. 00:16:24.000 --> 00:16:26.000 Al final, 00:16:26.000 --> 00:16:29.000 el nou model substituirà l'antic. NOTE Paragraph 00:16:29.000 --> 00:16:32.000 Les sensacions fortes poden crear un model. 00:16:32.000 --> 00:16:35.000 L'onze de setembre va crear un model de seguretat 00:16:35.000 --> 00:16:37.000 a les ments de moltes persones. 00:16:37.000 --> 00:16:40.000 Les experiències personals relacionades amb delictes també en poden crear: 00:16:40.000 --> 00:16:42.000 un problema de salut personal, 00:16:42.000 --> 00:16:44.000 un problema de salut a les notícies. 00:16:44.000 --> 00:16:46.000 Són el que els psiquiatres anomenen 00:16:46.000 --> 00:16:48.000 esdeveniments flash. 00:16:48.000 --> 00:16:51.000 Poden crear un model de forma instantània 00:16:51.000 --> 00:16:54.000 perquè són esdeveniments molt emotius. NOTE Paragraph 00:16:54.000 --> 00:16:56.000 En el món tecnològic, 00:16:56.000 --> 00:16:58.000 no tenim experiència 00:16:58.000 --> 00:17:00.000 per jutjar els models. 00:17:00.000 --> 00:17:02.000 Confiem en altres. Confiem en intermediaris. 00:17:02.000 --> 00:17:06.000 És a dir, això funciona mentre sigui per corregir altres. 00:17:06.000 --> 00:17:08.000 Confiem que les agències gubernamentals 00:17:08.000 --> 00:17:13.000 ens diguin quins medicaments són segurs. 00:17:13.000 --> 00:17:15.000 Vaig arribar aquí ahir en avió. 00:17:15.000 --> 00:17:17.000 No vaig examinar l'aparell. 00:17:17.000 --> 00:17:19.000 Vaig confiar en un altre grup 00:17:19.000 --> 00:17:22.000 perquè decidís si era segur volar en aquell avió. 00:17:22.000 --> 00:17:25.000 Estem aquí; ningú no té por que el sostre caigui, 00:17:25.000 --> 00:17:28.000 no perquè ho hem inspeccionat 00:17:28.000 --> 00:17:30.000 sinó perquè estem força segurs 00:17:30.000 --> 00:17:33.000 que els codis de construcció són bons. 00:17:33.000 --> 00:17:35.000 És un model que acceptem 00:17:35.000 --> 00:17:37.000 quasi per fe. 00:17:37.000 --> 00:17:40.000 I està bé. NOTE Paragraph 00:17:42.000 --> 00:17:44.000 El que volem 00:17:44.000 --> 00:17:46.000 és que la gent es familiaritzi 00:17:46.000 --> 00:17:48.000 amb models millors 00:17:48.000 --> 00:17:50.000 (que siguin un reflex de les seves sensacions) 00:17:50.000 --> 00:17:54.000 que els permetin fer sacrificis de seguretat. 00:17:54.000 --> 00:17:56.000 Quan aquests es desequilibren, 00:17:56.000 --> 00:17:58.000 tenim dues opcions. 00:17:58.000 --> 00:18:00.000 En primer lloc, podem arreglar les sensacions de la gent, 00:18:00.000 --> 00:18:02.000 apel·lant directament a les seves sensacions. 00:18:02.000 --> 00:18:05.000 És manipulatiu, però pot funcionar. 00:18:05.000 --> 00:18:07.000 L'altra manera, més honesta, 00:18:07.000 --> 00:18:10.000 és realment arreglar el model. 00:18:11.000 --> 00:18:13.000 Els canvis són lents. 00:18:13.000 --> 00:18:16.000 El debat sobre el tabac va durar 40 anys 00:18:16.000 --> 00:18:19.000 i es tractava d'un model fàcil. 00:18:19.000 --> 00:18:21.000 Alguns són complicats. 00:18:21.000 --> 00:18:23.000 El que vull dir és que 00:18:23.000 --> 00:18:25.000 sembla que la informació és la millor esperança. NOTE Paragraph 00:18:25.000 --> 00:18:27.000 He dit una mentida. 00:18:27.000 --> 00:18:29.000 Recordeu quan he parlat de sensació, model i realitat? 00:18:29.000 --> 00:18:32.000 He dit que la realitat no canvia. De fet, sí que ho fa. 00:18:32.000 --> 00:18:34.000 Vivim en un món tecnològic; 00:18:34.000 --> 00:18:37.000 la realitat canvia constantment. 00:18:37.000 --> 00:18:40.000 Per primera vegada en la història de la nostra espècie, podem trobar-nos amb el cas 00:18:40.000 --> 00:18:43.000 en què la sensació persegueix el model, el model persegueix la realitat, 00:18:43.000 --> 00:18:46.000 la realitat es mou; potser mai no s'enxamparan. 00:18:47.000 --> 00:18:49.000 No ho sabem. 00:18:49.000 --> 00:18:51.000 Però a la llarga, 00:18:51.000 --> 00:18:54.000 tant la sensació com la realitat són importants. 00:18:54.000 --> 00:18:57.000 Vull acabar amb dues breus històries per il·lustrar això. NOTE Paragraph 00:18:57.000 --> 00:18:59.000 1982. No sé si recordeu 00:18:59.000 --> 00:19:02.000 que hi va haver una epidèmia curta 00:19:02.000 --> 00:19:04.000 d'enverinament de Tylenol als Estats Units. 00:19:04.000 --> 00:19:07.000 És una història terrible: algú va prendre una ampolla de Tylenol, 00:19:07.000 --> 00:19:10.000 hi va posar verí, la va tancar i la va deixar a la prestatgeria. 00:19:10.000 --> 00:19:12.000 Una altra persona la va comprar i va morir. 00:19:12.000 --> 00:19:14.000 La gent estqava aterrida. 00:19:14.000 --> 00:19:16.000 Hi va haver un parell d'imitacions. 00:19:16.000 --> 00:19:19.000 No hi havia cap risc real, però la gent estava espantada. 00:19:19.000 --> 00:19:21.000 Així és com va aparèixer 00:19:21.000 --> 00:19:23.000 la indústria de segellament de medicaments. 00:19:23.000 --> 00:19:25.000 Així és com van aparèixer els taps segellats. 00:19:25.000 --> 00:19:27.000 És el teatre de seguretat complet. 00:19:27.000 --> 00:19:29.000 Us posaré deures: penseu en 10 maneres de d'evitar-los. 00:19:29.000 --> 00:19:32.000 Un en diré una: una xeringa. 00:19:32.000 --> 00:19:35.000 Però va fer que la gent se sentís millor. 00:19:35.000 --> 00:19:37.000 Va fer que la sensació de seguretat 00:19:37.000 --> 00:19:39.000 s'apropés a la realitat. NOTE Paragraph 00:19:39.000 --> 00:19:42.000 L'última història, fa uns anys. Una amiga meva té un fill. 00:19:42.000 --> 00:19:44.000 La vaig anar a veure a l'hospital. 00:19:44.000 --> 00:19:46.000 Ara quan neix un nen, 00:19:46.000 --> 00:19:48.000 li posen una pulsera RFID al nadó 00:19:48.000 --> 00:19:50.000 i una altra a la mare, 00:19:50.000 --> 00:19:52.000 de manera que si algú que no és la mare prova de treure el nen de l'àrea de maternitat, 00:19:52.000 --> 00:19:54.000 es dispara l'alarma. 00:19:54.000 --> 00:19:56.000 Vaig dir, "Això és força ingeniós. 00:19:56.000 --> 00:19:58.000 Em pregunto 00:19:58.000 --> 00:20:00.000 fora dels hospitals". 00:20:00.000 --> 00:20:02.000 Quan vaig arribar a casa, ho vaig mirar. 00:20:02.000 --> 00:20:04.000 No passa gairebé mai. 00:20:04.000 --> 00:20:06.000 Però penseu-ho bé: 00:20:06.000 --> 00:20:08.000 si esteu a l'hospital 00:20:08.000 --> 00:20:10.000 i heu de prendre el nadó lluny de la seva mare 00:20:10.000 --> 00:20:12.000 i fora de la sala per fer-li proves, 00:20:12.000 --> 00:20:14.000 és millor tenir un bon teatre de seguretat 00:20:14.000 --> 00:20:16.000 o la mare us arrencarà el braç. NOTE Paragraph 00:20:16.000 --> 00:20:18.000 (Rialles) NOTE Paragraph 00:20:18.000 --> 00:20:20.000 És important per aquells de nosaltres 00:20:20.000 --> 00:20:22.000 que dissenyem la seguretat, 00:20:22.000 --> 00:20:25.000 que observem les polítiques de seguretat 00:20:25.000 --> 00:20:27.000 o fins i tot les polítiques públiques 00:20:27.000 --> 00:20:29.000 en formes que afecten la seguretat. 00:20:29.000 --> 00:20:32.000 No és només realitat, és sensació i realitat. 00:20:32.000 --> 00:20:34.000 El que és important 00:20:34.000 --> 00:20:36.000 és que són pràcticament el mateix. 00:20:36.000 --> 00:20:38.000 Si les nostres sensacions són iguals a la realitat, 00:20:38.000 --> 00:20:40.000 és important que fem prenem bones decisions de seguretat. NOTE Paragraph 00:20:40.000 --> 00:20:42.000 Gràcies. NOTE Paragraph 00:20:42.000 --> 00:20:44.000 (Aplaudiments)