WEBVTT 00:00:00.000 --> 00:00:02.000 Dunque, la sicurezza ha due aspetti distinti: 00:00:02.000 --> 00:00:04.000 è una sensazione, ed è una realtà. 00:00:04.000 --> 00:00:06.000 E queste sono due cose differenti. 00:00:06.000 --> 00:00:08.000 Vi potreste sentire sicuri 00:00:08.000 --> 00:00:10.000 anche se non lo siete. 00:00:10.000 --> 00:00:12.000 E potete essere al sicuro 00:00:12.000 --> 00:00:14.000 anche se non ne avete la sensazione. 00:00:14.000 --> 00:00:16.000 In realtà, attribuiamo due concetti separati 00:00:16.000 --> 00:00:18.000 alla stessa parola. 00:00:18.000 --> 00:00:20.000 E quello che voglio fare in questo discorso 00:00:20.000 --> 00:00:22.000 è di dividerli – 00:00:22.000 --> 00:00:24.000 cercando di capire in che modo divergano 00:00:24.000 --> 00:00:26.000 ed in che modo convergano. 00:00:26.000 --> 00:00:28.000 Il linguaggio è effettivamente un problema in questo caso. 00:00:28.000 --> 00:00:30.000 Non ci sono tante parole adatte 00:00:30.000 --> 00:00:33.000 per i concetti dei quali parleremo oggi. NOTE Paragraph 00:00:33.000 --> 00:00:35.000 Quindi, se pensate al concetto di sicurezza 00:00:35.000 --> 00:00:37.000 in termini economici 00:00:37.000 --> 00:00:39.000 è un compromesso, una scelta. 00:00:39.000 --> 00:00:41.000 Ogni volta che decidete di accrescere la vostra sicurezza, 00:00:41.000 --> 00:00:43.000 dovete sempre rinunciare a qualcosa. 00:00:43.000 --> 00:00:45.000 Sia che si tratti di una decisione personale – 00:00:45.000 --> 00:00:47.000 se ad esempio volete installare un allarme contro i ladri in casa vostra – 00:00:47.000 --> 00:00:50.000 o che si tratti di una decisione a livello nazionale – se ad esempio volete invadere un paese straniero – 00:00:50.000 --> 00:00:52.000 dovrete rinunciare a qualcosa, 00:00:52.000 --> 00:00:55.000 denaro, tempo, convenienza, o capacità, 00:00:55.000 --> 00:00:58.000 forse libertà fondamentali. 00:00:58.000 --> 00:01:01.000 E la domanda da fare su qualsiasi cosa inerente alla sicurezza 00:01:01.000 --> 00:01:04.000 non è tanto se questa ci renda più sicuri, 00:01:04.000 --> 00:01:07.000 ma piuttosto se ne valga la pena. 00:01:07.000 --> 00:01:09.000 Negli scorsi anni avete sentito dire 00:01:09.000 --> 00:01:11.000 che il mondo è più sicuro, ora che Saddam Hussein non è più al potere. 00:01:11.000 --> 00:01:14.000 Potrebbe essere vero, ma non è di fondamentale importanza. 00:01:14.000 --> 00:01:17.000 La domanda è, ne è valsa la pena? 00:01:17.000 --> 00:01:20.000 E voi potete decidere da soli, 00:01:20.000 --> 00:01:22.000 e poi concluderete se sia valsa la pena di optare per l'invasione. 00:01:22.000 --> 00:01:24.000 Ecco come pensare al concetto di sicurezza – 00:01:24.000 --> 00:01:26.000 in termini di scelte. NOTE Paragraph 00:01:26.000 --> 00:01:29.000 Spesso non c'è "giusto" o "sbagliato" in queste cose. 00:01:29.000 --> 00:01:31.000 Alcuni di noi hanno in casa propria un sistema d'allarme contro i ladri, 00:01:31.000 --> 00:01:33.000 altri no. 00:01:33.000 --> 00:01:35.000 E dipenderà da dove viviamo, 00:01:35.000 --> 00:01:37.000 se viviamo da soli o abbiamo una famiglia, 00:01:37.000 --> 00:01:39.000 quanta bella roba abbiamo, 00:01:39.000 --> 00:01:41.000 quanto siamo pronti ad accettare 00:01:41.000 --> 00:01:43.000 il rischio del furto. 00:01:43.000 --> 00:01:45.000 Anche in politica 00:01:45.000 --> 00:01:47.000 ci sono differenti opinioni. 00:01:47.000 --> 00:01:49.000 Parecchie volte, queste scelte 00:01:49.000 --> 00:01:51.000 non hanno solo a che fare con la sicurezza, 00:01:51.000 --> 00:01:53.000 ed io penso che questo sia veramente importante. 00:01:53.000 --> 00:01:55.000 Ora, la gente ha un'intuizione naturale 00:01:55.000 --> 00:01:57.000 riguardo a queste scelte. 00:01:57.000 --> 00:01:59.000 Le facciamo tutti i giorni – 00:01:59.000 --> 00:02:01.000 la notte scorsa, nella mia stanza d'albergo, 00:02:01.000 --> 00:02:03.000 quando ho deciso di chiudere la porta con due mandate, 00:02:03.000 --> 00:02:05.000 oppure voi nella vostra macchina, mentre venivate qui, 00:02:05.000 --> 00:02:07.000 quando pranziamo fuori 00:02:07.000 --> 00:02:10.000 e decidiamo che il cibo non è veleno e che lo mangeremo. 00:02:10.000 --> 00:02:12.000 Facciamo queste scelte continuamente 00:02:12.000 --> 00:02:14.000 più volte al giorno. 00:02:14.000 --> 00:02:16.000 Spesso senza neppure accorgercene. 00:02:16.000 --> 00:02:18.000 Fanno semplicemente parte dell'essere vivi; lo facciamo tutti. NOTE Paragraph 00:02:18.000 --> 00:02:21.000 Ogni specie lo fa. 00:02:21.000 --> 00:02:23.000 Immaginate un coniglio che mangia l'erba in un campo, 00:02:23.000 --> 00:02:26.000 ed il coniglio vede una volpe. 00:02:26.000 --> 00:02:28.000 Quel coniglio farà una scelta per la sua sicurezza: 00:02:28.000 --> 00:02:30.000 "Devo restare, o devo scappare?" 00:02:30.000 --> 00:02:32.000 E se ci riflettete, 00:02:32.000 --> 00:02:35.000 i conigli bravi a fare quel tipo di scelta 00:02:35.000 --> 00:02:37.000 tenderanno a vivere e riprodursi, 00:02:37.000 --> 00:02:39.000 mentre i conigli meno bravi 00:02:39.000 --> 00:02:41.000 verranno mangiati o moriranno di fame. 00:02:41.000 --> 00:02:43.000 Quindi si penserebbe 00:02:43.000 --> 00:02:46.000 che noi, in qualità di specie vincente su questo pianeta – 00:02:46.000 --> 00:02:48.000 voi, io, tutti – 00:02:48.000 --> 00:02:51.000 siamo veramente bravi a fare queste scelte. 00:02:51.000 --> 00:02:53.000 Ma ogni volta la realtà ci dimostra che 00:02:53.000 --> 00:02:56.000 siamo inesorabilmente negati. 00:02:56.000 --> 00:02:59.000 Ed io credo che questa sia una questione fondamentalmente interessante. NOTE Paragraph 00:02:59.000 --> 00:03:01.000 Vi darò la risposta breve. 00:03:01.000 --> 00:03:03.000 La risposta è: noi rispondiamo alla sensazione di sicurezza 00:03:03.000 --> 00:03:06.000 e non alla realtà. 00:03:06.000 --> 00:03:09.000 Ora, il più delle volte, questo funziona. 00:03:10.000 --> 00:03:12.000 Il più delle volte, 00:03:12.000 --> 00:03:15.000 la sensazione e la realtà coincidono. 00:03:15.000 --> 00:03:17.000 Certamente questo è vero 00:03:17.000 --> 00:03:20.000 per la maggior parte della preistoria umana. 00:03:20.000 --> 00:03:23.000 Abbiamo sviluppato questa abilità 00:03:23.000 --> 00:03:25.000 perchè questo trova riscontro nell'evoluzione. 00:03:25.000 --> 00:03:27.000 Un modo di vedere questo concetto 00:03:27.000 --> 00:03:29.000 è che siamo estremamente attrezzati 00:03:29.000 --> 00:03:31.000 per scelte rischiose 00:03:31.000 --> 00:03:34.000 endemiche al vivere in piccoli gruppi familiari 00:03:34.000 --> 00:03:37.000 negli altipiani dell'Africa Orientale nel 100.000 A.C. (Avanti Cristo) – 00:03:37.000 --> 00:03:40.000 non così nella New York del 2010. NOTE Paragraph 00:03:41.000 --> 00:03:44.000 Ora, ci sono parecchi preconcetti nella percezione dei rischi. 00:03:44.000 --> 00:03:46.000 Tanti buoni esperimenti in questo campo. 00:03:46.000 --> 00:03:49.000 Potete osservare certi preconcetti, o distorsioni, che continuano a riaffiorare. 00:03:49.000 --> 00:03:51.000 Ve ne darò quattro. 00:03:51.000 --> 00:03:54.000 Noi tendiamo ad esagerare rischi spettacolari e rari 00:03:54.000 --> 00:03:56.000 ed a minimizzare quelli comuni, 00:03:56.000 --> 00:03:59.000 come ad esempio il volare rispetto al guidare. 00:03:59.000 --> 00:04:01.000 L'ignoto viene percepito 00:04:01.000 --> 00:04:04.000 come più rischioso del familiare. 00:04:05.000 --> 00:04:07.000 Un esempio sarebbe 00:04:07.000 --> 00:04:10.000 che la gente teme il rapimento da parte di estranei, 00:04:10.000 --> 00:04:13.000 mentre il rapimento da parte di familiari è statisticamente molto più comune. 00:04:13.000 --> 00:04:15.000 Questo per quanto riguarda i bambini. 00:04:15.000 --> 00:04:18.000 Terzo, i rischi personificati 00:04:18.000 --> 00:04:21.000 vengono percepiti come maggiori dei rischi anonimi, 00:04:21.000 --> 00:04:24.000 e quindi Bin Laden fa più paura, perché ha un nome. 00:04:24.000 --> 00:04:26.000 Ed il quarto 00:04:26.000 --> 00:04:28.000 è che la gente sottovaluta i rischi 00:04:28.000 --> 00:04:30.000 nelle situazioni sulle quali ha controllo, 00:04:30.000 --> 00:04:34.000 mentre li sopravvaluta in quelle che non può controllare. 00:04:34.000 --> 00:04:37.000 Quindi, una volta che iniziate a fare skydiving oppure a fumare, 00:04:37.000 --> 00:04:39.000 ne minimizzate i rischi. 00:04:39.000 --> 00:04:42.000 Se un rischio vi arriva da fuori – il terrorismo era un buon esempio – 00:04:42.000 --> 00:04:45.000 lo sopravvaluterete, perché non avete la sensazione di esserne in controllo. NOTE Paragraph 00:04:47.000 --> 00:04:50.000 Ci sono un sacco di altre predisposizioni innate, questi errori sistematici cognitivi, 00:04:50.000 --> 00:04:53.000 che influenzano le nostre decisioni di fronte al rischio. 00:04:53.000 --> 00:04:55.000 C'è l'euristica della disponibilità, 00:04:55.000 --> 00:04:57.000 che sostanzialmente significa 00:04:57.000 --> 00:05:00.000 che noi stimiamo la probabilità di un evento 00:05:00.000 --> 00:05:04.000 sulla base della facilità con cui siamo in grado di pensare ad esempi relativi. 00:05:04.000 --> 00:05:06.000 Quindi potete immaginare come funziona. 00:05:06.000 --> 00:05:09.000 Se sentite parlare tanto di attacchi di tigri, ci devono essere un sacco di tigri in giro. 00:05:09.000 --> 00:05:12.000 Se non sentite parlare di attacchi di leoni, non ci sono tanti leoni in giro. 00:05:12.000 --> 00:05:15.000 Questo funziona finchè inventate i giornali. 00:05:15.000 --> 00:05:17.000 Perchè quello che i giornali fanno 00:05:17.000 --> 00:05:19.000 è di ripetere continuamente 00:05:19.000 --> 00:05:21.000 i rischi rari. 00:05:21.000 --> 00:05:23.000 Io dico alla gente, se fa notizia, non ve ne preoccupate. 00:05:23.000 --> 00:05:25.000 Perchè, per definizione, 00:05:25.000 --> 00:05:28.000 la notizia è qualcosa che non succede quasi mai. 00:05:28.000 --> 00:05:30.000 (Risate) 00:05:30.000 --> 00:05:33.000 Quando qualcosa è così comune, non fa più notizia; 00:05:33.000 --> 00:05:35.000 incidenti d'auto, violenza domestica, 00:05:35.000 --> 00:05:38.000 quelli sono i rischi dei quali vi dovete preoccupare. NOTE Paragraph 00:05:38.000 --> 00:05:40.000 Noi siamo anche una specie di "raccontastorie". 00:05:40.000 --> 00:05:43.000 Rispondiamo alle storie molto più che ai numeri. 00:05:43.000 --> 00:05:45.000 E poi c'`è anche un po' di analfabetismo numerico di base. 00:05:45.000 --> 00:05:48.000 Intendo dire, la battuta "Uno, due, tre, tanti" è abbastanza giusta. 00:05:48.000 --> 00:05:51.000 Siamo veramente bravi con i numeri piccoli. 00:05:51.000 --> 00:05:53.000 Un mango, due manghi, tre manghi, 00:05:53.000 --> 00:05:55.000 10.000 manghi, 100.000 manghi, 00:05:55.000 --> 00:05:58.000 sono sempre più manghi di quanti ne potreste mangiare prima che marciscano tutti. 00:05:58.000 --> 00:06:01.000 Metà, un quarto, un quinto; siamo bravi in questo. 00:06:01.000 --> 00:06:03.000 Uno su un milione, uno su un miliardo... 00:06:03.000 --> 00:06:06.000 entrambi sono come dire "quasi mai". 00:06:06.000 --> 00:06:08.000 Quindi abbiamo problemi con i rischi 00:06:08.000 --> 00:06:10.000 che non sono molto comuni. NOTE Paragraph 00:06:10.000 --> 00:06:12.000 E quello che fanno queste distorsioni cognitive, 00:06:12.000 --> 00:06:15.000 è di fungere da filtri tra noi e la realtà. 00:06:15.000 --> 00:06:17.000 Ed il risultato 00:06:17.000 --> 00:06:19.000 è che sensazione e realtà vanno fuori fase, 00:06:19.000 --> 00:06:22.000 diventano diversi. 00:06:22.000 --> 00:06:25.000 Ora, o avete una sensazione, vi sentite più sicuri di quanto lo siate in realtà. 00:06:25.000 --> 00:06:27.000 C'è un falso senso di sicurezza. 00:06:27.000 --> 00:06:29.000 Oppure succede l'opposto, 00:06:29.000 --> 00:06:31.000 che è un falso senso di insicurezza. 00:06:31.000 --> 00:06:34.000 Io scrivo parecchio sul "teatro della sicurezza", 00:06:34.000 --> 00:06:37.000 prodotti che fanno sentire sicura la gente, 00:06:37.000 --> 00:06:39.000 ma che in effetti non fanno niente. 00:06:39.000 --> 00:06:41.000 Non c'è una vera parola per descrivere cose che ci rendono sicuri, 00:06:41.000 --> 00:06:43.000 ma non ci fanno sentire sicuri. 00:06:43.000 --> 00:06:46.000 Forse è quello che la CIA dovrebbe fare per noi. NOTE Paragraph 00:06:48.000 --> 00:06:50.000 Allora, ritornando all'economia. 00:06:50.000 --> 00:06:54.000 Se l'economia, se il mercato, traina la sicurezza, 00:06:54.000 --> 00:06:56.000 e se la gente fa delle scelte 00:06:56.000 --> 00:06:59.000 basate sulla sensazione di sicurezza, 00:06:59.000 --> 00:07:01.000 allora la cosa intelligente da fare per le aziende 00:07:01.000 --> 00:07:03.000 per gli incentivi economici 00:07:03.000 --> 00:07:06.000 è di far sentire sicura la gente. 00:07:06.000 --> 00:07:09.000 E ci sono due modi per ottenere questo. 00:07:09.000 --> 00:07:11.000 Uno, potete rendere la gente davvero sicura 00:07:11.000 --> 00:07:13.000 e sperare che se ne accorga. 00:07:13.000 --> 00:07:16.000 O due, potete solamente farla sentire sicura 00:07:16.000 --> 00:07:19.000 e sperare che non se ne accorga. 00:07:20.000 --> 00:07:23.000 Quindi, cos'è che fa in modo che la gente se ne accorga? 00:07:23.000 --> 00:07:25.000 Beh, un paio di cose: 00:07:25.000 --> 00:07:27.000 capire la sicurezza, 00:07:27.000 --> 00:07:29.000 i rischi associati, le minacce, 00:07:29.000 --> 00:07:32.000 le contromisure, come tutto funziona. 00:07:32.000 --> 00:07:34.000 Ma se sapete come funzionano le cose, 00:07:34.000 --> 00:07:37.000 è più probabile che le vostre sensazioni corrispondano alla realtà. 00:07:37.000 --> 00:07:40.000 Ci sono abbastanza esempi reali che aiutano. NOTE Paragraph 00:07:40.000 --> 00:07:43.000 Ora, tutti noi conosciamo il tasso di criminalità del nostro vicinato, 00:07:43.000 --> 00:07:46.000 perchè viviamo lì e abbiamo una sensazione su come vanno le cose 00:07:46.000 --> 00:07:49.000 che sostanzialmente corrisponde alla realtà. 00:07:49.000 --> 00:07:52.000 Il teatro della sicurezza è smascherato 00:07:52.000 --> 00:07:55.000 quando è palese che non funziona come dovrebbe. 00:07:55.000 --> 00:07:59.000 Okay, quindi, cos'è che fa in modo che la gente non si accorga? 00:07:59.000 --> 00:08:01.000 Beh, la scarsa comprensione. 00:08:01.000 --> 00:08:04.000 Se non capite i rischi, se non capite i costi, 00:08:04.000 --> 00:08:06.000 probabilmente sbaglierete le scelte, 00:08:06.000 --> 00:08:09.000 e la vostra sensazione non corrisponderà alla realtà. 00:08:09.000 --> 00:08:11.000 Non ci sono abbastanza esempi. 00:08:11.000 --> 00:08:13.000 C'è un problema di base 00:08:13.000 --> 00:08:15.000 relativo ad eventi di scarsa probabilità. 00:08:15.000 --> 00:08:17.000 Se, ad esempio, 00:08:17.000 --> 00:08:19.000 il terrorismo non si verifica quasi mai, 00:08:19.000 --> 00:08:21.000 è veramente difficile giudicare 00:08:21.000 --> 00:08:24.000 l'efficacia delle misure antiterroristiche. 00:08:25.000 --> 00:08:28.000 Questa è la ragione per cui si continuano a sacrificare delle vergini, 00:08:28.000 --> 00:08:31.000 e perchè la difesa dell'unicorno funziona alla grande. 00:08:31.000 --> 00:08:34.000 Non ci sono sufficienti esempi di fallimenti. 00:08:35.000 --> 00:08:38.000 Ed inoltre, ci sono sensazioni che offuscano la visione delle cose, 00:08:38.000 --> 00:08:40.000 le distorsioni cognitive di cui parlavo prima, 00:08:40.000 --> 00:08:43.000 paure, credenze popolari, 00:08:43.000 --> 00:08:46.000 sostanzialmente, un modello inadeguato della realtà. NOTE Paragraph 00:08:47.000 --> 00:08:50.000 Consentitemi di complicare ulteriormente le cose. 00:08:50.000 --> 00:08:52.000 Abbiamo sensazione e realtà. 00:08:52.000 --> 00:08:55.000 Voglio aggiungere un terzo elemento. Voglio aggiungere modello. 00:08:55.000 --> 00:08:57.000 La sensazione ed il modello sono nella nostra mente, 00:08:57.000 --> 00:08:59.000 la realtà è il mondo esterno. 00:08:59.000 --> 00:09:02.000 Non cambia; è reale. 00:09:02.000 --> 00:09:04.000 Dunque, la sensazione dipende dalla nostra intuizione. 00:09:04.000 --> 00:09:06.000 Il modello, dal ragionamento. 00:09:06.000 --> 00:09:09.000 Questa è sostanzialmente la differenza. 00:09:09.000 --> 00:09:11.000 In un mondo primitivo e semplice, 00:09:11.000 --> 00:09:14.000 il modello non ha veramente ragion d'essere. 00:09:14.000 --> 00:09:17.000 Perché la sensazione è vicina alla realtà. 00:09:17.000 --> 00:09:19.000 Non c'è bisogno di un modello. 00:09:19.000 --> 00:09:21.000 Ma, in un mondo moderno e complesso, 00:09:21.000 --> 00:09:23.000 occorrono modelli 00:09:23.000 --> 00:09:26.000 per capire molti dei rischi che corriamo. 00:09:27.000 --> 00:09:29.000 Non c'è nessuna sensazione riguardo ai germi. 00:09:29.000 --> 00:09:32.000 Occorre un modello per capirli. 00:09:32.000 --> 00:09:34.000 Ora, questo modello 00:09:34.000 --> 00:09:37.000 è un'intelligente rappresentazione della realtà. 00:09:37.000 --> 00:09:40.000 È, naturalmente, limitato dalla scienza, 00:09:40.000 --> 00:09:42.000 dalla tecnologia. 00:09:42.000 --> 00:09:45.000 Non potevamo avere una teoria sui germi patogeni 00:09:45.000 --> 00:09:48.000 prima che inventassimo il microscopio per poterli vedere. 00:09:49.000 --> 00:09:52.000 È limitato dalle nostre distorsioni cognitive. 00:09:52.000 --> 00:09:54.000 Ma ha la capacità 00:09:54.000 --> 00:09:56.000 di essere più forte delle nostre sensazioni. NOTE Paragraph 00:09:56.000 --> 00:09:59.000 Da dove prendiamo questi modelli? Li prendiamo dagli altri. 00:09:59.000 --> 00:10:02.000 Li prendiamo dalla religione, dalla cultura, 00:10:02.000 --> 00:10:04.000 dai maestri, dagli anziani. 00:10:04.000 --> 00:10:06.000 Un paio di anni fa 00:10:06.000 --> 00:10:08.000 mi trovavo in Sud Africa per un safari. 00:10:08.000 --> 00:10:11.000 La guida con cui stavo era cresciuta nel Parco Nazionale di Kruger. 00:10:11.000 --> 00:10:14.000 Aveva dei modelli di sopravvivenza molto complicati. 00:10:14.000 --> 00:10:16.000 A seconda di chi era l'aggressore, 00:10:16.000 --> 00:10:18.000 un leone, un leopardo, un rinoceronte o un elefante, 00:10:18.000 --> 00:10:21.000 diceva quando dovevate scappare, quando arrampicarvi su un albero, 00:10:21.000 --> 00:10:23.000 e quando non avreste mai dovuto arrampicarvi su un albero. 00:10:23.000 --> 00:10:26.000 Io sarei morto in un giorno, 00:10:26.000 --> 00:10:28.000 ma lui era nato lì, 00:10:28.000 --> 00:10:30.000 ed aveva capito come sopravvivere. 00:10:30.000 --> 00:10:32.000 Io sono nato a New York City. 00:10:32.000 --> 00:10:35.000 Avrei potuto portarlo a New York, e lui sarebbe morto in un giorno. 00:10:35.000 --> 00:10:37.000 (Risate) 00:10:37.000 --> 00:10:39.000 Perchè avevamo differenti modelli 00:10:39.000 --> 00:10:42.000 basati sulle nostre differenti esperienze. NOTE Paragraph 00:10:43.000 --> 00:10:45.000 I modelli possono derivare dai media, 00:10:45.000 --> 00:10:48.000 dalle autorità costituite. 00:10:48.000 --> 00:10:51.000 Pensate ai modelli di terrorismo, 00:10:51.000 --> 00:10:54.000 di rapimento di bambini, 00:10:54.000 --> 00:10:56.000 di sicurezza delle linee aeree, di sicurezza delle automobili. 00:10:56.000 --> 00:10:59.000 I modelli possono venire dall'industria. 00:10:59.000 --> 00:11:01.000 I due che sto seguendo sono le telecamere di sorveglianza, 00:11:01.000 --> 00:11:03.000 le carte d'identità, 00:11:03.000 --> 00:11:06.000 una gran parte dei nostri modelli di sicurezza informatica vengono da lì. 00:11:06.000 --> 00:11:09.000 Moltissimi modelli vengono dalla scienza. 00:11:09.000 --> 00:11:11.000 I modelli della salute sono un ottimo esempio. 00:11:11.000 --> 00:11:14.000 Pensate al cancro, all'influenza aviaria, a quella suina, alla SARS. 00:11:14.000 --> 00:11:17.000 Tutte le nostre sensazioni di sicurezza 00:11:17.000 --> 00:11:19.000 su queste malattie 00:11:19.000 --> 00:11:21.000 derivano da modelli 00:11:21.000 --> 00:11:24.000 effettivamente veicolati sino a noi dalla scienza, filtrata attraverso i media. 00:11:25.000 --> 00:11:28.000 Quindi i modelli possono cambiare. 00:11:28.000 --> 00:11:30.000 I modelli non sono statici. 00:11:30.000 --> 00:11:33.000 Man mano che ci adattiamo al nostro ambiente, 00:11:33.000 --> 00:11:37.000 i nostri modelli possono avvicinarsi maggiormente alle nostre sensazioni. NOTE Paragraph 00:11:38.000 --> 00:11:40.000 Per cui, un esempio potrebbe essere, 00:11:40.000 --> 00:11:42.000 se tornate indietro a 100 anni fa, 00:11:42.000 --> 00:11:45.000 quando l'elettricità cominciava a diffondersi, 00:11:45.000 --> 00:11:47.000 aveva generato molte paure. 00:11:47.000 --> 00:11:49.000 Voglio dire, c'erano persone che avevano paura di premere un campanello, 00:11:49.000 --> 00:11:52.000 perchè dentro vi era dell'elettricità, e ciò era pericoloso. 00:11:52.000 --> 00:11:55.000 Noi oggi siamo molto disinvolti con l'elettricità. 00:11:55.000 --> 00:11:57.000 Cambiamo le lampadine 00:11:57.000 --> 00:11:59.000 senza neppure pensarci su. 00:11:59.000 --> 00:12:03.000 Il nostro modello di sicurezza per l'elettricità 00:12:03.000 --> 00:12:06.000 è qualcosa con cui siamo nati. 00:12:06.000 --> 00:12:09.000 Non è cambiato mentre crescevamo. 00:12:09.000 --> 00:12:12.000 E lo conosciamo molto bene. 00:12:12.000 --> 00:12:14.000 Oppure pensate ai rischi 00:12:14.000 --> 00:12:16.000 dell'internet per le diverse generazioni; 00:12:16.000 --> 00:12:18.000 a come i vostri genitori affrontano la sicurezza su internet, 00:12:18.000 --> 00:12:20.000 rispetto a come l'affrontate voi, 00:12:20.000 --> 00:12:23.000 rispetto a come l'affronteranno i nostri bambini. 00:12:23.000 --> 00:12:26.000 I modelli alla fine diventano invisibili. 00:12:27.000 --> 00:12:30.000 "Intuitivo" è solo un altro termine per "familiare". NOTE Paragraph 00:12:30.000 --> 00:12:32.000 Così, quando il vostro modello si avvicina alla realtà 00:12:32.000 --> 00:12:34.000 e converge con le sensazioni, 00:12:34.000 --> 00:12:37.000 spesso non vi accorgete che c'è. 00:12:37.000 --> 00:12:39.000 Un bell'esempio di ciò 00:12:39.000 --> 00:12:42.000 è l'influenza suina dello scorso anno. 00:12:42.000 --> 00:12:44.000 Quando l'influenza suina si manifestò per la prima volta, 00:12:44.000 --> 00:12:48.000 le prime notizie causarono un grande allarmismo. 00:12:48.000 --> 00:12:50.000 Ora aveva un nome 00:12:50.000 --> 00:12:52.000 che la rendeva più spaventosa dell'influenza comune, 00:12:52.000 --> 00:12:54.000 anche se questa era più mortale. 00:12:54.000 --> 00:12:58.000 E la gente pensava che i medici fossero in grado di sconfiggerla. 00:12:58.000 --> 00:13:00.000 Per cui vi fu quella sensazione di impotenza. 00:13:00.000 --> 00:13:02.000 E queste due cose 00:13:02.000 --> 00:13:04.000 ingigantirono il rischio. 00:13:04.000 --> 00:13:07.000 Quando la novità svanì, i mesi passarono, 00:13:07.000 --> 00:13:09.000 vi fu una certa tolleranza, 00:13:09.000 --> 00:13:11.000 la gente vi si abituò. 00:13:11.000 --> 00:13:14.000 Non c'erano nuovi dati, ma c'era meno paura. 00:13:14.000 --> 00:13:16.000 In autunno 00:13:16.000 --> 00:13:18.000 la gente pensò 00:13:18.000 --> 00:13:20.000 che i medici dovevano averla già risolta. 00:13:20.000 --> 00:13:22.000 E c'è una sorta di biforcazione, 00:13:22.000 --> 00:13:24.000 la gente doveva scegliere 00:13:24.000 --> 00:13:28.000 tra paura e accettazione, 00:13:28.000 --> 00:13:30.000 anzi, tra paura e indifferenza. 00:13:30.000 --> 00:13:33.000 Decisero di scegliere il sospetto. 00:13:33.000 --> 00:13:36.000 E quando il vaccino apparve lo scorso inverno, 00:13:36.000 --> 00:13:39.000 vi fu un gran numero di persone -- un numero sorprendente -- 00:13:39.000 --> 00:13:42.000 che rifiutò di usarlo; 00:13:43.000 --> 00:13:45.000 un bell'esempio 00:13:45.000 --> 00:13:48.000 di come il senso di sicurezza della gente cambia, di come cambiano i loro modelli, 00:13:48.000 --> 00:13:50.000 quasi selvaggiamente 00:13:50.000 --> 00:13:52.000 senza alcuna nuova informazione, 00:13:52.000 --> 00:13:54.000 senza alcun nuovo elemento. 00:13:54.000 --> 00:13:57.000 Questo genere di cose accade frequentemente. NOTE Paragraph 00:13:57.000 --> 00:14:00.000 Rendo la cosa ancor più complicata. 00:14:00.000 --> 00:14:03.000 Noi abbiamo sensazioni, modelli, realtà. 00:14:03.000 --> 00:14:05.000 Io ho un punto di vista molto relativistico della sicurezza. 00:14:05.000 --> 00:14:08.000 Penso che dipenda dall'osservatore. 00:14:08.000 --> 00:14:10.000 E che la maggior parte delle decisioni sulla sicurezza 00:14:10.000 --> 00:14:14.000 coinvolgano una varietà di persone. 00:14:14.000 --> 00:14:16.000 E i venditori di sicurezza 00:14:16.000 --> 00:14:19.000 con i loro specifici interessi 00:14:19.000 --> 00:14:21.000 cercheranno di influenzare la decisione. 00:14:21.000 --> 00:14:23.000 Io la chiamo la loro "agenda". 00:14:23.000 --> 00:14:25.000 E voi vedete l'agenda; 00:14:25.000 --> 00:14:28.000 sono il marketing, la politica, 00:14:28.000 --> 00:14:31.000 che cercano di convincervi ad avere un modello piuttosto che un altro, 00:14:31.000 --> 00:14:33.000 tentando di convincervi ad ignorare un modello 00:14:33.000 --> 00:14:36.000 e fidarvi del vostro istinto, 00:14:36.000 --> 00:14:39.000 emarginando la gente che ha modelli che non vi piacciono. 00:14:39.000 --> 00:14:42.000 Ciò non è infrequente. 00:14:42.000 --> 00:14:45.000 Un esempio, un grande esempio, è il rischio associato al fumo. 00:14:46.000 --> 00:14:49.000 Nella storia degli ultimi 50 anni, il rischio del fumo 00:14:49.000 --> 00:14:51.000 dimostra come cambia un modello, 00:14:51.000 --> 00:14:54.000 e dimostra anche come un industria combatte contro 00:14:54.000 --> 00:14:56.000 un modello che non le piace. 00:14:56.000 --> 00:14:59.000 Paragonatelo al dibattito sul fumo passivo, 00:14:59.000 --> 00:15:02.000 probabilmente iniziato una ventina di anni fa. 00:15:02.000 --> 00:15:04.000 Pensate alle cinture di sicurezza. 00:15:04.000 --> 00:15:06.000 Quando ero un ragazzino, nessuno metteva una cintura di sicurezza. 00:15:06.000 --> 00:15:08.000 Oggi, nessun ragazzino vi lascerebbe guidare 00:15:08.000 --> 00:15:10.000 se non indossate una cintura di sicurezza. 00:15:11.000 --> 00:15:13.000 Paragonatelo al dibattito sull'airbag, 00:15:13.000 --> 00:15:16.000 di circa 30 anni or sono. NOTE Paragraph 00:15:16.000 --> 00:15:19.000 Tutti esempi di modelli che cambiano. 00:15:21.000 --> 00:15:24.000 Quel che impariamo è che cambiare i modelli è difficile. 00:15:24.000 --> 00:15:26.000 I modelli sono duri da demolire. 00:15:26.000 --> 00:15:28.000 Se poi combaciano con le vostre sensazioni, 00:15:28.000 --> 00:15:31.000 non sapete neppure di averli. 00:15:31.000 --> 00:15:33.000 E c'è un'altra distorsione cognitiva 00:15:33.000 --> 00:15:35.000 che chiamerò pregiudizio di conferma, 00:15:35.000 --> 00:15:38.000 dove noi tendiamo ad accettare i dati 00:15:38.000 --> 00:15:40.000 che confermano le nostre convinzioni 00:15:40.000 --> 00:15:43.000 e a respingere quelli che le contraddicono. 00:15:44.000 --> 00:15:46.000 Altrettanto, l'evidenza contro il nostro modello, 00:15:46.000 --> 00:15:49.000 noi tendiamo ad ignorarla, anche se è convincente. 00:15:49.000 --> 00:15:52.000 Deve diventare molto convincente prima che la consideriamo. 00:15:53.000 --> 00:15:55.000 I nuovi modelli che si protraggono per lunghi periodi di tempo sono difficili. 00:15:55.000 --> 00:15:57.000 Il riscaldamento globale è un grande esempio. 00:15:57.000 --> 00:15:59.000 Siamo terribili 00:15:59.000 --> 00:16:01.000 con i modelli che durano 80 anni. 00:16:01.000 --> 00:16:03.000 Possiamo arrivare sino al prossimo raccolto. 00:16:03.000 --> 00:16:06.000 Spesso possiamo arrivare fino a quando i nostri figli diventano adulti. 00:16:06.000 --> 00:16:09.000 Ma per 80 anni, siamo proprio negati. 00:16:09.000 --> 00:16:12.000 Quindi è un modello molto duro da accettare. 00:16:12.000 --> 00:16:16.000 Possiamo avere entrambi i modelli nella nostra mente simultaneamente, 00:16:16.000 --> 00:16:19.000 o quel genere di problema 00:16:19.000 --> 00:16:22.000 per cui teniamo insieme entrambe le convinzioni, 00:16:22.000 --> 00:16:24.000 oppure la dissonanza cognitiva. 00:16:24.000 --> 00:16:26.000 Alla fine, 00:16:26.000 --> 00:16:29.000 il nuovo modello rimpiazzerà quello vecchio. NOTE Paragraph 00:16:29.000 --> 00:16:32.000 Sensazioni forti posso creare un modello. 00:16:32.000 --> 00:16:35.000 L'11 settembre ha creato un modello di sicurezza 00:16:35.000 --> 00:16:37.000 nella testa di molta gente. 00:16:37.000 --> 00:16:40.000 Inoltre, esperienze personali con il crimine possono crearlo, 00:16:40.000 --> 00:16:42.000 così come uno spavento per la propria salute, 00:16:42.000 --> 00:16:44.000 un allarme sanitario nelle notizie. 00:16:44.000 --> 00:16:46.000 Vedrete questi "flashbulb events" (ricordi fotografici di un evento pubblico straordinario) 00:16:46.000 --> 00:16:48.000 così chiamati dagli psichiatri. 00:16:48.000 --> 00:16:51.000 Possono creare istantaneamente dei modelli, 00:16:51.000 --> 00:16:54.000 perchè sono molto toccanti. NOTE Paragraph 00:16:54.000 --> 00:16:56.000 Nel mondo della tecnologia 00:16:56.000 --> 00:16:58.000 non abbiamo esperienza 00:16:58.000 --> 00:17:00.000 per giudicare i modelli. 00:17:00.000 --> 00:17:02.000 E dipendiamo da altri. Ci affidiamo a sostituti. 00:17:02.000 --> 00:17:06.000 Intendo dire, questo funziona finchè si tratta di correggere altri. 00:17:06.000 --> 00:17:08.000 Ci affidiamo alle agenzie governative 00:17:08.000 --> 00:17:13.000 per dirci quali farmaci sono sicuri. 00:17:13.000 --> 00:17:15.000 Ieri sono giunto qui in volo. 00:17:15.000 --> 00:17:17.000 Non ho ispezionato l'aereo. 00:17:17.000 --> 00:17:19.000 Mi sono fidato di qualche altro gruppo 00:17:19.000 --> 00:17:22.000 per determinare se il mio velivolo fosse sicuro per volare. 00:17:22.000 --> 00:17:25.000 Noi siamo qui, nessuno di noi teme che il tetto ci possa cadere addosso, 00:17:25.000 --> 00:17:28.000 non perché l'abbiamo verificato, 00:17:28.000 --> 00:17:30.000 ma perché siamo sufficientemente sicuri 00:17:30.000 --> 00:17:33.000 che i regolamenti edilizi siano stati rispettati. 00:17:33.000 --> 00:17:35.000 È un modello che accettiamo 00:17:35.000 --> 00:17:37.000 praticamente per fede. 00:17:37.000 --> 00:17:40.000 E va bene che sia così. NOTE Paragraph 00:17:42.000 --> 00:17:44.000 Ora, ciò che vogliamo 00:17:44.000 --> 00:17:46.000 è che le persone familiarizzino sufficientemente 00:17:46.000 --> 00:17:48.000 con modelli migliori; 00:17:48.000 --> 00:17:50.000 li interiorizzino, in modo che questi si rispecchino nelle loro sensazioni, 00:17:50.000 --> 00:17:54.000 per permettere loro di fare scelte di sicurezza. 00:17:54.000 --> 00:17:56.000 Ora, quando queste vanno fuori fase, 00:17:56.000 --> 00:17:58.000 ci sono due scelte. 00:17:58.000 --> 00:18:00.000 Una, potete rimettere a posto le sensazioni della gente, 00:18:00.000 --> 00:18:02.000 appellandovi direttamente ai sentimenti. 00:18:02.000 --> 00:18:05.000 È una manipolazione, ma può funzionare. 00:18:05.000 --> 00:18:07.000 La seconda, e più onesta opzione, 00:18:07.000 --> 00:18:10.000 è quella di aggiustare proprio il modello. 00:18:11.000 --> 00:18:13.000 I cambiamenti avvengono lentamente. 00:18:13.000 --> 00:18:16.000 Il dibattito sul fumo è durato 40 anni, 00:18:16.000 --> 00:18:19.000 e quello era uno facile. 00:18:19.000 --> 00:18:21.000 Alcune di queste cose sono ostiche. 00:18:21.000 --> 00:18:23.000 Intendo dire, veramente, 00:18:23.000 --> 00:18:25.000 l'informazione sembra essere la nostra migliore speranza. NOTE Paragraph 00:18:25.000 --> 00:18:27.000 E ho mentito. 00:18:27.000 --> 00:18:29.000 Ricordate quando ho detto sensazione, modello, realtà. 00:18:29.000 --> 00:18:32.000 Vi ho detto che la realtà non cambia mai. In effetti, cambia. 00:18:32.000 --> 00:18:34.000 Viviamo in un mondo tecnologico; 00:18:34.000 --> 00:18:37.000 la realtà cambia continuamente. 00:18:37.000 --> 00:18:40.000 Per cui possiamo avere -- per la prima volta nella storia della nostra specie -- 00:18:40.000 --> 00:18:43.000 sensazioni che rincorrono i modelli, modelli che rincorrono la realtà, la realtà in movimento -- 00:18:43.000 --> 00:18:46.000 potrebbero non raggiungerla mai. 00:18:47.000 --> 00:18:49.000 Noi non lo sappiamo. 00:18:49.000 --> 00:18:51.000 Ma, alla lunga, 00:18:51.000 --> 00:18:54.000 sensazioni e modelli sono ugualmente importanti. 00:18:54.000 --> 00:18:57.000 E desidero chiudere con due veloci storielle per illustrarlo. NOTE Paragraph 00:18:57.000 --> 00:18:59.000 1982 -- non so se ve lo ricordate -- 00:18:59.000 --> 00:19:02.000 vi fu una breve epidemia 00:19:02.000 --> 00:19:04.000 di avvelenamenti da Tylenol negli Stati Uniti. 00:19:04.000 --> 00:19:07.000 È una storia orribile. Qualcuno prese un flacone di Tylenol, 00:19:07.000 --> 00:19:10.000 vi mise del veleno, lo chiuse, e lo rimise sullo scaffale. 00:19:10.000 --> 00:19:12.000 Qualcun altro lo comprò e morì. 00:19:12.000 --> 00:19:14.000 Ciò gettò il terrore tra la gente. 00:19:14.000 --> 00:19:16.000 Vi furono un paio di casi di emulazione. 00:19:16.000 --> 00:19:19.000 Non c'era alcun rischio reale, ma la gente era spaventata. 00:19:19.000 --> 00:19:21.000 E questo è come 00:19:21.000 --> 00:19:23.000 fu inventata l'industria dei medicinali a prova di manomissione. 00:19:23.000 --> 00:19:25.000 I tappi di sicurezza nacquero da qui. 00:19:25.000 --> 00:19:27.000 È tutto teatro della sicurezza. 00:19:27.000 --> 00:19:29.000 Come compito a casa, pensate a 10 modi per aggirarlo. 00:19:29.000 --> 00:19:32.000 Ve ne do uno, una siringa. 00:19:32.000 --> 00:19:35.000 Però fece sentir meglio la gente. 00:19:35.000 --> 00:19:37.000 Fece in modo che il loro senso di sicurezza 00:19:37.000 --> 00:19:39.000 combaciasse maggiormente con la realtà. NOTE Paragraph 00:19:39.000 --> 00:19:42.000 Ultima storia; qualche anno fa, una mia amica partorì. 00:19:42.000 --> 00:19:44.000 Le feci visita in ospedale. 00:19:44.000 --> 00:19:46.000 A quanto pare, ora, quando nasce un bimbo, 00:19:46.000 --> 00:19:48.000 gli mettono un braccialetto identificativo (RFID), 00:19:48.000 --> 00:19:50.000 e ne mettono uno corrispondente alla madre, 00:19:50.000 --> 00:19:52.000 così che se una donna che non sia la madre porta il neonato fuori dal reparto di maternità, 00:19:52.000 --> 00:19:54.000 il braccialetto fa scattare un allarme. 00:19:54.000 --> 00:19:56.000 Ho detto, "Beh, è una bella cosa. 00:19:56.000 --> 00:19:58.000 Mi chiedo quanto sia dilagante il rapimento di neonati 00:19:58.000 --> 00:20:00.000 negli ospedali." 00:20:00.000 --> 00:20:02.000 Vado a casa, indago. 00:20:02.000 --> 00:20:04.000 Praticamente non succede mai. 00:20:04.000 --> 00:20:06.000 Ma, se ci pensate, 00:20:06.000 --> 00:20:08.000 se voi foste un ospedaliero 00:20:08.000 --> 00:20:10.000 e aveste necessità di portare via un neonato dalla sua mamma, 00:20:10.000 --> 00:20:12.000 fuori dalla stanza, per fare qualche esame, 00:20:12.000 --> 00:20:14.000 fareste meglio ad avere un buon teatro della sicurezza, 00:20:14.000 --> 00:20:16.000 o questa potrebbe strapparvi un braccio. NOTE Paragraph 00:20:16.000 --> 00:20:18.000 (Risate) NOTE Paragraph 00:20:18.000 --> 00:20:20.000 È quindi importante per chi di noi 00:20:20.000 --> 00:20:22.000 progetta la sicurezza, 00:20:22.000 --> 00:20:25.000 chi analizza le politiche di sicurezza, 00:20:25.000 --> 00:20:27.000 o addirittura quello che delle politiche pubbliche 00:20:27.000 --> 00:20:29.000 ha a che fare con la sicurezza. 00:20:29.000 --> 00:20:32.000 Non si tratta solo di realtà, ma di sensazione e di realtà. 00:20:32.000 --> 00:20:34.000 Ciò che importa 00:20:34.000 --> 00:20:36.000 è che questi collimino, più o meno. 00:20:36.000 --> 00:20:38.000 È importante che, se le nostre sensazioni corrispondono alla realtà, 00:20:38.000 --> 00:20:40.000 noi facciamo delle scelte migliori sulla sicurezza. NOTE Paragraph 00:20:40.000 --> 00:20:42.000 Grazie. NOTE Paragraph 00:20:42.000 --> 00:20:44.000 (Applausi)