1 00:00:00,000 --> 00:00:02,000 La sécurité, c'est donc deux choses différentes: 2 00:00:02,000 --> 00:00:04,000 c'est une impression et c'est une réalité. 3 00:00:04,000 --> 00:00:06,000 Et c'est différent. 4 00:00:06,000 --> 00:00:08,000 Vous pouvez vous sentir en sécurité 5 00:00:08,000 --> 00:00:10,000 même si vous ne l'êtes pas. 6 00:00:10,000 --> 00:00:12,000 Et vous pouvez être en sécurité 7 00:00:12,000 --> 00:00:14,000 même si vous n'en avez pas l'impression. 8 00:00:14,000 --> 00:00:16,000 Nous avons vraiment deux concepts distincts 9 00:00:16,000 --> 00:00:18,000 rattachés au même terme. 10 00:00:18,000 --> 00:00:20,000 Et ce que je veux faire pendant cette conférence, 11 00:00:20,000 --> 00:00:22,000 c'est les séparer -- 12 00:00:22,000 --> 00:00:24,000 comprendre quand ils diverent 13 00:00:24,000 --> 00:00:26,000 et comment ils convergent. 14 00:00:26,000 --> 00:00:28,000 Et le langage est en fait un problème ici 15 00:00:28,000 --> 00:00:30,000 Il n'y a pas beaucoup de mots adéquats 16 00:00:30,000 --> 00:00:33,000 pour les concepts dont nous allons parler ici. 17 00:00:33,000 --> 00:00:35,000 Alors si vous regardez la sécurité 18 00:00:35,000 --> 00:00:37,000 en termes économiques, 19 00:00:37,000 --> 00:00:39,000 c'est un échannge. 20 00:00:39,000 --> 00:00:41,000 Chaque fois que vous obtenez une certaine sécurité, 21 00:00:41,000 --> 00:00:43,000 vous donnez toujours quelque chose en échange. 22 00:00:43,000 --> 00:00:45,000 Que ce soit une décision personnelle -- 23 00:00:45,000 --> 00:00:47,000 que vous installiez une alarme chez vous -- 24 00:00:47,000 --> 00:00:50,000 ou une décision nationale -- où vous allez envahir un pays étranger -- 25 00:00:50,000 --> 00:00:52,000 vous allez donner quelque chose en échange, 26 00:00:52,000 --> 00:00:55,000 que ce soit de l'argent ou du temps, des commodités, des compétences, 27 00:00:55,000 --> 00:00:58,000 peut-être des libertés fondamentales. 28 00:00:58,000 --> 00:01:01,000 Et la question à poser quand on considère la sécurité de quelque chose 29 00:01:01,000 --> 00:01:04,000 n'est pas de savoir si ça nous protège mieux, 30 00:01:04,000 --> 00:01:07,000 mais si oui ou non l'échange vaut la peine. 31 00:01:07,000 --> 00:01:09,000 Ces dernières années, vous avez entendu dire 32 00:01:09,000 --> 00:01:11,000 que le monde est plus sûr parce que Saddam Hussein n'est pas au pouvoir. 33 00:01:11,000 --> 00:01:14,000 il se pourrait que ce soit vrai, mais ce n'est pas terriblement pertinent. 34 00:01:14,000 --> 00:01:17,000 La question est, est-ce que ça valait le coup? 35 00:01:17,000 --> 00:01:20,000 Et vous pouvez décider par vous-même, 36 00:01:20,000 --> 00:01:22,000 et ensuite vous déciderez si l'invasion en valait la peine. 37 00:01:22,000 --> 00:01:24,000 C'est de cette façon qu'on réfléchit à la sécurité -- 38 00:01:24,000 --> 00:01:26,000 en termes d'échange. 39 00:01:26,000 --> 00:01:29,000 Maintenant c'est souvent qu'il n'i a ni raison ni tort ici. 40 00:01:29,000 --> 00:01:31,000 Certains d'entre nous ont des système d'alarme chez eux, 41 00:01:31,000 --> 00:01:33,000 et d'autres non. 42 00:01:33,000 --> 00:01:35,000 Et ça dépend de là où nous habitons, 43 00:01:35,000 --> 00:01:37,000 si nous habitons seul ou en famille, 44 00:01:37,000 --> 00:01:39,000 de la quantité de trucs chouettes que nous avons, 45 00:01:39,000 --> 00:01:41,000 du degré de risque de vol 46 00:01:41,000 --> 00:01:43,000 que nous acceptons. 47 00:01:43,000 --> 00:01:45,000 En politique aussi, 48 00:01:45,000 --> 00:01:47,000 il y a des opinions différentes. 49 00:01:47,000 --> 00:01:49,000 Souvent, ces échanges 50 00:01:49,000 --> 00:01:51,000 concernent plus que la sécurité, 51 00:01:51,000 --> 00:01:53,000 et je pense que c'est vraiment important. 52 00:01:53,000 --> 00:01:55,000 Et les gens ont une intuition naturelle 53 00:01:55,000 --> 00:01:57,000 envers ces échanges. 54 00:01:57,000 --> 00:01:59,000 Nous en faisons tous les jours -- 55 00:01:59,000 --> 00:02:01,000 la nuit dernière, dans ma chambre d'hôtel, 56 00:02:01,000 --> 00:02:03,000 quand j'ai décidé de fermer la porte à double tour, 57 00:02:03,000 --> 00:02:05,000 ou vous dans votre voiture en venant ici, 58 00:02:05,000 --> 00:02:07,000 quand nous allons déjeuner et que nous estimons 59 00:02:07,000 --> 00:02:10,000 que la nourriture n'est pas du poison et que nous la mangeons. 60 00:02:10,000 --> 00:02:12,000 Nous faisons sans cesse ces échanges 61 00:02:12,000 --> 00:02:14,000 plusieurs fois par jour. 62 00:02:14,000 --> 00:02:16,000 Souvent nous ne le remarquons même pas. 63 00:02:16,000 --> 00:02:18,000 lls font partie de la vie; nous le faisons tous 64 00:02:18,000 --> 00:02:21,000 Toutes les espèces le font. 65 00:02:21,000 --> 00:02:23,000 Imaginez un lapin dans un champ, qui mange de l'herbe, 66 00:02:23,000 --> 00:02:26,000 et le lapin va voir un renard. 67 00:02:26,000 --> 00:02:28,000 Ce lapin fera un échange de sécurité: 68 00:02:28,000 --> 00:02:30,000 "Je reste ou je m'enfuis?" 69 00:02:30,000 --> 00:02:32,000 Et si vous y réfléchissez, 70 00:02:32,000 --> 00:02:35,000 les lapins qui sont bons avec les échanges, 71 00:02:35,000 --> 00:02:37,000 auront tendance à vivre et à se reproduire, 72 00:02:37,000 --> 00:02:39,000 et les lapins qui sont mauvais 73 00:02:39,000 --> 00:02:41,000 seront mangés ou mourront de faim. 74 00:02:41,000 --> 00:02:43,000 Alors vous pourriez penser 75 00:02:43,000 --> 00:02:46,000 que nous, en tant qu'espèce prospère sur la planète -- 76 00:02:46,000 --> 00:02:48,000 vous, moi, tout le monde -- 77 00:02:48,000 --> 00:02:51,000 nous sommes vraiment bons en ce qui concerne ces genres d'échanges. 78 00:02:51,000 --> 00:02:53,000 Pourtant il semblerait, encore et encore, 79 00:02:53,000 --> 00:02:56,000 que nous soyons désespérément mauvais à cela. 80 00:02:56,000 --> 00:02:59,000 Et je pense que c'est une question fondamentalement intéressante. 81 00:02:59,000 --> 00:03:01,000 Je vous donnerai la réponse courte. 82 00:03:01,000 --> 00:03:03,000 La réponse est, nous réagissons à l'impression de sécurité 83 00:03:03,000 --> 00:03:06,000 et pas à la réalité. 84 00:03:06,000 --> 00:03:09,000 Et la plupart du temps, ça marche. 85 00:03:10,000 --> 00:03:12,000 La plupart du temps, 86 00:03:12,000 --> 00:03:15,000 l'impression et la réalité sont la même chose. 87 00:03:15,000 --> 00:03:17,000 C'est certainement vrai 88 00:03:17,000 --> 00:03:20,000 pendant la plus grande partie de la préhistoire. 89 00:03:20,000 --> 00:03:23,000 Nous avons développé cette capacité 90 00:03:23,000 --> 00:03:25,000 parce qu'elle a du sens du point de vue de l'évolution. 91 00:03:25,000 --> 00:03:27,000 Une manière de considérer ça 92 00:03:27,000 --> 00:03:29,000 est que nous sommes grandement optimisés 93 00:03:29,000 --> 00:03:31,000 pour les prises de risques 94 00:03:31,000 --> 00:03:34,000 qui sont endémiques à la vie en petits groupes familaux 95 00:03:34,000 --> 00:03:37,000 sur les plateaux de l'Afrique de l'Est en 100 000 avant J.-C. -- 96 00:03:37,000 --> 00:03:40,000 en 2010 à New York, pas tellement. 97 00:03:41,000 --> 00:03:44,000 Maintenant, il y a plusieurs tendances dans la prise de risque. 98 00:03:44,000 --> 00:03:46,000 Beaucoup de bonnes expériences là dedans. 99 00:03:46,000 --> 00:03:49,000 Et vous pouvez voir que certaines tendances reviennent sans cesse. 100 00:03:49,000 --> 00:03:51,000 Alors je vais vous en donner quatre. 101 00:03:51,000 --> 00:03:54,000 Nous avons tendance à exagérer les risques rares et spectaculaires 102 00:03:54,000 --> 00:03:56,000 et à minimiser les risques courants -- 103 00:03:56,000 --> 00:03:59,000 donc prendre l'avion par rapport à conduire. 104 00:03:59,000 --> 00:04:01,000 L'inconnu est perçu 105 00:04:01,000 --> 00:04:04,000 comme étant plus risqué que le familier. 106 00:04:05,000 --> 00:04:07,000 On pourrait citer comme exemple 107 00:04:07,000 --> 00:04:10,000 les gens qui ont peur d'être kidnappé par des inconnus, 108 00:04:10,000 --> 00:04:13,000 alors que les données montrent que les enlèvements par des parents sont bien plus courants. 109 00:04:13,000 --> 00:04:15,000 Il s'agit des enfants. 110 00:04:15,000 --> 00:04:18,000 Troisièmement, les risques personnifiés 111 00:04:18,000 --> 00:04:21,000 sont perçus comme étant plus grands que les risques anonymes -- 112 00:04:21,000 --> 00:04:24,000 donc Ben Laden fait plus peur parce qu'il a un nom. 113 00:04:24,000 --> 00:04:26,000 Et le quatrième 114 00:04:26,000 --> 00:04:28,000 est que les gens sous-estiment les risques 115 00:04:28,000 --> 00:04:30,000 dans les situations qu'ils contrôlent 116 00:04:30,000 --> 00:04:34,000 et les surestiment dans les situations qu'ils ne contrôlent pas. 117 00:04:34,000 --> 00:04:37,000 Donc une fois que vous vous mettez à faire du parachute ou à fumer, 118 00:04:37,000 --> 00:04:39,000 vous minimisez les risques. 119 00:04:39,000 --> 00:04:42,000 Si un risque vous tombe dessus -- le terrorisme était un bon exemple -- 120 00:04:42,000 --> 00:04:45,000 vous le surévaluerez, parce que vous n'avez pas l'impression de le contrôler. 121 00:04:47,000 --> 00:04:50,000 il y a un tas d'autre tendances, ces tendances cognitives, 122 00:04:50,000 --> 00:04:53,000 qui affectent nos prises de risque. 123 00:04:53,000 --> 00:04:55,000 il y a l'heuristique de disponibilité, 124 00:04:55,000 --> 00:04:57,000 ce qui signifie en gros 125 00:04:57,000 --> 00:05:00,000 que nous estimons la probabilité de quelque chose 126 00:05:00,000 --> 00:05:04,000 en fonction de la facilité d'en concevoir des exemples. 127 00:05:04,000 --> 00:05:06,000 Vous pouvez donc imaginer comment ça fonctionne. 128 00:05:06,000 --> 00:05:09,000 Si vus entendez beaucoup parler d'attaques de tigres, il doit y avoir beaucoup de tigres dans le coin. 129 00:05:09,000 --> 00:05:12,000 Vous n'etendez pas beaucoup parler d'attaques de lions, il n'y a pas beaucoup de lions dans le coin. 130 00:05:12,000 --> 00:05:15,000 Ça fonctionne jusqu'à ce qu'on invente les journaux 131 00:05:15,000 --> 00:05:17,000 Parce que ce que font les journaux 132 00:05:17,000 --> 00:05:19,000 est qu'ils répètent encore et encore 133 00:05:19,000 --> 00:05:21,000 des risques rares. 134 00:05:21,000 --> 00:05:23,000 je dis aux gens, si c'est dans les infos, ne vous en inquiétez pas. 135 00:05:23,000 --> 00:05:25,000 Parce que par définition, 136 00:05:25,000 --> 00:05:28,000 les informations sont des choses qui n'arrivent presque jamais. 137 00:05:28,000 --> 00:05:30,000 (Rires) 138 00:05:30,000 --> 00:05:33,000 Quand quelque chose est si courant, ce n'est plus de l'information -- 139 00:05:33,000 --> 00:05:35,000 les accidents de voiture, la violence domestique -- 140 00:05:35,000 --> 00:05:38,000 voilà les risques dont on se préoccupe. 141 00:05:38,000 --> 00:05:40,000 Nous sommes aussi une espèce de conteurs. 142 00:05:40,000 --> 00:05:43,000 Nous réagissons aux histoires plus qu'aux données. 143 00:05:43,000 --> 00:05:45,000 Et ce qu'il se passe, c'est une ignorance numérique élémentaire. 144 00:05:45,000 --> 00:05:48,000 Je veux dire, la plaisanterie "Un, Deux, Trois, Beaucoup" est assez vraie. 145 00:05:48,000 --> 00:05:51,000 Nous sommes vraiment bons avec les petits chiffres. 146 00:05:51,000 --> 00:05:53,000 Une mangue, deux mangues, trois mangues, 147 00:05:53,000 --> 00:05:55,000 10 000 mangues, 100 000 mangues -- 148 00:05:55,000 --> 00:05:58,000 c'est toujours plus de mangues que vous ne pouvez manger avant qu'elles pourrissent. 149 00:05:58,000 --> 00:06:01,000 Donc un demi, un quart, un cinquième -- là nous sommes bons. 150 00:06:01,000 --> 00:06:03,000 Un sur un million, un sur un milliard -- 151 00:06:03,000 --> 00:06:06,000 dans les deux cas, c'est presque jamais. 152 00:06:06,000 --> 00:06:08,000 Donc nous avons du mal avec les risques 153 00:06:08,000 --> 00:06:10,000 qui ne sont pas très courants. 154 00:06:10,000 --> 00:06:12,000 Et ce que ces tendances cognitives font, 155 00:06:12,000 --> 00:06:15,000 est qu'elles agissent comme des filtres entre la réalité et nous. 156 00:06:15,000 --> 00:06:17,000 Et le résultat 157 00:06:17,000 --> 00:06:19,000 est que l'impression et la réalité ne collent pas, 158 00:06:19,000 --> 00:06:22,000 ils diffèrent. 159 00:06:22,000 --> 00:06:25,000 Et vous avez soit une impression -- vous vous sentez plus en sécurité que vous ne l'êtes. 160 00:06:25,000 --> 00:06:27,000 C'est une fausse impression de sécurité. 161 00:06:27,000 --> 00:06:29,000 Ou le contraire, 162 00:06:29,000 --> 00:06:31,000 et c'est une fausse impression d'insécurité. 163 00:06:31,000 --> 00:06:34,000 J'écris beaucoup sur "le théâtre de la sécurité", 164 00:06:34,000 --> 00:06:37,000 et ce sont les produits qui rassurent les gens, 165 00:06:37,000 --> 00:06:39,000 mais qui en fait ne font rien. 166 00:06:39,000 --> 00:06:41,000 Il n'y a pas de monde réel pour les choses qui nous mettent en sécurité, 167 00:06:41,000 --> 00:06:43,000 mais ne nous en donnent pas l'impression. 168 00:06:43,000 --> 00:06:46,000 C'est peut-être ce que la CIA est sensée faire pour nous. 169 00:06:48,000 --> 00:06:50,000 Revenons donc à l'économie. 170 00:06:50,000 --> 00:06:54,000 Si l'économie, si le marché conduit la sécurité, 171 00:06:54,000 --> 00:06:56,000 et si les gens font des échanges 172 00:06:56,000 --> 00:06:59,000 d'après l'impression de sécurité, 173 00:06:59,000 --> 00:07:01,000 alors la chose intelligente à faire pour les entreprises 174 00:07:01,000 --> 00:07:03,000 pour que les motivations économiques 175 00:07:03,000 --> 00:07:06,000 permettent aux gens de se sentir plus en sécurité. 176 00:07:06,000 --> 00:07:09,000 Et il y a deux manières de le faire. 177 00:07:09,000 --> 00:07:11,000 Une, vous pouvez mettre vraiment les gens plus en sécurité 178 00:07:11,000 --> 00:07:13,000 et espérer qu'ils le remarquent. 179 00:07:13,000 --> 00:07:16,000 Ou deux, vous pouvez donner aux gens seulement une impression de sécurité 180 00:07:16,000 --> 00:07:19,000 et espérer qu'ils ne s'en aperçoivent pas. 181 00:07:20,000 --> 00:07:23,000 Alors qu'est-ce qui fait que les gens le remarquent? 182 00:07:23,000 --> 00:07:25,000 Et bien deux ou trois choses : 183 00:07:25,000 --> 00:07:27,000 comprendre la sécurité, 184 00:07:27,000 --> 00:07:29,000 les risques, les menaces 185 00:07:29,000 --> 00:07:32,000 des contre-mesures, comment elles fonctionnent. 186 00:07:32,000 --> 00:07:34,000 Mais si vous savez des trucs, 187 00:07:34,000 --> 00:07:37,000 vos impressions sont plus susceptibles de coller à la réalité. 188 00:07:37,000 --> 00:07:40,000 Avoir assez d'exemples dans le monde réel vous aide. 189 00:07:40,000 --> 00:07:43,000 Et nous connaissons tous le taux de criminalité dans notre quartier, 190 00:07:43,000 --> 00:07:46,000 parce que nous y vivons, et que nous en avons une impression 191 00:07:46,000 --> 00:07:49,000 qui en gros colle à la réalité. 192 00:07:49,000 --> 00:07:52,000 Le théâtre de sécurité est exposé 193 00:07:52,000 --> 00:07:55,000 quand il est évident qu'il ne fonctionne pas correctement. 194 00:07:55,000 --> 00:07:59,000 Bon, alors qu'est-ce qui fait que les gens ne remarquent pas? 195 00:07:59,000 --> 00:08:01,000 Et bien une mauvaise compréhension. 196 00:08:01,000 --> 00:08:04,000 Si vous ne comprenez pas les risques, vous ne comprenez pas les coûts, 197 00:08:04,000 --> 00:08:06,000 vous êtes susceptibles de ne pas faire les bons échanges, 198 00:08:06,000 --> 00:08:09,000 et votre impression ne colle pas à la réalité. 199 00:08:09,000 --> 00:08:11,000 Pas assez d'exemples 200 00:08:11,000 --> 00:08:13,000 C'est un problème inhérent 201 00:08:13,000 --> 00:08:15,000 aux évènements de faible probabilité. 202 00:08:15,000 --> 00:08:17,000 Si, par exemple, 203 00:08:17,000 --> 00:08:19,000 le terrorisme ne se produit presque jamais, 204 00:08:19,000 --> 00:08:21,000 il est vraiment difficile de juger 205 00:08:21,000 --> 00:08:24,000 l'efficacité de nos mesures anti-terrorisme. 206 00:08:25,000 --> 00:08:28,000 C'est pourquoi on continue à sacrifier des vierges, 207 00:08:28,000 --> 00:08:31,000 et pourquoi vos défenses de licorne fonctionnent parfaitement. 208 00:08:31,000 --> 00:08:34,000 Il n'y a pas assez d'exemples d'échecs. 209 00:08:35,000 --> 00:08:38,000 Aussi, les impressions qui rendent les problèmes confus -- 210 00:08:38,000 --> 00:08:40,000 les tendances cognitives dont j'ai parlé plus tôt, 211 00:08:40,000 --> 00:08:43,000 les peurs, les croyances populaires, 212 00:08:43,000 --> 00:08:46,000 en gros un modèle inadéquat de réalité. 213 00:08:47,000 --> 00:08:50,000 Alors permettez-moi de compliquer les choses. 214 00:08:50,000 --> 00:08:52,000 J'ai l'impression et la réalité. 215 00:08:52,000 --> 00:08:55,000 Je veux ajouter un troisième élément. Je veux ajouter un modèle. 216 00:08:55,000 --> 00:08:57,000 L'impression et le modèle dans nos têtes, 217 00:08:57,000 --> 00:08:59,000 la réalité c'est le monde extérieur. 218 00:08:59,000 --> 00:09:02,000 Il ne change pas: il est réel. 219 00:09:02,000 --> 00:09:04,000 Donc l'impression se fonde sur notre intuition. 220 00:09:04,000 --> 00:09:06,000 Le modèle se fonde sur la raison. 221 00:09:06,000 --> 00:09:09,000 C'est en gros la différence. 222 00:09:09,000 --> 00:09:11,000 Dans un monde primitif et simple, 223 00:09:11,000 --> 00:09:14,000 il n'y a pas de raison pour un modèle. 224 00:09:14,000 --> 00:09:17,000 Parce que l'impression est proche de la réalité. 225 00:09:17,000 --> 00:09:19,000 On n'a pas besoin d'un modèle. 226 00:09:19,000 --> 00:09:21,000 Mais dans un monde moderne et complexe, 227 00:09:21,000 --> 00:09:23,000 on a besoin de modèles 228 00:09:23,000 --> 00:09:26,000 pour comprendre bon nombre des risques auxquels nous sommes confrontés. 229 00:09:27,000 --> 00:09:29,000 Il n'y a pas d'impression vis à vis des microbes. 230 00:09:29,000 --> 00:09:32,000 Il vous faut un modèle pour les comprendre. 231 00:09:32,000 --> 00:09:34,000 Donc ce modèle 232 00:09:34,000 --> 00:09:37,000 est une représentation intelligente de la réalité. 233 00:09:37,000 --> 00:09:40,000 Il est bien sûr limité par la science, 234 00:09:40,000 --> 00:09:42,000 par la technologie. 235 00:09:42,000 --> 00:09:45,000 Nous ne pouvions pas écrire une théorie microbienne de la maladie 236 00:09:45,000 --> 00:09:48,000 avant d'avoir inventé le microscope pour les voir. 237 00:09:49,000 --> 00:09:52,000 Il est limité par nos tendances cognitives. 238 00:09:52,000 --> 00:09:54,000 Mais il a la capacité 239 00:09:54,000 --> 00:09:56,000 de l'emporter sur nos impressions. 240 00:09:56,000 --> 00:09:59,000 Où trouvons-nous ces modèles? Nous les trouvons chez les autres. 241 00:09:59,000 --> 00:10:02,000 Nous les trouvons dans la religion, la culture, 242 00:10:02,000 --> 00:10:04,000 chez les enseignants, chez nos aînés. 243 00:10:04,000 --> 00:10:06,000 Il y a deux ans, 244 00:10:06,000 --> 00:10:08,000 j'étais en Afrique du Sud en safari. 245 00:10:08,000 --> 00:10:11,000 Le pisteur avec qui j'étais a grandi dans le parc national Kruger. 246 00:10:11,000 --> 00:10:14,000 Il avait des modèles très complexes de façon de survivre. 247 00:10:14,000 --> 00:10:16,000 Et ça dépendait de si vous étiez attaqué 248 00:10:16,000 --> 00:10:18,000 par un lion, ou un léopard, ou un rhinocéros, ou un éléphant -- 249 00:10:18,000 --> 00:10:21,000 et quand vous deviez fuir, et quand vous deviez grimper à un arbre -- 250 00:10:21,000 --> 00:10:23,000 quand vous pouviez ne jamais grimper à un arbre. 251 00:10:23,000 --> 00:10:26,000 Je serais mort dans la journée, 252 00:10:26,000 --> 00:10:28,000 mais il était né là, 253 00:10:28,000 --> 00:10:30,000 et il comprenait comment survivre. 254 00:10:30,000 --> 00:10:32,000 Je suis né à New York City. 255 00:10:32,000 --> 00:10:35,000 J'aurais pu l'emmener à New York, et il serait mort dans la journée. 256 00:10:35,000 --> 00:10:37,000 (Rires) 257 00:10:37,000 --> 00:10:39,000 Parce que nous avions différents modèles 258 00:10:39,000 --> 00:10:42,000 fondés sur nos différentes expériences. 259 00:10:43,000 --> 00:10:45,000 Les modèles peuvent venir des medias, 260 00:10:45,000 --> 00:10:48,000 de nos élus. 261 00:10:48,000 --> 00:10:51,000 Pensez aux modèles de terrorisme, 262 00:10:51,000 --> 00:10:54,000 d'enlèvement d'enfant, 263 00:10:54,000 --> 00:10:56,000 de sécurité aérienne, de sécurité automobile. 264 00:10:56,000 --> 00:10:59,000 Les modèles peuvent venir de l'industrie. 265 00:10:59,000 --> 00:11:01,000 Les deux que je suis sont les caméras de surveillance, 266 00:11:01,000 --> 00:11:03,000 les cartes d'identités, 267 00:11:03,000 --> 00:11:06,000 un bon nombre de nos modèles de sécurité informatique viennent de là. 268 00:11:06,000 --> 00:11:09,000 Beaucoup de modèles viennent de la science. 269 00:11:09,000 --> 00:11:11,000 Les modèles de santé sont un excellent exemple. 270 00:11:11,000 --> 00:11:14,000 Pensez au cancer, à la grippe aviaire, la grippe porcine, le SRAS. 271 00:11:14,000 --> 00:11:17,000 Toutes nos impressions de sécurité 272 00:11:17,000 --> 00:11:19,000 vis à vis de ces maladies 273 00:11:19,000 --> 00:11:21,000 viennent de modèles 274 00:11:21,000 --> 00:11:24,000 qu'on nous donne, vraiment, par la science filtrée par les médias. 275 00:11:25,000 --> 00:11:28,000 Donc les modèles changent. 276 00:11:28,000 --> 00:11:30,000 Les modèles ne sont pas statiques. 277 00:11:30,000 --> 00:11:33,000 Alors que nous sommes plus à l'aise avec nos environnements, 278 00:11:33,000 --> 00:11:37,000 notre modèle peut se rapprocher de nos impressions. 279 00:11:38,000 --> 00:11:40,000 Et on pourrait prendre pour exemple 280 00:11:40,000 --> 00:11:42,000 si on remonte à 100 en arrière 281 00:11:42,000 --> 00:11:45,000 quand l'électricité est devenue courante pour la première fois, 282 00:11:45,000 --> 00:11:47,000 elle a généré beaucoup de peurs. 283 00:11:47,000 --> 00:11:49,000 Je veux dire qu'il y avait des gens qui avaient peur de sonner aux portes ; 284 00:11:49,000 --> 00:11:52,000 parce qu'il y avait de l'électricité dans les sonnettes, et que c'était dangereux. 285 00:11:52,000 --> 00:11:55,000 Pour nous, nous sommes à l'aise avec l'électricité. 286 00:11:55,000 --> 00:11:57,000 Nous changeons les ampoules 287 00:11:57,000 --> 00:11:59,000 sans même y réfléchir. 288 00:11:59,000 --> 00:12:03,000 Notre modèle de sécurité vis à vis de l'électricité 289 00:12:03,000 --> 00:12:06,000 est une chose dans laquelle nous sommes nés. 290 00:12:06,000 --> 00:12:09,000 Il n'a pas changé alors que nous grandissions. 291 00:12:09,000 --> 00:12:12,000 Et nous sommes bons là-dedans. 292 00:12:12,000 --> 00:12:14,000 Ou sinon, pensez aux risques 293 00:12:14,000 --> 00:12:16,000 sur internet entre générations -- 294 00:12:16,000 --> 00:12:18,000 comment vos parents abordent la sécurité d'internet, 295 00:12:18,000 --> 00:12:20,000 par rapport à ce que vous faites, 296 00:12:20,000 --> 00:12:23,000 par rapport à comment vos enfants le feront. 297 00:12:23,000 --> 00:12:26,000 Les modèles finissent par se fondre dans le décor. 298 00:12:27,000 --> 00:12:30,000 Intuitif est synonyme de familier. 299 00:12:30,000 --> 00:12:32,000 Donc quand notre modèle est proche de la réalité, 300 00:12:32,000 --> 00:12:34,000 et qu'il converge avec les impressions, 301 00:12:34,000 --> 00:12:37,000 vous ignorez souvent qu'il est là. 302 00:12:37,000 --> 00:12:39,000 Et un bon exemple nous est venu 303 00:12:39,000 --> 00:12:42,000 l'an dernier avec la grippe porcine. 304 00:12:42,000 --> 00:12:44,000 Quand la grippe porcine est apparue pour la première fois, 305 00:12:44,000 --> 00:12:48,000 l'information initiale a provoqué beaucoup de réactions excessives. 306 00:12:48,000 --> 00:12:50,000 D'abord la maladie avait un nom, 307 00:12:50,000 --> 00:12:52,000 ce qui la rendait plus effrayante que la grippe traditionnelle, 308 00:12:52,000 --> 00:12:54,000 même si elle était plus mortelle. 309 00:12:54,000 --> 00:12:58,000 Et les gens pensaient que les médecins devraient pouvoir s'en occuper. 310 00:12:58,000 --> 00:13:00,000 Il y a donc eu un sentiment de manque de contrôle. 311 00:13:00,000 --> 00:13:02,000 Et ces deux choses 312 00:13:02,000 --> 00:13:04,000 ont fait que le risque semblait plus important qu'il n'était. 313 00:13:04,000 --> 00:13:07,000 Quand l'effet de nouveauté s'est estompé et que les mois ont passé, 314 00:13:07,000 --> 00:13:09,000 il y a eu une une certaine tolérance, 315 00:13:09,000 --> 00:13:11,000 les gens s'y sont habitués. 316 00:13:11,000 --> 00:13:14,000 Il n'y a pas eu de nouvelles données, mais il y a eu moins de peur. 317 00:13:14,000 --> 00:13:16,000 En automne, 318 00:13:16,000 --> 00:13:18,000 les gens pensaient 319 00:13:18,000 --> 00:13:20,000 que les médecins auraient déjà dû résoudre le problème. 320 00:13:20,000 --> 00:13:22,000 Et il y a eu un genre de tournant -- 321 00:13:22,000 --> 00:13:24,000 les gens devaient choisir 322 00:13:24,000 --> 00:13:28,000 entre la peur et l'acceptation -- 323 00:13:28,000 --> 00:13:30,000 en fait entre la peur et l'indifférence -- 324 00:13:30,000 --> 00:13:33,000 ils ont choisi la méfiance. 325 00:13:33,000 --> 00:13:36,000 Et quand le vaccin est apparu l'hiver dernier, 326 00:13:36,000 --> 00:13:39,000 il y a eu beaucoup de gens -- un nombre surprenant -- 327 00:13:39,000 --> 00:13:42,000 qui ont refusé de se faire vacciner -- 328 00:13:43,000 --> 00:13:45,000 et c'est un bon exemple 329 00:13:45,000 --> 00:13:48,000 de la façon dont les impressions de sécurité des gens changent, 330 00:13:48,000 --> 00:13:50,000 comment leurs modèles changent, de façon irraisonnée 331 00:13:50,000 --> 00:13:52,000 sans nouvelles informations, 332 00:13:52,000 --> 00:13:54,000 sans nouvel apport. 333 00:13:54,000 --> 00:13:57,000 Ce genre de chose se produit souvent. 334 00:13:57,000 --> 00:14:00,000 Et je vais apporter une complication supplémentaire. 335 00:14:00,000 --> 00:14:03,000 Nous avons l'impression, le modèle, la réalité. 336 00:14:03,000 --> 00:14:05,000 J'ai une vision très réaliste de la sécurité. 337 00:14:05,000 --> 00:14:08,000 Je pense qu'elle dépend de l'observateur. 338 00:14:08,000 --> 00:14:10,000 Et la plupart des décisions de sécurité 339 00:14:10,000 --> 00:14:14,000 ont des gens impliqués très différents . 340 00:14:14,000 --> 00:14:16,000 Et les actionnaires 341 00:14:16,000 --> 00:14:19,000 qui ont des échanges spécifiques 342 00:14:19,000 --> 00:14:21,000 essaieront d'influencer la décision. 343 00:14:21,000 --> 00:14:23,000 Et j'appelle ça leur programme. 344 00:14:23,000 --> 00:14:25,000 Et vous voyez un programme -- 345 00:14:25,000 --> 00:14:28,000 c'est du marketing, c'est de la politique -- 346 00:14:28,000 --> 00:14:31,000 essayez de vous convaincre que vous avez un modèle par rapport à un autre, 347 00:14:31,000 --> 00:14:33,000 essayez de vous convaincre d'ignorer un modèle 348 00:14:33,000 --> 00:14:36,000 et de vous fier à vos impressions, 349 00:14:36,000 --> 00:14:39,000 marginaliser les gens qui ont des modèles que vous n'aimez pas. 350 00:14:39,000 --> 00:14:42,000 Ce n'est pas rare, 351 00:14:42,000 --> 00:14:45,000 Un exemple, un très bon exemple, c'est le risque du tabac. 352 00:14:46,000 --> 00:14:49,000 Dans l'histoire de ces 50 dernières années, le risque du tabac 353 00:14:49,000 --> 00:14:51,000 montre comment un modèle change, 354 00:14:51,000 --> 00:14:54,000 et il montre aussi comment une industrie combat 355 00:14:54,000 --> 00:14:56,000 un modèle qu'elle n'aime aps. 356 00:14:56,000 --> 00:14:59,000 Comparez ça au débat sur le tabagisme passif -- 357 00:14:59,000 --> 00:15:02,000 probablement avec 20 ans de retard. 358 00:15:02,000 --> 00:15:04,000 Pensez aux ceintures de sécurité. 359 00:15:04,000 --> 00:15:06,000 Quand j'étais enfant, personne ne mettait de ceinture de sécurité. 360 00:15:06,000 --> 00:15:08,000 Aujourd'hui, pas un enfant ne vous laissera conduire 361 00:15:08,000 --> 00:15:10,000 si vous n'attachez pas votre ceinture de sécurité. 362 00:15:11,000 --> 00:15:13,000 Comparez ça au débat sur l'airbag -- 363 00:15:13,000 --> 00:15:16,000 probablement avec 30 ans de retard. 364 00:15:16,000 --> 00:15:19,000 Ce sont tous des exemples de modèles qui changent. 365 00:15:21,000 --> 00:15:24,000 Ce que nous apprenons c'est qu'il est difficile de changer les modèles. 366 00:15:24,000 --> 00:15:26,000 Les modèles sont difficiles à déloger. 367 00:15:26,000 --> 00:15:28,000 S'ils correspondent à vos impressions, 368 00:15:28,000 --> 00:15:31,000 vous ne savez même pas que vous avez un modèle. 369 00:15:31,000 --> 00:15:33,000 Et il y a une autre tendance cognitive 370 00:15:33,000 --> 00:15:35,000 que j'appellerais une tendance de confirmation, 371 00:15:35,000 --> 00:15:38,000 quand nous tendons à accepter des données 372 00:15:38,000 --> 00:15:40,000 qui confirment ce que nous croyons 373 00:15:40,000 --> 00:15:43,000 et à rejeter des données qui contredisent ce que nous croyons. 374 00:15:44,000 --> 00:15:46,000 Donc nous sommes susceptibles 375 00:15:46,000 --> 00:15:49,000 d'ignorer les preuves qui contredisent notre modèle, même si elles sont flagrantes. 376 00:15:49,000 --> 00:15:52,000 Elle doivent être vraiment flagrantes avant que nous y prêtions attention. 377 00:15:53,000 --> 00:15:55,000 Les nouveaux modèles qui durent sur de longues périodes sont difficiles. 378 00:15:55,000 --> 00:15:57,000 Le réchauffement planétaire est un excellent exemple. 379 00:15:57,000 --> 00:15:59,000 Nous sommes très mauvais 380 00:15:59,000 --> 00:16:01,000 avec les modèles qui couvrent 80 ans. 381 00:16:01,000 --> 00:16:03,000 Nous pouvons aller jusqu'à la prochaine récolte. 382 00:16:03,000 --> 00:16:06,000 Nous pouvons souvent aller jusqu'à ce que nos enfants grandissent. 383 00:16:06,000 --> 00:16:09,000 Mais 80 ans, nous ne sommes pas bons avec ça. 384 00:16:09,000 --> 00:16:12,000 C'est donc un modèle très difficile à accepter. 385 00:16:12,000 --> 00:16:16,000 Nous pouvons avoir les deux modèles simultanément en tête, 386 00:16:16,000 --> 00:16:19,000 ou ce genre de problème 387 00:16:19,000 --> 00:16:22,000 où nous prenons ensemble ces deux choses en quoi nous croyons, 388 00:16:22,000 --> 00:16:24,000 ou la dissonance cognitive. 389 00:16:24,000 --> 00:16:26,000 Au final, 390 00:16:26,000 --> 00:16:29,000 le nouveau modèle remplacera l'ancien. 391 00:16:29,000 --> 00:16:32,000 Des impressions fortes peuvent créer un modèle. 392 00:16:32,000 --> 00:16:35,000 Le 11 septembre a créé un modèle de sécurité 393 00:16:35,000 --> 00:16:37,000 dans la tête de beaucoup de gens. 394 00:16:37,000 --> 00:16:40,000 Aussi, les expériences personnelles avec le crime peuvent le faire, 395 00:16:40,000 --> 00:16:42,000 les peurs pour la santé personnelle, 396 00:16:42,000 --> 00:16:44,000 une alerte de santé dans les informations. 397 00:16:44,000 --> 00:16:46,000 Vous verrez que les psychiatres 398 00:16:46,000 --> 00:16:48,000 les appellent des évènements flash. 399 00:16:48,000 --> 00:16:51,000 ils peuvent créer un modèle instantannément, 400 00:16:51,000 --> 00:16:54,000 parce qu'ils génèrent beaucoup d'émotion. 401 00:16:54,000 --> 00:16:56,000 Donc dans le monde technologique, 402 00:16:56,000 --> 00:16:58,000 nous n'avons pas l'expérience 403 00:16:58,000 --> 00:17:00,000 pour juger les modèles. 404 00:17:00,000 --> 00:17:02,000 Et nous comptons sur les autres. Nous comptons sur des intermédiaires. 405 00:17:02,000 --> 00:17:06,000 Je veux dire, ça marche tant qu'il s'agit de corriger les autres. 406 00:17:06,000 --> 00:17:08,000 Nous comptons sur les agences gouvernementales 407 00:17:08,000 --> 00:17:13,000 pour nous dire quels produits pharmaceutiques sont sûrs. 408 00:17:13,000 --> 00:17:15,000 Je suis venu en avion ici hier, 409 00:17:15,000 --> 00:17:17,000 je n'ai pas vérifié l'avion. 410 00:17:17,000 --> 00:17:19,000 j'ai compté sur un autre groupe 411 00:17:19,000 --> 00:17:22,000 pour déterminer si mon avion était sûr pour voler. 412 00:17:22,000 --> 00:17:25,000 Nous sommes ici, aucun de nous n'a peur que le toit s'effondre sur nous, 413 00:17:25,000 --> 00:17:28,000 pas parce que nous avons vérifié, 414 00:17:28,000 --> 00:17:30,000 mais parce que nous sommes sûrs 415 00:17:30,000 --> 00:17:33,000 que les codes de constructions sont bons ici. 416 00:17:33,000 --> 00:17:35,000 C'est un modèle que nous nous contentons d'accepter 417 00:17:35,000 --> 00:17:37,000 plutôt par foi. 418 00:17:37,000 --> 00:17:40,000 Et c'est bien. 419 00:17:42,000 --> 00:17:44,000 Maintenant, ce que nous voulons 420 00:17:44,000 --> 00:17:46,000 c'est que les gens se familiarisent suffisemment 421 00:17:46,000 --> 00:17:48,000 avec de meilleurs modèles -- 422 00:17:48,000 --> 00:17:50,000 qui reflètent leurs impressions -- 423 00:17:50,000 --> 00:17:54,000 pour leur permettre de faire des échanges de sécurité. 424 00:17:54,000 --> 00:17:56,000 Et quand ils ne collent pas, 425 00:17:56,000 --> 00:17:58,000 vous avez deux options. 426 00:17:58,000 --> 00:18:00,000 La première, vous pouvez changer les impressions des gens, 427 00:18:00,000 --> 00:18:02,000 un appel direct aux impressions. 428 00:18:02,000 --> 00:18:05,000 C'est de la manipulation, mais ça peut marcher. 429 00:18:05,000 --> 00:18:07,000 La deuxième, plus honnête, 430 00:18:07,000 --> 00:18:10,000 est en fait de modifier le modèle. 431 00:18:11,000 --> 00:18:13,000 Le changement se produit lentement. 432 00:18:13,000 --> 00:18:16,000 Le débat sur le tabac a pris 40 ans, 433 00:18:16,000 --> 00:18:19,000 et c'était facile. 434 00:18:19,000 --> 00:18:21,000 Certains de ces trucs sont difficiles. 435 00:18:21,000 --> 00:18:23,000 Je veux dire 436 00:18:23,000 --> 00:18:25,000 que les informations semblent être notre meilleur espoir. 437 00:18:25,000 --> 00:18:27,000 Et j'ai menti. 438 00:18:27,000 --> 00:18:29,000 Rappelez-vous quand j'ai dit impression, modèle, réalité. 439 00:18:29,000 --> 00:18:32,000 J'ai dit que la réalité ne change pas. En fait, si. 440 00:18:32,000 --> 00:18:34,000 Nous vivons dans u monde technologique ; 441 00:18:34,000 --> 00:18:37,000 la réalité change tout le temps. 442 00:18:37,000 --> 00:18:40,000 Il se pourrait donc que nous ayons -- pour la première fois dans l'histoire de notre espèce -- 443 00:18:40,000 --> 00:18:43,000 l'impression qui court derrière le modèle, le modèle derrière la réalité, la réalité bouge -- 444 00:18:43,000 --> 00:18:46,000 ils pourraient ne jamais se rattrapper. 445 00:18:47,000 --> 00:18:49,000 Nous ne le savons pas. 446 00:18:49,000 --> 00:18:51,000 Mais sur le long terme, 447 00:18:51,000 --> 00:18:54,000 l'impression et la réalité sont toutes deux importantes. 448 00:18:54,000 --> 00:18:57,000 Et je veut conclure avec deux histoires courtes pour illustrer cela. 449 00:18:57,000 --> 00:18:59,000 1982 -- je ne sais pas si les gens se souviendront de ça -- 450 00:18:59,000 --> 00:19:02,000 il y a eu un épidémie de courte durée 451 00:19:02,000 --> 00:19:04,000 d'empoisonnements au Tylenol aux Etats-Unis. 452 00:19:04,000 --> 00:19:07,000 C'est une histoire horrible. Quelqu'un a pris une bouteille de Tylenol, 453 00:19:07,000 --> 00:19:10,000 a mis du poison dedans, l'a refermée, l'a remise dans le rayon. 454 00:19:10,000 --> 00:19:12,000 Quelqu'un d'autre l'a acheté et est mort. 455 00:19:12,000 --> 00:19:14,000 Ça a terrifié les gens. 456 00:19:14,000 --> 00:19:16,000 Il y a eu deux ou trois attaques par des imitateurs. 457 00:19:16,000 --> 00:19:19,000 Il n'y avait pas vraiment de risque réel, mais les gens étaient terrifiés. 458 00:19:19,000 --> 00:19:21,000 Et c'est comme ça 459 00:19:21,000 --> 00:19:23,000 que l'industrie du médicament scellé a été inventée. 460 00:19:23,000 --> 00:19:25,000 Ces bouchons scellés, c'est de là qu'ils viennent. 461 00:19:25,000 --> 00:19:27,000 C'est du théâtre de sécurité complet. 462 00:19:27,000 --> 00:19:29,000 Et en guise de devoir à la maison, réfléchissez à 10 manières de le contourner. 463 00:19:29,000 --> 00:19:32,000 Je vous en donne un, une seringue. 464 00:19:32,000 --> 00:19:35,000 Mais ça a rassuré les gens. 465 00:19:35,000 --> 00:19:37,000 Ça a rapproché leur impression de sécurité 466 00:19:37,000 --> 00:19:39,000 de la réalité. 467 00:19:39,000 --> 00:19:42,000 La dernière histoire, il y a quelques années, une de mes amies a eu un bébé. 468 00:19:42,000 --> 00:19:44,000 Je suis allé la voir à l'hôpital. 469 00:19:44,000 --> 00:19:46,000 Il s'avère que maintenant, quand un bébé naît, 470 00:19:46,000 --> 00:19:48,000 ils lui mettent un bracelet avec une puce RFID, 471 00:19:48,000 --> 00:19:50,000 en mettent un qui correspond à la mère, 472 00:19:50,000 --> 00:19:52,000 pour que si quelqu'un d'autre que la mère emmène le bébé hors de la maternité, 473 00:19:52,000 --> 00:19:54,000 un alarme se déclenche. 474 00:19:54,000 --> 00:19:56,000 J'ai dit, "C'est chouette. 475 00:19:56,000 --> 00:19:58,000 Je me demande à quel point l'enlèvement de bébés est en augmentation 476 00:19:58,000 --> 00:20:00,000 en dehors des hôpitaux." 477 00:20:00,000 --> 00:20:02,000 Je rentre chez moi, je vérifie. 478 00:20:02,000 --> 00:20:04,000 Ça n'arrive quasiment jamais. 479 00:20:04,000 --> 00:20:06,000 Mais si vous y réfléchissez, 480 00:20:06,000 --> 00:20:08,000 si vous êtes un hôpital, 481 00:20:08,000 --> 00:20:10,000 et que nous devez enlever un bébé à sa mère, 482 00:20:10,000 --> 00:20:12,000 le sortir de la pièce pour faire des examens, 483 00:20:12,000 --> 00:20:14,000 il vaut mieux que vous ayez un bon théâtre de sécurité, 484 00:20:14,000 --> 00:20:16,000 ou elle va vous arracher le bras. 485 00:20:16,000 --> 00:20:18,000 (Rires) 486 00:20:18,000 --> 00:20:20,000 C'est donc important pour nous, 487 00:20:20,000 --> 00:20:22,000 qui concevons des systèmes de sécurité, 488 00:20:22,000 --> 00:20:25,000 qui examinons la politique de sécurité, 489 00:20:25,000 --> 00:20:27,000 ou même la politique publique 490 00:20:27,000 --> 00:20:29,000 de manières qui affectent la sécurité. 491 00:20:29,000 --> 00:20:32,000 Il ne s'agit pas que de sécurité, il s'agit d'impression et de réalité. 492 00:20:32,000 --> 00:20:34,000 Ce qui est important 493 00:20:34,000 --> 00:20:36,000 est qu'elles soient en gros équivalentes, 494 00:20:36,000 --> 00:20:38,000 il est important que, si nos impressions collent à la réalité, 495 00:20:38,000 --> 00:20:40,000 nous faisons de meilleurs échanges de sécurité. 496 00:20:40,000 --> 00:20:42,000 Merci. 497 00:20:42,000 --> 00:20:44,000 (Applaudissements)