0:00:00.485,0:00:02.707 Dieci anni fa, scrissi un libro [br]che intitolai 0:00:02.707,0:00:05.093 "Il nostro ultimo secolo?", [br]punto interrogativo. 0:00:05.093,0:00:07.479 Gli editori eliminarono [br]il punto interrogativo. 0:00:07.479,0:00:09.867 (Risate) 0:00:09.867,0:00:11.879 Gli editori americani [br]cambiarono il titolo 0:00:11.879,0:00:15.158 in "La nostra ultima ora". 0:00:15.168,0:00:18.660 Agli americani piace la gratificazione [br]istantanea e viceversa. 0:00:18.660,0:00:20.368 (Risate) 0:00:20.368,0:00:22.118 Il tema era il seguente: 0:00:22.118,0:00:26.674 il nostro pianeta è esistito [br]per 45 milioni di secoli, 0:00:26.674,0:00:28.557 ma questo è speciale; 0:00:28.557,0:00:31.613 è il primo in cui una specie, la nostra, 0:00:31.613,0:00:34.295 ha il futuro del pianeta [br]nelle proprie mani. 0:00:34.295,0:00:36.595 Per quasi tutta la storia della Terra, 0:00:36.595,0:00:38.491 le minacce sono giunte [br]dalla natura: 0:00:38.491,0:00:41.537 malattie, terremoti, asteroidi e così via, 0:00:41.537,0:00:46.739 ma da adesso, i pericoli maggiori [br]provengono da noi stessi. 0:00:46.739,0:00:50.480 E non si tratta soltanto [br]della minaccia nucleare; 0:00:50.480,0:00:52.331 nel nostro mondo interconnesso 0:00:52.331,0:00:55.394 guasti nella rete possono [br]propagarsi globalmente; 0:00:55.394,0:00:59.450 i viaggi aerei possono diffondere epidemie [br]in tutto il mondo in pochi giorni; 0:00:59.450,0:01:02.987 e i social media possono diffondere [br]chiacchiere e panico 0:01:02.987,0:01:05.904 letteralmente alla velocità della luce. 0:01:05.904,0:01:09.369 Ci agitiamo tanto per rischi minori 0:01:09.379,0:01:13.304 come improbabili incidenti aerei, [br]sostanze cancerogene negli alimenti, 0:01:13.304,0:01:15.626 basse dosi di radiazioni ecc., 0:01:15.626,0:01:18.201 ma noi e i nostri leader politici 0:01:18.201,0:01:22.404 neghiamo gli scenari catastrofici. 0:01:22.404,0:01:25.442 Fortunatamente, il peggio [br]deve ancora venire. 0:01:25.442,0:01:27.638 Probabilmente non verrà mai. 0:01:27.638,0:01:30.943 Ma se un evento è [br]potenzialmente devastante, 0:01:30.943,0:01:33.691 vale la pena pagare un extra 0:01:33.691,0:01:37.527 per difenderci, anche se è improbabile, 0:01:37.527,0:01:42.030 come se facessimo un'assicurazione [br]anti-incendio per la nostra casa. 0:01:42.040,0:01:47.497 Dato che la scienza offre maggiori[br]poteri e speranza, 0:01:47.497,0:01:50.903 anche il lato negativo si fa [br]più spaventoso. 0:01:50.903,0:01:53.442 Diventiamo sempre più vulnerabili. 0:01:53.442,0:01:54.980 Entro qualche decennio, 0:01:54.980,0:01:57.210 i soldi avranno la capacità 0:01:57.210,0:02:00.331 di abusare del rapido [br]progresso biotecnologico, 0:02:00.331,0:02:04.164 così come oggi abusano della[br]cybertecnologia. 0:02:04.164,0:02:07.083 Freeman Dyson, in un discorso TED, 0:02:07.083,0:02:10.679 aveva previsto che i bambini avrebbero [br]progettato e creato nuovi organismi 0:02:10.679,0:02:15.190 tanto regolarmente quanto la sua [br]generazione giocava al piccolo chimico. 0:02:15.190,0:02:17.718 Questo potrebbe essere al limite [br]della fantascienza, 0:02:17.718,0:02:20.901 ma se anche parte del suo scenario [br]avvenisse per davvero, 0:02:20.901,0:02:23.638 la nostra ecologia e la nostra specie 0:02:23.638,0:02:27.637 sicuramente non sopravviverebbe[br]a lungo incolume. 0:02:27.637,0:02:31.490 Ad esempio, alcuni eco-estremisti 0:02:31.490,0:02:33.999 pensano sarebbe meglio per il pianeta, 0:02:33.999,0:02:37.402 per Gaia, se esistessero meno umani. 0:02:37.402,0:02:40.119 Cosa accadrà quando [br]queste persone padroneggeranno 0:02:40.119,0:02:42.256 tecniche di biologia sintetica 0:02:42.256,0:02:45.408 che saranno diffuse entro il 2050? 0:02:45.408,0:02:48.150 Fino ad allora, altri incubi [br]fantascientifici 0:02:48.150,0:02:50.150 potrebbero già divenire realtà: 0:02:50.150,0:02:51.930 stupidi robot che si ribellano, 0:02:51.930,0:02:54.617 o un network che sviluppa [br]una propria mente 0:02:54.617,0:02:56.936 e ci minaccia tutti. 0:02:56.936,0:03:00.206 Ecco, possiamo difenderci [br]da tali rischi con delle norme? 0:03:00.206,0:03:02.613 Sicuramente dobbiamo provarci,[br]ma queste imprese 0:03:02.613,0:03:06.142 sono talmente competitive, globalizzate, 0:03:06.142,0:03:08.122 e guidate dalla pressione commerciale 0:03:08.122,0:03:11.407 che qualunque cosa si possa fare [br]verrà fatta da qualche parte 0:03:11.407,0:03:13.248 incuranti di ciò che dicono le norme. 0:03:13.248,0:03:15.089 È un po' come per le leggi antidroga: 0:03:15.089,0:03:16.930 cerchiamo di regolamentare, [br]ma non ci riusciamo. 0:03:16.930,0:03:20.264 Il villaggio globale avrà [br]i suoi scemi del villaggio 0:03:20.264,0:03:23.790 che avranno un raggio globale. 0:03:23.790,0:03:25.761 Come ho scritto nel mio libro, 0:03:25.761,0:03:28.890 affronteremo un periodo travagliato [br]durante questo secolo. 0:03:28.890,0:03:32.140 Potranno esservi degli ostacoli [br]alla nostra società; 0:03:32.140,0:03:36.585 difatti, vi è un 50 per cento [br]di possibilità di gravi intoppi. 0:03:36.585,0:03:39.169 Ma esistono eventi concepibili 0:03:39.169,0:03:41.330 che potrebbero anche essere peggiori, 0:03:41.330,0:03:44.900 eventi che possono estinguere [br]tutta la vita? 0:03:44.900,0:03:47.686 Quando venne creato [br]un nuovo acceleratore di particelle, 0:03:47.686,0:03:49.475 qualcuno un po' preoccupato chiese 0:03:49.475,0:03:51.925 se fosse in grado di distruggere [br]la Terra, o peggio, 0:03:51.925,0:03:54.384 lacerare il tessuto spaziale. 0:03:54.384,0:03:57.927 Fortunatamente vennero rassicurati. 0:03:57.927,0:03:59.971 Io e altri chiarimmo che la natura 0:03:59.971,0:04:01.904 ha fatto gli stessi esperimenti 0:04:01.904,0:04:04.090 già un'infinità di volte, 0:04:04.090,0:04:06.125 tramite la collisione di raggi cosmici. 0:04:06.125,0:04:08.909 Sicuramente gli scienziati [br]dovrebbero prendere precauzioni 0:04:08.909,0:04:11.489 per gli esperimenti [br]che generano alcune condizioni 0:04:11.489,0:04:13.952 mai viste prima nel mondo naturale. 0:04:13.952,0:04:17.555 I biologi dovrebbero evitare di rilasciare [br]patogeni modificati geneticamente 0:04:17.555,0:04:20.110 e potenzialmente devastanti. 0:04:20.110,0:04:23.627 Ad ogni modo, [br]la nostra speciale avversione 0:04:23.627,0:04:27.088 al rischio di disastri esistenziali 0:04:27.088,0:04:30.363 dipende da una domanda [br]filosofica ed etica, 0:04:30.363,0:04:32.033 ed è la seguente. 0:04:32.033,0:04:34.341 Considerate due scenari. 0:04:34.341,0:04:39.577 Lo scenario A distrugge [br]il 90 per cento dell'umanità. 0:04:39.577,0:04:43.473 Quello B il 100 per cento. 0:04:43.473,0:04:46.391 Quanto peggiore è B rispetto ad A? 0:04:46.391,0:04:49.414 Alcuni direbbero il 10 per cento. 0:04:49.414,0:04:52.564 Il numero delle vittime [br]è del 10 per cento superiore. 0:04:52.564,0:04:55.980 Ma io dico che B [br]è incomparabilmente peggiore. 0:04:55.980,0:04:58.099 Da astronomo, non posso credere 0:04:58.099,0:05:01.196 che gli umani siano la fine della storia. 0:05:01.196,0:05:04.249 Mancano 5 miliardi di anni prima [br]che il sole si spenga 0:05:04.249,0:05:06.600 e l'universo potrebbe esistere [br]per sempre, 0:05:06.600,0:05:09.162 quindi l'evoluzione post-umana, 0:05:09.162,0:05:11.332 qui sulla Terra e oltre, 0:05:11.332,0:05:13.946 potrebbe prolungarsi tanto quanto [br]il processo darwiniano 0:05:13.946,0:05:17.077 che ha condotto a noi, [br]ed essere addirittura più bella. 0:05:17.077,0:05:20.201 Infatti, l'evoluzione futura [br]avverrà più velocemente, 0:05:20.201,0:05:21.980 su una scala temporale [br]tecnologica, 0:05:21.980,0:05:24.699 e non una scala temporale [br]basata sulla selezione naturale. 0:05:24.699,0:05:26.852 Pertanto, vista la posta in gioco, 0:05:26.852,0:05:29.335 non dovremmo assolutamente accettare 0:05:29.335,0:05:31.820 il rischio, neanche uno su un miliardo 0:05:31.820,0:05:34.049 che l'estinzione umana precluda 0:05:34.049,0:05:36.639 questo immenso potenziale. 0:05:36.639,0:05:38.501 Alcuni scenari [br]che sono stati immaginati 0:05:38.501,0:05:40.020 potrebbero essere fantascienza, 0:05:40.020,0:05:43.336 ma altri invece potrebbero essere [br]spaventosamente reali. 0:05:43.336,0:05:46.210 Una massima importante è [br]che se qualcosa non è familiare 0:05:46.210,0:05:48.907 non equivale a dire che è improbabile, 0:05:48.907,0:05:52.055 difatti, questo è il motivo per cui noi [br]all'università di Cambridge 0:05:52.055,0:05:54.980 stiamo aprendo un centro [br]per studiare il modo di mitigare 0:05:54.980,0:05:57.362 questi rischi per l'esistenza. 0:05:57.362,0:05:59.775 Sembra valga la pena solo [br]per poche persone 0:05:59.775,0:06:02.371 pensare a questi disastri potenziali. 0:06:02.371,0:06:05.104 Abbiamo bisogno di tutto l'aiuto possibile [br]anche da altri, 0:06:05.104,0:06:07.583 perché siamo i gestori di un prezioso 0:06:07.583,0:06:11.066 puntino blu pallido nel vasto cosmo, 0:06:11.066,0:06:14.444 un pianeta con 50 milioni di secoli [br]davanti a sé. 0:06:14.444,0:06:17.000 Non mettiamo in pericolo [br]quel futuro. 0:06:17.000,0:06:18.795 Vorrei concludere con una citazione 0:06:18.795,0:06:22.296 di un grande scienziato [br]di nome Peter Medawar. 0:06:22.296,0:06:25.569 Cito: "Le campane che suonano [br]per l'umanità 0:06:25.569,0:06:28.213 sono come le campane [br]del bestiame alpino. 0:06:28.213,0:06:30.499 Sono appese ai nostri colli, 0:06:30.499,0:06:33.174 e sarà colpa nostra se non producono 0:06:33.174,0:06:35.305 un suono melodioso e armonioso". 0:06:35.305,0:06:37.572 Grazie mille. 0:06:37.572,0:06:39.685 (Applausi)