Possiamo costruire IA senza perderne il controllo?
-
0:01 - 0:03Vi parlerò della mancanza d'intuito
-
0:03 - 0:05di cui molti di noi soffrono
-
0:05 - 0:09è davvero un insuccesso non notare un certo tipo di pericolo
-
0:09 - 0:11Vi descriverò uno scenario
-
0:11 - 0:14che penso sia terrificante
-
0:14 - 0:16e allo stesso tempo molto probabile che accada,
-
0:17 - 0:18una combinazione poco felice,
-
0:19 - 0:20a quanto pare.
-
0:20 - 0:23Ma invece di essere spaventati,
molti di voi penseranno -
0:23 - 0:25che quello di cui sto parlando
è piuttosto figo. -
0:25 - 0:28Vi mostrerò che i progressi
che stiamo facendo -
0:28 - 0:30nell'intelligenza artificiale
-
0:30 - 0:32potrebbero distruggerci.
-
0:32 - 0:35Penso sia difficile immaginare
come non possano distruggerci -
0:35 - 0:37o indurci a distruggerci tra noi.
-
0:37 - 0:39E tuttavia, se siete come me,
-
0:39 - 0:42penserete che sia divertente
pensare a queste cose. -
0:42 - 0:45Questa reazione è parte del problema.
-
0:45 - 0:48Ok? Questa reazione dovrebbe preoccuparvi.
-
0:48 - 0:51Se in questa conferenza
vi dovessi convincere -
0:51 - 0:54che è molto probabile che si verifichi
una carestia globale, -
0:54 - 0:57o per i cambiamenti climatici
o per altre catastrofi, -
0:57 - 1:01e che i vostri nipoti, o i loro nipoti,
-
1:01 - 1:02vivranno in queste condizioni,
-
1:03 - 1:04non pensereste:
-
1:05 - 1:07"Interessante.
-
1:07 - 1:08Bello questo TED Talk."
-
1:09 - 1:11La carestia non è divertente.
-
1:12 - 1:15Una morte fantascientifica,
d'altro canto, è divertente, -
1:15 - 1:19e una delle cose che mi preoccupano di più
dello sviluppo dell'AI -
1:19 - 1:23è che non sembriamo in grado
di organizzare la giusta risposta emotiva -
1:23 - 1:25rispetto al pericolo che corriamo.
-
1:25 - 1:28Nemmeno io ne sono in grado,
e sto facendo questo intervento. -
1:30 - 1:33È come se ci trovassimo
davanti a due porte. -
1:33 - 1:34Dietro la prima c'è questo:
-
1:34 - 1:37smettiamo di fare progressi
nel costruire macchine intelligenti. -
1:37 - 1:41Per qualche motivo gli hardware e software
dei nostri computer non migliorano più. -
1:41 - 1:44Pensate un attimo per quale motivo
potrebbe succedere. -
1:45 - 1:49Insomma, visto quanto sono importanti
l'intelligenza e l'automazione, -
1:49 - 1:52continueremo a migliorare
la nostra tecnologia, se possiamo. -
1:53 - 1:55Cosa potrebbe impedircelo?
-
1:56 - 1:58Una guerra atomica su scala mondiale?
-
1:59 - 2:01Una pandemia globale?
-
2:02 - 2:04L'impatto di un asteroide?
-
2:06 - 2:08Justin Bieber che diventa
il primo presidente degli USA? -
2:08 - 2:11(Risate)
-
2:13 - 2:17Qualcosa dovrebbe distruggere
la nostra civiltà, per come la conosciamo. -
2:17 - 2:22Dovete immaginare quanto
dovrebbe essere catastrofico -
2:22 - 2:25per farci smettere di sviluppare
la nostra tecnologia, -
2:25 - 2:26per sempre,
-
2:26 - 2:28generazione dopo generazione.
-
2:28 - 2:30Sarebbe per definizione la cosa peggiore
-
2:30 - 2:32mai successa nella storia dell'uomo.
-
2:33 - 2:34Perciò l'unica alternativa,
-
2:34 - 2:36ovvero ciò che c'è
dietro la seconda porta, -
2:36 - 2:39è che continueremo a sviluppare
l'intelligenza artificiale, -
2:39 - 2:41anno dopo anno.
-
2:42 - 2:45Arriverà un momento in cui costruiremo
macchine più intelligenti di noi, -
2:46 - 2:49e quando le macchine saranno
più intelligenti di noi -
2:49 - 2:51inizieranno a migliorarsi da sole.
-
2:51 - 2:53Allora rischieremo quello che
il matematico IJ Good chiama -
2:53 - 2:55"esplosione dell'intelligenza",
-
2:55 - 2:57ovvero che potremmo perdere il controllo.
-
2:58 - 3:01Come vedete, spesso questo viene reso
con una caricatura, -
3:01 - 3:04ovvero la paura che un esercito
di robot malvagi -
3:04 - 3:05ci attacchi.
-
3:05 - 3:08Ma questo non è lo scenario più probabile.
-
3:08 - 3:13Le nostre macchine non diventeranno
malvagie spontaneamente. -
3:13 - 3:16Il problema è che costruiremo macchine
-
3:16 - 3:18che saranno tanto più capaci di noi
-
3:18 - 3:22che la più piccola divergenza
tra i loro obiettivi e i nostri -
3:22 - 3:23ci potrebbe distruggere.
-
3:24 - 3:26Pensate a come ci comportiamo
con le formiche. -
3:27 - 3:28Non le odiamo.
-
3:28 - 3:30Non facciamo loro del male apposta.
-
3:30 - 3:33Alle volte facciamo attenzione
a non danneggiarle. -
3:33 - 3:35Le saltiamo, quando sono sul marciapiede.
-
3:35 - 3:37Ma se la loro presenza
-
3:37 - 3:39ci intralcia,
-
3:39 - 3:42ad esempio se dobbiamo costruire
un edificio come questo, -
3:42 - 3:44le distruggiamo senza battere ciglio.
-
3:44 - 3:47La mia preoccupazione è che un giorno
costruiremo delle macchine -
3:47 - 3:50che, consapevolmente o meno,
-
3:50 - 3:52possano trattarci
con la stessa noncuranza. -
3:54 - 3:57Penserete che tutto questo
sia inverosimile -
3:57 - 4:04Scommetto che alcuni di voi dubitano
che una IA del genere sia possibile, -
4:04 - 4:05e ancor meno, che sia inevitabile.
-
4:05 - 4:09Ma per credere questo dovete trovare
qualcosa di sbagliato in questi assunti. -
4:09 - 4:11Sono solo tre.
-
4:12 - 4:17L'intelligenza dipende dalle informazioni
elaborate in un sistema fisico. -
4:17 - 4:20In realtà questo è più di un assunto.
-
4:20 - 4:23Abbiamo già inserito delle "IA deboli"
nelle nostre macchine, -
4:23 - 4:25e molte di queste hanno già dato risultati
-
4:25 - 4:28a livelli di una super intelligenza.
-
4:29 - 4:31Sappiamo che la sola materia
-
4:31 - 4:34può dar vita alla "intelligenza generale",
-
4:34 - 4:38l'abilità di pensare in modo flessibile
attraverso settori diversi, -
4:38 - 4:41perché il nostro cervello
lo sa fare. Giusto? -
4:41 - 4:45Alla fine, ci sono solo atomi qua dentro,
-
4:45 - 4:49e finché continuiamo a costruire
dei sistemi fatti di atomi -
4:49 - 4:52che manifestano comportamenti
sempre più intelligenti, -
4:52 - 4:55a meno che qualcosa non ce lo impedisca,
-
4:55 - 4:58arriveremo a immettere
l'intelligenza generale -
4:58 - 4:59nelle nostre macchine.
-
4:59 - 5:03È fondamentale capire
che il tasso di progresso non conta, -
5:03 - 5:06perché ogni progresso basta
ad avvicinarci al suo compimento. -
5:06 - 5:10Non c'è bisogno della legge di Moore,
o della crescita esponenziale. -
5:10 - 5:12Basta proseguire.
-
5:13 - 5:16Il secondo assunto è che proseguiremo.
-
5:17 - 5:20Continueremo a migliorare
le nostre macchine intelligenti. -
5:21 - 5:25E data l'importanza dell'intelligenza...
-
5:25 - 5:29O l'intelligenza è la fonte di tutto ciò
che per noi ha valore, -
5:29 - 5:32o ne abbiamo bisogno per preservare
tutto ciò che ha valore. -
5:32 - 5:34È la nostra risorsa più importante.
-
5:34 - 5:36Per questo lo facciamo.
-
5:36 - 5:39Ci sono problemi che dobbiamo
risolvere disperatamente. -
5:39 - 5:42Vogliamo curare malattie
come l'Alzheimer e il cancro. -
5:43 - 5:47Vogliamo comprendere i sistemi economici,
migliorare le scienze del clima. -
5:47 - 5:49Perciò lo faremo, se possiamo.
-
5:49 - 5:52Il treno ha già lasciato la stazione
e non c'è nessun freno da tirare. -
5:54 - 5:59Infine, non abbiamo ancora raggiunto
il culmine della nostra intelligenza, -
5:59 - 6:01nemmeno lontanamente.
-
6:02 - 6:04Questa è l'intuizione fondamentale,
-
6:04 - 6:06ciò che rende la nostra situazione
così precaria -
6:06 - 6:10e la nostra percezione del rischio
così inaffidabile. -
6:11 - 6:14Pensate alla persona più intelligente
che sia mai vissuta. -
6:15 - 6:18Quasi tutti inserirebbero
John von Neumann tra i primi posti. -
6:18 - 6:21L'ottima impressione che von Neumann
fece sulle persone intorno a lui, -
6:21 - 6:25tra cui c'erano i più grandi fisici
e matematici del suo tempo, -
6:26 - 6:27è ben documentata.
-
6:27 - 6:31Se solo metà delle storie su di lui
sono vere a metà, -
6:31 - 6:32non ci sono dubbi
-
6:32 - 6:35che sia una delle persone
più intelligenti mai vissute. -
6:35 - 6:38Considerate una gamma di intelligenze.
-
6:38 - 6:40Qui abbiamo John von Neumann.
-
6:42 - 6:43Qui ci siamo io e voi.
-
6:44 - 6:45E qui una gallina.
-
6:45 - 6:47(Risate)
-
6:47 - 6:49Scusate, una gallina.
-
6:49 - 6:50(Risate)
-
6:50 - 6:54Non rendiamo questo incontro
più deprimente di quanto non sia già. -
6:54 - 6:55(Risate)
-
6:56 - 7:00È molto probabile, però,
che la gamma delle intelligenze -
7:00 - 7:03sia molto più estesa di quando si pensi,
-
7:04 - 7:07e se costruiamo delle macchine
molto più intelligenti di noi, -
7:07 - 7:09finiranno con l'esplorare questa gamma
-
7:09 - 7:11in modi che non possiamo prevedere,
-
7:11 - 7:14e ci supereranno in modi
che non possiamo immaginare. -
7:15 - 7:19È importante riconoscere che questo
sia vero anche in virtù della velocità. -
7:19 - 7:24Giusto? Immaginate che sia stata inventata
una IA super intelligente, -
7:24 - 7:28che non sia più brillante
di un normale gruppo di ricerca -
7:28 - 7:30a Stanford o al MIT.
-
7:30 - 7:33I circuiti elettronici funzionano
un milione di volte più veloci -
7:33 - 7:34di quelli biochimici,
-
7:35 - 7:38perciò questa macchina funzionerà
un milione di volte più velocemente -
7:38 - 7:39delle menti che l'hanno costruita.
-
7:40 - 7:41In una settimana
-
7:41 - 7:46avrà fatto il lavoro di 20 mila anni
di lavoro intellettuale umano, -
7:46 - 7:48settimana, dopo settimana.
-
7:50 - 7:53Come possiamo comprendere,
e figuriamoci contenere, -
7:53 - 7:55una mente che progredisce
così velocemente? -
7:57 - 7:59C'è un altro aspetto preoccupante,
-
7:59 - 8:04anche immaginando lo scenario
più ottimista. -
8:04 - 8:08Mettiamo che abbiamo realizzato
una IA super intelligente -
8:08 - 8:10senza problemi di sicurezza.
-
8:10 - 8:13Abbiamo trovato alla prima
il design perfetto. -
8:13 - 8:15Come se ci avessero dato un oracolo
-
8:15 - 8:17che si comporta proprio come dovrebbe.
-
8:17 - 8:21Sarebbe lo strumento perfetto
per risparmiare fatica. -
8:22 - 8:24Può progettare la macchina
che ne costruisce un'altra -
8:24 - 8:26che faccia qualsiasi lavoro fisico,
-
8:26 - 8:27azionata dalla luce solare,
-
8:27 - 8:30più o meno al costo della materia prima.
-
8:30 - 8:33Per l'uomo, sarebbe la fine
del lavoro duro, -
8:33 - 8:36ma anche della maggior parte
dei lavori intellettuali. -
8:37 - 8:40Cosa farebbero degli scimmioni come siamo
in queste circostanze? -
8:40 - 8:44Saremmo liberi di giocare a frisbee
e farci i massaggi a vicenda. -
8:46 - 8:49Aggiungete un po' di LSD, dei vestiti
di dubbio gusto, -
8:49 - 8:51e il mondo sarebbe come il Burning Man.
-
8:51 - 8:53(Risate)
-
8:54 - 8:56Tutto questo non suona male,
-
8:57 - 9:00ma pensate a come sarebbe se accadesse
-
9:00 - 9:02in un ordine economico
e politico come il nostro. -
9:02 - 9:05Assisteremmo
-
9:05 - 9:09ad una disparità delle ricchezze
e ad una disoccupazione -
9:09 - 9:11senza precedenti.
-
9:11 - 9:13Non ci sarebbe la volontà
di mettere questo nuovo benessere -
9:13 - 9:15al servizio di tutti,
-
9:16 - 9:19Pochi miliardari adornerebbero
le copertine di riviste di business, -
9:19 - 9:22mentre il resto del mondo
morirebbe di fame. -
9:22 - 9:25Cosa farebbero, allora,
la Russia e la Cina -
9:25 - 9:27se sapessero che nella Silicon Valley
delle compagnie -
9:27 - 9:30fossero sul punto di rilasciare una IA
super intelligente? -
9:30 - 9:33Questa macchina
potrebbe scatenare una guerra, -
9:33 - 9:35terrestre o cibernetica,
-
9:35 - 9:37disponendo di un potere senza pari.
-
9:38 - 9:40Uno scenario di vittoria assoluta.
-
9:40 - 9:43Essere in vantaggio sulla competizione
anche solo di sei mesi -
9:43 - 9:46è come essere avanti di 500 mila,
-
9:46 - 9:47almeno.
-
9:47 - 9:52Perciò anche solo la voce
di una svolta simile -
9:52 - 9:55potrebbe far impazzire la nostra specie.
-
9:55 - 9:58Tra gli aspetti più inquietanti,
-
9:58 - 10:00a mio parere, che ci sono al momento,
-
10:00 - 10:05sono le risposte che danno
i ricercatori di IA -
10:05 - 10:06quando vogliono rassicurarci.
-
10:07 - 10:10Una delle rassicurazioni più comuni
è che abbiamo tempo. -
10:10 - 10:13Siamo ancora molto lontani, sapete.
-
10:13 - 10:15Ci vorranno ancora 50 o 100 anni.
-
10:16 - 10:17Un ricercatore ha detto:
-
10:17 - 10:19"Preoccuparsi della sicurezza dell'IA
-
10:19 - 10:21è come preoccuparsi
della sovrappopolazione su Marte." -
10:22 - 10:24La versione della Silicon Valley di:
-
10:24 - 10:27"non turbare la tua bella testolina
con questi problemi". -
10:27 - 10:27(Risate)
-
10:28 - 10:29Nessuno sembra notare
-
10:29 - 10:32che far riferimento
all'orizzonte temporale -
10:32 - 10:35è del tutto illogico.
-
10:35 - 10:38Se l'intelligenza è questione
di processare le informazioni -
10:38 - 10:41e continueremo a migliorare
le nostre macchine, -
10:41 - 10:44arriveremo a produrre una forma
di intelligenza superiore. -
10:44 - 10:48E non abbiamo idea di quanto ci voglia
-
10:48 - 10:50per crearla in condizioni di sicurezza.
-
10:52 - 10:53Lo ripeto.
-
10:54 - 10:57Non abbiamo idea di quanto ci voglia
-
10:57 - 11:00per crearla in condizioni di sicurezza.
-
11:01 - 11:04E 50 di progresso, oggi,
non sono più come una volta. -
11:04 - 11:07Questi sono 50 anni riportati in mesi.
-
11:07 - 11:09Questo è da quanto abbiamo l'iPhone.
-
11:09 - 11:12Questo è da quanto "I Simpson" sono in tv.
-
11:13 - 11:1550 anni non sono poi così tanti
-
11:15 - 11:18per affrontare una delle sfide maggiori
che l'uomo abbia affrontato. -
11:20 - 11:24Ancora una volta, sembra che ci manchi
la giusta risposta emotiva -
11:24 - 11:26a quello che, per vari motivi,
sappiamo che accadrà. -
11:26 - 11:30L'informatico Stuart Russel
ha fatto una giusta analogia. -
11:30 - 11:35Ha detto di immaginare di ricevere
un messaggio dagli alieni -
11:35 - 11:37che dice:
-
11:37 - 11:39"Popolo della Terra,
-
11:39 - 11:41arriveremo sul vostro pianeta fra 50 anni.
-
11:42 - 11:43Preparatevi".
-
11:43 - 11:48Staremmo qui a fare il conto alla rovescia
finché non atterri la nave ammiraglia? -
11:48 - 11:51O forse sentiremmo
un pochino più di urgenza? -
11:53 - 11:55In più, ci dicono di non preoccuparci
-
11:55 - 11:58perché queste macchine
avrebbero i nostri stessi valori, -
11:58 - 12:00essendo una vera e propria
estensione di noi stessi. -
12:00 - 12:02Ce le impianteremo nel cervello,
-
12:02 - 12:04e diventeremo il loro sistema limbico.
-
12:05 - 12:07Pensate un attimo
-
12:07 - 12:10che la via più sicura e prudente,
-
12:10 - 12:11quella raccomandata,
-
12:11 - 12:14è di impiantarci questa tecnologia
direttamente nel cervello. -
12:15 - 12:18Ora, questa potrebbe essere
l'unica via più sicura e prudente, -
12:18 - 12:21ma di solito uno dovrebbe
aver chiarito tutti i dubbi -
12:21 - 12:25su una tecnologia prima
di infilarsela in testa. -
12:25 - 12:27(Risate)
-
12:27 - 12:32Il problema principale è che costruire
una IA super intelligente, a parte, -
12:32 - 12:34sembra molto più semplice
-
12:34 - 12:36di costruirla
-
12:36 - 12:38ed avere le conoscenze neuroscientifiche
-
12:38 - 12:40che consentano di integrarla
completamente alla nostra mente. -
12:41 - 12:44Dato che le aziende e i governi
che ci lavorano -
12:44 - 12:48sono in competizione
gli uni con gli altri, -
12:48 - 12:51e dato che vincere questa gara
equivale a dominare il mondo, -
12:51 - 12:53sempre che non venga distrutto
subito dopo, -
12:53 - 12:56è probabile che verrà intrapresa
-
12:56 - 12:57la strada più facile.
-
12:59 - 13:01Purtroppo non ho soluzione
a questo problema, -
13:01 - 13:04a parte raccomandare
che più persone ci pensino. -
13:04 - 13:06Credo che ci servirebbe una specie
di Progetto Manhattan -
13:06 - 13:08sull'intelligenza artificiale.
-
13:08 - 13:11Non per costruirla, perché penso
che ci arriveremo comunque, -
13:11 - 13:15ma per capire come evitare
una corsa alle armi -
13:15 - 13:18e per svilupparla in modo che sia in linea
con i nostri interessi. -
13:18 - 13:20Quando si parla di una IA
super intelligente -
13:20 - 13:23che possa migliorarsi da sola,
-
13:23 - 13:27la nostra unica opzione è quella
di darle le giuste impostazioni iniziali, -
13:27 - 13:29e anche allora dovremo comprendere
-
13:29 - 13:32quali saranno le conseguenze
economiche e politiche. -
13:34 - 13:36Ma se ammettiamo che
-
13:36 - 13:40l'elaborazione delle informazioni
è la fonte dell'intelligenza, -
13:41 - 13:46che un sistema computazionale idoneo
è alla base dell'intelligenza, -
13:46 - 13:50se ammettiamo che svilupperemo
continuamente tali sistemi, -
13:51 - 13:56e che l'orizzonte cognitivo
è di gran lunga maggiore -
13:56 - 13:57di ciò che sappiamo ora,
-
13:58 - 13:59allora dobbiamo ammettere
-
13:59 - 14:02che stiamo costruendo una sorta di dio.
-
14:03 - 14:05Ora sarebbe il momento giusto
-
14:05 - 14:08per assicurarci che sia un dio
con cui possiamo vivere. -
14:08 - 14:10Grazie mille.
-
14:10 - 14:15(Applausi)
- Title:
- Possiamo costruire IA senza perderne il controllo?
- Speaker:
- Sam Harris
- Description:
-
Avete paura della super intelligenza artificiale? Dovreste, come dice il neuroscienziato e filosofo Sam Harris, e non soltanto in via teorica. Secondo Harris arriveremo a costruire macchine superiori all'uomo, ma ancora non abbiamo afferrato i problemi che sorgeranno creando qualcosa che potrebbe trattarci allo stesso modo di come noi trattiamo le formiche.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 14:27
Retired user accepted Italian subtitles for Can we build AI without losing control over it? | ||
Retired user edited Italian subtitles for Can we build AI without losing control over it? | ||
Giulia Claudi edited Italian subtitles for Can we build AI without losing control over it? | ||
Giulia Claudi edited Italian subtitles for Can we build AI without losing control over it? | ||
Giulia Claudi edited Italian subtitles for Can we build AI without losing control over it? | ||
Giulia Claudi edited Italian subtitles for Can we build AI without losing control over it? | ||
Giulia Claudi edited Italian subtitles for Can we build AI without losing control over it? | ||
Giulia Claudi edited Italian subtitles for Can we build AI without losing control over it? |