Return to Video

Possiamo costruire IA senza perderne il controllo?

  • 0:01 - 0:03
    Vi parlerò della mancanza d'intuito
  • 0:03 - 0:05
    di cui molti di noi soffrono
  • 0:05 - 0:09
    è davvero un insuccesso non notare un certo tipo di pericolo
  • 0:09 - 0:11
    Vi descriverò uno scenario
  • 0:11 - 0:14
    che penso sia terrificante
  • 0:14 - 0:16
    e allo stesso tempo molto probabile che accada,
  • 0:17 - 0:18
    una combinazione poco felice,
  • 0:19 - 0:20
    a quanto pare.
  • 0:20 - 0:23
    Ma invece di essere spaventati,
    molti di voi penseranno
  • 0:23 - 0:25
    che quello di cui sto parlando
    è piuttosto figo.
  • 0:25 - 0:28
    Vi mostrerò che i progressi
    che stiamo facendo
  • 0:28 - 0:30
    nell'intelligenza artificiale
  • 0:30 - 0:32
    potrebbero distruggerci.
  • 0:32 - 0:35
    Penso sia difficile immaginare
    come non possano distruggerci
  • 0:35 - 0:37
    o indurci a distruggerci tra noi.
  • 0:37 - 0:39
    E tuttavia, se siete come me,
  • 0:39 - 0:42
    penserete che sia divertente
    pensare a queste cose.
  • 0:42 - 0:45
    Questa reazione è parte del problema.
  • 0:45 - 0:48
    Ok? Questa reazione dovrebbe preoccuparvi.
  • 0:48 - 0:51
    Se in questa conferenza
    vi dovessi convincere
  • 0:51 - 0:54
    che è molto probabile che si verifichi
    una carestia globale,
  • 0:54 - 0:57
    o per i cambiamenti climatici
    o per altre catastrofi,
  • 0:57 - 1:01
    e che i vostri nipoti, o i loro nipoti,
  • 1:01 - 1:02
    vivranno in queste condizioni,
  • 1:03 - 1:04
    non pensereste:
  • 1:05 - 1:07
    "Interessante.
  • 1:07 - 1:08
    Bello questo TED Talk."
  • 1:09 - 1:11
    La carestia non è divertente.
  • 1:12 - 1:15
    Una morte fantascientifica,
    d'altro canto, è divertente,
  • 1:15 - 1:19
    e una delle cose che mi preoccupano di più
    dello sviluppo dell'AI
  • 1:19 - 1:23
    è che non sembriamo in grado
    di organizzare la giusta risposta emotiva
  • 1:23 - 1:25
    rispetto al pericolo che corriamo.
  • 1:25 - 1:28
    Nemmeno io ne sono in grado,
    e sto facendo questo intervento.
  • 1:30 - 1:33
    È come se ci trovassimo
    davanti a due porte.
  • 1:33 - 1:34
    Dietro la prima c'è questo:
  • 1:34 - 1:37
    smettiamo di fare progressi
    nel costruire macchine intelligenti.
  • 1:37 - 1:41
    Per qualche motivo gli hardware e software
    dei nostri computer non migliorano più.
  • 1:41 - 1:44
    Pensate un attimo per quale motivo
    potrebbe succedere.
  • 1:45 - 1:49
    Insomma, visto quanto sono importanti
    l'intelligenza e l'automazione,
  • 1:49 - 1:52
    continueremo a migliorare
    la nostra tecnologia, se possiamo.
  • 1:53 - 1:55
    Cosa potrebbe impedircelo?
  • 1:56 - 1:58
    Una guerra atomica su scala mondiale?
  • 1:59 - 2:01
    Una pandemia globale?
  • 2:02 - 2:04
    L'impatto di un asteroide?
  • 2:06 - 2:08
    Justin Bieber che diventa
    il primo presidente degli USA?
  • 2:08 - 2:11
    (Risate)
  • 2:13 - 2:17
    Qualcosa dovrebbe distruggere
    la nostra civiltà, per come la conosciamo.
  • 2:17 - 2:22
    Dovete immaginare quanto
    dovrebbe essere catastrofico
  • 2:22 - 2:25
    per farci smettere di sviluppare
    la nostra tecnologia,
  • 2:25 - 2:26
    per sempre,
  • 2:26 - 2:28
    generazione dopo generazione.
  • 2:28 - 2:30
    Sarebbe per definizione la cosa peggiore
  • 2:30 - 2:32
    mai successa nella storia dell'uomo.
  • 2:33 - 2:34
    Perciò l'unica alternativa,
  • 2:34 - 2:36
    ovvero ciò che c'è
    dietro la seconda porta,
  • 2:36 - 2:39
    è che continueremo a sviluppare
    l'intelligenza artificiale,
  • 2:39 - 2:41
    anno dopo anno.
  • 2:42 - 2:45
    Arriverà un momento in cui costruiremo
    macchine più intelligenti di noi,
  • 2:46 - 2:49
    e quando le macchine saranno
    più intelligenti di noi
  • 2:49 - 2:51
    inizieranno a migliorarsi da sole.
  • 2:51 - 2:53
    Allora rischieremo quello che
    il matematico IJ Good chiama
  • 2:53 - 2:55
    "esplosione dell'intelligenza",
  • 2:55 - 2:57
    ovvero che potremmo perdere il controllo.
  • 2:58 - 3:01
    Come vedete, spesso questo viene reso
    con una caricatura,
  • 3:01 - 3:04
    ovvero la paura che un esercito
    di robot malvagi
  • 3:04 - 3:05
    ci attacchi.
  • 3:05 - 3:08
    Ma questo non è lo scenario più probabile.
  • 3:08 - 3:13
    Le nostre macchine non diventeranno
    malvagie spontaneamente.
  • 3:13 - 3:16
    Il problema è che costruiremo macchine
  • 3:16 - 3:18
    che saranno tanto più capaci di noi
  • 3:18 - 3:22
    che la più piccola divergenza
    tra i loro obiettivi e i nostri
  • 3:22 - 3:23
    ci potrebbe distruggere.
  • 3:24 - 3:26
    Pensate a come ci comportiamo
    con le formiche.
  • 3:27 - 3:28
    Non le odiamo.
  • 3:28 - 3:30
    Non facciamo loro del male apposta.
  • 3:30 - 3:33
    Alle volte facciamo attenzione
    a non danneggiarle.
  • 3:33 - 3:35
    Le saltiamo, quando sono sul marciapiede.
  • 3:35 - 3:37
    Ma se la loro presenza
  • 3:37 - 3:39
    ci intralcia,
  • 3:39 - 3:42
    ad esempio se dobbiamo costruire
    un edificio come questo,
  • 3:42 - 3:44
    le distruggiamo senza battere ciglio.
  • 3:44 - 3:47
    La mia preoccupazione è che un giorno
    costruiremo delle macchine
  • 3:47 - 3:50
    che, consapevolmente o meno,
  • 3:50 - 3:52
    possano trattarci
    con la stessa noncuranza.
  • 3:54 - 3:57
    Penserete che tutto questo
    sia inverosimile
  • 3:57 - 4:04
    Scommetto che alcuni di voi dubitano
    che una IA del genere sia possibile,
  • 4:04 - 4:05
    e ancor meno, che sia inevitabile.
  • 4:05 - 4:09
    Ma per credere questo dovete trovare
    qualcosa di sbagliato in questi assunti.
  • 4:09 - 4:11
    Sono solo tre.
  • 4:12 - 4:17
    L'intelligenza dipende dalle informazioni
    elaborate in un sistema fisico.
  • 4:17 - 4:20
    In realtà questo è più di un assunto.
  • 4:20 - 4:23
    Abbiamo già inserito delle "IA deboli"
    nelle nostre macchine,
  • 4:23 - 4:25
    e molte di queste hanno già dato risultati
  • 4:25 - 4:28
    a livelli di una super intelligenza.
  • 4:29 - 4:31
    Sappiamo che la sola materia
  • 4:31 - 4:34
    può dar vita alla "intelligenza generale",
  • 4:34 - 4:38
    l'abilità di pensare in modo flessibile
    attraverso settori diversi,
  • 4:38 - 4:41
    perché il nostro cervello
    lo sa fare. Giusto?
  • 4:41 - 4:45
    Alla fine, ci sono solo atomi qua dentro,
  • 4:45 - 4:49
    e finché continuiamo a costruire
    dei sistemi fatti di atomi
  • 4:49 - 4:52
    che manifestano comportamenti
    sempre più intelligenti,
  • 4:52 - 4:55
    a meno che qualcosa non ce lo impedisca,
  • 4:55 - 4:58
    arriveremo a immettere
    l'intelligenza generale
  • 4:58 - 4:59
    nelle nostre macchine.
  • 4:59 - 5:03
    È fondamentale capire
    che il tasso di progresso non conta,
  • 5:03 - 5:06
    perché ogni progresso basta
    ad avvicinarci al suo compimento.
  • 5:06 - 5:10
    Non c'è bisogno della legge di Moore,
    o della crescita esponenziale.
  • 5:10 - 5:12
    Basta proseguire.
  • 5:13 - 5:16
    Il secondo assunto è che proseguiremo.
  • 5:17 - 5:20
    Continueremo a migliorare
    le nostre macchine intelligenti.
  • 5:21 - 5:25
    E data l'importanza dell'intelligenza...
  • 5:25 - 5:29
    O l'intelligenza è la fonte di tutto ciò
    che per noi ha valore,
  • 5:29 - 5:32
    o ne abbiamo bisogno per preservare
    tutto ciò che ha valore.
  • 5:32 - 5:34
    È la nostra risorsa più importante.
  • 5:34 - 5:36
    Per questo lo facciamo.
  • 5:36 - 5:39
    Ci sono problemi che dobbiamo
    risolvere disperatamente.
  • 5:39 - 5:42
    Vogliamo curare malattie
    come l'Alzheimer e il cancro.
  • 5:43 - 5:47
    Vogliamo comprendere i sistemi economici,
    migliorare le scienze del clima.
  • 5:47 - 5:49
    Perciò lo faremo, se possiamo.
  • 5:49 - 5:52
    Il treno ha già lasciato la stazione
    e non c'è nessun freno da tirare.
  • 5:54 - 5:59
    Infine, non abbiamo ancora raggiunto
    il culmine della nostra intelligenza,
  • 5:59 - 6:01
    nemmeno lontanamente.
  • 6:02 - 6:04
    Questa è l'intuizione fondamentale,
  • 6:04 - 6:06
    ciò che rende la nostra situazione
    così precaria
  • 6:06 - 6:10
    e la nostra percezione del rischio
    così inaffidabile.
  • 6:11 - 6:14
    Pensate alla persona più intelligente
    che sia mai vissuta.
  • 6:15 - 6:18
    Quasi tutti inserirebbero
    John von Neumann tra i primi posti.
  • 6:18 - 6:21
    L'ottima impressione che von Neumann
    fece sulle persone intorno a lui,
  • 6:21 - 6:25
    tra cui c'erano i più grandi fisici
    e matematici del suo tempo,
  • 6:26 - 6:27
    è ben documentata.
  • 6:27 - 6:31
    Se solo metà delle storie su di lui
    sono vere a metà,
  • 6:31 - 6:32
    non ci sono dubbi
  • 6:32 - 6:35
    che sia una delle persone
    più intelligenti mai vissute.
  • 6:35 - 6:38
    Considerate una gamma di intelligenze.
  • 6:38 - 6:40
    Qui abbiamo John von Neumann.
  • 6:42 - 6:43
    Qui ci siamo io e voi.
  • 6:44 - 6:45
    E qui una gallina.
  • 6:45 - 6:47
    (Risate)
  • 6:47 - 6:49
    Scusate, una gallina.
  • 6:49 - 6:50
    (Risate)
  • 6:50 - 6:54
    Non rendiamo questo incontro
    più deprimente di quanto non sia già.
  • 6:54 - 6:55
    (Risate)
  • 6:56 - 7:00
    È molto probabile, però,
    che la gamma delle intelligenze
  • 7:00 - 7:03
    sia molto più estesa di quando si pensi,
  • 7:04 - 7:07
    e se costruiamo delle macchine
    molto più intelligenti di noi,
  • 7:07 - 7:09
    finiranno con l'esplorare questa gamma
  • 7:09 - 7:11
    in modi che non possiamo prevedere,
  • 7:11 - 7:14
    e ci supereranno in modi
    che non possiamo immaginare.
  • 7:15 - 7:19
    È importante riconoscere che questo
    sia vero anche in virtù della velocità.
  • 7:19 - 7:24
    Giusto? Immaginate che sia stata inventata
    una IA super intelligente,
  • 7:24 - 7:28
    che non sia più brillante
    di un normale gruppo di ricerca
  • 7:28 - 7:30
    a Stanford o al MIT.
  • 7:30 - 7:33
    I circuiti elettronici funzionano
    un milione di volte più veloci
  • 7:33 - 7:34
    di quelli biochimici,
  • 7:35 - 7:38
    perciò questa macchina funzionerà
    un milione di volte più velocemente
  • 7:38 - 7:39
    delle menti che l'hanno costruita.
  • 7:40 - 7:41
    In una settimana
  • 7:41 - 7:46
    avrà fatto il lavoro di 20 mila anni
    di lavoro intellettuale umano,
  • 7:46 - 7:48
    settimana, dopo settimana.
  • 7:50 - 7:53
    Come possiamo comprendere,
    e figuriamoci contenere,
  • 7:53 - 7:55
    una mente che progredisce
    così velocemente?
  • 7:57 - 7:59
    C'è un altro aspetto preoccupante,
  • 7:59 - 8:04
    anche immaginando lo scenario
    più ottimista.
  • 8:04 - 8:08
    Mettiamo che abbiamo realizzato
    una IA super intelligente
  • 8:08 - 8:10
    senza problemi di sicurezza.
  • 8:10 - 8:13
    Abbiamo trovato alla prima
    il design perfetto.
  • 8:13 - 8:15
    Come se ci avessero dato un oracolo
  • 8:15 - 8:17
    che si comporta proprio come dovrebbe.
  • 8:17 - 8:21
    Sarebbe lo strumento perfetto
    per risparmiare fatica.
  • 8:22 - 8:24
    Può progettare la macchina
    che ne costruisce un'altra
  • 8:24 - 8:26
    che faccia qualsiasi lavoro fisico,
  • 8:26 - 8:27
    azionata dalla luce solare,
  • 8:27 - 8:30
    più o meno al costo della materia prima.
  • 8:30 - 8:33
    Per l'uomo, sarebbe la fine
    del lavoro duro,
  • 8:33 - 8:36
    ma anche della maggior parte
    dei lavori intellettuali.
  • 8:37 - 8:40
    Cosa farebbero degli scimmioni come siamo
    in queste circostanze?
  • 8:40 - 8:44
    Saremmo liberi di giocare a frisbee
    e farci i massaggi a vicenda.
  • 8:46 - 8:49
    Aggiungete un po' di LSD, dei vestiti
    di dubbio gusto,
  • 8:49 - 8:51
    e il mondo sarebbe come il Burning Man.
  • 8:51 - 8:53
    (Risate)
  • 8:54 - 8:56
    Tutto questo non suona male,
  • 8:57 - 9:00
    ma pensate a come sarebbe se accadesse
  • 9:00 - 9:02
    in un ordine economico
    e politico come il nostro.
  • 9:02 - 9:05
    Assisteremmo
  • 9:05 - 9:09
    ad una disparità delle ricchezze
    e ad una disoccupazione
  • 9:09 - 9:11
    senza precedenti.
  • 9:11 - 9:13
    Non ci sarebbe la volontà
    di mettere questo nuovo benessere
  • 9:13 - 9:15
    al servizio di tutti,
  • 9:16 - 9:19
    Pochi miliardari adornerebbero
    le copertine di riviste di business,
  • 9:19 - 9:22
    mentre il resto del mondo
    morirebbe di fame.
  • 9:22 - 9:25
    Cosa farebbero, allora,
    la Russia e la Cina
  • 9:25 - 9:27
    se sapessero che nella Silicon Valley
    delle compagnie
  • 9:27 - 9:30
    fossero sul punto di rilasciare una IA
    super intelligente?
  • 9:30 - 9:33
    Questa macchina
    potrebbe scatenare una guerra,
  • 9:33 - 9:35
    terrestre o cibernetica,
  • 9:35 - 9:37
    disponendo di un potere senza pari.
  • 9:38 - 9:40
    Uno scenario di vittoria assoluta.
  • 9:40 - 9:43
    Essere in vantaggio sulla competizione
    anche solo di sei mesi
  • 9:43 - 9:46
    è come essere avanti di 500 mila,
  • 9:46 - 9:47
    almeno.
  • 9:47 - 9:52
    Perciò anche solo la voce
    di una svolta simile
  • 9:52 - 9:55
    potrebbe far impazzire la nostra specie.
  • 9:55 - 9:58
    Tra gli aspetti più inquietanti,
  • 9:58 - 10:00
    a mio parere, che ci sono al momento,
  • 10:00 - 10:05
    sono le risposte che danno
    i ricercatori di IA
  • 10:05 - 10:06
    quando vogliono rassicurarci.
  • 10:07 - 10:10
    Una delle rassicurazioni più comuni
    è che abbiamo tempo.
  • 10:10 - 10:13
    Siamo ancora molto lontani, sapete.
  • 10:13 - 10:15
    Ci vorranno ancora 50 o 100 anni.
  • 10:16 - 10:17
    Un ricercatore ha detto:
  • 10:17 - 10:19
    "Preoccuparsi della sicurezza dell'IA
  • 10:19 - 10:21
    è come preoccuparsi
    della sovrappopolazione su Marte."
  • 10:22 - 10:24
    La versione della Silicon Valley di:
  • 10:24 - 10:27
    "non turbare la tua bella testolina
    con questi problemi".
  • 10:27 - 10:27
    (Risate)
  • 10:28 - 10:29
    Nessuno sembra notare
  • 10:29 - 10:32
    che far riferimento
    all'orizzonte temporale
  • 10:32 - 10:35
    è del tutto illogico.
  • 10:35 - 10:38
    Se l'intelligenza è questione
    di processare le informazioni
  • 10:38 - 10:41
    e continueremo a migliorare
    le nostre macchine,
  • 10:41 - 10:44
    arriveremo a produrre una forma
    di intelligenza superiore.
  • 10:44 - 10:48
    E non abbiamo idea di quanto ci voglia
  • 10:48 - 10:50
    per crearla in condizioni di sicurezza.
  • 10:52 - 10:53
    Lo ripeto.
  • 10:54 - 10:57
    Non abbiamo idea di quanto ci voglia
  • 10:57 - 11:00
    per crearla in condizioni di sicurezza.
  • 11:01 - 11:04
    E 50 di progresso, oggi,
    non sono più come una volta.
  • 11:04 - 11:07
    Questi sono 50 anni riportati in mesi.
  • 11:07 - 11:09
    Questo è da quanto abbiamo l'iPhone.
  • 11:09 - 11:12
    Questo è da quanto "I Simpson" sono in tv.
  • 11:13 - 11:15
    50 anni non sono poi così tanti
  • 11:15 - 11:18
    per affrontare una delle sfide maggiori
    che l'uomo abbia affrontato.
  • 11:20 - 11:24
    Ancora una volta, sembra che ci manchi
    la giusta risposta emotiva
  • 11:24 - 11:26
    a quello che, per vari motivi,
    sappiamo che accadrà.
  • 11:26 - 11:30
    L'informatico Stuart Russel
    ha fatto una giusta analogia.
  • 11:30 - 11:35
    Ha detto di immaginare di ricevere
    un messaggio dagli alieni
  • 11:35 - 11:37
    che dice:
  • 11:37 - 11:39
    "Popolo della Terra,
  • 11:39 - 11:41
    arriveremo sul vostro pianeta fra 50 anni.
  • 11:42 - 11:43
    Preparatevi".
  • 11:43 - 11:48
    Staremmo qui a fare il conto alla rovescia
    finché non atterri la nave ammiraglia?
  • 11:48 - 11:51
    O forse sentiremmo
    un pochino più di urgenza?
  • 11:53 - 11:55
    In più, ci dicono di non preoccuparci
  • 11:55 - 11:58
    perché queste macchine
    avrebbero i nostri stessi valori,
  • 11:58 - 12:00
    essendo una vera e propria
    estensione di noi stessi.
  • 12:00 - 12:02
    Ce le impianteremo nel cervello,
  • 12:02 - 12:04
    e diventeremo il loro sistema limbico.
  • 12:05 - 12:07
    Pensate un attimo
  • 12:07 - 12:10
    che la via più sicura e prudente,
  • 12:10 - 12:11
    quella raccomandata,
  • 12:11 - 12:14
    è di impiantarci questa tecnologia
    direttamente nel cervello.
  • 12:15 - 12:18
    Ora, questa potrebbe essere
    l'unica via più sicura e prudente,
  • 12:18 - 12:21
    ma di solito uno dovrebbe
    aver chiarito tutti i dubbi
  • 12:21 - 12:25
    su una tecnologia prima
    di infilarsela in testa.
  • 12:25 - 12:27
    (Risate)
  • 12:27 - 12:32
    Il problema principale è che costruire
    una IA super intelligente, a parte,
  • 12:32 - 12:34
    sembra molto più semplice
  • 12:34 - 12:36
    di costruirla
  • 12:36 - 12:38
    ed avere le conoscenze neuroscientifiche
  • 12:38 - 12:40
    che consentano di integrarla
    completamente alla nostra mente.
  • 12:41 - 12:44
    Dato che le aziende e i governi
    che ci lavorano
  • 12:44 - 12:48
    sono in competizione
    gli uni con gli altri,
  • 12:48 - 12:51
    e dato che vincere questa gara
    equivale a dominare il mondo,
  • 12:51 - 12:53
    sempre che non venga distrutto
    subito dopo,
  • 12:53 - 12:56
    è probabile che verrà intrapresa
  • 12:56 - 12:57
    la strada più facile.
  • 12:59 - 13:01
    Purtroppo non ho soluzione
    a questo problema,
  • 13:01 - 13:04
    a parte raccomandare
    che più persone ci pensino.
  • 13:04 - 13:06
    Credo che ci servirebbe una specie
    di Progetto Manhattan
  • 13:06 - 13:08
    sull'intelligenza artificiale.
  • 13:08 - 13:11
    Non per costruirla, perché penso
    che ci arriveremo comunque,
  • 13:11 - 13:15
    ma per capire come evitare
    una corsa alle armi
  • 13:15 - 13:18
    e per svilupparla in modo che sia in linea
    con i nostri interessi.
  • 13:18 - 13:20
    Quando si parla di una IA
    super intelligente
  • 13:20 - 13:23
    che possa migliorarsi da sola,
  • 13:23 - 13:27
    la nostra unica opzione è quella
    di darle le giuste impostazioni iniziali,
  • 13:27 - 13:29
    e anche allora dovremo comprendere
  • 13:29 - 13:32
    quali saranno le conseguenze
    economiche e politiche.
  • 13:34 - 13:36
    Ma se ammettiamo che
  • 13:36 - 13:40
    l'elaborazione delle informazioni
    è la fonte dell'intelligenza,
  • 13:41 - 13:46
    che un sistema computazionale idoneo
    è alla base dell'intelligenza,
  • 13:46 - 13:50
    se ammettiamo che svilupperemo
    continuamente tali sistemi,
  • 13:51 - 13:56
    e che l'orizzonte cognitivo
    è di gran lunga maggiore
  • 13:56 - 13:57
    di ciò che sappiamo ora,
  • 13:58 - 13:59
    allora dobbiamo ammettere
  • 13:59 - 14:02
    che stiamo costruendo una sorta di dio.
  • 14:03 - 14:05
    Ora sarebbe il momento giusto
  • 14:05 - 14:08
    per assicurarci che sia un dio
    con cui possiamo vivere.
  • 14:08 - 14:10
    Grazie mille.
  • 14:10 - 14:15
    (Applausi)
Title:
Possiamo costruire IA senza perderne il controllo?
Speaker:
Sam Harris
Description:

Avete paura della super intelligenza artificiale? Dovreste, come dice il neuroscienziato e filosofo Sam Harris, e non soltanto in via teorica. Secondo Harris arriveremo a costruire macchine superiori all'uomo, ma ancora non abbiamo afferrato i problemi che sorgeranno creando qualcosa che potrebbe trattarci allo stesso modo di come noi trattiamo le formiche.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Italian subtitles

Revisions