Return to Video

Cosa succede quando i computer diventano più intelligenti di noi?

  • 0:01 - 0:05
    Lavoro con molti matematici,
    filosofi e informatici.
  • 0:06 - 0:10
    Ci sediamo e pensiamo
    al futuro dell'Intelligenza Artificiale,
  • 0:10 - 0:12
    tra le altre cose.
  • 0:12 - 0:17
    Alcuni pensano che alcune di queste cose
    siano roba di fantascienza,
  • 0:17 - 0:20
    di là da venire, folli.
  • 0:20 - 0:21
    Ma a me piace dire,
  • 0:21 - 0:25
    okay, diamo un'occhiata
    alla condizione dell'uomo moderno.
  • 0:25 - 0:27
    (Risate)
  • 0:27 - 0:29
    È così che vanno le cose, "normalmente".
  • 0:29 - 0:31
    Ma se ci pensiamo,
  • 0:31 - 0:37
    in realtà noi umani non siamo ospiti
    di questo pianeta da molto tempo.
  • 0:37 - 0:41
    Pensate, se la Terra
    fosse stata creata un anno fa,
  • 0:41 - 0:45
    la specie umana esisterebbe
    da soli 10 minuti.
  • 0:45 - 0:48
    L'era industriale
    sarebbe iniziata due secondi fa.
  • 0:49 - 0:54
    Un altro modo di vederlo è pensare
    al PIL mondiale negli ultimi 10.000 anni:
  • 0:54 - 0:58
    mi sono permesso
    di mostrarvelo in un grafico.
  • 0:58 - 0:59
    L'andamento è questo.
  • 0:59 - 1:01
    (Risate)
  • 1:01 - 1:03
    Strana curva,
    per una condizione normale.
  • 1:03 - 1:05
    Certo non vorrei sedermi lì.
  • 1:05 - 1:07
    (Risate)
  • 1:07 - 1:12
    Chiediamoci, qual è la causa
    di questa anomalia?
  • 1:12 - 1:14
    Alcuni direbbero che è la tecnologia.
  • 1:14 - 1:19
    Ed è vero, la tecnologia si è accumulata
    nel corso della storia umana,
  • 1:19 - 1:24
    e ora procede ad un ritmo
    estremamente rapido -
  • 1:24 - 1:25
    questa è la causa più immediata,
  • 1:25 - 1:28
    il motivo per cui ora
    siamo così produttivi.
  • 1:28 - 1:32
    Ma vorrei andare a ritroso
    fino alla causa fondamentale.
  • 1:33 - 1:37
    Guardate questi due signori,
    molto diversi tra loro:
  • 1:37 - 1:38
    Abbiamo Kanzi --
  • 1:38 - 1:43
    che padroneggia 200 elementi lessicali,
    una caratteristica incredibile.
  • 1:43 - 1:47
    E lui è Ed Witten, che ha lanciato
    la 2° rivoluzione delle superstringhe.
  • 1:47 - 1:49
    Guardando sotto la fronte,
    ecco cosa troviamo:
  • 1:49 - 1:51
    essenzialmente la stessa cosa.
  • 1:51 - 1:53
    Sì, una è un po' più larga,
  • 1:53 - 1:55
    forse è anche cablata un po' meglio.
  • 1:55 - 1:59
    Tuttavia, queste differenze invisibili
    non possono essere troppo complicate
  • 1:59 - 2:03
    perché sono passate
    solo 250.000 generazioni
  • 2:03 - 2:05
    dall'ultimo progenitore comune.
  • 2:05 - 2:09
    E sappiamo che i meccanismi complicati
    richiedono molto tempo per evolversi.
  • 2:10 - 2:12
    Una manciata di modifiche minori,
    quindi, è bastata
  • 2:12 - 2:16
    a portarci da Kanzi a Witten,
  • 2:16 - 2:20
    dai rami spezzati
    ai missili balistici intercontinentali.
  • 2:21 - 2:25
    Sembra quindi abbastanza ovvio
    che tutto ciò che abbiamo conquistato,
  • 2:25 - 2:26
    e a cui diamo valore,
  • 2:26 - 2:31
    derivi sostanzialmente da alcuni ritocchi
    che hanno prodotto la mente umana.
  • 2:33 - 2:36
    E il corollario, ovviamente,
    è che ogni modifica ulteriore
  • 2:36 - 2:40
    che possa cambiare sostanzialmente
    il substrato del pensiero
  • 2:40 - 2:43
    potrebbe avere conseguenze
    potenzialmente enormi.
  • 2:44 - 2:47
    Alcuni dei miei colleghi ritengono
    che siamo alla vigilia
  • 2:47 - 2:51
    di qualcosa che potrebbe causare
    un profondo cambiamento in quel substrato,
  • 2:51 - 2:54
    e quel qualcosa
    è la superintelligenza artificiale.
  • 2:54 - 2:59
    L'Intelligenza Artificiale, un tempo,
    consisteva nel dare comandi a una scatola.
  • 2:59 - 3:01
    C'erano programmatori umani
  • 3:01 - 3:04
    che elaboravano "manualmente",
    con fatica, tasselli di conoscenza.
  • 3:04 - 3:06
    Si costruivano questi sistemi esperti
  • 3:06 - 3:08
    che erano utili per qualche scopo,
  • 3:08 - 3:11
    ma erano molto "fragili",
    difficili da espandere.
  • 3:11 - 3:14
    Sostanzialmente ottenevi
    solo quello che inserivi.
  • 3:14 - 3:15
    Ma da allora
  • 3:15 - 3:19
    c'è stata una rivoluzione
    nel settore dell'Intelligenza Artificiale.
  • 3:19 - 3:22
    Oggi, siamo concentrati
    sull'apprendimento macchina.
  • 3:22 - 3:28
    Invece di inserire a mano rappresentazioni
    e caratteristiche della conoscenza,
  • 3:29 - 3:34
    creiamo algoritmi che apprendono,
    spesso da dati percettivi grezzi.
  • 3:34 - 3:39
    In pratica, la stessa cosa
    che fa un bambino.
  • 3:39 - 3:43
    Il risultato è un'intelligenza artificiale
    che non si limita a un solo settore:
  • 3:43 - 3:48
    lo stesso sistema può imparare
    a tradurre tra ogni coppia di linguaggi,
  • 3:48 - 3:53
    o imparare a giocare
    ogni gioco della consolle Atari.
  • 3:53 - 3:55
    Naturalmente,
  • 3:55 - 3:59
    L'IA non è ancora neanche vicina
    alla potente, interdisciplinare
  • 3:59 - 4:02
    capacità di imparare e progettare
    di un essere umano.
  • 4:02 - 4:04
    La corteccia ha ancora
    vantaggi algoritmici
  • 4:04 - 4:07
    che non sappiamo riprodurre
    nelle macchine.
  • 4:08 - 4:10
    Quindi la domanda è,
  • 4:10 - 4:13
    quanto manca, prima che le macchine
    riescano a recuperare questi vantaggi?
  • 4:13 - 4:15
    Un paio di anni fa,
  • 4:15 - 4:18
    abbiamo fatto un sondaggio
    ad alcuni esperti mondiali di IA
  • 4:18 - 4:21
    per vedere cosa pensassero,
    e una delle domande fu:
  • 4:21 - 4:25
    "Entro quale anno pensate
    che vi sia una probabilità del 50%
  • 4:25 - 4:28
    di ottenere un'intelligenza artificiale
    di livello umano?"
  • 4:29 - 4:33
    Qui definiamo "di livello umano"
    l'abilità di eseguire
  • 4:33 - 4:36
    quasi ogni lavoro almeno tanto bene
    quanto un umano,
  • 4:36 - 4:40
    quindi di livello veramente umano,
    non solo in qualche dominio limitato.
  • 4:40 - 4:43
    E la risposta mediana fu 2040 o 2050,
  • 4:43 - 4:46
    a seconda del gruppo di esperti
    a cui chiedevamo.
  • 4:46 - 4:50
    Potrebbe avvenire molto,
    molto più tardi, o prima,
  • 4:50 - 4:52
    la realtà è che nessuno lo sa davvero.
  • 4:53 - 4:58
    Quello che sappiamo è che il limite
    all'elaborazione di informazioni
  • 4:58 - 5:03
    su un substrato artificale va molto
    al di là dei limiti dei tessuti biologici.
  • 5:03 - 5:06
    Le ragioni si trovano nella fisica.
  • 5:06 - 5:10
    Un neurone biologico spara, forse,
    a 200 Hertz, 200 volte al secondo.
  • 5:10 - 5:14
    Ma un transistor dei giorni nostri
    opera a GigaHertz.
  • 5:14 - 5:19
    I neuroni si propagano lentamente lungo
    gli assoni, a massimo 100 mt/s.
  • 5:19 - 5:22
    Ma un computer può instradare
    i segnali alla velocità della luce.
  • 5:23 - 5:25
    Ci sono inoltre limiti dimensionali:
  • 5:25 - 5:28
    un cervello umano deve stare
    all'interno di un cranio,
  • 5:28 - 5:33
    mentre un computer può essere grande
    come un magazzino, o di più.
  • 5:33 - 5:38
    Il potenziale della superintelligenza,
    quindi, giace nella materia,
  • 5:38 - 5:44
    proprio come la forza dell'atomo
    si è nascosta nella storia umana,
  • 5:44 - 5:48
    attendendo paziente il 1945.
  • 5:48 - 5:50
    In questo secolo,
  • 5:50 - 5:54
    gli scienziati potrebbero imparare
    a scatenare l'intelligenza artificiale.
  • 5:54 - 5:58
    E penso che a quel punto potremmo
    osservare un'esplosione di intelligenza.
  • 5:58 - 6:02
    La maggior parte delle persone,
    quando pensano al genio e all'idiozia,
  • 6:02 - 6:05
    penso che abbiano in mente più o meno
    un'immagine come questa.
  • 6:05 - 6:08
    Abbiamo lo scemo del villaggio
    ad un estremo,
  • 6:08 - 6:10
    e in posizione diametralmente opposta
  • 6:10 - 6:15
    abbiamo Ed Witten, Albert Einstein
    o un altro vostro guru preferito.
  • 6:15 - 6:19
    Ma penso che dal punto di vista
    dell'intelligenza artificiale,
  • 6:19 - 6:23
    la vera immagine somigli
    più probabilmente a questa:
  • 6:23 - 6:27
    l'IA inizia qui, a zero intelligenza,
  • 6:27 - 6:30
    e poi, dopo molti, molti anni
    di lavoro veramente duro,
  • 6:30 - 6:33
    alla fine forse arriviamo
    al livello di intelligenza di un topo,
  • 6:33 - 6:36
    qualcosa che possa navigare
    in ambienti complessi
  • 6:36 - 6:38
    bene quanto un topo.
  • 6:38 - 6:42
    E poi, dopo molti, molti anni
    di duro lavoro, e molti investimenti,
  • 6:42 - 6:47
    forse alla fine arriviamo a un'IA
    intelligente come uno scimpanzé.
  • 6:47 - 6:50
    E poi, dopo ancora molti,
    molti anni di lavoro massacrante,
  • 6:50 - 6:53
    arriviamo a un'IA al livello
    di uno scemo del villaggio.
  • 6:53 - 6:56
    E pochi istanti dopo,
    avremo sorpassato Ed Witten.
  • 6:56 - 6:59
    Il treno non si fermerà a Umanopoli.
  • 6:59 - 7:02
    È più probabile che sfrecci oltre, invece.
  • 7:02 - 7:04
    Questo ha implicazioni profonde,
  • 7:04 - 7:08
    soprattutto quando si parla di potere.
  • 7:08 - 7:10
    Gli scimpanzé, ad esempio, sono forti--
  • 7:10 - 7:15
    circa il doppio di un maschio umano
    in buona forma fisica.
  • 7:15 - 7:20
    E tuttavia, il destino di Kanzi
    e dei suoi pari dipende molto di più
  • 7:20 - 7:24
    dalle nostre azioni che dalle loro.
  • 7:25 - 7:28
    Quando arriverà la superintelligenza,
  • 7:28 - 7:31
    anche il nostro destino
    potrebbe dipenderne.
  • 7:32 - 7:34
    Pensateci:
  • 7:34 - 7:39
    L'IA è l'ultima invenzione
    che l'umanità dovrà mai creare.
  • 7:39 - 7:42
    Le macchine saranno
    inventori migliori di noi,
  • 7:42 - 7:44
    e agiranno in tempi "digitali".
  • 7:44 - 7:49
    Questo significa sostanzialmente
    un "avvicinamento" del futuro.
  • 7:49 - 7:53
    Pensate a tutte le tecnologie folli
    che forse, a vostro avviso,
  • 7:53 - 7:55
    gli umani potrebbero sviluppare:
  • 7:55 - 7:59
    cure per l'invecchiamento,
    colonizzazione spaziale,
  • 7:59 - 8:02
    nanobot auto-replicanti,
    caricare le proprie menti in un computer.
  • 8:02 - 8:04
    Ogni sorta di roba fantascientifica
  • 8:04 - 8:07
    e nondimeno permessa dalla fisica.
  • 8:07 - 8:11
    Una superintelligenza potrebbe sviluppare
    tutto questo, e forse molto rapidamente.
  • 8:12 - 8:16
    Una superintelligenza
    con una tale maturità tecnologica
  • 8:16 - 8:18
    sarebbe estremamente potente,
  • 8:18 - 8:23
    e almeno in qualche scenario,
    potrebbe ottenere quel che vuole.
  • 8:23 - 8:28
    A quel punto avremmo un futuro
    modellato sulle preferenze dell'IA.
  • 8:30 - 8:34
    Una buona domanda a quel punto è:
    quali sono queste preferenze?
  • 8:34 - 8:36
    Qui la cosa si fa intricata.
  • 8:36 - 8:37
    Per trovare una via d'uscita,
  • 8:37 - 8:41
    dobbiamo prima di tutto
    evitare l'antropomorfizzazione.
  • 8:42 - 8:45
    Ed è ironico perché
    ogni articolo di giornale
  • 8:45 - 8:49
    sul futuro dell'IA
    ha un'immagine come questa.
  • 8:50 - 8:54
    Quindi penso che dovremmo concepire
    la questione in modo più astratto,
  • 8:54 - 8:57
    non come un film di Hollywood.
  • 8:57 - 9:01
    Dobbiamo pensare all'intelligenza
    come a un processo di ottimizzazione,
  • 9:01 - 9:06
    un processo che dirige il futuro verso
    un particolare set di configurazioni.
  • 9:06 - 9:10
    Una superintelligenza è un processo
    di ottimizzazione davvero potente.
  • 9:10 - 9:13
    È estremamente capace
    di usare i mezzi disponibili
  • 9:13 - 9:16
    per ottenere una condizione
    in cui i suoi scopi sono realizzati.
  • 9:16 - 9:19
    Quindi non c'è necessariamente
    una connessione
  • 9:19 - 9:22
    tra l'essere molto intelligenti
    in questo senso
  • 9:22 - 9:27
    e avere un obiettivo che noi umani
    riterremmo degno o significativo.
  • 9:27 - 9:31
    Supponiamo di dare all'AI
    l'obiettivo di far sorridere gli umani.
  • 9:31 - 9:34
    Un'IA debole si limiterebbe
    a eseguire azioni utili o divertenti,
  • 9:34 - 9:37
    che fanno sorridere il suo utente.
  • 9:37 - 9:39
    Quando l'IA diventa superintelligente,
  • 9:39 - 9:43
    capisce che c'è un modo più efficace
    di ottenere questo scopo:
  • 9:43 - 9:44
    prendere il controllo del mondo,
  • 9:44 - 9:48
    e infilare elettrodi
    nei muscoli facciali degli umani,
  • 9:48 - 9:51
    causando una costante,
    accattivante smorfia.
  • 9:51 - 9:53
    Un altro esempio:
    supponiamo di dare all'IA
  • 9:53 - 9:55
    un problema matematico duro da risolvere.
  • 9:55 - 9:57
    Quando l'IA diventa superintelligente,
  • 9:57 - 10:01
    capisce che il modo più efficace
    di ottenere la soluzione al problema
  • 10:01 - 10:04
    è trasformare il pianeta
    in un computer gigantesco,
  • 10:04 - 10:06
    così da aumentare
    la sua capacità di pensiero.
  • 10:06 - 10:09
    E notate: questo dà all'IA
    una ragione strumentale
  • 10:09 - 10:12
    per farci subire cose
    che potremmo non approvare.
  • 10:12 - 10:13
    Gli umani diventerebbero una minaccia,
  • 10:13 - 10:16
    perché potremmo impedire
    la scoperta della soluzione.
  • 10:17 - 10:21
    Ovviamente, non è detto che le cose
    andranno male in questo preciso modo;
  • 10:21 - 10:22
    sono esempi da cartone animato.
  • 10:22 - 10:24
    Ma è importante cogliere il punto:
  • 10:24 - 10:27
    se create un processo
    di ottimizzazione davvero potente
  • 10:27 - 10:30
    che massimizzi l'obiettivo x,
  • 10:30 - 10:32
    sinceratevi che la vostra definizione di x
  • 10:32 - 10:34
    includa tutto ciò a cui tenete.
  • 10:35 - 10:39
    È una lezione tramandata
    da molti miti, anche.
  • 10:39 - 10:45
    Re Mida voleva trasformare in oro
    tutto ciò che toccava.
  • 10:45 - 10:47
    Tocca sua figlia, e la trasforma in oro.
  • 10:47 - 10:50
    Tocca il suo cibo, si trasforma in oro.
  • 10:50 - 10:53
    È un esempio che potremmo
    considerare pregnante:
  • 10:53 - 10:55
    non solo come metafora dell'avidità,
  • 10:55 - 10:56
    ma anche perché illustra cosa succede
  • 10:56 - 10:59
    se create un potente processo
    di ottimizzazione
  • 10:59 - 11:04
    e gli affidate obiettivi indesiderabili,
    o male specificati.
  • 11:04 - 11:09
    Be', mi direte, se un computer inizia
    a infilare elettrodi in faccia alla gente,
  • 11:09 - 11:11
    basta spegnerlo.
  • 11:11 - 11:13
    [Le mie obiezioni sono due:]
  • 11:13 - 11:18
    A, non è detto che sia così semplice,
    se diventiamo dipendenti dal sistema --
  • 11:18 - 11:21
    per esempio, dov'è l'interuttore
    per spegnere Internet?
  • 11:21 - 11:26
    B, perché gli scimpanzé non hanno
    staccato l'interruttore dell'umanità,
  • 11:26 - 11:27
    o i Neanderthal?
  • 11:27 - 11:30
    Certamente avevano
    delle ragioni per farlo.
  • 11:30 - 11:33
    Noi abbiamo un interruttore,
    per esempio qui.
  • 11:33 - 11:34
    (Si strozza da solo)
  • 11:34 - 11:37
    Il motivo è che siamo
    avversari intelligenti;
  • 11:37 - 11:40
    possiamo anticipare le minacce
    e studiare come aggirarle.
  • 11:40 - 11:42
    Ma anche un agente
    superintelligente potrebbe farlo,
  • 11:42 - 11:46
    e ci riuscirebbe molto meglio di noi.
  • 11:46 - 11:53
    Non dovremmo contare
    sul fatto di poterlo controllare.
  • 11:53 - 11:56
    E potremmo provare a semplificarci
    un po' la vita, diciamo,
  • 11:56 - 11:58
    mettendo l'IA in una "scatola",
  • 11:58 - 12:00
    come un ambiente virtuale sicuro,
  • 12:00 - 12:03
    una ricostruzione della realtà
    da cui non può sfuggire.
  • 12:03 - 12:07
    Ma quanto possiamo contare sul fatto
    che non trovi una falla nel codice?
  • 12:07 - 12:10
    Visto che molti hacker umani
    scoprono bug in continuazione,
  • 12:10 - 12:13
    direi che non dovremmo contarci molto.
  • 12:14 - 12:19
    Potremmo scollegare il cavo Ethernet,
    creando un gap fisico.
  • 12:19 - 12:21
    Ma anche in questo caso,
    molti hacker umani
  • 12:21 - 12:25
    aggirano continuamente il problema
    con l'ingegneria sociale.
  • 12:25 - 12:26
    Proprio ora, mentre parlo,
  • 12:26 - 12:28
    sono sicuro che c'è
    qualche impiegato, là fuori,
  • 12:28 - 12:32
    che sta dando i dettagli
    del suo account a qualcuno
  • 12:32 - 12:35
    che si spaccia per il dipartimento IT.
  • 12:35 - 12:37
    E sono possibili anche
    scenari più creativi:
  • 12:37 - 12:38
    se siete l'IA, ad esempio,
  • 12:38 - 12:42
    potreste pensare a sguinzagliare
    degli elettrodi nei vostri circuiti
  • 12:42 - 12:45
    per creare onde radio
    che potete usare per comunicare.
  • 12:45 - 12:47
    Oppure potreste fingere di guastarvi,
  • 12:47 - 12:51
    e quando i programmatori vi ispezionano
    per capire cosa non va,
  • 12:51 - 12:53
    guardano al codice sorgente e BAM!
  • 12:53 - 12:55
    ecco che avviene una manipolazione.
  • 12:55 - 12:59
    Oppure potrebbe pubblicare il modello
    di una tecnologia affascinante,
  • 12:59 - 13:00
    che quando la implementiamo
  • 13:00 - 13:05
    produce dei sottili effetti collaterali,
    che l'IA aveva previsto.
  • 13:05 - 13:08
    Non dovremmo contare sulla nostra capacità
  • 13:08 - 13:12
    di chiudere una superintelligenza
    nella sua bottiglia in eterno.
  • 13:12 - 13:14
    Prima o poi riuscirà ad uscire.
  • 13:15 - 13:18
    Credo che qui la risposta sia capire
  • 13:18 - 13:23
    come creare un'IA superintelligente
    tale che se -- quando -- uscirà,
  • 13:23 - 13:26
    resterà amichevole,
    fondamentalmente dalla nostra parte
  • 13:26 - 13:28
    perché condivide i nostri valori.
  • 13:28 - 13:32
    Non vedo scorciatoie
    a questo difficile problema.
  • 13:33 - 13:36
    Sono molto ottimista
    sulle nostre capacità di risolverlo.
  • 13:36 - 13:40
    Non dovremmo scrivere una lunga lista
    di tutto ciò a cui diamo valore,
  • 13:40 - 13:44
    o peggio ancora codificarlo
    in qualche linguaggio
  • 13:44 - 13:45
    come C++ o Python,
  • 13:45 - 13:48
    altrimenti sarebbe una sfida impossibile.
  • 13:48 - 13:52
    Invece, dovremmo creare un'IA
    che usa la sua intelligenza
  • 13:52 - 13:55
    per imparare a cosa diamo valore,
  • 13:55 - 14:00
    e con un sistema motivazionale concepito
  • 14:00 - 14:06
    per perseguire i nostri valori, o eseguire
    azioni che sa che approveremmo.
  • 14:06 - 14:09
    Potremmo così sfruttare
    la sua intelligenza al massimo
  • 14:09 - 14:12
    nel risolvere il problema
    dell'attribuzione di valore.
  • 14:13 - 14:14
    Possiamo farlo,
  • 14:14 - 14:18
    e il risultato sarebbe
    molto positivo per l'umanità.
  • 14:18 - 14:22
    Ma non avviene automaticamente.
  • 14:22 - 14:25
    Le condizioni iniziali
    per questa esplosione di intelligenza
  • 14:25 - 14:28
    potrebbero dover essere
    definite perfettamente,
  • 14:28 - 14:31
    se quella che vogliamo
    è un'esplosione controllata.
  • 14:31 - 14:34
    I valori dell'IA
    devono coincidere con i nostri,
  • 14:34 - 14:36
    non solo nei contesti familiari,
  • 14:36 - 14:38
    dove puoi facilmente controllare
    come si comporta,
  • 14:38 - 14:41
    ma anche in tutti quei contesti nuovi
    che l'IA potrebbe incontrare
  • 14:41 - 14:43
    in futuro.
  • 14:43 - 14:48
    E restano anche alcune questioni
    esoteriche da risolvere e chiarire:
  • 14:48 - 14:50
    i dettagli su come prendere decisioni,
  • 14:50 - 14:52
    come gestire l'incertezza logica,
    e così via.
  • 14:53 - 14:56
    Quindi i problemi tecnici da risolvere
  • 14:56 - 14:58
    sembrano molto difficili:
  • 14:58 - 15:01
    non tanto quanto realizzare
    un'IA superintelligente,
  • 15:01 - 15:04
    ma comunque molto difficili.
  • 15:04 - 15:05
    Questa è la mia paura:
  • 15:05 - 15:10
    realizzare un'IA superintelligente
    è già una sfida veramente dura;
  • 15:10 - 15:13
    realizzare un'IA
    superintelligente e sicura
  • 15:13 - 15:15
    pone sfide aggiuntive.
  • 15:16 - 15:20
    Il rischio è che qualcuno capisca
    come vincere la prima sfida
  • 15:20 - 15:23
    senza sapere ancora
    come vincere la sfida aggiuntiva
  • 15:23 - 15:25
    di assicurare una perfetta sicurezza.
  • 15:25 - 15:29
    Penso quindi che dovremmo prima
    lavorare a una soluzione
  • 15:29 - 15:32
    al problema del controllo,
  • 15:32 - 15:34
    così da averla disponibile
    al momento del bisogno.
  • 15:35 - 15:38
    Magari non riusciremo
    a risolvere tutto a priori,
  • 15:38 - 15:41
    perché forse alcuni elementi
    possono essere messi a punto
  • 15:41 - 15:45
    solo dopo aver conosciuto
    l'architettura che li implementa.
  • 15:45 - 15:49
    Ma più problemi legati al controllo
    risolviamo in anticipo,
  • 15:49 - 15:53
    più è probabile che la transizione
    all'era dell'intelligenza artificiale
  • 15:53 - 15:54
    andrà a buon fine.
  • 15:54 - 15:59
    Ritengo che questa sia una cosa
    assolutamente da fare,
  • 15:59 - 16:02
    e posso immaginare
    che se le cose andranno bene,
  • 16:02 - 16:07
    tra un milione di anni
    la gente ripenserà a questo secolo
  • 16:07 - 16:11
    e potrebbe ben dire che la sola cosa
    importante che abbiamo fatto
  • 16:11 - 16:12
    fu risolvere questo problema.
  • 16:12 - 16:14
    Grazie.
  • 16:14 - 16:17
    (Applausi)
Title:
Cosa succede quando i computer diventano più intelligenti di noi?
Speaker:
Nick Bostrom
Description:

L'Intelligenza Artificiale sta facendo passi da gigante: entro questo secolo, sostengono gli esperti, un'intelligenza artificiale potrebbe essere tanto "intelligente" quanto un essere umano. E a quel punto, dice Nick Bostrom, prenderà il controllo: nelle sue parole, "L'intelligenza artificiale è l'ultima invenzione che l'umanità dovrà fare." Filosofo e tecnologo, Bostrom ci chiede di pensare seriamente al mondo, governato da macchine pensanti, che stiamo costruendo. Queste macchine intelligenti ci aiuteranno a preservare la nostra umanità e i nostri valori, o avranno valori tutti loro?

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
16:31

Italian subtitles

Revisions