Return to Video

Se l'IA non potesse sbagliare, non imparerebbe nulla | Daniele Grassi | TEDxModena

  • 0:15 - 0:19
    Pensiamo al cervello
    di un bambino di un anno.
  • 0:21 - 0:23
    Sapete quante nuove connessioni
  • 0:23 - 0:25
    si formano, ogni secondo,
    tra i suoi neuroni?
  • 0:26 - 0:28
    Circa 700.
  • 0:29 - 0:30
    In un'intera giornata
  • 0:30 - 0:34
    fanno più di 60 milioni
    di nuove connessioni.
  • 0:34 - 0:37
    E ciascuna di queste nuove connessioni
  • 0:37 - 0:40
    rappresenta una nuova sfumatura,
    un nuovo concetto
  • 0:41 - 0:44
    che il bambino ha imparato nel mondo
    tramite la sua esperienza.
  • 0:46 - 0:48
    I bambini sono i campioni
    dell'apprendimento,
  • 0:48 - 0:53
    ed è a loro che guardano le tecniche
    più moderne di intelligenza artificiale.
  • 0:54 - 0:57
    A distanza di circa 50, 60 anni,
  • 0:57 - 1:00
    da quando Alan Turing
    lo aveva teorizzato per la prima volta,
  • 1:01 - 1:03
    si sta facendo
    finalmente strada il concetto
  • 1:03 - 1:06
    che se vogliamo creare dei sistemi
    autonomi davvero intelligenti,
  • 1:07 - 1:11
    non dobbiamo cercare di infondere loro
    tutta la nostra conoscenza,
  • 1:12 - 1:15
    bensì dobbiamo renderli
    capaci di apprendere
  • 1:15 - 1:19
    nella maniera più efficente
    e autonoma possibile.
  • 1:21 - 1:25
    La prima volta che ho avuto a che fare
    con l'intelligenza artificiale
  • 1:25 - 1:26
    avevo circa 15 anni,
  • 1:27 - 1:28
    e nel mio tempo libero,
  • 1:28 - 1:30
    per quanto questo
    possa suonare un po' nerd,
  • 1:34 - 1:36
    avevo creato un piccolo programma,
    un piccolo giochino,
  • 1:37 - 1:40
    in cui un Pierino virtuale
    doveva fuggire da un lupo,
  • 1:41 - 1:43
    pena [l'] essere divorato.
  • 1:44 - 1:50
    La cosa particolare è che non avevo
    programmato Pierino per scappare dal lupo,
  • 1:51 - 1:53
    bensì gli avevo dato soltanto
  • 1:53 - 1:57
    la possibilità di muoversi
    all'interno di una piccola mappa,
  • 1:57 - 2:00
    gli avevo dato la possibilità
    di vedere il lupo,
  • 2:00 - 2:03
    ma soprattutto, lo avevo dotato
  • 2:03 - 2:05
    della capacità di apprendere
    dall'esperienza
  • 2:05 - 2:08
    tramite un semplice algoritmo
    di intelligenza artificiale.
  • 2:10 - 2:15
    E così, dopo averlo lanciato
    in questo mondo, acceso il programma,
  • 2:16 - 2:18
    ho visto Pierino prima imparare
  • 2:18 - 2:21
    che stare nei pressi del lupo
    non era una grande idea,
  • 2:22 - 2:25
    e poi addirittura imparare a scappare
    il più velocemente possibile
  • 2:25 - 2:27
    non appena lo vedesse in lontananza.
  • 2:28 - 2:31
    Ed è così che mi sono innamorato
    dell'intelligenza artificiale.
  • 2:32 - 2:33
    E ancora oggi,
  • 2:33 - 2:37
    che progettare sistemi di intelligenza
    artificiale è il mio lavoro,
  • 2:37 - 2:39
    ed è il focus dell'azienda che ho fondato,
  • 2:40 - 2:44
    ancora oggi vedere sistemi
    di intelligenza artificiale
  • 2:44 - 2:47
    imparare autonomamente
    a prendere decisioni
  • 2:47 - 2:51
    solo tramite l'esperienza
    sui dati che gli mettiamo a disposizione
  • 2:51 - 2:53
    è per me qualcosa di veramente magico.
  • 2:56 - 2:58
    Ora sono passati quasi 20 anni
  • 2:58 - 3:01
    da quel momento,
    da quel Pierino virtuale,
  • 3:02 - 3:04
    e oggi la tecnologia
    è tutta un'altra cosa.
  • 3:05 - 3:06
    Di fatto,
  • 3:06 - 3:08
    l'intelligenza artificiale oggi è tra noi.
  • 3:09 - 3:13
    Ad esempio è in grado di guidare
    in maniera più sicura di noi umani,
  • 3:14 - 3:16
    è in grado di batterci
    in giochi di strategia
  • 3:16 - 3:21
    che fino a qualche anno fa sembravano
    di dominio solamente umano, assolutamente.
  • 3:22 - 3:24
    È in grado di riconoscerci,
    noi e i nostri amici,
  • 3:24 - 3:26
    quando carichiamo foto su Facebook.
  • 3:27 - 3:31
    Ma soprattutto, ci aiuta
    in tantissimi ambiti già oggi,
  • 3:31 - 3:33
    dalla finanza fino alla medicina.
  • 3:35 - 3:38
    La frontiera tecnologica
    è rappresentata dal Deep Learning,
  • 3:38 - 3:40
    cioè apprendimento profondo.
  • 3:41 - 3:45
    Il Deep Learning si fonda
    sulla costruzione di cervelli virtuali
  • 3:45 - 3:48
    dotati di migliaia di neuroni
    e milioni di connessioni.
  • 3:49 - 3:52
    E impara tramite la riorganizzazione
    di queste connessioni
  • 3:53 - 3:56
    dopo ogni prova ed errore che effettua
  • 3:56 - 3:59
    sui dati che gli mettiamo a disposizione
    durante l'allenamento.
  • 3:59 - 4:01
    Quindi, durante la fase di allenamento,
  • 4:01 - 4:04
    prova a prendere decisioni,
    ci prende, sbaglia,
  • 4:04 - 4:08
    e nel frattempo riorganizza le connessioni
    all'interno del suo cervello virtuale,
  • 4:08 - 4:09
    e così facendo impara.
  • 4:11 - 4:13
    Proprio come un bambino, quindi.
  • 4:14 - 4:18
    Il problema è che, proprio come
    un bambino che diventa adulto,
  • 4:19 - 4:21
    anche per questi sistemi
    di intelligenza artificiale
  • 4:21 - 4:26
    più conoscenza significa
    meno flessibilità nell'apprendimento.
  • 4:26 - 4:29
    Quindi, più conoscenza,
    meno flessibilità nell'apprendimento.
  • 4:29 - 4:31
    E questo è un problema.
  • 4:33 - 4:36
    Ed è un problema
    che si esemplifica in particolare
  • 4:36 - 4:39
    in un'altra tecnica avanzata
    di intelligenza artificiale
  • 4:39 - 4:42
    chiamata Reinforcement Learning,
    cioè apprendimento per rinforzo.
  • 4:42 - 4:44
    Il Reinforcement Learning
  • 4:44 - 4:48
    funziona tramite ricompense virtuali
    e punizioni virtuali
  • 4:48 - 4:52
    che vengono date al sistema a seconda
    dell'esito di ogni sua decisione.
  • 4:52 - 4:53
    Quindi, ad esempio,
  • 4:54 - 4:57
    un sistema di Reinforcement Learning
    che sta imparando a giocare a scacchi
  • 4:58 - 5:01
    verrà ricompensato
    ogni qualvolta fa una mossa
  • 5:01 - 5:04
    che lo mette in una posizione
    di vantaggio rispetto all'avversario,
  • 5:04 - 5:08
    mentre viene punito virtualmente
    quando fa una mossa non opportuna.
  • 5:08 - 5:11
    Così facendo, mano a mano,
    giocando tante partite,
  • 5:11 - 5:12
    il sistema impara.
  • 5:13 - 5:15
    Il problema è che quello che si verifica
  • 5:15 - 5:17
    è che, dopo un po',
    dopo che ha imparato un po',
  • 5:19 - 5:22
    il sistema tende,
    di fronte a situazioni simili,
  • 5:22 - 5:24
    a scegliere sempre la prima strada
  • 5:24 - 5:27
    che gli aveva portato
    una ricompensa in passato.
  • 5:28 - 5:31
    Quindi, di fronte a situazioni simili,
    va sul sicuro. Ha paura di sbagliare.
  • 5:33 - 5:35
    E questo rappresenta un enorme problema,
  • 5:35 - 5:40
    perché non è detto che la prima strada
    che ci ha portato una ricompensa
  • 5:40 - 5:43
    sia anche la strada
    che ci conduce al successo maggiore.
  • 5:44 - 5:47
    Di conseguenza
    ci si è inventati un escamotage.
  • 5:48 - 5:51
    E l'escamotage consiste,
    di quando in quando,
  • 5:51 - 5:53
    non sempre, però di quando in quando,
  • 5:53 - 5:54
    durante l'allenamento del sistema,
  • 5:55 - 5:58
    di impedirgli totalmente
    di provare paura di sbagliare.
  • 5:59 - 6:02
    Quindi, ogni tanto, il sistema
    non ha paura di sbagliare,
  • 6:02 - 6:02
    e si sente libero
  • 6:02 - 6:05
    di sperimentare nuove strade,
    prendere nuove decisioni.
  • 6:07 - 6:07
    Così facendo,
  • 6:07 - 6:11
    la maggior parte delle volte
    fallisce miseramente, ovviamente.
  • 6:12 - 6:16
    Però, ogni tanto, scoprirà
    una nuova strada, una nuova strategia,
  • 6:16 - 6:18
    un po' creativa, un po' diversa,
  • 6:18 - 6:21
    che lo porta alla fine
    a un risultato nettamente migliore.
  • 6:23 - 6:27
    Ed è proprio tramite queste tecniche,
    questo genere di tecniche,
  • 6:27 - 6:29
    che hanno in comune il fatto
  • 6:29 - 6:32
    di mirare a consentire
    ai sistemi di intelligenza artificiale
  • 6:32 - 6:35
    di sbagliare di più, non di meno,
  • 6:35 - 6:38
    durante la fase di addestramento,
    durante la fase della loro formazione,
  • 6:39 - 6:44
    che oggi l'intelligenza artificiale
    ha raggiunto il successo che conosciamo.
  • 6:46 - 6:49
    E non è ironico tutto questo?
  • 6:51 - 6:53
    Non è ironico che proprio noi umani
  • 6:54 - 6:57
    che critichiamo gli errori degli altri,
  • 6:58 - 7:01
    che critichiamo aspramente
    chi ci prova e sbaglia,
  • 7:02 - 7:03
    siamo anche quelli
  • 7:03 - 7:06
    che stanno regalando il valore dell'errore
  • 7:06 - 7:08
    all'intelligenza artificiale?
  • 7:09 - 7:14
    Stiamo regalando il valore dell'errore
    all'intelligenza artificiale,
  • 7:14 - 7:16
    quando potremmo imparare così tanto
    proprio da questa.
  • 7:17 - 7:19
    Ad esempio, nel Deep Learning
  • 7:20 - 7:23
    cerchiamo in tutti i modi
    di impedire al sistema
  • 7:23 - 7:27
    di memorizzare i dati che gli mettiamo
    a disposizione durante l'allenamento,
  • 7:27 - 7:28
    perché se così facesse,
  • 7:29 - 7:32
    perderebbe totalmente la flessibilità
    di adattarsi a situazioni nuove.
  • 7:34 - 7:36
    E allora perché noi umani
  • 7:37 - 7:39
    obblighiamo ad esempio i nostri bambini
  • 7:39 - 7:43
    a impiegare tantissimo tempo
    ad imparare a memoria date e dati
  • 7:43 - 7:46
    che inevitabilmente dimenticheranno
    alla prima verifica?
  • 7:46 - 7:48
    Perché il sistema educativo, spesso,
  • 7:48 - 7:51
    si fonda di più, e premia di più
  • 7:52 - 7:54
    la memorizzazione
    rispetto alla comprensione?
  • 7:56 - 7:57
    E ancora, nel Reinforcement Learning
  • 7:57 - 8:02
    abbiamo visto che la paura di sbagliare
    viene vista come un problema,
  • 8:03 - 8:07
    per cui si cerca ogni tanto
    di consentire, durante la formazione,
  • 8:07 - 8:08
    di non avere paura di sbagliare
  • 8:08 - 8:12
    affinchè il sistema possa scoprire strade
    che lo portano poi a successi più grandi.
  • 8:14 - 8:16
    E allora perché, tra noi,
  • 8:17 - 8:22
    quando qualcuno cambia strada
    durante la propria formazione,
  • 8:22 - 8:24
    o addirittura durante
    la sua carriera lavorativa,
  • 8:25 - 8:27
    viene visto come uno scapestrato totale?
  • 8:28 - 8:29
    Perché chi cambia idea,
  • 8:30 - 8:34
    in seguito a esperienze di vita,
    in seguito a riflessioni,
  • 8:34 - 8:37
    è prima visto come inconsistente
  • 8:37 - 8:38
    che saggio?
  • 8:39 - 8:42
    E infine,
  • 8:42 - 8:43
    abbiamo visto, e sappiamo,
  • 8:43 - 8:46
    che l'intelligenza artificiale
    impara qualcosa
  • 8:46 - 8:47
    tutte le volte che sbaglia.
  • 8:49 - 8:52
    E allora perché continuiamo
    a vedere l'errore come una sconfitta,
  • 8:53 - 8:55
    quando in realtà
    è soltanto il primo passo
  • 8:55 - 8:57
    sulla strada del cambiamento
    e del successo?
  • 8:59 - 9:01
    Grazie.
  • 9:01 - 9:04
    (Applausi)
Title:
Se l'IA non potesse sbagliare, non imparerebbe nulla | Daniele Grassi | TEDxModena
Description:

Questo intervento è stato presentato a un evento TEDx, che utilizza il format della conferenza TED ma è stato organizzato in maniera indipendente da una comunità locale.

Per maggiori informazioni, visita il sito http://ted.com/tedx

La crescita esponenziale dell’intelligenza artificiale e delle reti neurali inducono a rivalutare il ruolo dell’errore nei processi di apprendimento umano.

Daniele Grassi è CEO di DM Digital e di Axyon AI, startup che sviluppa sistemi di intelligenza artificiale per il mondo finanziario.

more » « less
Video Language:
Italian
Team:
closed TED
Project:
TEDxTalks
Duration:
09:09

Italian subtitles

Revisions