Se l'IA non potesse sbagliare, non imparerebbe nulla | Daniele Grassi | TEDxModena
-
0:15 - 0:19Pensiamo al cervello
di un bambino di un anno. -
0:21 - 0:23Sapete quante nuove connessioni
-
0:23 - 0:25si formano, ogni secondo,
tra i suoi neuroni? -
0:26 - 0:28Circa 700.
-
0:29 - 0:30In un'intera giornata
-
0:30 - 0:34fanno più di 60 milioni
di nuove connessioni. -
0:34 - 0:37E ciascuna di queste nuove connessioni
-
0:37 - 0:40rappresenta una nuova sfumatura,
un nuovo concetto -
0:41 - 0:44che il bambino ha imparato nel mondo
tramite la sua esperienza. -
0:46 - 0:48I bambini sono i campioni
dell'apprendimento, -
0:48 - 0:53ed è a loro che guardano le tecniche
più moderne di intelligenza artificiale. -
0:54 - 0:57A distanza di circa 50, 60 anni,
-
0:57 - 1:00da quando Alan Turing
lo aveva teorizzato per la prima volta, -
1:01 - 1:03si sta facendo
finalmente strada il concetto -
1:03 - 1:06che se vogliamo creare dei sistemi
autonomi davvero intelligenti, -
1:07 - 1:11non dobbiamo cercare di infondere loro
tutta la nostra conoscenza, -
1:12 - 1:15bensì dobbiamo renderli
capaci di apprendere -
1:15 - 1:19nella maniera più efficente
e autonoma possibile. -
1:21 - 1:25La prima volta che ho avuto a che fare
con l'intelligenza artificiale -
1:25 - 1:26avevo circa 15 anni,
-
1:27 - 1:28e nel mio tempo libero,
-
1:28 - 1:30per quanto questo
possa suonare un po' nerd, -
1:34 - 1:36avevo creato un piccolo programma,
un piccolo giochino, -
1:37 - 1:40in cui un Pierino virtuale
doveva fuggire da un lupo, -
1:41 - 1:43pena [l'] essere divorato.
-
1:44 - 1:50La cosa particolare è che non avevo
programmato Pierino per scappare dal lupo, -
1:51 - 1:53bensì gli avevo dato soltanto
-
1:53 - 1:57la possibilità di muoversi
all'interno di una piccola mappa, -
1:57 - 2:00gli avevo dato la possibilità
di vedere il lupo, -
2:00 - 2:03ma soprattutto, lo avevo dotato
-
2:03 - 2:05della capacità di apprendere
dall'esperienza -
2:05 - 2:08tramite un semplice algoritmo
di intelligenza artificiale. -
2:10 - 2:15E così, dopo averlo lanciato
in questo mondo, acceso il programma, -
2:16 - 2:18ho visto Pierino prima imparare
-
2:18 - 2:21che stare nei pressi del lupo
non era una grande idea, -
2:22 - 2:25e poi addirittura imparare a scappare
il più velocemente possibile -
2:25 - 2:27non appena lo vedesse in lontananza.
-
2:28 - 2:31Ed è così che mi sono innamorato
dell'intelligenza artificiale. -
2:32 - 2:33E ancora oggi,
-
2:33 - 2:37che progettare sistemi di intelligenza
artificiale è il mio lavoro, -
2:37 - 2:39ed è il focus dell'azienda che ho fondato,
-
2:40 - 2:44ancora oggi vedere sistemi
di intelligenza artificiale -
2:44 - 2:47imparare autonomamente
a prendere decisioni -
2:47 - 2:51solo tramite l'esperienza
sui dati che gli mettiamo a disposizione -
2:51 - 2:53è per me qualcosa di veramente magico.
-
2:56 - 2:58Ora sono passati quasi 20 anni
-
2:58 - 3:01da quel momento,
da quel Pierino virtuale, -
3:02 - 3:04e oggi la tecnologia
è tutta un'altra cosa. -
3:05 - 3:06Di fatto,
-
3:06 - 3:08l'intelligenza artificiale oggi è tra noi.
-
3:09 - 3:13Ad esempio è in grado di guidare
in maniera più sicura di noi umani, -
3:14 - 3:16è in grado di batterci
in giochi di strategia -
3:16 - 3:21che fino a qualche anno fa sembravano
di dominio solamente umano, assolutamente. -
3:22 - 3:24È in grado di riconoscerci,
noi e i nostri amici, -
3:24 - 3:26quando carichiamo foto su Facebook.
-
3:27 - 3:31Ma soprattutto, ci aiuta
in tantissimi ambiti già oggi, -
3:31 - 3:33dalla finanza fino alla medicina.
-
3:35 - 3:38La frontiera tecnologica
è rappresentata dal Deep Learning, -
3:38 - 3:40cioè apprendimento profondo.
-
3:41 - 3:45Il Deep Learning si fonda
sulla costruzione di cervelli virtuali -
3:45 - 3:48dotati di migliaia di neuroni
e milioni di connessioni. -
3:49 - 3:52E impara tramite la riorganizzazione
di queste connessioni -
3:53 - 3:56dopo ogni prova ed errore che effettua
-
3:56 - 3:59sui dati che gli mettiamo a disposizione
durante l'allenamento. -
3:59 - 4:01Quindi, durante la fase di allenamento,
-
4:01 - 4:04prova a prendere decisioni,
ci prende, sbaglia, -
4:04 - 4:08e nel frattempo riorganizza le connessioni
all'interno del suo cervello virtuale, -
4:08 - 4:09e così facendo impara.
-
4:11 - 4:13Proprio come un bambino, quindi.
-
4:14 - 4:18Il problema è che, proprio come
un bambino che diventa adulto, -
4:19 - 4:21anche per questi sistemi
di intelligenza artificiale -
4:21 - 4:26più conoscenza significa
meno flessibilità nell'apprendimento. -
4:26 - 4:29Quindi, più conoscenza,
meno flessibilità nell'apprendimento. -
4:29 - 4:31E questo è un problema.
-
4:33 - 4:36Ed è un problema
che si esemplifica in particolare -
4:36 - 4:39in un'altra tecnica avanzata
di intelligenza artificiale -
4:39 - 4:42chiamata Reinforcement Learning,
cioè apprendimento per rinforzo. -
4:42 - 4:44Il Reinforcement Learning
-
4:44 - 4:48funziona tramite ricompense virtuali
e punizioni virtuali -
4:48 - 4:52che vengono date al sistema a seconda
dell'esito di ogni sua decisione. -
4:52 - 4:53Quindi, ad esempio,
-
4:54 - 4:57un sistema di Reinforcement Learning
che sta imparando a giocare a scacchi -
4:58 - 5:01verrà ricompensato
ogni qualvolta fa una mossa -
5:01 - 5:04che lo mette in una posizione
di vantaggio rispetto all'avversario, -
5:04 - 5:08mentre viene punito virtualmente
quando fa una mossa non opportuna. -
5:08 - 5:11Così facendo, mano a mano,
giocando tante partite, -
5:11 - 5:12il sistema impara.
-
5:13 - 5:15Il problema è che quello che si verifica
-
5:15 - 5:17è che, dopo un po',
dopo che ha imparato un po', -
5:19 - 5:22il sistema tende,
di fronte a situazioni simili, -
5:22 - 5:24a scegliere sempre la prima strada
-
5:24 - 5:27che gli aveva portato
una ricompensa in passato. -
5:28 - 5:31Quindi, di fronte a situazioni simili,
va sul sicuro. Ha paura di sbagliare. -
5:33 - 5:35E questo rappresenta un enorme problema,
-
5:35 - 5:40perché non è detto che la prima strada
che ci ha portato una ricompensa -
5:40 - 5:43sia anche la strada
che ci conduce al successo maggiore. -
5:44 - 5:47Di conseguenza
ci si è inventati un escamotage. -
5:48 - 5:51E l'escamotage consiste,
di quando in quando, -
5:51 - 5:53non sempre, però di quando in quando,
-
5:53 - 5:54durante l'allenamento del sistema,
-
5:55 - 5:58di impedirgli totalmente
di provare paura di sbagliare. -
5:59 - 6:02Quindi, ogni tanto, il sistema
non ha paura di sbagliare, -
6:02 - 6:02e si sente libero
-
6:02 - 6:05di sperimentare nuove strade,
prendere nuove decisioni. -
6:07 - 6:07Così facendo,
-
6:07 - 6:11la maggior parte delle volte
fallisce miseramente, ovviamente. -
6:12 - 6:16Però, ogni tanto, scoprirà
una nuova strada, una nuova strategia, -
6:16 - 6:18un po' creativa, un po' diversa,
-
6:18 - 6:21che lo porta alla fine
a un risultato nettamente migliore. -
6:23 - 6:27Ed è proprio tramite queste tecniche,
questo genere di tecniche, -
6:27 - 6:29che hanno in comune il fatto
-
6:29 - 6:32di mirare a consentire
ai sistemi di intelligenza artificiale -
6:32 - 6:35di sbagliare di più, non di meno,
-
6:35 - 6:38durante la fase di addestramento,
durante la fase della loro formazione, -
6:39 - 6:44che oggi l'intelligenza artificiale
ha raggiunto il successo che conosciamo. -
6:46 - 6:49E non è ironico tutto questo?
-
6:51 - 6:53Non è ironico che proprio noi umani
-
6:54 - 6:57che critichiamo gli errori degli altri,
-
6:58 - 7:01che critichiamo aspramente
chi ci prova e sbaglia, -
7:02 - 7:03siamo anche quelli
-
7:03 - 7:06che stanno regalando il valore dell'errore
-
7:06 - 7:08all'intelligenza artificiale?
-
7:09 - 7:14Stiamo regalando il valore dell'errore
all'intelligenza artificiale, -
7:14 - 7:16quando potremmo imparare così tanto
proprio da questa. -
7:17 - 7:19Ad esempio, nel Deep Learning
-
7:20 - 7:23cerchiamo in tutti i modi
di impedire al sistema -
7:23 - 7:27di memorizzare i dati che gli mettiamo
a disposizione durante l'allenamento, -
7:27 - 7:28perché se così facesse,
-
7:29 - 7:32perderebbe totalmente la flessibilità
di adattarsi a situazioni nuove. -
7:34 - 7:36E allora perché noi umani
-
7:37 - 7:39obblighiamo ad esempio i nostri bambini
-
7:39 - 7:43a impiegare tantissimo tempo
ad imparare a memoria date e dati -
7:43 - 7:46che inevitabilmente dimenticheranno
alla prima verifica? -
7:46 - 7:48Perché il sistema educativo, spesso,
-
7:48 - 7:51si fonda di più, e premia di più
-
7:52 - 7:54la memorizzazione
rispetto alla comprensione? -
7:56 - 7:57E ancora, nel Reinforcement Learning
-
7:57 - 8:02abbiamo visto che la paura di sbagliare
viene vista come un problema, -
8:03 - 8:07per cui si cerca ogni tanto
di consentire, durante la formazione, -
8:07 - 8:08di non avere paura di sbagliare
-
8:08 - 8:12affinchè il sistema possa scoprire strade
che lo portano poi a successi più grandi. -
8:14 - 8:16E allora perché, tra noi,
-
8:17 - 8:22quando qualcuno cambia strada
durante la propria formazione, -
8:22 - 8:24o addirittura durante
la sua carriera lavorativa, -
8:25 - 8:27viene visto come uno scapestrato totale?
-
8:28 - 8:29Perché chi cambia idea,
-
8:30 - 8:34in seguito a esperienze di vita,
in seguito a riflessioni, -
8:34 - 8:37è prima visto come inconsistente
-
8:37 - 8:38che saggio?
-
8:39 - 8:42E infine,
-
8:42 - 8:43abbiamo visto, e sappiamo,
-
8:43 - 8:46che l'intelligenza artificiale
impara qualcosa -
8:46 - 8:47tutte le volte che sbaglia.
-
8:49 - 8:52E allora perché continuiamo
a vedere l'errore come una sconfitta, -
8:53 - 8:55quando in realtà
è soltanto il primo passo -
8:55 - 8:57sulla strada del cambiamento
e del successo? -
8:59 - 9:01Grazie.
-
9:01 - 9:04(Applausi)
- Title:
- Se l'IA non potesse sbagliare, non imparerebbe nulla | Daniele Grassi | TEDxModena
- Description:
-
Questo intervento è stato presentato a un evento TEDx, che utilizza il format della conferenza TED ma è stato organizzato in maniera indipendente da una comunità locale.
Per maggiori informazioni, visita il sito http://ted.com/tedx
La crescita esponenziale dell’intelligenza artificiale e delle reti neurali inducono a rivalutare il ruolo dell’errore nei processi di apprendimento umano.
Daniele Grassi è CEO di DM Digital e di Axyon AI, startup che sviluppa sistemi di intelligenza artificiale per il mondo finanziario.
- Video Language:
- Italian
- Team:
- closed TED
- Project:
- TEDxTalks
- Duration:
- 09:09