Return to Video

Le meravigliose e terribili conseguenze dei computer che apprendono | Jeremy Howard | TEDxBrussels

  • 0:10 - 0:13
    Un tempo, se volevate far svolgere
    a un computer un compito nuovo,
  • 0:13 - 0:15
    dovevate programmarlo.
  • 0:15 - 0:19
    La programmazione, per chi
    di voi ne fosse a digiuno,
  • 0:19 - 0:22
    prevede la descrizione,
    nei minimi dettagli,
  • 0:22 - 0:25
    di ogni istruzione che volete
    far eseguire al computer,
  • 0:25 - 0:27
    così da raggiungere
    l'obiettivo desiderato.
  • 0:27 - 0:31
    Ma se nemmeno voi sapeste
    descrivere il compito da svolgere,
  • 0:31 - 0:33
    la sfida si farebbe molto più complicata.
  • 0:33 - 0:37
    Una sfida raccolta
    da quest'uomo, Arthur Samuel.
  • 0:37 - 0:43
    Nel 1956, voleva farsi battere
    a dama da questo computer.
  • 0:43 - 0:45
    Ma come fai a scrivere un programma,
  • 0:45 - 0:49
    preciso in ogni dettaglio, che renda
    i computer migliori di te a dama?
  • 0:49 - 0:51
    Così gli venne un idea:
  • 0:51 - 0:54
    fece migliaia di partite col computer,
  • 0:54 - 0:57
    perché imparasse a giocare a dama.
  • 0:57 - 1:00
    La strategia funzionò
    e nel 1962
  • 1:00 - 1:03
    il computer vinse contro
    il campione del Connecticut.
  • 1:03 - 1:07
    Arthur Samuel fu così il padre
    dell'apprendimento automatico [AA],
  • 1:07 - 1:08
    e io gli sono molto riconoscente,
  • 1:08 - 1:11
    da professionista del settore quale sono.
  • 1:11 - 1:13
    Sono stato il presidente di Kaggle,
  • 1:13 - 1:16
    una comunità di oltre 200.000
    addetti ai lavori.
  • 1:16 - 1:18
    Kaggle indìce sfide
  • 1:18 - 1:22
    che affrontano
    problemi finora insoluti,
  • 1:22 - 1:25
    e ha al suo attivo centinaia di successi.
  • 1:26 - 1:28
    Da quel punto di vista privilegiato,
    ho capito
  • 1:28 - 1:32
    molte cose sul passato, sul presente
  • 1:32 - 1:34
    e sul possibile futuro dell'AA.
  • 1:34 - 1:37
    Forse il primo grande successo commerciale
  • 1:37 - 1:39
    dell'AA è stato Google.
  • 1:39 - 1:42
    Google ha mostrato
    che si può trovare un'informazione
  • 1:42 - 1:44
    con un algoritmo informatico,
  • 1:44 - 1:47
    che si basa sull'AA.
  • 1:47 - 1:51
    Da allora, i successi commerciali
    dell'AA sono stati molti.
  • 1:51 - 1:53
    Aziende come Amazon e Netflix
  • 1:53 - 1:56
    usano l'AA per suggerire prodotti
    che potremmo voler comprare,
  • 1:56 - 1:58
    e film che potremmo voler vedere.
  • 1:58 - 2:00
    Mette quasi i brividi, a volte:
  • 2:00 - 2:02
    aziende come LinkedIn e Facebook
  • 2:02 - 2:04
    a volte ti dicono quali potrebbero
    essere i tuoi amici
  • 2:04 - 2:06
    e non capiamo come possano aver fatto:
  • 2:06 - 2:09
    ci sono riusciti usando
    la potenza dell'AA.
  • 2:09 - 2:13
    Sono algoritmi che hanno imparato
    il loro compito dai dati,
  • 2:13 - 2:15
    più che da una classica
    programmazione a mano.
  • 2:16 - 2:18
    È così che Watson, della IBM,
    è riuscito
  • 2:18 - 2:21
    a battere due campioni mondiali
    di "Jeopardy!",
  • 2:21 - 2:25
    rispondendo a domande complesse
    e sofisticate come questa.
  • 2:25 - 2:29
    [L'antico "Leone di Nimrud" è sparito
    dal suo museo nazionale nel 2003]
  • 2:29 - 2:32
    È questo che ha permesso
    le prime auto automatiche.
  • 2:32 - 2:34
    Imparare a riconoscere
    la differenza
  • 2:34 - 2:37
    tra un albero e un pedone è importante.
  • 2:37 - 2:40
    Noi non sappiamo scrivere
    questi programmi "a mano";
  • 2:40 - 2:43
    ma ora, con l'AA, è possibile.
  • 2:43 - 2:46
    Questa macchina ha guidato
    oltre un milione di miglia,
  • 2:46 - 2:49
    sulla rete stradale,
    senza alcun incidente.
  • 2:49 - 2:52
    Quindi ora sappiamo
    che i computer possono apprendere,
  • 2:52 - 2:55
    e imparano a fare cose
  • 2:55 - 2:57
    che a volte nemmeno noi
    sappiamo svolgere,
  • 2:57 - 3:00
    oppure le sanno svolgere meglio di noi.
  • 3:00 - 3:04
    Uno degli esempi più sorprendenti di AA
  • 3:04 - 3:07
    l'ho visto in un progetto
    che ho gestito a Kaggle
  • 3:07 - 3:10
    dove un team, guidato da un certo
    Geoffrey Hinton,
  • 3:10 - 3:12
    dell'Università di Toronto,
  • 3:12 - 3:15
    vinse una sfida per la scoperta
    automatica di farmaci.
  • 3:15 - 3:17
    L'aspetto straordinario
    non è solo che hanno battuto
  • 3:17 - 3:22
    gli algoritmi della Merck, o della
    comunità accademica internazionale,
  • 3:22 - 3:27
    ma che nessuno nel team aveva studiato
    chimica, biologia o scienze naturali,
  • 3:27 - 3:29
    e ce l'han fatta in due settimane.
  • 3:29 - 3:31
    Come ci sono riusciti?
  • 3:31 - 3:34
    Hanno usato un algoritmo straordinario,
    chiamato deep learning.
  • 3:34 - 3:37
    Fu un risultato così importante
    che il successo fu raccontato
  • 3:37 - 3:40
    qualche settimana dopo
    sul New York Times, in prima pagina.
  • 3:40 - 3:43
    Geoffrey Hinton si vede a sinistra.
  • 3:43 - 3:47
    Il "deep learning" è un algoritmo ispirato
    dal funzionamento del cervello umano,
  • 3:47 - 3:49
    e di conseguenza è un algoritmo
  • 3:49 - 3:52
    che in teoria non ha limiti
    a quello che può fare.
  • 3:52 - 3:55
    Più dati, più potenza di calcolo,
    gli metti a disposizione,
  • 3:55 - 3:57
    migliore diventa.
  • 3:57 - 3:59
    Il New York Times ha mostrato anche,
    nel suo articolo,
  • 3:59 - 4:02
    un altro risultato del deep learning,
  • 4:02 - 4:04
    che sto per mostrarvi.
  • 4:04 - 4:08
    Mostra che i computer
    possono ascoltare e capire.
  • 4:09 - 4:11
    (Video) Richard Rashid:
    Adesso, l'ultimo tassello
  • 4:11 - 4:14
    che vorrei aggiungere al discorso
  • 4:14 - 4:17
    è parlarvi in cinese.
  • 4:19 - 4:22
    L'aspetto chiave, qui,
    è che
  • 4:22 - 4:27
    siamo stati in grado di raccogliere molte
    informazioni da molti parlanti cinesi,
  • 4:27 - 4:30
    e produrre un sistema di sintesi vocale
  • 4:30 - 4:34
    che importa il testo cinese
    e lo converte in cinese parlato,
  • 4:35 - 4:39
    poi abbiamo campionato la mia voce
    per un'ora circa
  • 4:39 - 4:41
    e l'abbiamo usata per modulare
  • 4:41 - 4:45
    la sintesi vocale standard,
    perché suonasse come me.
  • 4:45 - 4:48
    Ripeto, il sistema non è perfetto.
  • 4:48 - 4:51
    Ci sono in realtà molti errori.
  • 4:51 - 4:53
    (In cinese)
  • 4:53 - 4:57
    (Applausi)
  • 4:58 - 5:01
    C'è molto lavoro da fare, in quest'area.
  • 5:01 - 5:05
    (In cinese)
  • 5:05 - 5:08
    (Applausi)
  • 5:10 - 5:14
    Jeremy Howard: Questo è avvenuto
    a una conferenza sull'AA in Cina.
  • 5:14 - 5:17
    È raro che in una conferenza accademica
  • 5:17 - 5:19
    i presenti irrompano in un applauso,
  • 5:19 - 5:22
    anche se a volte,
    nelle conferenze TEDx... sentitevi liberi.
  • 5:22 - 5:25
    È stato fatto tutto con il deep learning.
  • 5:25 - 5:27
    (Applausi) Grazie.
  • 5:27 - 5:29
    La trascrizione in inglese? Deep learning;
  • 5:29 - 5:32
    la traduzione in cinese e il testo
    in alto a destra, deep learning,
  • 5:32 - 5:36
    e così anche la sintesi vocale.
  • 5:36 - 5:39
    Il deep learning è straordinario.
  • 5:39 - 5:42
    Un singolo algoritmo che sembra
    in grado di fare quasi ogni cosa,
  • 5:42 - 5:45
    e ho scoperto che, un anno prima,
    aveva anche imparato a vedere.
  • 5:45 - 5:47
    In questa competizione,
    tenutasi in Germania,
  • 5:47 - 5:50
    sul Riconoscimento
    dei Segnali Stradali Tedeschi,
  • 5:50 - 5:53
    il deep learning riconosceva
    segnali stradali come questo.
  • 5:53 - 5:55
    E non solo riusciva a riconoscerli
  • 5:55 - 5:57
    meglio di ogni altro algoritmo,
  • 5:57 - 6:00
    il miglior algoritmo si è dimostrato
  • 6:00 - 6:02
    circa due volte migliore degli umani.
  • 6:02 - 6:04
    Nel 2011 abbiamo avuto il primo esempio
  • 6:04 - 6:07
    di computer che possono vedere
    meglio delle persone.
  • 6:07 - 6:09
    Sono successe molte cose, da allora.
  • 6:09 - 6:13
    Nel 2012, Google ha annunciato
    che un algoritmo di deep learning
  • 6:13 - 6:14
    ha visto i video di YouTube
  • 6:14 - 6:17
    e ne ha macinato i dati
    su 16.000 computer, per un mese,
  • 6:17 - 6:22
    e il computer ha elaborato, autonomamente,
    concetti come "persone" e "gatti",
  • 6:22 - 6:24
    solo guardando i video.
  • 6:24 - 6:26
    È un apprendimento molto simile
    a quello umano.
  • 6:26 - 6:29
    Non apprendiamo facendoci raccontare
    quel che vediamo,
  • 6:29 - 6:32
    ma imparando autonomamente
    cosa siano quelle cose.
  • 6:32 - 6:35
    Sempre nel 2012 Geoffrey Hinton,
    che abbiamo visto prima,
  • 6:35 - 6:38
    ha vinto una sfida
    molto popolare, ImageNet,
  • 6:38 - 6:42
    che cerca di capire, guardando
    1,5 milioni di immagini,
  • 6:42 - 6:44
    il loro soggetto.
  • 6:44 - 6:47
    Al 2014, siamo scesi
    ad un tasso di errore del 6%,
  • 6:47 - 6:49
    nel riconoscimento automatico.
  • 6:49 - 6:51
    Meglio delle persone, ancora una volta.
  • 6:51 - 6:55
    Le macchine, quindi, svolgono
    questi compiti estremamente bene,
  • 6:55 - 6:57
    e ora stanno entrando nell'industria.
  • 6:57 - 7:00
    Google, per esempio,
    ha annunciato l'anno scorso
  • 7:00 - 7:04
    di aver mappato ogni singolo luogo
    della Francia in due ore.
  • 7:04 - 7:08
    Ci sono riusciti dando le immagini
    di Street View a un algoritmo
  • 7:08 - 7:12
    di deep learning, perché imparasse
    a riconoscere e leggere i numeri civici.
  • 7:12 - 7:14
    Immaginate quanto ci sarebbe voluto prima:
  • 7:14 - 7:18
    dozzine di persone, molti anni.
  • 7:18 - 7:20
    Sta succedendo anche in Cina.
  • 7:20 - 7:24
    Baidu, suppongo, è una specie
    di Google cinese,
  • 7:24 - 7:26
    e in alto a sinistra vedete
  • 7:26 - 7:30
    un esempio dell'immagine che ho caricato
    nel sistema di deep learning di Baidu.
  • 7:30 - 7:34
    Sotto potete notare che il sistema
    ha capito cos'è quell'immagine,
  • 7:34 - 7:36
    e ne ha trovate di simili.
  • 7:36 - 7:39
    Le immagini simili, inoltre,
    hanno sfondi simili,
  • 7:39 - 7:42
    direzioni simili del volto,
    alcune anche con la lingua fuori.
  • 7:42 - 7:45
    Chiaramente, questo non deriva
    dal testo di una pagina web:
  • 7:45 - 7:47
    io ho solo caricato un'immagine.
  • 7:47 - 7:51
    Quindi ora abbiamo computer che
    capiscono realmente quel che vedono
  • 7:51 - 7:52
    e possono cercare nei database
  • 7:52 - 7:56
    di centinaia di milioni
    di immagini in tempo reale.
  • 7:56 - 7:59
    Ma cosa significa che i computer "vedono"?
  • 7:59 - 8:01
    In realtà non si limitano a vedere:
  • 8:01 - 8:03
    il deep learning fa di più.
  • 8:03 - 8:06
    Frasi complesse e sfumate come questa
  • 8:06 - 8:09
    sono ora comprensibili
    con algoritmi di deep learning.
  • 8:09 - 8:11
    Come vedete questo sistema,
  • 8:11 - 8:13
    elaborato a Stanford,
    con un punto rosso in alto
  • 8:13 - 8:17
    ha capito che questa frase
    sta esprimendo sentimenti negativi.
  • 8:17 - 8:20
    Infatti il deep learning
    ha raggiunto livelli quasi umani
  • 8:20 - 8:25
    di comprensione del significato
    delle frasi, e di cosa esprimono.
  • 8:25 - 8:28
    Col deep learning si può
    anche leggere il cinese,
  • 8:28 - 8:31
    sempre a livelli comparabili
    a un cinese madrelingua.
  • 8:31 - 8:33
    L'algoritmo è stato
    sviluppato in Svizzera,
  • 8:33 - 8:37
    da un team in cui nessuno
    parlava una parola di cinese.
  • 8:37 - 8:39
    Come ho detto, il deep learning
  • 8:39 - 8:41
    è la migliore soluzione a questo problema,
  • 8:41 - 8:46
    anche rispetto
    alla comprensione nativa umana.
  • 8:46 - 8:49
    Questo è un sistema
    che abbiamo elaborato nella mia azienda
  • 8:49 - 8:51
    che sfrutta tutte queste
    funzionalità insieme.
  • 8:51 - 8:54
    Sono immagini
    che non hanno testo allegato,
  • 8:54 - 8:56
    e man mano che digito queste frasi,
  • 8:56 - 8:59
    il sistema comprende in tempo reale
    queste immagini,
  • 8:59 - 9:01
    capisce di cosa si tratta
  • 9:01 - 9:04
    e trova immagini simili al testo
    che sto scrivendo.
  • 9:04 - 9:07
    Come potete vedere,
    sta capendo le mie frasi
  • 9:07 - 9:09
    e il contenuto delle immagini.
  • 9:09 - 9:11
    Avete già visto qualcosa
    del genere con Google:
  • 9:11 - 9:14
    digitate cose e lui restituisce immagini;
  • 9:14 - 9:18
    ma lì in realtà ricerca il testo
    nella pagina web corrispondente.
  • 9:18 - 9:21
    È una cosa molto diversa
    dal comprendere davvero le immagini.
  • 9:21 - 9:23
    È una cosa che i computer
    sono stati in grado di fare,
  • 9:23 - 9:27
    per la prima volta, solo qualche mese fa.
  • 9:27 - 9:31
    Quindi ora ci sono computer che possono
    non solo vedere ma anche leggere,
  • 9:31 - 9:34
    e ovviamente abbiamo dimostrato
    che possono capire ciò che sentono.
  • 9:34 - 9:38
    Forse ora non vi sorprenderà
    sapere che possono scrivere.
  • 9:38 - 9:43
    Ecco qualche testo che ho generato ieri
    usando un algoritmo di deep learning.
  • 9:43 - 9:47
    Ed ecco qualche testo generato
    da un algoritmo elaborato a Stanford.
  • 9:47 - 9:48
    Le frasi sono state tutte scritte
  • 9:48 - 9:53
    da un algoritmo di deep learning,
    per descrivere le immagini.
  • 9:53 - 9:57
    L'algoritmo non aveva mai visto prima un
    uomo in T-shirt nera suonare la chitarra.
  • 9:57 - 9:59
    Aveva già visto un uomo, il colore nero,
  • 9:59 - 10:01
    una chitarra,
  • 10:01 - 10:05
    ma ha generato da solo la didascalia
    originale di questa immagine.
  • 10:05 - 10:09
    In questo non ha ancora raggiunto
    performance umane, ma ci siamo vicini.
  • 10:09 - 10:13
    Nei test, gli umani preferiscono
    le didascalie automatiche
  • 10:13 - 10:14
    una volta su quattro.
  • 10:14 - 10:16
    Questo sistema gira da due sole settimane,
  • 10:16 - 10:18
    quindi entro il prossimo anno [2015]
  • 10:18 - 10:21
    l'algoritmo ci avrà surclassato,
  • 10:21 - 10:23
    al ritmo cui procedono le cose.
  • 10:23 - 10:26
    Quindi, i computer possono anche scrivere.
  • 10:26 - 10:29
    Mettiamo insieme tutto questo,
    e si aprono scenari esaltanti.
  • 10:29 - 10:31
    In medicina, per esempio,
  • 10:31 - 10:33
    un team di Boston
    ha annunciato di aver scoperto
  • 10:33 - 10:36
    dozzine di caratteristiche
    clinicamente rilevamenti
  • 10:36 - 10:41
    di tumori, che aiutano i dottori
    a elaborare la prognosi di un tumore.
  • 10:42 - 10:44
    A Stanford, analogamente,
  • 10:44 - 10:48
    un gruppo annunciò che,
    osservando i tessuti al microscopio,
  • 10:48 - 10:50
    avevano sviluppato un sistema di AA
  • 10:50 - 10:53
    che batte i patologi umani
  • 10:53 - 10:56
    nel prevedere i tassi di sopravvivenza
    tra i pazienti oncologici.
  • 10:57 - 11:00
    In entrambi i casi, non solo
    le previsioni erano più accurate,
  • 11:00 - 11:03
    ma hanno generato
    nuove scoperte scientifiche.
  • 11:03 - 11:04
    Nel caso della radiologia,
  • 11:04 - 11:07
    hanno trovato nuovi indicatori clinici
    che noi possiamo capire.
  • 11:07 - 11:09
    In questo caso patologico,
  • 11:09 - 11:14
    la macchina capì
    che le cellule attorno al cancro
  • 11:14 - 11:17
    sono importanti quanto
    le cellule cancerose stesse,
  • 11:17 - 11:19
    quando si fa una diagnosi.
  • 11:19 - 11:24
    Il che è l'opposto di quello che è
    stato insegnato ai patologi per decenni.
  • 11:24 - 11:27
    In entrambi i casi,
    questi sistemi furono sviluppati
  • 11:27 - 11:31
    da una combinazione
    di esperti medici e di AA,
  • 11:31 - 11:34
    ma dall'anno scorso
    abbiamo superato anche questo.
  • 11:34 - 11:37
    Questo è un esempio
    di identificazione delle aree cancerose
  • 11:37 - 11:40
    del tessuto umano sotto un microscopio.
  • 11:40 - 11:44
    Questo sistema può identificarle
    con un'accuratezza maggiore,
  • 11:44 - 11:47
    o almeno analoga, dei patologi umani,
  • 11:47 - 11:51
    ma è fatto tutto col deep learning,
    senza l'uso di conoscenze mediche,
  • 11:51 - 11:53
    da persone senza formazione medica.
  • 11:54 - 11:57
    Qui vedete una segmentazione dei neuroni.
  • 11:57 - 12:00
    Ora possiamo segmentare i neuroni
    con accuratezza quasi umana,
  • 12:00 - 12:03
    ma anche questo è stato sviluppato
    con il deep learning
  • 12:03 - 12:06
    da persone senza formazione medica.
  • 12:06 - 12:10
    A quel punto io, che non mi ero
    mai occupato di medicina,
  • 12:10 - 12:13
    mi sentivo più che qualificato
    ad avviare una nuova azienda medica,
  • 12:13 - 12:16
    cosa che feci.
  • 12:16 - 12:17
    Ero terrorizzato da una cosa simile,
  • 12:17 - 12:20
    ma la teoria sembrava ritenere possibile
  • 12:20 - 12:26
    fare ricerca medica di valore usando solo
    queste tecniche di analisi dei dati.
  • 12:26 - 12:28
    E il feedback, per fortuna,
    è stato fantastico,
  • 12:28 - 12:31
    da parte non solo dei media
    ma dalla comunità medica,
  • 12:31 - 12:33
    che mi ha dato molto sostegno.
  • 12:33 - 12:37
    L'idea è che possiamo prendere la fase
    intermedia del processo medico
  • 12:37 - 12:40
    e trasformarla il più possibile
    in analisi dei dati,
  • 12:40 - 12:42
    lasciando ai dottori
    quello che sanno fare meglio.
  • 12:42 - 12:44
    Voglio farvi un esempio.
  • 12:44 - 12:49
    Ora servono circa 15 minuti per generare
    un nuovo test diagnostico,
  • 12:49 - 12:51
    e ve lo mostrerò in diretta,
  • 12:51 - 12:53
    ma lo comprimerò in tre minuti
  • 12:53 - 12:55
    tagliando un po' di parti.
  • 12:55 - 12:58
    E piuttosto che mostrarvi
    una diagnosi medica,
  • 12:58 - 13:01
    vi mostrerò una diagnosi
    di immagini automobilistiche,
  • 13:01 - 13:04
    una cosa che possiamo capire tutti.
  • 13:04 - 13:07
    Inizio inserendo circa 1,5 milioni
    di immagini d'auto,
  • 13:07 - 13:10
    e voglio creare qualcosa
    che possa suddividerle
  • 13:10 - 13:12
    per angolo di ripresa.
  • 13:12 - 13:16
    Queste immagini non hanno alcuna
    descrizione, quindi devo partire da zero.
  • 13:16 - 13:18
    Il nostro algoritmo di deep learning
  • 13:18 - 13:22
    può automaticamente identificare aree
    di struttura in queste immagini.
  • 13:22 - 13:25
    Il bello è che umani e macchine
    ora possono lavorare insieme.
  • 13:25 - 13:27
    L'umano, come potete vedere qui,
  • 13:27 - 13:30
    sta descrivendo al computer
    le aree di interesse
  • 13:30 - 13:35
    che poi vuole allenare a riconoscere.
  • 13:35 - 13:39
    Questi sistemi di deep learning lavorano
    in uno spazio di 16.000 dimensioni,
  • 13:39 - 13:43
    quindi potete vedere il computer
    ruotare nello spazio,
  • 13:43 - 13:45
    cercando nuove aree di struttura.
  • 13:45 - 13:46
    E quando riesce nel suo compito,
  • 13:46 - 13:50
    l'umano che lo sta guidando
    può evidenziare le aree interessanti.
  • 13:50 - 13:53
    Il computer ha trovato
    con successo varie aree,
  • 13:53 - 13:55
    per esempio gli angoli.
  • 13:55 - 13:57
    Nel corso del processo,
  • 13:57 - 13:59
    facciamo capire sempre meglio al computer
  • 13:59 - 14:02
    che tipo di strutture stiamo cercando.
  • 14:02 - 14:03
    Durante una diagnosi, per esempio,
  • 14:03 - 14:07
    questo sistema identificherebbe
    aree patologiche;
  • 14:07 - 14:12
    oppure sarebbe un radiologo che
    indica noduli potenzialmente problematici.
  • 14:12 - 14:14
    E a volte può essere
    difficile per l'algoritmo.
  • 14:14 - 14:16
    In questo caso si confonde:
  • 14:16 - 14:19
    frontali e retri della macchina
    sono tutti confusi.
  • 14:19 - 14:21
    Quindi dobbiamo andare un po' più cauti,
  • 14:21 - 14:24
    distinguendo manualmente
    i frontali dai retri,
  • 14:24 - 14:28
    poi dicendo al computer
    che è un tipo di gruppo
  • 14:28 - 14:31
    a cui siamo interessati.
  • 14:31 - 14:34
    Facciamo così per un po',
    ne tralasciamo alcune,
  • 14:34 - 14:36
    poi alleniamo l'algoritmo di AA
  • 14:36 - 14:38
    con questi 200 esempi
  • 14:38 - 14:40
    e speriamo che diventi molto migliore.
  • 14:40 - 14:43
    Potete vedere, ora, che sta
    già facendo qualche selezione,
  • 14:43 - 14:48
    mostrandoci che sta già capendo
    come riconoscerne alcune.
  • 14:48 - 14:51
    Possiamo poi lavorare sul
    concetto di "immagini simili",
  • 14:51 - 14:53
    e con immagini simili, ora potete vederlo,
  • 14:53 - 14:57
    il computer è in grado
    di isolare i frontali.
  • 14:57 - 15:00
    A questo punto, quindi,
    possiamo dire al computer:
  • 15:00 - 15:02
    okay, sì, hai fatto un buon lavoro.
  • 15:03 - 15:05
    A volte, naturalmente,
    anche in questa fase
  • 15:05 - 15:09
    è difficile separare i due gruppi.
  • 15:09 - 15:11
    In questo caso, anche dopo aver lasciato
  • 15:11 - 15:14
    che il computer lo ruotasse per un po',
  • 15:14 - 15:16
    ancora si vede che
    le immagini delle due fiancate
  • 15:16 - 15:18
    sono mischiate.
  • 15:18 - 15:20
    Allora possiamo dargli altri suggerimenti,
  • 15:20 - 15:23
    e gli diciamo: prova a fare
    una previsione che separi,
  • 15:23 - 15:25
    quanto più possibile,
    il lato sinistro dal destro,
  • 15:25 - 15:28
    usando questo algoritmo di deep learning.
  • 15:28 - 15:31
    E dandogli quel suggerimento
    - ah, ok, ci è riuscito.
  • 15:31 - 15:33
    È riuscito a elaborare un modo
    di astrarre questi oggetti
  • 15:33 - 15:36
    che li ha separati in gruppi omogenei.
  • 15:36 - 15:38
    Questo per darvi un'idea.
  • 15:38 - 15:46
    È un caso in cui i computer
    non sostituiscono il lavoro umano,
  • 15:46 - 15:49
    ma lo affiancano.
  • 15:49 - 15:52
    Qui stiamo sostituendo una cosa
    che richiedeva una squadra
  • 15:52 - 15:55
    di cinque o sei persone, per sette anni,
  • 15:55 - 15:57
    con qualcosa che richiede 15 minuti
  • 15:57 - 16:00
    di una persona sola.
  • 16:00 - 16:04
    Il processo richiede
    quattro o cinque iterazioni.
  • 16:04 - 16:06
    Potete vedere che ora abbiamo il 62%
  • 16:06 - 16:08
    del nostro 1,5 milioni di immagini
    classificate correttamente.
  • 16:08 - 16:11
    E a questo punto,
    possiamo rapidamente iniziare
  • 16:11 - 16:12
    a prendere intere regioni,
  • 16:12 - 16:15
    navigarci per assicurarsi
    che non vi siano errori.
  • 16:15 - 16:19
    Dove vediamo errori, lasciamo
    che il computer apprenda da solo.
  • 16:19 - 16:22
    E ripetendo questo processo
    per ciascuno dei vari gruppi,
  • 16:22 - 16:25
    siamo arrivati all'80 per cento
  • 16:25 - 16:27
    di 1,5 milioni di immagini
    ben classificate.
  • 16:27 - 16:29
    E a questo punto, si tratta solo
  • 16:29 - 16:33
    di trovare i pochi casi
    non correttamente classificati,
  • 16:33 - 16:36
    e capire perché sono sbagliati.
  • 16:36 - 16:37
    Con questo approccio,
  • 16:37 - 16:41
    in 15 minuti siamo arrivati ad un
    tasso di classificazione del 97%.
  • 16:41 - 16:46
    Questo tipo di tecnica ci aiuterebbe
    a risolvere un grande problema,
  • 16:46 - 16:49
    la scarsità di competenza
    medica nel mondo.
  • 16:49 - 16:53
    Il World Economic Forum dice
    che ci sono da dieci a venti volte
  • 16:53 - 16:55
    meno medici, nei paesi
    meno sviluppati, del necessario,
  • 16:55 - 16:57
    e ci vorrebbero circa 300 anni
  • 16:57 - 17:00
    per formare abbastanza persone
    da risolvere il problema.
  • 17:00 - 17:03
    Cosa succederebbe se potessimo
    potenziare la loro efficienza
  • 17:03 - 17:06
    con questi approcci di deep learning?
  • 17:06 - 17:08
    Tutte queste opportunità mi esaltano.
  • 17:08 - 17:11
    Mi preoccupano anche i problemi, però.
  • 17:11 - 17:14
    E il problema, qui, è che
    ogni area blu di questa mappa
  • 17:14 - 17:18
    è un posto dove i servizi assorbono
    più dell'80% di forza lavoro.
  • 17:18 - 17:19
    Cosa sono i servizi?
  • 17:19 - 17:21
    Sono questi.
  • 17:21 - 17:23
    Proprio quelle cose
  • 17:23 - 17:26
    che i computer
    hanno appena imparato a fare.
  • 17:26 - 17:29
    L'80 % degli occupati,
    nel mondo sviluppato,
  • 17:29 - 17:31
    fa cose che i computer
    hanno appena imparato a fare.
  • 17:31 - 17:33
    Cosa significa tutto questo?
  • 17:33 - 17:35
    Sarà fantastico! Faremo altro!
  • 17:35 - 17:38
    Per esempio, ci sarà più lavoro
    per chi raccoglie dati!
  • 17:38 - 17:39
    Be', non proprio.
  • 17:39 - 17:42
    Per fare queste cose, non serviranno
    scienziati molto a lungo.
  • 17:42 - 17:45
    Questi quattro algoritmi, ad esempio,
    li ha scritti una sola persona.
  • 17:45 - 17:48
    Se pensate: è già successo,
  • 17:48 - 17:52
    abbiamo visto i risultati in passato,
    quando si presentava una novità
  • 17:52 - 17:54
    e nuove professioni
    facevano capolino,
  • 17:54 - 17:56
    quali saranno queste nuove professioni?
  • 17:56 - 17:58
    È molto difficile per noi dirlo,
  • 17:58 - 18:01
    perché la performance umana
    cresce a ritmo graduale;
  • 18:01 - 18:03
    ma ora abbiamo un sistema,
    il deep learning,
  • 18:03 - 18:06
    che sappiamo migliorare esponenzialmente.
  • 18:06 - 18:08
    E ora siamo a questo livello,
  • 18:08 - 18:10
    quindi vediamo le cose attorno a noi
  • 18:10 - 18:13
    e i computer ci sembrano ancora
    molto stupidi, vero?
  • 18:13 - 18:16
    Ma da qui a cinque anni,
    la loro curva uscirà dal grafico.
  • 18:16 - 18:20
    Dobbiamo, dunque, cominciare
    a preoccuparci di queste forze già ora.
  • 18:20 - 18:22
    Ci siamo già passati, naturalmente:
  • 18:22 - 18:23
    nella Rivoluzione Industriale
  • 18:23 - 18:26
    i motori hanno fatto "cambiare marcia"
    alla produttività.
  • 18:27 - 18:30
    Tuttavia, dopo un po'
    la curva si appiattì.
  • 18:30 - 18:32
    Fu socialmente dirompente,
  • 18:32 - 18:35
    ma una volta che i motori vennero
    usati per ogni esigenza di potenza,
  • 18:35 - 18:38
    le cose si stabilizzarono.
  • 18:38 - 18:39
    La Rivoluzione dell'AA
  • 18:39 - 18:42
    sarà molto diversa
    dalla Rivoluzione Industriale,
  • 18:42 - 18:45
    perché inarrestabile.
  • 18:45 - 18:48
    Migliori diventeranno i computer
    nelle attività intellettive,
  • 18:48 - 18:52
    meglio costruiranno computer ancora
    migliori nelle attività intellettive,
  • 18:52 - 18:54
    quindi sarà un tipo di sfida
  • 18:54 - 18:57
    che il mondo non ha mai affrontato prima,
  • 18:57 - 19:00
    e la vostra comprensione
    di cos'è possibile cambierà.
  • 19:00 - 19:02
    Tutto questo ci condiziona già ora:
  • 19:02 - 19:06
    negli ultimi 25 anni, man mano che
    la produttività del capitale aumentava,
  • 19:06 - 19:10
    la produttività del lavoro è rimasta
    stabile, anzi è pure un po' calata.
  • 19:11 - 19:14
    Quindi vorrei che cominciassimo
    a parlarne fin d'ora.
  • 19:14 - 19:16
    Spesso le persone,
    quando parlo di questa situazione,
  • 19:16 - 19:18
    la rifutano nettamente:
  • 19:18 - 19:20
    i computer in realtà non pensano,
  • 19:20 - 19:23
    non hanno emozioni,
    non capiscono le poesie,
  • 19:23 - 19:25
    non capiamo davvero come funzionino.
  • 19:25 - 19:27
    E allora?
  • 19:27 - 19:29
    Oggi i computer
    svolgono quei compiti
  • 19:29 - 19:31
    per cui vendiamo gran
    parte del nostro tempo,
  • 19:31 - 19:35
    quindi è giunto il momento
    di chiedersi come adattare
  • 19:35 - 19:37
    le nostre strutture economiche e sociali
  • 19:37 - 19:39
    a questa nuova realtà.
  • 19:39 - 19:41
    Grazie.
  • 19:41 - 19:43
    (Applausi)
Title:
Le meravigliose e terribili conseguenze dei computer che apprendono | Jeremy Howard | TEDxBrussels
Description:

Cosa succede quando insegniamo a un computer ad apprendere per conto suo? Jeremy Howard ci mostra alcuni nuovi, sorprendenti sviluppi nel settore in rapida evoluzione del deep learning, una tecnica che rende i computer in grado di imparare il cinese, riconoscere gli oggetti nelle foto o aiutare a formulare diagnosi. (Un algoritmo di deep learning, dopo aver visto ore di filmati YouTube, ha elaborato da solo il concetto di "gatto") Lasciatevi affascinare da un settore che cambierà il modo in cui si comportano i computer attorno a voi... prima di quanto probabilmente pensiate.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
19:47

Italian subtitles

Revisions