Return to Video

L'era della fede cieca nelle grandi masse di dati deve finire

  • 0:01 - 0:03
    Gli algoritmi sono ovunque.
  • 0:04 - 0:07
    Selezionano e separano
    i vincitori dai perdenti.
  • 0:08 - 0:10
    I vincitori ottengono il lavoro
  • 0:10 - 0:12
    o l'offerta di una buona
    carta di credito.
  • 0:12 - 0:15
    I perdenti non ottengono
    neanche un colloquio di lavoro
  • 0:16 - 0:18
    o pagano di più per l'assicurazione.
  • 0:18 - 0:22
    Siamo valutati da formule segrete
    che non comprendiamo
  • 0:23 - 0:26
    che spesso non prevedono
    sistemi cui poter fare ricorso.
  • 0:27 - 0:29
    Questo solleva la domanda:
  • 0:29 - 0:31
    e se gli algoritmi si sbagliano?
  • 0:33 - 0:35
    Per creare algoritmi servono due cose:
  • 0:35 - 0:37
    servono dati, cos'è avvenuto in passato,
  • 0:37 - 0:39
    e una definizione di successo,
  • 0:39 - 0:41
    ciò che state cercando
    e spesso sperando di ottenere.
  • 0:41 - 0:46
    L'algoritmo si verifica
    cercando, risolvendo.
  • 0:46 - 0:50
    Gli algoritmi chiariscono con precisione
    ciò che è associato al successo,
  • 0:50 - 0:52
    quale situazione porta al successo.
  • 0:53 - 0:55
    In realtà, tutti usano algoritmi.
  • 0:55 - 0:57
    Solo che non li formalizzano
    attraverso un codice scritto.
  • 0:57 - 0:59
    Vi faccio un esempio.
  • 0:59 - 1:02
    Io uso un algoritmo ogni giorno
    per cucinare per la mia famiglia.
  • 1:02 - 1:04
    I dati che uso
  • 1:04 - 1:06
    sono ingredienti della mia cucina,
  • 1:06 - 1:08
    il tempo che ho,
  • 1:08 - 1:09
    l'ambizione che ho,
  • 1:09 - 1:11
    e curo quei dati.
  • 1:11 - 1:15
    Non considero cibo quei
    pacchettini di noodles istantanei.
  • 1:15 - 1:17
    (Risate)
  • 1:17 - 1:19
    La mia definizione di successo é:
  • 1:19 - 1:21
    un pasto è ben riuscito
    se i miei figli mangiano verdure.
  • 1:22 - 1:25
    Sarebbe molto diverso se fosse
    mio figlio più piccolo a decidere.
  • 1:25 - 1:28
    Lui direbbe che il successo
    è mangiare tanta Nutella.
  • 1:29 - 1:31
    Ma sono io a scegliere
    cos'è il successo.
  • 1:31 - 1:34
    Comando io.
    È la mia opinione che conta.
  • 1:34 - 1:37
    Questa è la prima regola degli algoritmi.
  • 1:37 - 1:40
    Gli algoritmi sono opinioni
    racchiuse in codici.
  • 1:41 - 1:43
    È molto diverso da ciò che pensate,
  • 1:43 - 1:46
    che la maggior parte della gente
    pensa degli algoritmi.
  • 1:46 - 1:50
    Si pensa che gli algoritmi siano
    oggettivi e realistici e scientifici.
  • 1:50 - 1:52
    È un inganno del marketing.
  • 1:53 - 1:55
    È un inganno del marketing anche
  • 1:55 - 1:59
    quello di minacciarvi con gli algoritmi,
  • 1:59 - 2:02
    per convincervi a fidarvi
    degli algoritmi e a temerli
  • 2:02 - 2:05
    perché vi fidate e avete paura
    delle scienze matematiche.
  • 2:06 - 2:10
    Si può sbagliare tanto se riponiamo
    una fiducia cieca in grandi masse di dati.
  • 2:12 - 2:15
    Lei è Kiri Soares. È preside
    in una scuola superiore di Brooklyn.
  • 2:15 - 2:18
    Nel 2011, mi disse che
    i suoi docenti erano valutati
  • 2:18 - 2:20
    con un complicato e segreto algoritmo
  • 2:20 - 2:22
    chiamato "modello di valore aggiunto".
  • 2:23 - 2:25
    Le ho detto: "Trova qual è
    la formula e mostramela.
  • 2:25 - 2:27
    Così te la spiego."
  • 2:27 - 2:29
    Mi disse: "Ho provato
    ad avere la formula,
  • 2:29 - 2:32
    ma il referente del mio Dipartimento
    ha detto che era matematica
  • 2:32 - 2:34
    e non l'avrei capita".
  • 2:35 - 2:36
    Le cose peggiorano.
  • 2:36 - 2:40
    Il New York Post ha fatto una richiesta
    secondo il Freedom of Information Act,
  • 2:40 - 2:43
    ha preso i nomi di tutti
    gli insegnanti e i loro punteggi
  • 2:43 - 2:46
    e li ha divulgati esponendo
    gli insegnanti alla pubblica gogna.
  • 2:47 - 2:50
    Quando ho chiesto le formule,
    il codice sorgente,
  • 2:50 - 2:51
    attraverso gli stessi canali,
  • 2:51 - 2:53
    mi è stato detto
    che non potevo averle.
  • 2:53 - 2:54
    Mi è stato negato.
  • 2:54 - 2:56
    Poi ho scoperto
  • 2:56 - 2:58
    che nessuno a New York
    aveva accesso a quella formula.
  • 2:58 - 3:00
    Nessuno la capiva.
  • 3:02 - 3:05
    Poi qualcuno molto intelligente
    è stato coinvolto, Gary Rubenstein.
  • 3:05 - 3:09
    Ha scoperto che 665 insegnanti
    presenti nei dati del New York Post
  • 3:09 - 3:11
    in realtà avevano due punteggi.
  • 3:11 - 3:13
    Questo può accadere se insegnano
  • 3:13 - 3:15
    matematica in seconda e in terza media.
  • 3:15 - 3:17
    Decise di rappresentarli graficamente.
  • 3:17 - 3:19
    Ogni punto rappresenta un insegnante.
  • 3:19 - 3:21
    (Risate)
  • 3:21 - 3:23
    Cos'è questo?
  • 3:23 - 3:24
    (Risate)
  • 3:24 - 3:28
    Non avrebbero mai dovuto usarlo
    per una valutazione individuale.
  • 3:28 - 3:30
    Sembra un generatore casuale di numeri.
  • 3:30 - 3:32
    (Applauso)
  • 3:32 - 3:33
    E lo era.
  • 3:33 - 3:35
    Lei è Sarah Wysocki.
  • 3:35 - 3:37
    È stata licenziata
    con altri 205 insegnanti
  • 3:37 - 3:40
    dal distretto scolastico
    di Washington DC,
  • 3:40 - 3:43
    nonostante le referenze
    altamente positive da parte del preside
  • 3:43 - 3:45
    e da parte dei genitori dei suoi alunni.
  • 3:45 - 3:47
    So a cosa stanno pensando molti di voi,
  • 3:47 - 3:50
    soprattutto analisti, gli esperti
    di Intelligenza Artificiale.
  • 3:50 - 3:54
    State pensando: "Io non farei mai
    degli algoritmi così incoerenti".
  • 3:55 - 3:57
    Ma gli algoritmi possono sbagliare,
  • 3:57 - 4:01
    perfino causare effetti disastrosi
    nonostante le buone intenzioni.
  • 4:03 - 4:05
    E mentre un aeroplano progettato male
  • 4:05 - 4:07
    precipita e può essere visto da tutti,
  • 4:07 - 4:09
    un algoritmo progettato male
  • 4:10 - 4:14
    può essere utilizzato per molto tempo
    creando silenziosamente il caos.
  • 4:16 - 4:17
    Lui è Roger Ailes.
  • 4:17 - 4:19
    (Risate)
  • 4:21 - 4:23
    Ha fondato Fox News nel 1996.
  • 4:23 - 4:26
    Più di 20 donne lo hanno
    accusato di molestie sessuali.
  • 4:26 - 4:29
    Hanno detto che a loro non era permesso
    fare carriera a Fox News.
  • 4:29 - 4:32
    È stato cacciato l'anno scorso,
    ma di recente abbiamo visto
  • 4:32 - 4:35
    che i problemi sono continuati.
  • 4:36 - 4:37
    Questo solleva la domanda:
  • 4:37 - 4:40
    cosa dovrebbe fare Fox News
    per voltare veramente pagina?
  • 4:41 - 4:44
    E se sostituissero
    il loro sistema di assunzione
  • 4:44 - 4:46
    con un algoritmo intelligente?
  • 4:46 - 4:48
    Sembra una buona idea, giusto?
  • 4:48 - 4:49
    Pensateci.
  • 4:49 - 4:51
    I dati, come sarebbero i dati?
  • 4:51 - 4:53
    Una scelta ragionevole potrebbe essere
  • 4:53 - 4:56
    gli ultimi 21 anni di domande
    di assunzione a Fox News.
  • 4:56 - 4:58
    Ragionevole.
  • 4:58 - 5:00
    E come definire il successo?
  • 5:00 - 5:01
    Una scelta ragionevole sarebbe:
  • 5:01 - 5:03
    chi ha avuto successo a Fox News?
  • 5:03 - 5:07
    Ad esempio qualcuno che è stato lì,
    diciamo, per quattro anni
  • 5:07 - 5:09
    ed è stato promosso
    almeno una volta.
  • 5:09 - 5:10
    Sembra ragionevole.
  • 5:10 - 5:13
    E dopo l'algoritmo
    dovrebbe essere preparato.
  • 5:13 - 5:17
    Sarebbe preparato a cercare le persone,
    capire cosa conduce al successo,
  • 5:17 - 5:22
    che tipi di candidature hanno
    storicamente portato al successo
  • 5:22 - 5:24
    secondo quella definizione.
  • 5:24 - 5:26
    Ora pensate a cosa succederebbe
  • 5:26 - 5:29
    se applicassimo questo
    a un attuale campione di candidati.
  • 5:29 - 5:31
    Verrebbero escluse le donne
  • 5:32 - 5:36
    perché non rappresentano le persone
    che hanno avuto successo in passato.
  • 5:40 - 5:42
    Gli algoritmi non rendono le cose giuste
  • 5:42 - 5:45
    se vengono applicati
    allegramente e ciecamente.
  • 5:45 - 5:47
    Non rendono le cose giuste.
  • 5:47 - 5:49
    Ripetono le nostre prassi del passato,
  • 5:49 - 5:50
    i nostri modelli.
  • 5:50 - 5:52
    Automatizzano lo status quo.
  • 5:53 - 5:55
    Sarebbero straordinari
    se vivessimo in un mondo perfetto,
  • 5:56 - 5:57
    ma non lo abbiamo.
  • 5:57 - 6:01
    Aggiungo che gran parte delle aziende
    non ha cause legali imbarazzanti,
  • 6:02 - 6:05
    ma agli analisti di quelle aziende
  • 6:05 - 6:07
    viene detto di seguire i dati,
  • 6:07 - 6:10
    di focalizzarsi sull'accuratezza del dato.
  • 6:10 - 6:12
    Pensate a cosa significa.
  • 6:12 - 6:16
    Poiché tutti abbiamo pregiudizi, significa
    che potrebbero codificare il sessismo
  • 6:16 - 6:18
    o qualsiasi altro tipo di intolleranza.
  • 6:19 - 6:21
    Conduco ricerche,
  • 6:21 - 6:22
    perché mi piacciono:
  • 6:24 - 6:27
    una società interamente segregata,
  • 6:28 - 6:32
    segregazione razziale,
    tutte le città, tutti i quartieri,
  • 6:32 - 6:35
    dove si manda la polizia
    solo nei quartieri periferici
  • 6:35 - 6:36
    a cercare il crimine.
  • 6:36 - 6:39
    I dati degli arresti sarebbero
    intrisi di pregiudizi.
  • 6:39 - 6:42
    Cosa succederebbe se,
    oltretutto, trovassimo gli analisti
  • 6:42 - 6:47
    e li pagassimo per prevedere
    dove si verificherà il prossimo crimine?
  • 6:47 - 6:49
    Quartieri periferici
    abitati dalle minoranze.
  • 6:49 - 6:52
    O per prevedere chi
    sarà il prossimo criminale?
  • 6:53 - 6:54
    Uno della minoranza.
  • 6:56 - 6:59
    Gli analisti si vanterebbero
    di quanto straordinari e accurati
  • 6:59 - 7:01
    sono i loro modelli,
  • 7:01 - 7:02
    e avrebbero ragione.
  • 7:04 - 7:08
    La realtà non è così drastica,
    ma esistono gravi segregazioni
  • 7:08 - 7:10
    in molte città grandi e piccole,
  • 7:10 - 7:12
    e abbiamo ampia evidenza
  • 7:12 - 7:15
    di sistemi di dati investigativi
    e giudiziari basati su pregiudizi.
  • 7:15 - 7:18
    In realtà siamo anche in grado
    di anticipare i luoghi critici,
  • 7:18 - 7:20
    in cui si verificheranno i crimini.
  • 7:20 - 7:24
    Noi prevediamo, di fatto,
    la criminalità individuale,
  • 7:24 - 7:26
    la criminalità dei singoli individui.
  • 7:27 - 7:31
    La nuova organizzazione ProPublica
    ha recentemente esaminato
  • 7:31 - 7:33
    uno degli algoritmi
    sul "rischio recidiva",
  • 7:33 - 7:34
    come vengono chiamati,
  • 7:34 - 7:37
    usati dai giudici in Florida
    durante le sentenze.
  • 7:38 - 7:42
    Bernard, l'uomo di colore a sinistra,
    ha avuto un punteggio di 10 su 10.
  • 7:43 - 7:45
    Dylan, sulla destra, 3 su 10.
  • 7:45 - 7:48
    10 su 10, rischio elevato.
    3 su 10, rischio basso.
  • 7:49 - 7:51
    Erano entrambi processati
    per possesso di droga.
  • 7:51 - 7:52
    Conosciuti dalla polizia,
  • 7:52 - 7:55
    ma Dylan aveva commesso un reato,
  • 7:55 - 7:56
    mentre Bernard no.
  • 7:58 - 8:01
    Questo è importante, perché
    più il vostro punteggio è alto,
  • 8:01 - 8:04
    più è probabile che
    la vostra condanna sia lunga.
  • 8:06 - 8:08
    Cosa sta succedendo?
  • 8:09 - 8:10
    Riciclaggio di dati.
  • 8:11 - 8:15
    È un processo con cui gli esperti
    di tecnologia nascondono tremende verità
  • 8:15 - 8:17
    dentro la scatola nera degli algoritmi
  • 8:17 - 8:19
    e la definiscono oggettività;
  • 8:19 - 8:21
    la definiscono meritocrazia.
  • 8:23 - 8:25
    Quando sono segreti,
    importanti e distruttivi,
  • 8:25 - 8:28
    ho coniato un termine
    per questi algoritmi:
  • 8:28 - 8:30
    "Armi di distruzione matematica."
  • 8:30 - 8:32
    (Risata)
  • 8:32 - 8:35
    (Applauso)
  • 8:35 - 8:37
    Sono ovunque e non per errore.
  • 8:38 - 8:41
    Sono aziende private
    che costruiscono algoritmi privati
  • 8:41 - 8:43
    per scopi privati.
  • 8:43 - 8:46
    Persino quelli di cui ho parlato
    per gli insegnanti e la polizia
  • 8:46 - 8:48
    sono stati creati da compagnie private
  • 8:48 - 8:50
    e venduti alle istituzioni governative.
  • 8:50 - 8:53
    Li chiamano il loro
    "ingrediente segreto",
  • 8:53 - 8:55
    ecco perché non possono parlarcene.
  • 8:55 - 8:57
    È anche un potere privato.
  • 8:58 - 9:03
    Ne stanno traendo vantaggio per esercitare
    l'autorità dell'imperscrutabile.
  • 9:05 - 9:08
    Ora potreste pensare che,
    visto che è tutto privato
  • 9:08 - 9:09
    e c'è la concorrenza,
  • 9:09 - 9:12
    forse il mercato libero
    risolverà il problema.
  • 9:12 - 9:13
    Invece no.
  • 9:13 - 9:16
    Ci sono un sacco di soldi
    da fare in modo scorretto.
  • 9:17 - 9:20
    Inoltre, noi non siamo
    agenti economici razionali.
  • 9:21 - 9:23
    Abbiamo tutti dei pregiudizi.
  • 9:23 - 9:26
    Siamo tutti razzisti e faziosi
    in modi che preferiremmo non essere,
  • 9:26 - 9:28
    in modi che neanche immaginiamo.
  • 9:29 - 9:32
    Ma lo sappiamo grazie
    al complesso dei dati,
  • 9:32 - 9:36
    perché i sociologi lo hanno dimostrato
  • 9:36 - 9:37
    con gli esperimenti che fanno,
  • 9:37 - 9:40
    in cui mandano in giro
    un mucchio di richieste di lavoro,
  • 9:40 - 9:43
    con uguali qualifiche,
    ma alcune con nomi da bianchi,
  • 9:43 - 9:44
    altre con nomi da afro-americani,
  • 9:44 - 9:47
    e il risultato è sempre
    deludente. Sempre.
  • 9:47 - 9:49
    Quindi, siamo noi ad avere pregiudizi,
  • 9:49 - 9:53
    e stiamo iniettando
    quei pregiudizi negli algoritmi,
  • 9:53 - 9:55
    decidendo quali dati raccogliere,
  • 9:55 - 9:57
    come ho scelto di non pensare
    a quei noodles istantanei,
  • 9:57 - 9:59
    ho deciso che era irrilevante.
  • 9:59 - 10:04
    Lo facciamo fidandoci di dati che
    si riferiscono a prassi del passato
  • 10:04 - 10:07
    e scegliendo gli indicatori
    per valutare il successo
  • 10:07 - 10:11
    Come possiamo aspettarci
    che gli algoritmi ne escano indenni?
  • 10:11 - 10:13
    Non possiamo. Dobbiamo controllarli.
  • 10:13 - 10:16
    Dobbiamo controllarli
    per garantirne l'imparzialità.
  • 10:16 - 10:19
    La buona notizia è che possiamo
    verificarne l'imparzialità.
  • 10:19 - 10:22
    Gli algoritmi possono essere interrogati,
  • 10:22 - 10:24
    e ci diranno la verità ogni volta.
  • 10:24 - 10:27
    Possiamo sistemarli.
    Possiamo renderli migliori.
  • 10:27 - 10:29
    Lo definisco un audit algoritmico,
  • 10:29 - 10:31
    e ve lo illustro.
  • 10:31 - 10:33
    Primo, controllo dell'integrità dei dati.
  • 10:34 - 10:37
    Per il rischio di recidività
    degli algoritmi di cui ho parlato,
  • 10:38 - 10:41
    un controllo dell'integrità dei dati
    significherebbe constatare il fatto
  • 10:41 - 10:45
    che negli US, la percentuale di bianchi
    e neri che fumano erba è uguale
  • 10:45 - 10:47
    ma i neri hanno molte più
    probabilità di essere arrestati,
  • 10:47 - 10:50
    da 4 o 5 volte di più,
    a seconda della zona.
  • 10:51 - 10:54
    Che forma assume quel pregiudizio
    in altre categorie criminologiche,
  • 10:54 - 10:56
    e come possiamo tenerne conto?
  • 10:56 - 10:59
    Secondo, dovremmo considerare
    la definizione di successo,
  • 10:59 - 11:01
    sottoporla a verifica.
  • 11:01 - 11:03
    Ricordate l'algoritmo
    delle assunzioni che ho illustrato?
  • 11:03 - 11:07
    Uno che mantiene il lavoro per quattro
    anni ed è promosso una volta?
  • 11:07 - 11:08
    Quello è un impiegato di successo,
  • 11:08 - 11:11
    ma è anche un impiegato
    sostenuto dalla loro cultura.
  • 11:11 - 11:14
    Detto questo, può esserci
    anche un lieve pregiudizio.
  • 11:14 - 11:16
    Dobbiamo distinguere questi due aspetti.
  • 11:16 - 11:19
    Dovremmo prendere
    le audizioni d'orchestra alla cieca
  • 11:19 - 11:20
    come esempio.
  • 11:20 - 11:23
    Quelle in cui chi fa il provino
    sta dietro uno schermo.
  • 11:23 - 11:25
    Quello a cui voglio pensare
  • 11:25 - 11:28
    è che le persone che stanno ascoltando
    hanno deciso cosa sia importante
  • 11:28 - 11:30
    e cosa non lo è,
  • 11:30 - 11:33
    e non si lasceranno distrarre.
  • 11:33 - 11:36
    da quando le audizioni d'orchestra
    alla cieca sono iniziate,
  • 11:36 - 11:39
    il numero di donne
    nelle orchestre è quintuplicato.
  • 11:40 - 11:43
    Poi dobbiamo considerare l'accuratezza.
  • 11:43 - 11:47
    È qui che il "modello di valore aggiunto"
    per insegnanti fallisce immediatamente.
  • 11:48 - 11:50
    Nessun algoritmo è perfetto, certo,
  • 11:51 - 11:54
    quindi dobbiamo considerare
    gli errori di ogni algoritmo.
  • 11:55 - 11:59
    Quanto spesso ci sono errori
    e per chi fallisce questo modello?
  • 12:00 - 12:02
    Qual è il prezzo di quel fallimento?
  • 12:02 - 12:05
    Infine, dobbiamo considerare
  • 12:06 - 12:08
    gli effetti a lungo termine
    degli algoritmi,
  • 12:09 - 12:11
    i cicli di feedback
    che stanno generando.
  • 12:11 - 12:13
    Può sembrarvi un'astrazione,
  • 12:13 - 12:16
    ma immaginate se i tecnici di Facebook
    lo avessero considerato
  • 12:16 - 12:21
    prima di decidere di mostrarci solo
    le cose pubblicate dai nostri amici.
  • 12:22 - 12:25
    Ho altre due raccomandazioni,
    una per gli analisti di dati là fuori.
  • 12:25 - 12:29
    Analisti: non dovremmo
    essere gli arbitri della verità.
  • 12:30 - 12:33
    Dovremmo essere i traduttori
    delle discussioni etiche che accadono
  • 12:33 - 12:35
    nella società.
  • 12:36 - 12:38
    (Applausi)
  • 12:38 - 12:39
    E per tutti gli altri,
  • 12:40 - 12:41
    i non-analisti di dati:
  • 12:41 - 12:44
    questo non è un esame di matematica.
  • 12:44 - 12:45
    Questa è una lotta politica.
  • 12:47 - 12:50
    Dobbiamo pretendere più trasparenza
    dai signori degli algoritmi.
  • 12:51 - 12:54
    (Applausi)
  • 12:54 - 12:58
    L'era della fede cieca
    nelle masse di dati deve finire.
  • 12:58 - 12:59
    Vi ringrazio molto.
  • 12:59 - 13:04
    (Applausi)
Title:
L'era della fede cieca nelle grandi masse di dati deve finire
Speaker:
Cathy O'Neil
Description:

Gli algoritmi stabiliscono a chi spetta un prestito, chi ottiene un colloquio di lavoro, chi ottiene un'assicurazione e molto altro -- ma non rendono le cose automaticamente giuste. La matematica e analista di dati Cathy O'Neil ha coniato un termine per gli algoritmi segreti, importanti e dannosi: "armi di distruzione matematica". Scoprite di più sulle intenzioni nascoste dietro le formule.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18
  • Ciao, ho ultimato la traduzione in italiano, ma ho lasciato qualche riga vuota ([...]). Se qualcuno ha voglia di dare un'occhiata e correggerlo...

Italian subtitles

Revisions