L'era della fede cieca nelle grandi masse di dati deve finire
-
0:01 - 0:03Gli algoritmi sono ovunque.
-
0:04 - 0:07Selezionano e separano
i vincitori dai perdenti. -
0:08 - 0:10I vincitori ottengono il lavoro
-
0:10 - 0:12o l'offerta di una buona
carta di credito. -
0:12 - 0:15I perdenti non ottengono
neanche un colloquio di lavoro -
0:16 - 0:18o pagano di più per l'assicurazione.
-
0:18 - 0:22Siamo valutati da formule segrete
che non comprendiamo -
0:23 - 0:26che spesso non prevedono
sistemi cui poter fare ricorso. -
0:27 - 0:29Questo solleva la domanda:
-
0:29 - 0:31e se gli algoritmi si sbagliano?
-
0:33 - 0:35Per creare algoritmi servono due cose:
-
0:35 - 0:37servono dati, cos'è avvenuto in passato,
-
0:37 - 0:39e una definizione di successo,
-
0:39 - 0:41ciò che state cercando
e spesso sperando di ottenere. -
0:41 - 0:46L'algoritmo si verifica
cercando, risolvendo. -
0:46 - 0:50Gli algoritmi chiariscono con precisione
ciò che è associato al successo, -
0:50 - 0:52quale situazione porta al successo.
-
0:53 - 0:55In realtà, tutti usano algoritmi.
-
0:55 - 0:57Solo che non li formalizzano
attraverso un codice scritto. -
0:57 - 0:59Vi faccio un esempio.
-
0:59 - 1:02Io uso un algoritmo ogni giorno
per cucinare per la mia famiglia. -
1:02 - 1:04I dati che uso
-
1:04 - 1:06sono ingredienti della mia cucina,
-
1:06 - 1:08il tempo che ho,
-
1:08 - 1:09l'ambizione che ho,
-
1:09 - 1:11e curo quei dati.
-
1:11 - 1:15Non considero cibo quei
pacchettini di noodles istantanei. -
1:15 - 1:17(Risate)
-
1:17 - 1:19La mia definizione di successo é:
-
1:19 - 1:21un pasto è ben riuscito
se i miei figli mangiano verdure. -
1:22 - 1:25Sarebbe molto diverso se fosse
mio figlio più piccolo a decidere. -
1:25 - 1:28Lui direbbe che il successo
è mangiare tanta Nutella. -
1:29 - 1:31Ma sono io a scegliere
cos'è il successo. -
1:31 - 1:34Comando io.
È la mia opinione che conta. -
1:34 - 1:37Questa è la prima regola degli algoritmi.
-
1:37 - 1:40Gli algoritmi sono opinioni
racchiuse in codici. -
1:41 - 1:43È molto diverso da ciò che pensate,
-
1:43 - 1:46che la maggior parte della gente
pensa degli algoritmi. -
1:46 - 1:50Si pensa che gli algoritmi siano
oggettivi e realistici e scientifici. -
1:50 - 1:52È un inganno del marketing.
-
1:53 - 1:55È un inganno del marketing anche
-
1:55 - 1:59quello di minacciarvi con gli algoritmi,
-
1:59 - 2:02per convincervi a fidarvi
degli algoritmi e a temerli -
2:02 - 2:05perché vi fidate e avete paura
delle scienze matematiche. -
2:06 - 2:10Si può sbagliare tanto se riponiamo
una fiducia cieca in grandi masse di dati. -
2:12 - 2:15Lei è Kiri Soares. È preside
in una scuola superiore di Brooklyn. -
2:15 - 2:18Nel 2011, mi disse che
i suoi docenti erano valutati -
2:18 - 2:20con un complicato e segreto algoritmo
-
2:20 - 2:22chiamato "modello di valore aggiunto".
-
2:23 - 2:25Le ho detto: "Trova qual è
la formula e mostramela. -
2:25 - 2:27Così te la spiego."
-
2:27 - 2:29Mi disse: "Ho provato
ad avere la formula, -
2:29 - 2:32ma il referente del mio Dipartimento
ha detto che era matematica -
2:32 - 2:34e non l'avrei capita".
-
2:35 - 2:36Le cose peggiorano.
-
2:36 - 2:40Il New York Post ha fatto una richiesta
secondo il Freedom of Information Act, -
2:40 - 2:43ha preso i nomi di tutti
gli insegnanti e i loro punteggi -
2:43 - 2:46e li ha divulgati esponendo
gli insegnanti alla pubblica gogna. -
2:47 - 2:50Quando ho chiesto le formule,
il codice sorgente, -
2:50 - 2:51attraverso gli stessi canali,
-
2:51 - 2:53mi è stato detto
che non potevo averle. -
2:53 - 2:54Mi è stato negato.
-
2:54 - 2:56Poi ho scoperto
-
2:56 - 2:58che nessuno a New York
aveva accesso a quella formula. -
2:58 - 3:00Nessuno la capiva.
-
3:02 - 3:05Poi qualcuno molto intelligente
è stato coinvolto, Gary Rubenstein. -
3:05 - 3:09Ha scoperto che 665 insegnanti
presenti nei dati del New York Post -
3:09 - 3:11in realtà avevano due punteggi.
-
3:11 - 3:13Questo può accadere se insegnano
-
3:13 - 3:15matematica in seconda e in terza media.
-
3:15 - 3:17Decise di rappresentarli graficamente.
-
3:17 - 3:19Ogni punto rappresenta un insegnante.
-
3:19 - 3:21(Risate)
-
3:21 - 3:23Cos'è questo?
-
3:23 - 3:24(Risate)
-
3:24 - 3:28Non avrebbero mai dovuto usarlo
per una valutazione individuale. -
3:28 - 3:30Sembra un generatore casuale di numeri.
-
3:30 - 3:32(Applauso)
-
3:32 - 3:33E lo era.
-
3:33 - 3:35Lei è Sarah Wysocki.
-
3:35 - 3:37È stata licenziata
con altri 205 insegnanti -
3:37 - 3:40dal distretto scolastico
di Washington DC, -
3:40 - 3:43nonostante le referenze
altamente positive da parte del preside -
3:43 - 3:45e da parte dei genitori dei suoi alunni.
-
3:45 - 3:47So a cosa stanno pensando molti di voi,
-
3:47 - 3:50soprattutto analisti, gli esperti
di Intelligenza Artificiale. -
3:50 - 3:54State pensando: "Io non farei mai
degli algoritmi così incoerenti". -
3:55 - 3:57Ma gli algoritmi possono sbagliare,
-
3:57 - 4:01perfino causare effetti disastrosi
nonostante le buone intenzioni. -
4:03 - 4:05E mentre un aeroplano progettato male
-
4:05 - 4:07precipita e può essere visto da tutti,
-
4:07 - 4:09un algoritmo progettato male
-
4:10 - 4:14può essere utilizzato per molto tempo
creando silenziosamente il caos. -
4:16 - 4:17Lui è Roger Ailes.
-
4:17 - 4:19(Risate)
-
4:21 - 4:23Ha fondato Fox News nel 1996.
-
4:23 - 4:26Più di 20 donne lo hanno
accusato di molestie sessuali. -
4:26 - 4:29Hanno detto che a loro non era permesso
fare carriera a Fox News. -
4:29 - 4:32È stato cacciato l'anno scorso,
ma di recente abbiamo visto -
4:32 - 4:35che i problemi sono continuati.
-
4:36 - 4:37Questo solleva la domanda:
-
4:37 - 4:40cosa dovrebbe fare Fox News
per voltare veramente pagina? -
4:41 - 4:44E se sostituissero
il loro sistema di assunzione -
4:44 - 4:46con un algoritmo intelligente?
-
4:46 - 4:48Sembra una buona idea, giusto?
-
4:48 - 4:49Pensateci.
-
4:49 - 4:51I dati, come sarebbero i dati?
-
4:51 - 4:53Una scelta ragionevole potrebbe essere
-
4:53 - 4:56gli ultimi 21 anni di domande
di assunzione a Fox News. -
4:56 - 4:58Ragionevole.
-
4:58 - 5:00E come definire il successo?
-
5:00 - 5:01Una scelta ragionevole sarebbe:
-
5:01 - 5:03chi ha avuto successo a Fox News?
-
5:03 - 5:07Ad esempio qualcuno che è stato lì,
diciamo, per quattro anni -
5:07 - 5:09ed è stato promosso
almeno una volta. -
5:09 - 5:10Sembra ragionevole.
-
5:10 - 5:13E dopo l'algoritmo
dovrebbe essere preparato. -
5:13 - 5:17Sarebbe preparato a cercare le persone,
capire cosa conduce al successo, -
5:17 - 5:22che tipi di candidature hanno
storicamente portato al successo -
5:22 - 5:24secondo quella definizione.
-
5:24 - 5:26Ora pensate a cosa succederebbe
-
5:26 - 5:29se applicassimo questo
a un attuale campione di candidati. -
5:29 - 5:31Verrebbero escluse le donne
-
5:32 - 5:36perché non rappresentano le persone
che hanno avuto successo in passato. -
5:40 - 5:42Gli algoritmi non rendono le cose giuste
-
5:42 - 5:45se vengono applicati
allegramente e ciecamente. -
5:45 - 5:47Non rendono le cose giuste.
-
5:47 - 5:49Ripetono le nostre prassi del passato,
-
5:49 - 5:50i nostri modelli.
-
5:50 - 5:52Automatizzano lo status quo.
-
5:53 - 5:55Sarebbero straordinari
se vivessimo in un mondo perfetto, -
5:56 - 5:57ma non lo abbiamo.
-
5:57 - 6:01Aggiungo che gran parte delle aziende
non ha cause legali imbarazzanti, -
6:02 - 6:05ma agli analisti di quelle aziende
-
6:05 - 6:07viene detto di seguire i dati,
-
6:07 - 6:10di focalizzarsi sull'accuratezza del dato.
-
6:10 - 6:12Pensate a cosa significa.
-
6:12 - 6:16Poiché tutti abbiamo pregiudizi, significa
che potrebbero codificare il sessismo -
6:16 - 6:18o qualsiasi altro tipo di intolleranza.
-
6:19 - 6:21Conduco ricerche,
-
6:21 - 6:22perché mi piacciono:
-
6:24 - 6:27una società interamente segregata,
-
6:28 - 6:32segregazione razziale,
tutte le città, tutti i quartieri, -
6:32 - 6:35dove si manda la polizia
solo nei quartieri periferici -
6:35 - 6:36a cercare il crimine.
-
6:36 - 6:39I dati degli arresti sarebbero
intrisi di pregiudizi. -
6:39 - 6:42Cosa succederebbe se,
oltretutto, trovassimo gli analisti -
6:42 - 6:47e li pagassimo per prevedere
dove si verificherà il prossimo crimine? -
6:47 - 6:49Quartieri periferici
abitati dalle minoranze. -
6:49 - 6:52O per prevedere chi
sarà il prossimo criminale? -
6:53 - 6:54Uno della minoranza.
-
6:56 - 6:59Gli analisti si vanterebbero
di quanto straordinari e accurati -
6:59 - 7:01sono i loro modelli,
-
7:01 - 7:02e avrebbero ragione.
-
7:04 - 7:08La realtà non è così drastica,
ma esistono gravi segregazioni -
7:08 - 7:10in molte città grandi e piccole,
-
7:10 - 7:12e abbiamo ampia evidenza
-
7:12 - 7:15di sistemi di dati investigativi
e giudiziari basati su pregiudizi. -
7:15 - 7:18In realtà siamo anche in grado
di anticipare i luoghi critici, -
7:18 - 7:20in cui si verificheranno i crimini.
-
7:20 - 7:24Noi prevediamo, di fatto,
la criminalità individuale, -
7:24 - 7:26la criminalità dei singoli individui.
-
7:27 - 7:31La nuova organizzazione ProPublica
ha recentemente esaminato -
7:31 - 7:33uno degli algoritmi
sul "rischio recidiva", -
7:33 - 7:34come vengono chiamati,
-
7:34 - 7:37usati dai giudici in Florida
durante le sentenze. -
7:38 - 7:42Bernard, l'uomo di colore a sinistra,
ha avuto un punteggio di 10 su 10. -
7:43 - 7:45Dylan, sulla destra, 3 su 10.
-
7:45 - 7:4810 su 10, rischio elevato.
3 su 10, rischio basso. -
7:49 - 7:51Erano entrambi processati
per possesso di droga. -
7:51 - 7:52Conosciuti dalla polizia,
-
7:52 - 7:55ma Dylan aveva commesso un reato,
-
7:55 - 7:56mentre Bernard no.
-
7:58 - 8:01Questo è importante, perché
più il vostro punteggio è alto, -
8:01 - 8:04più è probabile che
la vostra condanna sia lunga. -
8:06 - 8:08Cosa sta succedendo?
-
8:09 - 8:10Riciclaggio di dati.
-
8:11 - 8:15È un processo con cui gli esperti
di tecnologia nascondono tremende verità -
8:15 - 8:17dentro la scatola nera degli algoritmi
-
8:17 - 8:19e la definiscono oggettività;
-
8:19 - 8:21la definiscono meritocrazia.
-
8:23 - 8:25Quando sono segreti,
importanti e distruttivi, -
8:25 - 8:28ho coniato un termine
per questi algoritmi: -
8:28 - 8:30"Armi di distruzione matematica."
-
8:30 - 8:32(Risata)
-
8:32 - 8:35(Applauso)
-
8:35 - 8:37Sono ovunque e non per errore.
-
8:38 - 8:41Sono aziende private
che costruiscono algoritmi privati -
8:41 - 8:43per scopi privati.
-
8:43 - 8:46Persino quelli di cui ho parlato
per gli insegnanti e la polizia -
8:46 - 8:48sono stati creati da compagnie private
-
8:48 - 8:50e venduti alle istituzioni governative.
-
8:50 - 8:53Li chiamano il loro
"ingrediente segreto", -
8:53 - 8:55ecco perché non possono parlarcene.
-
8:55 - 8:57È anche un potere privato.
-
8:58 - 9:03Ne stanno traendo vantaggio per esercitare
l'autorità dell'imperscrutabile. -
9:05 - 9:08Ora potreste pensare che,
visto che è tutto privato -
9:08 - 9:09e c'è la concorrenza,
-
9:09 - 9:12forse il mercato libero
risolverà il problema. -
9:12 - 9:13Invece no.
-
9:13 - 9:16Ci sono un sacco di soldi
da fare in modo scorretto. -
9:17 - 9:20Inoltre, noi non siamo
agenti economici razionali. -
9:21 - 9:23Abbiamo tutti dei pregiudizi.
-
9:23 - 9:26Siamo tutti razzisti e faziosi
in modi che preferiremmo non essere, -
9:26 - 9:28in modi che neanche immaginiamo.
-
9:29 - 9:32Ma lo sappiamo grazie
al complesso dei dati, -
9:32 - 9:36perché i sociologi lo hanno dimostrato
-
9:36 - 9:37con gli esperimenti che fanno,
-
9:37 - 9:40in cui mandano in giro
un mucchio di richieste di lavoro, -
9:40 - 9:43con uguali qualifiche,
ma alcune con nomi da bianchi, -
9:43 - 9:44altre con nomi da afro-americani,
-
9:44 - 9:47e il risultato è sempre
deludente. Sempre. -
9:47 - 9:49Quindi, siamo noi ad avere pregiudizi,
-
9:49 - 9:53e stiamo iniettando
quei pregiudizi negli algoritmi, -
9:53 - 9:55decidendo quali dati raccogliere,
-
9:55 - 9:57come ho scelto di non pensare
a quei noodles istantanei, -
9:57 - 9:59ho deciso che era irrilevante.
-
9:59 - 10:04Lo facciamo fidandoci di dati che
si riferiscono a prassi del passato -
10:04 - 10:07e scegliendo gli indicatori
per valutare il successo -
10:07 - 10:11Come possiamo aspettarci
che gli algoritmi ne escano indenni? -
10:11 - 10:13Non possiamo. Dobbiamo controllarli.
-
10:13 - 10:16Dobbiamo controllarli
per garantirne l'imparzialità. -
10:16 - 10:19La buona notizia è che possiamo
verificarne l'imparzialità. -
10:19 - 10:22Gli algoritmi possono essere interrogati,
-
10:22 - 10:24e ci diranno la verità ogni volta.
-
10:24 - 10:27Possiamo sistemarli.
Possiamo renderli migliori. -
10:27 - 10:29Lo definisco un audit algoritmico,
-
10:29 - 10:31e ve lo illustro.
-
10:31 - 10:33Primo, controllo dell'integrità dei dati.
-
10:34 - 10:37Per il rischio di recidività
degli algoritmi di cui ho parlato, -
10:38 - 10:41un controllo dell'integrità dei dati
significherebbe constatare il fatto -
10:41 - 10:45che negli US, la percentuale di bianchi
e neri che fumano erba è uguale -
10:45 - 10:47ma i neri hanno molte più
probabilità di essere arrestati, -
10:47 - 10:50da 4 o 5 volte di più,
a seconda della zona. -
10:51 - 10:54Che forma assume quel pregiudizio
in altre categorie criminologiche, -
10:54 - 10:56e come possiamo tenerne conto?
-
10:56 - 10:59Secondo, dovremmo considerare
la definizione di successo, -
10:59 - 11:01sottoporla a verifica.
-
11:01 - 11:03Ricordate l'algoritmo
delle assunzioni che ho illustrato? -
11:03 - 11:07Uno che mantiene il lavoro per quattro
anni ed è promosso una volta? -
11:07 - 11:08Quello è un impiegato di successo,
-
11:08 - 11:11ma è anche un impiegato
sostenuto dalla loro cultura. -
11:11 - 11:14Detto questo, può esserci
anche un lieve pregiudizio. -
11:14 - 11:16Dobbiamo distinguere questi due aspetti.
-
11:16 - 11:19Dovremmo prendere
le audizioni d'orchestra alla cieca -
11:19 - 11:20come esempio.
-
11:20 - 11:23Quelle in cui chi fa il provino
sta dietro uno schermo. -
11:23 - 11:25Quello a cui voglio pensare
-
11:25 - 11:28è che le persone che stanno ascoltando
hanno deciso cosa sia importante -
11:28 - 11:30e cosa non lo è,
-
11:30 - 11:33e non si lasceranno distrarre.
-
11:33 - 11:36da quando le audizioni d'orchestra
alla cieca sono iniziate, -
11:36 - 11:39il numero di donne
nelle orchestre è quintuplicato. -
11:40 - 11:43Poi dobbiamo considerare l'accuratezza.
-
11:43 - 11:47È qui che il "modello di valore aggiunto"
per insegnanti fallisce immediatamente. -
11:48 - 11:50Nessun algoritmo è perfetto, certo,
-
11:51 - 11:54quindi dobbiamo considerare
gli errori di ogni algoritmo. -
11:55 - 11:59Quanto spesso ci sono errori
e per chi fallisce questo modello? -
12:00 - 12:02Qual è il prezzo di quel fallimento?
-
12:02 - 12:05Infine, dobbiamo considerare
-
12:06 - 12:08gli effetti a lungo termine
degli algoritmi, -
12:09 - 12:11i cicli di feedback
che stanno generando. -
12:11 - 12:13Può sembrarvi un'astrazione,
-
12:13 - 12:16ma immaginate se i tecnici di Facebook
lo avessero considerato -
12:16 - 12:21prima di decidere di mostrarci solo
le cose pubblicate dai nostri amici. -
12:22 - 12:25Ho altre due raccomandazioni,
una per gli analisti di dati là fuori. -
12:25 - 12:29Analisti: non dovremmo
essere gli arbitri della verità. -
12:30 - 12:33Dovremmo essere i traduttori
delle discussioni etiche che accadono -
12:33 - 12:35nella società.
-
12:36 - 12:38(Applausi)
-
12:38 - 12:39E per tutti gli altri,
-
12:40 - 12:41i non-analisti di dati:
-
12:41 - 12:44questo non è un esame di matematica.
-
12:44 - 12:45Questa è una lotta politica.
-
12:47 - 12:50Dobbiamo pretendere più trasparenza
dai signori degli algoritmi. -
12:51 - 12:54(Applausi)
-
12:54 - 12:58L'era della fede cieca
nelle masse di dati deve finire. -
12:58 - 12:59Vi ringrazio molto.
-
12:59 - 13:04(Applausi)
- Title:
- L'era della fede cieca nelle grandi masse di dati deve finire
- Speaker:
- Cathy O'Neil
- Description:
-
Gli algoritmi stabiliscono a chi spetta un prestito, chi ottiene un colloquio di lavoro, chi ottiene un'assicurazione e molto altro -- ma non rendono le cose automaticamente giuste. La matematica e analista di dati Cathy O'Neil ha coniato un termine per gli algoritmi segreti, importanti e dannosi: "armi di distruzione matematica". Scoprite di più sulle intenzioni nascoste dietro le formule.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
Silvia Fornasiero approved Italian subtitles for The era of blind faith in big data must end | ||
Silvia Fornasiero edited Italian subtitles for The era of blind faith in big data must end | ||
Silvia Fornasiero edited Italian subtitles for The era of blind faith in big data must end | ||
Silvia Fornasiero accepted Italian subtitles for The era of blind faith in big data must end | ||
Silvia Fornasiero edited Italian subtitles for The era of blind faith in big data must end | ||
Silvia Fornasiero edited Italian subtitles for The era of blind faith in big data must end | ||
Silvia Fornasiero edited Italian subtitles for The era of blind faith in big data must end | ||
Silvia Fornasiero edited Italian subtitles for The era of blind faith in big data must end |
Simone Bernabé
Ciao, ho ultimato la traduzione in italiano, ma ho lasciato qualche riga vuota ([...]). Se qualcuno ha voglia di dare un'occhiata e correggerlo...