1
00:00:00,739 --> 00:00:04,861
Ho iniziato il mio primo lavoro
come programmatrice di computer
2
00:00:04,885 --> 00:00:06,841
nel mio primo anno di college -
3
00:00:06,865 --> 00:00:08,372
sostanzialmete un'adolescente.
4
00:00:08,889 --> 00:00:12,281
Subito dopo ho cominciato a lavorare,
scrivendo software in una azienda,
5
00:00:12,799 --> 00:00:16,434
un manager che lavorava nell'azienda
mi venne a trovare dove stavo,
6
00:00:16,458 --> 00:00:17,726
e mi susssurrò,
7
00:00:18,229 --> 00:00:21,090
"Può lui dirmi se sto mentendo?"
8
00:00:21,806 --> 00:00:23,883
Non c'era nessun altro nella stanza.
9
00:00:25,032 --> 00:00:29,421
"Chi può dire se stai mentendo?
E perché sussurriamo?"
10
00:00:30,266 --> 00:00:33,373
Il manager indicò il computer
nella stanza.
11
00:00:33,397 --> 00:00:36,493
"Può lui dirmi se sto mentendo?"
12
00:00:37,613 --> 00:00:41,975
Ebbene, quel manager aveva una relazione
con la segretaria alla reception.
13
00:00:41,999 --> 00:00:43,111
(Risate)
14
00:00:43,135 --> 00:00:44,901
Ed ero ancora una adolescente.
15
00:00:45,447 --> 00:00:47,466
Così gli sussurrai-urlai,
16
00:00:47,490 --> 00:00:51,114
"Si, il computer può dire
se stai mentendo."
17
00:00:51,138 --> 00:00:52,944
(Risate)
18
00:00:52,968 --> 00:00:55,891
Bene, io risi, ma in effetti,
la risata era nei mei confronti.
19
00:00:55,915 --> 00:00:59,183
Oggi, vi sono sistemi di calcolo
20
00:00:59,207 --> 00:01:02,755
che possono scoprire gli stati emotivi
e pure la menzogna
21
00:01:02,779 --> 00:01:04,823
tramite la elaborazione dei volti umani.
22
00:01:05,248 --> 00:01:09,401
I pubblicitari ed anche i governi
sono molto interessati.
23
00:01:10,139 --> 00:01:12,181
Sono diventata programmatrice di computer
24
00:01:12,205 --> 00:01:15,318
perchè ero uno di quei giovani
pazzi per matematica e scienze
25
00:01:15,942 --> 00:01:19,050
Ma lungo il mio percorso
ho imparato a conoscere le armi nucleari,
26
00:01:19,074 --> 00:01:22,026
e mi sono proprio preoccupata
dell'etica della scienza.
27
00:01:22,050 --> 00:01:23,254
Ero preoccupata.
28
00:01:23,278 --> 00:01:25,919
Tuttavia, a causa della
mia situazione familiare,
29
00:01:25,943 --> 00:01:29,241
dovevo iniziare a lavorare
al più presto.
30
00:01:29,265 --> 00:01:32,564
Così mi sono detta, hey,
scegliamo un settore tecnico
31
00:01:32,588 --> 00:01:34,384
dove posso trovare facilmente
un lavoro
32
00:01:34,408 --> 00:01:38,426
e dove non devo aver a che fare
con qualche fastidiosa questione etica.
33
00:01:39,022 --> 00:01:40,551
Così ho scelto i computer.
34
00:01:40,575 --> 00:01:41,679
(Risate)
35
00:01:41,703 --> 00:01:45,113
Bene, ah, ah!
Tutti ridono di me.
36
00:01:45,137 --> 00:01:47,891
Ora, gli scienziati del computer
costruicono piattaforme
37
00:01:47,915 --> 00:01:52,124
che controllano ciò che un miliardo
di persone vedono ogni giorno.
38
00:01:53,052 --> 00:01:56,874
Stanno sviluppando auto
che potrebbero decidere chi investire.
39
00:01:57,707 --> 00:02:00,920
Stanno anche costruendo macchine, armi,
40
00:02:00,944 --> 00:02:03,229
che possono uccidere persone in guerra.
41
00:02:03,253 --> 00:02:06,024
C'è sempre l'etica alla fine.
42
00:02:07,183 --> 00:02:09,241
L'intelligenza delle macchine è qui.
43
00:02:09,823 --> 00:02:13,297
Ora utilizziamo il computer
per prendere ogni tipo di decisioni,
44
00:02:13,321 --> 00:02:15,207
ma anche nuovi tipi di decisioni.
45
00:02:15,231 --> 00:02:20,403
Stiamo ponendo al computer domande
che non hanno una sola risposta giusta,
46
00:02:20,427 --> 00:02:21,629
che sono soggettive
47
00:02:21,653 --> 00:02:23,978
e sono aperte e cariche di valore.
48
00:02:24,002 --> 00:02:25,760
Domandiamo cose come,
49
00:02:25,784 --> 00:02:27,434
"Chi dovrebbe essere assunto?"
50
00:02:28,096 --> 00:02:30,855
"Quale update e di quale amico
dovrebbe essere mostrato?"
51
00:02:30,879 --> 00:02:33,385
"Quale pregiudicato sarà più
probabilmente recidivo?"
52
00:02:33,514 --> 00:02:36,568
"Quale notizia o film
dovrebbe essere consigliato alla gente?"
53
00:02:36,592 --> 00:02:39,964
Certo, stiamo usando
il computer da un po',
54
00:02:39,988 --> 00:02:41,505
ma questo è diverso.
55
00:02:41,529 --> 00:02:43,596
Questa è un svolta storica,
56
00:02:43,620 --> 00:02:48,957
perchè non possiamo poggiarci sul computer
per queste decisioni soggettive
57
00:02:48,981 --> 00:02:54,401
allo stesso modo in cui si usa il computer
per far volare gli aerei, costruire ponti,
58
00:02:54,425 --> 00:02:55,684
andare sulla luna.
59
00:02:56,449 --> 00:02:59,708
Sono più sicuri gli aerei?
Vacillano e cadono i ponti?
60
00:02:59,732 --> 00:03:04,230
Qui abbiamo chiari livelli di riferimento,
su cui concordiamo,
61
00:03:04,254 --> 00:03:06,493
ed abbiamo le leggi naturali per guidarci.
62
00:03:06,517 --> 00:03:09,911
Non abbiamo tali riferimenti
per decidere
63
00:03:09,935 --> 00:03:13,898
nelle complicate faccende umane.
64
00:03:13,922 --> 00:03:18,159
Per rendere le cose più complicate,
il software sta diventando più potente,
65
00:03:18,183 --> 00:03:21,956
ma anche meno trasparente e più complesso.
66
00:03:22,542 --> 00:03:24,582
Recentemente, nell'ultima decennio,
67
00:03:24,606 --> 00:03:27,335
algoritmi complessi hanno fatto
notevoli passi avanti.
68
00:03:27,359 --> 00:03:29,349
Possono riconoscere le facce umane.
69
00:03:29,985 --> 00:03:32,040
Possono decifrare la scrittura manuale.
70
00:03:32,316 --> 00:03:35,689
possono individuare le frodi
sulle carte di credito e bloccare lo spam
71
00:03:35,689 --> 00:03:37,770
e possono tradurre le lingue.
72
00:03:37,770 --> 00:03:40,684
Possono individuare i tumori
nelle diagnostica per immagini.
73
00:03:40,684 --> 00:03:42,933
Possono battere gli umani a scacchi
e nel GO
74
00:03:43,264 --> 00:03:47,768
Molti di questi progressi derivano
dal metodo di "apprendimento automatico".
75
00:03:48,175 --> 00:03:51,502
L'apprendimento automatico è diverso
dalla tradizionale programmazione,
76
00:03:51,502 --> 00:03:54,971
dove si danno al computer istruzioni
dettagliate, precise ed accurate.
77
00:03:55,378 --> 00:03:59,560
Sembra di più come se forniste
al sistema molti dati,
78
00:03:59,584 --> 00:04:01,234
Inclusi dati non strutturati,
79
00:04:01,234 --> 00:04:03,642
del tipo che generiamo
nella nostre vite digitali.
80
00:04:03,642 --> 00:04:06,296
E il sistema impara
maneggiando quei dati.
81
00:04:06,669 --> 00:04:08,195
Ed anche, crucialmente,
82
00:04:08,219 --> 00:04:12,599
quei sistemi non lavorano
con la logica di una sola risposta.
83
00:04:12,623 --> 00:04:15,702
Non forniscono una semplice risposta;
è piuttosto probabilistica:
84
00:04:15,702 --> 00:04:19,089
"Questo è probabilmente
quello che state cercando."
85
00:04:20,023 --> 00:04:23,093
Ora, la parte positiva è:
questo metodo è veramente potente.
86
00:04:23,117 --> 00:04:25,193
Il capo sistema AI
di Google lo ha chiamato
87
00:04:25,217 --> 00:04:27,414
"la irragionevole efficacia dei dati."
88
00:04:27,791 --> 00:04:29,144
La parte negativa è,
89
00:04:29,738 --> 00:04:32,809
non capiamo veramente
cosa il sistema ha imparato.
90
00:04:32,833 --> 00:04:34,420
Infatti, questa è la sua forza.
91
00:04:34,946 --> 00:04:38,744
Ciò è meno simile a dare
istruzioni ad un computer;
92
00:04:39,200 --> 00:04:43,264
è più simile all'istruire
un cucciolo-macchina
93
00:04:43,288 --> 00:04:45,659
che noi non capiamo
o controlliamo veramente
94
00:04:46,362 --> 00:04:47,913
Questo è il nostro problema.
95
00:04:48,427 --> 00:04:52,689
Il problema è quando questi sistemi
di intelligenza artificiale lavorano male.
96
00:04:52,713 --> 00:04:56,253
Vi è anche il problema
di quando lavorano bene,
97
00:04:56,277 --> 00:04:59,905
perchè non sappiamo chi è chi
quando il problema è soggettivo.
98
00:04:59,929 --> 00:05:02,268
Non sappiamo come il computer ragioni.
99
00:05:03,493 --> 00:05:07,176
Così, considerate un algoritmo
per le assunzioni--
100
00:05:08,123 --> 00:05:12,434
un sistema per assumere la gente,
usando l'apprendimento automatico.
101
00:05:13,052 --> 00:05:16,631
Un tale sistema sarebbe stato formato
sui dati dei precedenti assunti
102
00:05:16,655 --> 00:05:19,246
e istruito per trovare ed assumere
103
00:05:19,270 --> 00:05:22,308
le persone simili a quelli
più performanti in azienda.
104
00:05:22,814 --> 00:05:25,714
Sembra giusto.
Una volta ho partecipato ad una conferenza
105
00:05:25,714 --> 00:05:29,269
che coinvolgeva i responsabili
delle Risorse Umane e i manager aziendali,
106
00:05:29,269 --> 00:05:32,489
persone ad alto livello,
che usavano questo sistema per assumere.
107
00:05:32,489 --> 00:05:33,822
Erano super entusiasti.
108
00:05:33,822 --> 00:05:38,299
Pensavano che ciò avrebbe portato ad
assunzioni più oggettive, meno distorte,
109
00:05:38,323 --> 00:05:41,323
e dato alle donne e alle minoranze
una migliore opportunità
110
00:05:41,347 --> 00:05:43,535
rispetto a manager umani influenzabili.
111
00:05:43,559 --> 00:05:46,402
E guarda - le assunzioni fatte
dagli uomini sono distorte.
112
00:05:47,099 --> 00:05:48,284
Lo so.
113
00:05:48,308 --> 00:05:51,313
Voglio dire, in uno dei miei primi lavori,
come programmatrice,
114
00:05:51,337 --> 00:05:55,205
la manager da cui dipendevo qualche volta
scendeva dove stavo
115
00:05:55,229 --> 00:05:58,982
molto presto alla mattina
o molto tardi nel pomeriggio,
116
00:05:59,006 --> 00:06:02,068
e mi diceva, "Zeynep,
andiamo a pranzo!"
117
00:06:02,724 --> 00:06:04,891
Ero perplessa per la strana tempistica.
118
00:06:04,915 --> 00:06:07,044
Sono le 4 del pomeriggio. Pranzo?
119
00:06:07,068 --> 00:06:10,162
Ero al verde, ed è un pranzo gratis.
Quindi andavo sempre.
120
00:06:10,618 --> 00:06:12,685
Più tardi capii cosa stava accadendo.
121
00:06:12,709 --> 00:06:17,255
La manager da cui dipendevo
non aveva confessato ai livelli superiori
122
00:06:17,279 --> 00:06:20,392
che il programmatore da lei assunto
per un importante lavoro era adolescente
123
00:06:20,416 --> 00:06:24,346
che indossava jeans e sneaker al lavoro.
124
00:06:25,174 --> 00:06:27,376
Lavoravo bene,
solo sembravo sbagliata,
125
00:06:27,400 --> 00:06:29,099
ed era l'età e genere sbagliato.
126
00:06:29,123 --> 00:06:32,469
Così asssumere senza considerare
genere e razza
127
00:06:32,493 --> 00:06:34,358
certamante mi sembra giusto.
128
00:06:35,031 --> 00:06:38,372
Ma con questi sistemi,
è più complicato, ed ecco perchè:
129
00:06:38,968 --> 00:06:44,759
Ad oggi, i sistemi di calcolo
possono desumere qualsiasi cosa su di voi
130
00:06:44,783 --> 00:06:46,655
dalle vostre briciole digitali,
131
00:06:46,679 --> 00:06:49,012
pur se non avete reso pubbliche
quelle cose.
132
00:06:49,506 --> 00:06:52,433
Possono desumere
il vostro orientamento sessuale,
133
00:06:52,994 --> 00:06:54,300
caratteristiche personali,
134
00:06:54,859 --> 00:06:56,232
orientamento politico.
135
00:06:56,830 --> 00:07:00,515
Hanno potenza predittiva
con alto livello di accuratezza.
136
00:07:01,362 --> 00:07:03,940
Ricordate -- per cose che
non avete mai dichiarato.
137
00:07:03,964 --> 00:07:05,555
Questa è l'inferenza.
138
00:07:05,579 --> 00:07:08,840
Ho un'amica che ha sviluppato
un sistema di elaborazione
139
00:07:08,864 --> 00:07:12,505
per predire la probabilità
della depressione postpartum
140
00:07:12,529 --> 00:07:13,945
dai dati delle reti sociali.
141
00:07:14,676 --> 00:07:16,103
Risultati impressionanti!
142
00:07:16,492 --> 00:07:19,849
Il suo sistema può predire
la probabilità della depressione
143
00:07:19,873 --> 00:07:23,776
mesi prima dell'insorgere
di un qualsiasi sintomo --
144
00:07:23,800 --> 00:07:25,173
mesi prima.
145
00:07:25,197 --> 00:07:27,443
Nessun sintomo, ma c'è predizione.
146
00:07:27,467 --> 00:07:32,279
Lei spera che sarà usato
per anticipare un intervento. Ottimo!
147
00:07:32,911 --> 00:07:34,951
Ma ora consideratelo in una assunzione.
148
00:07:36,027 --> 00:07:39,073
Così a quella conferenza dei manager
delle risorse umane,
149
00:07:39,097 --> 00:07:43,806
ho avvicinato un manager di alto livello
in una grande azienda,
150
00:07:43,830 --> 00:07:48,408
e le ho detto, "Guarda,
che succederebbe se, alla tua insaputa,
151
00:07:48,432 --> 00:07:54,981
il vostro sistema elimina le persone
con un'alta probabilità di depressione?
152
00:07:55,761 --> 00:07:59,137
Non sono depresse ora,
magari forse in futuro, più probabilmente.
153
00:07:59,923 --> 00:08:03,329
Che succederebbe se eliminasse le donne
più probabilmente incinte
154
00:08:03,353 --> 00:08:05,939
nei prossimi uno o due anni
ma che non lo sono ora?
155
00:08:06,844 --> 00:08:12,480
E se assumeste persone aggressive perchè
questa è la vostra cultura aziendale?"
156
00:08:13,173 --> 00:08:15,864
Non potete parlarne guardando
solo alle quote di genere.
157
00:08:15,888 --> 00:08:17,390
Queste si possono bilanciare.
158
00:08:17,414 --> 00:08:20,971
E dato che ciò è apprendimento automatico,
non programmazione tradizionale,
159
00:08:20,995 --> 00:08:25,902
non c'è alcuna variabile di codifica
etichettata "alto rischio di depressione",
160
00:08:25,926 --> 00:08:27,759
"maggior rischio di gravidanza,"
161
00:08:27,783 --> 00:08:29,517
"gradazione di maschio aggressivo."
162
00:08:29,995 --> 00:08:33,674
Non solo non sapete su cosa
il vostro sistema basi la selezione,
163
00:08:33,698 --> 00:08:36,021
ma neppure sapete
dove cominciare a guardare.
164
00:08:36,045 --> 00:08:37,291
E' una "scatola nera".
165
00:08:37,315 --> 00:08:40,122
Ha una potenza predittiva
ma non la capite.
166
00:08:40,486 --> 00:08:42,855
"Quali garanzie," chiesi, "avete
167
00:08:42,879 --> 00:08:46,552
per essere sicuri che la scatola nera
non sta facendo qualcosa losco?"
168
00:08:48,863 --> 00:08:52,741
Mi ha guardato come se avessi
schiacciato la coda a 10 cuccioli.
169
00:08:52,765 --> 00:08:54,013
(Risate)
170
00:08:54,037 --> 00:08:56,078
Mi fissò e disse,
171
00:08:56,556 --> 00:09:00,889
"Non voglio sentire altro su questo."
172
00:09:01,458 --> 00:09:03,492
E si girò andandosene via.
173
00:09:04,064 --> 00:09:05,660
Considerate - non era maleducata.
174
00:09:05,660 --> 00:09:11,882
Era chiaro: quello che non so non è un
mio problema. Va via, sguardo assassino.
175
00:09:11,906 --> 00:09:13,152
(Risate)
176
00:09:13,862 --> 00:09:17,701
Vedete, un tale sistema
può anche essere meno influenzata
177
00:09:17,725 --> 00:09:19,828
in molti modi rispetto ai manager umani.
178
00:09:19,852 --> 00:09:21,998
E potrebbe avere senso economico.
179
00:09:22,573 --> 00:09:24,223
Ma può anche portare
180
00:09:24,247 --> 00:09:28,995
a una stabile, ma furtiva
chiusura dal mercato del lavoro
181
00:09:29,019 --> 00:09:31,312
di gente più a rischio di depressione.
182
00:09:31,753 --> 00:09:34,349
Questo è il tipo di società
che vogliamo costruire,
183
00:09:34,373 --> 00:09:36,658
senza neppure sapere che lo abbiamo fatto,
184
00:09:36,682 --> 00:09:40,646
poichè abbiamo lasciato la decisione
a macchine che non comprendiamo del tutto?
185
00:09:41,265 --> 00:09:42,723
Un altro problema è questo:
186
00:09:43,314 --> 00:09:47,766
quei sistemi sono spesso addestrati
con dati generati dalle nostre azioni,
187
00:09:47,790 --> 00:09:49,606
di impronta umana.
188
00:09:50,188 --> 00:09:53,996
Bene, possono proprio riflettere
le nostre distorsioni o pregiudizi,
189
00:09:54,020 --> 00:09:57,613
e questi sistemi
si portano dietro i nostri pregiudizi
190
00:09:57,637 --> 00:09:58,950
e li amplificano
191
00:09:58,974 --> 00:10:00,392
e ce li rispecchiano,
192
00:10:00,416 --> 00:10:01,878
mentre ci diciamo,
193
00:10:01,902 --> 00:10:05,019
"Stiamo facendo solo elaborazioni
oggettive e neutrali."
194
00:10:06,314 --> 00:10:08,991
Ricerche effettuate su Google trovano,
195
00:10:10,134 --> 00:10:15,447
che è meno probabile vengano mostrati
alle donne avvisi per lavori ben pagati.
196
00:10:16,463 --> 00:10:18,993
E cercando nomi di Afro-Americani
197
00:10:19,017 --> 00:10:23,723
è più probabile trovare avvisi
alludenti a storie criminali,
198
00:10:23,747 --> 00:10:25,314
anche quando non ce ne sono.
199
00:10:26,693 --> 00:10:30,242
Questi sono i pregiudizi nascosti
e gli algoritmi a scatola nera
200
00:10:30,266 --> 00:10:34,239
che i ricercatori talvolta scoprono
ma che altre volte non conosciamo,
201
00:10:34,263 --> 00:10:36,924
possono avere la conseguenza di
alterare la vita.
202
00:10:37,958 --> 00:10:42,117
In Wisconsin, un accusato
è stato condannato a sei anni di prigione
203
00:10:42,141 --> 00:10:43,496
per aver eluso la polizia.
204
00:10:44,824 --> 00:10:46,010
Si può non saperlo,
205
00:10:46,034 --> 00:10:50,032
ma gli algoritmi sono sempre più usati
per prendere decisioni giudiziarie.
206
00:10:50,056 --> 00:10:53,011
Egli voleva sapere:
come è stato calcolato il punteggio?
207
00:10:53,795 --> 00:10:55,460
Ma è una scatola nera
sul mercato
208
00:10:55,484 --> 00:10:59,689
L'azienda si è rifiutata di far verificare
il suo algoritmo in una corte pubblica.
209
00:11:00,396 --> 00:11:05,928
Ma ProPublica, associazione investigativa
non-profit, ha verificato quell'algoritmo
210
00:11:05,952 --> 00:11:07,968
con i dati pubblici disponibili,
211
00:11:07,992 --> 00:11:10,308
trovando che i risultati
erano influenzati
212
00:11:10,332 --> 00:11:13,961
e la sua potenza predittiva era
niente più di una possibilità,
213
00:11:13,985 --> 00:11:18,401
e che era sbagliato etichettare
accusati neri come futuri criminali
214
00:11:18,425 --> 00:11:22,320
a livello doppio degli accusati bianchi.
215
00:11:23,891 --> 00:11:25,455
Così considerate questo caso:
216
00:11:26,103 --> 00:11:29,955
questa donna è in ritardo
nel prelevare la sua figlioccia
217
00:11:29,979 --> 00:11:32,054
da scuola nella Contea di Broward,
Florida,
218
00:11:32,757 --> 00:11:35,113
correndo per la strada
con un suo amico.
219
00:11:35,137 --> 00:11:39,236
Vedono una bici da ragazzo non bloccata
ed uno scooter in una veranda
220
00:11:39,260 --> 00:11:40,856
e stupidamente vi saltano su.
221
00:11:40,856 --> 00:11:43,575
Come stavano scappando via,
una donna uscì fuori e disse,
222
00:11:43,575 --> 00:11:45,744
"Ehi, quella bicicletta è mia!"
223
00:11:45,768 --> 00:11:49,062
Essi la lascarono, andarono via,
ma furono arrestati.
224
00:11:49,086 --> 00:11:52,723
Aveva sbagliato, era stata sciocca,
ma era appena diventata diciottenne.
225
00:11:52,747 --> 00:11:55,291
Fu condannata per un paio
di crimini giovanili.
226
00:11:55,808 --> 00:12:00,993
Nel frattempo, quell'uomo fu arrestato
per furto di merce al Home Depot --
227
00:12:01,017 --> 00:12:03,941
merce per 85 dollari di valore,
un simile piccolo crimine.
228
00:12:04,766 --> 00:12:09,325
Ma lui aveva due precedenti
condanne per rapina a mano armata
229
00:12:09,955 --> 00:12:13,437
Ma l'algoritmo aveva valutato lei
ad alto rischio, non lui.
230
00:12:14,746 --> 00:12:18,620
Due anni dopo, ProPublica trovò
che lei non era stata recidiva.
231
00:12:18,644 --> 00:12:21,194
Ma le fu duro trovare
lavoro, visti i precedenti.
232
00:12:21,218 --> 00:12:23,294
Lui, d'altra parte, fu recidivo
233
00:12:23,318 --> 00:12:27,154
ed ora è in prigione per 8 anni
a causa di un successivo crimine.
234
00:12:28,088 --> 00:12:31,457
Chiaramente, ci bisogna verificare
le scatole nere
235
00:12:31,481 --> 00:12:34,096
per non dare loro questo
incontrollato potere.
236
00:12:34,120 --> 00:12:36,999
(Applausi)
237
00:12:38,087 --> 00:12:42,329
Le verifiche sono importanti,
ma da sole non risolvono tutti i problemi.
238
00:12:42,353 --> 00:12:45,101
Prendete l'algoritmo di Facebook
per caricare le news--
239
00:12:45,125 --> 00:12:49,968
sapete, quello che riordina tutto
e decide cosa mostrarvi
240
00:12:49,992 --> 00:12:52,276
da tutti gli amici e le pagine seguite.
241
00:12:52,898 --> 00:12:55,173
Dovrebbe mostrarvi un'altra foto di bimbo?
242
00:12:55,197 --> 00:12:56,393
(Risate)
243
00:12:56,417 --> 00:12:59,013
Una nota imbronciata da un conoscente?
244
00:12:59,449 --> 00:13:01,305
Una importante ma scabrosa notizia?
245
00:13:01,329 --> 00:13:02,811
Non c'è una risposta giusta.
246
00:13:02,835 --> 00:13:05,494
Facebook ottimizza per
attraervi al loro sito:
247
00:13:05,518 --> 00:13:06,933
i like, condividi, commenti
248
00:13:08,168 --> 00:13:10,864
Nell'agosto 2014,
249
00:13:10,888 --> 00:13:14,660
proteste scoppiarono a Ferguson, Missouri,
dopo l'uccisione di
250
00:13:14,660 --> 00:13:17,991
un ragazzo Afro-Americano
da parte di un poliziotto bianco,
251
00:13:18,015 --> 00:13:19,585
in circostanze oscure.
252
00:13:19,974 --> 00:13:21,981
La notizia delle proteste era presente
253
00:13:22,005 --> 00:13:24,690
sul mio caricatore Twitter
non filtrato da algoritmi,
254
00:13:24,714 --> 00:13:26,664
ma nulla sul mio Facebook.
255
00:13:27,182 --> 00:13:29,076
Era a causa dei miei amici su Facebook?
256
00:13:29,076 --> 00:13:31,332
Ho disabilitato l'algoritmo di Facebook,
257
00:13:31,472 --> 00:13:34,320
che non è facile, poichè Facebook
vuole mantenervi
258
00:13:34,344 --> 00:13:36,380
sotto il controllo dell'algoritmo,
259
00:13:36,404 --> 00:13:38,642
e vidi che i miei amici
parlavano di questo.
260
00:13:38,666 --> 00:13:41,175
Era proprio l'algoritmo
che non me lo mostrava.
261
00:13:41,199 --> 00:13:44,241
Ho approfondito ed ho trovato
che è un problema diffuso.
262
00:13:44,265 --> 00:13:48,078
La storia di Ferguson non è
facile per l'algoritmo.
263
00:13:48,102 --> 00:13:49,273
Non è likable.
264
00:13:49,297 --> 00:13:50,849
Chi sta cliccando su "like?"
265
00:13:51,500 --> 00:13:53,706
Non è neppure facile da commentarsi.
266
00:13:53,730 --> 00:13:55,101
Senza like e commenti,
267
00:13:55,125 --> 00:13:58,417
l'algoritmo tende a mostrare la notizia
ad ancora meno persone,
268
00:13:58,441 --> 00:13:59,983
così non riusciamo a vederla.
269
00:14:00,946 --> 00:14:02,174
Invece, questa settimana,
270
00:14:02,198 --> 00:14:04,496
l'algoritmo di Facebook ha evidenziato
271
00:14:04,520 --> 00:14:06,746
questo: il ALS Ice Bucket Challenge.
272
00:14:06,770 --> 00:14:10,512
Causa benefica; svuota acqua ghiacciata,
dona alla beneficenza, bene.
273
00:14:10,536 --> 00:14:12,440
Ottimo per agevolare l'algoritmo.
274
00:14:13,219 --> 00:14:15,832
Una decisione automatica è stata
presa per noi
275
00:14:15,856 --> 00:14:19,353
Una conversazione molto importante
ma scabrosa
276
00:14:19,377 --> 00:14:20,932
può essere moderata,
277
00:14:20,956 --> 00:14:23,652
essendo Facebook l'unica via trasmissiva.
278
00:14:24,117 --> 00:14:27,914
Ora, infine, quei sistemi
possono sbagliare
279
00:14:27,938 --> 00:14:30,674
in modi che non somigliano
a sistemi umani.
280
00:14:30,698 --> 00:14:33,620
Vi ricordate Watson,
la macchina intelligente di IBM
281
00:14:33,644 --> 00:14:36,772
che ha spazzato via
i contendenti umani a Jeopardy?
282
00:14:37,131 --> 00:14:38,559
Era un grande giocatore.
283
00:14:38,583 --> 00:14:42,239
Ma poi, alla finale di Jeopardy,
fu posta questa domanda a Watson:
284
00:14:42,239 --> 00:14:45,911
"Il suo più grande aeroporto è intitolato
a un eroe della II Guerra Mondiale,
285
00:14:45,911 --> 00:14:48,177
il suo secondo più grande
a una sua battaglia."
286
00:14:48,177 --> 00:14:49,779
(Musica della finale di Jeopardy)
287
00:14:49,779 --> 00:14:50,764
Chicago.
288
00:14:50,788 --> 00:14:52,158
I due umani risposero bene.
289
00:14:52,697 --> 00:14:57,045
Watson, da altra parte,
rispose "Toronto" --
290
00:14:57,069 --> 00:14:58,887
per una città nella categoria USA!
291
00:14:59,596 --> 00:15:02,497
L'impressionante sistema aveva sbagliato
292
00:15:02,521 --> 00:15:06,172
come un umano non avrebbbe mai fatto,
neppure un alunno delle elementari.
293
00:15:06,823 --> 00:15:09,932
L'intelligenza automatica può sbagliare
294
00:15:09,956 --> 00:15:13,056
in modi non paragonabili
con l'approccio dell'errore umano,
295
00:15:13,080 --> 00:15:16,030
in modi che non ci aspetteremmo
e per i quali siamo preparati.
296
00:15:16,054 --> 00:15:19,692
Sarebbe pessimo non ottenere un lavoro
per il quale si è qualificati,
297
00:15:19,716 --> 00:15:23,443
ma sarebbe tre volte peggio
se fosse causato da un errore software
298
00:15:23,467 --> 00:15:24,899
in qualche sua subroutine.
299
00:15:24,923 --> 00:15:26,502
(Risate)
300
00:15:26,526 --> 00:15:29,312
Nel maggio 2010,
301
00:15:29,336 --> 00:15:33,380
una crisi improvvisa a Wall Street,
alimentata da un erroneo ciclo di calcolo
302
00:15:33,404 --> 00:15:36,432
nell'algoritmo di "vendi" di Wall Street
303
00:15:36,456 --> 00:15:40,640
ha spazzato via un valore
di un trilione di dollari in 36 minuti.
304
00:15:41,722 --> 00:15:43,909
Non voglio pensare
cosa significhi "errore"
305
00:15:43,933 --> 00:15:47,522
nel contesto di armi letali autonome.
306
00:15:49,894 --> 00:15:53,684
Si certo, gli umani sono sempre parziali.
307
00:15:53,708 --> 00:15:55,884
I decisori e controllori,
308
00:15:55,908 --> 00:15:59,401
nelle corti, nei notiziari, in guerra ...
309
00:15:59,425 --> 00:16:02,463
commettono errori;
ma questo è proprio il mio punto.
310
00:16:02,487 --> 00:16:06,008
non possiamo sfuggire
a queste difficili domande.
311
00:16:06,596 --> 00:16:10,112
Non possiamo delegare
le nostre responsabilità alle macchine.
312
00:16:10,676 --> 00:16:14,884
(Applausi)
313
00:16:17,089 --> 00:16:21,536
L'intelligenza artificiale non ci dà
un permesso di "uscire dall'etica" gratis.
314
00:16:22,742 --> 00:16:26,123
Lo scienziato sui dati Fred Benenson
lo chiama "pulizia matematica".
315
00:16:26,147 --> 00:16:27,536
Necessitiamo del contrario.
316
00:16:27,560 --> 00:16:32,948
Verso gli algoritmi occorre coltivare
la diffidenza, verifica e indagine.
317
00:16:33,080 --> 00:16:36,578
Occorre essere sicuri che di sia
una responsabilità sugli algoritmi,
318
00:16:36,625 --> 00:16:39,070
metodi di verifica e
una comprensibile trasparenza.
319
00:16:39,070 --> 00:16:42,510
È necessario accettare
che portare matematica ed elaborazione
320
00:16:42,510 --> 00:16:45,478
in relazioni umane caotiche e di valore,
321
00:16:45,478 --> 00:16:47,408
non aggiunge obiettività;
322
00:16:47,408 --> 00:16:51,576
piuttosto, la complessità degli affari
umani invade gli algoritmi.
323
00:16:51,576 --> 00:16:54,553
Si, possiamo e dovremmo usare il calcolo
324
00:16:54,553 --> 00:16:57,565
per aiutarci nel decidere meglio.
325
00:16:57,615 --> 00:17:02,473
Ma dobbiamo mantenere la
responsabilità morale del giudizio,
326
00:17:02,473 --> 00:17:05,169
e usare algoritmi dentro quel contesto,
327
00:17:05,169 --> 00:17:09,741
non come gli strumenti per abdicare
e dare in outsource
328
00:17:09,741 --> 00:17:13,300
le nostre responsibilità
a qualcun altro come fra umani.
329
00:17:13,300 --> 00:17:16,018
La intelligenza delle macchine è qui.
330
00:17:16,018 --> 00:17:19,156
Significa che dobbiamo tenerci più forti
331
00:17:19,156 --> 00:17:22,041
ai valori ed etica umani.
332
00:17:22,041 --> 00:17:22,912
Grazie.
333
00:17:22,912 --> 00:17:24,110
(Applausi)