WEBVTT
00:00:00.739 --> 00:00:04.861
Ho iniziato il mio primo lavoro
come programmatrice di computer
00:00:04.885 --> 00:00:06.841
nel mio primo anno di college -
00:00:06.865 --> 00:00:08.372
sostanzialmete un'adolescente.
NOTE Paragraph
00:00:08.889 --> 00:00:12.281
Subito dopo ho cominciato a lavorare,
scrivendo software in una azienda,
00:00:12.799 --> 00:00:16.434
un manager che lavorava nell'azienda
mi venne a trovare dove stavo,
00:00:16.458 --> 00:00:17.726
e mi susssurrò,
00:00:18.229 --> 00:00:21.090
"Può lui dirmi se sto mentendo?"
00:00:21.806 --> 00:00:23.883
Non c'era nessun altro nella stanza.
NOTE Paragraph
00:00:25.032 --> 00:00:29.421
"Chi può dire se stai mentendo?
E perché sussurriamo?"
NOTE Paragraph
00:00:30.266 --> 00:00:33.373
Il manager indicò il computer
nella stanza.
00:00:33.397 --> 00:00:36.493
"Può lui dirmi se sto mentendo?"
00:00:37.613 --> 00:00:41.975
Ebbene, quel manager aveva una relazione
con la segretaria alla reception.
NOTE Paragraph
00:00:41.999 --> 00:00:43.111
(Risate)
NOTE Paragraph
00:00:43.135 --> 00:00:44.901
Ed ero ancora una adolescente.
00:00:45.447 --> 00:00:47.466
Così gli sussurrai-urlai,
00:00:47.490 --> 00:00:51.114
"Si, il computer può dire
se stai mentendo."
NOTE Paragraph
00:00:51.138 --> 00:00:52.944
(Risate)
NOTE Paragraph
00:00:52.968 --> 00:00:55.891
Bene, io risi, ma in effetti,
la risata era nei mei confronti.
00:00:55.915 --> 00:00:59.183
Oggi, vi sono sistemi di calcolo
00:00:59.207 --> 00:01:02.755
che possono scoprire gli stati emotivi
e pure la menzogna
00:01:02.779 --> 00:01:04.823
tramite la elaborazione dei volti umani.
00:01:05.248 --> 00:01:09.401
I pubblicitari ed anche i governi
sono molto interessati.
NOTE Paragraph
00:01:10.139 --> 00:01:12.181
Sono diventata programmatrice di computer
00:01:12.205 --> 00:01:15.318
perchè ero uno di quei giovani
pazzi per matematica e scienze
00:01:15.942 --> 00:01:19.050
Ma lungo il mio percorso
ho imparato a conoscere le armi nucleari,
00:01:19.074 --> 00:01:22.026
e mi sono proprio preoccupata
dell'etica della scienza.
00:01:22.050 --> 00:01:23.254
Ero preoccupata.
00:01:23.278 --> 00:01:25.919
Tuttavia, a causa della
mia situazione familiare,
00:01:25.943 --> 00:01:29.241
dovevo iniziare a lavorare
al più presto.
00:01:29.265 --> 00:01:32.564
Così mi sono detta, hey,
scegliamo un settore tecnico
00:01:32.588 --> 00:01:34.384
dove posso trovare facilmente
un lavoro
00:01:34.408 --> 00:01:38.426
e dove non devo aver a che fare
con qualche fastidiosa questione etica.
00:01:39.022 --> 00:01:40.551
Così ho scelto i computer.
NOTE Paragraph
00:01:40.575 --> 00:01:41.679
(Risate)
NOTE Paragraph
00:01:41.703 --> 00:01:45.113
Bene, ah, ah!
Tutti ridono di me.
00:01:45.137 --> 00:01:47.891
Ora, gli scienziati del computer
costruicono piattaforme
00:01:47.915 --> 00:01:52.124
che controllano ciò che un miliardo
di persone vedono ogni giorno.
00:01:53.052 --> 00:01:56.874
Stanno sviluppando auto
che potrebbero decidere chi investire.
00:01:57.707 --> 00:02:00.920
Stanno anche costruendo macchine, armi,
00:02:00.944 --> 00:02:03.229
che possono uccidere persone in guerra.
00:02:03.253 --> 00:02:06.024
C'è sempre l'etica alla fine.
NOTE Paragraph
00:02:07.183 --> 00:02:09.241
L'intelligenza delle macchine è qui.
00:02:09.823 --> 00:02:13.297
Ora utilizziamo il computer
per prendere ogni tipo di decisioni,
00:02:13.321 --> 00:02:15.207
ma anche nuovi tipi di decisioni.
00:02:15.231 --> 00:02:20.403
Stiamo ponendo al computer domande
che non hanno una sola risposta giusta,
00:02:20.427 --> 00:02:21.629
che sono soggettive
00:02:21.653 --> 00:02:23.978
e sono aperte e cariche di valore.
NOTE Paragraph
00:02:24.002 --> 00:02:25.760
Domandiamo cose come,
00:02:25.784 --> 00:02:27.434
"Chi dovrebbe essere assunto?"
00:02:28.096 --> 00:02:30.855
"Quale update e di quale amico
dovrebbe essere mostrato?"
00:02:30.879 --> 00:02:33.385
"Quale pregiudicato sarà più
probabilmente recidivo?"
00:02:33.514 --> 00:02:36.568
"Quale notizia o film
dovrebbe essere consigliato alla gente?"
NOTE Paragraph
00:02:36.592 --> 00:02:39.964
Certo, stiamo usando
il computer da un po',
00:02:39.988 --> 00:02:41.505
ma questo è diverso.
00:02:41.529 --> 00:02:43.596
Questa è un svolta storica,
00:02:43.620 --> 00:02:48.957
perchè non possiamo poggiarci sul computer
per queste decisioni soggettive
00:02:48.981 --> 00:02:54.401
allo stesso modo in cui si usa il computer
per far volare gli aerei, costruire ponti,
00:02:54.425 --> 00:02:55.684
andare sulla luna.
00:02:56.449 --> 00:02:59.708
Sono più sicuri gli aerei?
Vacillano e cadono i ponti?
00:02:59.732 --> 00:03:04.230
Qui abbiamo chiari livelli di riferimento,
su cui concordiamo,
00:03:04.254 --> 00:03:06.493
ed abbiamo le leggi naturali per guidarci.
00:03:06.517 --> 00:03:09.911
Non abbiamo tali riferimenti
per decidere
00:03:09.935 --> 00:03:13.898
nelle complicate faccende umane.
NOTE Paragraph
00:03:13.922 --> 00:03:18.159
Per rendere le cose più complicate,
il software sta diventando più potente,
00:03:18.183 --> 00:03:21.956
ma anche meno trasparente e più complesso.
00:03:22.542 --> 00:03:24.582
Recentemente, nell'ultima decennio,
00:03:24.606 --> 00:03:27.335
algoritmi complessi hanno fatto
notevoli passi avanti.
00:03:27.359 --> 00:03:29.349
Possono riconoscere le facce umane.
00:03:29.985 --> 00:03:32.040
Possono decifrare la scrittura manuale.
00:03:32.316 --> 00:03:35.689
possono individuare le frodi
sulle carte di credito e bloccare lo spam
00:03:35.689 --> 00:03:37.770
e possono tradurre le lingue.
00:03:37.770 --> 00:03:40.684
Possono individuare i tumori
nelle diagnostica per immagini.
00:03:40.684 --> 00:03:42.933
Possono battere gli umani a scacchi
e nel GO
NOTE Paragraph
00:03:43.264 --> 00:03:47.768
Molti di questi progressi derivano
dal metodo di "apprendimento automatico".
00:03:48.175 --> 00:03:51.502
L'apprendimento automatico è diverso
dalla tradizionale programmazione,
00:03:51.502 --> 00:03:54.971
dove si danno al computer istruzioni
dettagliate, precise ed accurate.
00:03:55.378 --> 00:03:59.560
Sembra di più come se forniste
al sistema molti dati,
00:03:59.584 --> 00:04:01.234
Inclusi dati non strutturati,
00:04:01.234 --> 00:04:03.642
del tipo che generiamo
nella nostre vite digitali.
00:04:03.642 --> 00:04:06.296
E il sistema impara
maneggiando quei dati.
00:04:06.669 --> 00:04:08.195
Ed anche, crucialmente,
00:04:08.219 --> 00:04:12.599
quei sistemi non lavorano
con la logica di una sola risposta.
00:04:12.623 --> 00:04:15.702
Non forniscono una semplice risposta;
è piuttosto probabilistica:
00:04:15.702 --> 00:04:19.089
"Questo è probabilmente
quello che state cercando."
NOTE Paragraph
00:04:20.023 --> 00:04:23.093
Ora, la parte positiva è:
questo metodo è veramente potente.
00:04:23.117 --> 00:04:25.193
Il capo sistema AI
di Google lo ha chiamato
00:04:25.217 --> 00:04:27.414
"la irragionevole efficacia dei dati."
00:04:27.791 --> 00:04:29.144
La parte negativa è,
00:04:29.738 --> 00:04:32.809
non capiamo veramente
cosa il sistema ha imparato.
00:04:32.833 --> 00:04:34.420
Infatti, questa è la sua forza.
00:04:34.946 --> 00:04:38.744
Ciò è meno simile a dare
istruzioni ad un computer;
00:04:39.200 --> 00:04:43.264
è più simile all'istruire
un cucciolo-macchina
00:04:43.288 --> 00:04:45.659
che noi non capiamo
o controlliamo veramente
00:04:46.362 --> 00:04:47.913
Questo è il nostro problema.
00:04:48.427 --> 00:04:52.689
Il problema è quando questi sistemi
di intelligenza artificiale lavorano male.
00:04:52.713 --> 00:04:56.253
Vi è anche il problema
di quando lavorano bene,
00:04:56.277 --> 00:04:59.905
perchè non sappiamo chi è chi
quando il problema è soggettivo.
00:04:59.929 --> 00:05:02.268
Non sappiamo come il computer ragioni.
NOTE Paragraph
00:05:03.493 --> 00:05:07.176
Così, considerate un algoritmo
per le assunzioni--
00:05:08.123 --> 00:05:12.434
un sistema per assumere la gente,
usando l'apprendimento automatico.
00:05:13.052 --> 00:05:16.631
Un tale sistema sarebbe stato formato
sui dati dei precedenti assunti
00:05:16.655 --> 00:05:19.246
e istruito per trovare ed assumere
00:05:19.270 --> 00:05:22.308
le persone simili a quelli
più performanti in azienda.
00:05:22.814 --> 00:05:25.714
Sembra giusto.
Una volta ho partecipato ad una conferenza
00:05:25.714 --> 00:05:29.269
che coinvolgeva i responsabili
delle Risorse Umane e i manager aziendali,
00:05:29.269 --> 00:05:32.489
persone ad alto livello,
che usavano questo sistema per assumere.
00:05:32.489 --> 00:05:33.822
Erano super entusiasti.
00:05:33.822 --> 00:05:38.299
Pensavano che ciò avrebbe portato ad
assunzioni più oggettive, meno distorte,
00:05:38.323 --> 00:05:41.323
e dato alle donne e alle minoranze
una migliore opportunità
00:05:41.347 --> 00:05:43.535
rispetto a manager umani influenzabili.
NOTE Paragraph
00:05:43.559 --> 00:05:46.402
E guarda - le assunzioni fatte
dagli uomini sono distorte.
00:05:47.099 --> 00:05:48.284
Lo so.
00:05:48.308 --> 00:05:51.313
Voglio dire, in uno dei miei primi lavori,
come programmatrice,
00:05:51.337 --> 00:05:55.205
la manager da cui dipendevo qualche volta
scendeva dove stavo
00:05:55.229 --> 00:05:58.982
molto presto alla mattina
o molto tardi nel pomeriggio,
00:05:59.006 --> 00:06:02.068
e mi diceva, "Zeynep,
andiamo a pranzo!"
00:06:02.724 --> 00:06:04.891
Ero perplessa per la strana tempistica.
00:06:04.915 --> 00:06:07.044
Sono le 4 del pomeriggio. Pranzo?
00:06:07.068 --> 00:06:10.162
Ero al verde, ed è un pranzo gratis.
Quindi andavo sempre.
00:06:10.618 --> 00:06:12.685
Più tardi capii cosa stava accadendo.
00:06:12.709 --> 00:06:17.255
La manager da cui dipendevo
non aveva confessato ai livelli superiori
00:06:17.279 --> 00:06:20.392
che il programmatore da lei assunto
per un importante lavoro era adolescente
00:06:20.416 --> 00:06:24.346
che indossava jeans e sneaker al lavoro.
00:06:25.174 --> 00:06:27.376
Lavoravo bene,
solo sembravo sbagliata,
00:06:27.400 --> 00:06:29.099
ed era l'età e genere sbagliato.
NOTE Paragraph
00:06:29.123 --> 00:06:32.469
Così asssumere senza considerare
genere e razza
00:06:32.493 --> 00:06:34.358
certamante mi sembra giusto.
00:06:35.031 --> 00:06:38.372
Ma con questi sistemi,
è più complicato, ed ecco perchè:
00:06:38.968 --> 00:06:44.759
Ad oggi, i sistemi di calcolo
possono desumere qualsiasi cosa su di voi
00:06:44.783 --> 00:06:46.655
dalle vostre briciole digitali,
00:06:46.679 --> 00:06:49.012
pur se non avete reso pubbliche
quelle cose.
00:06:49.506 --> 00:06:52.433
Possono desumere
il vostro orientamento sessuale,
00:06:52.994 --> 00:06:54.300
caratteristiche personali,
00:06:54.859 --> 00:06:56.232
orientamento politico.
00:06:56.830 --> 00:07:00.515
Hanno potenza predittiva
con alto livello di accuratezza.
00:07:01.362 --> 00:07:03.940
Ricordate -- per cose che
non avete mai dichiarato.
00:07:03.964 --> 00:07:05.555
Questa è l'inferenza.
NOTE Paragraph
00:07:05.579 --> 00:07:08.840
Ho un'amica che ha sviluppato
un sistema di elaborazione
00:07:08.864 --> 00:07:12.505
per predire la probabilità
della depressione postpartum
00:07:12.529 --> 00:07:13.945
dai dati delle reti sociali.
00:07:14.676 --> 00:07:16.103
Risultati impressionanti!
00:07:16.492 --> 00:07:19.849
Il suo sistema può predire
la probabilità della depressione
00:07:19.873 --> 00:07:23.776
mesi prima dell'insorgere
di un qualsiasi sintomo --
00:07:23.800 --> 00:07:25.173
mesi prima.
00:07:25.197 --> 00:07:27.443
Nessun sintomo, ma c'è predizione.
00:07:27.467 --> 00:07:32.279
Lei spera che sarà usato
per anticipare un intervento. Ottimo!
00:07:32.911 --> 00:07:34.951
Ma ora consideratelo in una assunzione.
NOTE Paragraph
00:07:36.027 --> 00:07:39.073
Così a quella conferenza dei manager
delle risorse umane,
00:07:39.097 --> 00:07:43.806
ho avvicinato un manager di alto livello
in una grande azienda,
00:07:43.830 --> 00:07:48.408
e le ho detto, "Guarda,
che succederebbe se, alla tua insaputa,
00:07:48.432 --> 00:07:54.981
il vostro sistema elimina le persone
con un'alta probabilità di depressione?
00:07:55.761 --> 00:07:59.137
Non sono depresse ora,
magari forse in futuro, più probabilmente.
00:07:59.923 --> 00:08:03.329
Che succederebbe se eliminasse le donne
più probabilmente incinte
00:08:03.353 --> 00:08:05.939
nei prossimi uno o due anni
ma che non lo sono ora?
00:08:06.844 --> 00:08:12.480
E se assumeste persone aggressive perchè
questa è la vostra cultura aziendale?"
00:08:13.173 --> 00:08:15.864
Non potete parlarne guardando
solo alle quote di genere.
00:08:15.888 --> 00:08:17.390
Queste si possono bilanciare.
00:08:17.414 --> 00:08:20.971
E dato che ciò è apprendimento automatico,
non programmazione tradizionale,
00:08:20.995 --> 00:08:25.902
non c'è alcuna variabile di codifica
etichettata "alto rischio di depressione",
00:08:25.926 --> 00:08:27.759
"maggior rischio di gravidanza,"
00:08:27.783 --> 00:08:29.517
"gradazione di maschio aggressivo."
00:08:29.995 --> 00:08:33.674
Non solo non sapete su cosa
il vostro sistema basi la selezione,
00:08:33.698 --> 00:08:36.021
ma neppure sapete
dove cominciare a guardare.
00:08:36.045 --> 00:08:37.291
E' una "scatola nera".
00:08:37.315 --> 00:08:40.122
Ha una potenza predittiva
ma non la capite.
NOTE Paragraph
00:08:40.486 --> 00:08:42.855
"Quali garanzie," chiesi, "avete
00:08:42.879 --> 00:08:46.552
per essere sicuri che la scatola nera
non sta facendo qualcosa losco?"
00:08:48.863 --> 00:08:52.741
Mi ha guardato come se avessi
schiacciato la coda a 10 cuccioli.
NOTE Paragraph
00:08:52.765 --> 00:08:54.013
(Risate)
NOTE Paragraph
00:08:54.037 --> 00:08:56.078
Mi fissò e disse,
00:08:56.556 --> 00:09:00.889
"Non voglio sentire altro su questo."
00:09:01.458 --> 00:09:03.492
E si girò andandosene via.
00:09:04.064 --> 00:09:05.660
Considerate - non era maleducata.
00:09:05.660 --> 00:09:11.882
Era chiaro: quello che non so non è un
mio problema. Va via, sguardo assassino.
NOTE Paragraph
00:09:11.906 --> 00:09:13.152
(Risate)
NOTE Paragraph
00:09:13.862 --> 00:09:17.701
Vedete, un tale sistema
può anche essere meno influenzata
00:09:17.725 --> 00:09:19.828
in molti modi rispetto ai manager umani.
00:09:19.852 --> 00:09:21.998
E potrebbe avere senso economico.
00:09:22.573 --> 00:09:24.223
Ma può anche portare
00:09:24.247 --> 00:09:28.995
a una stabile, ma furtiva
chiusura dal mercato del lavoro
00:09:29.019 --> 00:09:31.312
di gente più a rischio di depressione.
00:09:31.753 --> 00:09:34.349
Questo è il tipo di società
che vogliamo costruire,
00:09:34.373 --> 00:09:36.658
senza neppure sapere che lo abbiamo fatto,
00:09:36.682 --> 00:09:40.646
poichè abbiamo lasciato la decisione
a macchine che non comprendiamo del tutto?
NOTE Paragraph
00:09:41.265 --> 00:09:42.723
Un altro problema è questo:
00:09:43.314 --> 00:09:47.766
quei sistemi sono spesso addestrati
con dati generati dalle nostre azioni,
00:09:47.790 --> 00:09:49.606
di impronta umana.
00:09:50.188 --> 00:09:53.996
Bene, possono proprio riflettere
le nostre distorsioni o pregiudizi,
00:09:54.020 --> 00:09:57.613
e questi sistemi
si portano dietro i nostri pregiudizi
00:09:57.637 --> 00:09:58.950
e li amplificano
00:09:58.974 --> 00:10:00.392
e ce li rispecchiano,
00:10:00.416 --> 00:10:01.878
mentre ci diciamo,
00:10:01.902 --> 00:10:05.019
"Stiamo facendo solo elaborazioni
oggettive e neutrali."
NOTE Paragraph
00:10:06.314 --> 00:10:08.991
Ricerche effettuate su Google trovano,
00:10:10.134 --> 00:10:15.447
che è meno probabile vengano mostrati
alle donne avvisi per lavori ben pagati.
00:10:16.463 --> 00:10:18.993
E cercando nomi di Afro-Americani
00:10:19.017 --> 00:10:23.723
è più probabile trovare avvisi
alludenti a storie criminali,
00:10:23.747 --> 00:10:25.314
anche quando non ce ne sono.
00:10:26.693 --> 00:10:30.242
Questi sono i pregiudizi nascosti
e gli algoritmi a scatola nera
00:10:30.266 --> 00:10:34.239
che i ricercatori talvolta scoprono
ma che altre volte non conosciamo,
00:10:34.263 --> 00:10:36.924
possono avere la conseguenza di
alterare la vita.
NOTE Paragraph
00:10:37.958 --> 00:10:42.117
In Wisconsin, un accusato
è stato condannato a sei anni di prigione
00:10:42.141 --> 00:10:43.496
per aver eluso la polizia.
00:10:44.824 --> 00:10:46.010
Si può non saperlo,
00:10:46.034 --> 00:10:50.032
ma gli algoritmi sono sempre più usati
per prendere decisioni giudiziarie.
00:10:50.056 --> 00:10:53.011
Egli voleva sapere:
come è stato calcolato il punteggio?
00:10:53.795 --> 00:10:55.460
Ma è una scatola nera
sul mercato
00:10:55.484 --> 00:10:59.689
L'azienda si è rifiutata di far verificare
il suo algoritmo in una corte pubblica.
00:11:00.396 --> 00:11:05.928
Ma ProPublica, associazione investigativa
non-profit, ha verificato quell'algoritmo
00:11:05.952 --> 00:11:07.968
con i dati pubblici disponibili,
00:11:07.992 --> 00:11:10.308
trovando che i risultati
erano influenzati
00:11:10.332 --> 00:11:13.961
e la sua potenza predittiva era
niente più di una possibilità,
00:11:13.985 --> 00:11:18.401
e che era sbagliato etichettare
accusati neri come futuri criminali
00:11:18.425 --> 00:11:22.320
a livello doppio degli accusati bianchi.
NOTE Paragraph
00:11:23.891 --> 00:11:25.455
Così considerate questo caso:
00:11:26.103 --> 00:11:29.955
questa donna è in ritardo
nel prelevare la sua figlioccia
00:11:29.979 --> 00:11:32.054
da scuola nella Contea di Broward,
Florida,
00:11:32.757 --> 00:11:35.113
correndo per la strada
con un suo amico.
00:11:35.137 --> 00:11:39.236
Vedono una bici da ragazzo non bloccata
ed uno scooter in una veranda
00:11:39.260 --> 00:11:40.856
e stupidamente vi saltano su.
00:11:40.856 --> 00:11:43.575
Come stavano scappando via,
una donna uscì fuori e disse,
00:11:43.575 --> 00:11:45.744
"Ehi, quella bicicletta è mia!"
00:11:45.768 --> 00:11:49.062
Essi la lascarono, andarono via,
ma furono arrestati.
NOTE Paragraph
00:11:49.086 --> 00:11:52.723
Aveva sbagliato, era stata sciocca,
ma era appena diventata diciottenne.
00:11:52.747 --> 00:11:55.291
Fu condannata per un paio
di crimini giovanili.
00:11:55.808 --> 00:12:00.993
Nel frattempo, quell'uomo fu arrestato
per furto di merce al Home Depot --
00:12:01.017 --> 00:12:03.941
merce per 85 dollari di valore,
un simile piccolo crimine.
00:12:04.766 --> 00:12:09.325
Ma lui aveva due precedenti
condanne per rapina a mano armata
00:12:09.955 --> 00:12:13.437
Ma l'algoritmo aveva valutato lei
ad alto rischio, non lui.
00:12:14.746 --> 00:12:18.620
Due anni dopo, ProPublica trovò
che lei non era stata recidiva.
00:12:18.644 --> 00:12:21.194
Ma le fu duro trovare
lavoro, visti i precedenti.
00:12:21.218 --> 00:12:23.294
Lui, d'altra parte, fu recidivo
00:12:23.318 --> 00:12:27.154
ed ora è in prigione per 8 anni
a causa di un successivo crimine.
00:12:28.088 --> 00:12:31.457
Chiaramente, ci bisogna verificare
le scatole nere
00:12:31.481 --> 00:12:34.096
per non dare loro questo
incontrollato potere.
NOTE Paragraph
00:12:34.120 --> 00:12:36.999
(Applausi)
NOTE Paragraph
00:12:38.087 --> 00:12:42.329
Le verifiche sono importanti,
ma da sole non risolvono tutti i problemi.
00:12:42.353 --> 00:12:45.101
Prendete l'algoritmo di Facebook
per caricare le news--
00:12:45.125 --> 00:12:49.968
sapete, quello che riordina tutto
e decide cosa mostrarvi
00:12:49.992 --> 00:12:52.276
da tutti gli amici e le pagine seguite.
00:12:52.898 --> 00:12:55.173
Dovrebbe mostrarvi un'altra foto di bimbo?
NOTE Paragraph
00:12:55.197 --> 00:12:56.393
(Risate)
NOTE Paragraph
00:12:56.417 --> 00:12:59.013
Una nota imbronciata da un conoscente?
00:12:59.449 --> 00:13:01.305
Una importante ma scabrosa notizia?
00:13:01.329 --> 00:13:02.811
Non c'è una risposta giusta.
00:13:02.835 --> 00:13:05.494
Facebook ottimizza per
attraervi al loro sito:
00:13:05.518 --> 00:13:06.933
i like, condividi, commenti
NOTE Paragraph
00:13:08.168 --> 00:13:10.864
Nell'agosto 2014,
00:13:10.888 --> 00:13:14.660
proteste scoppiarono a Ferguson, Missouri,
dopo l'uccisione di
00:13:14.660 --> 00:13:17.991
un ragazzo Afro-Americano
da parte di un poliziotto bianco,
00:13:18.015 --> 00:13:19.585
in circostanze oscure.
00:13:19.974 --> 00:13:21.981
La notizia delle proteste era presente
00:13:22.005 --> 00:13:24.690
sul mio caricatore Twitter
non filtrato da algoritmi,
00:13:24.714 --> 00:13:26.664
ma nulla sul mio Facebook.
00:13:27.182 --> 00:13:29.076
Era a causa dei miei amici su Facebook?
00:13:29.076 --> 00:13:31.332
Ho disabilitato l'algoritmo di Facebook,
00:13:31.472 --> 00:13:34.320
che non è facile, poichè Facebook
vuole mantenervi
00:13:34.344 --> 00:13:36.380
sotto il controllo dell'algoritmo,
00:13:36.404 --> 00:13:38.642
e vidi che i miei amici
parlavano di questo.
00:13:38.666 --> 00:13:41.175
Era proprio l'algoritmo
che non me lo mostrava.
00:13:41.199 --> 00:13:44.241
Ho approfondito ed ho trovato
che è un problema diffuso.
NOTE Paragraph
00:13:44.265 --> 00:13:48.078
La storia di Ferguson non è
facile per l'algoritmo.
00:13:48.102 --> 00:13:49.273
Non è likable.
00:13:49.297 --> 00:13:50.849
Chi sta cliccando su "like?"
00:13:51.500 --> 00:13:53.706
Non è neppure facile da commentarsi.
00:13:53.730 --> 00:13:55.101
Senza like e commenti,
00:13:55.125 --> 00:13:58.417
l'algoritmo tende a mostrare la notizia
ad ancora meno persone,
00:13:58.441 --> 00:13:59.983
così non riusciamo a vederla.
00:14:00.946 --> 00:14:02.174
Invece, questa settimana,
00:14:02.198 --> 00:14:04.496
l'algoritmo di Facebook ha evidenziato
00:14:04.520 --> 00:14:06.746
questo: il ALS Ice Bucket Challenge.
00:14:06.770 --> 00:14:10.512
Causa benefica; svuota acqua ghiacciata,
dona alla beneficenza, bene.
00:14:10.536 --> 00:14:12.440
Ottimo per agevolare l'algoritmo.
00:14:13.219 --> 00:14:15.832
Una decisione automatica è stata
presa per noi
00:14:15.856 --> 00:14:19.353
Una conversazione molto importante
ma scabrosa
00:14:19.377 --> 00:14:20.932
può essere moderata,
00:14:20.956 --> 00:14:23.652
essendo Facebook l'unica via trasmissiva.
NOTE Paragraph
00:14:24.117 --> 00:14:27.914
Ora, infine, quei sistemi
possono sbagliare
00:14:27.938 --> 00:14:30.674
in modi che non somigliano
a sistemi umani.
00:14:30.698 --> 00:14:33.620
Vi ricordate Watson,
la macchina intelligente di IBM
00:14:33.644 --> 00:14:36.772
che ha spazzato via
i contendenti umani a Jeopardy?
00:14:37.131 --> 00:14:38.559
Era un grande giocatore.
00:14:38.583 --> 00:14:42.239
Ma poi, alla finale di Jeopardy,
fu posta questa domanda a Watson:
00:14:42.239 --> 00:14:45.911
"Il suo più grande aeroporto è intitolato
a un eroe della II Guerra Mondiale,
00:14:45.911 --> 00:14:48.177
il suo secondo più grande
a una sua battaglia."
NOTE Paragraph
00:14:48.177 --> 00:14:49.779
(Musica della finale di Jeopardy)
NOTE Paragraph
00:14:49.779 --> 00:14:50.764
Chicago.
00:14:50.788 --> 00:14:52.158
I due umani risposero bene.
00:14:52.697 --> 00:14:57.045
Watson, da altra parte,
rispose "Toronto" --
00:14:57.069 --> 00:14:58.887
per una città nella categoria USA!
00:14:59.596 --> 00:15:02.497
L'impressionante sistema aveva sbagliato
00:15:02.521 --> 00:15:06.172
come un umano non avrebbbe mai fatto,
neppure un alunno delle elementari.
NOTE Paragraph
00:15:06.823 --> 00:15:09.932
L'intelligenza automatica può sbagliare
00:15:09.956 --> 00:15:13.056
in modi non paragonabili
con l'approccio dell'errore umano,
00:15:13.080 --> 00:15:16.030
in modi che non ci aspetteremmo
e per i quali siamo preparati.
00:15:16.054 --> 00:15:19.692
Sarebbe pessimo non ottenere un lavoro
per il quale si è qualificati,
00:15:19.716 --> 00:15:23.443
ma sarebbe tre volte peggio
se fosse causato da un errore software
00:15:23.467 --> 00:15:24.899
in qualche sua subroutine.
NOTE Paragraph
00:15:24.923 --> 00:15:26.502
(Risate)
NOTE Paragraph
00:15:26.526 --> 00:15:29.312
Nel maggio 2010,
00:15:29.336 --> 00:15:33.380
una crisi improvvisa a Wall Street,
alimentata da un erroneo ciclo di calcolo
00:15:33.404 --> 00:15:36.432
nell'algoritmo di "vendi" di Wall Street
00:15:36.456 --> 00:15:40.640
ha spazzato via un valore
di un trilione di dollari in 36 minuti.
00:15:41.722 --> 00:15:43.909
Non voglio pensare
cosa significhi "errore"
00:15:43.933 --> 00:15:47.522
nel contesto di armi letali autonome.
NOTE Paragraph
00:15:49.894 --> 00:15:53.684
Si certo, gli umani sono sempre parziali.
00:15:53.708 --> 00:15:55.884
I decisori e controllori,
00:15:55.908 --> 00:15:59.401
nelle corti, nei notiziari, in guerra ...
00:15:59.425 --> 00:16:02.463
commettono errori;
ma questo è proprio il mio punto.
00:16:02.487 --> 00:16:06.008
non possiamo sfuggire
a queste difficili domande.
00:16:06.596 --> 00:16:10.112
Non possiamo delegare
le nostre responsabilità alle macchine.
NOTE Paragraph
00:16:10.676 --> 00:16:14.884
(Applausi)
NOTE Paragraph
00:16:17.089 --> 00:16:21.536
L'intelligenza artificiale non ci dà
un permesso di "uscire dall'etica" gratis.
NOTE Paragraph
00:16:22.742 --> 00:16:26.123
Lo scienziato sui dati Fred Benenson
lo chiama "pulizia matematica".
00:16:26.147 --> 00:16:27.536
Necessitiamo del contrario.
00:16:27.560 --> 00:16:32.948
Verso gli algoritmi occorre coltivare
la diffidenza, verifica e indagine.
00:16:33.080 --> 00:16:36.578
Occorre essere sicuri che di sia
una responsabilità sugli algoritmi,
00:16:36.625 --> 00:16:39.070
metodi di verifica e
una comprensibile trasparenza.
00:16:39.070 --> 00:16:42.510
È necessario accettare
che portare matematica ed elaborazione
00:16:42.510 --> 00:16:45.478
in relazioni umane caotiche e di valore,
00:16:45.478 --> 00:16:47.408
non aggiunge obiettività;
00:16:47.408 --> 00:16:51.576
piuttosto, la complessità degli affari
umani invade gli algoritmi.
00:16:51.576 --> 00:16:54.553
Si, possiamo e dovremmo usare il calcolo
00:16:54.553 --> 00:16:57.565
per aiutarci nel decidere meglio.
00:16:57.615 --> 00:17:02.473
Ma dobbiamo mantenere la
responsabilità morale del giudizio,
00:17:02.473 --> 00:17:05.169
e usare algoritmi dentro quel contesto,
00:17:05.169 --> 00:17:09.741
non come gli strumenti per abdicare
e dare in outsource
00:17:09.741 --> 00:17:13.300
le nostre responsibilità
a qualcun altro come fra umani.
00:17:13.300 --> 00:17:16.018
La intelligenza delle macchine è qui.
NOTE Paragraph
00:17:16.018 --> 00:17:19.156
Significa che dobbiamo tenerci più forti
00:17:19.156 --> 00:17:22.041
ai valori ed etica umani.
00:17:22.041 --> 00:17:22.912
Grazie.
NOTE Paragraph
00:17:22.912 --> 00:17:24.110
(Applausi)