0:00:00.739,0:00:04.861
Ho iniziato il mio primo lavoro [br]come programmatrice di computer
0:00:04.885,0:00:06.841
nel mio primo anno di college -
0:00:06.865,0:00:08.372
sostanzialmete un'adolescente.
0:00:08.889,0:00:12.281
Subito dopo ho cominciato a lavorare,[br]scrivendo software in una azienda,
0:00:12.799,0:00:16.434
un manager che lavorava nell'azienda[br]mi venne a trovare dove stavo,
0:00:16.458,0:00:17.726
e mi susssurrò,
0:00:18.229,0:00:21.090
"Può lui dirmi se sto mentendo?"
0:00:21.806,0:00:23.883
Non c'era nessun altro nella stanza.
0:00:25.032,0:00:29.421
"Chi può dire se stai mentendo?[br]E perché sussurriamo?"
0:00:30.266,0:00:33.373
Il manager indicò il computer [br]nella stanza.
0:00:33.397,0:00:36.493
"Può lui dirmi se sto mentendo?"
0:00:37.613,0:00:41.975
Ebbene, quel manager aveva una relazione [br]con la segretaria alla reception.
0:00:41.999,0:00:43.111
(Risate)
0:00:43.135,0:00:44.901
Ed ero ancora una adolescente.
0:00:45.447,0:00:47.466
Così gli sussurrai-urlai,
0:00:47.490,0:00:51.114
"Si, il computer può dire [br]se stai mentendo."
0:00:51.138,0:00:52.944
(Risate)
0:00:52.968,0:00:55.891
Bene, io risi, ma in effetti,[br]la risata era nei mei confronti.
0:00:55.915,0:00:59.183
Oggi, vi sono sistemi di calcolo
0:00:59.207,0:01:02.755
che possono scoprire gli stati emotivi[br]e pure la menzogna
0:01:02.779,0:01:04.823
tramite la elaborazione dei volti umani.
0:01:05.248,0:01:09.401
I pubblicitari ed anche i governi[br]sono molto interessati.
0:01:10.139,0:01:12.181
Sono diventata programmatrice di computer
0:01:12.205,0:01:15.318
perchè ero uno di quei giovani[br]pazzi per matematica e scienze
0:01:15.942,0:01:19.050
Ma lungo il mio percorso[br]ho imparato a conoscere le armi nucleari,
0:01:19.074,0:01:22.026
e mi sono proprio preoccupata [br]dell'etica della scienza.
0:01:22.050,0:01:23.254
Ero preoccupata.
0:01:23.278,0:01:25.919
Tuttavia, a causa della [br]mia situazione familiare,
0:01:25.943,0:01:29.241
dovevo iniziare a lavorare[br]al più presto.
0:01:29.265,0:01:32.564
Così mi sono detta, hey,[br]scegliamo un settore tecnico
0:01:32.588,0:01:34.384
dove posso trovare facilmente [br]un lavoro
0:01:34.408,0:01:38.426
e dove non devo aver a che fare [br]con qualche fastidiosa questione etica.
0:01:39.022,0:01:40.551
Così ho scelto i computer.
0:01:40.575,0:01:41.679
(Risate)
0:01:41.703,0:01:45.113
Bene, ah, ah![br]Tutti ridono di me.
0:01:45.137,0:01:47.891
Ora, gli scienziati del computer[br]costruicono piattaforme
0:01:47.915,0:01:52.124
che controllano ciò che un miliardo [br]di persone vedono ogni giorno.
0:01:53.052,0:01:56.874
Stanno sviluppando auto[br]che potrebbero decidere chi investire.
0:01:57.707,0:02:00.920
Stanno anche costruendo macchine, armi,
0:02:00.944,0:02:03.229
che possono uccidere persone in guerra.
0:02:03.253,0:02:06.024
C'è sempre l'etica alla fine.
0:02:07.183,0:02:09.241
L'intelligenza delle macchine è qui.
0:02:09.823,0:02:13.297
Ora utilizziamo il computer [br]per prendere ogni tipo di decisioni,
0:02:13.321,0:02:15.207
ma anche nuovi tipi di decisioni.
0:02:15.231,0:02:20.403
Stiamo ponendo al computer domande[br]che non hanno una sola risposta giusta,
0:02:20.427,0:02:21.629
che sono soggettive
0:02:21.653,0:02:23.978
e sono aperte e cariche di valore.
0:02:24.002,0:02:25.760
Domandiamo cose come,
0:02:25.784,0:02:27.434
"Chi dovrebbe essere assunto?"
0:02:28.096,0:02:30.855
"Quale update e di quale amico[br]dovrebbe essere mostrato?"
0:02:30.879,0:02:33.385
"Quale pregiudicato sarà più[br]probabilmente recidivo?"
0:02:33.514,0:02:36.568
"Quale notizia o film[br]dovrebbe essere consigliato alla gente?"
0:02:36.592,0:02:39.964
Certo, stiamo usando [br]il computer da un po',
0:02:39.988,0:02:41.505
ma questo è diverso.
0:02:41.529,0:02:43.596
Questa è un svolta storica,
0:02:43.620,0:02:48.957
perchè non possiamo poggiarci sul computer[br]per queste decisioni soggettive
0:02:48.981,0:02:54.401
allo stesso modo in cui si usa il computer[br]per far volare gli aerei, costruire ponti,
0:02:54.425,0:02:55.684
andare sulla luna.
0:02:56.449,0:02:59.708
Sono più sicuri gli aerei?[br]Vacillano e cadono i ponti?
0:02:59.732,0:03:04.230
Qui abbiamo chiari livelli di riferimento,[br]su cui concordiamo,
0:03:04.254,0:03:06.493
ed abbiamo le leggi naturali per guidarci.
0:03:06.517,0:03:09.911
Non abbiamo tali riferimenti [br]per decidere
0:03:09.935,0:03:13.898
nelle complicate faccende umane.
0:03:13.922,0:03:18.159
Per rendere le cose più complicate,[br]il software sta diventando più potente,
0:03:18.183,0:03:21.956
ma anche meno trasparente e più complesso.
0:03:22.542,0:03:24.582
Recentemente, nell'ultima decennio,
0:03:24.606,0:03:27.335
algoritmi complessi hanno fatto[br]notevoli passi avanti.
0:03:27.359,0:03:29.349
Possono riconoscere le facce umane.
0:03:29.985,0:03:32.040
Possono decifrare la scrittura manuale.
0:03:32.316,0:03:35.689
possono individuare le frodi [br]sulle carte di credito e bloccare lo spam
0:03:35.689,0:03:37.770
e possono tradurre le lingue.
0:03:37.770,0:03:40.684
Possono individuare i tumori [br]nelle diagnostica per immagini.
0:03:40.684,0:03:42.933
Possono battere gli umani a scacchi[br]e nel GO
0:03:43.264,0:03:47.768
Molti di questi progressi derivano[br]dal metodo di "apprendimento automatico".
0:03:48.175,0:03:51.502
L'apprendimento automatico è diverso[br]dalla tradizionale programmazione,
0:03:51.502,0:03:54.971
dove si danno al computer istruzioni[br]dettagliate, precise ed accurate.
0:03:55.378,0:03:59.560
Sembra di più come se forniste[br]al sistema molti dati,
0:03:59.584,0:04:01.234
Inclusi dati non strutturati,
0:04:01.234,0:04:03.642
del tipo che generiamo[br]nella nostre vite digitali.
0:04:03.642,0:04:06.296
E il sistema impara [br]maneggiando quei dati.
0:04:06.669,0:04:08.195
Ed anche, crucialmente,
0:04:08.219,0:04:12.599
quei sistemi non lavorano [br]con la logica di una sola risposta.
0:04:12.623,0:04:15.702
Non forniscono una semplice risposta;[br]è piuttosto probabilistica:
0:04:15.702,0:04:19.089
"Questo è probabilmente [br]quello che state cercando."
0:04:20.023,0:04:23.093
Ora, la parte positiva è: [br]questo metodo è veramente potente.
0:04:23.117,0:04:25.193
Il capo sistema AI [br]di Google lo ha chiamato
0:04:25.217,0:04:27.414
"la irragionevole efficacia dei dati."
0:04:27.791,0:04:29.144
La parte negativa è,
0:04:29.738,0:04:32.809
non capiamo veramente [br]cosa il sistema ha imparato.
0:04:32.833,0:04:34.420
Infatti, questa è la sua forza.
0:04:34.946,0:04:38.744
Ciò è meno simile a dare[br]istruzioni ad un computer;
0:04:39.200,0:04:43.264
è più simile all'istruire[br]un cucciolo-macchina
0:04:43.288,0:04:45.659
che noi non capiamo [br]o controlliamo veramente
0:04:46.362,0:04:47.913
Questo è il nostro problema.
0:04:48.427,0:04:52.689
Il problema è quando questi sistemi[br]di intelligenza artificiale lavorano male.
0:04:52.713,0:04:56.253
Vi è anche il problema [br]di quando lavorano bene,
0:04:56.277,0:04:59.905
perchè non sappiamo chi è chi[br]quando il problema è soggettivo.
0:04:59.929,0:05:02.268
Non sappiamo come il computer ragioni.
0:05:03.493,0:05:07.176
Così, considerate un algoritmo [br]per le assunzioni--
0:05:08.123,0:05:12.434
un sistema per assumere la gente,[br]usando l'apprendimento automatico.
0:05:13.052,0:05:16.631
Un tale sistema sarebbe stato formato[br]sui dati dei precedenti assunti
0:05:16.655,0:05:19.246
e istruito per trovare ed assumere
0:05:19.270,0:05:22.308
le persone simili a quelli[br]più performanti in azienda.
0:05:22.814,0:05:25.714
Sembra giusto.[br]Una volta ho partecipato ad una conferenza
0:05:25.714,0:05:29.269
che coinvolgeva i responsabili [br]delle Risorse Umane e i manager aziendali,
0:05:29.269,0:05:32.489
persone ad alto livello,[br]che usavano questo sistema per assumere.
0:05:32.489,0:05:33.822
Erano super entusiasti.
0:05:33.822,0:05:38.299
Pensavano che ciò avrebbe portato ad[br]assunzioni più oggettive, meno distorte,
0:05:38.323,0:05:41.323
e dato alle donne e alle minoranze[br]una migliore opportunità
0:05:41.347,0:05:43.535
rispetto a manager umani influenzabili.
0:05:43.559,0:05:46.402
E guarda - le assunzioni fatte [br]dagli uomini sono distorte.
0:05:47.099,0:05:48.284
Lo so.
0:05:48.308,0:05:51.313
Voglio dire, in uno dei miei primi lavori,[br]come programmatrice,
0:05:51.337,0:05:55.205
la manager da cui dipendevo qualche volta[br]scendeva dove stavo
0:05:55.229,0:05:58.982
molto presto alla mattina [br]o molto tardi nel pomeriggio,
0:05:59.006,0:06:02.068
e mi diceva, "Zeynep,[br]andiamo a pranzo!"
0:06:02.724,0:06:04.891
Ero perplessa per la strana tempistica.
0:06:04.915,0:06:07.044
Sono le 4 del pomeriggio. Pranzo?
0:06:07.068,0:06:10.162
Ero al verde, ed è un pranzo gratis.[br]Quindi andavo sempre.
0:06:10.618,0:06:12.685
Più tardi capii cosa stava accadendo.
0:06:12.709,0:06:17.255
La manager da cui dipendevo[br]non aveva confessato ai livelli superiori
0:06:17.279,0:06:20.392
che il programmatore da lei assunto [br]per un importante lavoro era adolescente
0:06:20.416,0:06:24.346
che indossava jeans e sneaker al lavoro.
0:06:25.174,0:06:27.376
Lavoravo bene,[br]solo sembravo sbagliata,
0:06:27.400,0:06:29.099
ed era l'età e genere sbagliato.
0:06:29.123,0:06:32.469
Così asssumere senza considerare[br]genere e razza
0:06:32.493,0:06:34.358
certamante mi sembra giusto.
0:06:35.031,0:06:38.372
Ma con questi sistemi,[br]è più complicato, ed ecco perchè:
0:06:38.968,0:06:44.759
Ad oggi, i sistemi di calcolo[br]possono desumere qualsiasi cosa su di voi
0:06:44.783,0:06:46.655
dalle vostre briciole digitali,
0:06:46.679,0:06:49.012
pur se non avete reso pubbliche[br]quelle cose.
0:06:49.506,0:06:52.433
Possono desumere [br]il vostro orientamento sessuale,
0:06:52.994,0:06:54.300
caratteristiche personali,
0:06:54.859,0:06:56.232
orientamento politico.
0:06:56.830,0:07:00.515
Hanno potenza predittiva[br]con alto livello di accuratezza.
0:07:01.362,0:07:03.940
Ricordate -- per cose che[br]non avete mai dichiarato.
0:07:03.964,0:07:05.555
Questa è l'inferenza.
0:07:05.579,0:07:08.840
Ho un'amica che ha sviluppato[br]un sistema di elaborazione
0:07:08.864,0:07:12.505
per predire la probabilità[br]della depressione postpartum
0:07:12.529,0:07:13.945
dai dati delle reti sociali.
0:07:14.676,0:07:16.103
Risultati impressionanti!
0:07:16.492,0:07:19.849
Il suo sistema può predire[br]la probabilità della depressione
0:07:19.873,0:07:23.776
mesi prima dell'insorgere [br]di un qualsiasi sintomo --
0:07:23.800,0:07:25.173
mesi prima.
0:07:25.197,0:07:27.443
Nessun sintomo, ma c'è predizione.
0:07:27.467,0:07:32.279
Lei spera che sarà usato[br]per anticipare un intervento. Ottimo!
0:07:32.911,0:07:34.951
Ma ora consideratelo in una assunzione.
0:07:36.027,0:07:39.073
Così a quella conferenza dei manager[br]delle risorse umane,
0:07:39.097,0:07:43.806
ho avvicinato un manager di alto livello[br]in una grande azienda,
0:07:43.830,0:07:48.408
e le ho detto, "Guarda,[br]che succederebbe se, alla tua insaputa,
0:07:48.432,0:07:54.981
il vostro sistema elimina le persone[br]con un'alta probabilità di depressione?
0:07:55.761,0:07:59.137
Non sono depresse ora,[br]magari forse in futuro, più probabilmente.
0:07:59.923,0:08:03.329
Che succederebbe se eliminasse le donne[br]più probabilmente incinte
0:08:03.353,0:08:05.939
nei prossimi uno o due anni[br]ma che non lo sono ora?
0:08:06.844,0:08:12.480
E se assumeste persone aggressive perchè[br]questa è la vostra cultura aziendale?"
0:08:13.173,0:08:15.864
Non potete parlarne guardando[br]solo alle quote di genere.
0:08:15.888,0:08:17.390
Queste si possono bilanciare.
0:08:17.414,0:08:20.971
E dato che ciò è apprendimento automatico,[br]non programmazione tradizionale,
0:08:20.995,0:08:25.902
non c'è alcuna variabile di codifica[br]etichettata "alto rischio di depressione",
0:08:25.926,0:08:27.759
"maggior rischio di gravidanza,"
0:08:27.783,0:08:29.517
"gradazione di maschio aggressivo."
0:08:29.995,0:08:33.674
Non solo non sapete su cosa [br]il vostro sistema basi la selezione,
0:08:33.698,0:08:36.021
ma neppure sapete [br]dove cominciare a guardare.
0:08:36.045,0:08:37.291
E' una "scatola nera".
0:08:37.315,0:08:40.122
Ha una potenza predittiva[br]ma non la capite.
0:08:40.486,0:08:42.855
"Quali garanzie," chiesi, "avete
0:08:42.879,0:08:46.552
per essere sicuri che la scatola nera[br]non sta facendo qualcosa losco?"
0:08:48.863,0:08:52.741
Mi ha guardato come se avessi[br]schiacciato la coda a 10 cuccioli.
0:08:52.765,0:08:54.013
(Risate)
0:08:54.037,0:08:56.078
Mi fissò e disse,
0:08:56.556,0:09:00.889
"Non voglio sentire altro su questo."
0:09:01.458,0:09:03.492
E si girò andandosene via.
0:09:04.064,0:09:05.660
Considerate - non era maleducata.
0:09:05.660,0:09:11.882
Era chiaro: quello che non so non è un[br]mio problema. Va via, sguardo assassino.
0:09:11.906,0:09:13.152
(Risate)
0:09:13.862,0:09:17.701
Vedete, un tale sistema [br]può anche essere meno influenzata
0:09:17.725,0:09:19.828
in molti modi rispetto ai manager umani.
0:09:19.852,0:09:21.998
E potrebbe avere senso economico.
0:09:22.573,0:09:24.223
Ma può anche portare
0:09:24.247,0:09:28.995
a una stabile, ma furtiva[br]chiusura dal mercato del lavoro
0:09:29.019,0:09:31.312
di gente più a rischio di depressione.
0:09:31.753,0:09:34.349
Questo è il tipo di società[br]che vogliamo costruire,
0:09:34.373,0:09:36.658
senza neppure sapere che lo abbiamo fatto,
0:09:36.682,0:09:40.646
poichè abbiamo lasciato la decisione[br]a macchine che non comprendiamo del tutto?
0:09:41.265,0:09:42.723
Un altro problema è questo:
0:09:43.314,0:09:47.766
quei sistemi sono spesso addestrati[br]con dati generati dalle nostre azioni,
0:09:47.790,0:09:49.606
di impronta umana.
0:09:50.188,0:09:53.996
Bene, possono proprio riflettere [br]le nostre distorsioni o pregiudizi,
0:09:54.020,0:09:57.613
e questi sistemi[br]si portano dietro i nostri pregiudizi
0:09:57.637,0:09:58.950
e li amplificano
0:09:58.974,0:10:00.392
e ce li rispecchiano,
0:10:00.416,0:10:01.878
mentre ci diciamo,
0:10:01.902,0:10:05.019
"Stiamo facendo solo elaborazioni[br]oggettive e neutrali."
0:10:06.314,0:10:08.991
Ricerche effettuate su Google trovano,
0:10:10.134,0:10:15.447
che è meno probabile vengano mostrati [br]alle donne avvisi per lavori ben pagati.
0:10:16.463,0:10:18.993
E cercando nomi di Afro-Americani
0:10:19.017,0:10:23.723
è più probabile trovare avvisi[br]alludenti a storie criminali,
0:10:23.747,0:10:25.314
anche quando non ce ne sono.
0:10:26.693,0:10:30.242
Questi sono i pregiudizi nascosti[br]e gli algoritmi a scatola nera
0:10:30.266,0:10:34.239
che i ricercatori talvolta scoprono[br]ma che altre volte non conosciamo,
0:10:34.263,0:10:36.924
possono avere la conseguenza di [br]alterare la vita.
0:10:37.958,0:10:42.117
In Wisconsin, un accusato[br]è stato condannato a sei anni di prigione
0:10:42.141,0:10:43.496
per aver eluso la polizia.
0:10:44.824,0:10:46.010
Si può non saperlo,[br]
0:10:46.034,0:10:50.032
ma gli algoritmi sono sempre più usati [br]per prendere decisioni giudiziarie.
0:10:50.056,0:10:53.011
Egli voleva sapere:[br]come è stato calcolato il punteggio?
0:10:53.795,0:10:55.460
Ma è una scatola nera [br]sul mercato
0:10:55.484,0:10:59.689
L'azienda si è rifiutata di far verificare[br]il suo algoritmo in una corte pubblica.
0:11:00.396,0:11:05.928
Ma ProPublica, associazione investigativa[br]non-profit, ha verificato quell'algoritmo
0:11:05.952,0:11:07.968
con i dati pubblici disponibili,
0:11:07.992,0:11:10.308
trovando che i risultati [br]erano influenzati
0:11:10.332,0:11:13.961
e la sua potenza predittiva era[br]niente più di una possibilità,
0:11:13.985,0:11:18.401
e che era sbagliato etichettare [br]accusati neri come futuri criminali
0:11:18.425,0:11:22.320
a livello doppio degli accusati bianchi.
0:11:23.891,0:11:25.455
Così considerate questo caso:
0:11:26.103,0:11:29.955
questa donna è in ritardo [br]nel prelevare la sua figlioccia
0:11:29.979,0:11:32.054
da scuola nella Contea di Broward, [br]Florida,
0:11:32.757,0:11:35.113
correndo per la strada[br]con un suo amico.
0:11:35.137,0:11:39.236
Vedono una bici da ragazzo non bloccata[br]ed uno scooter in una veranda
0:11:39.260,0:11:40.856
e stupidamente vi saltano su.
0:11:40.856,0:11:43.575
Come stavano scappando via,[br]una donna uscì fuori e disse,
0:11:43.575,0:11:45.744
"Ehi, quella bicicletta è mia!"
0:11:45.768,0:11:49.062
Essi la lascarono, andarono via,[br]ma furono arrestati.
0:11:49.086,0:11:52.723
Aveva sbagliato, era stata sciocca,[br]ma era appena diventata diciottenne.
0:11:52.747,0:11:55.291
Fu condannata per un paio [br]di crimini giovanili.
0:11:55.808,0:12:00.993
Nel frattempo, quell'uomo fu arrestato[br]per furto di merce al Home Depot --
0:12:01.017,0:12:03.941
merce per 85 dollari di valore,[br]un simile piccolo crimine.
0:12:04.766,0:12:09.325
Ma lui aveva due precedenti[br]condanne per rapina a mano armata
0:12:09.955,0:12:13.437
Ma l'algoritmo aveva valutato lei [br]ad alto rischio, non lui.
0:12:14.746,0:12:18.620
Due anni dopo, ProPublica trovò[br]che lei non era stata recidiva.
0:12:18.644,0:12:21.194
Ma le fu duro trovare[br]lavoro, visti i precedenti.
0:12:21.218,0:12:23.294
Lui, d'altra parte, fu recidivo
0:12:23.318,0:12:27.154
ed ora è in prigione per 8 anni[br]a causa di un successivo crimine.
0:12:28.088,0:12:31.457
Chiaramente, ci bisogna verificare [br]le scatole nere
0:12:31.481,0:12:34.096
per non dare loro questo [br]incontrollato potere.
0:12:34.120,0:12:36.999
(Applausi)
0:12:38.087,0:12:42.329
Le verifiche sono importanti,[br]ma da sole non risolvono tutti i problemi.
0:12:42.353,0:12:45.101
Prendete l'algoritmo di Facebook [br]per caricare le news--
0:12:45.125,0:12:49.968
sapete, quello che riordina tutto[br]e decide cosa mostrarvi
0:12:49.992,0:12:52.276
da tutti gli amici e le pagine seguite.
0:12:52.898,0:12:55.173
Dovrebbe mostrarvi un'altra foto di bimbo?
0:12:55.197,0:12:56.393
(Risate)
0:12:56.417,0:12:59.013
Una nota imbronciata da un conoscente?
0:12:59.449,0:13:01.305
Una importante ma scabrosa notizia?
0:13:01.329,0:13:02.811
Non c'è una risposta giusta.
0:13:02.835,0:13:05.494
Facebook ottimizza per [br]attraervi al loro sito:
0:13:05.518,0:13:06.933
i like, condividi, commenti
0:13:08.168,0:13:10.864
Nell'agosto 2014,
0:13:10.888,0:13:14.660
proteste scoppiarono a Ferguson, Missouri,[br]dopo l'uccisione di
0:13:14.660,0:13:17.991
un ragazzo Afro-Americano[br]da parte di un poliziotto bianco,
0:13:18.015,0:13:19.585
in circostanze oscure.
0:13:19.974,0:13:21.981
La notizia delle proteste era presente
0:13:22.005,0:13:24.690
sul mio caricatore Twitter[br]non filtrato da algoritmi,
0:13:24.714,0:13:26.664
ma nulla sul mio Facebook.
0:13:27.182,0:13:29.076
Era a causa dei miei amici su Facebook?
0:13:29.076,0:13:31.332
Ho disabilitato l'algoritmo di Facebook,
0:13:31.472,0:13:34.320
che non è facile, poichè Facebook[br]vuole mantenervi
0:13:34.344,0:13:36.380
sotto il controllo dell'algoritmo,
0:13:36.404,0:13:38.642
e vidi che i miei amici[br]parlavano di questo.
0:13:38.666,0:13:41.175
Era proprio l'algoritmo [br]che non me lo mostrava.
0:13:41.199,0:13:44.241
Ho approfondito ed ho trovato[br]che è un problema diffuso.
0:13:44.265,0:13:48.078
La storia di Ferguson non è [br]facile per l'algoritmo.
0:13:48.102,0:13:49.273
Non è likable.
0:13:49.297,0:13:50.849
Chi sta cliccando su "like?"
0:13:51.500,0:13:53.706
Non è neppure facile da commentarsi.
0:13:53.730,0:13:55.101
Senza like e commenti,
0:13:55.125,0:13:58.417
l'algoritmo tende a mostrare la notizia[br]ad ancora meno persone,
0:13:58.441,0:13:59.983
così non riusciamo a vederla.
0:14:00.946,0:14:02.174
Invece, questa settimana,
0:14:02.198,0:14:04.496
l'algoritmo di Facebook ha evidenziato
0:14:04.520,0:14:06.746
questo: il ALS Ice Bucket Challenge.
0:14:06.770,0:14:10.512
Causa benefica; svuota acqua ghiacciata,[br]dona alla beneficenza, bene.
0:14:10.536,0:14:12.440
Ottimo per agevolare l'algoritmo.
0:14:13.219,0:14:15.832
Una decisione automatica è stata[br]presa per noi
0:14:15.856,0:14:19.353
Una conversazione molto importante[br]ma scabrosa[br]
0:14:19.377,0:14:20.932
può essere moderata,
0:14:20.956,0:14:23.652
essendo Facebook l'unica via trasmissiva.
0:14:24.117,0:14:27.914
Ora, infine, quei sistemi [br]possono sbagliare
0:14:27.938,0:14:30.674
in modi che non somigliano [br]a sistemi umani.
0:14:30.698,0:14:33.620
Vi ricordate Watson,[br]la macchina intelligente di IBM
0:14:33.644,0:14:36.772
che ha spazzato via [br]i contendenti umani a Jeopardy?
0:14:37.131,0:14:38.559
Era un grande giocatore.
0:14:38.583,0:14:42.239
Ma poi, alla finale di Jeopardy,[br]fu posta questa domanda a Watson:
0:14:42.239,0:14:45.911
"Il suo più grande aeroporto è intitolato[br]a un eroe della II Guerra Mondiale,
0:14:45.911,0:14:48.177
il suo secondo più grande [br]a una sua battaglia."
0:14:48.177,0:14:49.779
(Musica della finale di Jeopardy)
0:14:49.779,0:14:50.764
Chicago.
0:14:50.788,0:14:52.158
I due umani risposero bene.
0:14:52.697,0:14:57.045
Watson, da altra parte,[br]rispose "Toronto" --
0:14:57.069,0:14:58.887
per una città nella categoria USA!
0:14:59.596,0:15:02.497
L'impressionante sistema aveva sbagliato
0:15:02.521,0:15:06.172
come un umano non avrebbbe mai fatto,[br]neppure un alunno delle elementari.[br]
0:15:06.823,0:15:09.932
L'intelligenza automatica può sbagliare
0:15:09.956,0:15:13.056
in modi non paragonabili [br]con l'approccio dell'errore umano,
0:15:13.080,0:15:16.030
in modi che non ci aspetteremmo[br]e per i quali siamo preparati.
0:15:16.054,0:15:19.692
Sarebbe pessimo non ottenere un lavoro[br]per il quale si è qualificati,
0:15:19.716,0:15:23.443
ma sarebbe tre volte peggio[br]se fosse causato da un errore software
0:15:23.467,0:15:24.899
in qualche sua subroutine.
0:15:24.923,0:15:26.502
(Risate)
0:15:26.526,0:15:29.312
Nel maggio 2010,
0:15:29.336,0:15:33.380
una crisi improvvisa a Wall Street,[br]alimentata da un erroneo ciclo di calcolo
0:15:33.404,0:15:36.432
nell'algoritmo di "vendi" di Wall Street
0:15:36.456,0:15:40.640
ha spazzato via un valore[br]di un trilione di dollari in 36 minuti.
0:15:41.722,0:15:43.909
Non voglio pensare [br]cosa significhi "errore"
0:15:43.933,0:15:47.522
nel contesto di armi letali autonome.
0:15:49.894,0:15:53.684
Si certo, gli umani sono sempre parziali.
0:15:53.708,0:15:55.884
I decisori e controllori,
0:15:55.908,0:15:59.401
nelle corti, nei notiziari, in guerra ...
0:15:59.425,0:16:02.463
commettono errori;[br]ma questo è proprio il mio punto.
0:16:02.487,0:16:06.008
non possiamo sfuggire [br]a queste difficili domande.
0:16:06.596,0:16:10.112
Non possiamo delegare [br]le nostre responsabilità alle macchine.
0:16:10.676,0:16:14.884
(Applausi)
0:16:17.089,0:16:21.536
L'intelligenza artificiale non ci dà[br]un permesso di "uscire dall'etica" gratis.
0:16:22.742,0:16:26.123
Lo scienziato sui dati Fred Benenson[br]lo chiama "pulizia matematica".
0:16:26.147,0:16:27.536
Necessitiamo del contrario.
0:16:27.560,0:16:32.948
Verso gli algoritmi occorre coltivare [br]la diffidenza, verifica e indagine.
0:16:33.080,0:16:36.578
Occorre essere sicuri che di sia[br]una responsabilità sugli algoritmi,
0:16:36.625,0:16:39.070
metodi di verifica e [br]una comprensibile trasparenza.
0:16:39.070,0:16:42.510
È necessario accettare [br]che portare matematica ed elaborazione
0:16:42.510,0:16:45.478
in relazioni umane caotiche e di valore,
0:16:45.478,0:16:47.408
non aggiunge obiettività;
0:16:47.408,0:16:51.576
piuttosto, la complessità degli affari [br]umani invade gli algoritmi.
0:16:51.576,0:16:54.553
Si, possiamo e dovremmo usare il calcolo
0:16:54.553,0:16:57.565
per aiutarci nel decidere meglio.
0:16:57.615,0:17:02.473
Ma dobbiamo mantenere la [br]responsabilità morale del giudizio,
0:17:02.473,0:17:05.169
e usare algoritmi dentro quel contesto,
0:17:05.169,0:17:09.741
non come gli strumenti per abdicare[br]e dare in outsource
0:17:09.741,0:17:13.300
le nostre responsibilità[br]a qualcun altro come fra umani.
0:17:13.300,0:17:16.018
La intelligenza delle macchine è qui.
0:17:16.018,0:17:19.156
Significa che dobbiamo tenerci più forti
0:17:19.156,0:17:22.041
ai valori ed etica umani.
0:17:22.041,0:17:22.912
Grazie.
0:17:22.912,0:17:24.110
(Applausi)