0:00:00.739,0:00:04.861 Ho iniziato il mio primo lavoro [br]come programmatrice di computer 0:00:04.885,0:00:06.841 nel mio primo anno di college - 0:00:06.865,0:00:08.372 sostanzialmete un'adolescente. 0:00:08.889,0:00:12.281 Subito dopo ho cominciato a lavorare,[br]scrivendo software in una azienda, 0:00:12.799,0:00:16.434 un manager che lavorava nell'azienda[br]mi venne a trovare dove stavo, 0:00:16.458,0:00:17.726 e mi susssurrò, 0:00:18.229,0:00:21.090 "Può lui dirmi se sto mentendo?" 0:00:21.806,0:00:23.883 Non c'era nessun altro nella stanza. 0:00:25.032,0:00:29.421 "Chi può dire se stai mentendo?[br]E perché sussurriamo?" 0:00:30.266,0:00:33.373 Il manager indicò il computer [br]nella stanza. 0:00:33.397,0:00:36.493 "Può lui dirmi se sto mentendo?" 0:00:37.613,0:00:41.975 Ebbene, quel manager aveva una relazione [br]con la segretaria alla reception. 0:00:41.999,0:00:43.111 (Risate) 0:00:43.135,0:00:44.901 Ed ero ancora una adolescente. 0:00:45.447,0:00:47.466 Così gli sussurrai-urlai, 0:00:47.490,0:00:51.114 "Si, il computer può dire [br]se stai mentendo." 0:00:51.138,0:00:52.944 (Risate) 0:00:52.968,0:00:55.891 Bene, io risi, ma in effetti,[br]la risata era nei mei confronti. 0:00:55.915,0:00:59.183 Oggi, vi sono sistemi di calcolo 0:00:59.207,0:01:02.755 che possono scoprire gli stati emotivi[br]e pure la menzogna 0:01:02.779,0:01:04.823 tramite la elaborazione dei volti umani. 0:01:05.248,0:01:09.401 I pubblicitari ed anche i governi[br]sono molto interessati. 0:01:10.139,0:01:12.181 Sono diventata programmatrice di computer 0:01:12.205,0:01:15.318 perchè ero uno di quei giovani[br]pazzi per matematica e scienze 0:01:15.942,0:01:19.050 Ma lungo il mio percorso[br]ho imparato a conoscere le armi nucleari, 0:01:19.074,0:01:22.026 e mi sono proprio preoccupata [br]dell'etica della scienza. 0:01:22.050,0:01:23.254 Ero preoccupata. 0:01:23.278,0:01:25.919 Tuttavia, a causa della [br]mia situazione familiare, 0:01:25.943,0:01:29.241 dovevo iniziare a lavorare[br]al più presto. 0:01:29.265,0:01:32.564 Così mi sono detta, hey,[br]scegliamo un settore tecnico 0:01:32.588,0:01:34.384 dove posso trovare facilmente [br]un lavoro 0:01:34.408,0:01:38.426 e dove non devo aver a che fare [br]con qualche fastidiosa questione etica. 0:01:39.022,0:01:40.551 Così ho scelto i computer. 0:01:40.575,0:01:41.679 (Risate) 0:01:41.703,0:01:45.113 Bene, ah, ah![br]Tutti ridono di me. 0:01:45.137,0:01:47.891 Ora, gli scienziati del computer[br]costruicono piattaforme 0:01:47.915,0:01:52.124 che controllano ciò che un miliardo [br]di persone vedono ogni giorno. 0:01:53.052,0:01:56.874 Stanno sviluppando auto[br]che potrebbero decidere chi investire. 0:01:57.707,0:02:00.920 Stanno anche costruendo macchine, armi, 0:02:00.944,0:02:03.229 che possono uccidere persone in guerra. 0:02:03.253,0:02:06.024 C'è sempre l'etica alla fine. 0:02:07.183,0:02:09.241 L'intelligenza delle macchine è qui. 0:02:09.823,0:02:13.297 Ora utilizziamo il computer [br]per prendere ogni tipo di decisioni, 0:02:13.321,0:02:15.207 ma anche nuovi tipi di decisioni. 0:02:15.231,0:02:20.403 Stiamo ponendo al computer domande[br]che non hanno una sola risposta giusta, 0:02:20.427,0:02:21.629 che sono soggettive 0:02:21.653,0:02:23.978 e sono aperte e cariche di valore. 0:02:24.002,0:02:25.760 Domandiamo cose come, 0:02:25.784,0:02:27.434 "Chi dovrebbe essere assunto?" 0:02:28.096,0:02:30.855 "Quale update e di quale amico[br]dovrebbe essere mostrato?" 0:02:30.879,0:02:33.385 "Quale pregiudicato sarà più[br]probabilmente recidivo?" 0:02:33.514,0:02:36.568 "Quale notizia o film[br]dovrebbe essere consigliato alla gente?" 0:02:36.592,0:02:39.964 Certo, stiamo usando [br]il computer da un po', 0:02:39.988,0:02:41.505 ma questo è diverso. 0:02:41.529,0:02:43.596 Questa è un svolta storica, 0:02:43.620,0:02:48.957 perchè non possiamo poggiarci sul computer[br]per queste decisioni soggettive 0:02:48.981,0:02:54.401 allo stesso modo in cui si usa il computer[br]per far volare gli aerei, costruire ponti, 0:02:54.425,0:02:55.684 andare sulla luna. 0:02:56.449,0:02:59.708 Sono più sicuri gli aerei?[br]Vacillano e cadono i ponti? 0:02:59.732,0:03:04.230 Qui abbiamo chiari livelli di riferimento,[br]su cui concordiamo, 0:03:04.254,0:03:06.493 ed abbiamo le leggi naturali per guidarci. 0:03:06.517,0:03:09.911 Non abbiamo tali riferimenti [br]per decidere 0:03:09.935,0:03:13.898 nelle complicate faccende umane. 0:03:13.922,0:03:18.159 Per rendere le cose più complicate,[br]il software sta diventando più potente, 0:03:18.183,0:03:21.956 ma anche meno trasparente e più complesso. 0:03:22.542,0:03:24.582 Recentemente, nell'ultima decennio, 0:03:24.606,0:03:27.335 algoritmi complessi hanno fatto[br]notevoli passi avanti. 0:03:27.359,0:03:29.349 Possono riconoscere le facce umane. 0:03:29.985,0:03:32.040 Possono decifrare la scrittura manuale. 0:03:32.316,0:03:35.689 possono individuare le frodi [br]sulle carte di credito e bloccare lo spam 0:03:35.689,0:03:37.770 e possono tradurre le lingue. 0:03:37.770,0:03:40.684 Possono individuare i tumori [br]nelle diagnostica per immagini. 0:03:40.684,0:03:42.933 Possono battere gli umani a scacchi[br]e nel GO 0:03:43.264,0:03:47.768 Molti di questi progressi derivano[br]dal metodo di "apprendimento automatico". 0:03:48.175,0:03:51.502 L'apprendimento automatico è diverso[br]dalla tradizionale programmazione, 0:03:51.502,0:03:54.971 dove si danno al computer istruzioni[br]dettagliate, precise ed accurate. 0:03:55.378,0:03:59.560 Sembra di più come se forniste[br]al sistema molti dati, 0:03:59.584,0:04:01.234 Inclusi dati non strutturati, 0:04:01.234,0:04:03.642 del tipo che generiamo[br]nella nostre vite digitali. 0:04:03.642,0:04:06.296 E il sistema impara [br]maneggiando quei dati. 0:04:06.669,0:04:08.195 Ed anche, crucialmente, 0:04:08.219,0:04:12.599 quei sistemi non lavorano [br]con la logica di una sola risposta. 0:04:12.623,0:04:15.702 Non forniscono una semplice risposta;[br]è piuttosto probabilistica: 0:04:15.702,0:04:19.089 "Questo è probabilmente [br]quello che state cercando." 0:04:20.023,0:04:23.093 Ora, la parte positiva è: [br]questo metodo è veramente potente. 0:04:23.117,0:04:25.193 Il capo sistema AI [br]di Google lo ha chiamato 0:04:25.217,0:04:27.414 "la irragionevole efficacia dei dati." 0:04:27.791,0:04:29.144 La parte negativa è, 0:04:29.738,0:04:32.809 non capiamo veramente [br]cosa il sistema ha imparato. 0:04:32.833,0:04:34.420 Infatti, questa è la sua forza. 0:04:34.946,0:04:38.744 Ciò è meno simile a dare[br]istruzioni ad un computer; 0:04:39.200,0:04:43.264 è più simile all'istruire[br]un cucciolo-macchina 0:04:43.288,0:04:45.659 che noi non capiamo [br]o controlliamo veramente 0:04:46.362,0:04:47.913 Questo è il nostro problema. 0:04:48.427,0:04:52.689 Il problema è quando questi sistemi[br]di intelligenza artificiale lavorano male. 0:04:52.713,0:04:56.253 Vi è anche il problema [br]di quando lavorano bene, 0:04:56.277,0:04:59.905 perchè non sappiamo chi è chi[br]quando il problema è soggettivo. 0:04:59.929,0:05:02.268 Non sappiamo come il computer ragioni. 0:05:03.493,0:05:07.176 Così, considerate un algoritmo [br]per le assunzioni-- 0:05:08.123,0:05:12.434 un sistema per assumere la gente,[br]usando l'apprendimento automatico. 0:05:13.052,0:05:16.631 Un tale sistema sarebbe stato formato[br]sui dati dei precedenti assunti 0:05:16.655,0:05:19.246 e istruito per trovare ed assumere 0:05:19.270,0:05:22.308 le persone simili a quelli[br]più performanti in azienda. 0:05:22.814,0:05:25.714 Sembra giusto.[br]Una volta ho partecipato ad una conferenza 0:05:25.714,0:05:29.269 che coinvolgeva i responsabili [br]delle Risorse Umane e i manager aziendali, 0:05:29.269,0:05:32.489 persone ad alto livello,[br]che usavano questo sistema per assumere. 0:05:32.489,0:05:33.822 Erano super entusiasti. 0:05:33.822,0:05:38.299 Pensavano che ciò avrebbe portato ad[br]assunzioni più oggettive, meno distorte, 0:05:38.323,0:05:41.323 e dato alle donne e alle minoranze[br]una migliore opportunità 0:05:41.347,0:05:43.535 rispetto a manager umani influenzabili. 0:05:43.559,0:05:46.402 E guarda - le assunzioni fatte [br]dagli uomini sono distorte. 0:05:47.099,0:05:48.284 Lo so. 0:05:48.308,0:05:51.313 Voglio dire, in uno dei miei primi lavori,[br]come programmatrice, 0:05:51.337,0:05:55.205 la manager da cui dipendevo qualche volta[br]scendeva dove stavo 0:05:55.229,0:05:58.982 molto presto alla mattina [br]o molto tardi nel pomeriggio, 0:05:59.006,0:06:02.068 e mi diceva, "Zeynep,[br]andiamo a pranzo!" 0:06:02.724,0:06:04.891 Ero perplessa per la strana tempistica. 0:06:04.915,0:06:07.044 Sono le 4 del pomeriggio. Pranzo? 0:06:07.068,0:06:10.162 Ero al verde, ed è un pranzo gratis.[br]Quindi andavo sempre. 0:06:10.618,0:06:12.685 Più tardi capii cosa stava accadendo. 0:06:12.709,0:06:17.255 La manager da cui dipendevo[br]non aveva confessato ai livelli superiori 0:06:17.279,0:06:20.392 che il programmatore da lei assunto [br]per un importante lavoro era adolescente 0:06:20.416,0:06:24.346 che indossava jeans e sneaker al lavoro. 0:06:25.174,0:06:27.376 Lavoravo bene,[br]solo sembravo sbagliata, 0:06:27.400,0:06:29.099 ed era l'età e genere sbagliato. 0:06:29.123,0:06:32.469 Così asssumere senza considerare[br]genere e razza 0:06:32.493,0:06:34.358 certamante mi sembra giusto. 0:06:35.031,0:06:38.372 Ma con questi sistemi,[br]è più complicato, ed ecco perchè: 0:06:38.968,0:06:44.759 Ad oggi, i sistemi di calcolo[br]possono desumere qualsiasi cosa su di voi 0:06:44.783,0:06:46.655 dalle vostre briciole digitali, 0:06:46.679,0:06:49.012 pur se non avete reso pubbliche[br]quelle cose. 0:06:49.506,0:06:52.433 Possono desumere [br]il vostro orientamento sessuale, 0:06:52.994,0:06:54.300 caratteristiche personali, 0:06:54.859,0:06:56.232 orientamento politico. 0:06:56.830,0:07:00.515 Hanno potenza predittiva[br]con alto livello di accuratezza. 0:07:01.362,0:07:03.940 Ricordate -- per cose che[br]non avete mai dichiarato. 0:07:03.964,0:07:05.555 Questa è l'inferenza. 0:07:05.579,0:07:08.840 Ho un'amica che ha sviluppato[br]un sistema di elaborazione 0:07:08.864,0:07:12.505 per predire la probabilità[br]della depressione postpartum 0:07:12.529,0:07:13.945 dai dati delle reti sociali. 0:07:14.676,0:07:16.103 Risultati impressionanti! 0:07:16.492,0:07:19.849 Il suo sistema può predire[br]la probabilità della depressione 0:07:19.873,0:07:23.776 mesi prima dell'insorgere [br]di un qualsiasi sintomo -- 0:07:23.800,0:07:25.173 mesi prima. 0:07:25.197,0:07:27.443 Nessun sintomo, ma c'è predizione. 0:07:27.467,0:07:32.279 Lei spera che sarà usato[br]per anticipare un intervento. Ottimo! 0:07:32.911,0:07:34.951 Ma ora consideratelo in una assunzione. 0:07:36.027,0:07:39.073 Così a quella conferenza dei manager[br]delle risorse umane, 0:07:39.097,0:07:43.806 ho avvicinato un manager di alto livello[br]in una grande azienda, 0:07:43.830,0:07:48.408 e le ho detto, "Guarda,[br]che succederebbe se, alla tua insaputa, 0:07:48.432,0:07:54.981 il vostro sistema elimina le persone[br]con un'alta probabilità di depressione? 0:07:55.761,0:07:59.137 Non sono depresse ora,[br]magari forse in futuro, più probabilmente. 0:07:59.923,0:08:03.329 Che succederebbe se eliminasse le donne[br]più probabilmente incinte 0:08:03.353,0:08:05.939 nei prossimi uno o due anni[br]ma che non lo sono ora? 0:08:06.844,0:08:12.480 E se assumeste persone aggressive perchè[br]questa è la vostra cultura aziendale?" 0:08:13.173,0:08:15.864 Non potete parlarne guardando[br]solo alle quote di genere. 0:08:15.888,0:08:17.390 Queste si possono bilanciare. 0:08:17.414,0:08:20.971 E dato che ciò è apprendimento automatico,[br]non programmazione tradizionale, 0:08:20.995,0:08:25.902 non c'è alcuna variabile di codifica[br]etichettata "alto rischio di depressione", 0:08:25.926,0:08:27.759 "maggior rischio di gravidanza," 0:08:27.783,0:08:29.517 "gradazione di maschio aggressivo." 0:08:29.995,0:08:33.674 Non solo non sapete su cosa [br]il vostro sistema basi la selezione, 0:08:33.698,0:08:36.021 ma neppure sapete [br]dove cominciare a guardare. 0:08:36.045,0:08:37.291 E' una "scatola nera". 0:08:37.315,0:08:40.122 Ha una potenza predittiva[br]ma non la capite. 0:08:40.486,0:08:42.855 "Quali garanzie," chiesi, "avete 0:08:42.879,0:08:46.552 per essere sicuri che la scatola nera[br]non sta facendo qualcosa losco?" 0:08:48.863,0:08:52.741 Mi ha guardato come se avessi[br]schiacciato la coda a 10 cuccioli. 0:08:52.765,0:08:54.013 (Risate) 0:08:54.037,0:08:56.078 Mi fissò e disse, 0:08:56.556,0:09:00.889 "Non voglio sentire altro su questo." 0:09:01.458,0:09:03.492 E si girò andandosene via. 0:09:04.064,0:09:05.660 Considerate - non era maleducata. 0:09:05.660,0:09:11.882 Era chiaro: quello che non so non è un[br]mio problema. Va via, sguardo assassino. 0:09:11.906,0:09:13.152 (Risate) 0:09:13.862,0:09:17.701 Vedete, un tale sistema [br]può anche essere meno influenzata 0:09:17.725,0:09:19.828 in molti modi rispetto ai manager umani. 0:09:19.852,0:09:21.998 E potrebbe avere senso economico. 0:09:22.573,0:09:24.223 Ma può anche portare 0:09:24.247,0:09:28.995 a una stabile, ma furtiva[br]chiusura dal mercato del lavoro 0:09:29.019,0:09:31.312 di gente più a rischio di depressione. 0:09:31.753,0:09:34.349 Questo è il tipo di società[br]che vogliamo costruire, 0:09:34.373,0:09:36.658 senza neppure sapere che lo abbiamo fatto, 0:09:36.682,0:09:40.646 poichè abbiamo lasciato la decisione[br]a macchine che non comprendiamo del tutto? 0:09:41.265,0:09:42.723 Un altro problema è questo: 0:09:43.314,0:09:47.766 quei sistemi sono spesso addestrati[br]con dati generati dalle nostre azioni, 0:09:47.790,0:09:49.606 di impronta umana. 0:09:50.188,0:09:53.996 Bene, possono proprio riflettere [br]le nostre distorsioni o pregiudizi, 0:09:54.020,0:09:57.613 e questi sistemi[br]si portano dietro i nostri pregiudizi 0:09:57.637,0:09:58.950 e li amplificano 0:09:58.974,0:10:00.392 e ce li rispecchiano, 0:10:00.416,0:10:01.878 mentre ci diciamo, 0:10:01.902,0:10:05.019 "Stiamo facendo solo elaborazioni[br]oggettive e neutrali." 0:10:06.314,0:10:08.991 Ricerche effettuate su Google trovano, 0:10:10.134,0:10:15.447 che è meno probabile vengano mostrati [br]alle donne avvisi per lavori ben pagati. 0:10:16.463,0:10:18.993 E cercando nomi di Afro-Americani 0:10:19.017,0:10:23.723 è più probabile trovare avvisi[br]alludenti a storie criminali, 0:10:23.747,0:10:25.314 anche quando non ce ne sono. 0:10:26.693,0:10:30.242 Questi sono i pregiudizi nascosti[br]e gli algoritmi a scatola nera 0:10:30.266,0:10:34.239 che i ricercatori talvolta scoprono[br]ma che altre volte non conosciamo, 0:10:34.263,0:10:36.924 possono avere la conseguenza di [br]alterare la vita. 0:10:37.958,0:10:42.117 In Wisconsin, un accusato[br]è stato condannato a sei anni di prigione 0:10:42.141,0:10:43.496 per aver eluso la polizia. 0:10:44.824,0:10:46.010 Si può non saperlo,[br] 0:10:46.034,0:10:50.032 ma gli algoritmi sono sempre più usati [br]per prendere decisioni giudiziarie. 0:10:50.056,0:10:53.011 Egli voleva sapere:[br]come è stato calcolato il punteggio? 0:10:53.795,0:10:55.460 Ma è una scatola nera [br]sul mercato 0:10:55.484,0:10:59.689 L'azienda si è rifiutata di far verificare[br]il suo algoritmo in una corte pubblica. 0:11:00.396,0:11:05.928 Ma ProPublica, associazione investigativa[br]non-profit, ha verificato quell'algoritmo 0:11:05.952,0:11:07.968 con i dati pubblici disponibili, 0:11:07.992,0:11:10.308 trovando che i risultati [br]erano influenzati 0:11:10.332,0:11:13.961 e la sua potenza predittiva era[br]niente più di una possibilità, 0:11:13.985,0:11:18.401 e che era sbagliato etichettare [br]accusati neri come futuri criminali 0:11:18.425,0:11:22.320 a livello doppio degli accusati bianchi. 0:11:23.891,0:11:25.455 Così considerate questo caso: 0:11:26.103,0:11:29.955 questa donna è in ritardo [br]nel prelevare la sua figlioccia 0:11:29.979,0:11:32.054 da scuola nella Contea di Broward, [br]Florida, 0:11:32.757,0:11:35.113 correndo per la strada[br]con un suo amico. 0:11:35.137,0:11:39.236 Vedono una bici da ragazzo non bloccata[br]ed uno scooter in una veranda 0:11:39.260,0:11:40.856 e stupidamente vi saltano su. 0:11:40.856,0:11:43.575 Come stavano scappando via,[br]una donna uscì fuori e disse, 0:11:43.575,0:11:45.744 "Ehi, quella bicicletta è mia!" 0:11:45.768,0:11:49.062 Essi la lascarono, andarono via,[br]ma furono arrestati. 0:11:49.086,0:11:52.723 Aveva sbagliato, era stata sciocca,[br]ma era appena diventata diciottenne. 0:11:52.747,0:11:55.291 Fu condannata per un paio [br]di crimini giovanili. 0:11:55.808,0:12:00.993 Nel frattempo, quell'uomo fu arrestato[br]per furto di merce al Home Depot -- 0:12:01.017,0:12:03.941 merce per 85 dollari di valore,[br]un simile piccolo crimine. 0:12:04.766,0:12:09.325 Ma lui aveva due precedenti[br]condanne per rapina a mano armata 0:12:09.955,0:12:13.437 Ma l'algoritmo aveva valutato lei [br]ad alto rischio, non lui. 0:12:14.746,0:12:18.620 Due anni dopo, ProPublica trovò[br]che lei non era stata recidiva. 0:12:18.644,0:12:21.194 Ma le fu duro trovare[br]lavoro, visti i precedenti. 0:12:21.218,0:12:23.294 Lui, d'altra parte, fu recidivo 0:12:23.318,0:12:27.154 ed ora è in prigione per 8 anni[br]a causa di un successivo crimine. 0:12:28.088,0:12:31.457 Chiaramente, ci bisogna verificare [br]le scatole nere 0:12:31.481,0:12:34.096 per non dare loro questo [br]incontrollato potere. 0:12:34.120,0:12:36.999 (Applausi) 0:12:38.087,0:12:42.329 Le verifiche sono importanti,[br]ma da sole non risolvono tutti i problemi. 0:12:42.353,0:12:45.101 Prendete l'algoritmo di Facebook [br]per caricare le news-- 0:12:45.125,0:12:49.968 sapete, quello che riordina tutto[br]e decide cosa mostrarvi 0:12:49.992,0:12:52.276 da tutti gli amici e le pagine seguite. 0:12:52.898,0:12:55.173 Dovrebbe mostrarvi un'altra foto di bimbo? 0:12:55.197,0:12:56.393 (Risate) 0:12:56.417,0:12:59.013 Una nota imbronciata da un conoscente? 0:12:59.449,0:13:01.305 Una importante ma scabrosa notizia? 0:13:01.329,0:13:02.811 Non c'è una risposta giusta. 0:13:02.835,0:13:05.494 Facebook ottimizza per [br]attraervi al loro sito: 0:13:05.518,0:13:06.933 i like, condividi, commenti 0:13:08.168,0:13:10.864 Nell'agosto 2014, 0:13:10.888,0:13:14.660 proteste scoppiarono a Ferguson, Missouri,[br]dopo l'uccisione di 0:13:14.660,0:13:17.991 un ragazzo Afro-Americano[br]da parte di un poliziotto bianco, 0:13:18.015,0:13:19.585 in circostanze oscure. 0:13:19.974,0:13:21.981 La notizia delle proteste era presente 0:13:22.005,0:13:24.690 sul mio caricatore Twitter[br]non filtrato da algoritmi, 0:13:24.714,0:13:26.664 ma nulla sul mio Facebook. 0:13:27.182,0:13:29.076 Era a causa dei miei amici su Facebook? 0:13:29.076,0:13:31.332 Ho disabilitato l'algoritmo di Facebook, 0:13:31.472,0:13:34.320 che non è facile, poichè Facebook[br]vuole mantenervi 0:13:34.344,0:13:36.380 sotto il controllo dell'algoritmo, 0:13:36.404,0:13:38.642 e vidi che i miei amici[br]parlavano di questo. 0:13:38.666,0:13:41.175 Era proprio l'algoritmo [br]che non me lo mostrava. 0:13:41.199,0:13:44.241 Ho approfondito ed ho trovato[br]che è un problema diffuso. 0:13:44.265,0:13:48.078 La storia di Ferguson non è [br]facile per l'algoritmo. 0:13:48.102,0:13:49.273 Non è likable. 0:13:49.297,0:13:50.849 Chi sta cliccando su "like?" 0:13:51.500,0:13:53.706 Non è neppure facile da commentarsi. 0:13:53.730,0:13:55.101 Senza like e commenti, 0:13:55.125,0:13:58.417 l'algoritmo tende a mostrare la notizia[br]ad ancora meno persone, 0:13:58.441,0:13:59.983 così non riusciamo a vederla. 0:14:00.946,0:14:02.174 Invece, questa settimana, 0:14:02.198,0:14:04.496 l'algoritmo di Facebook ha evidenziato 0:14:04.520,0:14:06.746 questo: il ALS Ice Bucket Challenge. 0:14:06.770,0:14:10.512 Causa benefica; svuota acqua ghiacciata,[br]dona alla beneficenza, bene. 0:14:10.536,0:14:12.440 Ottimo per agevolare l'algoritmo. 0:14:13.219,0:14:15.832 Una decisione automatica è stata[br]presa per noi 0:14:15.856,0:14:19.353 Una conversazione molto importante[br]ma scabrosa[br] 0:14:19.377,0:14:20.932 può essere moderata, 0:14:20.956,0:14:23.652 essendo Facebook l'unica via trasmissiva. 0:14:24.117,0:14:27.914 Ora, infine, quei sistemi [br]possono sbagliare 0:14:27.938,0:14:30.674 in modi che non somigliano [br]a sistemi umani. 0:14:30.698,0:14:33.620 Vi ricordate Watson,[br]la macchina intelligente di IBM 0:14:33.644,0:14:36.772 che ha spazzato via [br]i contendenti umani a Jeopardy? 0:14:37.131,0:14:38.559 Era un grande giocatore. 0:14:38.583,0:14:42.239 Ma poi, alla finale di Jeopardy,[br]fu posta questa domanda a Watson: 0:14:42.239,0:14:45.911 "Il suo più grande aeroporto è intitolato[br]a un eroe della II Guerra Mondiale, 0:14:45.911,0:14:48.177 il suo secondo più grande [br]a una sua battaglia." 0:14:48.177,0:14:49.779 (Musica della finale di Jeopardy) 0:14:49.779,0:14:50.764 Chicago. 0:14:50.788,0:14:52.158 I due umani risposero bene. 0:14:52.697,0:14:57.045 Watson, da altra parte,[br]rispose "Toronto" -- 0:14:57.069,0:14:58.887 per una città nella categoria USA! 0:14:59.596,0:15:02.497 L'impressionante sistema aveva sbagliato 0:15:02.521,0:15:06.172 come un umano non avrebbbe mai fatto,[br]neppure un alunno delle elementari.[br] 0:15:06.823,0:15:09.932 L'intelligenza automatica può sbagliare 0:15:09.956,0:15:13.056 in modi non paragonabili [br]con l'approccio dell'errore umano, 0:15:13.080,0:15:16.030 in modi che non ci aspetteremmo[br]e per i quali siamo preparati. 0:15:16.054,0:15:19.692 Sarebbe pessimo non ottenere un lavoro[br]per il quale si è qualificati, 0:15:19.716,0:15:23.443 ma sarebbe tre volte peggio[br]se fosse causato da un errore software 0:15:23.467,0:15:24.899 in qualche sua subroutine. 0:15:24.923,0:15:26.502 (Risate) 0:15:26.526,0:15:29.312 Nel maggio 2010, 0:15:29.336,0:15:33.380 una crisi improvvisa a Wall Street,[br]alimentata da un erroneo ciclo di calcolo 0:15:33.404,0:15:36.432 nell'algoritmo di "vendi" di Wall Street 0:15:36.456,0:15:40.640 ha spazzato via un valore[br]di un trilione di dollari in 36 minuti. 0:15:41.722,0:15:43.909 Non voglio pensare [br]cosa significhi "errore" 0:15:43.933,0:15:47.522 nel contesto di armi letali autonome. 0:15:49.894,0:15:53.684 Si certo, gli umani sono sempre parziali. 0:15:53.708,0:15:55.884 I decisori e controllori, 0:15:55.908,0:15:59.401 nelle corti, nei notiziari, in guerra ... 0:15:59.425,0:16:02.463 commettono errori;[br]ma questo è proprio il mio punto. 0:16:02.487,0:16:06.008 non possiamo sfuggire [br]a queste difficili domande. 0:16:06.596,0:16:10.112 Non possiamo delegare [br]le nostre responsabilità alle macchine. 0:16:10.676,0:16:14.884 (Applausi) 0:16:17.089,0:16:21.536 L'intelligenza artificiale non ci dà[br]un permesso di "uscire dall'etica" gratis. 0:16:22.742,0:16:26.123 Lo scienziato sui dati Fred Benenson[br]lo chiama "pulizia matematica". 0:16:26.147,0:16:27.536 Necessitiamo del contrario. 0:16:27.560,0:16:32.948 Verso gli algoritmi occorre coltivare [br]la diffidenza, verifica e indagine. 0:16:33.080,0:16:36.578 Occorre essere sicuri che di sia[br]una responsabilità sugli algoritmi, 0:16:36.625,0:16:39.070 metodi di verifica e [br]una comprensibile trasparenza. 0:16:39.070,0:16:42.510 È necessario accettare [br]che portare matematica ed elaborazione 0:16:42.510,0:16:45.478 in relazioni umane caotiche e di valore, 0:16:45.478,0:16:47.408 non aggiunge obiettività; 0:16:47.408,0:16:51.576 piuttosto, la complessità degli affari [br]umani invade gli algoritmi. 0:16:51.576,0:16:54.553 Si, possiamo e dovremmo usare il calcolo 0:16:54.553,0:16:57.565 per aiutarci nel decidere meglio. 0:16:57.615,0:17:02.473 Ma dobbiamo mantenere la [br]responsabilità morale del giudizio, 0:17:02.473,0:17:05.169 e usare algoritmi dentro quel contesto, 0:17:05.169,0:17:09.741 non come gli strumenti per abdicare[br]e dare in outsource 0:17:09.741,0:17:13.300 le nostre responsibilità[br]a qualcun altro come fra umani. 0:17:13.300,0:17:16.018 La intelligenza delle macchine è qui. 0:17:16.018,0:17:19.156 Significa che dobbiamo tenerci più forti 0:17:19.156,0:17:22.041 ai valori ed etica umani. 0:17:22.041,0:17:22.912 Grazie. 0:17:22.912,0:17:24.110 (Applausi)