1 00:00:00,739 --> 00:00:04,861 Ho iniziato il mio primo lavoro come programmatrice di computer 2 00:00:04,885 --> 00:00:06,841 nel mio primo anno di college - 3 00:00:06,865 --> 00:00:08,372 sostanzialmete un'adolescente. 4 00:00:08,889 --> 00:00:12,281 Subito dopo ho cominciato a lavorare, scrivendo software in una azienda, 5 00:00:12,799 --> 00:00:16,434 un manager che lavorava nell'azienda mi venne a trovare dove stavo, 6 00:00:16,458 --> 00:00:17,726 e mi susssurrò, 7 00:00:18,229 --> 00:00:21,090 "Può lui dirmi se sto mentendo?" 8 00:00:21,806 --> 00:00:23,883 Non c'era nessun altro nella stanza. 9 00:00:25,032 --> 00:00:29,421 "Chi può dire se stai mentendo? E perché sussurriamo?" 10 00:00:30,266 --> 00:00:33,373 Il manager indicò il computer nella stanza. 11 00:00:33,397 --> 00:00:36,493 "Può lui dirmi se sto mentendo?" 12 00:00:37,613 --> 00:00:41,975 Ebbene, quel manager aveva una relazione con la segretaria alla reception. 13 00:00:41,999 --> 00:00:43,111 (Risate) 14 00:00:43,135 --> 00:00:44,901 Ed ero ancora una adolescente. 15 00:00:45,447 --> 00:00:47,466 Così gli sussurrai-urlai, 16 00:00:47,490 --> 00:00:51,114 "Si, il computer può dire se stai mentendo." 17 00:00:51,138 --> 00:00:52,944 (Risate) 18 00:00:52,968 --> 00:00:55,891 Bene, io risi, ma in effetti, la risata era nei mei confronti. 19 00:00:55,915 --> 00:00:59,183 Oggi, vi sono sistemi di calcolo 20 00:00:59,207 --> 00:01:02,755 che possono scoprire gli stati emotivi e pure la menzogna 21 00:01:02,779 --> 00:01:04,823 tramite la elaborazione dei volti umani. 22 00:01:05,248 --> 00:01:09,401 I pubblicitari ed anche i governi sono molto interessati. 23 00:01:10,139 --> 00:01:12,181 Sono diventata programmatrice di computer 24 00:01:12,205 --> 00:01:15,318 perchè ero uno di quei giovani pazzi per matematica e scienze 25 00:01:15,942 --> 00:01:19,050 Ma lungo il mio percorso ho imparato a conoscere le armi nucleari, 26 00:01:19,074 --> 00:01:22,026 e mi sono proprio preoccupata dell'etica della scienza. 27 00:01:22,050 --> 00:01:23,254 Ero preoccupata. 28 00:01:23,278 --> 00:01:25,919 Tuttavia, a causa della mia situazione familiare, 29 00:01:25,943 --> 00:01:29,241 dovevo iniziare a lavorare al più presto. 30 00:01:29,265 --> 00:01:32,564 Così mi sono detta, hey, scegliamo un settore tecnico 31 00:01:32,588 --> 00:01:34,384 dove posso trovare facilmente un lavoro 32 00:01:34,408 --> 00:01:38,426 e dove non devo aver a che fare con qualche fastidiosa questione etica. 33 00:01:39,022 --> 00:01:40,551 Così ho scelto i computer. 34 00:01:40,575 --> 00:01:41,679 (Risate) 35 00:01:41,703 --> 00:01:45,113 Bene, ah, ah! Tutti ridono di me. 36 00:01:45,137 --> 00:01:47,891 Ora, gli scienziati del computer costruicono piattaforme 37 00:01:47,915 --> 00:01:52,124 che controllano ciò che un miliardo di persone vedono ogni giorno. 38 00:01:53,052 --> 00:01:56,874 Stanno sviluppando auto che potrebbero decidere chi investire. 39 00:01:57,707 --> 00:02:00,920 Stanno anche costruendo macchine, armi, 40 00:02:00,944 --> 00:02:03,229 che possono uccidere persone in guerra. 41 00:02:03,253 --> 00:02:06,024 C'è sempre l'etica alla fine. 42 00:02:07,183 --> 00:02:09,241 L'intelligenza delle macchine è qui. 43 00:02:09,823 --> 00:02:13,297 Ora utilizziamo il computer per prendere ogni tipo di decisioni, 44 00:02:13,321 --> 00:02:15,207 ma anche nuovi tipi di decisioni. 45 00:02:15,231 --> 00:02:20,403 Stiamo ponendo al computer domande che non hanno una sola risposta giusta, 46 00:02:20,427 --> 00:02:21,629 che sono soggettive 47 00:02:21,653 --> 00:02:23,978 e sono aperte e cariche di valore. 48 00:02:24,002 --> 00:02:25,760 Domandiamo cose come, 49 00:02:25,784 --> 00:02:27,434 "Chi dovrebbe essere assunto?" 50 00:02:28,096 --> 00:02:30,855 "Quale update e di quale amico dovrebbe essere mostrato?" 51 00:02:30,879 --> 00:02:33,385 "Quale pregiudicato sarà più probabilmente recidivo?" 52 00:02:33,514 --> 00:02:36,568 "Quale notizia o film dovrebbe essere consigliato alla gente?" 53 00:02:36,592 --> 00:02:39,964 Certo, stiamo usando il computer da un po', 54 00:02:39,988 --> 00:02:41,505 ma questo è diverso. 55 00:02:41,529 --> 00:02:43,596 Questa è un svolta storica, 56 00:02:43,620 --> 00:02:48,957 perchè non possiamo poggiarci sul computer per queste decisioni soggettive 57 00:02:48,981 --> 00:02:54,401 allo stesso modo in cui si usa il computer per far volare gli aerei, costruire ponti, 58 00:02:54,425 --> 00:02:55,684 andare sulla luna. 59 00:02:56,449 --> 00:02:59,708 Sono più sicuri gli aerei? Vacillano e cadono i ponti? 60 00:02:59,732 --> 00:03:04,230 Qui abbiamo chiari livelli di riferimento, su cui concordiamo, 61 00:03:04,254 --> 00:03:06,493 ed abbiamo le leggi naturali per guidarci. 62 00:03:06,517 --> 00:03:09,911 Non abbiamo tali riferimenti per decidere 63 00:03:09,935 --> 00:03:13,898 nelle complicate faccende umane. 64 00:03:13,922 --> 00:03:18,159 Per rendere le cose più complicate, il software sta diventando più potente, 65 00:03:18,183 --> 00:03:21,956 ma anche meno trasparente e più complesso. 66 00:03:22,542 --> 00:03:24,582 Recentemente, nell'ultima decennio, 67 00:03:24,606 --> 00:03:27,335 algoritmi complessi hanno fatto notevoli passi avanti. 68 00:03:27,359 --> 00:03:29,349 Possono riconoscere le facce umane. 69 00:03:29,985 --> 00:03:32,040 Possono decifrare la scrittura manuale. 70 00:03:32,316 --> 00:03:35,689 possono individuare le frodi sulle carte di credito e bloccare lo spam 71 00:03:35,689 --> 00:03:37,770 e possono tradurre le lingue. 72 00:03:37,770 --> 00:03:40,684 Possono individuare i tumori nelle diagnostica per immagini. 73 00:03:40,684 --> 00:03:42,933 Possono battere gli umani a scacchi e nel GO 74 00:03:43,264 --> 00:03:47,768 Molti di questi progressi derivano dal metodo di "apprendimento automatico". 75 00:03:48,175 --> 00:03:51,502 L'apprendimento automatico è diverso dalla tradizionale programmazione, 76 00:03:51,502 --> 00:03:54,971 dove si danno al computer istruzioni dettagliate, precise ed accurate. 77 00:03:55,378 --> 00:03:59,560 Sembra di più come se forniste al sistema molti dati, 78 00:03:59,584 --> 00:04:01,234 Inclusi dati non strutturati, 79 00:04:01,234 --> 00:04:03,642 del tipo che generiamo nella nostre vite digitali. 80 00:04:03,642 --> 00:04:06,296 E il sistema impara maneggiando quei dati. 81 00:04:06,669 --> 00:04:08,195 Ed anche, crucialmente, 82 00:04:08,219 --> 00:04:12,599 quei sistemi non lavorano con la logica di una sola risposta. 83 00:04:12,623 --> 00:04:15,702 Non forniscono una semplice risposta; è piuttosto probabilistica: 84 00:04:15,702 --> 00:04:19,089 "Questo è probabilmente quello che state cercando." 85 00:04:20,023 --> 00:04:23,093 Ora, la parte positiva è: questo metodo è veramente potente. 86 00:04:23,117 --> 00:04:25,193 Il capo sistema AI di Google lo ha chiamato 87 00:04:25,217 --> 00:04:27,414 "la irragionevole efficacia dei dati." 88 00:04:27,791 --> 00:04:29,144 La parte negativa è, 89 00:04:29,738 --> 00:04:32,809 non capiamo veramente cosa il sistema ha imparato. 90 00:04:32,833 --> 00:04:34,420 Infatti, questa è la sua forza. 91 00:04:34,946 --> 00:04:38,744 Ciò è meno simile a dare istruzioni ad un computer; 92 00:04:39,200 --> 00:04:43,264 è più simile all'istruire un cucciolo-macchina 93 00:04:43,288 --> 00:04:45,659 che noi non capiamo o controlliamo veramente 94 00:04:46,362 --> 00:04:47,913 Questo è il nostro problema. 95 00:04:48,427 --> 00:04:52,689 Il problema è quando questi sistemi di intelligenza artificiale lavorano male. 96 00:04:52,713 --> 00:04:56,253 Vi è anche il problema di quando lavorano bene, 97 00:04:56,277 --> 00:04:59,905 perchè non sappiamo chi è chi quando il problema è soggettivo. 98 00:04:59,929 --> 00:05:02,268 Non sappiamo come il computer ragioni. 99 00:05:03,493 --> 00:05:07,176 Così, considerate un algoritmo per le assunzioni-- 100 00:05:08,123 --> 00:05:12,434 un sistema per assumere la gente, usando l'apprendimento automatico. 101 00:05:13,052 --> 00:05:16,631 Un tale sistema sarebbe stato formato sui dati dei precedenti assunti 102 00:05:16,655 --> 00:05:19,246 e istruito per trovare ed assumere 103 00:05:19,270 --> 00:05:22,308 le persone simili a quelli più performanti in azienda. 104 00:05:22,814 --> 00:05:25,714 Sembra giusto. Una volta ho partecipato ad una conferenza 105 00:05:25,714 --> 00:05:29,269 che coinvolgeva i responsabili delle Risorse Umane e i manager aziendali, 106 00:05:29,269 --> 00:05:32,489 persone ad alto livello, che usavano questo sistema per assumere. 107 00:05:32,489 --> 00:05:33,822 Erano super entusiasti. 108 00:05:33,822 --> 00:05:38,299 Pensavano che ciò avrebbe portato ad assunzioni più oggettive, meno distorte, 109 00:05:38,323 --> 00:05:41,323 e dato alle donne e alle minoranze una migliore opportunità 110 00:05:41,347 --> 00:05:43,535 rispetto a manager umani influenzabili. 111 00:05:43,559 --> 00:05:46,402 E guarda - le assunzioni fatte dagli uomini sono distorte. 112 00:05:47,099 --> 00:05:48,284 Lo so. 113 00:05:48,308 --> 00:05:51,313 Voglio dire, in uno dei miei primi lavori, come programmatrice, 114 00:05:51,337 --> 00:05:55,205 la manager da cui dipendevo qualche volta scendeva dove stavo 115 00:05:55,229 --> 00:05:58,982 molto presto alla mattina o molto tardi nel pomeriggio, 116 00:05:59,006 --> 00:06:02,068 e mi diceva, "Zeynep, andiamo a pranzo!" 117 00:06:02,724 --> 00:06:04,891 Ero perplessa per la strana tempistica. 118 00:06:04,915 --> 00:06:07,044 Sono le 4 del pomeriggio. Pranzo? 119 00:06:07,068 --> 00:06:10,162 Ero al verde, ed è un pranzo gratis. Quindi andavo sempre. 120 00:06:10,618 --> 00:06:12,685 Più tardi capii cosa stava accadendo. 121 00:06:12,709 --> 00:06:17,255 La manager da cui dipendevo non aveva confessato ai livelli superiori 122 00:06:17,279 --> 00:06:20,392 che il programmatore da lei assunto per un importante lavoro era adolescente 123 00:06:20,416 --> 00:06:24,346 che indossava jeans e sneaker al lavoro. 124 00:06:25,174 --> 00:06:27,376 Lavoravo bene, solo sembravo sbagliata, 125 00:06:27,400 --> 00:06:29,099 ed era l'età e genere sbagliato. 126 00:06:29,123 --> 00:06:32,469 Così asssumere senza considerare genere e razza 127 00:06:32,493 --> 00:06:34,358 certamante mi sembra giusto. 128 00:06:35,031 --> 00:06:38,372 Ma con questi sistemi, è più complicato, ed ecco perchè: 129 00:06:38,968 --> 00:06:44,759 Ad oggi, i sistemi di calcolo possono desumere qualsiasi cosa su di voi 130 00:06:44,783 --> 00:06:46,655 dalle vostre briciole digitali, 131 00:06:46,679 --> 00:06:49,012 pur se non avete reso pubbliche quelle cose. 132 00:06:49,506 --> 00:06:52,433 Possono desumere il vostro orientamento sessuale, 133 00:06:52,994 --> 00:06:54,300 caratteristiche personali, 134 00:06:54,859 --> 00:06:56,232 orientamento politico. 135 00:06:56,830 --> 00:07:00,515 Hanno potenza predittiva con alto livello di accuratezza. 136 00:07:01,362 --> 00:07:03,940 Ricordate -- per cose che non avete mai dichiarato. 137 00:07:03,964 --> 00:07:05,555 Questa è l'inferenza. 138 00:07:05,579 --> 00:07:08,840 Ho un'amica che ha sviluppato un sistema di elaborazione 139 00:07:08,864 --> 00:07:12,505 per predire la probabilità della depressione postpartum 140 00:07:12,529 --> 00:07:13,945 dai dati delle reti sociali. 141 00:07:14,676 --> 00:07:16,103 Risultati impressionanti! 142 00:07:16,492 --> 00:07:19,849 Il suo sistema può predire la probabilità della depressione 143 00:07:19,873 --> 00:07:23,776 mesi prima dell'insorgere di un qualsiasi sintomo -- 144 00:07:23,800 --> 00:07:25,173 mesi prima. 145 00:07:25,197 --> 00:07:27,443 Nessun sintomo, ma c'è predizione. 146 00:07:27,467 --> 00:07:32,279 Lei spera che sarà usato per anticipare un intervento. Ottimo! 147 00:07:32,911 --> 00:07:34,951 Ma ora consideratelo in una assunzione. 148 00:07:36,027 --> 00:07:39,073 Così a quella conferenza dei manager delle risorse umane, 149 00:07:39,097 --> 00:07:43,806 ho avvicinato un manager di alto livello in una grande azienda, 150 00:07:43,830 --> 00:07:48,408 e le ho detto, "Guarda, che succederebbe se, alla tua insaputa, 151 00:07:48,432 --> 00:07:54,981 il vostro sistema elimina le persone con un'alta probabilità di depressione? 152 00:07:55,761 --> 00:07:59,137 Non sono depresse ora, magari forse in futuro, più probabilmente. 153 00:07:59,923 --> 00:08:03,329 Che succederebbe se eliminasse le donne più probabilmente incinte 154 00:08:03,353 --> 00:08:05,939 nei prossimi uno o due anni ma che non lo sono ora? 155 00:08:06,844 --> 00:08:12,480 E se assumeste persone aggressive perchè questa è la vostra cultura aziendale?" 156 00:08:13,173 --> 00:08:15,864 Non potete parlarne guardando solo alle quote di genere. 157 00:08:15,888 --> 00:08:17,390 Queste si possono bilanciare. 158 00:08:17,414 --> 00:08:20,971 E dato che ciò è apprendimento automatico, non programmazione tradizionale, 159 00:08:20,995 --> 00:08:25,902 non c'è alcuna variabile di codifica etichettata "alto rischio di depressione", 160 00:08:25,926 --> 00:08:27,759 "maggior rischio di gravidanza," 161 00:08:27,783 --> 00:08:29,517 "gradazione di maschio aggressivo." 162 00:08:29,995 --> 00:08:33,674 Non solo non sapete su cosa il vostro sistema basi la selezione, 163 00:08:33,698 --> 00:08:36,021 ma neppure sapete dove cominciare a guardare. 164 00:08:36,045 --> 00:08:37,291 E' una "scatola nera". 165 00:08:37,315 --> 00:08:40,122 Ha una potenza predittiva ma non la capite. 166 00:08:40,486 --> 00:08:42,855 "Quali garanzie," chiesi, "avete 167 00:08:42,879 --> 00:08:46,552 per essere sicuri che la scatola nera non sta facendo qualcosa losco?" 168 00:08:48,863 --> 00:08:52,741 Mi ha guardato come se avessi schiacciato la coda a 10 cuccioli. 169 00:08:52,765 --> 00:08:54,013 (Risate) 170 00:08:54,037 --> 00:08:56,078 Mi fissò e disse, 171 00:08:56,556 --> 00:09:00,889 "Non voglio sentire altro su questo." 172 00:09:01,458 --> 00:09:03,492 E si girò andandosene via. 173 00:09:04,064 --> 00:09:05,660 Considerate - non era maleducata. 174 00:09:05,660 --> 00:09:11,882 Era chiaro: quello che non so non è un mio problema. Va via, sguardo assassino. 175 00:09:11,906 --> 00:09:13,152 (Risate) 176 00:09:13,862 --> 00:09:17,701 Vedete, un tale sistema può anche essere meno influenzata 177 00:09:17,725 --> 00:09:19,828 in molti modi rispetto ai manager umani. 178 00:09:19,852 --> 00:09:21,998 E potrebbe avere senso economico. 179 00:09:22,573 --> 00:09:24,223 Ma può anche portare 180 00:09:24,247 --> 00:09:28,995 a una stabile, ma furtiva chiusura dal mercato del lavoro 181 00:09:29,019 --> 00:09:31,312 di gente più a rischio di depressione. 182 00:09:31,753 --> 00:09:34,349 Questo è il tipo di società che vogliamo costruire, 183 00:09:34,373 --> 00:09:36,658 senza neppure sapere che lo abbiamo fatto, 184 00:09:36,682 --> 00:09:40,646 poichè abbiamo lasciato la decisione a macchine che non comprendiamo del tutto? 185 00:09:41,265 --> 00:09:42,723 Un altro problema è questo: 186 00:09:43,314 --> 00:09:47,766 quei sistemi sono spesso addestrati con dati generati dalle nostre azioni, 187 00:09:47,790 --> 00:09:49,606 di impronta umana. 188 00:09:50,188 --> 00:09:53,996 Bene, possono proprio riflettere le nostre distorsioni o pregiudizi, 189 00:09:54,020 --> 00:09:57,613 e questi sistemi si portano dietro i nostri pregiudizi 190 00:09:57,637 --> 00:09:58,950 e li amplificano 191 00:09:58,974 --> 00:10:00,392 e ce li rispecchiano, 192 00:10:00,416 --> 00:10:01,878 mentre ci diciamo, 193 00:10:01,902 --> 00:10:05,019 "Stiamo facendo solo elaborazioni oggettive e neutrali." 194 00:10:06,314 --> 00:10:08,991 Ricerche effettuate su Google trovano, 195 00:10:10,134 --> 00:10:15,447 che è meno probabile vengano mostrati alle donne avvisi per lavori ben pagati. 196 00:10:16,463 --> 00:10:18,993 E cercando nomi di Afro-Americani 197 00:10:19,017 --> 00:10:23,723 è più probabile trovare avvisi alludenti a storie criminali, 198 00:10:23,747 --> 00:10:25,314 anche quando non ce ne sono. 199 00:10:26,693 --> 00:10:30,242 Questi sono i pregiudizi nascosti e gli algoritmi a scatola nera 200 00:10:30,266 --> 00:10:34,239 che i ricercatori talvolta scoprono ma che altre volte non conosciamo, 201 00:10:34,263 --> 00:10:36,924 possono avere la conseguenza di alterare la vita. 202 00:10:37,958 --> 00:10:42,117 In Wisconsin, un accusato è stato condannato a sei anni di prigione 203 00:10:42,141 --> 00:10:43,496 per aver eluso la polizia. 204 00:10:44,824 --> 00:10:46,010 Si può non saperlo, 205 00:10:46,034 --> 00:10:50,032 ma gli algoritmi sono sempre più usati per prendere decisioni giudiziarie. 206 00:10:50,056 --> 00:10:53,011 Egli voleva sapere: come è stato calcolato il punteggio? 207 00:10:53,795 --> 00:10:55,460 Ma è una scatola nera sul mercato 208 00:10:55,484 --> 00:10:59,689 L'azienda si è rifiutata di far verificare il suo algoritmo in una corte pubblica. 209 00:11:00,396 --> 00:11:05,928 Ma ProPublica, associazione investigativa non-profit, ha verificato quell'algoritmo 210 00:11:05,952 --> 00:11:07,968 con i dati pubblici disponibili, 211 00:11:07,992 --> 00:11:10,308 trovando che i risultati erano influenzati 212 00:11:10,332 --> 00:11:13,961 e la sua potenza predittiva era niente più di una possibilità, 213 00:11:13,985 --> 00:11:18,401 e che era sbagliato etichettare accusati neri come futuri criminali 214 00:11:18,425 --> 00:11:22,320 a livello doppio degli accusati bianchi. 215 00:11:23,891 --> 00:11:25,455 Così considerate questo caso: 216 00:11:26,103 --> 00:11:29,955 questa donna è in ritardo nel prelevare la sua figlioccia 217 00:11:29,979 --> 00:11:32,054 da scuola nella Contea di Broward, Florida, 218 00:11:32,757 --> 00:11:35,113 correndo per la strada con un suo amico. 219 00:11:35,137 --> 00:11:39,236 Vedono una bici da ragazzo non bloccata ed uno scooter in una veranda 220 00:11:39,260 --> 00:11:40,856 e stupidamente vi saltano su. 221 00:11:40,856 --> 00:11:43,575 Come stavano scappando via, una donna uscì fuori e disse, 222 00:11:43,575 --> 00:11:45,744 "Ehi, quella bicicletta è mia!" 223 00:11:45,768 --> 00:11:49,062 Essi la lascarono, andarono via, ma furono arrestati. 224 00:11:49,086 --> 00:11:52,723 Aveva sbagliato, era stata sciocca, ma era appena diventata diciottenne. 225 00:11:52,747 --> 00:11:55,291 Fu condannata per un paio di crimini giovanili. 226 00:11:55,808 --> 00:12:00,993 Nel frattempo, quell'uomo fu arrestato per furto di merce al Home Depot -- 227 00:12:01,017 --> 00:12:03,941 merce per 85 dollari di valore, un simile piccolo crimine. 228 00:12:04,766 --> 00:12:09,325 Ma lui aveva due precedenti condanne per rapina a mano armata 229 00:12:09,955 --> 00:12:13,437 Ma l'algoritmo aveva valutato lei ad alto rischio, non lui. 230 00:12:14,746 --> 00:12:18,620 Due anni dopo, ProPublica trovò che lei non era stata recidiva. 231 00:12:18,644 --> 00:12:21,194 Ma le fu duro trovare lavoro, visti i precedenti. 232 00:12:21,218 --> 00:12:23,294 Lui, d'altra parte, fu recidivo 233 00:12:23,318 --> 00:12:27,154 ed ora è in prigione per 8 anni a causa di un successivo crimine. 234 00:12:28,088 --> 00:12:31,457 Chiaramente, ci bisogna verificare le scatole nere 235 00:12:31,481 --> 00:12:34,096 per non dare loro questo incontrollato potere. 236 00:12:34,120 --> 00:12:36,999 (Applausi) 237 00:12:38,087 --> 00:12:42,329 Le verifiche sono importanti, ma da sole non risolvono tutti i problemi. 238 00:12:42,353 --> 00:12:45,101 Prendete l'algoritmo di Facebook per caricare le news-- 239 00:12:45,125 --> 00:12:49,968 sapete, quello che riordina tutto e decide cosa mostrarvi 240 00:12:49,992 --> 00:12:52,276 da tutti gli amici e le pagine seguite. 241 00:12:52,898 --> 00:12:55,173 Dovrebbe mostrarvi un'altra foto di bimbo? 242 00:12:55,197 --> 00:12:56,393 (Risate) 243 00:12:56,417 --> 00:12:59,013 Una nota imbronciata da un conoscente? 244 00:12:59,449 --> 00:13:01,305 Una importante ma scabrosa notizia? 245 00:13:01,329 --> 00:13:02,811 Non c'è una risposta giusta. 246 00:13:02,835 --> 00:13:05,494 Facebook ottimizza per attraervi al loro sito: 247 00:13:05,518 --> 00:13:06,933 i like, condividi, commenti 248 00:13:08,168 --> 00:13:10,864 Nell'agosto 2014, 249 00:13:10,888 --> 00:13:14,660 proteste scoppiarono a Ferguson, Missouri, dopo l'uccisione di 250 00:13:14,660 --> 00:13:17,991 un ragazzo Afro-Americano da parte di un poliziotto bianco, 251 00:13:18,015 --> 00:13:19,585 in circostanze oscure. 252 00:13:19,974 --> 00:13:21,981 La notizia delle proteste era presente 253 00:13:22,005 --> 00:13:24,690 sul mio caricatore Twitter non filtrato da algoritmi, 254 00:13:24,714 --> 00:13:26,664 ma nulla sul mio Facebook. 255 00:13:27,182 --> 00:13:29,076 Era a causa dei miei amici su Facebook? 256 00:13:29,076 --> 00:13:31,332 Ho disabilitato l'algoritmo di Facebook, 257 00:13:31,472 --> 00:13:34,320 che non è facile, poichè Facebook vuole mantenervi 258 00:13:34,344 --> 00:13:36,380 sotto il controllo dell'algoritmo, 259 00:13:36,404 --> 00:13:38,642 e vidi che i miei amici parlavano di questo. 260 00:13:38,666 --> 00:13:41,175 Era proprio l'algoritmo che non me lo mostrava. 261 00:13:41,199 --> 00:13:44,241 Ho approfondito ed ho trovato che è un problema diffuso. 262 00:13:44,265 --> 00:13:48,078 La storia di Ferguson non è facile per l'algoritmo. 263 00:13:48,102 --> 00:13:49,273 Non è likable. 264 00:13:49,297 --> 00:13:50,849 Chi sta cliccando su "like?" 265 00:13:51,500 --> 00:13:53,706 Non è neppure facile da commentarsi. 266 00:13:53,730 --> 00:13:55,101 Senza like e commenti, 267 00:13:55,125 --> 00:13:58,417 l'algoritmo tende a mostrare la notizia ad ancora meno persone, 268 00:13:58,441 --> 00:13:59,983 così non riusciamo a vederla. 269 00:14:00,946 --> 00:14:02,174 Invece, questa settimana, 270 00:14:02,198 --> 00:14:04,496 l'algoritmo di Facebook ha evidenziato 271 00:14:04,520 --> 00:14:06,746 questo: il ALS Ice Bucket Challenge. 272 00:14:06,770 --> 00:14:10,512 Causa benefica; svuota acqua ghiacciata, dona alla beneficenza, bene. 273 00:14:10,536 --> 00:14:12,440 Ottimo per agevolare l'algoritmo. 274 00:14:13,219 --> 00:14:15,832 Una decisione automatica è stata presa per noi 275 00:14:15,856 --> 00:14:19,353 Una conversazione molto importante ma scabrosa 276 00:14:19,377 --> 00:14:20,932 può essere moderata, 277 00:14:20,956 --> 00:14:23,652 essendo Facebook l'unica via trasmissiva. 278 00:14:24,117 --> 00:14:27,914 Ora, infine, quei sistemi possono sbagliare 279 00:14:27,938 --> 00:14:30,674 in modi che non somigliano a sistemi umani. 280 00:14:30,698 --> 00:14:33,620 Vi ricordate Watson, la macchina intelligente di IBM 281 00:14:33,644 --> 00:14:36,772 che ha spazzato via i contendenti umani a Jeopardy? 282 00:14:37,131 --> 00:14:38,559 Era un grande giocatore. 283 00:14:38,583 --> 00:14:42,239 Ma poi, alla finale di Jeopardy, fu posta questa domanda a Watson: 284 00:14:42,239 --> 00:14:45,911 "Il suo più grande aeroporto è intitolato a un eroe della II Guerra Mondiale, 285 00:14:45,911 --> 00:14:48,177 il suo secondo più grande a una sua battaglia." 286 00:14:48,177 --> 00:14:49,779 (Musica della finale di Jeopardy) 287 00:14:49,779 --> 00:14:50,764 Chicago. 288 00:14:50,788 --> 00:14:52,158 I due umani risposero bene. 289 00:14:52,697 --> 00:14:57,045 Watson, da altra parte, rispose "Toronto" -- 290 00:14:57,069 --> 00:14:58,887 per una città nella categoria USA! 291 00:14:59,596 --> 00:15:02,497 L'impressionante sistema aveva sbagliato 292 00:15:02,521 --> 00:15:06,172 come un umano non avrebbbe mai fatto, neppure un alunno delle elementari. 293 00:15:06,823 --> 00:15:09,932 L'intelligenza automatica può sbagliare 294 00:15:09,956 --> 00:15:13,056 in modi non paragonabili con l'approccio dell'errore umano, 295 00:15:13,080 --> 00:15:16,030 in modi che non ci aspetteremmo e per i quali siamo preparati. 296 00:15:16,054 --> 00:15:19,692 Sarebbe pessimo non ottenere un lavoro per il quale si è qualificati, 297 00:15:19,716 --> 00:15:23,443 ma sarebbe tre volte peggio se fosse causato da un errore software 298 00:15:23,467 --> 00:15:24,899 in qualche sua subroutine. 299 00:15:24,923 --> 00:15:26,502 (Risate) 300 00:15:26,526 --> 00:15:29,312 Nel maggio 2010, 301 00:15:29,336 --> 00:15:33,380 una crisi improvvisa a Wall Street, alimentata da un erroneo ciclo di calcolo 302 00:15:33,404 --> 00:15:36,432 nell'algoritmo di "vendi" di Wall Street 303 00:15:36,456 --> 00:15:40,640 ha spazzato via un valore di un trilione di dollari in 36 minuti. 304 00:15:41,722 --> 00:15:43,909 Non voglio pensare cosa significhi "errore" 305 00:15:43,933 --> 00:15:47,522 nel contesto di armi letali autonome. 306 00:15:49,894 --> 00:15:53,684 Si certo, gli umani sono sempre parziali. 307 00:15:53,708 --> 00:15:55,884 I decisori e controllori, 308 00:15:55,908 --> 00:15:59,401 nelle corti, nei notiziari, in guerra ... 309 00:15:59,425 --> 00:16:02,463 commettono errori; ma questo è proprio il mio punto. 310 00:16:02,487 --> 00:16:06,008 non possiamo sfuggire a queste difficili domande. 311 00:16:06,596 --> 00:16:10,112 Non possiamo delegare le nostre responsabilità alle macchine. 312 00:16:10,676 --> 00:16:14,884 (Applausi) 313 00:16:17,089 --> 00:16:21,536 L'intelligenza artificiale non ci dà un permesso di "uscire dall'etica" gratis. 314 00:16:22,742 --> 00:16:26,123 Lo scienziato sui dati Fred Benenson lo chiama "pulizia matematica". 315 00:16:26,147 --> 00:16:27,536 Necessitiamo del contrario. 316 00:16:27,560 --> 00:16:32,948 Verso gli algoritmi occorre coltivare la diffidenza, verifica e indagine. 317 00:16:33,080 --> 00:16:36,578 Occorre essere sicuri che di sia una responsabilità sugli algoritmi, 318 00:16:36,625 --> 00:16:39,070 metodi di verifica e una comprensibile trasparenza. 319 00:16:39,070 --> 00:16:42,510 È necessario accettare che portare matematica ed elaborazione 320 00:16:42,510 --> 00:16:45,478 in relazioni umane caotiche e di valore, 321 00:16:45,478 --> 00:16:47,408 non aggiunge obiettività; 322 00:16:47,408 --> 00:16:51,576 piuttosto, la complessità degli affari umani invade gli algoritmi. 323 00:16:51,576 --> 00:16:54,553 Si, possiamo e dovremmo usare il calcolo 324 00:16:54,553 --> 00:16:57,565 per aiutarci nel decidere meglio. 325 00:16:57,615 --> 00:17:02,473 Ma dobbiamo mantenere la responsabilità morale del giudizio, 326 00:17:02,473 --> 00:17:05,169 e usare algoritmi dentro quel contesto, 327 00:17:05,169 --> 00:17:09,741 non come gli strumenti per abdicare e dare in outsource 328 00:17:09,741 --> 00:17:13,300 le nostre responsibilità a qualcun altro come fra umani. 329 00:17:13,300 --> 00:17:16,018 La intelligenza delle macchine è qui. 330 00:17:16,018 --> 00:17:19,156 Significa che dobbiamo tenerci più forti 331 00:17:19,156 --> 00:17:22,041 ai valori ed etica umani. 332 00:17:22,041 --> 00:17:22,912 Grazie. 333 00:17:22,912 --> 00:17:24,110 (Applausi)