WEBVTT 00:00:00.739 --> 00:00:04.861 Ho iniziato il mio primo lavoro come programmatrice di computer 00:00:04.885 --> 00:00:06.841 nel mio primo anno di college - 00:00:06.865 --> 00:00:08.372 sostanzialmete un'adolescente. NOTE Paragraph 00:00:08.889 --> 00:00:12.281 Subito dopo ho cominciato a lavorare, scrivendo software in una azienda, 00:00:12.799 --> 00:00:16.434 un manager che lavorava nell'azienda mi venne a trovare dove stavo, 00:00:16.458 --> 00:00:17.726 e mi susssurrò, 00:00:18.229 --> 00:00:21.090 "Può lui dirmi se sto mentendo?" 00:00:21.806 --> 00:00:23.883 Non c'era nessun altro nella stanza. NOTE Paragraph 00:00:25.032 --> 00:00:29.421 "Chi può dire se stai mentendo? E perché sussurriamo?" NOTE Paragraph 00:00:30.266 --> 00:00:33.373 Il manager indicò il computer nella stanza. 00:00:33.397 --> 00:00:36.493 "Può lui dirmi se sto mentendo?" 00:00:37.613 --> 00:00:41.975 Ebbene, quel manager aveva una relazione con la segretaria alla reception. NOTE Paragraph 00:00:41.999 --> 00:00:43.111 (Risate) NOTE Paragraph 00:00:43.135 --> 00:00:44.901 Ed ero ancora una adolescente. 00:00:45.447 --> 00:00:47.466 Così gli sussurrai-urlai, 00:00:47.490 --> 00:00:51.114 "Si, il computer può dire se stai mentendo." NOTE Paragraph 00:00:51.138 --> 00:00:52.944 (Risate) NOTE Paragraph 00:00:52.968 --> 00:00:55.891 Bene, io risi, ma in effetti, la risata era nei mei confronti. 00:00:55.915 --> 00:00:59.183 Oggi, vi sono sistemi di calcolo 00:00:59.207 --> 00:01:02.755 che possono scoprire gli stati emotivi e pure la menzogna 00:01:02.779 --> 00:01:04.823 tramite la elaborazione dei volti umani. 00:01:05.248 --> 00:01:09.401 I pubblicitari ed anche i governi sono molto interessati. NOTE Paragraph 00:01:10.139 --> 00:01:12.181 Sono diventata programmatrice di computer 00:01:12.205 --> 00:01:15.318 perchè ero uno di quei giovani pazzi per matematica e scienze 00:01:15.942 --> 00:01:19.050 Ma lungo il mio percorso ho imparato a conoscere le armi nucleari, 00:01:19.074 --> 00:01:22.026 e mi sono proprio preoccupata dell'etica della scienza. 00:01:22.050 --> 00:01:23.254 Ero preoccupata. 00:01:23.278 --> 00:01:25.919 Tuttavia, a causa della mia situazione familiare, 00:01:25.943 --> 00:01:29.241 dovevo iniziare a lavorare al più presto. 00:01:29.265 --> 00:01:32.564 Così mi sono detta, hey, scegliamo un settore tecnico 00:01:32.588 --> 00:01:34.384 dove posso trovare facilmente un lavoro 00:01:34.408 --> 00:01:38.426 e dove non devo aver a che fare con qualche fastidiosa questione etica. 00:01:39.022 --> 00:01:40.551 Così ho scelto i computer. NOTE Paragraph 00:01:40.575 --> 00:01:41.679 (Risate) NOTE Paragraph 00:01:41.703 --> 00:01:45.113 Bene, ah, ah! Tutti ridono di me. 00:01:45.137 --> 00:01:47.891 Ora, gli scienziati del computer costruicono piattaforme 00:01:47.915 --> 00:01:52.124 che controllano ciò che un miliardo di persone vedono ogni giorno. 00:01:53.052 --> 00:01:56.874 Stanno sviluppando auto che potrebbero decidere chi investire. 00:01:57.707 --> 00:02:00.920 Stanno anche costruendo macchine, armi, 00:02:00.944 --> 00:02:03.229 che possono uccidere persone in guerra. 00:02:03.253 --> 00:02:06.024 C'è sempre l'etica alla fine. NOTE Paragraph 00:02:07.183 --> 00:02:09.241 L'intelligenza delle macchine è qui. 00:02:09.823 --> 00:02:13.297 Ora utilizziamo il computer per prendere ogni tipo di decisioni, 00:02:13.321 --> 00:02:15.207 ma anche nuovi tipi di decisioni. 00:02:15.231 --> 00:02:20.403 Stiamo ponendo al computer domande che non hanno una sola risposta giusta, 00:02:20.427 --> 00:02:21.629 che sono soggettive 00:02:21.653 --> 00:02:23.978 e sono aperte e cariche di valore. NOTE Paragraph 00:02:24.002 --> 00:02:25.760 Domandiamo cose come, 00:02:25.784 --> 00:02:27.434 "Chi dovrebbe essere assunto?" 00:02:28.096 --> 00:02:30.855 "Quale update e di quale amico dovrebbe essere mostrato?" 00:02:30.879 --> 00:02:33.385 "Quale pregiudicato sarà più probabilmente recidivo?" 00:02:33.514 --> 00:02:36.568 "Quale notizia o film dovrebbe essere consigliato alla gente?" NOTE Paragraph 00:02:36.592 --> 00:02:39.964 Certo, stiamo usando il computer da un po', 00:02:39.988 --> 00:02:41.505 ma questo è diverso. 00:02:41.529 --> 00:02:43.596 Questa è un svolta storica, 00:02:43.620 --> 00:02:48.957 perchè non possiamo poggiarci sul computer per queste decisioni soggettive 00:02:48.981 --> 00:02:54.401 allo stesso modo in cui si usa il computer per far volare gli aerei, costruire ponti, 00:02:54.425 --> 00:02:55.684 andare sulla luna. 00:02:56.449 --> 00:02:59.708 Sono più sicuri gli aerei? Vacillano e cadono i ponti? 00:02:59.732 --> 00:03:04.230 Qui abbiamo chiari livelli di riferimento, su cui concordiamo, 00:03:04.254 --> 00:03:06.493 ed abbiamo le leggi naturali per guidarci. 00:03:06.517 --> 00:03:09.911 Non abbiamo tali riferimenti per decidere 00:03:09.935 --> 00:03:13.898 nelle complicate faccende umane. NOTE Paragraph 00:03:13.922 --> 00:03:18.159 Per rendere le cose più complicate, il software sta diventando più potente, 00:03:18.183 --> 00:03:21.956 ma anche meno trasparente e più complesso. 00:03:22.542 --> 00:03:24.582 Recentemente, nell'ultima decennio, 00:03:24.606 --> 00:03:27.335 algoritmi complessi hanno fatto notevoli passi avanti. 00:03:27.359 --> 00:03:29.349 Possono riconoscere le facce umane. 00:03:29.985 --> 00:03:32.040 Possono decifrare la scrittura manuale. 00:03:32.316 --> 00:03:35.689 possono individuare le frodi sulle carte di credito e bloccare lo spam 00:03:35.689 --> 00:03:37.770 e possono tradurre le lingue. 00:03:37.770 --> 00:03:40.684 Possono individuare i tumori nelle diagnostica per immagini. 00:03:40.684 --> 00:03:42.933 Possono battere gli umani a scacchi e nel GO NOTE Paragraph 00:03:43.264 --> 00:03:47.768 Molti di questi progressi derivano dal metodo di "apprendimento automatico". 00:03:48.175 --> 00:03:51.502 L'apprendimento automatico è diverso dalla tradizionale programmazione, 00:03:51.502 --> 00:03:54.971 dove si danno al computer istruzioni dettagliate, precise ed accurate. 00:03:55.378 --> 00:03:59.560 Sembra di più come se forniste al sistema molti dati, 00:03:59.584 --> 00:04:01.234 Inclusi dati non strutturati, 00:04:01.234 --> 00:04:03.642 del tipo che generiamo nella nostre vite digitali. 00:04:03.642 --> 00:04:06.296 E il sistema impara maneggiando quei dati. 00:04:06.669 --> 00:04:08.195 Ed anche, crucialmente, 00:04:08.219 --> 00:04:12.599 quei sistemi non lavorano con la logica di una sola risposta. 00:04:12.623 --> 00:04:15.702 Non forniscono una semplice risposta; è piuttosto probabilistica: 00:04:15.702 --> 00:04:19.089 "Questo è probabilmente quello che state cercando." NOTE Paragraph 00:04:20.023 --> 00:04:23.093 Ora, la parte positiva è: questo metodo è veramente potente. 00:04:23.117 --> 00:04:25.193 Il capo sistema AI di Google lo ha chiamato 00:04:25.217 --> 00:04:27.414 "la irragionevole efficacia dei dati." 00:04:27.791 --> 00:04:29.144 La parte negativa è, 00:04:29.738 --> 00:04:32.809 non capiamo veramente cosa il sistema ha imparato. 00:04:32.833 --> 00:04:34.420 Infatti, questa è la sua forza. 00:04:34.946 --> 00:04:38.744 Ciò è meno simile a dare istruzioni ad un computer; 00:04:39.200 --> 00:04:43.264 è più simile all'istruire un cucciolo-macchina 00:04:43.288 --> 00:04:45.659 che noi non capiamo o controlliamo veramente 00:04:46.362 --> 00:04:47.913 Questo è il nostro problema. 00:04:48.427 --> 00:04:52.689 Il problema è quando questi sistemi di intelligenza artificiale lavorano male. 00:04:52.713 --> 00:04:56.253 Vi è anche il problema di quando lavorano bene, 00:04:56.277 --> 00:04:59.905 perchè non sappiamo chi è chi quando il problema è soggettivo. 00:04:59.929 --> 00:05:02.268 Non sappiamo come il computer ragioni. NOTE Paragraph 00:05:03.493 --> 00:05:07.176 Così, considerate un algoritmo per le assunzioni-- 00:05:08.123 --> 00:05:12.434 un sistema per assumere la gente, usando l'apprendimento automatico. 00:05:13.052 --> 00:05:16.631 Un tale sistema sarebbe stato formato sui dati dei precedenti assunti 00:05:16.655 --> 00:05:19.246 e istruito per trovare ed assumere 00:05:19.270 --> 00:05:22.308 le persone simili a quelli più performanti in azienda. 00:05:22.814 --> 00:05:25.714 Sembra giusto. Una volta ho partecipato ad una conferenza 00:05:25.714 --> 00:05:29.269 che coinvolgeva i responsabili delle Risorse Umane e i manager aziendali, 00:05:29.269 --> 00:05:32.489 persone ad alto livello, che usavano questo sistema per assumere. 00:05:32.489 --> 00:05:33.822 Erano super entusiasti. 00:05:33.822 --> 00:05:38.299 Pensavano che ciò avrebbe portato ad assunzioni più oggettive, meno distorte, 00:05:38.323 --> 00:05:41.323 e dato alle donne e alle minoranze una migliore opportunità 00:05:41.347 --> 00:05:43.535 rispetto a manager umani influenzabili. NOTE Paragraph 00:05:43.559 --> 00:05:46.402 E guarda - le assunzioni fatte dagli uomini sono distorte. 00:05:47.099 --> 00:05:48.284 Lo so. 00:05:48.308 --> 00:05:51.313 Voglio dire, in uno dei miei primi lavori, come programmatrice, 00:05:51.337 --> 00:05:55.205 la manager da cui dipendevo qualche volta scendeva dove stavo 00:05:55.229 --> 00:05:58.982 molto presto alla mattina o molto tardi nel pomeriggio, 00:05:59.006 --> 00:06:02.068 e mi diceva, "Zeynep, andiamo a pranzo!" 00:06:02.724 --> 00:06:04.891 Ero perplessa per la strana tempistica. 00:06:04.915 --> 00:06:07.044 Sono le 4 del pomeriggio. Pranzo? 00:06:07.068 --> 00:06:10.162 Ero al verde, ed è un pranzo gratis. Quindi andavo sempre. 00:06:10.618 --> 00:06:12.685 Più tardi capii cosa stava accadendo. 00:06:12.709 --> 00:06:17.255 La manager da cui dipendevo non aveva confessato ai livelli superiori 00:06:17.279 --> 00:06:20.392 che il programmatore da lei assunto per un importante lavoro era adolescente 00:06:20.416 --> 00:06:24.346 che indossava jeans e sneaker al lavoro. 00:06:25.174 --> 00:06:27.376 Lavoravo bene, solo sembravo sbagliata, 00:06:27.400 --> 00:06:29.099 ed era l'età e genere sbagliato. NOTE Paragraph 00:06:29.123 --> 00:06:32.469 Così asssumere senza considerare genere e razza 00:06:32.493 --> 00:06:34.358 certamante mi sembra giusto. 00:06:35.031 --> 00:06:38.372 Ma con questi sistemi, è più complicato, ed ecco perchè: 00:06:38.968 --> 00:06:44.759 Ad oggi, i sistemi di calcolo possono desumere qualsiasi cosa su di voi 00:06:44.783 --> 00:06:46.655 dalle vostre briciole digitali, 00:06:46.679 --> 00:06:49.012 pur se non avete reso pubbliche quelle cose. 00:06:49.506 --> 00:06:52.433 Possono desumere il vostro orientamento sessuale, 00:06:52.994 --> 00:06:54.300 caratteristiche personali, 00:06:54.859 --> 00:06:56.232 orientamento politico. 00:06:56.830 --> 00:07:00.515 Hanno potenza predittiva con alto livello di accuratezza. 00:07:01.362 --> 00:07:03.940 Ricordate -- per cose che non avete mai dichiarato. 00:07:03.964 --> 00:07:05.555 Questa è l'inferenza. NOTE Paragraph 00:07:05.579 --> 00:07:08.840 Ho un'amica che ha sviluppato un sistema di elaborazione 00:07:08.864 --> 00:07:12.505 per predire la probabilità della depressione postpartum 00:07:12.529 --> 00:07:13.945 dai dati delle reti sociali. 00:07:14.676 --> 00:07:16.103 Risultati impressionanti! 00:07:16.492 --> 00:07:19.849 Il suo sistema può predire la probabilità della depressione 00:07:19.873 --> 00:07:23.776 mesi prima dell'insorgere di un qualsiasi sintomo -- 00:07:23.800 --> 00:07:25.173 mesi prima. 00:07:25.197 --> 00:07:27.443 Nessun sintomo, ma c'è predizione. 00:07:27.467 --> 00:07:32.279 Lei spera che sarà usato per anticipare un intervento. Ottimo! 00:07:32.911 --> 00:07:34.951 Ma ora consideratelo in una assunzione. NOTE Paragraph 00:07:36.027 --> 00:07:39.073 Così a quella conferenza dei manager delle risorse umane, 00:07:39.097 --> 00:07:43.806 ho avvicinato un manager di alto livello in una grande azienda, 00:07:43.830 --> 00:07:48.408 e le ho detto, "Guarda, che succederebbe se, alla tua insaputa, 00:07:48.432 --> 00:07:54.981 il vostro sistema elimina le persone con un'alta probabilità di depressione? 00:07:55.761 --> 00:07:59.137 Non sono depresse ora, magari forse in futuro, più probabilmente. 00:07:59.923 --> 00:08:03.329 Che succederebbe se eliminasse le donne più probabilmente incinte 00:08:03.353 --> 00:08:05.939 nei prossimi uno o due anni ma che non lo sono ora? 00:08:06.844 --> 00:08:12.480 E se assumeste persone aggressive perchè questa è la vostra cultura aziendale?" 00:08:13.173 --> 00:08:15.864 Non potete parlarne guardando solo alle quote di genere. 00:08:15.888 --> 00:08:17.390 Queste si possono bilanciare. 00:08:17.414 --> 00:08:20.971 E dato che ciò è apprendimento automatico, non programmazione tradizionale, 00:08:20.995 --> 00:08:25.902 non c'è alcuna variabile di codifica etichettata "alto rischio di depressione", 00:08:25.926 --> 00:08:27.759 "maggior rischio di gravidanza," 00:08:27.783 --> 00:08:29.517 "gradazione di maschio aggressivo." 00:08:29.995 --> 00:08:33.674 Non solo non sapete su cosa il vostro sistema basi la selezione, 00:08:33.698 --> 00:08:36.021 ma neppure sapete dove cominciare a guardare. 00:08:36.045 --> 00:08:37.291 E' una "scatola nera". 00:08:37.315 --> 00:08:40.122 Ha una potenza predittiva ma non la capite. NOTE Paragraph 00:08:40.486 --> 00:08:42.855 "Quali garanzie," chiesi, "avete 00:08:42.879 --> 00:08:46.552 per essere sicuri che la scatola nera non sta facendo qualcosa losco?" 00:08:48.863 --> 00:08:52.741 Mi ha guardato come se avessi schiacciato la coda a 10 cuccioli. NOTE Paragraph 00:08:52.765 --> 00:08:54.013 (Risate) NOTE Paragraph 00:08:54.037 --> 00:08:56.078 Mi fissò e disse, 00:08:56.556 --> 00:09:00.889 "Non voglio sentire altro su questo." 00:09:01.458 --> 00:09:03.492 E si girò andandosene via. 00:09:04.064 --> 00:09:05.660 Considerate - non era maleducata. 00:09:05.660 --> 00:09:11.882 Era chiaro: quello che non so non è un mio problema. Va via, sguardo assassino. NOTE Paragraph 00:09:11.906 --> 00:09:13.152 (Risate) NOTE Paragraph 00:09:13.862 --> 00:09:17.701 Vedete, un tale sistema può anche essere meno influenzata 00:09:17.725 --> 00:09:19.828 in molti modi rispetto ai manager umani. 00:09:19.852 --> 00:09:21.998 E potrebbe avere senso economico. 00:09:22.573 --> 00:09:24.223 Ma può anche portare 00:09:24.247 --> 00:09:28.995 a una stabile, ma furtiva chiusura dal mercato del lavoro 00:09:29.019 --> 00:09:31.312 di gente più a rischio di depressione. 00:09:31.753 --> 00:09:34.349 Questo è il tipo di società che vogliamo costruire, 00:09:34.373 --> 00:09:36.658 senza neppure sapere che lo abbiamo fatto, 00:09:36.682 --> 00:09:40.646 poichè abbiamo lasciato la decisione a macchine che non comprendiamo del tutto? NOTE Paragraph 00:09:41.265 --> 00:09:42.723 Un altro problema è questo: 00:09:43.314 --> 00:09:47.766 quei sistemi sono spesso addestrati con dati generati dalle nostre azioni, 00:09:47.790 --> 00:09:49.606 di impronta umana. 00:09:50.188 --> 00:09:53.996 Bene, possono proprio riflettere le nostre distorsioni o pregiudizi, 00:09:54.020 --> 00:09:57.613 e questi sistemi si portano dietro i nostri pregiudizi 00:09:57.637 --> 00:09:58.950 e li amplificano 00:09:58.974 --> 00:10:00.392 e ce li rispecchiano, 00:10:00.416 --> 00:10:01.878 mentre ci diciamo, 00:10:01.902 --> 00:10:05.019 "Stiamo facendo solo elaborazioni oggettive e neutrali." NOTE Paragraph 00:10:06.314 --> 00:10:08.991 Ricerche effettuate su Google trovano, 00:10:10.134 --> 00:10:15.447 che è meno probabile vengano mostrati alle donne avvisi per lavori ben pagati. 00:10:16.463 --> 00:10:18.993 E cercando nomi di Afro-Americani 00:10:19.017 --> 00:10:23.723 è più probabile trovare avvisi alludenti a storie criminali, 00:10:23.747 --> 00:10:25.314 anche quando non ce ne sono. 00:10:26.693 --> 00:10:30.242 Questi sono i pregiudizi nascosti e gli algoritmi a scatola nera 00:10:30.266 --> 00:10:34.239 che i ricercatori talvolta scoprono ma che altre volte non conosciamo, 00:10:34.263 --> 00:10:36.924 possono avere la conseguenza di alterare la vita. NOTE Paragraph 00:10:37.958 --> 00:10:42.117 In Wisconsin, un accusato è stato condannato a sei anni di prigione 00:10:42.141 --> 00:10:43.496 per aver eluso la polizia. 00:10:44.824 --> 00:10:46.010 Si può non saperlo, 00:10:46.034 --> 00:10:50.032 ma gli algoritmi sono sempre più usati per prendere decisioni giudiziarie. 00:10:50.056 --> 00:10:53.011 Egli voleva sapere: come è stato calcolato il punteggio? 00:10:53.795 --> 00:10:55.460 Ma è una scatola nera sul mercato 00:10:55.484 --> 00:10:59.689 L'azienda si è rifiutata di far verificare il suo algoritmo in una corte pubblica. 00:11:00.396 --> 00:11:05.928 Ma ProPublica, associazione investigativa non-profit, ha verificato quell'algoritmo 00:11:05.952 --> 00:11:07.968 con i dati pubblici disponibili, 00:11:07.992 --> 00:11:10.308 trovando che i risultati erano influenzati 00:11:10.332 --> 00:11:13.961 e la sua potenza predittiva era niente più di una possibilità, 00:11:13.985 --> 00:11:18.401 e che era sbagliato etichettare accusati neri come futuri criminali 00:11:18.425 --> 00:11:22.320 a livello doppio degli accusati bianchi. NOTE Paragraph 00:11:23.891 --> 00:11:25.455 Così considerate questo caso: 00:11:26.103 --> 00:11:29.955 questa donna è in ritardo nel prelevare la sua figlioccia 00:11:29.979 --> 00:11:32.054 da scuola nella Contea di Broward, Florida, 00:11:32.757 --> 00:11:35.113 correndo per la strada con un suo amico. 00:11:35.137 --> 00:11:39.236 Vedono una bici da ragazzo non bloccata ed uno scooter in una veranda 00:11:39.260 --> 00:11:40.856 e stupidamente vi saltano su. 00:11:40.856 --> 00:11:43.575 Come stavano scappando via, una donna uscì fuori e disse, 00:11:43.575 --> 00:11:45.744 "Ehi, quella bicicletta è mia!" 00:11:45.768 --> 00:11:49.062 Essi la lascarono, andarono via, ma furono arrestati. NOTE Paragraph 00:11:49.086 --> 00:11:52.723 Aveva sbagliato, era stata sciocca, ma era appena diventata diciottenne. 00:11:52.747 --> 00:11:55.291 Fu condannata per un paio di crimini giovanili. 00:11:55.808 --> 00:12:00.993 Nel frattempo, quell'uomo fu arrestato per furto di merce al Home Depot -- 00:12:01.017 --> 00:12:03.941 merce per 85 dollari di valore, un simile piccolo crimine. 00:12:04.766 --> 00:12:09.325 Ma lui aveva due precedenti condanne per rapina a mano armata 00:12:09.955 --> 00:12:13.437 Ma l'algoritmo aveva valutato lei ad alto rischio, non lui. 00:12:14.746 --> 00:12:18.620 Due anni dopo, ProPublica trovò che lei non era stata recidiva. 00:12:18.644 --> 00:12:21.194 Ma le fu duro trovare lavoro, visti i precedenti. 00:12:21.218 --> 00:12:23.294 Lui, d'altra parte, fu recidivo 00:12:23.318 --> 00:12:27.154 ed ora è in prigione per 8 anni a causa di un successivo crimine. 00:12:28.088 --> 00:12:31.457 Chiaramente, ci bisogna verificare le scatole nere 00:12:31.481 --> 00:12:34.096 per non dare loro questo incontrollato potere. NOTE Paragraph 00:12:34.120 --> 00:12:36.999 (Applausi) NOTE Paragraph 00:12:38.087 --> 00:12:42.329 Le verifiche sono importanti, ma da sole non risolvono tutti i problemi. 00:12:42.353 --> 00:12:45.101 Prendete l'algoritmo di Facebook per caricare le news-- 00:12:45.125 --> 00:12:49.968 sapete, quello che riordina tutto e decide cosa mostrarvi 00:12:49.992 --> 00:12:52.276 da tutti gli amici e le pagine seguite. 00:12:52.898 --> 00:12:55.173 Dovrebbe mostrarvi un'altra foto di bimbo? NOTE Paragraph 00:12:55.197 --> 00:12:56.393 (Risate) NOTE Paragraph 00:12:56.417 --> 00:12:59.013 Una nota imbronciata da un conoscente? 00:12:59.449 --> 00:13:01.305 Una importante ma scabrosa notizia? 00:13:01.329 --> 00:13:02.811 Non c'è una risposta giusta. 00:13:02.835 --> 00:13:05.494 Facebook ottimizza per attraervi al loro sito: 00:13:05.518 --> 00:13:06.933 i like, condividi, commenti NOTE Paragraph 00:13:08.168 --> 00:13:10.864 Nell'agosto 2014, 00:13:10.888 --> 00:13:14.660 proteste scoppiarono a Ferguson, Missouri, dopo l'uccisione di 00:13:14.660 --> 00:13:17.991 un ragazzo Afro-Americano da parte di un poliziotto bianco, 00:13:18.015 --> 00:13:19.585 in circostanze oscure. 00:13:19.974 --> 00:13:21.981 La notizia delle proteste era presente 00:13:22.005 --> 00:13:24.690 sul mio caricatore Twitter non filtrato da algoritmi, 00:13:24.714 --> 00:13:26.664 ma nulla sul mio Facebook. 00:13:27.182 --> 00:13:29.076 Era a causa dei miei amici su Facebook? 00:13:29.076 --> 00:13:31.332 Ho disabilitato l'algoritmo di Facebook, 00:13:31.472 --> 00:13:34.320 che non è facile, poichè Facebook vuole mantenervi 00:13:34.344 --> 00:13:36.380 sotto il controllo dell'algoritmo, 00:13:36.404 --> 00:13:38.642 e vidi che i miei amici parlavano di questo. 00:13:38.666 --> 00:13:41.175 Era proprio l'algoritmo che non me lo mostrava. 00:13:41.199 --> 00:13:44.241 Ho approfondito ed ho trovato che è un problema diffuso. NOTE Paragraph 00:13:44.265 --> 00:13:48.078 La storia di Ferguson non è facile per l'algoritmo. 00:13:48.102 --> 00:13:49.273 Non è likable. 00:13:49.297 --> 00:13:50.849 Chi sta cliccando su "like?" 00:13:51.500 --> 00:13:53.706 Non è neppure facile da commentarsi. 00:13:53.730 --> 00:13:55.101 Senza like e commenti, 00:13:55.125 --> 00:13:58.417 l'algoritmo tende a mostrare la notizia ad ancora meno persone, 00:13:58.441 --> 00:13:59.983 così non riusciamo a vederla. 00:14:00.946 --> 00:14:02.174 Invece, questa settimana, 00:14:02.198 --> 00:14:04.496 l'algoritmo di Facebook ha evidenziato 00:14:04.520 --> 00:14:06.746 questo: il ALS Ice Bucket Challenge. 00:14:06.770 --> 00:14:10.512 Causa benefica; svuota acqua ghiacciata, dona alla beneficenza, bene. 00:14:10.536 --> 00:14:12.440 Ottimo per agevolare l'algoritmo. 00:14:13.219 --> 00:14:15.832 Una decisione automatica è stata presa per noi 00:14:15.856 --> 00:14:19.353 Una conversazione molto importante ma scabrosa 00:14:19.377 --> 00:14:20.932 può essere moderata, 00:14:20.956 --> 00:14:23.652 essendo Facebook l'unica via trasmissiva. NOTE Paragraph 00:14:24.117 --> 00:14:27.914 Ora, infine, quei sistemi possono sbagliare 00:14:27.938 --> 00:14:30.674 in modi che non somigliano a sistemi umani. 00:14:30.698 --> 00:14:33.620 Vi ricordate Watson, la macchina intelligente di IBM 00:14:33.644 --> 00:14:36.772 che ha spazzato via i contendenti umani a Jeopardy? 00:14:37.131 --> 00:14:38.559 Era un grande giocatore. 00:14:38.583 --> 00:14:42.239 Ma poi, alla finale di Jeopardy, fu posta questa domanda a Watson: 00:14:42.239 --> 00:14:45.911 "Il suo più grande aeroporto è intitolato a un eroe della II Guerra Mondiale, 00:14:45.911 --> 00:14:48.177 il suo secondo più grande a una sua battaglia." NOTE Paragraph 00:14:48.177 --> 00:14:49.779 (Musica della finale di Jeopardy) NOTE Paragraph 00:14:49.779 --> 00:14:50.764 Chicago. 00:14:50.788 --> 00:14:52.158 I due umani risposero bene. 00:14:52.697 --> 00:14:57.045 Watson, da altra parte, rispose "Toronto" -- 00:14:57.069 --> 00:14:58.887 per una città nella categoria USA! 00:14:59.596 --> 00:15:02.497 L'impressionante sistema aveva sbagliato 00:15:02.521 --> 00:15:06.172 come un umano non avrebbbe mai fatto, neppure un alunno delle elementari. NOTE Paragraph 00:15:06.823 --> 00:15:09.932 L'intelligenza automatica può sbagliare 00:15:09.956 --> 00:15:13.056 in modi non paragonabili con l'approccio dell'errore umano, 00:15:13.080 --> 00:15:16.030 in modi che non ci aspetteremmo e per i quali siamo preparati. 00:15:16.054 --> 00:15:19.692 Sarebbe pessimo non ottenere un lavoro per il quale si è qualificati, 00:15:19.716 --> 00:15:23.443 ma sarebbe tre volte peggio se fosse causato da un errore software 00:15:23.467 --> 00:15:24.899 in qualche sua subroutine. NOTE Paragraph 00:15:24.923 --> 00:15:26.502 (Risate) NOTE Paragraph 00:15:26.526 --> 00:15:29.312 Nel maggio 2010, 00:15:29.336 --> 00:15:33.380 una crisi improvvisa a Wall Street, alimentata da un erroneo ciclo di calcolo 00:15:33.404 --> 00:15:36.432 nell'algoritmo di "vendi" di Wall Street 00:15:36.456 --> 00:15:40.640 ha spazzato via un valore di un trilione di dollari in 36 minuti. 00:15:41.722 --> 00:15:43.909 Non voglio pensare cosa significhi "errore" 00:15:43.933 --> 00:15:47.522 nel contesto di armi letali autonome. NOTE Paragraph 00:15:49.894 --> 00:15:53.684 Si certo, gli umani sono sempre parziali. 00:15:53.708 --> 00:15:55.884 I decisori e controllori, 00:15:55.908 --> 00:15:59.401 nelle corti, nei notiziari, in guerra ... 00:15:59.425 --> 00:16:02.463 commettono errori; ma questo è proprio il mio punto. 00:16:02.487 --> 00:16:06.008 non possiamo sfuggire a queste difficili domande. 00:16:06.596 --> 00:16:10.112 Non possiamo delegare le nostre responsabilità alle macchine. NOTE Paragraph 00:16:10.676 --> 00:16:14.884 (Applausi) NOTE Paragraph 00:16:17.089 --> 00:16:21.536 L'intelligenza artificiale non ci dà un permesso di "uscire dall'etica" gratis. NOTE Paragraph 00:16:22.742 --> 00:16:26.123 Lo scienziato sui dati Fred Benenson lo chiama "pulizia matematica". 00:16:26.147 --> 00:16:27.536 Necessitiamo del contrario. 00:16:27.560 --> 00:16:32.948 Verso gli algoritmi occorre coltivare la diffidenza, verifica e indagine. 00:16:33.080 --> 00:16:36.578 Occorre essere sicuri che di sia una responsabilità sugli algoritmi, 00:16:36.625 --> 00:16:39.070 metodi di verifica e una comprensibile trasparenza. 00:16:39.070 --> 00:16:42.510 È necessario accettare che portare matematica ed elaborazione 00:16:42.510 --> 00:16:45.478 in relazioni umane caotiche e di valore, 00:16:45.478 --> 00:16:47.408 non aggiunge obiettività; 00:16:47.408 --> 00:16:51.576 piuttosto, la complessità degli affari umani invade gli algoritmi. 00:16:51.576 --> 00:16:54.553 Si, possiamo e dovremmo usare il calcolo 00:16:54.553 --> 00:16:57.565 per aiutarci nel decidere meglio. 00:16:57.615 --> 00:17:02.473 Ma dobbiamo mantenere la responsabilità morale del giudizio, 00:17:02.473 --> 00:17:05.169 e usare algoritmi dentro quel contesto, 00:17:05.169 --> 00:17:09.741 non come gli strumenti per abdicare e dare in outsource 00:17:09.741 --> 00:17:13.300 le nostre responsibilità a qualcun altro come fra umani. 00:17:13.300 --> 00:17:16.018 La intelligenza delle macchine è qui. NOTE Paragraph 00:17:16.018 --> 00:17:19.156 Significa che dobbiamo tenerci più forti 00:17:19.156 --> 00:17:22.041 ai valori ed etica umani. 00:17:22.041 --> 00:17:22.912 Grazie. NOTE Paragraph 00:17:22.912 --> 00:17:24.110 (Applausi)