WEBVTT 00:00:00.975 --> 00:00:02.571 Gli algoritmi sono ovunque. 00:00:04.111 --> 00:00:07.236 Selezionano e separano i vincitori dai perdenti. 00:00:08.019 --> 00:00:10.127 I vincitori ottengono il lavoro 00:00:10.127 --> 00:00:12.160 o l'offerta di una buona carta di credito. 00:00:12.160 --> 00:00:14.955 I perdenti non ottengono neanche un colloquio di lavoro 00:00:15.590 --> 00:00:17.627 o pagano di più per l'assicurazione. 00:00:18.197 --> 00:00:21.746 Siamo valutati da formule segrete che non comprendiamo 00:00:22.675 --> 00:00:25.892 che spesso non prevedono sistemi cui poter fare ricorso. 00:00:26.810 --> 00:00:28.556 Questo solleva la domanda: 00:00:28.560 --> 00:00:31.473 e se gli algoritmi si sbagliano? NOTE Paragraph 00:00:32.570 --> 00:00:34.734 Per creare algoritmi servono due cose: 00:00:34.734 --> 00:00:36.909 servono dati, cos'è avvenuto in passato, 00:00:36.909 --> 00:00:38.820 e una definizione di successo, 00:00:38.820 --> 00:00:41.321 ciò che state cercando e spesso sperando di ottenere. 00:00:41.321 --> 00:00:46.272 L'algoritmo si verifica cercando, risolvendo. 00:00:46.276 --> 00:00:49.745 Gli algoritmi chiariscono con precisione ciò che è associato al successo, 00:00:49.745 --> 00:00:52.202 quale situazione porta al successo. NOTE Paragraph 00:00:52.881 --> 00:00:54.643 In realtà, tutti usano algoritmi. 00:00:54.667 --> 00:00:57.379 Solo che non li formalizzano attraverso un codice scritto. 00:00:57.379 --> 00:00:58.757 Vi faccio un esempio. 00:00:58.761 --> 00:01:02.097 Io uso un algoritmo ogni giorno per cucinare per la mia famiglia. 00:01:02.101 --> 00:01:03.597 I dati che uso 00:01:04.394 --> 00:01:06.073 sono ingredienti della mia cucina, 00:01:06.077 --> 00:01:07.634 il tempo che ho, 00:01:07.634 --> 00:01:08.881 l'ambizione che ho, 00:01:08.885 --> 00:01:10.614 e curo quei dati. 00:01:10.618 --> 00:01:14.869 Non considero cibo quei pacchettini di noodles istantanei. NOTE Paragraph 00:01:14.873 --> 00:01:16.762 (Risate) NOTE Paragraph 00:01:16.766 --> 00:01:18.651 La mia definizione di successo é: 00:01:18.655 --> 00:01:21.494 un pasto è ben riuscito se i miei figli mangiano verdure. 00:01:21.981 --> 00:01:25.035 Sarebbe molto diverso se fosse mio figlio più piccolo a decidere. 00:01:25.039 --> 00:01:27.847 Lui direbbe che il successo è mangiare tanta Nutella. 00:01:28.839 --> 00:01:31.399 Ma sono io a scegliere cos'è il successo. 00:01:31.399 --> 00:01:34.156 Comando io. È la mia opinione che conta. 00:01:34.166 --> 00:01:36.845 Questa è la prima regola degli algoritmi. NOTE Paragraph 00:01:36.859 --> 00:01:40.039 Gli algoritmi sono opinioni racchiuse in codici. 00:01:41.442 --> 00:01:43.212 È molto diverso da ciò che pensate, 00:01:43.212 --> 00:01:45.809 che la maggior parte della gente pensa degli algoritmi. 00:01:45.809 --> 00:01:49.753 Si pensa che gli algoritmi siano oggettivi e realistici e scientifici. 00:01:50.387 --> 00:01:52.086 È un inganno del marketing. 00:01:53.269 --> 00:01:55.394 È un inganno del marketing anche 00:01:55.418 --> 00:01:58.582 quello di minacciarvi con gli algoritmi, 00:01:58.596 --> 00:02:02.257 per convincervi a fidarvi degli algoritmi e a temerli 00:02:02.281 --> 00:02:05.079 perché vi fidate e avete paura delle scienze matematiche. 00:02:05.567 --> 00:02:10.397 Si può sbagliare tanto se riponiamo una fiducia cieca in grandi masse di dati. NOTE Paragraph 00:02:11.684 --> 00:02:14.991 Lei è Kiri Soares. È preside in una scuola superiore di Brooklyn. 00:02:14.991 --> 00:02:17.667 Nel 2011, mi disse che i suoi docenti erano valutati 00:02:17.681 --> 00:02:20.402 con un complicato e segreto algoritmo 00:02:20.402 --> 00:02:22.271 chiamato "modello di valore aggiunto". 00:02:22.505 --> 00:02:25.051 Le ho detto: "Trova qual è la formula e mostramela. 00:02:25.051 --> 00:02:27.162 Così te la spiego." 00:02:27.166 --> 00:02:29.181 Mi disse: "Ho provato ad avere la formula, 00:02:29.181 --> 00:02:32.223 ma il referente del mio Dipartimento ha detto che era matematica 00:02:32.223 --> 00:02:33.863 e non l'avrei capita". NOTE Paragraph 00:02:34.996 --> 00:02:36.468 Le cose peggiorano. 00:02:36.488 --> 00:02:40.158 Il New York Post ha fatto una richiesta secondo il Freedom of Information Act, 00:02:40.158 --> 00:02:43.201 ha preso i nomi di tutti gli insegnanti e i loro punteggi 00:02:43.201 --> 00:02:46.207 e li ha divulgati esponendo gli insegnanti alla pubblica gogna. 00:02:46.884 --> 00:02:49.574 Quando ho chiesto le formule, il codice sorgente, 00:02:49.574 --> 00:02:50.968 attraverso gli stessi canali, 00:02:50.968 --> 00:02:53.117 mi è stato detto che non potevo averle. 00:02:53.121 --> 00:02:54.397 Mi è stato negato. 00:02:54.401 --> 00:02:55.605 Poi ho scoperto 00:02:55.605 --> 00:02:58.465 che nessuno a New York aveva accesso a quella formula. 00:02:58.489 --> 00:03:00.054 Nessuno la capiva. 00:03:01.929 --> 00:03:05.153 Poi qualcuno molto intelligente è stato coinvolto, Gary Rubenstein. 00:03:05.177 --> 00:03:08.798 Ha scoperto che 665 insegnanti presenti nei dati del New York Post 00:03:08.802 --> 00:03:10.708 in realtà avevano due punteggi. 00:03:10.718 --> 00:03:12.593 Questo può accadere se insegnano 00:03:12.597 --> 00:03:15.050 matematica in seconda e in terza media. 00:03:15.050 --> 00:03:16.888 Decise di rappresentarli graficamente. 00:03:16.888 --> 00:03:18.785 Ogni punto rappresenta un insegnante. NOTE Paragraph 00:03:19.104 --> 00:03:21.467 (Risate) NOTE Paragraph 00:03:21.467 --> 00:03:23.028 Cos'è questo? NOTE Paragraph 00:03:23.052 --> 00:03:24.329 (Risate) NOTE Paragraph 00:03:24.333 --> 00:03:27.799 Non avrebbero mai dovuto usarlo per una valutazione individuale. 00:03:27.803 --> 00:03:30.019 Sembra un generatore casuale di numeri. NOTE Paragraph 00:03:30.019 --> 00:03:32.263 (Applauso) NOTE Paragraph 00:03:32.263 --> 00:03:33.369 E lo era. 00:03:33.369 --> 00:03:34.909 Lei è Sarah Wysocki. 00:03:34.909 --> 00:03:37.288 È stata licenziata con altri 205 insegnanti 00:03:37.288 --> 00:03:39.990 dal distretto scolastico di Washington DC, 00:03:40.004 --> 00:03:42.993 nonostante le referenze altamente positive da parte del preside 00:03:42.993 --> 00:03:45.125 e da parte dei genitori dei suoi alunni. NOTE Paragraph 00:03:45.320 --> 00:03:47.246 So a cosa stanno pensando molti di voi, 00:03:47.246 --> 00:03:50.183 soprattutto analisti, gli esperti di Intelligenza Artificiale. 00:03:50.183 --> 00:03:54.183 State pensando: "Io non farei mai degli algoritmi così incoerenti". 00:03:54.853 --> 00:03:56.556 Ma gli algoritmi possono sbagliare, 00:03:56.566 --> 00:04:01.078 perfino causare effetti disastrosi nonostante le buone intenzioni. 00:04:02.531 --> 00:04:04.824 E mentre un aeroplano progettato male 00:04:04.824 --> 00:04:06.935 precipita e può essere visto da tutti, 00:04:06.959 --> 00:04:08.809 un algoritmo progettato male 00:04:10.245 --> 00:04:14.110 può essere utilizzato per molto tempo creando silenziosamente il caos. NOTE Paragraph 00:04:15.748 --> 00:04:17.318 Lui è Roger Ailes. NOTE Paragraph 00:04:17.342 --> 00:04:19.342 (Risate) NOTE Paragraph 00:04:20.524 --> 00:04:22.912 Ha fondato Fox News nel 1996. 00:04:23.306 --> 00:04:26.017 Più di 20 donne lo hanno accusato di molestie sessuali. 00:04:26.041 --> 00:04:29.276 Hanno detto che a loro non era permesso fare carriera a Fox News. 00:04:29.300 --> 00:04:32.200 È stato cacciato l'anno scorso, ma di recente abbiamo visto 00:04:32.200 --> 00:04:34.514 che i problemi sono continuati. 00:04:35.654 --> 00:04:37.054 Questo solleva la domanda: 00:04:37.078 --> 00:04:40.032 cosa dovrebbe fare Fox News per voltare veramente pagina? NOTE Paragraph 00:04:41.245 --> 00:04:44.260 E se sostituissero il loro sistema di assunzione 00:04:44.270 --> 00:04:45.994 con un algoritmo intelligente? 00:04:45.994 --> 00:04:47.603 Sembra una buona idea, giusto? 00:04:47.607 --> 00:04:48.907 Pensateci. 00:04:48.911 --> 00:04:51.036 I dati, come sarebbero i dati? 00:04:51.060 --> 00:04:53.031 Una scelta ragionevole potrebbe essere 00:04:53.031 --> 00:04:56.031 gli ultimi 21 anni di domande di assunzione a Fox News. 00:04:56.031 --> 00:04:57.533 Ragionevole. 00:04:57.557 --> 00:04:59.621 E come definire il successo? 00:04:59.621 --> 00:05:01.245 Una scelta ragionevole sarebbe: 00:05:01.269 --> 00:05:03.087 chi ha avuto successo a Fox News? 00:05:03.087 --> 00:05:06.651 Ad esempio qualcuno che è stato lì, diciamo, per quattro anni 00:05:06.675 --> 00:05:08.669 ed è stato promosso almeno una volta. 00:05:08.816 --> 00:05:10.397 Sembra ragionevole. 00:05:10.401 --> 00:05:12.755 E dopo l'algoritmo dovrebbe essere preparato. 00:05:12.779 --> 00:05:16.746 Sarebbe preparato a cercare le persone, capire cosa conduce al successo, 00:05:17.219 --> 00:05:21.557 che tipi di candidature hanno storicamente portato al successo 00:05:21.561 --> 00:05:23.685 secondo quella definizione. 00:05:24.025 --> 00:05:25.879 Ora pensate a cosa succederebbe 00:05:25.879 --> 00:05:29.174 se applicassimo questo a un attuale campione di candidati. 00:05:29.174 --> 00:05:30.938 Verrebbero escluse le donne 00:05:31.663 --> 00:05:35.593 perché non rappresentano le persone che hanno avuto successo in passato. NOTE Paragraph 00:05:39.752 --> 00:05:42.319 Gli algoritmi non rendono le cose giuste 00:05:42.319 --> 00:05:45.007 se vengono applicati allegramente e ciecamente. 00:05:45.021 --> 00:05:46.507 Non rendono le cose giuste. NOTE Paragraph 00:05:46.507 --> 00:05:48.659 Ripetono le nostre prassi del passato, 00:05:48.669 --> 00:05:49.872 i nostri modelli. 00:05:49.886 --> 00:05:51.835 Automatizzano lo status quo. 00:05:52.718 --> 00:05:55.487 Sarebbero straordinari se vivessimo in un mondo perfetto, 00:05:55.905 --> 00:05:57.217 ma non lo abbiamo. 00:05:57.241 --> 00:06:01.343 Aggiungo che gran parte delle aziende non ha cause legali imbarazzanti, 00:06:01.976 --> 00:06:05.044 ma agli analisti di quelle aziende 00:06:05.058 --> 00:06:07.241 viene detto di seguire i dati, 00:06:07.251 --> 00:06:09.904 di focalizzarsi sull'accuratezza del dato. 00:06:10.273 --> 00:06:11.588 Pensate a cosa significa. 00:06:11.588 --> 00:06:15.705 Poiché tutti abbiamo pregiudizi, significa che potrebbero codificare il sessismo 00:06:15.709 --> 00:06:17.715 o qualsiasi altro tipo di intolleranza. NOTE Paragraph 00:06:19.488 --> 00:06:20.909 Conduco ricerche, 00:06:20.913 --> 00:06:22.442 perché mi piacciono: 00:06:23.574 --> 00:06:26.549 una società interamente segregata, 00:06:28.247 --> 00:06:31.575 segregazione razziale, tutte le città, tutti i quartieri, 00:06:31.599 --> 00:06:34.636 dove si manda la polizia solo nei quartieri periferici 00:06:34.660 --> 00:06:35.853 a cercare il crimine. 00:06:36.451 --> 00:06:39.271 I dati degli arresti sarebbero intrisi di pregiudizi. 00:06:39.271 --> 00:06:42.426 Cosa succederebbe se, oltretutto, trovassimo gli analisti 00:06:42.450 --> 00:06:46.611 e li pagassimo per prevedere dove si verificherà il prossimo crimine? 00:06:46.615 --> 00:06:49.272 Quartieri periferici abitati dalle minoranze. 00:06:49.285 --> 00:06:52.410 O per prevedere chi sarà il prossimo criminale? 00:06:52.888 --> 00:06:54.283 Uno della minoranza. 00:06:55.949 --> 00:06:59.490 Gli analisti si vanterebbero di quanto straordinari e accurati 00:06:59.494 --> 00:07:00.811 sono i loro modelli, 00:07:00.815 --> 00:07:02.134 e avrebbero ragione. NOTE Paragraph 00:07:03.951 --> 00:07:08.310 La realtà non è così drastica, ma esistono gravi segregazioni 00:07:08.310 --> 00:07:09.897 in molte città grandi e piccole, 00:07:09.901 --> 00:07:11.788 e abbiamo ampia evidenza 00:07:11.788 --> 00:07:15.452 di sistemi di dati investigativi e giudiziari basati su pregiudizi. 00:07:15.452 --> 00:07:18.467 In realtà siamo anche in grado di anticipare i luoghi critici, 00:07:18.471 --> 00:07:20.401 in cui si verificheranno i crimini. 00:07:20.401 --> 00:07:24.267 Noi prevediamo, di fatto, la criminalità individuale, 00:07:24.291 --> 00:07:26.211 la criminalità dei singoli individui. 00:07:26.972 --> 00:07:30.809 La nuova organizzazione ProPublica ha recentemente esaminato 00:07:30.809 --> 00:07:33.003 uno degli algoritmi sul "rischio recidiva", 00:07:33.007 --> 00:07:34.170 come vengono chiamati, 00:07:34.194 --> 00:07:37.388 usati dai giudici in Florida durante le sentenze. 00:07:38.411 --> 00:07:42.156 Bernard, l'uomo di colore a sinistra, ha avuto un punteggio di 10 su 10. 00:07:43.179 --> 00:07:45.186 Dylan, sulla destra, 3 su 10. 00:07:45.210 --> 00:07:47.711 10 su 10, rischio elevato. 3 su 10, rischio basso. 00:07:48.598 --> 00:07:50.957 Erano entrambi processati per possesso di droga. 00:07:50.957 --> 00:07:52.261 Conosciuti dalla polizia, 00:07:52.261 --> 00:07:54.991 ma Dylan aveva commesso un reato, 00:07:55.015 --> 00:07:56.191 mentre Bernard no. 00:07:57.818 --> 00:08:00.884 Questo è importante, perché più il vostro punteggio è alto, 00:08:00.908 --> 00:08:04.381 più è probabile che la vostra condanna sia lunga. NOTE Paragraph 00:08:06.294 --> 00:08:07.588 Cosa sta succedendo? 00:08:08.526 --> 00:08:09.858 Riciclaggio di dati. 00:08:10.930 --> 00:08:15.357 È un processo con cui gli esperti di tecnologia nascondono tremende verità 00:08:15.381 --> 00:08:17.202 dentro la scatola nera degli algoritmi 00:08:17.226 --> 00:08:18.776 e la definiscono oggettività; 00:08:19.320 --> 00:08:20.888 la definiscono meritocrazia. 00:08:23.118 --> 00:08:25.497 Quando sono segreti, importanti e distruttivi, 00:08:25.497 --> 00:08:28.014 ho coniato un termine per questi algoritmi: 00:08:28.038 --> 00:08:30.067 "Armi di distruzione matematica." NOTE Paragraph 00:08:30.067 --> 00:08:31.645 (Risata) NOTE Paragraph 00:08:31.649 --> 00:08:34.723 (Applauso) NOTE Paragraph 00:08:34.733 --> 00:08:37.081 Sono ovunque e non per errore. 00:08:37.695 --> 00:08:41.418 Sono aziende private che costruiscono algoritmi privati 00:08:41.442 --> 00:08:42.834 per scopi privati. 00:08:43.214 --> 00:08:46.448 Persino quelli di cui ho parlato per gli insegnanti e la polizia 00:08:46.452 --> 00:08:48.351 sono stati creati da compagnie private 00:08:48.351 --> 00:08:50.490 e venduti alle istituzioni governative. 00:08:50.490 --> 00:08:52.563 Li chiamano il loro "ingrediente segreto", 00:08:52.563 --> 00:08:54.635 ecco perché non possono parlarcene. 00:08:54.649 --> 00:08:56.869 È anche un potere privato. 00:08:57.924 --> 00:09:02.619 Ne stanno traendo vantaggio per esercitare l'autorità dell'imperscrutabile. 00:09:05.114 --> 00:09:08.048 Ora potreste pensare che, visto che è tutto privato 00:09:08.072 --> 00:09:09.260 e c'è la concorrenza, 00:09:09.260 --> 00:09:11.570 forse il mercato libero risolverà il problema. 00:09:11.584 --> 00:09:12.833 Invece no. 00:09:12.857 --> 00:09:15.977 Ci sono un sacco di soldi da fare in modo scorretto. NOTE Paragraph 00:09:17.127 --> 00:09:20.496 Inoltre, noi non siamo agenti economici razionali. 00:09:20.701 --> 00:09:22.533 Abbiamo tutti dei pregiudizi. 00:09:22.960 --> 00:09:26.337 Siamo tutti razzisti e faziosi in modi che preferiremmo non essere, 00:09:26.361 --> 00:09:28.380 in modi che neanche immaginiamo. 00:09:29.352 --> 00:09:32.463 Ma lo sappiamo grazie al complesso dei dati, 00:09:32.463 --> 00:09:35.677 perché i sociologi lo hanno dimostrato 00:09:35.701 --> 00:09:37.360 con gli esperimenti che fanno, 00:09:37.360 --> 00:09:40.048 in cui mandano in giro un mucchio di richieste di lavoro, 00:09:40.048 --> 00:09:42.553 con uguali qualifiche, ma alcune con nomi da bianchi, 00:09:42.553 --> 00:09:44.213 altre con nomi da afro-americani, 00:09:44.237 --> 00:09:46.931 e il risultato è sempre deludente. Sempre. NOTE Paragraph 00:09:47.440 --> 00:09:49.281 Quindi, siamo noi ad avere pregiudizi, 00:09:49.305 --> 00:09:52.728 e stiamo iniettando quei pregiudizi negli algoritmi, 00:09:52.728 --> 00:09:54.570 decidendo quali dati raccogliere, 00:09:54.594 --> 00:09:57.337 come ho scelto di non pensare a quei noodles istantanei, 00:09:57.361 --> 00:09:58.986 ho deciso che era irrilevante. 00:09:59.010 --> 00:10:04.258 Lo facciamo fidandoci di dati che si riferiscono a prassi del passato 00:10:04.258 --> 00:10:06.762 e scegliendo gli indicatori per valutare il successo 00:10:06.762 --> 00:10:10.739 Come possiamo aspettarci che gli algoritmi ne escano indenni? 00:10:10.763 --> 00:10:13.119 Non possiamo. Dobbiamo controllarli. 00:10:13.355 --> 00:10:15.868 Dobbiamo controllarli per garantirne l'imparzialità. NOTE Paragraph 00:10:15.868 --> 00:10:18.639 La buona notizia è che possiamo verificarne l'imparzialità. 00:10:18.639 --> 00:10:21.979 Gli algoritmi possono essere interrogati, 00:10:21.979 --> 00:10:24.043 e ci diranno la verità ogni volta. 00:10:24.047 --> 00:10:26.554 Possiamo sistemarli. Possiamo renderli migliori. 00:10:26.554 --> 00:10:28.959 Lo definisco un audit algoritmico, 00:10:28.963 --> 00:10:30.702 e ve lo illustro. NOTE Paragraph 00:10:30.702 --> 00:10:32.882 Primo, controllo dell'integrità dei dati. 00:10:34.132 --> 00:10:37.199 Per il rischio di recidività degli algoritmi di cui ho parlato, 00:10:37.582 --> 00:10:41.155 un controllo dell'integrità dei dati significherebbe constatare il fatto 00:10:41.179 --> 00:10:44.699 che negli US, la percentuale di bianchi e neri che fumano erba è uguale 00:10:44.699 --> 00:10:47.494 ma i neri hanno molte più probabilità di essere arrestati, 00:10:47.494 --> 00:10:50.422 da 4 o 5 volte di più, a seconda della zona. 00:10:50.897 --> 00:10:54.137 Che forma assume quel pregiudizio in altre categorie criminologiche, 00:10:54.137 --> 00:10:55.678 e come possiamo tenerne conto? NOTE Paragraph 00:10:55.872 --> 00:10:59.195 Secondo, dovremmo considerare la definizione di successo, 00:10:59.195 --> 00:11:00.626 sottoporla a verifica. 00:11:00.630 --> 00:11:03.292 Ricordate l'algoritmo delle assunzioni che ho illustrato? 00:11:03.292 --> 00:11:06.607 Uno che mantiene il lavoro per quattro anni ed è promosso una volta? 00:11:06.607 --> 00:11:08.308 Quello è un impiegato di successo, 00:11:08.308 --> 00:11:11.467 ma è anche un impiegato sostenuto dalla loro cultura. 00:11:11.479 --> 00:11:13.999 Detto questo, può esserci anche un lieve pregiudizio. 00:11:13.999 --> 00:11:16.098 Dobbiamo distinguere questi due aspetti. 00:11:16.098 --> 00:11:18.594 Dovremmo prendere le audizioni d'orchestra alla cieca 00:11:18.594 --> 00:11:19.774 come esempio. 00:11:19.798 --> 00:11:22.554 Quelle in cui chi fa il provino sta dietro uno schermo. 00:11:22.946 --> 00:11:24.877 Quello a cui voglio pensare 00:11:24.901 --> 00:11:28.312 è che le persone che stanno ascoltando hanno deciso cosa sia importante 00:11:28.312 --> 00:11:30.391 e cosa non lo è, 00:11:30.395 --> 00:11:32.634 e non si lasceranno distrarre. 00:11:32.961 --> 00:11:35.710 da quando le audizioni d'orchestra alla cieca sono iniziate, 00:11:35.734 --> 00:11:39.178 il numero di donne nelle orchestre è quintuplicato. NOTE Paragraph 00:11:40.253 --> 00:11:42.808 Poi dobbiamo considerare l'accuratezza. 00:11:43.233 --> 00:11:47.247 È qui che il "modello di valore aggiunto" per insegnanti fallisce immediatamente. 00:11:47.578 --> 00:11:49.740 Nessun algoritmo è perfetto, certo, 00:11:50.620 --> 00:11:54.225 quindi dobbiamo considerare gli errori di ogni algoritmo. 00:11:54.836 --> 00:11:59.195 Quanto spesso ci sono errori e per chi fallisce questo modello? 00:11:59.850 --> 00:12:01.568 Qual è il prezzo di quel fallimento? NOTE Paragraph 00:12:02.434 --> 00:12:04.641 Infine, dobbiamo considerare 00:12:05.973 --> 00:12:08.279 gli effetti a lungo termine degli algoritmi, 00:12:08.866 --> 00:12:11.473 i cicli di feedback che stanno generando. 00:12:11.476 --> 00:12:12.822 Può sembrarvi un'astrazione, 00:12:12.826 --> 00:12:15.820 ma immaginate se i tecnici di Facebook lo avessero considerato 00:12:16.270 --> 00:12:21.125 prima di decidere di mostrarci solo le cose pubblicate dai nostri amici. NOTE Paragraph 00:12:21.631 --> 00:12:25.275 Ho altre due raccomandazioni, una per gli analisti di dati là fuori. 00:12:25.450 --> 00:12:28.859 Analisti: non dovremmo essere gli arbitri della verità. 00:12:29.520 --> 00:12:33.297 Dovremmo essere i traduttori delle discussioni etiche che accadono 00:12:33.297 --> 00:12:34.761 nella società. NOTE Paragraph 00:12:35.579 --> 00:12:37.712 (Applausi) NOTE Paragraph 00:12:37.736 --> 00:12:39.292 E per tutti gli altri, 00:12:40.011 --> 00:12:41.437 i non-analisti di dati: 00:12:41.437 --> 00:12:43.609 questo non è un esame di matematica. 00:12:43.632 --> 00:12:44.980 Questa è una lotta politica. 00:12:46.587 --> 00:12:50.494 Dobbiamo pretendere più trasparenza dai signori degli algoritmi. NOTE Paragraph 00:12:51.218 --> 00:12:53.617 (Applausi) NOTE Paragraph 00:12:53.641 --> 00:12:57.860 L'era della fede cieca nelle masse di dati deve finire. NOTE Paragraph 00:12:57.860 --> 00:12:59.057 Vi ringrazio molto. NOTE Paragraph 00:12:59.081 --> 00:13:04.384 (Applausi)