L'intelligenza artificiale rende la moralità umana più importante
-
0:01 - 0:05Ho iniziato il mio primo lavoro
come programmatrice di computer -
0:05 - 0:07nel mio primo anno di college -
-
0:07 - 0:08sostanzialmete un'adolescente.
-
0:09 - 0:12Subito dopo ho cominciato a lavorare,
scrivendo software in una azienda, -
0:13 - 0:16un manager che lavorava nell'azienda
mi venne a trovare dove stavo, -
0:16 - 0:18e mi susssurrò,
-
0:18 - 0:21"Può lui dirmi se sto mentendo?"
-
0:22 - 0:24Non c'era nessun altro nella stanza.
-
0:25 - 0:29"Chi può dire se stai mentendo?
E perché sussurriamo?" -
0:30 - 0:33Il manager indicò il computer
nella stanza. -
0:33 - 0:36"Può lui dirmi se sto mentendo?"
-
0:38 - 0:42Ebbene, quel manager aveva una relazione
con la segretaria alla reception. -
0:42 - 0:43(Risate)
-
0:43 - 0:45Ed ero ancora una adolescente.
-
0:45 - 0:47Così gli sussurrai-urlai,
-
0:47 - 0:51"Si, il computer può dire
se stai mentendo." -
0:51 - 0:53(Risate)
-
0:53 - 0:56Bene, io risi, ma in effetti,
la risata era nei mei confronti. -
0:56 - 0:59Oggi, vi sono sistemi di calcolo
-
0:59 - 1:03che possono scoprire gli stati emotivi
e pure la menzogna -
1:03 - 1:05tramite la elaborazione dei volti umani.
-
1:05 - 1:09I pubblicitari ed anche i governi
sono molto interessati. -
1:10 - 1:12Sono diventata programmatrice di computer
-
1:12 - 1:15perchè ero uno di quei giovani
pazzi per matematica e scienze -
1:16 - 1:19Ma lungo il mio percorso
ho imparato a conoscere le armi nucleari, -
1:19 - 1:22e mi sono proprio preoccupata
dell'etica della scienza. -
1:22 - 1:23Ero preoccupata.
-
1:23 - 1:26Tuttavia, a causa della
mia situazione familiare, -
1:26 - 1:29dovevo iniziare a lavorare
al più presto. -
1:29 - 1:33Così mi sono detta, hey,
scegliamo un settore tecnico -
1:33 - 1:34dove posso trovare facilmente
un lavoro -
1:34 - 1:38e dove non devo aver a che fare
con qualche fastidiosa questione etica. -
1:39 - 1:41Così ho scelto i computer.
-
1:41 - 1:42(Risate)
-
1:42 - 1:45Bene, ah, ah!
Tutti ridono di me. -
1:45 - 1:48Ora, gli scienziati del computer
costruicono piattaforme -
1:48 - 1:52che controllano ciò che un miliardo
di persone vedono ogni giorno. -
1:53 - 1:57Stanno sviluppando auto
che potrebbero decidere chi investire. -
1:58 - 2:01Stanno anche costruendo macchine, armi,
-
2:01 - 2:03che possono uccidere persone in guerra.
-
2:03 - 2:06C'è sempre l'etica alla fine.
-
2:07 - 2:09L'intelligenza delle macchine è qui.
-
2:10 - 2:13Ora utilizziamo il computer
per prendere ogni tipo di decisioni, -
2:13 - 2:15ma anche nuovi tipi di decisioni.
-
2:15 - 2:20Stiamo ponendo al computer domande
che non hanno una sola risposta giusta, -
2:20 - 2:22che sono soggettive
-
2:22 - 2:24e sono aperte e cariche di valore.
-
2:24 - 2:26Domandiamo cose come,
-
2:26 - 2:27"Chi dovrebbe essere assunto?"
-
2:28 - 2:31"Quale update e di quale amico
dovrebbe essere mostrato?" -
2:31 - 2:33"Quale pregiudicato sarà più
probabilmente recidivo?" -
2:34 - 2:37"Quale notizia o film
dovrebbe essere consigliato alla gente?" -
2:37 - 2:40Certo, stiamo usando
il computer da un po', -
2:40 - 2:42ma questo è diverso.
-
2:42 - 2:44Questa è un svolta storica,
-
2:44 - 2:49perchè non possiamo poggiarci sul computer
per queste decisioni soggettive -
2:49 - 2:54allo stesso modo in cui si usa il computer
per far volare gli aerei, costruire ponti, -
2:54 - 2:56andare sulla luna.
-
2:56 - 3:00Sono più sicuri gli aerei?
Vacillano e cadono i ponti? -
3:00 - 3:04Qui abbiamo chiari livelli di riferimento,
su cui concordiamo, -
3:04 - 3:06ed abbiamo le leggi naturali per guidarci.
-
3:07 - 3:10Non abbiamo tali riferimenti
per decidere -
3:10 - 3:14nelle complicate faccende umane.
-
3:14 - 3:18Per rendere le cose più complicate,
il software sta diventando più potente, -
3:18 - 3:22ma anche meno trasparente e più complesso.
-
3:23 - 3:25Recentemente, nell'ultima decennio,
-
3:25 - 3:27algoritmi complessi hanno fatto
notevoli passi avanti. -
3:27 - 3:29Possono riconoscere le facce umane.
-
3:30 - 3:32Possono decifrare la scrittura manuale.
-
3:32 - 3:36possono individuare le frodi
sulle carte di credito e bloccare lo spam -
3:36 - 3:38e possono tradurre le lingue.
-
3:38 - 3:41Possono individuare i tumori
nelle diagnostica per immagini. -
3:41 - 3:43Possono battere gli umani a scacchi
e nel GO -
3:43 - 3:48Molti di questi progressi derivano
dal metodo di "apprendimento automatico". -
3:48 - 3:52L'apprendimento automatico è diverso
dalla tradizionale programmazione, -
3:52 - 3:55dove si danno al computer istruzioni
dettagliate, precise ed accurate. -
3:55 - 4:00Sembra di più come se forniste
al sistema molti dati, -
4:00 - 4:01Inclusi dati non strutturati,
-
4:01 - 4:04del tipo che generiamo
nella nostre vite digitali. -
4:04 - 4:06E il sistema impara
maneggiando quei dati. -
4:07 - 4:08Ed anche, crucialmente,
-
4:08 - 4:13quei sistemi non lavorano
con la logica di una sola risposta. -
4:13 - 4:16Non forniscono una semplice risposta;
è piuttosto probabilistica: -
4:16 - 4:19"Questo è probabilmente
quello che state cercando." -
4:20 - 4:23Ora, la parte positiva è:
questo metodo è veramente potente. -
4:23 - 4:25Il capo sistema AI
di Google lo ha chiamato -
4:25 - 4:27"la irragionevole efficacia dei dati."
-
4:28 - 4:29La parte negativa è,
-
4:30 - 4:33non capiamo veramente
cosa il sistema ha imparato. -
4:33 - 4:34Infatti, questa è la sua forza.
-
4:35 - 4:39Ciò è meno simile a dare
istruzioni ad un computer; -
4:39 - 4:43è più simile all'istruire
un cucciolo-macchina -
4:43 - 4:46che noi non capiamo
o controlliamo veramente -
4:46 - 4:48Questo è il nostro problema.
-
4:48 - 4:53Il problema è quando questi sistemi
di intelligenza artificiale lavorano male. -
4:53 - 4:56Vi è anche il problema
di quando lavorano bene, -
4:56 - 5:00perchè non sappiamo chi è chi
quando il problema è soggettivo. -
5:00 - 5:02Non sappiamo come il computer ragioni.
-
5:03 - 5:07Così, considerate un algoritmo
per le assunzioni-- -
5:08 - 5:12un sistema per assumere la gente,
usando l'apprendimento automatico. -
5:13 - 5:17Un tale sistema sarebbe stato formato
sui dati dei precedenti assunti -
5:17 - 5:19e istruito per trovare ed assumere
-
5:19 - 5:22le persone simili a quelli
più performanti in azienda. -
5:23 - 5:26Sembra giusto.
Una volta ho partecipato ad una conferenza -
5:26 - 5:29che coinvolgeva i responsabili
delle Risorse Umane e i manager aziendali, -
5:29 - 5:32persone ad alto livello,
che usavano questo sistema per assumere. -
5:32 - 5:34Erano super entusiasti.
-
5:34 - 5:38Pensavano che ciò avrebbe portato ad
assunzioni più oggettive, meno distorte, -
5:38 - 5:41e dato alle donne e alle minoranze
una migliore opportunità -
5:41 - 5:44rispetto a manager umani influenzabili.
-
5:44 - 5:46E guarda - le assunzioni fatte
dagli uomini sono distorte. -
5:47 - 5:48Lo so.
-
5:48 - 5:51Voglio dire, in uno dei miei primi lavori,
come programmatrice, -
5:51 - 5:55la manager da cui dipendevo qualche volta
scendeva dove stavo -
5:55 - 5:59molto presto alla mattina
o molto tardi nel pomeriggio, -
5:59 - 6:02e mi diceva, "Zeynep,
andiamo a pranzo!" -
6:03 - 6:05Ero perplessa per la strana tempistica.
-
6:05 - 6:07Sono le 4 del pomeriggio. Pranzo?
-
6:07 - 6:10Ero al verde, ed è un pranzo gratis.
Quindi andavo sempre. -
6:11 - 6:13Più tardi capii cosa stava accadendo.
-
6:13 - 6:17La manager da cui dipendevo
non aveva confessato ai livelli superiori -
6:17 - 6:20che il programmatore da lei assunto
per un importante lavoro era adolescente -
6:20 - 6:24che indossava jeans e sneaker al lavoro.
-
6:25 - 6:27Lavoravo bene,
solo sembravo sbagliata, -
6:27 - 6:29ed era l'età e genere sbagliato.
-
6:29 - 6:32Così asssumere senza considerare
genere e razza -
6:32 - 6:34certamante mi sembra giusto.
-
6:35 - 6:38Ma con questi sistemi,
è più complicato, ed ecco perchè: -
6:39 - 6:45Ad oggi, i sistemi di calcolo
possono desumere qualsiasi cosa su di voi -
6:45 - 6:47dalle vostre briciole digitali,
-
6:47 - 6:49pur se non avete reso pubbliche
quelle cose. -
6:50 - 6:52Possono desumere
il vostro orientamento sessuale, -
6:53 - 6:54caratteristiche personali,
-
6:55 - 6:56orientamento politico.
-
6:57 - 7:01Hanno potenza predittiva
con alto livello di accuratezza. -
7:01 - 7:04Ricordate -- per cose che
non avete mai dichiarato. -
7:04 - 7:06Questa è l'inferenza.
-
7:06 - 7:09Ho un'amica che ha sviluppato
un sistema di elaborazione -
7:09 - 7:13per predire la probabilità
della depressione postpartum -
7:13 - 7:14dai dati delle reti sociali.
-
7:15 - 7:16Risultati impressionanti!
-
7:16 - 7:20Il suo sistema può predire
la probabilità della depressione -
7:20 - 7:24mesi prima dell'insorgere
di un qualsiasi sintomo -- -
7:24 - 7:25mesi prima.
-
7:25 - 7:27Nessun sintomo, ma c'è predizione.
-
7:27 - 7:32Lei spera che sarà usato
per anticipare un intervento. Ottimo! -
7:33 - 7:35Ma ora consideratelo in una assunzione.
-
7:36 - 7:39Così a quella conferenza dei manager
delle risorse umane, -
7:39 - 7:44ho avvicinato un manager di alto livello
in una grande azienda, -
7:44 - 7:48e le ho detto, "Guarda,
che succederebbe se, alla tua insaputa, -
7:48 - 7:55il vostro sistema elimina le persone
con un'alta probabilità di depressione? -
7:56 - 7:59Non sono depresse ora,
magari forse in futuro, più probabilmente. -
8:00 - 8:03Che succederebbe se eliminasse le donne
più probabilmente incinte -
8:03 - 8:06nei prossimi uno o due anni
ma che non lo sono ora? -
8:07 - 8:12E se assumeste persone aggressive perchè
questa è la vostra cultura aziendale?" -
8:13 - 8:16Non potete parlarne guardando
solo alle quote di genere. -
8:16 - 8:17Queste si possono bilanciare.
-
8:17 - 8:21E dato che ciò è apprendimento automatico,
non programmazione tradizionale, -
8:21 - 8:26non c'è alcuna variabile di codifica
etichettata "alto rischio di depressione", -
8:26 - 8:28"maggior rischio di gravidanza,"
-
8:28 - 8:30"gradazione di maschio aggressivo."
-
8:30 - 8:34Non solo non sapete su cosa
il vostro sistema basi la selezione, -
8:34 - 8:36ma neppure sapete
dove cominciare a guardare. -
8:36 - 8:37E' una "scatola nera".
-
8:37 - 8:40Ha una potenza predittiva
ma non la capite. -
8:40 - 8:43"Quali garanzie," chiesi, "avete
-
8:43 - 8:47per essere sicuri che la scatola nera
non sta facendo qualcosa losco?" -
8:49 - 8:53Mi ha guardato come se avessi
schiacciato la coda a 10 cuccioli. -
8:53 - 8:54(Risate)
-
8:54 - 8:56Mi fissò e disse,
-
8:57 - 9:01"Non voglio sentire altro su questo."
-
9:01 - 9:03E si girò andandosene via.
-
9:04 - 9:06Considerate - non era maleducata.
-
9:06 - 9:12Era chiaro: quello che non so non è un
mio problema. Va via, sguardo assassino. -
9:12 - 9:13(Risate)
-
9:14 - 9:18Vedete, un tale sistema
può anche essere meno influenzata -
9:18 - 9:20in molti modi rispetto ai manager umani.
-
9:20 - 9:22E potrebbe avere senso economico.
-
9:23 - 9:24Ma può anche portare
-
9:24 - 9:29a una stabile, ma furtiva
chiusura dal mercato del lavoro -
9:29 - 9:31di gente più a rischio di depressione.
-
9:32 - 9:34Questo è il tipo di società
che vogliamo costruire, -
9:34 - 9:37senza neppure sapere che lo abbiamo fatto,
-
9:37 - 9:41poichè abbiamo lasciato la decisione
a macchine che non comprendiamo del tutto? -
9:41 - 9:43Un altro problema è questo:
-
9:43 - 9:48quei sistemi sono spesso addestrati
con dati generati dalle nostre azioni, -
9:48 - 9:50di impronta umana.
-
9:50 - 9:54Bene, possono proprio riflettere
le nostre distorsioni o pregiudizi, -
9:54 - 9:58e questi sistemi
si portano dietro i nostri pregiudizi -
9:58 - 9:59e li amplificano
-
9:59 - 10:00e ce li rispecchiano,
-
10:00 - 10:02mentre ci diciamo,
-
10:02 - 10:05"Stiamo facendo solo elaborazioni
oggettive e neutrali." -
10:06 - 10:09Ricerche effettuate su Google trovano,
-
10:10 - 10:15che è meno probabile vengano mostrati
alle donne avvisi per lavori ben pagati. -
10:16 - 10:19E cercando nomi di Afro-Americani
-
10:19 - 10:24è più probabile trovare avvisi
alludenti a storie criminali, -
10:24 - 10:25anche quando non ce ne sono.
-
10:27 - 10:30Questi sono i pregiudizi nascosti
e gli algoritmi a scatola nera -
10:30 - 10:34che i ricercatori talvolta scoprono
ma che altre volte non conosciamo, -
10:34 - 10:37possono avere la conseguenza di
alterare la vita. -
10:38 - 10:42In Wisconsin, un accusato
è stato condannato a sei anni di prigione -
10:42 - 10:43per aver eluso la polizia.
-
10:45 - 10:46Si può non saperlo,
-
10:46 - 10:50ma gli algoritmi sono sempre più usati
per prendere decisioni giudiziarie. -
10:50 - 10:53Egli voleva sapere:
come è stato calcolato il punteggio? -
10:54 - 10:55Ma è una scatola nera
sul mercato -
10:55 - 11:00L'azienda si è rifiutata di far verificare
il suo algoritmo in una corte pubblica. -
11:00 - 11:06Ma ProPublica, associazione investigativa
non-profit, ha verificato quell'algoritmo -
11:06 - 11:08con i dati pubblici disponibili,
-
11:08 - 11:10trovando che i risultati
erano influenzati -
11:10 - 11:14e la sua potenza predittiva era
niente più di una possibilità, -
11:14 - 11:18e che era sbagliato etichettare
accusati neri come futuri criminali -
11:18 - 11:22a livello doppio degli accusati bianchi.
-
11:24 - 11:25Così considerate questo caso:
-
11:26 - 11:30questa donna è in ritardo
nel prelevare la sua figlioccia -
11:30 - 11:32da scuola nella Contea di Broward,
Florida, -
11:33 - 11:35correndo per la strada
con un suo amico. -
11:35 - 11:39Vedono una bici da ragazzo non bloccata
ed uno scooter in una veranda -
11:39 - 11:41e stupidamente vi saltano su.
-
11:41 - 11:44Come stavano scappando via,
una donna uscì fuori e disse, -
11:44 - 11:46"Ehi, quella bicicletta è mia!"
-
11:46 - 11:49Essi la lascarono, andarono via,
ma furono arrestati. -
11:49 - 11:53Aveva sbagliato, era stata sciocca,
ma era appena diventata diciottenne. -
11:53 - 11:55Fu condannata per un paio
di crimini giovanili. -
11:56 - 12:01Nel frattempo, quell'uomo fu arrestato
per furto di merce al Home Depot -- -
12:01 - 12:04merce per 85 dollari di valore,
un simile piccolo crimine. -
12:05 - 12:09Ma lui aveva due precedenti
condanne per rapina a mano armata -
12:10 - 12:13Ma l'algoritmo aveva valutato lei
ad alto rischio, non lui. -
12:15 - 12:19Due anni dopo, ProPublica trovò
che lei non era stata recidiva. -
12:19 - 12:21Ma le fu duro trovare
lavoro, visti i precedenti. -
12:21 - 12:23Lui, d'altra parte, fu recidivo
-
12:23 - 12:27ed ora è in prigione per 8 anni
a causa di un successivo crimine. -
12:28 - 12:31Chiaramente, ci bisogna verificare
le scatole nere -
12:31 - 12:34per non dare loro questo
incontrollato potere. -
12:34 - 12:37(Applausi)
-
12:38 - 12:42Le verifiche sono importanti,
ma da sole non risolvono tutti i problemi. -
12:42 - 12:45Prendete l'algoritmo di Facebook
per caricare le news-- -
12:45 - 12:50sapete, quello che riordina tutto
e decide cosa mostrarvi -
12:50 - 12:52da tutti gli amici e le pagine seguite.
-
12:53 - 12:55Dovrebbe mostrarvi un'altra foto di bimbo?
-
12:55 - 12:56(Risate)
-
12:56 - 12:59Una nota imbronciata da un conoscente?
-
12:59 - 13:01Una importante ma scabrosa notizia?
-
13:01 - 13:03Non c'è una risposta giusta.
-
13:03 - 13:05Facebook ottimizza per
attraervi al loro sito: -
13:06 - 13:07i like, condividi, commenti
-
13:08 - 13:11Nell'agosto 2014,
-
13:11 - 13:15proteste scoppiarono a Ferguson, Missouri,
dopo l'uccisione di -
13:15 - 13:18un ragazzo Afro-Americano
da parte di un poliziotto bianco, -
13:18 - 13:20in circostanze oscure.
-
13:20 - 13:22La notizia delle proteste era presente
-
13:22 - 13:25sul mio caricatore Twitter
non filtrato da algoritmi, -
13:25 - 13:27ma nulla sul mio Facebook.
-
13:27 - 13:29Era a causa dei miei amici su Facebook?
-
13:29 - 13:31Ho disabilitato l'algoritmo di Facebook,
-
13:31 - 13:34che non è facile, poichè Facebook
vuole mantenervi -
13:34 - 13:36sotto il controllo dell'algoritmo,
-
13:36 - 13:39e vidi che i miei amici
parlavano di questo. -
13:39 - 13:41Era proprio l'algoritmo
che non me lo mostrava. -
13:41 - 13:44Ho approfondito ed ho trovato
che è un problema diffuso. -
13:44 - 13:48La storia di Ferguson non è
facile per l'algoritmo. -
13:48 - 13:49Non è likable.
-
13:49 - 13:51Chi sta cliccando su "like?"
-
13:52 - 13:54Non è neppure facile da commentarsi.
-
13:54 - 13:55Senza like e commenti,
-
13:55 - 13:58l'algoritmo tende a mostrare la notizia
ad ancora meno persone, -
13:58 - 14:00così non riusciamo a vederla.
-
14:01 - 14:02Invece, questa settimana,
-
14:02 - 14:04l'algoritmo di Facebook ha evidenziato
-
14:05 - 14:07questo: il ALS Ice Bucket Challenge.
-
14:07 - 14:11Causa benefica; svuota acqua ghiacciata,
dona alla beneficenza, bene. -
14:11 - 14:12Ottimo per agevolare l'algoritmo.
-
14:13 - 14:16Una decisione automatica è stata
presa per noi -
14:16 - 14:19Una conversazione molto importante
ma scabrosa -
14:19 - 14:21può essere moderata,
-
14:21 - 14:24essendo Facebook l'unica via trasmissiva.
-
14:24 - 14:28Ora, infine, quei sistemi
possono sbagliare -
14:28 - 14:31in modi che non somigliano
a sistemi umani. -
14:31 - 14:34Vi ricordate Watson,
la macchina intelligente di IBM -
14:34 - 14:37che ha spazzato via
i contendenti umani a Jeopardy? -
14:37 - 14:39Era un grande giocatore.
-
14:39 - 14:42Ma poi, alla finale di Jeopardy,
fu posta questa domanda a Watson: -
14:42 - 14:46"Il suo più grande aeroporto è intitolato
a un eroe della II Guerra Mondiale, -
14:46 - 14:48il suo secondo più grande
a una sua battaglia." -
14:48 - 14:50(Musica della finale di Jeopardy)
-
14:50 - 14:51Chicago.
-
14:51 - 14:52I due umani risposero bene.
-
14:53 - 14:57Watson, da altra parte,
rispose "Toronto" -- -
14:57 - 14:59per una città nella categoria USA!
-
15:00 - 15:02L'impressionante sistema aveva sbagliato
-
15:03 - 15:06come un umano non avrebbbe mai fatto,
neppure un alunno delle elementari. -
15:07 - 15:10L'intelligenza automatica può sbagliare
-
15:10 - 15:13in modi non paragonabili
con l'approccio dell'errore umano, -
15:13 - 15:16in modi che non ci aspetteremmo
e per i quali siamo preparati. -
15:16 - 15:20Sarebbe pessimo non ottenere un lavoro
per il quale si è qualificati, -
15:20 - 15:23ma sarebbe tre volte peggio
se fosse causato da un errore software -
15:23 - 15:25in qualche sua subroutine.
-
15:25 - 15:27(Risate)
-
15:27 - 15:29Nel maggio 2010,
-
15:29 - 15:33una crisi improvvisa a Wall Street,
alimentata da un erroneo ciclo di calcolo -
15:33 - 15:36nell'algoritmo di "vendi" di Wall Street
-
15:36 - 15:41ha spazzato via un valore
di un trilione di dollari in 36 minuti. -
15:42 - 15:44Non voglio pensare
cosa significhi "errore" -
15:44 - 15:48nel contesto di armi letali autonome.
-
15:50 - 15:54Si certo, gli umani sono sempre parziali.
-
15:54 - 15:56I decisori e controllori,
-
15:56 - 15:59nelle corti, nei notiziari, in guerra ...
-
15:59 - 16:02commettono errori;
ma questo è proprio il mio punto. -
16:02 - 16:06non possiamo sfuggire
a queste difficili domande. -
16:07 - 16:10Non possiamo delegare
le nostre responsabilità alle macchine. -
16:11 - 16:15(Applausi)
-
16:17 - 16:22L'intelligenza artificiale non ci dà
un permesso di "uscire dall'etica" gratis. -
16:23 - 16:26Lo scienziato sui dati Fred Benenson
lo chiama "pulizia matematica". -
16:26 - 16:28Necessitiamo del contrario.
-
16:28 - 16:33Verso gli algoritmi occorre coltivare
la diffidenza, verifica e indagine. -
16:33 - 16:37Occorre essere sicuri che di sia
una responsabilità sugli algoritmi, -
16:37 - 16:39metodi di verifica e
una comprensibile trasparenza. -
16:39 - 16:43È necessario accettare
che portare matematica ed elaborazione -
16:43 - 16:45in relazioni umane caotiche e di valore,
-
16:45 - 16:47non aggiunge obiettività;
-
16:47 - 16:52piuttosto, la complessità degli affari
umani invade gli algoritmi. -
16:52 - 16:55Si, possiamo e dovremmo usare il calcolo
-
16:55 - 16:58per aiutarci nel decidere meglio.
-
16:58 - 17:02Ma dobbiamo mantenere la
responsabilità morale del giudizio, -
17:02 - 17:05e usare algoritmi dentro quel contesto,
-
17:05 - 17:10non come gli strumenti per abdicare
e dare in outsource -
17:10 - 17:13le nostre responsibilità
a qualcun altro come fra umani. -
17:13 - 17:16La intelligenza delle macchine è qui.
-
17:16 - 17:19Significa che dobbiamo tenerci più forti
-
17:19 - 17:22ai valori ed etica umani.
-
17:22 - 17:23Grazie.
-
17:23 - 17:24(Applausi)
- Title:
- L'intelligenza artificiale rende la moralità umana più importante
- Speaker:
- Zeynep Tufekci
- Description:
-
L'intelligenza delle macchine è qui, e la usiamo già per prendere decisioni soggettive. Ma il modo complesso con cui la AI (Intelligenza Artificiale) cresce e migliora rende difficile capirla e ancora più difficile controllarla. Nel suo discorso ammonitorio la tecno-sociologa Zeynep Tufekci spiega come le macchine intelligenti possono sbagliare in modi che non assomigliano al modo di sbagliare umano-- e in modi che non ci aspetteremmo o siamo preparati ad affrontare. "Non possiamo delegare le nostre responsabilità alle macchine," dice. "Dobbiamo tenerci ancora più strettamente legati ai valori ed etica umani."
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Michele Gianella edited Italian subtitles for Machine intelligence makes human morals more important | ||
TED Translators admin approved Italian subtitles for Machine intelligence makes human morals more important | ||
Rachael Gwinn accepted Italian subtitles for Machine intelligence makes human morals more important | ||
Rachael Gwinn edited Italian subtitles for Machine intelligence makes human morals more important | ||
Rachael Gwinn edited Italian subtitles for Machine intelligence makes human morals more important | ||
Rachael Gwinn edited Italian subtitles for Machine intelligence makes human morals more important | ||
Rachael Gwinn edited Italian subtitles for Machine intelligence makes human morals more important | ||
Rachael Gwinn edited Italian subtitles for Machine intelligence makes human morals more important |