Return to Video

L'intelligenza artificiale rende la moralità umana più importante

  • 0:01 - 0:05
    Ho iniziato il mio primo lavoro
    come programmatrice di computer
  • 0:05 - 0:07
    nel mio primo anno di college -
  • 0:07 - 0:08
    sostanzialmete un'adolescente.
  • 0:09 - 0:12
    Subito dopo ho cominciato a lavorare,
    scrivendo software in una azienda,
  • 0:13 - 0:16
    un manager che lavorava nell'azienda
    mi venne a trovare dove stavo,
  • 0:16 - 0:18
    e mi susssurrò,
  • 0:18 - 0:21
    "Può lui dirmi se sto mentendo?"
  • 0:22 - 0:24
    Non c'era nessun altro nella stanza.
  • 0:25 - 0:29
    "Chi può dire se stai mentendo?
    E perché sussurriamo?"
  • 0:30 - 0:33
    Il manager indicò il computer
    nella stanza.
  • 0:33 - 0:36
    "Può lui dirmi se sto mentendo?"
  • 0:38 - 0:42
    Ebbene, quel manager aveva una relazione
    con la segretaria alla reception.
  • 0:42 - 0:43
    (Risate)
  • 0:43 - 0:45
    Ed ero ancora una adolescente.
  • 0:45 - 0:47
    Così gli sussurrai-urlai,
  • 0:47 - 0:51
    "Si, il computer può dire
    se stai mentendo."
  • 0:51 - 0:53
    (Risate)
  • 0:53 - 0:56
    Bene, io risi, ma in effetti,
    la risata era nei mei confronti.
  • 0:56 - 0:59
    Oggi, vi sono sistemi di calcolo
  • 0:59 - 1:03
    che possono scoprire gli stati emotivi
    e pure la menzogna
  • 1:03 - 1:05
    tramite la elaborazione dei volti umani.
  • 1:05 - 1:09
    I pubblicitari ed anche i governi
    sono molto interessati.
  • 1:10 - 1:12
    Sono diventata programmatrice di computer
  • 1:12 - 1:15
    perchè ero uno di quei giovani
    pazzi per matematica e scienze
  • 1:16 - 1:19
    Ma lungo il mio percorso
    ho imparato a conoscere le armi nucleari,
  • 1:19 - 1:22
    e mi sono proprio preoccupata
    dell'etica della scienza.
  • 1:22 - 1:23
    Ero preoccupata.
  • 1:23 - 1:26
    Tuttavia, a causa della
    mia situazione familiare,
  • 1:26 - 1:29
    dovevo iniziare a lavorare
    al più presto.
  • 1:29 - 1:33
    Così mi sono detta, hey,
    scegliamo un settore tecnico
  • 1:33 - 1:34
    dove posso trovare facilmente
    un lavoro
  • 1:34 - 1:38
    e dove non devo aver a che fare
    con qualche fastidiosa questione etica.
  • 1:39 - 1:41
    Così ho scelto i computer.
  • 1:41 - 1:42
    (Risate)
  • 1:42 - 1:45
    Bene, ah, ah!
    Tutti ridono di me.
  • 1:45 - 1:48
    Ora, gli scienziati del computer
    costruicono piattaforme
  • 1:48 - 1:52
    che controllano ciò che un miliardo
    di persone vedono ogni giorno.
  • 1:53 - 1:57
    Stanno sviluppando auto
    che potrebbero decidere chi investire.
  • 1:58 - 2:01
    Stanno anche costruendo macchine, armi,
  • 2:01 - 2:03
    che possono uccidere persone in guerra.
  • 2:03 - 2:06
    C'è sempre l'etica alla fine.
  • 2:07 - 2:09
    L'intelligenza delle macchine è qui.
  • 2:10 - 2:13
    Ora utilizziamo il computer
    per prendere ogni tipo di decisioni,
  • 2:13 - 2:15
    ma anche nuovi tipi di decisioni.
  • 2:15 - 2:20
    Stiamo ponendo al computer domande
    che non hanno una sola risposta giusta,
  • 2:20 - 2:22
    che sono soggettive
  • 2:22 - 2:24
    e sono aperte e cariche di valore.
  • 2:24 - 2:26
    Domandiamo cose come,
  • 2:26 - 2:27
    "Chi dovrebbe essere assunto?"
  • 2:28 - 2:31
    "Quale update e di quale amico
    dovrebbe essere mostrato?"
  • 2:31 - 2:33
    "Quale pregiudicato sarà più
    probabilmente recidivo?"
  • 2:34 - 2:37
    "Quale notizia o film
    dovrebbe essere consigliato alla gente?"
  • 2:37 - 2:40
    Certo, stiamo usando
    il computer da un po',
  • 2:40 - 2:42
    ma questo è diverso.
  • 2:42 - 2:44
    Questa è un svolta storica,
  • 2:44 - 2:49
    perchè non possiamo poggiarci sul computer
    per queste decisioni soggettive
  • 2:49 - 2:54
    allo stesso modo in cui si usa il computer
    per far volare gli aerei, costruire ponti,
  • 2:54 - 2:56
    andare sulla luna.
  • 2:56 - 3:00
    Sono più sicuri gli aerei?
    Vacillano e cadono i ponti?
  • 3:00 - 3:04
    Qui abbiamo chiari livelli di riferimento,
    su cui concordiamo,
  • 3:04 - 3:06
    ed abbiamo le leggi naturali per guidarci.
  • 3:07 - 3:10
    Non abbiamo tali riferimenti
    per decidere
  • 3:10 - 3:14
    nelle complicate faccende umane.
  • 3:14 - 3:18
    Per rendere le cose più complicate,
    il software sta diventando più potente,
  • 3:18 - 3:22
    ma anche meno trasparente e più complesso.
  • 3:23 - 3:25
    Recentemente, nell'ultima decennio,
  • 3:25 - 3:27
    algoritmi complessi hanno fatto
    notevoli passi avanti.
  • 3:27 - 3:29
    Possono riconoscere le facce umane.
  • 3:30 - 3:32
    Possono decifrare la scrittura manuale.
  • 3:32 - 3:36
    possono individuare le frodi
    sulle carte di credito e bloccare lo spam
  • 3:36 - 3:38
    e possono tradurre le lingue.
  • 3:38 - 3:41
    Possono individuare i tumori
    nelle diagnostica per immagini.
  • 3:41 - 3:43
    Possono battere gli umani a scacchi
    e nel GO
  • 3:43 - 3:48
    Molti di questi progressi derivano
    dal metodo di "apprendimento automatico".
  • 3:48 - 3:52
    L'apprendimento automatico è diverso
    dalla tradizionale programmazione,
  • 3:52 - 3:55
    dove si danno al computer istruzioni
    dettagliate, precise ed accurate.
  • 3:55 - 4:00
    Sembra di più come se forniste
    al sistema molti dati,
  • 4:00 - 4:01
    Inclusi dati non strutturati,
  • 4:01 - 4:04
    del tipo che generiamo
    nella nostre vite digitali.
  • 4:04 - 4:06
    E il sistema impara
    maneggiando quei dati.
  • 4:07 - 4:08
    Ed anche, crucialmente,
  • 4:08 - 4:13
    quei sistemi non lavorano
    con la logica di una sola risposta.
  • 4:13 - 4:16
    Non forniscono una semplice risposta;
    è piuttosto probabilistica:
  • 4:16 - 4:19
    "Questo è probabilmente
    quello che state cercando."
  • 4:20 - 4:23
    Ora, la parte positiva è:
    questo metodo è veramente potente.
  • 4:23 - 4:25
    Il capo sistema AI
    di Google lo ha chiamato
  • 4:25 - 4:27
    "la irragionevole efficacia dei dati."
  • 4:28 - 4:29
    La parte negativa è,
  • 4:30 - 4:33
    non capiamo veramente
    cosa il sistema ha imparato.
  • 4:33 - 4:34
    Infatti, questa è la sua forza.
  • 4:35 - 4:39
    Ciò è meno simile a dare
    istruzioni ad un computer;
  • 4:39 - 4:43
    è più simile all'istruire
    un cucciolo-macchina
  • 4:43 - 4:46
    che noi non capiamo
    o controlliamo veramente
  • 4:46 - 4:48
    Questo è il nostro problema.
  • 4:48 - 4:53
    Il problema è quando questi sistemi
    di intelligenza artificiale lavorano male.
  • 4:53 - 4:56
    Vi è anche il problema
    di quando lavorano bene,
  • 4:56 - 5:00
    perchè non sappiamo chi è chi
    quando il problema è soggettivo.
  • 5:00 - 5:02
    Non sappiamo come il computer ragioni.
  • 5:03 - 5:07
    Così, considerate un algoritmo
    per le assunzioni--
  • 5:08 - 5:12
    un sistema per assumere la gente,
    usando l'apprendimento automatico.
  • 5:13 - 5:17
    Un tale sistema sarebbe stato formato
    sui dati dei precedenti assunti
  • 5:17 - 5:19
    e istruito per trovare ed assumere
  • 5:19 - 5:22
    le persone simili a quelli
    più performanti in azienda.
  • 5:23 - 5:26
    Sembra giusto.
    Una volta ho partecipato ad una conferenza
  • 5:26 - 5:29
    che coinvolgeva i responsabili
    delle Risorse Umane e i manager aziendali,
  • 5:29 - 5:32
    persone ad alto livello,
    che usavano questo sistema per assumere.
  • 5:32 - 5:34
    Erano super entusiasti.
  • 5:34 - 5:38
    Pensavano che ciò avrebbe portato ad
    assunzioni più oggettive, meno distorte,
  • 5:38 - 5:41
    e dato alle donne e alle minoranze
    una migliore opportunità
  • 5:41 - 5:44
    rispetto a manager umani influenzabili.
  • 5:44 - 5:46
    E guarda - le assunzioni fatte
    dagli uomini sono distorte.
  • 5:47 - 5:48
    Lo so.
  • 5:48 - 5:51
    Voglio dire, in uno dei miei primi lavori,
    come programmatrice,
  • 5:51 - 5:55
    la manager da cui dipendevo qualche volta
    scendeva dove stavo
  • 5:55 - 5:59
    molto presto alla mattina
    o molto tardi nel pomeriggio,
  • 5:59 - 6:02
    e mi diceva, "Zeynep,
    andiamo a pranzo!"
  • 6:03 - 6:05
    Ero perplessa per la strana tempistica.
  • 6:05 - 6:07
    Sono le 4 del pomeriggio. Pranzo?
  • 6:07 - 6:10
    Ero al verde, ed è un pranzo gratis.
    Quindi andavo sempre.
  • 6:11 - 6:13
    Più tardi capii cosa stava accadendo.
  • 6:13 - 6:17
    La manager da cui dipendevo
    non aveva confessato ai livelli superiori
  • 6:17 - 6:20
    che il programmatore da lei assunto
    per un importante lavoro era adolescente
  • 6:20 - 6:24
    che indossava jeans e sneaker al lavoro.
  • 6:25 - 6:27
    Lavoravo bene,
    solo sembravo sbagliata,
  • 6:27 - 6:29
    ed era l'età e genere sbagliato.
  • 6:29 - 6:32
    Così asssumere senza considerare
    genere e razza
  • 6:32 - 6:34
    certamante mi sembra giusto.
  • 6:35 - 6:38
    Ma con questi sistemi,
    è più complicato, ed ecco perchè:
  • 6:39 - 6:45
    Ad oggi, i sistemi di calcolo
    possono desumere qualsiasi cosa su di voi
  • 6:45 - 6:47
    dalle vostre briciole digitali,
  • 6:47 - 6:49
    pur se non avete reso pubbliche
    quelle cose.
  • 6:50 - 6:52
    Possono desumere
    il vostro orientamento sessuale,
  • 6:53 - 6:54
    caratteristiche personali,
  • 6:55 - 6:56
    orientamento politico.
  • 6:57 - 7:01
    Hanno potenza predittiva
    con alto livello di accuratezza.
  • 7:01 - 7:04
    Ricordate -- per cose che
    non avete mai dichiarato.
  • 7:04 - 7:06
    Questa è l'inferenza.
  • 7:06 - 7:09
    Ho un'amica che ha sviluppato
    un sistema di elaborazione
  • 7:09 - 7:13
    per predire la probabilità
    della depressione postpartum
  • 7:13 - 7:14
    dai dati delle reti sociali.
  • 7:15 - 7:16
    Risultati impressionanti!
  • 7:16 - 7:20
    Il suo sistema può predire
    la probabilità della depressione
  • 7:20 - 7:24
    mesi prima dell'insorgere
    di un qualsiasi sintomo --
  • 7:24 - 7:25
    mesi prima.
  • 7:25 - 7:27
    Nessun sintomo, ma c'è predizione.
  • 7:27 - 7:32
    Lei spera che sarà usato
    per anticipare un intervento. Ottimo!
  • 7:33 - 7:35
    Ma ora consideratelo in una assunzione.
  • 7:36 - 7:39
    Così a quella conferenza dei manager
    delle risorse umane,
  • 7:39 - 7:44
    ho avvicinato un manager di alto livello
    in una grande azienda,
  • 7:44 - 7:48
    e le ho detto, "Guarda,
    che succederebbe se, alla tua insaputa,
  • 7:48 - 7:55
    il vostro sistema elimina le persone
    con un'alta probabilità di depressione?
  • 7:56 - 7:59
    Non sono depresse ora,
    magari forse in futuro, più probabilmente.
  • 8:00 - 8:03
    Che succederebbe se eliminasse le donne
    più probabilmente incinte
  • 8:03 - 8:06
    nei prossimi uno o due anni
    ma che non lo sono ora?
  • 8:07 - 8:12
    E se assumeste persone aggressive perchè
    questa è la vostra cultura aziendale?"
  • 8:13 - 8:16
    Non potete parlarne guardando
    solo alle quote di genere.
  • 8:16 - 8:17
    Queste si possono bilanciare.
  • 8:17 - 8:21
    E dato che ciò è apprendimento automatico,
    non programmazione tradizionale,
  • 8:21 - 8:26
    non c'è alcuna variabile di codifica
    etichettata "alto rischio di depressione",
  • 8:26 - 8:28
    "maggior rischio di gravidanza,"
  • 8:28 - 8:30
    "gradazione di maschio aggressivo."
  • 8:30 - 8:34
    Non solo non sapete su cosa
    il vostro sistema basi la selezione,
  • 8:34 - 8:36
    ma neppure sapete
    dove cominciare a guardare.
  • 8:36 - 8:37
    E' una "scatola nera".
  • 8:37 - 8:40
    Ha una potenza predittiva
    ma non la capite.
  • 8:40 - 8:43
    "Quali garanzie," chiesi, "avete
  • 8:43 - 8:47
    per essere sicuri che la scatola nera
    non sta facendo qualcosa losco?"
  • 8:49 - 8:53
    Mi ha guardato come se avessi
    schiacciato la coda a 10 cuccioli.
  • 8:53 - 8:54
    (Risate)
  • 8:54 - 8:56
    Mi fissò e disse,
  • 8:57 - 9:01
    "Non voglio sentire altro su questo."
  • 9:01 - 9:03
    E si girò andandosene via.
  • 9:04 - 9:06
    Considerate - non era maleducata.
  • 9:06 - 9:12
    Era chiaro: quello che non so non è un
    mio problema. Va via, sguardo assassino.
  • 9:12 - 9:13
    (Risate)
  • 9:14 - 9:18
    Vedete, un tale sistema
    può anche essere meno influenzata
  • 9:18 - 9:20
    in molti modi rispetto ai manager umani.
  • 9:20 - 9:22
    E potrebbe avere senso economico.
  • 9:23 - 9:24
    Ma può anche portare
  • 9:24 - 9:29
    a una stabile, ma furtiva
    chiusura dal mercato del lavoro
  • 9:29 - 9:31
    di gente più a rischio di depressione.
  • 9:32 - 9:34
    Questo è il tipo di società
    che vogliamo costruire,
  • 9:34 - 9:37
    senza neppure sapere che lo abbiamo fatto,
  • 9:37 - 9:41
    poichè abbiamo lasciato la decisione
    a macchine che non comprendiamo del tutto?
  • 9:41 - 9:43
    Un altro problema è questo:
  • 9:43 - 9:48
    quei sistemi sono spesso addestrati
    con dati generati dalle nostre azioni,
  • 9:48 - 9:50
    di impronta umana.
  • 9:50 - 9:54
    Bene, possono proprio riflettere
    le nostre distorsioni o pregiudizi,
  • 9:54 - 9:58
    e questi sistemi
    si portano dietro i nostri pregiudizi
  • 9:58 - 9:59
    e li amplificano
  • 9:59 - 10:00
    e ce li rispecchiano,
  • 10:00 - 10:02
    mentre ci diciamo,
  • 10:02 - 10:05
    "Stiamo facendo solo elaborazioni
    oggettive e neutrali."
  • 10:06 - 10:09
    Ricerche effettuate su Google trovano,
  • 10:10 - 10:15
    che è meno probabile vengano mostrati
    alle donne avvisi per lavori ben pagati.
  • 10:16 - 10:19
    E cercando nomi di Afro-Americani
  • 10:19 - 10:24
    è più probabile trovare avvisi
    alludenti a storie criminali,
  • 10:24 - 10:25
    anche quando non ce ne sono.
  • 10:27 - 10:30
    Questi sono i pregiudizi nascosti
    e gli algoritmi a scatola nera
  • 10:30 - 10:34
    che i ricercatori talvolta scoprono
    ma che altre volte non conosciamo,
  • 10:34 - 10:37
    possono avere la conseguenza di
    alterare la vita.
  • 10:38 - 10:42
    In Wisconsin, un accusato
    è stato condannato a sei anni di prigione
  • 10:42 - 10:43
    per aver eluso la polizia.
  • 10:45 - 10:46
    Si può non saperlo,
  • 10:46 - 10:50
    ma gli algoritmi sono sempre più usati
    per prendere decisioni giudiziarie.
  • 10:50 - 10:53
    Egli voleva sapere:
    come è stato calcolato il punteggio?
  • 10:54 - 10:55
    Ma è una scatola nera
    sul mercato
  • 10:55 - 11:00
    L'azienda si è rifiutata di far verificare
    il suo algoritmo in una corte pubblica.
  • 11:00 - 11:06
    Ma ProPublica, associazione investigativa
    non-profit, ha verificato quell'algoritmo
  • 11:06 - 11:08
    con i dati pubblici disponibili,
  • 11:08 - 11:10
    trovando che i risultati
    erano influenzati
  • 11:10 - 11:14
    e la sua potenza predittiva era
    niente più di una possibilità,
  • 11:14 - 11:18
    e che era sbagliato etichettare
    accusati neri come futuri criminali
  • 11:18 - 11:22
    a livello doppio degli accusati bianchi.
  • 11:24 - 11:25
    Così considerate questo caso:
  • 11:26 - 11:30
    questa donna è in ritardo
    nel prelevare la sua figlioccia
  • 11:30 - 11:32
    da scuola nella Contea di Broward,
    Florida,
  • 11:33 - 11:35
    correndo per la strada
    con un suo amico.
  • 11:35 - 11:39
    Vedono una bici da ragazzo non bloccata
    ed uno scooter in una veranda
  • 11:39 - 11:41
    e stupidamente vi saltano su.
  • 11:41 - 11:44
    Come stavano scappando via,
    una donna uscì fuori e disse,
  • 11:44 - 11:46
    "Ehi, quella bicicletta è mia!"
  • 11:46 - 11:49
    Essi la lascarono, andarono via,
    ma furono arrestati.
  • 11:49 - 11:53
    Aveva sbagliato, era stata sciocca,
    ma era appena diventata diciottenne.
  • 11:53 - 11:55
    Fu condannata per un paio
    di crimini giovanili.
  • 11:56 - 12:01
    Nel frattempo, quell'uomo fu arrestato
    per furto di merce al Home Depot --
  • 12:01 - 12:04
    merce per 85 dollari di valore,
    un simile piccolo crimine.
  • 12:05 - 12:09
    Ma lui aveva due precedenti
    condanne per rapina a mano armata
  • 12:10 - 12:13
    Ma l'algoritmo aveva valutato lei
    ad alto rischio, non lui.
  • 12:15 - 12:19
    Due anni dopo, ProPublica trovò
    che lei non era stata recidiva.
  • 12:19 - 12:21
    Ma le fu duro trovare
    lavoro, visti i precedenti.
  • 12:21 - 12:23
    Lui, d'altra parte, fu recidivo
  • 12:23 - 12:27
    ed ora è in prigione per 8 anni
    a causa di un successivo crimine.
  • 12:28 - 12:31
    Chiaramente, ci bisogna verificare
    le scatole nere
  • 12:31 - 12:34
    per non dare loro questo
    incontrollato potere.
  • 12:34 - 12:37
    (Applausi)
  • 12:38 - 12:42
    Le verifiche sono importanti,
    ma da sole non risolvono tutti i problemi.
  • 12:42 - 12:45
    Prendete l'algoritmo di Facebook
    per caricare le news--
  • 12:45 - 12:50
    sapete, quello che riordina tutto
    e decide cosa mostrarvi
  • 12:50 - 12:52
    da tutti gli amici e le pagine seguite.
  • 12:53 - 12:55
    Dovrebbe mostrarvi un'altra foto di bimbo?
  • 12:55 - 12:56
    (Risate)
  • 12:56 - 12:59
    Una nota imbronciata da un conoscente?
  • 12:59 - 13:01
    Una importante ma scabrosa notizia?
  • 13:01 - 13:03
    Non c'è una risposta giusta.
  • 13:03 - 13:05
    Facebook ottimizza per
    attraervi al loro sito:
  • 13:06 - 13:07
    i like, condividi, commenti
  • 13:08 - 13:11
    Nell'agosto 2014,
  • 13:11 - 13:15
    proteste scoppiarono a Ferguson, Missouri,
    dopo l'uccisione di
  • 13:15 - 13:18
    un ragazzo Afro-Americano
    da parte di un poliziotto bianco,
  • 13:18 - 13:20
    in circostanze oscure.
  • 13:20 - 13:22
    La notizia delle proteste era presente
  • 13:22 - 13:25
    sul mio caricatore Twitter
    non filtrato da algoritmi,
  • 13:25 - 13:27
    ma nulla sul mio Facebook.
  • 13:27 - 13:29
    Era a causa dei miei amici su Facebook?
  • 13:29 - 13:31
    Ho disabilitato l'algoritmo di Facebook,
  • 13:31 - 13:34
    che non è facile, poichè Facebook
    vuole mantenervi
  • 13:34 - 13:36
    sotto il controllo dell'algoritmo,
  • 13:36 - 13:39
    e vidi che i miei amici
    parlavano di questo.
  • 13:39 - 13:41
    Era proprio l'algoritmo
    che non me lo mostrava.
  • 13:41 - 13:44
    Ho approfondito ed ho trovato
    che è un problema diffuso.
  • 13:44 - 13:48
    La storia di Ferguson non è
    facile per l'algoritmo.
  • 13:48 - 13:49
    Non è likable.
  • 13:49 - 13:51
    Chi sta cliccando su "like?"
  • 13:52 - 13:54
    Non è neppure facile da commentarsi.
  • 13:54 - 13:55
    Senza like e commenti,
  • 13:55 - 13:58
    l'algoritmo tende a mostrare la notizia
    ad ancora meno persone,
  • 13:58 - 14:00
    così non riusciamo a vederla.
  • 14:01 - 14:02
    Invece, questa settimana,
  • 14:02 - 14:04
    l'algoritmo di Facebook ha evidenziato
  • 14:05 - 14:07
    questo: il ALS Ice Bucket Challenge.
  • 14:07 - 14:11
    Causa benefica; svuota acqua ghiacciata,
    dona alla beneficenza, bene.
  • 14:11 - 14:12
    Ottimo per agevolare l'algoritmo.
  • 14:13 - 14:16
    Una decisione automatica è stata
    presa per noi
  • 14:16 - 14:19
    Una conversazione molto importante
    ma scabrosa
  • 14:19 - 14:21
    può essere moderata,
  • 14:21 - 14:24
    essendo Facebook l'unica via trasmissiva.
  • 14:24 - 14:28
    Ora, infine, quei sistemi
    possono sbagliare
  • 14:28 - 14:31
    in modi che non somigliano
    a sistemi umani.
  • 14:31 - 14:34
    Vi ricordate Watson,
    la macchina intelligente di IBM
  • 14:34 - 14:37
    che ha spazzato via
    i contendenti umani a Jeopardy?
  • 14:37 - 14:39
    Era un grande giocatore.
  • 14:39 - 14:42
    Ma poi, alla finale di Jeopardy,
    fu posta questa domanda a Watson:
  • 14:42 - 14:46
    "Il suo più grande aeroporto è intitolato
    a un eroe della II Guerra Mondiale,
  • 14:46 - 14:48
    il suo secondo più grande
    a una sua battaglia."
  • 14:48 - 14:50
    (Musica della finale di Jeopardy)
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:52
    I due umani risposero bene.
  • 14:53 - 14:57
    Watson, da altra parte,
    rispose "Toronto" --
  • 14:57 - 14:59
    per una città nella categoria USA!
  • 15:00 - 15:02
    L'impressionante sistema aveva sbagliato
  • 15:03 - 15:06
    come un umano non avrebbbe mai fatto,
    neppure un alunno delle elementari.
  • 15:07 - 15:10
    L'intelligenza automatica può sbagliare
  • 15:10 - 15:13
    in modi non paragonabili
    con l'approccio dell'errore umano,
  • 15:13 - 15:16
    in modi che non ci aspetteremmo
    e per i quali siamo preparati.
  • 15:16 - 15:20
    Sarebbe pessimo non ottenere un lavoro
    per il quale si è qualificati,
  • 15:20 - 15:23
    ma sarebbe tre volte peggio
    se fosse causato da un errore software
  • 15:23 - 15:25
    in qualche sua subroutine.
  • 15:25 - 15:27
    (Risate)
  • 15:27 - 15:29
    Nel maggio 2010,
  • 15:29 - 15:33
    una crisi improvvisa a Wall Street,
    alimentata da un erroneo ciclo di calcolo
  • 15:33 - 15:36
    nell'algoritmo di "vendi" di Wall Street
  • 15:36 - 15:41
    ha spazzato via un valore
    di un trilione di dollari in 36 minuti.
  • 15:42 - 15:44
    Non voglio pensare
    cosa significhi "errore"
  • 15:44 - 15:48
    nel contesto di armi letali autonome.
  • 15:50 - 15:54
    Si certo, gli umani sono sempre parziali.
  • 15:54 - 15:56
    I decisori e controllori,
  • 15:56 - 15:59
    nelle corti, nei notiziari, in guerra ...
  • 15:59 - 16:02
    commettono errori;
    ma questo è proprio il mio punto.
  • 16:02 - 16:06
    non possiamo sfuggire
    a queste difficili domande.
  • 16:07 - 16:10
    Non possiamo delegare
    le nostre responsabilità alle macchine.
  • 16:11 - 16:15
    (Applausi)
  • 16:17 - 16:22
    L'intelligenza artificiale non ci dà
    un permesso di "uscire dall'etica" gratis.
  • 16:23 - 16:26
    Lo scienziato sui dati Fred Benenson
    lo chiama "pulizia matematica".
  • 16:26 - 16:28
    Necessitiamo del contrario.
  • 16:28 - 16:33
    Verso gli algoritmi occorre coltivare
    la diffidenza, verifica e indagine.
  • 16:33 - 16:37
    Occorre essere sicuri che di sia
    una responsabilità sugli algoritmi,
  • 16:37 - 16:39
    metodi di verifica e
    una comprensibile trasparenza.
  • 16:39 - 16:43
    È necessario accettare
    che portare matematica ed elaborazione
  • 16:43 - 16:45
    in relazioni umane caotiche e di valore,
  • 16:45 - 16:47
    non aggiunge obiettività;
  • 16:47 - 16:52
    piuttosto, la complessità degli affari
    umani invade gli algoritmi.
  • 16:52 - 16:55
    Si, possiamo e dovremmo usare il calcolo
  • 16:55 - 16:58
    per aiutarci nel decidere meglio.
  • 16:58 - 17:02
    Ma dobbiamo mantenere la
    responsabilità morale del giudizio,
  • 17:02 - 17:05
    e usare algoritmi dentro quel contesto,
  • 17:05 - 17:10
    non come gli strumenti per abdicare
    e dare in outsource
  • 17:10 - 17:13
    le nostre responsibilità
    a qualcun altro come fra umani.
  • 17:13 - 17:16
    La intelligenza delle macchine è qui.
  • 17:16 - 17:19
    Significa che dobbiamo tenerci più forti
  • 17:19 - 17:22
    ai valori ed etica umani.
  • 17:22 - 17:23
    Grazie.
  • 17:23 - 17:24
    (Applausi)
Title:
L'intelligenza artificiale rende la moralità umana più importante
Speaker:
Zeynep Tufekci
Description:

L'intelligenza delle macchine è qui, e la usiamo già per prendere decisioni soggettive. Ma il modo complesso con cui la AI (Intelligenza Artificiale) cresce e migliora rende difficile capirla e ancora più difficile controllarla. Nel suo discorso ammonitorio la tecno-sociologa Zeynep Tufekci spiega come le macchine intelligenti possono sbagliare in modi che non assomigliano al modo di sbagliare umano-- e in modi che non ci aspetteremmo o siamo preparati ad affrontare. "Non possiamo delegare le nostre responsabilità alle macchine," dice. "Dobbiamo tenerci ancora più strettamente legati ai valori ed etica umani."

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Italian subtitles

Revisions Compare revisions