Return to Video

L'enigma delle patatine fritte a ricciolo: perché i "Mi Piace" dei social media rivelano più di quello che pensi

  • 0:01 - 0:03
    Se ricordate il primo decennio del web,
  • 0:03 - 0:05
    era davvero un posto statico.
  • 0:05 - 0:07
    Ci si poteva connettere
    e consultare pagine
  • 0:07 - 0:10
    che erano caricate o da organizzazioni
  • 0:10 - 0:11
    che avevano uno staff dedicato
  • 0:11 - 0:13
    o da singoli individui
    esperti di informatica
  • 0:13 - 0:15
    per quei tempi.
  • 0:15 - 0:17
    Con l'avvento dei social media
  • 0:17 - 0:19
    e dei social network
    nei primi anni Duemila,
  • 0:19 - 0:21
    il web si è completamente trasformato
  • 0:21 - 0:25
    in un luogo dove gran parte dei contenuti
  • 0:25 - 0:28
    con cui interagiamo
    è offerto da utenti normali
  • 0:28 - 0:31
    con video su YouTube, post sui vari blog,
  • 0:31 - 0:34
    recensioni di prodotti
    o post sui social media.
  • 0:34 - 0:37
    È diventato un luogo
    molto più interattivo,
  • 0:37 - 0:39
    dove le persone interagiscono tra loro,
  • 0:39 - 0:41
    commentano, condividono
  • 0:41 - 0:43
    non si limitano a leggere.
  • 0:43 - 0:44
    Facebook non è l'unico luogo
    in cui si possono fare queste cose
  • 0:44 - 0:46
    ma è il più grande,
  • 0:46 - 0:47
    ed è utile per farsi un'idea in numeri.
  • 0:47 - 0:51
    Facebook ha 1,2 miliardi
    di utenti al mese.
  • 0:51 - 0:53
    La metà degli abitanti
    della Terra connessi a Internet
  • 0:53 - 0:54
    usa Facebook.
  • 0:54 - 0:56
    Si tratta di un sito, insieme ad altri,
  • 0:56 - 1:00
    che ha permesso alle persone
    di crearsi un'identità online
  • 1:00 - 1:01
    con una competenza tecnica minima
  • 1:01 - 1:04
    e le persone hanno risposto
    immettendo quantità enormi
  • 1:04 - 1:06
    di dati personali online.
  • 1:06 - 1:08
    Quindi abbiamo dati sul comportamento,
  • 1:08 - 1:10
    dati demografici e dati sulle preferenze
  • 1:10 - 1:12
    di centinaia di milioni di persone.
  • 1:12 - 1:14
    Tutto questo non ha precedenti
    nella storia.
  • 1:14 - 1:17
    In quanto esperta di informatica,
  • 1:17 - 1:19
    sono stata in grado di creare modelli
  • 1:19 - 1:21
    in grado di dedurre ogni tipo
    di caratteristica
  • 1:21 - 1:23
    su tutto ciò di cui,
    senza neanche saperlo,
  • 1:23 - 1:25
    si condividono informazioni.
  • 1:25 - 1:28
    Noi scienziati usiamo
    questi dati per semplificare
  • 1:28 - 1:30
    il modo in cui le persone
    interagiscono online,
  • 1:30 - 1:32
    ma esistono anche usi meno altruistici
  • 1:32 - 1:35
    e il problema è che gli utenti
  • 1:35 - 1:37
    non comprendono bene queste tecniche
    né il loro funzionamento,
  • 1:37 - 1:40
    e se anche lo capiscono
    non ne hanno il controllo.
  • 1:40 - 1:42
    Oggi voglio parlarvi
  • 1:42 - 1:45
    di alcune cose che siamo in grado di fare
  • 1:45 - 1:47
    e poi voglio proporre qualche idea
    su come muoverci
  • 1:47 - 1:50
    per riportare parte del controllo
    nelle mani degli utenti.
  • 1:50 - 1:52
    Questa è Target, la compagnia.
  • 1:52 - 1:53
    Non sono stata io a mettere quel logo
  • 1:53 - 1:55
    sulla pancia
    di quella povera donna incinta.
  • 1:55 - 1:57
    Forse avrete letto questo aneddoto
  • 1:57 - 1:59
    sulla rivista Forbes.
    Target ha inviato
  • 1:59 - 2:02
    un volantino a questa quindicenne
  • 2:02 - 2:03
    con della pubblicità e dei coupon
  • 2:03 - 2:06
    per biberon, pannolini e culle,
  • 2:06 - 2:07
    due settimane prima
    che lei dicesse ai suoi genitori
  • 2:07 - 2:09
    di essere incinta.
  • 2:09 - 2:12
    Sì, il padre era davvero sconvolto.
  • 2:12 - 2:14
    Disse, "Come ha fatto Target a capire
  • 2:14 - 2:16
    che questa liceale era incinta
  • 2:16 - 2:18
    prima che lo dicesse ai suoi genitori?"
  • 2:18 - 2:20
    È venuto fuori che l'azienda
    ha la cronologia degli acquisti
  • 2:20 - 2:22
    di centinaia di migliaia di clienti
  • 2:22 - 2:25
    e calcola quello che chiamano
    un punteggio di gravidanza,
  • 2:25 - 2:28
    che non rivela soltanto
    se una donna è incinta oppure no,
  • 2:28 - 2:29
    ma anche la data prevista della nascita.
  • 2:29 - 2:31
    E questo lo calcolano
  • 2:31 - 2:32
    non analizzando le cose ovvie,
  • 2:32 - 2:35
    tipo: "sta comprando
    una culla o vestiti per bambini",
  • 2:35 - 2:38
    ma cose come
    "ha comprato più vitamine
  • 2:38 - 2:39
    di quanto non faccia di solito",
  • 2:39 - 2:41
    oppure "ha comprato una borsa
  • 2:41 - 2:43
    abbastanza grande
    da contenere dei pannolini".
  • 2:43 - 2:45
    Presi singolarmente,
    questi acquisti non sembrano
  • 2:45 - 2:47
    poter rivelare granché,
  • 2:47 - 2:49
    ma è un modello di comportamento che,
  • 2:49 - 2:52
    se visto nel contesto
    di migliaia di altre persone,
  • 2:52 - 2:55
    comincia veramente
    a rivelare alcune informazioni.
  • 2:55 - 2:57
    Questo è il tipo
    di lavoro che svolgiamo
  • 2:57 - 2:59
    quando facciamo previsioni
    su di voi nei social media.
  • 2:59 - 3:02
    Cerchiamo piccoli modelli
    di comportamento che,
  • 3:02 - 3:05
    rilevati tra milioni di persone,
  • 3:05 - 3:07
    ci consentono di scoprire
    tutta una serie di cose.
  • 3:07 - 3:09
    Nel mio laboratorio,
    insieme ai miei colleghi,
  • 3:09 - 3:11
    abbiamo sviluppato dei meccanismi,
    attraverso i quali possiamo
  • 3:11 - 3:13
    prevedere con precisione informazioni
  • 3:13 - 3:14
    come le vostre preferenze politiche,
  • 3:14 - 3:18
    il vostro tipo di personalità,
    il vostro genere, l'orientamento sessuale,
  • 3:18 - 3:21
    la religione, l'età, l'intelligenza,
  • 3:21 - 3:22
    insieme a cose come
  • 3:22 - 3:24
    quanta fiducia avete
    nelle persone che conoscete
  • 3:24 - 3:26
    e quanto sono forti
    le relazioni che avete con loro.
  • 3:26 - 3:28
    Riusciamo a fare tutto questo molto bene.
  • 3:28 - 3:30
    E ripeto, non deriva
    da quelle che potreste
  • 3:30 - 3:32
    considerare delle informazioni ovvie.
  • 3:32 - 3:34
    Il mio esempio preferito
    viene da questa ricerca
  • 3:34 - 3:36
    che è stata pubblicata quest'anno
  • 3:36 - 3:37
    negli Atti dell'Accademia Nazionale.
  • 3:37 - 3:39
    Se lo cercate su Google, lo troverete.
  • 3:39 - 3:41
    È di quattro pagine, di facile lettura.
  • 3:41 - 3:44
    Hanno analizzato solo
    i "Mi Piace" di Facebook,
  • 3:44 - 3:45
    quindi solo le cose
    che vi piacciono su Facebook,
  • 3:45 - 3:48
    ed hanno usato quei dati per prevedere
    tutte queste caratteristiche
  • 3:48 - 3:49
    insieme ad altre.
  • 3:49 - 3:52
    Nel loro articolo hanno elencato
    i cinque "Mi Piace"
  • 3:52 - 3:55
    più indicativi di una grande intelligenza.
  • 3:55 - 3:57
    Tra questi c'era
    il "Mi Piace" per una pagina
  • 3:57 - 3:59
    sulle patatine fritte a ricciolo.
    (Risate)
  • 3:59 - 4:01
    Le patatine fritte a ricciolo
    sono deliziose,
  • 4:01 - 4:04
    ma il fatto che vi piacciano
    non vuol dire necessariamente
  • 4:04 - 4:06
    che siate più intelligenti della media.
  • 4:06 - 4:09
    E allora com'è che uno
    dei più forti indicatori
  • 4:09 - 4:11
    della vostra intelligenza
  • 4:11 - 4:12
    sia legato al fatto
    che vi piaccia questa pagina,
  • 4:12 - 4:14
    quando il contenuto
    è totalmente irrilevante
  • 4:14 - 4:17
    rispetto alla caratteristica
    che ne viene dedotta?
  • 4:17 - 4:19
    Per rispondere a questo
    dobbiamo considerare
  • 4:19 - 4:20
    tutta una serie di teorie
    che stanno alla base
  • 4:20 - 4:23
    e che ci illustrano perché
    si possa fare una cosa del genere.
  • 4:23 - 4:26
    Una di queste è una teoria
    sociologica, si chiama omofilia,
  • 4:26 - 4:29
    che sostanzialmente dice che le persone
    fanno amicizia con chi è come loro.
  • 4:29 - 4:31
    Quindi se sei intelligente tenderai
    ad essere amico di gente intelligente
  • 4:31 - 4:33
    e se sei giovane tenderai
    ad essere amico di gente giovane.
  • 4:33 - 4:35
    È un meccanismo consolidato
  • 4:35 - 4:37
    da centinaia di anni.
  • 4:37 - 4:38
    Sappiamo anche molto
  • 4:38 - 4:41
    di come si diffondono
    le informazioni sui social network.
  • 4:41 - 4:42
    Cose come i video virali,
  • 4:42 - 4:45
    i "Mi Piace" su Facebook
    o altre informazioni
  • 4:45 - 4:47
    si diffondono nei social network
  • 4:47 - 4:49
    esattamente come le malattie.
  • 4:49 - 4:51
    È una cosa che abbiamo studiato a lungo
  • 4:51 - 4:52
    e abbiamo dei buoni modelli
    che lo illustrano.
  • 4:52 - 4:55
    Se si mettono tutte queste cose insieme,
  • 4:55 - 4:58
    si comincerà a capire come
    possano accadere cose del genere.
  • 4:58 - 4:59
    Se dovessi fare un'ipotesi,
  • 4:59 - 5:03
    sarebbe che questa pagina è stata
    creata da un tipo intelligente
  • 5:03 - 5:05
    o magari che uno dei primi che ha messo
    "Mi Piace" su questa pagina
  • 5:05 - 5:06
    ha ottenuto un punteggio alto
    in quel test di intelligenza.
  • 5:06 - 5:09
    Ha messo "Mi Piace",
    i suoi amici l'hanno visto,
  • 5:09 - 5:12
    in base all'omofilia sappiamo che
    probabilmente ha degli amici intelligenti,
  • 5:12 - 5:15
    la pagina si è diffusa tra i suoi amici,
    alcuni di loro hanno messo "Mi Piace",
  • 5:15 - 5:16
    gli amici hanno a loro volta
    altri amici intelligenti
  • 5:16 - 5:18
    e la pagina si è diffusa
    anche tra di loro,
  • 5:18 - 5:19
    propagandosi attraverso la rete
  • 5:19 - 5:21
    tra una moltitudine di gente intelligente
  • 5:21 - 5:23
    e quindi, alla fine,
  • 5:23 - 5:26
    l'azione di mettere "Mi Piace"
    sulla pagina delle patatine a ricciolo
  • 5:26 - 5:28
    è indicatore di un'elevata intelligenza
  • 5:28 - 5:31
    non per il contenuto ma perché
    l'azione fisica di mettere "Mi Piace"
  • 5:31 - 5:34
    riflette una caratteristica comune
  • 5:34 - 5:36
    alle persone che l'hanno fatto.
  • 5:36 - 5:39
    È roba abbastanza complicata, vero?
  • 5:39 - 5:41
    Non è facile mettersi lì a spiegarlo
  • 5:41 - 5:44
    a un utente medio.
    E poi, anche sapendolo,
  • 5:44 - 5:46
    l'utente medio cosa ci può fare?
  • 5:46 - 5:49
    Come fai a sapere
    che qualcosa che ti piace
  • 5:49 - 5:50
    denota una tua caratteristica
  • 5:50 - 5:53
    che non c'entra nulla con il contenuto
    di quella pagina che ti piace?
  • 5:53 - 5:55
    Gli utenti non hanno modo
  • 5:55 - 5:58
    di controllare come venga
    usata questa informazione.
  • 5:58 - 6:01
    Per come la vedo io,
    questo è un problema serio.
  • 6:01 - 6:04
    Penso che ci siano due strade
  • 6:04 - 6:05
    che possiamo percorrere
  • 6:05 - 6:06
    se vogliamo ridare agli utenti
    un po' di controllo
  • 6:06 - 6:08
    su come questi dati
    potranno poi essere utilizzati,
  • 6:08 - 6:11
    perché non sempre questi dati
    saranno utilizzati a loro vantaggio.
  • 6:11 - 6:13
    Faccio spesso l'esempio che,
  • 6:13 - 6:15
    se mai mi stufassi di fare il professore,
  • 6:15 - 6:16
    fonderei un'azienda
  • 6:16 - 6:18
    per dedurre tutte le informazioni
    di cui abbiamo parlato
  • 6:18 - 6:20
    e cose del tipo: se lavori bene in gruppo,
  • 6:20 - 6:22
    se sei un tossicodipendente
    o un alcolista.
  • 6:22 - 6:24
    Sappiamo già come dedurre
    queste informazioni.
  • 6:24 - 6:25
    E poi venderei questi dossier
  • 6:25 - 6:28
    ad società di risorse umane
    e a grandi aziende
  • 6:28 - 6:29
    interessate ad assumerti.
  • 6:29 - 6:31
    Possiamo già farlo senza nessun problema.
  • 6:31 - 6:32
    Potrei creare questa azienda domani,
  • 6:32 - 6:34
    e voi non avreste nessun controllo
  • 6:34 - 6:37
    su come io andrei
    ad utilizzare i vostri dati.
  • 6:37 - 6:39
    Questo mi sembra un bel problema.
  • 6:39 - 6:41
    Una delle strade che potremmo seguire
  • 6:41 - 6:43
    è quella di creare leggi
    e linee di condotta.
  • 6:43 - 6:46
    Per certi versi penso
    che sarebbe molto efficace,
  • 6:46 - 6:49
    il problema tuttavia è l'iter
    di formazione di queste leggi.
  • 6:49 - 6:52
    Osservando il procedimento legislativo
    al giorno d'oggi
  • 6:52 - 6:54
    penso che sia estremamente improbabile
  • 6:54 - 6:56
    che un gruppo di rappresentanti
  • 6:56 - 6:58
    si metta lì a studiare questo problema
  • 6:58 - 7:00
    e metta in atto velocemente
    una serie di cambiamenti
  • 7:00 - 7:02
    alle leggi sulla tutela della proprietà
    intellettuale negli Stati Uniti
  • 7:02 - 7:04
    in modo da rendere gli utenti
    proprietari dei propri dati.
  • 7:04 - 7:06
    Potremmo seguire la strada
    delle linee di condotta,
  • 7:06 - 7:08
    in cui i social media si impegnano a dire:
  • 7:08 - 7:08
    "I dati sono tuoi
  • 7:08 - 7:11
    e hai il completo controllo
    di come vengono utilizzati."
  • 7:11 - 7:13
    Il problema sta nel fatto
    che i modelli di ricavi
  • 7:13 - 7:15
    per la maggior parte
    delle aziende di social media
  • 7:15 - 7:19
    sono fondati sulla condivisione
    e l'utilizzo dei dati degli utenti.
  • 7:19 - 7:21
    Parlando di Facebook
    si dice spesso che gli utenti
  • 7:21 - 7:23
    in realtà non sono i clienti,
    ma il prodotto stesso.
  • 7:23 - 7:25
    Quindi come è possibile che un'azienda
  • 7:25 - 7:29
    ceda il controllo della sua risorsa
    più preziosa agli utenti?
  • 7:29 - 7:31
    È tecnicamente possibile,
    ma non credo che sia qualcosa
  • 7:31 - 7:33
    che possa cambiare nel breve periodo.
  • 7:33 - 7:36
    Penso quindi che come strada alternativa
  • 7:36 - 7:37
    un approccio scientifico
  • 7:37 - 7:39
    potrebbe essere la soluzione più efficace.
  • 7:39 - 7:41
    La scienza, in primo luogo,
    ci ha permesso di sviluppare
  • 7:41 - 7:42
    tutti questi meccanismi
  • 7:42 - 7:45
    per interpretare i dati personali.
  • 7:45 - 7:48
    Dovremmo fare un tipo di ricerca
    molto simile,
  • 7:48 - 7:51
    per sviluppare dei meccanismi
  • 7:51 - 7:52
    che permettano di dire all'utente,
  • 7:52 - 7:55
    "Ecco, questo è il rischio collegato
    all'azione che hai appena compiuto."
  • 7:55 - 7:56
    Mettendo "Mi Piace"
    su quella pagina Facebook
  • 7:56 - 7:59
    o condividendo
    queste informazioni personali,
  • 7:59 - 8:00
    hai migliorato la mia capacità
  • 8:00 - 8:03
    di capire se fai uso
    di stupefacenti o meno
  • 8:03 - 8:05
    o se ti sai relazionare bene
    sul posto di lavoro
  • 8:05 - 8:07
    Penso che questo possa influenzare
  • 8:07 - 8:09
    l'inclinazione personale
    a condividere un'informazione,
  • 8:09 - 8:12
    inserirla mantenendola privata
    o addirittura non inserirla affatto.
  • 8:12 - 8:14
    Potremmo anche pensare
    a funzionalità del tipo
  • 8:14 - 8:16
    permettere agli utenti
    di criptare i dati che inseriscono,
  • 8:16 - 8:18
    in modo che diventino
    invisibili e senza valore
  • 8:18 - 8:20
    per siti come Facebook
  • 8:20 - 8:22
    o servizi di terze parti
    che lo utilizzano.
  • 8:22 - 8:25
    Ma che utenti selezionati, a cui l'utente
  • 8:25 - 8:28
    vuole garantire la possibilità
    di accedere, abbiano accesso.
  • 8:28 - 8:30
    Il fatto che questa ricerca
    sia estremamente interessante
  • 8:30 - 8:32
    dal punto di vista intellettuale,
  • 8:32 - 8:34
    la renderebbe appetibile agli scienziati
    che sarebbero motivati a portarla avanti.
  • 8:34 - 8:37
    È una posizione molto più vantaggiosa
    rispetto alla percorso legislativo.
  • 8:37 - 8:39
    Uno dei problemi che la gente menziona
  • 8:39 - 8:41
    quando parlo di queste cose è che
  • 8:41 - 8:43
    se la gente iniziasse a mantenere privata
    una grande quantità di dati
  • 8:43 - 8:45
    tutti questi metodi che avete sviluppato
  • 8:45 - 8:48
    per dedurre informazioni su di loro
    non funzionerebbero più.
  • 8:48 - 8:52
    Al che io rispondo, certamente,
    e lo vedo come un successo,
  • 8:52 - 8:53
    perché come scienziato,
  • 8:53 - 8:57
    il mio obiettivo non è desumere
    informazioni sugli utenti,
  • 8:57 - 9:00
    bensì migliorare il modo in cui
    le persone interagiscono online.
  • 9:00 - 9:03
    A volte questo implica
    dedurre informazioni su di loro,
  • 9:03 - 9:06
    ma se gli utenti non vogliono
    che io utilizzi alcuni dati,
  • 9:06 - 9:08
    penso che sia un loro diritto.
  • 9:08 - 9:11
    Vorrei che gli utenti
    degli strumenti che noi sviluppiamo
  • 9:11 - 9:13
    fossero utenti informati e consenzienti.
  • 9:13 - 9:16
    Incorraggiare questo tipo di scienza
  • 9:16 - 9:17
    e supportare i ricercatori
  • 9:17 - 9:20
    che vogliono restituire parte
    di quel controllo agli utenti
  • 9:20 - 9:23
    sottraendolo alle aziende di social media
  • 9:23 - 9:25
    vuol dire che andando avanti,
    mentre questi strumenti si evolvono
  • 9:25 - 9:27
    e migliorano,
  • 9:27 - 9:28
    avremo una base di utenti informata
  • 9:28 - 9:30
    e responsabilizzata.
  • 9:30 - 9:31
    Penso che siamo tutti d'accordo
  • 9:31 - 9:33
    sul fatto che questo sarebbe
    il modo ideale di procedere.
  • 9:33 - 9:36
    Grazie.
  • 9:36 - 9:39
    (Applausi)
Title:
L'enigma delle patatine fritte a ricciolo: perché i "Mi Piace" dei social media rivelano più di quello che pensi
Speaker:
Jennifer Golbeck
Description:

Ti piacciono le patatine fritte a ricciolo? Hai messo "Mi piace" su Facebook? Guarda questo intervento per scoprire le cose sorprendenti che Facebook (e altri) possono scoprire su di te dai tuoi "Mi piace" e dalle tue condivisioni. L'esperta di informatica Jennifer Golback spiega come è successo, come alcune applicazioni della tecnologia non siano proprio belle, e perché pensa dovremmo restituire il controllo delle informazioni ai legittimi proprietari.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Italian subtitles

Revisions