Return to Video

O dilema das fritas enroladas: Por que "curtidas" em mídias sociais dizem mais do que você pensa

  • 0:01 - 0:03
    Se você lembra
    da primeira década da Internet,
  • 0:03 - 0:05
    era um lugar bem estático.
  • 0:05 - 0:07
    Dava para entrar na Internet,
    olhar as páginas,
  • 0:07 - 0:10
    e elas eram criadas ou por organizações
  • 0:10 - 0:11
    que tinham equipes para isso
  • 0:11 - 0:13
    ou por "experts" em tecnologia
  • 0:13 - 0:15
    para a época.
  • 0:15 - 0:17
    E com a ascenção da mídia social
  • 0:17 - 0:19
    e redes sociais no início dos anos 2000,
  • 0:19 - 0:21
    a Internet mudou completamente
  • 0:21 - 0:25
    para um lugar onde, agora,
    a grande maioria do conteúdo
  • 0:25 - 0:28
    com que interagimos
    é criado por usuários comuns,
  • 0:28 - 0:31
    seja em vídeos no YouTube
    ou "posts" em "blogs"
  • 0:31 - 0:34
    ou críticas de produtos
    ou "posts" em mídia social.
  • 0:34 - 0:37
    E também se tornou
    um lugar muito mais interativo,
  • 0:37 - 0:39
    onde pessoas interagem umas com as outras,
  • 0:39 - 0:41
    estão comentando, compartilhando,
  • 0:41 - 0:42
    não estão só lendo.
  • 0:42 - 0:44
    E o Facebook não é
    o único lugar para isso,
  • 0:44 - 0:46
    mas é o maior,
  • 0:46 - 0:47
    e serve para ilustrar os números.
  • 0:47 - 0:51
    O Facebook tem 1,2 bilhões
    de usuários por mês.
  • 0:51 - 0:53
    Metade da população da Internet
  • 0:53 - 0:54
    usa o Facebook.
  • 0:54 - 0:56
    Eles são um "site" que, junto com outros,
  • 0:56 - 1:00
    permitiu que as pessoas
    criassem personalidades virtuais
  • 1:00 - 1:01
    com pouca habilidade técnica,
  • 1:01 - 1:04
    e as pessoas reagiram colocando muitos
  • 1:04 - 1:06
    dados pessoais "online".
  • 1:06 - 1:08
    E o resultado é que temos dados
  • 1:08 - 1:10
    de comportamento,
    de preferências e demográficos
  • 1:10 - 1:12
    para centenas de milhares de pessoas,
  • 1:12 - 1:14
    o que nunca aconteceu antes na história.
  • 1:14 - 1:17
    E como cientista da computação,
    isto quer dizer
  • 1:17 - 1:19
    que fui capaz de criar modelos
  • 1:19 - 1:22
    que podem prever todo tipo
    de característica oculta de vocês
  • 1:22 - 1:24
    e vocês nem sabem que estão compartilhando
  • 1:24 - 1:25
    informações sobre isso.
  • 1:25 - 1:28
    Como cientistas, usamos isso para ajudar
  • 1:28 - 1:30
    as pessoas a interagirem "online",
  • 1:30 - 1:32
    mas há aplicações menos altruístas,
  • 1:32 - 1:35
    e há um problema em que
    os usuários não entendem
  • 1:35 - 1:37
    realmente essas técnicas
    e como elas funcionam,
  • 1:37 - 1:40
    e mesmo se entendessem,
    não têm muito controle sobre elas.
  • 1:40 - 1:42
    O que quero lhes falar hoje
  • 1:42 - 1:45
    são algumas dessas coisas
    que podemos fazer,
  • 1:45 - 1:47
    e nos dar algumas ideias
    de como podemos avançar
  • 1:47 - 1:50
    para devolver um pouco
    de controle aos usuários.
  • 1:50 - 1:52
    Essa é a Target, a empresa.
  • 1:52 - 1:53
    Eu não coloquei o logo
  • 1:53 - 1:55
    na barriga desta pobre mulher grávida.
  • 1:55 - 1:57
    Vocês talvez tenham
    visto essa piada publicada
  • 1:57 - 1:59
    na revista Forbes, em que a Target
  • 1:59 - 2:02
    enviou um panfleto
    para essa garota de 15 anos
  • 2:02 - 2:03
    com propagandas e cupons
  • 2:03 - 2:06
    para mamadeiras, fraldas e berços,
  • 2:06 - 2:08
    duas semanas antes
    de ela contar aos seus pais
  • 2:08 - 2:10
    que estava grávida.
  • 2:10 - 2:12
    Pois é, o pai ficou muito bravo.
  • 2:12 - 2:14
    Ele disse: "Como a Target descobriu
  • 2:14 - 2:16
    que essa essa garota estava grávida
  • 2:16 - 2:18
    antes de ela contar aos seus pais?"
  • 2:18 - 2:20
    Acontece que eles têm
    um histórico de compras
  • 2:20 - 2:22
    para centenas de milhares de clientes
  • 2:22 - 2:25
    e eles calculam o que chamam
    de índice de gravidez,
  • 2:25 - 2:28
    que não é só se uma mulher
    está grávida ou não,
  • 2:28 - 2:29
    mas também quando o bebê deve nascer.
  • 2:29 - 2:31
    E eles o calculam
  • 2:31 - 2:32
    não com base nas coisas óbvias,
  • 2:32 - 2:35
    como a compra de um berço
    e roupas de bebê,
  • 2:35 - 2:38
    mas coisas como:
    "Ela comprou mais vitaminas
  • 2:38 - 2:39
    do que normalmente compra",
  • 2:39 - 2:41
    ou "Ela comprou uma bolsa
  • 2:41 - 2:43
    que é grande o suficiente
    para guardar fraldas".
  • 2:43 - 2:45
    E por si sós, essas compras não parecem
  • 2:45 - 2:47
    revelar muita coisa,
  • 2:47 - 2:49
    mas é um padrão de comportamento
  • 2:49 - 2:52
    que, quando visto no contexto
    de milhares de outras pessoas,
  • 2:52 - 2:55
    começa a revelar algumas ideias.
  • 2:55 - 2:57
    É esse o tipo de coisa que fazemos
  • 2:57 - 2:59
    quando prevemos coisas
    sobre vocês na mídia social.
  • 2:59 - 3:02
    Buscamos por pequenos padrões
    de comportamento
  • 3:02 - 3:05
    que, quando detectados
    entre milhões de pessoas,
  • 3:05 - 3:07
    nos permitem descobrir todo tipo de coisa.
  • 3:07 - 3:09
    Em meu laboratório e com colegas,
  • 3:09 - 3:11
    desenvolvemos mecanismos
    através dos quais podemos
  • 3:11 - 3:13
    prever coisas com muita precisão,
  • 3:13 - 3:14
    como sua preferência política,
  • 3:14 - 3:18
    seu índice de personalidade,
    gênero, orientação sexual,
  • 3:18 - 3:21
    religião, idade, inteligência,
  • 3:21 - 3:22
    junto com coisas como
  • 3:22 - 3:24
    o quanto você confia
    nas pessoas que conhece
  • 3:24 - 3:26
    e a força desses relacionamentos.
  • 3:26 - 3:28
    Podemos fazer isso muito bem.
  • 3:28 - 3:30
    E novamente, não vem do que pensaríamos
  • 3:30 - 3:32
    que é informação óbvia.
  • 3:32 - 3:34
    Meu exemplo preferido vem de um estudo
  • 3:34 - 3:37
    publicado este ano
    nos Precedentes das Academias Nacionais.
  • 3:37 - 3:39
    Se olharem no Google, vão achar.
  • 3:39 - 3:41
    São quatro paginas, fácil de ler.
  • 3:41 - 3:43
    E eles só observaram o que
    as pessoas curtiam no Facebook,
  • 3:43 - 3:45
    só as coisas que vocês curtem no Facebook,
  • 3:45 - 3:48
    e as usaram para prever características,
  • 3:48 - 3:49
    junto com algumas outras.
  • 3:49 - 3:52
    E no artigo, eles listaram
    as cinco "curtidas"
  • 3:52 - 3:55
    que mais indicavam alta inteligência.
  • 3:55 - 3:57
    E entre eles estava uma página
  • 3:57 - 3:59
    de fritas enroladas. (Risos)
  • 3:59 - 4:01
    Fritas enroladas são deliciosas,
  • 4:01 - 4:04
    Mas gostar delas
    não significa necessariamente
  • 4:04 - 4:06
    que você é mais esperto que a média.
  • 4:06 - 4:09
    Então, como é que
    um dos indicadores mais fortes
  • 4:09 - 4:11
    de inteligência
  • 4:11 - 4:12
    é curtir essa página,
  • 4:12 - 4:14
    quando o conteúdo é totalmente irrelevante
  • 4:14 - 4:17
    à característica que está sendo prevista?
  • 4:17 - 4:19
    E acontece que temos que observar
  • 4:19 - 4:20
    um monte de teorias implícitas
  • 4:20 - 4:23
    para ver por que conseguimos fazer isso.
  • 4:23 - 4:26
    Uma delas é uma teoria sociológica
    chamada homofilia,
  • 4:26 - 4:29
    que basicamente diz que as pessoas
    ficam amigas de pessoas como elas.
  • 4:29 - 4:31
    Se você é esperto, seus amigos
    devem ser espertos,
  • 4:31 - 4:33
    Se você é jovem, seus amigos
    devem ser jovens,
  • 4:33 - 4:35
    e isso foi bem estabelecido
  • 4:35 - 4:37
    por centenas de anos.
  • 4:37 - 4:38
    Também sabemos muito
  • 4:38 - 4:41
    sobre como a informação
    se propaga pelas redes.
  • 4:41 - 4:42
    Pelo jeito, coisas como vídeos virais
  • 4:42 - 4:45
    ou "curtidas" no Facebook
    ou outras informações
  • 4:45 - 4:47
    se espalham exatamente do mesmo jeito
  • 4:47 - 4:49
    que doenças se espalham por redes sociais.
  • 4:49 - 4:51
    Estudamos isso por muito tempo.
  • 4:51 - 4:52
    Temos bons modelos disso.
  • 4:52 - 4:55
    E podemos juntar essas coisas
  • 4:55 - 4:58
    e começar a ver por que
    essas coisas acontecem.
  • 4:58 - 4:59
    Se fosse para criar uma hipótese,
  • 4:59 - 5:03
    seria que um cara esperto
    criou essa página,
  • 5:03 - 5:05
    ou talvez um dos primeiros
    que curtiu a página
  • 5:05 - 5:06
    teria se saído bem naquele teste.
  • 5:06 - 5:09
    E ele curtiu, e seus amigos viram,
  • 5:09 - 5:12
    e por homofilia, provavelmente
    ele tinha amigos espertos,
  • 5:12 - 5:15
    e assim se espalhou para eles,
    e alguns deles curtiram,
  • 5:15 - 5:17
    e eles tinham amigos espertos,
    e assim se espalhou para eles,
  • 5:17 - 5:19
    e assim se propagou pela rede
  • 5:19 - 5:21
    para uma série de pessoas espertas,
  • 5:21 - 5:23
    de modo que, ao final,
  • 5:23 - 5:26
    o ato de curtir a página
    das fritas enroladas
  • 5:26 - 5:28
    indica alta inteligência,
  • 5:28 - 5:29
    não por causa do conteúdo,
  • 5:29 - 5:32
    mas porque o ato de curtir em si
  • 5:32 - 5:34
    reflete as características em comum
  • 5:34 - 5:36
    de outras pessoas que também curtiram.
  • 5:36 - 5:39
    Coisa bastante complicada, certo?
  • 5:39 - 5:41
    É difícil sentar e explicar
  • 5:41 - 5:44
    para um usuário comum, e mesmo se o fizer,
  • 5:44 - 5:46
    o que o usuário comum
    pode fazer a respeito?
  • 5:46 - 5:48
    Como saber que você curtiu uma coisa
  • 5:48 - 5:50
    que indica um traço seu
  • 5:50 - 5:53
    que é totalmente irrelevante
    ao conteúdo do que você curtiu?
  • 5:53 - 5:56
    Há muito poder que os usuários não têm
  • 5:56 - 5:58
    para controlar como
    esses dados são usados.
  • 5:58 - 6:01
    E eu vejo isso como
    um verdadeiro problema avançando.
  • 6:01 - 6:04
    Acho que há dois caminhos
    que podemos observar,
  • 6:04 - 6:06
    se quisermos dar ao usuário o controle
  • 6:06 - 6:08
    sobre a utilização desses dados,
  • 6:08 - 6:10
    porque nem sempre serão usados
  • 6:10 - 6:11
    para seu benefício.
  • 6:11 - 6:13
    Um exemplo que eu sempre uso:
  • 6:13 - 6:14
    se eu me cansar de ser professora,
  • 6:14 - 6:16
    eu vou abrir uma empresa
  • 6:16 - 6:17
    que prevê as características
  • 6:17 - 6:19
    e coisas como trabalho em equipe
  • 6:19 - 6:22
    e se você é usuário de drogas,
    se é um alcoólatra.
  • 6:22 - 6:23
    Sabemos como prever isso tudo.
  • 6:23 - 6:25
    E vou vender relatórios
  • 6:25 - 6:27
    para empresas de RH e grandes empresas
  • 6:27 - 6:29
    que queiram te contratar.
  • 6:29 - 6:31
    Podemos fazer isso agora.
  • 6:31 - 6:32
    Eu poderia abrir essa empresa amanhã,
  • 6:32 - 6:34
    e você não teria qualquer controle
  • 6:34 - 6:36
    de como eu uso seus dados desse jeito.
  • 6:36 - 6:39
    Para mim, isso parece um problema.
  • 6:39 - 6:41
    Então, um dos caminhos que podemos seguir
  • 6:41 - 6:43
    é o caminho da política e da lei.
  • 6:43 - 6:46
    E em alguns aspectos,
    acho que assim seria mais eficiente,
  • 6:46 - 6:49
    mas o problema é que
    teríamos mesmo que fazer.
  • 6:49 - 6:51
    Observar nosso processo político em ação
  • 6:51 - 6:54
    me faz pensar que é altamente improvável
  • 6:54 - 6:57
    que vamos juntar um monte
    de representantes, mostrá-lhes isso,
  • 6:57 - 6:59
    e fazer que decretem mudanças extensas
  • 6:59 - 7:02
    à lei da propriedade intelectual nos EUA
  • 7:02 - 7:04
    para que os usuários controlem seus dados.
  • 7:04 - 7:05
    Ou seguir a rota da política,
  • 7:05 - 7:07
    em que empresas de mídia social dizem:
  • 7:07 - 7:08
    "Sabe? Você é dono de seus dados.
  • 7:08 - 7:11
    Você tem total controle
    sobre como eles são usados."
  • 7:11 - 7:13
    O problema são os modelos de receita
  • 7:13 - 7:14
    para a maioria
    das empresas de mídia social
  • 7:14 - 7:18
    que se baseiam no compartilhamento
    ou exploração dos dados dos usuários.
  • 7:18 - 7:20
    Dizem do Facebook que os usuários
  • 7:20 - 7:23
    não são os clientes, eles são o produto.
  • 7:23 - 7:25
    Então, como fazemos com que uma empresa
  • 7:25 - 7:28
    ceda o controle de seu principal bem
  • 7:28 - 7:29
    aos usuários?
  • 7:29 - 7:31
    É possível, mas não acho que seja algo
  • 7:31 - 7:33
    que veremos acontecer rapidamente.
  • 7:33 - 7:35
    E eu acho que o outro caminho
  • 7:35 - 7:37
    que podemos seguir
    e que será mais eficiente
  • 7:37 - 7:38
    é um mais científico.
  • 7:38 - 7:41
    É usar a ciência
    que nos permitiu desenvolver
  • 7:41 - 7:43
    todos esses mecanismos para calcular
  • 7:43 - 7:45
    esses dados pessoais a princípio.
  • 7:45 - 7:47
    E é, de fato, uma pesquisa muito similar
  • 7:47 - 7:48
    que teríamos que fazer,
  • 7:48 - 7:51
    se quisermos desenvolver mecanismos
  • 7:51 - 7:52
    que possam dizer ao usuário:
  • 7:52 - 7:54
    "Aqui está o risco do que
    você acabou de fazer."
  • 7:54 - 7:56
    Ao curtir aquela página do Facebook,
  • 7:56 - 7:59
    ou ao compartilhar
    essa informação pessoal,
  • 7:59 - 8:00
    você melhorou minha capacidade
  • 8:00 - 8:03
    de prever se você usa drogas ou não,
  • 8:03 - 8:05
    ou se você se dá bem
    no ambiente de trabalho ou não.
  • 8:05 - 8:07
    E isso, acredito, pode influenciar
  • 8:07 - 8:09
    a decisão de compartilhar algo,
  • 8:09 - 8:12
    manter privado ou manter
    inteiramente "offline".
  • 8:12 - 8:14
    Também podemos observar coisas como
  • 8:14 - 8:16
    permitir que as pessoas encriptem
    os dados que elas enviam,
  • 8:16 - 8:18
    para que sejam invisíveis e inúteis
  • 8:18 - 8:20
    a "sites" como o Facebook
  • 8:20 - 8:22
    ou serviços de terceiros que os acessem,
  • 8:22 - 8:25
    mas a usuários selecionados,
    que a pessoa que postou
  • 8:25 - 8:28
    quer que os vejam, tenham acesso.
  • 8:28 - 8:30
    Tudo isso é uma pesquisa superlegal
  • 8:30 - 8:32
    de uma perspectiva intelectual.
  • 8:32 - 8:34
    Os cientistas estarão dispostos a fazê-la.
  • 8:34 - 8:37
    Isso nos dá uma vantagem
    sobre o lado da lei.
  • 8:37 - 8:39
    Um dos problemas que as pessoas levantam
  • 8:39 - 8:41
    quando falo disso é que elas dizem:
  • 8:41 - 8:44
    "Sabe, se todos começarem
    a manter esses dados privados,
  • 8:44 - 8:45
    todos os métodos que você desenvolveu
  • 8:45 - 8:48
    para prever seus traços vão falhar.
  • 8:48 - 8:52
    E eu digo "com certeza",
    e para mim isso é sucesso,
  • 8:52 - 8:53
    porque como cientista,
  • 8:53 - 8:57
    meu objetivo não é inferir
    informações sobre os usuários,
  • 8:57 - 9:00
    é melhorar o jeito
    como as pessoas interagem "online".
  • 9:00 - 9:03
    E, às vezes, isso envolve
    inferir coisas sobre elas,
  • 9:03 - 9:06
    mas se os usuários não quiserem
    que eu use esses dados,
  • 9:06 - 9:08
    acho que eles deveriam ter esse direito.
  • 9:08 - 9:11
    Quero que os usuários
    estejam cientes e de acordo,
  • 9:11 - 9:13
    usuários das ferramentas
    que desenvolvemos.
  • 9:13 - 9:16
    Então, acredito que encorajar
    esse tipo de ciência
  • 9:16 - 9:17
    e apoiar pesquisadores
  • 9:17 - 9:20
    que querem ceder um pouco
    desse controle aos usuários
  • 9:20 - 9:23
    e tirá-lo das empresas de mídia social
  • 9:23 - 9:26
    significa que avançar, enquanto
    essas ferramentas evoluem e avançam,
  • 9:26 - 9:28
    significa que vamos ter uma base
  • 9:28 - 9:30
    de usuários instruídos e capacitados,
  • 9:30 - 9:31
    e acho que todos concordamos
  • 9:31 - 9:33
    que esse é o jeito ideal de avançar.
  • 9:33 - 9:35
    Obrigada.
  • 9:35 - 9:37
    (Aplausos)
Title:
O dilema das fritas enroladas: Por que "curtidas" em mídias sociais dizem mais do que você pensa
Speaker:
Jennifer Golbeck
Description:

Você gosta de fritas enroladas? Já curtiu essa página no Facebook? Assista a esta palestra para descobrir as coisas surpreendentes que o Facebook (e outros) podem deduzir sobre você a partir das páginas curtidas e compartilhadas. A cientista da computação Jennifer Golbeck explica como isso surgiu, como algumas aplicações da tecnologia não são tão legais e por que ela acha que deveríamos devolver o controle da informação aos seus donos legítimos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01
  • No major problems. Had to correct 4 lines: first, second and two in the middle.

Portuguese, Brazilian subtitles

Revisions