Return to Video

O enigma das batatas fritas encaracoladas: Porque os "Gosto" dizem mais sobre si do que pensa

  • 0:01 - 0:03
    Se recordam a primeira década da Internet,
  • 0:03 - 0:05
    era um lugar estático.
  • 0:05 - 0:07
    Podíamos entrar online,
    podíamos ver páginas,
  • 0:07 - 0:11
    criadas por organizações
    com equipas para o efeito,
  • 0:11 - 0:15
    ou por pessoas
    de grande saber tecnológico para a altura.
  • 0:15 - 0:19
    Com o crescimento dos "media" sociais
    e das redes sociais, no início do milénio,
  • 0:19 - 0:21
    a Internet mudou completamente,
  • 0:21 - 0:25
    tornou-se um lugar onde,
    em grande maioria, os conteúdos
  • 0:25 - 0:28
    que usamos são disponibilizados
    por utilizadores comuns,
  • 0:28 - 0:31
    sejam vídeos no Youtube,
    publicações em blogues,
  • 0:31 - 0:34
    avaliações de produtos
    ou publicações nos "media" sociais.
  • 0:34 - 0:37
    Tornou-se também
    um lugar muito mais interativo,
  • 0:37 - 0:39
    onde as pessoas podem interagir
    umas com as outras,
  • 0:39 - 0:42
    podem comentar, partilhar,
    não estão só a ler.
  • 0:42 - 0:45
    O Facebook não é o único lugar
    onde podemos fazer isso,
  • 0:45 - 0:47
    mas é o maior
    e serve para ilustrar os números.
  • 0:47 - 0:51
    O Facebook tem 1200 milhões
    de utilizadores por mês.
  • 0:51 - 0:54
    Metade da população da Terra
    com Internet, usa o Facebook.
  • 0:54 - 0:56
    É um site, tal como outros,
  • 0:56 - 1:00
    que permite que as pessoas criem
    uma personagem virtual,
  • 1:00 - 1:01
    sem ter conhecimentos técnicos
  • 1:01 - 1:04
    e as pessoas reagiram publicando
    enormes quantidades
  • 1:04 - 1:06
    de dados pessoais online.
  • 1:06 - 1:08
    O resultado
    é que temos dados comportamentais,
  • 1:08 - 1:10
    preferências e dados demográficos,
  • 1:10 - 1:12
    de centenas de milhões de pessoas,
  • 1:12 - 1:14
    uma situação sem precedentes na história.
  • 1:14 - 1:17
    Enquanto informática,
    o que isto significa
  • 1:17 - 1:21
    é que posso construir modelos para prever
    muitos tipos de atributos ocultos
  • 1:21 - 1:25
    sobre todos vocês, sem sequer imaginarem
    que estão a partilhar essa informação.
  • 1:25 - 1:28
    Enquanto cientistas,
    usamos isso para facilitar
  • 1:28 - 1:30
    a forma como as pessoas
    interagem online,
  • 1:30 - 1:32
    mas existem outras aplicações
    menos altruístas,
  • 1:32 - 1:35
    e o problema é que os utilizadores
  • 1:35 - 1:37
    não percebem estas técnicas
    nem como elas funcionam
  • 1:37 - 1:40
    e, mesmo que entendessem,
    não têm grande controlo sobre elas.
  • 1:40 - 1:45
    Portanto, quero falar-vos hoje
    das coisas que conseguimos fazer,
  • 1:45 - 1:47
    e depois dar-vos algumas ideias
    sobre o que podemos fazer
  • 1:47 - 1:50
    para devolver algum controlo
    aos utilizadores.
  • 1:50 - 1:52
    Esta é a companhia Target.
  • 1:52 - 1:55
    — não fui eu que coloquei o logótipo
    na barriga da pobre mulher grávida —
  • 1:55 - 1:59
    Talvez tenham visto a história
    que foi publicada na revista Forbes:
  • 1:59 - 2:02
    a Target enviou um folheto
    a uma rapariga de 15 anos
  • 2:02 - 2:06
    com publicidade e cupões
    para biberões, fraldas e berços,
  • 2:06 - 2:09
    duas semanas antes de ela
    dizer aos pais que estava grávida.
  • 2:09 - 2:12
    Pois, o pai ficou mesmo chateado e disse:
  • 2:12 - 2:16
    "Como é que a Target descobriu
    que uma miúda do secundário estava grávida
  • 2:16 - 2:18
    "antes de ela contar aos pais?"
  • 2:18 - 2:20
    Acontece que eles têm
    o historial de compras
  • 2:20 - 2:22
    de centenas de milhares de clientes
  • 2:22 - 2:25
    e calculam o que chamam
    uma probabilidade de gravidez,
  • 2:25 - 2:29
    que não só sabe se a mulher está grávida,
    como também a data provável de gestação.
  • 2:29 - 2:32
    E calculam isso,
    não por observarem coisas óbvias,
  • 2:32 - 2:35
    como ela comprar um berço
    ou roupas de bebé,
  • 2:35 - 2:39
    mas coisas como ter comprado
    mais vitaminas do que é habitual,
  • 2:39 - 2:43
    ou uma mala de mão
    grande o suficiente para carregar fraldas.
  • 2:43 - 2:47
    Parece que estas compras não podem
    revelar grande coisa, em si mesmas,
  • 2:47 - 2:49
    mas é um padrão de comportamento
  • 2:49 - 2:52
    que, quando tomado no contexto
    de milhares de outras pessoas,
  • 2:52 - 2:55
    começa de facto a revelar algumas pistas.
  • 2:55 - 2:57
    É este tipo de coisas que fazemos
  • 2:57 - 3:00
    para prever coisas sobre vocês
    nos "media" sociais.
  • 3:00 - 3:02
    Procuramos pequenos padrões
    de comportamento
  • 3:02 - 3:05
    que, quando detetados
    entre milhões de pessoas,
  • 3:05 - 3:07
    nos permitem encontrar
    todo o tipo de coisas.
  • 3:07 - 3:10
    No meu laboratório, com colegas,
    desenvolvemos mecanismos
  • 3:10 - 3:14
    para prever, com grande rigor, coisas como
    as vossas preferências políticas,
  • 3:14 - 3:18
    a vossa personalidade,
    o género, a orientação sexual,
  • 3:18 - 3:21
    a religião, a idade, a inteligência,
  • 3:21 - 3:22
    juntamente com coisas como
  • 3:22 - 3:26
    em que medida confiam nas vossas relações
    e se essas relações são fortes.
  • 3:26 - 3:30
    Podemos fazer tudo isto, e bem.
    E, mais uma vez, não provém
  • 3:30 - 3:32
    do que possam parecer
    informações óbvias.
  • 3:32 - 3:34
    O meu exemplo preferido é um estudo
  • 3:34 - 3:38
    publicado este ano na revista
    "Proceedings of the National Academies".
  • 3:38 - 3:41
    Encontram-no no Google
    — são quatro páginas, fáceis de ler.
  • 3:41 - 3:44
    Eles analisam os "Gosto" no Facebook,
  • 3:44 - 3:45
    as coisas de que vocês gostam,
  • 3:45 - 3:48
    e usam-nas para prever
    todos esses atributos,
  • 3:48 - 3:49
    juntamente com outros.
  • 3:49 - 3:55
    No artigo, listam os cinco "Gosto"
    mais indiciadores de grande inteligência.
  • 3:55 - 3:58
    Entre eles, estava: "gostar de uma página
    de batatas fritas encaracoladas".
  • 3:58 - 3:59
    (Risos)
  • 3:59 - 4:01
    Batatas fritas encaracoladas
    são deliciosas,
  • 4:01 - 4:04
    mas gostar delas
    não significa necessariamente
  • 4:04 - 4:06
    que somos mais inteligentes
    do que a média.
  • 4:06 - 4:09
    Então, como é possível
    que um dos indicadores mais fortes
  • 4:09 - 4:12
    da vossa inteligência
    seja gostar daquela página
  • 4:12 - 4:17
    quando o conteúdo é totalmente irrelevante
    para o atributo que está a ser avaliado?
  • 4:17 - 4:20
    Acontece que temos que olhar
    para uma série de teorias subjacentes
  • 4:20 - 4:23
    para ver porque é que podemos fazer isto.
  • 4:23 - 4:26
    Uma delas é uma teoria sociológica
    chamada homofilia,
  • 4:26 - 4:29
    que diz que as pessoas são amigas
    de pessoas parecidas com elas.
  • 4:29 - 4:31
    Se são inteligentes,
    tendem a ter amigos inteligentes,
  • 4:31 - 4:33
    se são jovens, tendem a ter
    amigos jovens
  • 4:33 - 4:37
    isto é uma verdade bem estabelecida,
    tem centenas de anos.
  • 4:37 - 4:41
    Também sabemos muito sobre como a
    informação se espalha através das redes.
  • 4:41 - 4:45
    Acontece que coisas como vídeos virais,
    "Gosto" no Facebook, ou outras informações
  • 4:45 - 4:49
    se espalham exatamente da mesma maneira
    que as doenças se espalham na sociedade.
  • 4:49 - 4:51
    Isto é uma coisa que estudamos
    há muito tempo.
  • 4:51 - 4:53
    Temos bons modelos para isso.
  • 4:53 - 4:55
    Portanto, podemos juntar estas coisas
  • 4:55 - 4:58
    e começar a ver porque é
    que acontecem coisas como esta.
  • 4:58 - 4:59
    Se eu quisesse formular uma hipótese,
  • 4:59 - 5:03
    seria que foi um tipo inteligente
    que iniciou esta página,
  • 5:03 - 5:05
    ou talvez que uma das
    primeiras pessoas a gostar dela
  • 5:05 - 5:06
    pontuou alto no teste.
  • 5:06 - 5:09
    Gostaram daquilo,
    e outros amigos viram,
  • 5:09 - 5:12
    por homofilia, sabemos que
    provavelmente tinha amigos inteligentes,
  • 5:12 - 5:15
    e assim espalhou por eles,
    e alguns gostaram
  • 5:15 - 5:17
    e tinham amigos inteligentes
    e espalharam por esses
  • 5:17 - 5:21
    e assim propagou-se pela rede
    a uma legião de pessoas inteligentes,
  • 5:21 - 5:23
    de modo que, por fim,
  • 5:23 - 5:26
    a ação de gostar da página
    das batatas fritas encaracoladas
  • 5:26 - 5:29
    é indicadora de grande inteligência,
    não por causa do conteúdo,
  • 5:29 - 5:34
    mas porque a ação de gostar
    reflete os atributos comuns
  • 5:34 - 5:36
    de outras pessoas que fizeram o mesmo.
  • 5:36 - 5:39
    Isto é mesmo uma coisa
    bastante complicada, não é?
  • 5:39 - 5:41
    É difícil sentarmo-nos e explicarmos
  • 5:41 - 5:44
    a um utilizador vulgar e,
    mesmo que o façamos,
  • 5:44 - 5:46
    o que pode o utilizador vulgar fazer?
  • 5:46 - 5:48
    Como é que sabemos que
    gostar de uma coisa
  • 5:48 - 5:50
    indica uma característica
  • 5:50 - 5:53
    totalmente irrelevante
    para o conteúdo daquilo de que gostamos?
  • 5:53 - 5:58
    Os utilizadores não têm o poder
    de controlar o uso dos dados
  • 5:58 - 6:01
    e eu considero isso um problema real
    que está a agravar-se.
  • 6:01 - 6:04
    Portanto, penso que há algumas vias
    que devemos analisar
  • 6:04 - 6:06
    para dar aos utilizadores
    algum controlo
  • 6:06 - 6:08
    sobre o uso destes dados,
  • 6:08 - 6:10
    porque nem sempre serão usados
  • 6:10 - 6:11
    em seu benefício.
  • 6:11 - 6:14
    Um exemplo que costumo usar, é que,
    se me fartar de ensinar,
  • 6:14 - 6:17
    vou criar uma companhia
    que preveja estes atributos:
  • 6:17 - 6:21
    se vocês trabalham bem em equipa,
    se são consumidores de drogas,
  • 6:21 - 6:22
    se são alcoólicos.
  • 6:22 - 6:24
    Sabemos como prever tudo isso.
  • 6:24 - 6:27
    E vou vender relatórios
    às companhias de recursos humanos
  • 6:27 - 6:29
    e às grandes empresas
    que pensem contratar-vos.
  • 6:29 - 6:31
    Hoje, podemos fazê-lo.
  • 6:31 - 6:34
    Eu podia iniciar esse negócio amanhã
  • 6:34 - 6:37
    e vocês não teriam o mínimo controlo
    deste meu uso dos vossos dados.
  • 6:37 - 6:39
    Penso que isso é um problema.
  • 6:39 - 6:43
    Assim, uma das vias a que podemos recorrer
    é a via da política e da lei.
  • 6:43 - 6:46
    Sob certas perspectivas,
    penso que esse seria o mais eficaz,
  • 6:46 - 6:49
    mas o problema é que temos que o fazer.
  • 6:49 - 6:51
    Observando o nosso
    processo político em ação,
  • 6:51 - 6:54
    faz-me pensar que é muito pouco provável
  • 6:54 - 6:57
    arranjar um grupo de representantes
    que se sentem, oiçam falar disto,
  • 6:57 - 6:59
    e depois produzam alterações radicais
  • 6:59 - 7:02
    à lei da propriedade intelectual nos EU,
  • 7:02 - 7:04
    para que os utilizadores
    controlem os seus dados.
  • 7:04 - 7:07
    Temos a via da autorregulação,
    em que os "media" sociais dizem:
  • 7:07 - 7:11
    "São donos dos vossos dados.
    Podem controlar o modo como são usados".
  • 7:11 - 7:14
    O problema é que o modelo de receitas
    da maior parte dos "media" sociais
  • 7:14 - 7:19
    baseia-se em partilhar ou explorar os
    dados dos utilizadores, de vários modos.
  • 7:19 - 7:23
    Diz-se que os utilizadores do Facebook
    não são clientes, são o produto.
  • 7:23 - 7:25
    Então como é que conseguimos
    que uma companhia
  • 7:25 - 7:28
    abra mão do controlo
    do seu principal ativo
  • 7:28 - 7:29
    devolvendo-o aos utilizadores?
  • 7:29 - 7:33
    É possível, mas não é uma coisa
    que vá mudar assim tão depressa.
  • 7:33 - 7:37
    Portanto, acho que a outra via
    que podemos usar e será muito mais eficaz
  • 7:37 - 7:38
    é uma via mais científica.
  • 7:38 - 7:41
    Foi a ciência
    que nos permitiu desenvolver
  • 7:41 - 7:45
    todos os mecanismos de computação
    para estes dados pessoais.
  • 7:45 - 7:47
    E na verdade é uma pesquisa
    muito semelhante
  • 7:47 - 7:51
    que teremos que fazer
    se queremos desenvolver mecanismos
  • 7:51 - 7:54
    que digam a um utilizador:
    "Este é o risco da ação que realizou".
  • 7:54 - 7:59
    Ao dar um "Gosto" no Facebook,
    ou partilhar alguma informação pessoal,
  • 7:59 - 8:03
    aumentaram a minha capacidade
    de prever se estão a usar drogas
  • 8:03 - 8:05
    ou se estão bem integrados
    no vosso local de trabalho.
  • 8:05 - 8:09
    E isso, creio, pode afetar se as pessoas
    querem partilhar alguma coisa,
  • 8:09 - 8:12
    manterem-na em privado,
    ou apenas mantê-la offline.
  • 8:12 - 8:14
    Podemos olhar para coisas como permitir
  • 8:14 - 8:17
    que as pessoas codifiquem
    os dados que carregam,
  • 8:17 - 8:20
    de modo que eles sejam invisíveis
    e sem préstimo no Facebook
  • 8:20 - 8:22
    ou em serviços
    a que terceiros tenham acesso,
  • 8:22 - 8:26
    mas que as pessoas escolhidas
    por quem os publicou
  • 8:26 - 8:28
    possam ter acesso a eles.
  • 8:28 - 8:30
    Esta é uma pesquisa extremamente excitante
  • 8:30 - 8:32
    do ponto de vista intelectual,
  • 8:32 - 8:34
    e os cientistas vão querer fazê-la.
  • 8:34 - 8:37
    Isso dá-nos uma vantagem
    sobre a via legal.
  • 8:37 - 8:41
    Um dos problemas que as pessoas levantam
    quando falo sobre isto, é:
  • 8:41 - 8:43
    "Se as pessoas começam a manter
    estes dados em privado,
  • 8:43 - 8:48
    "todos os métodos que desenvolveram
    para prever atributos vão fracassar".
  • 8:48 - 8:52
    E eu digo:
    "Encantada! Para mim, isso é um êxito".
  • 8:52 - 8:53
    porque, enquanto cientista,
  • 8:53 - 8:57
    o meu objetivo não é deduzir
    informações sobre utilizadores,
  • 8:57 - 9:00
    é melhorar a forma
    como as pessoas interagem online.
  • 9:00 - 9:03
    E por vezes isso envolve
    deduzir coisas sobre elas,
  • 9:03 - 9:06
    mas, se os utilizadores não quiserem
    que eu use esses dados,
  • 9:06 - 9:08
    penso que devem ter o direito de fazê-lo.
  • 9:08 - 9:10
    Quero que os utilizadores sejam informados
  • 9:10 - 9:13
    e autorizem as ferramentas
    que desenvolvemos.
  • 9:13 - 9:16
    Portanto, penso que encorajar
    este tipo de ciência
  • 9:16 - 9:17
    e apoiar investigadores
  • 9:17 - 9:20
    que querem devolver algum
    desse controlo aos utilizadores
  • 9:20 - 9:23
    e retirá-lo às companhias
    dos "media" sociais
  • 9:23 - 9:24
    significa avançar,
  • 9:24 - 9:26
    à medida que essas ferramentas
    evoluem e avançam,
  • 9:26 - 9:29
    significa que passaremos a ter
    uma base de utilizadores
  • 9:29 - 9:30
    educada e com poder.
  • 9:30 - 9:33
    E penso que todos concordamos
    que é um belo ideal para pôr em prática.
  • 9:33 - 9:35
    Obrigada.
  • 9:36 - 9:39
    (Aplausos)
Title:
O enigma das batatas fritas encaracoladas: Porque os "Gosto" dizem mais sobre si do que pensa
Speaker:
Jennifer Golbeck
Description:

Gosta de batatas fritas encaracoladas? Deu-lhes um "Gosto" no Facebook? Assista a esta palestra para descobrir as coisas surpreendentes que o Facebook (e outros) podem adivinhar sobre si, a partir dos seus "Gosto" e dos seus "Partilhar". A informática Jennifer Golbeck explica como isto aconteceu, como algumas aplicações da tecnologia não são muito engraçadas — e porque é que ela pensa que devíamos devolver o controlo sobre a informação aos seus legítimos proprietários.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Portuguese subtitles

Revisions Compare revisions