O dilema das fritas enroladas: Por que "curtidas" em mídias sociais dizem mais do que você pensa
-
0:01 - 0:03Se você lembra
da primeira década da Internet, -
0:03 - 0:05era um lugar bem estático.
-
0:05 - 0:07Dava para entrar na Internet,
olhar as páginas, -
0:07 - 0:10e elas eram criadas ou por organizações
-
0:10 - 0:11que tinham equipes para isso
-
0:11 - 0:13ou por "experts" em tecnologia
-
0:13 - 0:15para a época.
-
0:15 - 0:17E com a ascenção da mídia social
-
0:17 - 0:19e redes sociais no início dos anos 2000,
-
0:19 - 0:21a Internet mudou completamente
-
0:21 - 0:25para um lugar onde, agora,
a grande maioria do conteúdo -
0:25 - 0:28com que interagimos
é criado por usuários comuns, -
0:28 - 0:31seja em vídeos no YouTube
ou "posts" em "blogs" -
0:31 - 0:34ou críticas de produtos
ou "posts" em mídia social. -
0:34 - 0:37E também se tornou
um lugar muito mais interativo, -
0:37 - 0:39onde pessoas interagem umas com as outras,
-
0:39 - 0:41estão comentando, compartilhando,
-
0:41 - 0:42não estão só lendo.
-
0:42 - 0:44E o Facebook não é
o único lugar para isso, -
0:44 - 0:46mas é o maior,
-
0:46 - 0:47e serve para ilustrar os números.
-
0:47 - 0:51O Facebook tem 1,2 bilhões
de usuários por mês. -
0:51 - 0:53Metade da população da Internet
-
0:53 - 0:54usa o Facebook.
-
0:54 - 0:56Eles são um "site" que, junto com outros,
-
0:56 - 1:00permitiu que as pessoas
criassem personalidades virtuais -
1:00 - 1:01com pouca habilidade técnica,
-
1:01 - 1:04e as pessoas reagiram colocando muitos
-
1:04 - 1:06dados pessoais "online".
-
1:06 - 1:08E o resultado é que temos dados
-
1:08 - 1:10de comportamento,
de preferências e demográficos -
1:10 - 1:12para centenas de milhares de pessoas,
-
1:12 - 1:14o que nunca aconteceu antes na história.
-
1:14 - 1:17E como cientista da computação,
isto quer dizer -
1:17 - 1:19que fui capaz de criar modelos
-
1:19 - 1:22que podem prever todo tipo
de característica oculta de vocês -
1:22 - 1:24e vocês nem sabem que estão compartilhando
-
1:24 - 1:25informações sobre isso.
-
1:25 - 1:28Como cientistas, usamos isso para ajudar
-
1:28 - 1:30as pessoas a interagirem "online",
-
1:30 - 1:32mas há aplicações menos altruístas,
-
1:32 - 1:35e há um problema em que
os usuários não entendem -
1:35 - 1:37realmente essas técnicas
e como elas funcionam, -
1:37 - 1:40e mesmo se entendessem,
não têm muito controle sobre elas. -
1:40 - 1:42O que quero lhes falar hoje
-
1:42 - 1:45são algumas dessas coisas
que podemos fazer, -
1:45 - 1:47e nos dar algumas ideias
de como podemos avançar -
1:47 - 1:50para devolver um pouco
de controle aos usuários. -
1:50 - 1:52Essa é a Target, a empresa.
-
1:52 - 1:53Eu não coloquei o logo
-
1:53 - 1:55na barriga desta pobre mulher grávida.
-
1:55 - 1:57Vocês talvez tenham
visto essa piada publicada -
1:57 - 1:59na revista Forbes, em que a Target
-
1:59 - 2:02enviou um panfleto
para essa garota de 15 anos -
2:02 - 2:03com propagandas e cupons
-
2:03 - 2:06para mamadeiras, fraldas e berços,
-
2:06 - 2:08duas semanas antes
de ela contar aos seus pais -
2:08 - 2:10que estava grávida.
-
2:10 - 2:12Pois é, o pai ficou muito bravo.
-
2:12 - 2:14Ele disse: "Como a Target descobriu
-
2:14 - 2:16que essa essa garota estava grávida
-
2:16 - 2:18antes de ela contar aos seus pais?"
-
2:18 - 2:20Acontece que eles têm
um histórico de compras -
2:20 - 2:22para centenas de milhares de clientes
-
2:22 - 2:25e eles calculam o que chamam
de índice de gravidez, -
2:25 - 2:28que não é só se uma mulher
está grávida ou não, -
2:28 - 2:29mas também quando o bebê deve nascer.
-
2:29 - 2:31E eles o calculam
-
2:31 - 2:32não com base nas coisas óbvias,
-
2:32 - 2:35como a compra de um berço
e roupas de bebê, -
2:35 - 2:38mas coisas como:
"Ela comprou mais vitaminas -
2:38 - 2:39do que normalmente compra",
-
2:39 - 2:41ou "Ela comprou uma bolsa
-
2:41 - 2:43que é grande o suficiente
para guardar fraldas". -
2:43 - 2:45E por si sós, essas compras não parecem
-
2:45 - 2:47revelar muita coisa,
-
2:47 - 2:49mas é um padrão de comportamento
-
2:49 - 2:52que, quando visto no contexto
de milhares de outras pessoas, -
2:52 - 2:55começa a revelar algumas ideias.
-
2:55 - 2:57É esse o tipo de coisa que fazemos
-
2:57 - 2:59quando prevemos coisas
sobre vocês na mídia social. -
2:59 - 3:02Buscamos por pequenos padrões
de comportamento -
3:02 - 3:05que, quando detectados
entre milhões de pessoas, -
3:05 - 3:07nos permitem descobrir todo tipo de coisa.
-
3:07 - 3:09Em meu laboratório e com colegas,
-
3:09 - 3:11desenvolvemos mecanismos
através dos quais podemos -
3:11 - 3:13prever coisas com muita precisão,
-
3:13 - 3:14como sua preferência política,
-
3:14 - 3:18seu índice de personalidade,
gênero, orientação sexual, -
3:18 - 3:21religião, idade, inteligência,
-
3:21 - 3:22junto com coisas como
-
3:22 - 3:24o quanto você confia
nas pessoas que conhece -
3:24 - 3:26e a força desses relacionamentos.
-
3:26 - 3:28Podemos fazer isso muito bem.
-
3:28 - 3:30E novamente, não vem do que pensaríamos
-
3:30 - 3:32que é informação óbvia.
-
3:32 - 3:34Meu exemplo preferido vem de um estudo
-
3:34 - 3:37publicado este ano
nos Precedentes das Academias Nacionais. -
3:37 - 3:39Se olharem no Google, vão achar.
-
3:39 - 3:41São quatro paginas, fácil de ler.
-
3:41 - 3:43E eles só observaram o que
as pessoas curtiam no Facebook, -
3:43 - 3:45só as coisas que vocês curtem no Facebook,
-
3:45 - 3:48e as usaram para prever características,
-
3:48 - 3:49junto com algumas outras.
-
3:49 - 3:52E no artigo, eles listaram
as cinco "curtidas" -
3:52 - 3:55que mais indicavam alta inteligência.
-
3:55 - 3:57E entre eles estava uma página
-
3:57 - 3:59de fritas enroladas. (Risos)
-
3:59 - 4:01Fritas enroladas são deliciosas,
-
4:01 - 4:04Mas gostar delas
não significa necessariamente -
4:04 - 4:06que você é mais esperto que a média.
-
4:06 - 4:09Então, como é que
um dos indicadores mais fortes -
4:09 - 4:11de inteligência
-
4:11 - 4:12é curtir essa página,
-
4:12 - 4:14quando o conteúdo é totalmente irrelevante
-
4:14 - 4:17à característica que está sendo prevista?
-
4:17 - 4:19E acontece que temos que observar
-
4:19 - 4:20um monte de teorias implícitas
-
4:20 - 4:23para ver por que conseguimos fazer isso.
-
4:23 - 4:26Uma delas é uma teoria sociológica
chamada homofilia, -
4:26 - 4:29que basicamente diz que as pessoas
ficam amigas de pessoas como elas. -
4:29 - 4:31Se você é esperto, seus amigos
devem ser espertos, -
4:31 - 4:33Se você é jovem, seus amigos
devem ser jovens, -
4:33 - 4:35e isso foi bem estabelecido
-
4:35 - 4:37por centenas de anos.
-
4:37 - 4:38Também sabemos muito
-
4:38 - 4:41sobre como a informação
se propaga pelas redes. -
4:41 - 4:42Pelo jeito, coisas como vídeos virais
-
4:42 - 4:45ou "curtidas" no Facebook
ou outras informações -
4:45 - 4:47se espalham exatamente do mesmo jeito
-
4:47 - 4:49que doenças se espalham por redes sociais.
-
4:49 - 4:51Estudamos isso por muito tempo.
-
4:51 - 4:52Temos bons modelos disso.
-
4:52 - 4:55E podemos juntar essas coisas
-
4:55 - 4:58e começar a ver por que
essas coisas acontecem. -
4:58 - 4:59Se fosse para criar uma hipótese,
-
4:59 - 5:03seria que um cara esperto
criou essa página, -
5:03 - 5:05ou talvez um dos primeiros
que curtiu a página -
5:05 - 5:06teria se saído bem naquele teste.
-
5:06 - 5:09E ele curtiu, e seus amigos viram,
-
5:09 - 5:12e por homofilia, provavelmente
ele tinha amigos espertos, -
5:12 - 5:15e assim se espalhou para eles,
e alguns deles curtiram, -
5:15 - 5:17e eles tinham amigos espertos,
e assim se espalhou para eles, -
5:17 - 5:19e assim se propagou pela rede
-
5:19 - 5:21para uma série de pessoas espertas,
-
5:21 - 5:23de modo que, ao final,
-
5:23 - 5:26o ato de curtir a página
das fritas enroladas -
5:26 - 5:28indica alta inteligência,
-
5:28 - 5:29não por causa do conteúdo,
-
5:29 - 5:32mas porque o ato de curtir em si
-
5:32 - 5:34reflete as características em comum
-
5:34 - 5:36de outras pessoas que também curtiram.
-
5:36 - 5:39Coisa bastante complicada, certo?
-
5:39 - 5:41É difícil sentar e explicar
-
5:41 - 5:44para um usuário comum, e mesmo se o fizer,
-
5:44 - 5:46o que o usuário comum
pode fazer a respeito? -
5:46 - 5:48Como saber que você curtiu uma coisa
-
5:48 - 5:50que indica um traço seu
-
5:50 - 5:53que é totalmente irrelevante
ao conteúdo do que você curtiu? -
5:53 - 5:56Há muito poder que os usuários não têm
-
5:56 - 5:58para controlar como
esses dados são usados. -
5:58 - 6:01E eu vejo isso como
um verdadeiro problema avançando. -
6:01 - 6:04Acho que há dois caminhos
que podemos observar, -
6:04 - 6:06se quisermos dar ao usuário o controle
-
6:06 - 6:08sobre a utilização desses dados,
-
6:08 - 6:10porque nem sempre serão usados
-
6:10 - 6:11para seu benefício.
-
6:11 - 6:13Um exemplo que eu sempre uso:
-
6:13 - 6:14se eu me cansar de ser professora,
-
6:14 - 6:16eu vou abrir uma empresa
-
6:16 - 6:17que prevê as características
-
6:17 - 6:19e coisas como trabalho em equipe
-
6:19 - 6:22e se você é usuário de drogas,
se é um alcoólatra. -
6:22 - 6:23Sabemos como prever isso tudo.
-
6:23 - 6:25E vou vender relatórios
-
6:25 - 6:27para empresas de RH e grandes empresas
-
6:27 - 6:29que queiram te contratar.
-
6:29 - 6:31Podemos fazer isso agora.
-
6:31 - 6:32Eu poderia abrir essa empresa amanhã,
-
6:32 - 6:34e você não teria qualquer controle
-
6:34 - 6:36de como eu uso seus dados desse jeito.
-
6:36 - 6:39Para mim, isso parece um problema.
-
6:39 - 6:41Então, um dos caminhos que podemos seguir
-
6:41 - 6:43é o caminho da política e da lei.
-
6:43 - 6:46E em alguns aspectos,
acho que assim seria mais eficiente, -
6:46 - 6:49mas o problema é que
teríamos mesmo que fazer. -
6:49 - 6:51Observar nosso processo político em ação
-
6:51 - 6:54me faz pensar que é altamente improvável
-
6:54 - 6:57que vamos juntar um monte
de representantes, mostrá-lhes isso, -
6:57 - 6:59e fazer que decretem mudanças extensas
-
6:59 - 7:02à lei da propriedade intelectual nos EUA
-
7:02 - 7:04para que os usuários controlem seus dados.
-
7:04 - 7:05Ou seguir a rota da política,
-
7:05 - 7:07em que empresas de mídia social dizem:
-
7:07 - 7:08"Sabe? Você é dono de seus dados.
-
7:08 - 7:11Você tem total controle
sobre como eles são usados." -
7:11 - 7:13O problema são os modelos de receita
-
7:13 - 7:14para a maioria
das empresas de mídia social -
7:14 - 7:18que se baseiam no compartilhamento
ou exploração dos dados dos usuários. -
7:18 - 7:20Dizem do Facebook que os usuários
-
7:20 - 7:23não são os clientes, eles são o produto.
-
7:23 - 7:25Então, como fazemos com que uma empresa
-
7:25 - 7:28ceda o controle de seu principal bem
-
7:28 - 7:29aos usuários?
-
7:29 - 7:31É possível, mas não acho que seja algo
-
7:31 - 7:33que veremos acontecer rapidamente.
-
7:33 - 7:35E eu acho que o outro caminho
-
7:35 - 7:37que podemos seguir
e que será mais eficiente -
7:37 - 7:38é um mais científico.
-
7:38 - 7:41É usar a ciência
que nos permitiu desenvolver -
7:41 - 7:43todos esses mecanismos para calcular
-
7:43 - 7:45esses dados pessoais a princípio.
-
7:45 - 7:47E é, de fato, uma pesquisa muito similar
-
7:47 - 7:48que teríamos que fazer,
-
7:48 - 7:51se quisermos desenvolver mecanismos
-
7:51 - 7:52que possam dizer ao usuário:
-
7:52 - 7:54"Aqui está o risco do que
você acabou de fazer." -
7:54 - 7:56Ao curtir aquela página do Facebook,
-
7:56 - 7:59ou ao compartilhar
essa informação pessoal, -
7:59 - 8:00você melhorou minha capacidade
-
8:00 - 8:03de prever se você usa drogas ou não,
-
8:03 - 8:05ou se você se dá bem
no ambiente de trabalho ou não. -
8:05 - 8:07E isso, acredito, pode influenciar
-
8:07 - 8:09a decisão de compartilhar algo,
-
8:09 - 8:12manter privado ou manter
inteiramente "offline". -
8:12 - 8:14Também podemos observar coisas como
-
8:14 - 8:16permitir que as pessoas encriptem
os dados que elas enviam, -
8:16 - 8:18para que sejam invisíveis e inúteis
-
8:18 - 8:20a "sites" como o Facebook
-
8:20 - 8:22ou serviços de terceiros que os acessem,
-
8:22 - 8:25mas a usuários selecionados,
que a pessoa que postou -
8:25 - 8:28quer que os vejam, tenham acesso.
-
8:28 - 8:30Tudo isso é uma pesquisa superlegal
-
8:30 - 8:32de uma perspectiva intelectual.
-
8:32 - 8:34Os cientistas estarão dispostos a fazê-la.
-
8:34 - 8:37Isso nos dá uma vantagem
sobre o lado da lei. -
8:37 - 8:39Um dos problemas que as pessoas levantam
-
8:39 - 8:41quando falo disso é que elas dizem:
-
8:41 - 8:44"Sabe, se todos começarem
a manter esses dados privados, -
8:44 - 8:45todos os métodos que você desenvolveu
-
8:45 - 8:48para prever seus traços vão falhar.
-
8:48 - 8:52E eu digo "com certeza",
e para mim isso é sucesso, -
8:52 - 8:53porque como cientista,
-
8:53 - 8:57meu objetivo não é inferir
informações sobre os usuários, -
8:57 - 9:00é melhorar o jeito
como as pessoas interagem "online". -
9:00 - 9:03E, às vezes, isso envolve
inferir coisas sobre elas, -
9:03 - 9:06mas se os usuários não quiserem
que eu use esses dados, -
9:06 - 9:08acho que eles deveriam ter esse direito.
-
9:08 - 9:11Quero que os usuários
estejam cientes e de acordo, -
9:11 - 9:13usuários das ferramentas
que desenvolvemos. -
9:13 - 9:16Então, acredito que encorajar
esse tipo de ciência -
9:16 - 9:17e apoiar pesquisadores
-
9:17 - 9:20que querem ceder um pouco
desse controle aos usuários -
9:20 - 9:23e tirá-lo das empresas de mídia social
-
9:23 - 9:26significa que avançar, enquanto
essas ferramentas evoluem e avançam, -
9:26 - 9:28significa que vamos ter uma base
-
9:28 - 9:30de usuários instruídos e capacitados,
-
9:30 - 9:31e acho que todos concordamos
-
9:31 - 9:33que esse é o jeito ideal de avançar.
-
9:33 - 9:35Obrigada.
-
9:35 - 9:37(Aplausos)
- Title:
- O dilema das fritas enroladas: Por que "curtidas" em mídias sociais dizem mais do que você pensa
- Speaker:
- Jennifer Golbeck
- Description:
-
Você gosta de fritas enroladas? Já curtiu essa página no Facebook? Assista a esta palestra para descobrir as coisas surpreendentes que o Facebook (e outros) podem deduzir sobre você a partir das páginas curtidas e compartilhadas. A cientista da computação Jennifer Golbeck explica como isso surgiu, como algumas aplicações da tecnologia não são tão legais e por que ela acha que deveríamos devolver o controle da informação aos seus donos legítimos.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Leonardo Silva approved Portuguese, Brazilian subtitles for Your social media "likes" expose more than you think | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Your social media "likes" expose more than you think | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Your social media "likes" expose more than you think | ||
Leonardo Silva edited Portuguese, Brazilian subtitles for Your social media "likes" expose more than you think | ||
Gabriel Moreira accepted Portuguese, Brazilian subtitles for Your social media "likes" expose more than you think | ||
Gabriel Moreira edited Portuguese, Brazilian subtitles for Your social media "likes" expose more than you think | ||
Gabriel Moreira edited Portuguese, Brazilian subtitles for Your social media "likes" expose more than you think | ||
Gabriel Moreira commented on Portuguese, Brazilian subtitles for Your social media "likes" expose more than you think |
Gabriel Moreira
No major problems. Had to correct 4 lines: first, second and two in the middle.