El enigma de las papas rizadas: Por qué un "me gusta" dice más de lo que imaginas
-
0:01 - 0:03Si recuerdan aquella primera
década de la Web, -
0:03 - 0:05era un lugar realmente estático.
-
0:05 - 0:07Uno podía ingresar, mirar páginas,
-
0:07 - 0:10o bien de organizaciones
-
0:10 - 0:11que tenían equipos para crearlas
-
0:11 - 0:13o bien de personas que tenían
conocimientos técnicos -
0:13 - 0:15en ese entonces.
-
0:15 - 0:17Y con el auge de
los medios sociales -
0:17 - 0:19y de las redes sociales
a principios del 2000 -
0:19 - 0:21la Web cambió completamente
-
0:21 - 0:25y ahora la vasta mayoría
del contenido con el que -
0:25 - 0:28interactuamos proviene
de usuarios medios, -
0:28 - 0:31de videos de YouTube,
artículos de blog, -
0:31 - 0:34revisiones de productos o de
artículos en medios sociales. -
0:34 - 0:37Y también se ha vuelto un
lugar mucho más interactivo, -
0:37 - 0:39donde las personas interactúan,
-
0:39 - 0:41comentan, comparten,
-
0:41 - 0:43y no solo están leyendo.
-
0:43 - 0:44Facebook no es el único lugar
donde esto se puede hacer, -
0:44 - 0:46pero es el lugar más grande.
-
0:46 - 0:47Veamos los números.
-
0:47 - 0:51Facebook tiene 1200 millones
de usuarios por mes. -
0:51 - 0:53La mitad de la
población de Internet -
0:53 - 0:54usa Facebook.
-
0:54 - 0:56Es un sitio,
como otros, -
0:56 - 1:00que nos ha permitido
crear un yo virtual -
1:00 - 1:01con poca habilidad técnica,
-
1:01 - 1:04y por eso respondemos
poniendo ingentes cantidades -
1:04 - 1:06de datos personales.
-
1:06 - 1:08Así que tenemos datos
de comportamiento, -
1:08 - 1:10preferencias,
datos demográficos -
1:10 - 1:12de cientos de millones
de personas, -
1:12 - 1:14algo sin precedentes
en la historia. -
1:14 - 1:17Como científica informática,
esto me ha permitido -
1:17 - 1:19construir modelos
-
1:19 - 1:21que pueden predecir todo
tipo de atributos ocultos -
1:21 - 1:23de Uds. que ni siquiera
Uds. conocen, -
1:23 - 1:25de los que comparten
información. -
1:25 - 1:28Como científicos,
usamos eso para ayudar -
1:28 - 1:30a interactuar en línea,
-
1:30 - 1:32pero hay aplicaciones
menos altruístas, -
1:32 - 1:35y existe un problema en el
desconocimiento del usuario -
1:35 - 1:37de estas técnicas y de
su funcionamiento, -
1:37 - 1:40y aún de conocerlas, no tenemos
demasiado control sobre ellas. -
1:40 - 1:42Por eso hoy quiero hablarles
-
1:42 - 1:45de algunas cosas que
podemos hacer, -
1:45 - 1:47y luego brindar
ideas para avanzar, -
1:47 - 1:50para devolverle un poco
de control a los usuarios. -
1:50 - 1:52Esta es Target, la empresa.
-
1:52 - 1:53No solo puse ese logo
-
1:53 - 1:55en el vientre a esa
pobre mujer embarazada. -
1:55 - 1:57Es posible que hayan visto
la anécdota que salió -
1:57 - 1:59en Forbes, en la que Target
-
1:59 - 2:02le envió un volante
a esta chica de 15 años -
2:02 - 2:03con anuncios y cupones
-
2:03 - 2:06para biberones,
pañales y cunas -
2:06 - 2:072 semanas antes de que
le dijera a sus padres -
2:07 - 2:09que estaba embarazada.
-
2:09 - 2:12Sí, el padre estaba muy molesto.
-
2:12 - 2:14Dijo: "¿Cómo adivinó Target
-
2:14 - 2:16que esta chica de secundaria
estaba embarazada -
2:16 - 2:18antes de que se lo
diga a sus padres?" -
2:18 - 2:20Resulta que ellos tienen
el historial de compras -
2:20 - 2:22de cientos de miles de clientes
-
2:22 - 2:25y calculan lo que llaman
puntaje de embarazo, -
2:25 - 2:28que no se trata de si la mujer
está o no embarazada, -
2:28 - 2:29sino para cuándo espera.
-
2:29 - 2:31Y lo calculan
-
2:31 - 2:32no mirando cosas obvias
-
2:32 - 2:35como si compra una cuna
o ropa de bebé, -
2:35 - 2:38sino cosas como
si compró más vitaminas -
2:38 - 2:39de lo normal,
-
2:39 - 2:41o si compró un bolso de mano
-
2:41 - 2:43suficientemente grande como
para contener pañales. -
2:43 - 2:45Y por sí solas,
dichas compras no parecen -
2:45 - 2:47revelar mucho,
-
2:47 - 2:49pero es un patrón de
comportamiento que, -
2:49 - 2:52tomado en el contexto de
miles de otras personas, -
2:52 - 2:55empieza a revelar algunas ideas.
-
2:55 - 2:57Ese es el tipo de cosas que hacemos
-
2:57 - 2:59al predecir en los
medios sociales. -
2:59 - 3:02Buscamos pequeños patrones
de comportamiento que, -
3:02 - 3:05al detectarlos entre
millones de personas, -
3:05 - 3:07nos permiten encontrar
todo tipo de cosas. -
3:07 - 3:09En mi laboratorio,
junto a mis colegas, -
3:09 - 3:11hemos desarrollado mecanismos
en los que podemos -
3:11 - 3:13predecir cosas con
bastante exactitud -
3:13 - 3:14como sus preferencias políticas,
-
3:14 - 3:18su puntaje de personalidad,
género, orientación sexual, -
3:18 - 3:21religión, edad, inteligencia,
-
3:21 - 3:22además de cosas como
-
3:22 - 3:24cuánto confían en las
personas que conocen -
3:24 - 3:26y cuán fuertes son esas relaciones.
-
3:26 - 3:28Podemos hacer todo esto muy bien.
-
3:28 - 3:30Y, de nuevo, no viene
de lo que podría -
3:30 - 3:32pensarse como información obvia.
-
3:32 - 3:34Mi ejemplo preferido
es este estudio -
3:34 - 3:36publicado este año
-
3:36 - 3:37en las Actas de la
Academia Nacional. -
3:37 - 3:39Si lo buscan en Google,
lo encontrarán. -
3:39 - 3:41Tiene 4 páginas,
es fácil de leer. -
3:41 - 3:44Mirando los "me gusta"
de Facebook, -
3:44 - 3:45o sea, las cosas que
nos gustan en Facebook, -
3:45 - 3:48usaron eso para predecir
todos estos atributos, -
3:48 - 3:49y algunos otros.
-
3:49 - 3:52En su artículo listaron
los 5 "me gusta" -
3:52 - 3:55más indicativos de
una inteligencia alta. -
3:55 - 3:57Entre ellos figuraba el "me gusta"
-
3:57 - 3:59de las papas rizadas. (Risas)
-
3:59 - 4:01Las papas rizadas son deliciosas,
-
4:01 - 4:04pero que les gusten
no necesariamente significa -
4:04 - 4:06que sean más inteligentes
que la media. -
4:06 - 4:09Entonces, ¿cómo es que uno de
los indicadores más fuertes -
4:09 - 4:11de inteligencia
-
4:11 - 4:12sea darle "me gusta"
a esta página -
4:12 - 4:14si el contenido es
totalmente irrelevante -
4:14 - 4:17para el atributo que se predice?
-
4:17 - 4:19Resulta que tenemos que mirar
-
4:19 - 4:20un montón de teorías subyacentes
-
4:20 - 4:23para ver por qué podemos hacer esto.
-
4:23 - 4:26Una de ellas es una teoría
sociológica llamada homofilia, -
4:26 - 4:29que dice que básicamente las personas
son amigas de personas como ellos. -
4:29 - 4:31Así, si uno es inteligente, tiende
a ser amigo de personas inteligentes -
4:31 - 4:33y si es joven, tiende
a ser amigo de jóvenes -
4:33 - 4:35y esto está bien establecido
-
4:35 - 4:37desde hace cientos de años.
-
4:37 - 4:38También sabemos mucho
-
4:38 - 4:41sobre cómo se difunde la
información por las redes. -
4:41 - 4:42Resulta ser que
los videos virales, -
4:42 - 4:45los "me gusta" de Facebook,
u otra información -
4:45 - 4:47se difunden exactamente
de la misma manera -
4:47 - 4:49que las enfermedades
por las redes sociales. -
4:49 - 4:51Por eso es algo que hemos
estudiado durante mucho tiempo. -
4:51 - 4:52Tenemos buenos modelos de esto.
-
4:52 - 4:55Juntando estas cosas
-
4:55 - 4:58empezamos a ver por qué
ocurren cosas como estas. -
4:58 - 4:59Si tuviera que hacer
una hipótesis, -
4:59 - 5:03diría que un tipo inteligente
lanzó esta página -
5:03 - 5:05o fue quizá uno de los
primeros "me gusta" -
5:05 - 5:06que puntuó alto en esa prueba.
-
5:06 - 5:09Les gustó, y sus amigos lo vieron,
-
5:09 - 5:12y por homofilia, sabemos que probablemente
tenía amigos inteligentes, -
5:12 - 5:15por eso se los propagó,
y a alguno le gustó, -
5:15 - 5:16y ellos tenían amigos inteligentes,
-
5:16 - 5:17y se lo propagaron a ellos,
-
5:17 - 5:19y así se expandió por la red
-
5:19 - 5:21a una serie de
personas inteligentes, -
5:21 - 5:23y así, al final, la acción
-
5:23 - 5:26de darle "me gusta"
a las papas rizadas -
5:26 - 5:28es indicio de inteligencia superior,
-
5:28 - 5:29no debido al contenido,
-
5:29 - 5:32sino por la acción
de darle "me gusta" -
5:32 - 5:34que refleja el
atributo en común -
5:34 - 5:36con otras personas
que hicieron lo mismo. -
5:36 - 5:39Es complicado, ¿no?
-
5:39 - 5:41Es algo difícil de explicar
-
5:41 - 5:44al usuario medio,
y aún de hacerlo, -
5:44 - 5:46¿qué puede hacer al respecto
el usuario medio? -
5:46 - 5:48¿Cómo saber que uno
dio un "me gusta" -
5:48 - 5:50que indica un rasgo propio
-
5:50 - 5:53totalmente irrelevante al
contexto del "me gusta"? -
5:53 - 5:56Los usuarios no tienen demasiado poder
-
5:56 - 5:58para controlar el uso de estos datos.
-
5:58 - 6:01Y veo eso como un verdadero
problema en el futuro. -
6:01 - 6:03Por eso creo que hay
un par de caminos -
6:03 - 6:04a mirar
-
6:04 - 6:06si queremos darle a los
usuarios algo de control -
6:06 - 6:08sobre cómo se usan estos datos,
-
6:08 - 6:10porque no siempre se van a usar
-
6:10 - 6:11en su beneficio.
-
6:11 - 6:13Un ejemplo que doy
a menudo es que, -
6:13 - 6:14si alguna vez me aburro
de ser profesora, -
6:14 - 6:16fundaré una empresa
-
6:16 - 6:17que prediga todos estos atributos
-
6:17 - 6:19y cosas como cuán bien
uno trabaja en equipo, -
6:19 - 6:22o si uno es drogadicto,
o alcohólico. -
6:22 - 6:23Sabemos cómo predecir eso.
-
6:23 - 6:25Y le venderé informes
-
6:25 - 6:27a empresas de RR.HH.
y a grandes empresas -
6:27 - 6:29que quieran contratarlos.
-
6:29 - 6:31Hoy, podemos hacerlo.
-
6:31 - 6:32Podría lanzar esa empresa mañana,
-
6:32 - 6:34y Uds. no tendrían ningún control
-
6:34 - 6:36para que no use sus datos de esa forma.
-
6:36 - 6:39Eso me parece que es un problema.
-
6:39 - 6:41Por eso podemos
transitar las vías -
6:41 - 6:43políticas y legales.
-
6:43 - 6:46En algunos aspectos,
creo que sería más eficaz -
6:46 - 6:49pero el problema es
que deberíamos hacerlo. -
6:49 - 6:51Al observar nuestro proceso
político en acción -
6:51 - 6:54pienso que es muy poco probable
-
6:54 - 6:55conseguir que un grupo
de representantes -
6:55 - 6:57se siente,
se documenten al respecto, -
6:57 - 6:59y luego promulguen
cambios radicales -
6:59 - 7:02a la ley de propiedad
intelectual de EE.UU. -
7:02 - 7:04para que los usuarios
controlen sus datos. -
7:04 - 7:05Podríamos ir por las políticas,
-
7:05 - 7:07las empresas de medios sociales dicen
-
7:07 - 7:08¿Sabes? Eres dueño de tus datos.
-
7:08 - 7:11Tienes total control
de cómo se usan. -
7:11 - 7:13El problema es que los
modelos de ingresos -
7:13 - 7:14de la mayoría de las empresas
de medios sociales -
7:14 - 7:18dependen de compartir o explotar los
datos de usuario de alguna manera. -
7:18 - 7:20A veces se dice de Facebook
que los usuarios -
7:20 - 7:23no son el cliente,
sino el producto. -
7:23 - 7:25Entonces, ¿cómo hacer
que una empresa -
7:25 - 7:28le ceda el control de
su activo principal -
7:28 - 7:29nuevamente a los usuarios?
-
7:29 - 7:31Es posible, pero no creo
que sea algo -
7:31 - 7:33que veamos
cambiar rápidamente. -
7:33 - 7:35Por eso creo que la otra vía
-
7:35 - 7:37que podemos transitar es
la de ser más eficaces, -
7:37 - 7:38la de aplicar más ciencia.
-
7:38 - 7:41La de hacer más ciencia
que nos permita desarrollar -
7:41 - 7:43todos estos mecanismos para calcular
-
7:43 - 7:45estos datos personales en primer lugar.
-
7:45 - 7:47Es una investigación muy similar
-
7:47 - 7:48a la que deberíamos hacer
-
7:48 - 7:51si quisiéramos desarrollar mecanismos
-
7:51 - 7:52que le digan al usuario:
-
7:52 - 7:54"Este es el riesgo de la acción
que acabas de hacer". -
7:54 - 7:56Al darle "me gusta"
a esa página en Facebook, -
7:56 - 7:59o al compartir esa
información personal, -
7:59 - 8:00mejoraste mi capacidad
-
8:00 - 8:03de predecir si usas drogas
-
8:03 - 8:05o si te llevas bien
en el trabajo. -
8:05 - 8:07Y eso, creo, puede afectar que
-
8:07 - 8:09las personas quieran
compartir algo, -
8:09 - 8:12mantenerlo privado,
o desconectado por completo. -
8:12 - 8:14También podemos ver cosas como
-
8:14 - 8:16permitirle a las personas
cifrar los datos que suben, -
8:16 - 8:18para que sean invisibles
o sin valor -
8:18 - 8:20para sitios como Facebook
-
8:20 - 8:22o servicios de terceros
que los acceden -
8:22 - 8:25pero que los usuarios
que la persona seleccionó -
8:25 - 8:28puedan verlos.
-
8:28 - 8:30Esta es una investigación
súper interesante -
8:30 - 8:32desde el punto de
vista intelectual, -
8:32 - 8:34de modo que los científicos
estarán encantados de hacerla. -
8:34 - 8:37Eso nos da una ventaja
sobre la vía legal. -
8:37 - 8:39Uno de los problemas que surgen
-
8:39 - 8:41cuando hablo de esto
-
8:41 - 8:43es que si las personas empiezan
a mantener estos datos privados -
8:43 - 8:45todos esos métodos desarrollados
-
8:45 - 8:48para predecir sus rasgos fallarán.
-
8:48 - 8:52Y yo digo que para mí
es un éxito total, -
8:52 - 8:53porque como científica,
-
8:53 - 8:57mi objetivo no es inferir
información de los usuarios, -
8:57 - 9:00sino mejorar la interacción
de las personas en línea. -
9:00 - 9:03A veces, eso implica inferir
cosas sobre ellos, -
9:03 - 9:06pero si los usuarios no quieren
que use esos datos, -
9:06 - 9:08creo que deberían tener
el derecho a pedirlo. -
9:08 - 9:11Quiero usuarios informados, que aprueben
-
9:11 - 9:13las herramientas que desarrollamos.
-
9:13 - 9:16Por eso creo que incentivar
este tipo de ciencia -
9:16 - 9:17y apoyar a los investigadores
-
9:17 - 9:20que quieran ceder algo del control
nuevamente a los usuarios -
9:20 - 9:23y quitárselo a las empresas
de medios sociales -
9:23 - 9:25implica avanzar, y que esas
herramientas evolucionen -
9:25 - 9:27y avancen,
-
9:27 - 9:28significa que tendremos
una base de usuarios -
9:28 - 9:30educados y con poder.
-
9:30 - 9:31Y creo que todos estamos de acuerdo
-
9:31 - 9:33en que es una manera
bastante ideal de avanzar. -
9:33 - 9:36Gracias.
-
9:36 - 9:39(Aplausos)
- Title:
- El enigma de las papas rizadas: Por qué un "me gusta" dice más de lo que imaginas
- Speaker:
- Jennifer Golbeck
- Description:
-
Se puede hacer mucho con los datos en línea. Pero ¿sabías que los 'expertos' informáticos una vez determinaron que darle “me gusta” a una página de Facebook sobre papas rizadas implicaba también que eras inteligente? En serio. La científica informática Jennifer Golbeck explica cómo sucedió esto, cómo algunas aplicaciones tecnológicas no son tan benignas y por qué piensa que deberíamos devolver el control de la información a sus legítimos dueños.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:01
Sebastian Betti edited Spanish subtitles for Your social media "likes" expose more than you think | ||
Sebastian Betti edited Spanish subtitles for Your social media "likes" expose more than you think | ||
Sebastian Betti edited Spanish subtitles for Your social media "likes" expose more than you think | ||
Sebastian Betti approved Spanish subtitles for Your social media "likes" expose more than you think | ||
mariana vergnano edited Spanish subtitles for Your social media "likes" expose more than you think | ||
mariana vergnano edited Spanish subtitles for Your social media "likes" expose more than you think | ||
mariana vergnano accepted Spanish subtitles for Your social media "likes" expose more than you think | ||
Sebastian Betti edited Spanish subtitles for Your social media "likes" expose more than you think |