Return to Video

El enigma de las papas rizadas: Por qué un "me gusta" dice más de lo que imaginas

  • 0:01 - 0:03
    Si recuerdan aquella primera
    década de la Web,
  • 0:03 - 0:05
    era un lugar realmente estático.
  • 0:05 - 0:07
    Uno podía ingresar, mirar páginas,
  • 0:07 - 0:10
    o bien de organizaciones
  • 0:10 - 0:11
    que tenían equipos para crearlas
  • 0:11 - 0:13
    o bien de personas que tenían
    conocimientos técnicos
  • 0:13 - 0:15
    en ese entonces.
  • 0:15 - 0:17
    Y con el auge de
    los medios sociales
  • 0:17 - 0:19
    y de las redes sociales
    a principios del 2000
  • 0:19 - 0:21
    la Web cambió completamente
  • 0:21 - 0:25
    y ahora la vasta mayoría
    del contenido con el que
  • 0:25 - 0:28
    interactuamos proviene
    de usuarios medios,
  • 0:28 - 0:31
    de videos de YouTube,
    artículos de blog,
  • 0:31 - 0:34
    revisiones de productos o de
    artículos en medios sociales.
  • 0:34 - 0:37
    Y también se ha vuelto un
    lugar mucho más interactivo,
  • 0:37 - 0:39
    donde las personas interactúan,
  • 0:39 - 0:41
    comentan, comparten,
  • 0:41 - 0:43
    y no solo están leyendo.
  • 0:43 - 0:44
    Facebook no es el único lugar
    donde esto se puede hacer,
  • 0:44 - 0:46
    pero es el lugar más grande.
  • 0:46 - 0:47
    Veamos los números.
  • 0:47 - 0:51
    Facebook tiene 1200 millones
    de usuarios por mes.
  • 0:51 - 0:53
    La mitad de la
    población de Internet
  • 0:53 - 0:54
    usa Facebook.
  • 0:54 - 0:56
    Es un sitio,
    como otros,
  • 0:56 - 1:00
    que nos ha permitido
    crear un yo virtual
  • 1:00 - 1:01
    con poca habilidad técnica,
  • 1:01 - 1:04
    y por eso respondemos
    poniendo ingentes cantidades
  • 1:04 - 1:06
    de datos personales.
  • 1:06 - 1:08
    Así que tenemos datos
    de comportamiento,
  • 1:08 - 1:10
    preferencias,
    datos demográficos
  • 1:10 - 1:12
    de cientos de millones
    de personas,
  • 1:12 - 1:14
    algo sin precedentes
    en la historia.
  • 1:14 - 1:17
    Como científica informática,
    esto me ha permitido
  • 1:17 - 1:19
    construir modelos
  • 1:19 - 1:21
    que pueden predecir todo
    tipo de atributos ocultos
  • 1:21 - 1:23
    de Uds. que ni siquiera
    Uds. conocen,
  • 1:23 - 1:25
    de los que comparten
    información.
  • 1:25 - 1:28
    Como científicos,
    usamos eso para ayudar
  • 1:28 - 1:30
    a interactuar en línea,
  • 1:30 - 1:32
    pero hay aplicaciones
    menos altruístas,
  • 1:32 - 1:35
    y existe un problema en el
    desconocimiento del usuario
  • 1:35 - 1:37
    de estas técnicas y de
    su funcionamiento,
  • 1:37 - 1:40
    y aún de conocerlas, no tenemos
    demasiado control sobre ellas.
  • 1:40 - 1:42
    Por eso hoy quiero hablarles
  • 1:42 - 1:45
    de algunas cosas que
    podemos hacer,
  • 1:45 - 1:47
    y luego brindar
    ideas para avanzar,
  • 1:47 - 1:50
    para devolverle un poco
    de control a los usuarios.
  • 1:50 - 1:52
    Esta es Target, la empresa.
  • 1:52 - 1:53
    No solo puse ese logo
  • 1:53 - 1:55
    en el vientre a esa
    pobre mujer embarazada.
  • 1:55 - 1:57
    Es posible que hayan visto
    la anécdota que salió
  • 1:57 - 1:59
    en Forbes, en la que Target
  • 1:59 - 2:02
    le envió un volante
    a esta chica de 15 años
  • 2:02 - 2:03
    con anuncios y cupones
  • 2:03 - 2:06
    para biberones,
    pañales y cunas
  • 2:06 - 2:07
    2 semanas antes de que
    le dijera a sus padres
  • 2:07 - 2:09
    que estaba embarazada.
  • 2:09 - 2:12
    Sí, el padre estaba muy molesto.
  • 2:12 - 2:14
    Dijo: "¿Cómo adivinó Target
  • 2:14 - 2:16
    que esta chica de secundaria
    estaba embarazada
  • 2:16 - 2:18
    antes de que se lo
    diga a sus padres?"
  • 2:18 - 2:20
    Resulta que ellos tienen
    el historial de compras
  • 2:20 - 2:22
    de cientos de miles de clientes
  • 2:22 - 2:25
    y calculan lo que llaman
    puntaje de embarazo,
  • 2:25 - 2:28
    que no se trata de si la mujer
    está o no embarazada,
  • 2:28 - 2:29
    sino para cuándo espera.
  • 2:29 - 2:31
    Y lo calculan
  • 2:31 - 2:32
    no mirando cosas obvias
  • 2:32 - 2:35
    como si compra una cuna
    o ropa de bebé,
  • 2:35 - 2:38
    sino cosas como
    si compró más vitaminas
  • 2:38 - 2:39
    de lo normal,
  • 2:39 - 2:41
    o si compró un bolso de mano
  • 2:41 - 2:43
    suficientemente grande como
    para contener pañales.
  • 2:43 - 2:45
    Y por sí solas,
    dichas compras no parecen
  • 2:45 - 2:47
    revelar mucho,
  • 2:47 - 2:49
    pero es un patrón de
    comportamiento que,
  • 2:49 - 2:52
    tomado en el contexto de
    miles de otras personas,
  • 2:52 - 2:55
    empieza a revelar algunas ideas.
  • 2:55 - 2:57
    Ese es el tipo de cosas que hacemos
  • 2:57 - 2:59
    al predecir en los
    medios sociales.
  • 2:59 - 3:02
    Buscamos pequeños patrones
    de comportamiento que,
  • 3:02 - 3:05
    al detectarlos entre
    millones de personas,
  • 3:05 - 3:07
    nos permiten encontrar
    todo tipo de cosas.
  • 3:07 - 3:09
    En mi laboratorio,
    junto a mis colegas,
  • 3:09 - 3:11
    hemos desarrollado mecanismos
    en los que podemos
  • 3:11 - 3:13
    predecir cosas con
    bastante exactitud
  • 3:13 - 3:14
    como sus preferencias políticas,
  • 3:14 - 3:18
    su puntaje de personalidad,
    género, orientación sexual,
  • 3:18 - 3:21
    religión, edad, inteligencia,
  • 3:21 - 3:22
    además de cosas como
  • 3:22 - 3:24
    cuánto confían en las
    personas que conocen
  • 3:24 - 3:26
    y cuán fuertes son esas relaciones.
  • 3:26 - 3:28
    Podemos hacer todo esto muy bien.
  • 3:28 - 3:30
    Y, de nuevo, no viene
    de lo que podría
  • 3:30 - 3:32
    pensarse como información obvia.
  • 3:32 - 3:34
    Mi ejemplo preferido
    es este estudio
  • 3:34 - 3:36
    publicado este año
  • 3:36 - 3:37
    en las Actas de la
    Academia Nacional.
  • 3:37 - 3:39
    Si lo buscan en Google,
    lo encontrarán.
  • 3:39 - 3:41
    Tiene 4 páginas,
    es fácil de leer.
  • 3:41 - 3:44
    Mirando los "me gusta"
    de Facebook,
  • 3:44 - 3:45
    o sea, las cosas que
    nos gustan en Facebook,
  • 3:45 - 3:48
    usaron eso para predecir
    todos estos atributos,
  • 3:48 - 3:49
    y algunos otros.
  • 3:49 - 3:52
    En su artículo listaron
    los 5 "me gusta"
  • 3:52 - 3:55
    más indicativos de
    una inteligencia alta.
  • 3:55 - 3:57
    Entre ellos figuraba el "me gusta"
  • 3:57 - 3:59
    de las papas rizadas. (Risas)
  • 3:59 - 4:01
    Las papas rizadas son deliciosas,
  • 4:01 - 4:04
    pero que les gusten
    no necesariamente significa
  • 4:04 - 4:06
    que sean más inteligentes
    que la media.
  • 4:06 - 4:09
    Entonces, ¿cómo es que uno de
    los indicadores más fuertes
  • 4:09 - 4:11
    de inteligencia
  • 4:11 - 4:12
    sea darle "me gusta"
    a esta página
  • 4:12 - 4:14
    si el contenido es
    totalmente irrelevante
  • 4:14 - 4:17
    para el atributo que se predice?
  • 4:17 - 4:19
    Resulta que tenemos que mirar
  • 4:19 - 4:20
    un montón de teorías subyacentes
  • 4:20 - 4:23
    para ver por qué podemos hacer esto.
  • 4:23 - 4:26
    Una de ellas es una teoría
    sociológica llamada homofilia,
  • 4:26 - 4:29
    que dice que básicamente las personas
    son amigas de personas como ellos.
  • 4:29 - 4:31
    Así, si uno es inteligente, tiende
    a ser amigo de personas inteligentes
  • 4:31 - 4:33
    y si es joven, tiende
    a ser amigo de jóvenes
  • 4:33 - 4:35
    y esto está bien establecido
  • 4:35 - 4:37
    desde hace cientos de años.
  • 4:37 - 4:38
    También sabemos mucho
  • 4:38 - 4:41
    sobre cómo se difunde la
    información por las redes.
  • 4:41 - 4:42
    Resulta ser que
    los videos virales,
  • 4:42 - 4:45
    los "me gusta" de Facebook,
    u otra información
  • 4:45 - 4:47
    se difunden exactamente
    de la misma manera
  • 4:47 - 4:49
    que las enfermedades
    por las redes sociales.
  • 4:49 - 4:51
    Por eso es algo que hemos
    estudiado durante mucho tiempo.
  • 4:51 - 4:52
    Tenemos buenos modelos de esto.
  • 4:52 - 4:55
    Juntando estas cosas
  • 4:55 - 4:58
    empezamos a ver por qué
    ocurren cosas como estas.
  • 4:58 - 4:59
    Si tuviera que hacer
    una hipótesis,
  • 4:59 - 5:03
    diría que un tipo inteligente
    lanzó esta página
  • 5:03 - 5:05
    o fue quizá uno de los
    primeros "me gusta"
  • 5:05 - 5:06
    que puntuó alto en esa prueba.
  • 5:06 - 5:09
    Les gustó, y sus amigos lo vieron,
  • 5:09 - 5:12
    y por homofilia, sabemos que probablemente
    tenía amigos inteligentes,
  • 5:12 - 5:15
    por eso se los propagó,
    y a alguno le gustó,
  • 5:15 - 5:16
    y ellos tenían amigos inteligentes,
  • 5:16 - 5:17
    y se lo propagaron a ellos,
  • 5:17 - 5:19
    y así se expandió por la red
  • 5:19 - 5:21
    a una serie de
    personas inteligentes,
  • 5:21 - 5:23
    y así, al final, la acción
  • 5:23 - 5:26
    de darle "me gusta"
    a las papas rizadas
  • 5:26 - 5:28
    es indicio de inteligencia superior,
  • 5:28 - 5:29
    no debido al contenido,
  • 5:29 - 5:32
    sino por la acción
    de darle "me gusta"
  • 5:32 - 5:34
    que refleja el
    atributo en común
  • 5:34 - 5:36
    con otras personas
    que hicieron lo mismo.
  • 5:36 - 5:39
    Es complicado, ¿no?
  • 5:39 - 5:41
    Es algo difícil de explicar
  • 5:41 - 5:44
    al usuario medio,
    y aún de hacerlo,
  • 5:44 - 5:46
    ¿qué puede hacer al respecto
    el usuario medio?
  • 5:46 - 5:48
    ¿Cómo saber que uno
    dio un "me gusta"
  • 5:48 - 5:50
    que indica un rasgo propio
  • 5:50 - 5:53
    totalmente irrelevante al
    contexto del "me gusta"?
  • 5:53 - 5:56
    Los usuarios no tienen demasiado poder
  • 5:56 - 5:58
    para controlar el uso de estos datos.
  • 5:58 - 6:01
    Y veo eso como un verdadero
    problema en el futuro.
  • 6:01 - 6:03
    Por eso creo que hay
    un par de caminos
  • 6:03 - 6:04
    a mirar
  • 6:04 - 6:06
    si queremos darle a los
    usuarios algo de control
  • 6:06 - 6:08
    sobre cómo se usan estos datos,
  • 6:08 - 6:10
    porque no siempre se van a usar
  • 6:10 - 6:11
    en su beneficio.
  • 6:11 - 6:13
    Un ejemplo que doy
    a menudo es que,
  • 6:13 - 6:14
    si alguna vez me aburro
    de ser profesora,
  • 6:14 - 6:16
    fundaré una empresa
  • 6:16 - 6:17
    que prediga todos estos atributos
  • 6:17 - 6:19
    y cosas como cuán bien
    uno trabaja en equipo,
  • 6:19 - 6:22
    o si uno es drogadicto,
    o alcohólico.
  • 6:22 - 6:23
    Sabemos cómo predecir eso.
  • 6:23 - 6:25
    Y le venderé informes
  • 6:25 - 6:27
    a empresas de RR.HH.
    y a grandes empresas
  • 6:27 - 6:29
    que quieran contratarlos.
  • 6:29 - 6:31
    Hoy, podemos hacerlo.
  • 6:31 - 6:32
    Podría lanzar esa empresa mañana,
  • 6:32 - 6:34
    y Uds. no tendrían ningún control
  • 6:34 - 6:36
    para que no use sus datos de esa forma.
  • 6:36 - 6:39
    Eso me parece que es un problema.
  • 6:39 - 6:41
    Por eso podemos
    transitar las vías
  • 6:41 - 6:43
    políticas y legales.
  • 6:43 - 6:46
    En algunos aspectos,
    creo que sería más eficaz
  • 6:46 - 6:49
    pero el problema es
    que deberíamos hacerlo.
  • 6:49 - 6:51
    Al observar nuestro proceso
    político en acción
  • 6:51 - 6:54
    pienso que es muy poco probable
  • 6:54 - 6:55
    conseguir que un grupo
    de representantes
  • 6:55 - 6:57
    se siente,
    se documenten al respecto,
  • 6:57 - 6:59
    y luego promulguen
    cambios radicales
  • 6:59 - 7:02
    a la ley de propiedad
    intelectual de EE.UU.
  • 7:02 - 7:04
    para que los usuarios
    controlen sus datos.
  • 7:04 - 7:05
    Podríamos ir por las políticas,
  • 7:05 - 7:07
    las empresas de medios sociales dicen
  • 7:07 - 7:08
    ¿Sabes? Eres dueño de tus datos.
  • 7:08 - 7:11
    Tienes total control
    de cómo se usan.
  • 7:11 - 7:13
    El problema es que los
    modelos de ingresos
  • 7:13 - 7:14
    de la mayoría de las empresas
    de medios sociales
  • 7:14 - 7:18
    dependen de compartir o explotar los
    datos de usuario de alguna manera.
  • 7:18 - 7:20
    A veces se dice de Facebook
    que los usuarios
  • 7:20 - 7:23
    no son el cliente,
    sino el producto.
  • 7:23 - 7:25
    Entonces, ¿cómo hacer
    que una empresa
  • 7:25 - 7:28
    le ceda el control de
    su activo principal
  • 7:28 - 7:29
    nuevamente a los usuarios?
  • 7:29 - 7:31
    Es posible, pero no creo
    que sea algo
  • 7:31 - 7:33
    que veamos
    cambiar rápidamente.
  • 7:33 - 7:35
    Por eso creo que la otra vía
  • 7:35 - 7:37
    que podemos transitar es
    la de ser más eficaces,
  • 7:37 - 7:38
    la de aplicar más ciencia.
  • 7:38 - 7:41
    La de hacer más ciencia
    que nos permita desarrollar
  • 7:41 - 7:43
    todos estos mecanismos para calcular
  • 7:43 - 7:45
    estos datos personales en primer lugar.
  • 7:45 - 7:47
    Es una investigación muy similar
  • 7:47 - 7:48
    a la que deberíamos hacer
  • 7:48 - 7:51
    si quisiéramos desarrollar mecanismos
  • 7:51 - 7:52
    que le digan al usuario:
  • 7:52 - 7:54
    "Este es el riesgo de la acción
    que acabas de hacer".
  • 7:54 - 7:56
    Al darle "me gusta"
    a esa página en Facebook,
  • 7:56 - 7:59
    o al compartir esa
    información personal,
  • 7:59 - 8:00
    mejoraste mi capacidad
  • 8:00 - 8:03
    de predecir si usas drogas
  • 8:03 - 8:05
    o si te llevas bien
    en el trabajo.
  • 8:05 - 8:07
    Y eso, creo, puede afectar que
  • 8:07 - 8:09
    las personas quieran
    compartir algo,
  • 8:09 - 8:12
    mantenerlo privado,
    o desconectado por completo.
  • 8:12 - 8:14
    También podemos ver cosas como
  • 8:14 - 8:16
    permitirle a las personas
    cifrar los datos que suben,
  • 8:16 - 8:18
    para que sean invisibles
    o sin valor
  • 8:18 - 8:20
    para sitios como Facebook
  • 8:20 - 8:22
    o servicios de terceros
    que los acceden
  • 8:22 - 8:25
    pero que los usuarios
    que la persona seleccionó
  • 8:25 - 8:28
    puedan verlos.
  • 8:28 - 8:30
    Esta es una investigación
    súper interesante
  • 8:30 - 8:32
    desde el punto de
    vista intelectual,
  • 8:32 - 8:34
    de modo que los científicos
    estarán encantados de hacerla.
  • 8:34 - 8:37
    Eso nos da una ventaja
    sobre la vía legal.
  • 8:37 - 8:39
    Uno de los problemas que surgen
  • 8:39 - 8:41
    cuando hablo de esto
  • 8:41 - 8:43
    es que si las personas empiezan
    a mantener estos datos privados
  • 8:43 - 8:45
    todos esos métodos desarrollados
  • 8:45 - 8:48
    para predecir sus rasgos fallarán.
  • 8:48 - 8:52
    Y yo digo que para mí
    es un éxito total,
  • 8:52 - 8:53
    porque como científica,
  • 8:53 - 8:57
    mi objetivo no es inferir
    información de los usuarios,
  • 8:57 - 9:00
    sino mejorar la interacción
    de las personas en línea.
  • 9:00 - 9:03
    A veces, eso implica inferir
    cosas sobre ellos,
  • 9:03 - 9:06
    pero si los usuarios no quieren
    que use esos datos,
  • 9:06 - 9:08
    creo que deberían tener
    el derecho a pedirlo.
  • 9:08 - 9:11
    Quiero usuarios informados, que aprueben
  • 9:11 - 9:13
    las herramientas que desarrollamos.
  • 9:13 - 9:16
    Por eso creo que incentivar
    este tipo de ciencia
  • 9:16 - 9:17
    y apoyar a los investigadores
  • 9:17 - 9:20
    que quieran ceder algo del control
    nuevamente a los usuarios
  • 9:20 - 9:23
    y quitárselo a las empresas
    de medios sociales
  • 9:23 - 9:25
    implica avanzar, y que esas
    herramientas evolucionen
  • 9:25 - 9:27
    y avancen,
  • 9:27 - 9:28
    significa que tendremos
    una base de usuarios
  • 9:28 - 9:30
    educados y con poder.
  • 9:30 - 9:31
    Y creo que todos estamos de acuerdo
  • 9:31 - 9:33
    en que es una manera
    bastante ideal de avanzar.
  • 9:33 - 9:36
    Gracias.
  • 9:36 - 9:39
    (Aplausos)
Title:
El enigma de las papas rizadas: Por qué un "me gusta" dice más de lo que imaginas
Speaker:
Jennifer Golbeck
Description:

Se puede hacer mucho con los datos en línea. Pero ¿sabías que los 'expertos' informáticos una vez determinaron que darle “me gusta” a una página de Facebook sobre papas rizadas implicaba también que eras inteligente? En serio. La científica informática Jennifer Golbeck explica cómo sucedió esto, cómo algunas aplicaciones tecnológicas no son tan benignas y por qué piensa que deberíamos devolver el control de la información a sus legítimos dueños.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:01

Spanish subtitles

Revisions