Return to Video

El sesgo moral detrás de los resultados de búsqueda | Andreas Ekstrøm | TEDxOslo

  • 0:04 - 0:07
    Cada vez que visito una escuela
    y hablo con los estudiantes,
  • 0:07 - 0:09
    siempre les pregunto lo mismo:
  • 0:10 - 0:12
    ¿Por qué Google?
  • 0:12 - 0:15
    ¿Por qué tienen a Google como
    el buscador de su preferencia?
  • 0:16 - 0:19
    Por extraño que parezca, siempre
    obtengo las mismas 3 respuestas.
  • 0:19 - 0:21
    Uno, "porque funciona",
  • 0:21 - 0:23
    que es una gran respuesta;
    por eso uso Google también.
  • 0:23 - 0:26
    Dos, alguien dirá:
  • 0:26 - 0:29
    "Realmente no sé de ninguna alternativa".
  • 0:29 - 0:32
    No es tan buena respuesta
    y por lo general les digo,
  • 0:32 - 0:34
    "Busca en Google 'buscador'
  • 0:34 - 0:37
    puedes encontrar un par
    de alternativas interesantes".
  • 0:37 - 0:39
    Y por último, pero no menos
    importante, en tercer lugar,
  • 0:39 - 0:43
    inevitablemente, un estudiante
    levantará su mano y dirá:
  • 0:43 - 0:48
    "Porque estoy seguro de obtener
    siempre el mejor resultado imparcial".
  • 0:49 - 0:55
    Seguro de obtener siempre
    el mejor resultado imparcial.
  • 0:57 - 0:59
    Ahora, como una persona de humanidades,
  • 0:59 - 1:01
    aunque una persona de
    humanidades digitales,
  • 1:01 - 1:03
    eso hace que se me enchine la piel,
  • 1:03 - 1:08
    aun cuando sepa que esa confianza,
    esa idea del resultado imparcial
  • 1:08 - 1:12
    es una piedra angular en nuestra
    valoración y amor colectivo por Google.
  • 1:12 - 1:16
    Les mostraré por qué,
    filosóficamente, es casi imposible.
  • 1:16 - 1:19
    Pero primero elaboraré, solo
    un poco, un principio básico
  • 1:19 - 1:23
    detrás de cada consulta de la que
    a veces parece que nos olvidamos.
  • 1:23 - 1:25
    Cada vez que vayan a googlear algo,
  • 1:25 - 1:29
    empiecen por preguntarse:
    "¿Estoy en busca de un hecho aislado?".
  • 1:30 - 1:32
    ¿Cuál es la capital de Francia?
  • 1:32 - 1:35
    ¿Cuáles son los componentes
    básicos de una molécula de agua?
  • 1:35 - 1:38
    Bien, googleénlo.
  • 1:38 - 1:41
    No hay ningún grupo de científicos
    que estén cerca de probar
  • 1:41 - 1:43
    que en realidad sea Londres y H30.
  • 1:43 - 1:45
    No se ve una gran conspiración
    detrás de esas cosas.
  • 1:45 - 1:47
    Estamos de acuerdo,
    en una escala global,
  • 1:47 - 1:50
    cuáles son las respuestas
    a estos hechos aislados.
  • 1:50 - 1:55
    Pero si complican la pregunta
    un poco y preguntan algo así como:
  • 1:55 - 1:58
    "¿Por qué hay un conflicto
    entre Israel y Palestina?".
  • 1:58 - 2:01
    No están exactamente en busca
    de un hecho singular más,
  • 2:01 - 2:03
    están buscando conocimiento,
  • 2:03 - 2:06
    que es algo mucho más
    complicado y delicado.
  • 2:06 - 2:08
    Y para llegar al conocimiento,
  • 2:08 - 2:11
    se tienen que tener 10 o 20
    o 100 hechos a la mesa
  • 2:11 - 2:13
    y reconocerlos y decir:
    "Sí, estos son ciertos".
  • 2:13 - 2:15
    Pero debido a quién soy,
  • 2:15 - 2:17
    joven o viejo, negro o blanco,
    gay o heterosexual,
  • 2:17 - 2:19
    los voy a valorar de manera diferente.
  • 2:19 - 2:21
    Y diré: "Sí, esto es cierto,
  • 2:21 - 2:23
    pero esto es más
    importante para mí que eso".
  • 2:23 - 2:25
    Y aquí es donde se pone interesante,
  • 2:25 - 2:27
    porque aquí es donde
    nos hacemos humanos.
  • 2:27 - 2:30
    Aquí es cuando empezamos
    a discutir, a formar la sociedad.
  • 2:30 - 2:33
    Y para llegar a algún lugar,
    necesitamos filtrar todos nuestros hechos,
  • 2:33 - 2:36
    a través de amigos y vecinos
    y padres de familia y los niños
  • 2:36 - 2:39
    y compañeros de trabajo
    y los periódicos y revistas,
  • 2:39 - 2:41
    para finalmente basarnos
    en un conocimiento real,
  • 2:41 - 2:46
    que es algo que un motor
    de búsqueda difícilmente logra.
  • 2:48 - 2:52
    Prometí un ejemplo solo para
    mostrar por qué es tan difícil
  • 2:53 - 2:56
    llegar al verdadero
    conocimiento, limpio, objetivo
  • 2:56 - 2:58
    como alimento para el pensamiento.
  • 2:58 - 3:02
    Voy a llevar a cabo un
    par de consultas simples.
  • 3:02 - 3:05
    Vamos a empezar con "Michelle Obama"
  • 3:06 - 3:08
    la primera dama de los EE. UU.
  • 3:08 - 3:10
    Y vamos a buscar fotografías.
  • 3:11 - 3:13
    Funciona muy bien, como se puede ver.
  • 3:13 - 3:16
    Es un resultado de búsqueda
    perfecto, más o menos.
  • 3:16 - 3:19
    Es solo ella en la foto,
    ni siquiera el presidente.
  • 3:19 - 3:21
    ¿Cómo funciona esto?
  • 3:21 - 3:23
    Bastante sencillo.
  • 3:23 - 3:26
    Google utiliza mucha astucia
    para lograr esto, pero simplemente,
  • 3:26 - 3:29
    ve dos cosas más que cualquiera otras.
  • 3:29 - 3:33
    Primero, ¿qué dice la leyenda
    debajo de la foto en cada sitio web?
  • 3:33 - 3:35
    ¿Dice "Michelle Obama"
    debajo de la foto?
  • 3:35 - 3:38
    Bastante buena indicación de
    que en realidad sea ella allí.
  • 3:38 - 3:41
    En segundo lugar, Google ve
    en el archivo de imagen,
  • 3:41 - 3:43
    el nombre del archivo
    como tal subido a la página web.
  • 3:43 - 3:46
    Una vez más, ¿se llama
    "MichelleObama.jpeg"?
  • 3:46 - 3:49
    Bastante buena indicación de que
    no es Clint Eastwood en la imagen.
  • 3:49 - 3:53
    Por lo tanto, con estos dos se
    obtiene un resultado como este, casi.
  • 3:53 - 3:59
    Ahora, en 2009, Michelle Obama
    fue víctima de una campaña racista,
  • 4:00 - 4:04
    la gente se puso a insultarla a
    través de sus resultados de búsqueda.
  • 4:05 - 4:08
    Había una imagen distribuida
    ampliamente a través de Internet
  • 4:08 - 4:10
    donde su cara fue distorsionada
    para que pareciera un mono.
  • 4:10 - 4:13
    Y la foto se publicó por todas partes.
  • 4:14 - 4:17
    Y la gente la publicó
    muy, muy a propósito,
  • 4:17 - 4:19
    para que apareciera en
    los resultados de búsqueda.
  • 4:19 - 4:22
    Se aseguraron de escribir
    "Michelle Obama" en el pie
  • 4:22 - 4:26
    y se aseguraron de cargar la imagen
    como "MichelleObama.jpeg" o similares.
  • 4:26 - 4:29
    ¿Saben para qué?, para
    manipular el resultado de búsqueda.
  • 4:29 - 4:30
    Y funcionó.
  • 4:30 - 4:33
    Así que cuando buscaban imágenes en
    Google de "Michelle Obama" en 2009,
  • 4:33 - 4:37
    la imagen distorsionada del mono
    aparecía entre los primeros resultados.
  • 4:37 - 4:40
    Ahora, los resultados se auto-limpian,
  • 4:40 - 4:42
    y hay algo de belleza en eso,
  • 4:42 - 4:45
    porque Google mide
    la relevancia cada hora, cada día.
  • 4:45 - 4:48
    Sin embargo, Google no se
    conformó con eso esta vez,
  • 4:48 - 4:51
    pensaron: "Eso es racista y
    es un mal resultado de la búsqueda,
  • 4:51 - 4:54
    vamos a restaurar y limpiar
    eso manualmente.
  • 4:54 - 4:57
    Vamos a escribir algo de
    código y lo arreglamos",
  • 4:57 - 4:58
    que es lo que hicieron.
  • 4:59 - 5:03
    Y yo no creo que nadie en esta
    sala crea que era una mala idea.
  • 5:03 - 5:05
    Yo tampoco.
  • 5:06 - 5:09
    Pero entonces, un par de años pasaron,
  • 5:09 - 5:12
    y el Anders más
    googleado del mundo,
  • 5:12 - 5:15
    Anders Behring Breivik,
  • 5:15 - 5:16
    hizo lo que hizo.
  • 5:16 - 5:19
    22 de julio del 2011,
  • 5:19 - 5:21
    un terrible día en
    la historia de Noruega.
  • 5:21 - 5:25
    Este hombre, un terrorista,
    voló un par de edificios del gobierno
  • 5:25 - 5:28
    a poca distancia de donde estamos
    en este momento en Oslo, Noruega,
  • 5:28 - 5:30
    y luego viajó a la isla de Utoya
  • 5:30 - 5:32
    y disparó y mató a un grupo de niños.
  • 5:32 - 5:34
    Casi 80 personas murieron ese día.
  • 5:36 - 5:41
    Y mucha gente describiría
    este acto de terror como dos pasos,
  • 5:41 - 5:44
    que hizo dos cosas: que explotó
    los edificios y les disparó a esos niños.
  • 5:44 - 5:46
    No es verdad.
  • 5:46 - 5:48
    Fueron tres pasos.
  • 5:48 - 5:50
    Explotó esos edificios,
    les disparó a esos niños,
  • 5:50 - 5:54
    y se sentó y esperó a
    que el mundo lo googleara.
  • 5:55 - 5:57
    Y preparó los tres pasos igual de bien.
  • 5:58 - 6:01
    Y si había alguien que
    inmediatamente entendió esto,
  • 6:01 - 6:02
    fue un desarrollador web sueco,
  • 6:02 - 6:06
    un experto en optimización de motores
    de búsqueda en Estocolmo, Nikke Lindqvist.
  • 6:06 - 6:08
    También es un hombre muy político
  • 6:08 - 6:11
    y estaba ahí en las redes sociales,
    en su blog y en facebook.
  • 6:11 - 6:13
    Y le dijo a todo el mundo,
  • 6:13 - 6:15
    "Si hay algo que este tipo
    quiere en este momento,
  • 6:15 - 6:18
    es controlar la imagen de sí mismo.
  • 6:18 - 6:21
    Vamos a ver si somos
    capaces de distorsionar eso.
  • 6:21 - 6:25
    Vamos a ver si en el mundo civilizado
    podemos protestar contra lo que hizo
  • 6:25 - 6:28
    a través de insultarlo en
    sus resultados de búsqueda".
  • 6:28 - 6:29
    ¿Y cómo?
  • 6:30 - 6:33
    Le dijo a todos sus
    lectores lo siguiente,
  • 6:33 - 6:34
    "Vayan al internet,
  • 6:34 - 6:37
    busquen fotos de perros
    cagando en las aceras,
  • 6:38 - 6:41
    busquen fotos de caca
    de perro en las aceras,
  • 6:41 - 6:44
    publíquenlas en sus feeds,
    en sus sitios web, en sus blogs.
  • 6:44 - 6:47
    Asegúrese de escribir
    el nombre del terrorista en el rubro,
  • 6:47 - 6:51
    asegúrese de nombrar el
    archivo de imagen "Breivik.jpg".
  • 6:51 - 6:55
    Enseñemos a Google que
    ese es el rostro del terrorista".
  • 6:57 - 6:59
    Y funcionó.
  • 7:00 - 7:02
    Dos años después de
    la campaña contra Michelle Obama,
  • 7:02 - 7:06
    esta campaña de manipulación
    contra Anders Behring Breivik funcionó.
  • 7:06 - 7:10
    Si lo buscaban en Google las semanas
    después del 22 de julio de Suecia,
  • 7:10 - 7:14
    verían la imagen de la caca de perro
    en lo alto de los resultados de búsqueda,
  • 7:14 - 7:16
    como una pequeña protesta.
  • 7:17 - 7:21
    Por extraño que parezca,
    Google no intervino en esta ocasión.
  • 7:22 - 7:26
    No intervinieron ni limpiaron manualmente
    los resultados de búsqueda.
  • 7:27 - 7:29
    Así que la pregunta del millón,
  • 7:29 - 7:33
    ¿hay algo diferente entre estos
    dos acontecimientos aquí?
  • 7:33 - 7:35
    ¿Hay algo diferente entre
    lo que pasó con Michelle Obama
  • 7:35 - 7:37
    y lo que le pasó con
    Anders Behring Breivik?
  • 7:38 - 7:39
    Por supuesto que no.
  • 7:40 - 7:42
    Es exactamente lo mismo,
  • 7:42 - 7:45
    sin embargo, Google intervino
    en un caso y no en el otro.
  • 7:45 - 7:46
    ¿Por qué?
  • 7:47 - 7:50
    Porque Michelle Obama podría
    ser una persona honorable, por eso,
  • 7:50 - 7:53
    y Anders Behring Breivik
    es una persona despreciable.
  • 7:54 - 7:55
    ¿Ven lo que sucede allí?
  • 7:55 - 7:58
    Tiene lugar una evaluación de una persona
  • 7:58 - 8:02
    y solo hay un jugador
    de poder en el mundo
  • 8:02 - 8:05
    con la autoridad para
    decir quién es quién.
  • 8:06 - 8:07
    "Tú nos gustas, tú nos disgustas.
  • 8:07 - 8:09
    Creemos en ti, no creemos en ti.
  • 8:09 - 8:12
    Tienes razón, te equivocas.
    Tú mientes, tú dices la verdad.
  • 8:12 - 8:13
    tú eres es Obama y tú eres Breivik".
  • 8:14 - 8:17
    Eso es poder, si me preguntan.
  • 8:19 - 8:23
    Así que les pido que recuerden
    que detrás de cada algoritmo
  • 8:23 - 8:24
    siempre hay una persona,
  • 8:24 - 8:27
    una persona con un conjunto
    de creencias personales
  • 8:27 - 8:29
    que ningún código puede
    erradicar completamente.
  • 8:29 - 8:32
    Y mi mensaje no es solo para Google,
  • 8:32 - 8:35
    sino a todos los creyentes en
    la fe de código de todo el mundo.
  • 8:35 - 8:38
    Es necesario identificar
    su propio sesgo personal.
  • 8:38 - 8:40
    Es necesario comprender
    que son humanos
  • 8:40 - 8:43
    y asumir la responsabilidad
    en consecuencia.
  • 8:43 - 8:46
    Y digo esto porque creo que
    hemos llegado a un punto en el tiempo
  • 8:46 - 8:48
    en que es absolutamente imperativo
  • 8:48 - 8:51
    que atemos estos lazos de nuevo,
    más ajustados:
  • 8:51 - 8:54
    las humanidades y la tecnología.
  • 8:54 - 8:56
    Más apretados que nunca.
  • 8:56 - 8:59
    Y, si no pasa otra cosa, recordemos
    que esa idea maravillosamente seductora
  • 8:59 - 9:02
    del resultado de búsqueda
    limpio e imparcial
  • 9:02 - 9:05
    es, y es probable que
    siga siendo, un mito.
  • 9:05 - 9:07
    Gracias por su tiempo.
  • 9:07 - 9:08
    (Aplausos)
Title:
El sesgo moral detrás de los resultados de búsqueda | Andreas Ekstrøm | TEDxOslo
Description:

Esta charla es de un evento TEDx, organizado de manera independiente a las conferencias TED.

Los motores de búsqueda se han convertido en nuestras fuentes más confiables de información y árbitros de la verdad. Pero ¿se puede obtener un resultado de búsqueda imparcial? El autor y periodista sueco Andreas Ekström sostiene que tal cosa es una imposibilidad filosófica. En esta reflexiva charla, nos llama a fortalecer los vínculos entre la tecnología y las humanidades y nos recuerda que detrás de cada algoritmo hay un conjunto de creencias personales que ningún código puede jamás erradicar por completo.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDxTalks
Duration:
09:16

Spanish subtitles

Revisions