Return to Video

La era de la fe ciega en los datos masivos ha de terminar

  • 0:01 - 0:03
    Hay algoritmos por todos lados.
  • 0:04 - 0:07
    Ordenan y separan a los ganadores
    de los perdedores.
  • 0:08 - 0:10
    Los ganadores consiguen el trabajo
  • 0:10 - 0:12
    o buenas condiciones de crédito.
  • 0:12 - 0:15
    A los perdedores ni siquiera
    se les invita a una entrevista
  • 0:16 - 0:17
    o tienen que pagar más por el seguro.
  • 0:18 - 0:22
    Se nos califica mediante fórmulas
    secretas que no entendemos
  • 0:23 - 0:26
    y a las que no se puede apelar.
  • 0:27 - 0:29
    Eso plantea una pregunta:
  • 0:29 - 0:31
    ¿Qué pasa si los algoritmos se equivocan?
  • 0:33 - 0:35
    Un algoritmo necesita dos cosas:
  • 0:35 - 0:37
    datos ocurridos en el pasado
  • 0:37 - 0:39
    y una definición del éxito;
  • 0:39 - 0:41
    esto es, lo que uno quiere y lo que desea.
  • 0:41 - 0:46
    Los algoritmos se entrenan
    mirando, descubriendo.
  • 0:46 - 0:50
    El algoritmo calcula a qué
    se asocia el éxito,
  • 0:50 - 0:52
    qué situaciones llevan al éxito.
  • 0:53 - 0:55
    En general todos usamos algoritmos
  • 0:55 - 0:57
    pero no los formalizamos
    mediante un código escrito.
  • 0:57 - 0:59
    Les doy un ejemplo.
  • 0:59 - 1:02
    Yo uso un algoritmo todos los días
    para preparar la comida en casa.
  • 1:02 - 1:04
    Los datos que uso
  • 1:04 - 1:06
    son los ingredientes de la cocina,
  • 1:06 - 1:08
    el tiempo que tengo
  • 1:08 - 1:09
    y lo ambiciosa que estoy.
  • 1:09 - 1:11
    Y así organizo los datos.
  • 1:11 - 1:15
    No incluyo esos paquetitos
    de fideos como comida.
  • 1:15 - 1:17
    (Risas)
  • 1:17 - 1:19
    Mi definición del éxito es:
  • 1:19 - 1:21
    la comida tiene éxito,
    si mis hijos comen verdura.
  • 1:22 - 1:25
    Lo que sería muy distinto,
    si mi hijito tuviera el control.
  • 1:25 - 1:28
    Para él el éxito es comer
    mucha Nutella.
  • 1:29 - 1:31
    Pero yo soy quien elige el éxito.
  • 1:31 - 1:34
    Estoy al mando. Mi opinión cuenta.
  • 1:34 - 1:37
    Esa es la primera regla de los algoritmos.
  • 1:37 - 1:40
    Los algoritmos son opiniones
    que se embeben en código.
  • 1:42 - 1:45
    Es muy diferente a cómo la gente
    se imagina los algoritmos.
  • 1:45 - 1:50
    Se creen que los algoritmos son
    objetivos, verdaderos y científicos.
  • 1:50 - 1:52
    Ese en un truco del marketing.
  • 1:53 - 1:55
    Tambien es un truco del marketing
  • 1:55 - 1:59
    la intimidación con algoritmos,
  • 1:59 - 2:02
    que nos hacer confiar
    y temer los algoritmos
  • 2:02 - 2:05
    porque confiamos y tememos
    las matemáticas.
  • 2:06 - 2:10
    Muchas cosas pueden salir mal si
    confiamos a ciegas en datos masivos.
  • 2:12 - 2:15
    Esta es Kiri Soares. Es la directora
    de una escuela de Brooklyn.
  • 2:15 - 2:18
    En 2011 me contó que
    sus maestros se clasificaban
  • 2:18 - 2:20
    mediante un algoritmo complejo y secreto
  • 2:20 - 2:22
    llamado "modelo del valor añadido".
  • 2:23 - 2:26
    Le dije, "Intente saber
    cuál es la fórmula, muéstremela.
  • 2:26 - 2:27
    Se la voy a explicar".
  • 2:27 - 2:29
    Me respondió,
    "Trate de conseguir la fórmula,
  • 2:29 - 2:32
    pero un conocido del Departamento
    de Educación me dijo
  • 2:32 - 2:34
    que era matemática y
    que no la entendería".
  • 2:35 - 2:37
    Esto se pone peor.
  • 2:37 - 2:40
    El New York Post la solicitó bajo la
    Ley de Libertad a la Información.
  • 2:40 - 2:43
    Obtuvo los nombres de los maestros
    y su puntuación
  • 2:43 - 2:46
    y los publicó como un acto para
    avergonzar a los maestros.
  • 2:47 - 2:51
    Cuando intenté conseguir las fórmulas en
    código base, usando el mismo mecanismo,
  • 2:51 - 2:53
    me dijeron que no se podía.
  • 2:53 - 2:54
    Me lo negaron.
  • 2:54 - 2:56
    Más tarde descubrí
  • 2:56 - 2:58
    que nadie tenía derecho
    a la fórmula en Nueva York.
  • 2:58 - 3:00
    Nadie lo podía entender.
  • 3:02 - 3:05
    Entonces apareció un tipo muy
    inteligente, Gary Rubenstein.
  • 3:05 - 3:09
    Localizó a 665 maestros por
    los datos del New York Post
  • 3:09 - 3:11
    que tenían dos puntuaciones.
  • 3:11 - 3:13
    Eso podía ocurrir si enseñaban
  • 3:13 - 3:15
    matemática en 7º y 8º grado.
  • 3:15 - 3:17
    Decidió hacer un gráfico.
  • 3:17 - 3:19
    Donde cada punto representa
    a un maestro.
  • 3:19 - 3:21
    (Risas)
  • 3:22 - 3:23
    Y eso ¿qué es?
  • 3:23 - 3:24
    (Risas)
  • 3:24 - 3:28
    Eso no debiera haberse usado nunca
    para evaluar a una persona.
  • 3:28 - 3:30
    Es casi un generador de números al azar.
  • 3:30 - 3:33
    (Aplausos)
  • 3:33 - 3:34
    Pero lo fue.
  • 3:34 - 3:35
    Esta es Sarah Wysocki.
  • 3:35 - 3:37
    La echaron junto a otros 205 maestros
  • 3:37 - 3:40
    de una escuela en Washington DC,
  • 3:40 - 3:43
    a pesar de tener muy buena recomendación
    de la directora
  • 3:43 - 3:45
    y de los padres de sus alumnos.
  • 3:45 - 3:47
    Me imagino lo que estarán pensando,
  • 3:47 - 3:50
    especialmente los cientificos de
    datos, los expertos en IA
  • 3:50 - 3:54
    Pensarán "Nosotros nunca produciríamos
    un algoritmo tan inconsistente."
  • 3:55 - 3:57
    Pero los algoritmos a veces fallan,
  • 3:57 - 4:01
    y tambien provocar mucha destrucción
    sin querer.
  • 4:03 - 4:05
    Y mientras un avión mal diseñado
  • 4:05 - 4:07
    se estrella y todos lo ven,
  • 4:07 - 4:09
    un algoritmo mal diseñado
  • 4:10 - 4:14
    puede funcionar mucho tiempo
    provocando un desastre silenciosamente.
  • 4:16 - 4:17
    Este es Roger Ailes.
  • 4:17 - 4:19
    (Risas)
  • 4:21 - 4:23
    Fundador de Fox News en el 1996.
  • 4:23 - 4:26
    Mas de 20 mujeres se quejaron de
    acoso sexual.
  • 4:26 - 4:29
    Dijeron que no pudieron
    tener éxito en Fox News.
  • 4:29 - 4:32
    Lo echaron el año pasado,
    pero hemos visto que hace poco
  • 4:32 - 4:35
    los problemas han continuado.
  • 4:36 - 4:37
    Esto plantea una pregunta:
  • 4:37 - 4:40
    ¿Qué debe hacer Fox News para cambiar?
  • 4:41 - 4:44
    Y si substituyeran su mecanismo
    de contratación
  • 4:44 - 4:46
    con un algoritmo de auto-
    aprendizaje automatizado?
  • 4:46 - 4:48
    ¿Suena bien?
  • 4:48 - 4:49
    Piénsenlo,
  • 4:49 - 4:51
    Los datos, ¿qué datos serían?
  • 4:51 - 4:56
    Una eleccion razonable serian las últimas
    21 solicitudes recibidas por Fox News
  • 4:56 - 4:58
    Razonable.
  • 4:58 - 4:59
    Y ¿cuál sería la definición del éxito?
  • 5:00 - 5:01
    Algo razonable sería
  • 5:01 - 5:03
    preguntar, quién es exitoso en Fox News.
  • 5:03 - 5:07
    Me imagino que alguien que
    hubiera estado alli unos 4 años
  • 5:07 - 5:09
    y subido de puesto por lo menosuna vez.
  • 5:09 - 5:10
    ¿Suena razonable?
  • 5:10 - 5:13
    Y así se adiestraría el algoritmo.
  • 5:13 - 5:17
    Se adiestraría para buscar a gente
    que logra el éxito.
  • 5:17 - 5:22
    Y qué solicitudes antiguas
    llegaron al éxito
  • 5:22 - 5:23
    según esa definición.
  • 5:24 - 5:26
    Ahora piensen que ocurriría
  • 5:26 - 5:29
    si lo usáramos con los candidatos de hoy.
  • 5:29 - 5:31
    Filtraría a las mujeres
  • 5:32 - 5:36
    ya que no parecen ser personas que
    hayan tenido éxito en el pasado.
  • 5:40 - 5:42
    Los algoritmos no son justos
  • 5:42 - 5:45
    si uno usa algoritmos a ciegas.
  • 5:45 - 5:47
    No son justos.
  • 5:47 - 5:49
    Repiten prácticas anteriores,
  • 5:49 - 5:50
    nuestros patrones.
  • 5:50 - 5:52
    Automatizan al status quo.
  • 5:53 - 5:55
    Sería genial en un mundo perfecto,
  • 5:56 - 5:57
    pero no lo tenemos.
  • 5:57 - 6:01
    Y aclaro que la mayoria de las empresas
    no estan involucradas en litigios,
  • 6:02 - 6:05
    pero los cientificos de datos
    de esas empresas
  • 6:05 - 6:07
    emplean esos datos
  • 6:07 - 6:09
    para lograr la precisión.
  • 6:10 - 6:12
    Piensen qué significa esto.
  • 6:12 - 6:16
    Porque todos tenemos prejuicios,
    y así podríamos codificar sexismo
  • 6:16 - 6:18
    u otro tipo de fanatismo.
  • 6:19 - 6:21
    Un experimento de pensamiento,
  • 6:21 - 6:22
    porque me gusta,
  • 6:24 - 6:27
    una sociedad totalmente segregada.
  • 6:28 - 6:32
    segregada racialmente,
    todas las ciudades y los barrios
  • 6:32 - 6:35
    y donde enviamos a la policia
    solo a barrios minoritarios
  • 6:35 - 6:36
    para detectar delitos.
  • 6:36 - 6:39
    Los arrestos serían sesgados.
  • 6:40 - 6:42
    Y, además, elegimos a los
    cientificos de datos
  • 6:42 - 6:47
    y pagamos por los datos para predecir
    dónde ocurrirán los próximos delitos.
  • 6:47 - 6:49
    El barrio de una minoría.
  • 6:49 - 6:52
    O a predecir quien será
    el próximo criminal.
  • 6:53 - 6:54
    Una minoría.
  • 6:56 - 6:59
    Los cientificos de datos se jactarían
    de su grandeza y de la precisión
  • 7:00 - 7:01
    de su modelo,
  • 7:01 - 7:02
    y tendrían razón.
  • 7:04 - 7:09
    La realidad no es tan drástica,
    pero tenemos grandes segregaciones
  • 7:09 - 7:10
    en muchas ciudades
  • 7:10 - 7:12
    y tenemos muchas pruebas
  • 7:12 - 7:15
    de datos políticos y
    legislativos sesgados.
  • 7:16 - 7:18
    Y podemos predecir puntos calientes,
  • 7:18 - 7:20
    lugares donde podrá ocurrir un delito
  • 7:20 - 7:24
    Y así predecir un crimen individual
  • 7:24 - 7:26
    y la criminalidad de los individuos.
  • 7:27 - 7:31
    El organismo de noticias ProPublica
    lo estudió hace poco.
  • 7:31 - 7:33
    un algoritmo de "riesgo recidivista"
  • 7:33 - 7:34
    según los llaman
  • 7:34 - 7:37
    usado en Florida
    al hacer sentencias judiciales.
  • 7:38 - 7:42
    Bernardo, a la izquierda, un hombre negro
    sacó una puntuación de 10 de 10.
  • 7:43 - 7:45
    Dylan, a la derecha, 3 de 10.
  • 7:45 - 7:48
    10 de 10, alto riesgo
    3 de 10, bajo riesgo.
  • 7:49 - 7:51
    Los sentenciaron por tener drogas.
  • 7:51 - 7:53
    Ambos con antecedentes penales
  • 7:53 - 7:55
    pero Dylan habia cometido un delito
  • 7:55 - 7:56
    Bernard, no.
  • 7:58 - 8:01
    Esto importa porque
    a mayor puntuación
  • 8:01 - 8:04
    mayor probabilidad de
    una sentencia más larga.
  • 8:06 - 8:08
    ¿Que sucede?
  • 8:09 - 8:10
    Lavado de datos.
  • 8:11 - 8:15
    El proceso que se usa para
    ocultar verdades feas
  • 8:15 - 8:17
    dentro de una caja negra
    de algoritmos
  • 8:17 - 8:19
    y llamarlos objetivos;
  • 8:19 - 8:21
    llamándolos meritocráticos
  • 8:23 - 8:26
    cuando son secretos,
    importantes y destructivos
  • 8:26 - 8:28
    Les puse un nombre a estos algoritmos:
  • 8:28 - 8:30
    "armas matemáticas de destrucción"
  • 8:30 - 8:32
    (Risas)
  • 8:32 - 8:35
    (Aplausos)
  • 8:35 - 8:37
    Estan en todos sitios
  • 8:38 - 8:41
    Son empresas privadas
    que construyen algoritmos privados
  • 8:41 - 8:43
    para fines privados.
  • 8:43 - 8:46
    Incluso los mencionados
    de los maestros y la policía pública
  • 8:46 - 8:48
    fueron diseñados por empresas privadas
  • 8:48 - 8:51
    y vendidos a
    instituciones gubernamentales.
  • 8:51 - 8:52
    Lo llaman su "salsa secreta"
  • 8:52 - 8:55
    por eso no nos pueden hablar de ello.
  • 8:55 - 8:57
    Es un poder privado
  • 8:58 - 9:03
    que saca provecho por su
    autoridad inescrutable.
  • 9:05 - 9:08
    Entonces uno ha de pensar,
    ya que todo esto es privado
  • 9:08 - 9:09
    y hay competición,
  • 9:09 - 9:12
    tal vez un mercado libre
    podrá solucionarlo
  • 9:12 - 9:13
    Pero no.
  • 9:13 - 9:16
    Se puede ganar mucho dinero
    con la injusticia.
  • 9:17 - 9:20
    Tampoco somos agentes
    económicos racionales.
  • 9:21 - 9:22
    Todos tenemos prejuicios
  • 9:23 - 9:26
    Somos racistas y fanáticos
    de una forma que no quisiéramos,
  • 9:26 - 9:28
    de maneras que desconocemos.
  • 9:29 - 9:32
    Lo sabemos al sumarlo
  • 9:32 - 9:36
    porque los sociólogos
    lo han demostrado consistentemente
  • 9:36 - 9:37
    con experimentos que construyeron
  • 9:37 - 9:40
    donde mandan una cantidad de solicitudes
    de empleo
  • 9:40 - 9:43
    de personas de calificaciones iguales
    pero algunas con apellidos blancos
  • 9:43 - 9:45
    y otras con apellidos negros,
  • 9:45 - 9:47
    y los resultados siempre los
    decepcionan, siempre.
  • 9:48 - 9:49
    Nosotros somos los prejuiciosos
  • 9:49 - 9:53
    que inyectamos prejuicios
    a nuestros algoritmos
  • 9:53 - 9:55
    al elegir qué datos recoger,
  • 9:55 - 9:57
    así como yo elegí no pensar
    en los fideos--
  • 9:57 - 9:59
    Y decidi que no era importante.
  • 9:59 - 10:05
    Pero tenerle confianza a los datos
    basados en prácticas pasadas
  • 10:05 - 10:07
    y eligiendo la definición del éxito,
  • 10:07 - 10:11
    ¿cómo pretendemos que los
    algoritmos emerjan intactos?
  • 10:11 - 10:13
    No podemos. Tenemos que verificarlos.
  • 10:14 - 10:16
    Hay que revisarlos por equidad.
  • 10:16 - 10:19
    Y las buenas noticias son
  • 10:19 - 10:22
    que los algoritmos pueden ser
    interrogados,
  • 10:22 - 10:24
    y nos dirán la verdad todas las veces.
  • 10:24 - 10:27
    Y los podemos arreglar.
    Y mejorarlos.
  • 10:27 - 10:29
    Lo explico. Esto se llama revisión
    del algoritmo,
  • 10:29 - 10:31
    lo explico.
  • 10:31 - 10:33
    Primero, verificación de
    integridad de datos.
  • 10:34 - 10:37
    por el riesgo recidivista.
  • 10:38 - 10:41
    La verificación de la integridad de datos
    implicaría una conciliación
  • 10:41 - 10:45
    que en EE. UU. los blancos y los
    negros fuman marihuana
  • 10:45 - 10:47
    pero a los negros es mas fácil que
    los arresten
  • 10:47 - 10:50
    más probablemente cuatro o cinco
    veces más dependiendo de la zona.
  • 10:51 - 10:54
    Y ¿cómo son los prejuicios en
    otras categorías criminales,
  • 10:54 - 10:56
    y cómo lo justificamos?
  • 10:56 - 10:59
    Segundo, debemos pensar
    en la definición del éxito,
  • 10:59 - 11:01
    revisarla.
  • 11:01 - 11:03
    ¿Recuerdan el algoritmo
    de la contratación?
  • 11:03 - 11:07
    alguien que se queda cuatro años
    y asciende de cargo una vez?
  • 11:07 - 11:08
    Ese es el empleado exitoso,
  • 11:08 - 11:11
    pero tambien es el empleado
    apoyado por la cultura.
  • 11:12 - 11:14
    Esto puede ser bastante injusto.
  • 11:14 - 11:16
    Tenemos que separar dos cosas.
  • 11:16 - 11:19
    Mirar a la audicion de una
    orquesta de ciegos
  • 11:19 - 11:20
    por ejemplo.
  • 11:20 - 11:23
    Los que dan la audición están
    detrás de la partitura.
  • 11:23 - 11:25
    Lo que quiero que piensen
  • 11:25 - 11:28
    es que la gente que escucha
    decide lo que es importante
  • 11:28 - 11:30
    y lo que no lo es,
  • 11:30 - 11:32
    sin que eso nos distraiga.
  • 11:33 - 11:36
    Cuando empezaron las audiciones
    de orquesta de ciegos
  • 11:36 - 11:39
    la cantidad de mujeres aumentó
    un factor de cinco veces.
  • 11:40 - 11:42
    Tambien hay que pensar en la precisión
  • 11:43 - 11:47
    y así el modelo
    del valor añadido fallaría.
  • 11:48 - 11:50
    Por supuesto ningún algoritmo es perfecto,
  • 11:51 - 11:54
    asi que hay que considerar los
    errores de cada algoritmo.
  • 11:55 - 11:59
    ¿Qué frecuencia tienen los errores
    y con quiénes falla?
  • 12:00 - 12:02
    Y ¿cuál es el costo de dicha falla?
  • 12:02 - 12:05
    Y por último, tenemos que considerar
  • 12:06 - 12:08
    los efectos a largo plazo
    de los algoritmos,
  • 12:09 - 12:11
    los bucles de retroalimentación
    que engendran.
  • 12:12 - 12:13
    Eso suena a abstracto.
  • 12:13 - 12:16
    Pero imagínese si los ingenieros
    de Facebook lo hubieran considerado
  • 12:16 - 12:21
    antes de mostrarnos cosas
    publicadas por nuestros amigos.
  • 12:22 - 12:25
    Tengo dos mensajes,
    uno para los científicos de datos.
  • 12:25 - 12:29
    Cientificos de datos: no debemos
    ser los árbitros de la verdad.
  • 12:30 - 12:33
    Debemos ser tradutores de las
    discusiones éticas que ocurren
  • 12:33 - 12:35
    en toda la sociedad.
  • 12:36 - 12:38
    (Aplausos)
  • 12:38 - 12:39
    Y para el resto de Uds.
  • 12:40 - 12:42
    los que no son científicos de datos:
  • 12:42 - 12:44
    esta no es un examen de matemáticas.
  • 12:44 - 12:45
    Es una lucha politica.
  • 12:47 - 12:50
    Tenemos que exigir responsabilidad
    a los lores de los algoritmos.
  • 12:52 - 12:54
    (Aplausos)
  • 12:54 - 12:58
    La era de la fe ciega en los
    datos masivos debe terminar.
  • 12:58 - 12:59
    Muchas gracias.
  • 12:59 - 13:06
    (Aplauso)
Title:
La era de la fe ciega en los datos masivos ha de terminar
Speaker:
Cathy O'Neil
Description:

Los algoritmos deciden quién obtiene un préstamo, quién será invitado a una entrevista de trabajo, quién obtiene un seguro y muchas cosas más importantes. Pero estos no hacen automáticamente que las cosas sean justas, ya que suelen estar lejos de ser científicas.
La matemática y científica de datos Cathy O'Neil acuñó un término para algoritmos que son secretos, importantes y nocivos: "armas matemáticas de destrucción "
Aprenda más sobre las agendas ocultas detrás de estas fórmulas supuestamente objetivas y por qué necesitamos empezar a construirlas mejor.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:18
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end
Lidia Cámara de la Fuente approved Spanish subtitles for The era of blind faith in big data must end
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end
Lidia Cámara de la Fuente accepted Spanish subtitles for The era of blind faith in big data must end
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end
Show all

Spanish subtitles

Revisions Compare revisions