Return to Video

La inteligencia artificial hace que la moral humana sea más importante

  • 0:01 - 0:05
    Empecé mi primer trabajo
    como programadora informática
  • 0:05 - 0:07
    en mi primer año de universidad,
  • 0:07 - 0:09
    básicamente, siendo aún adolescente.
  • 0:09 - 0:11
    Poco después de empezar a trabajar,
  • 0:11 - 0:12
    programando software en una empresa,
  • 0:13 - 0:16
    un gerente que trabajaba en la compañía
    vino allí donde estaba yo,
  • 0:16 - 0:18
    y me dijo al oído:
  • 0:18 - 0:21
    "¿Puede decir ella si estoy mintiendo?"
  • 0:22 - 0:24
    No había nadie más en la habitación.
  • 0:25 - 0:29
    "¿Puede "quién" decir si está mintiendo?
    ¿Y por qué estamos susurrando?"
  • 0:30 - 0:33
    El gerente señaló la computadora
    de la habitación.
  • 0:33 - 0:36
    "¿Puede ella decir si estoy mintiendo?"
  • 0:38 - 0:42
    Bueno, el gerente tenía
    una aventura con la recepcionista.
  • 0:42 - 0:43
    (Risas)
  • 0:43 - 0:45
    Y yo todavía era adolescente.
  • 0:45 - 0:47
    Por lo tanto, le susurro yo a él:
  • 0:47 - 0:51
    "Sí, la computadora puede determinar
    si Ud. está mintiendo".
  • 0:51 - 0:53
    (Risas)
  • 0:53 - 0:56
    Bueno, me reí, pero,
    en realidad, me reía de mí.
  • 0:56 - 0:59
    Hoy en día, existen sistemas informáticos
  • 0:59 - 1:03
    que pueden detectar
    estados emocionales e incluso mentir
  • 1:03 - 1:05
    a partir del procesamiento
    de rostros humanos.
  • 1:05 - 1:09
    Los anunciantes, e incluso
    hay gobiernos muy interesados.
  • 1:10 - 1:12
    Me había convertido en
    programadora informática
  • 1:12 - 1:16
    porque yo era una de esas chicas
    locas por las matemáticas y la ciencia.
  • 1:16 - 1:19
    Pero también me había
    interesado por las armas nucleares,
  • 1:19 - 1:23
    y había empezado a realmente a
    preocuparme por la ética de la ciencia.
  • 1:23 - 1:24
    Yo estaba preocupada.
  • 1:24 - 1:26
    Sin embargo,
    por circunstancias familiares,
  • 1:26 - 1:29
    también debía empezar
    a trabajar lo antes posible.
  • 1:29 - 1:32
    Así que me dije, bueno,
    vamos a elegir un campo técnico
  • 1:32 - 1:34
    donde poder conseguir un trabajo fácil
  • 1:34 - 1:38
    y donde no tenga que lidiar
    con preguntas molestas sobre ética.
  • 1:39 - 1:41
    Así que elegí las computadoras.
  • 1:41 - 1:42
    (Risas)
  • 1:42 - 1:45
    Bueno, ¡ja, ja, ja!
    Todas las risas a mi costa.
  • 1:45 - 1:48
    Hoy en día, los informáticos
    construyen plataformas
  • 1:48 - 1:52
    que controlan lo que millones
    de personas ven todos los días.
  • 1:53 - 1:57
    Están desarrollando automóviles que
    podrían decidir a quién atropellar.
  • 1:58 - 2:01
    Es más, están construyendo
    máquinas, armas,
  • 2:01 - 2:03
    que podrían matar
    a seres humanos en la guerra.
  • 2:03 - 2:06
    Esto es ética a fondo.
  • 2:07 - 2:09
    La inteligencia artificial está aquí.
  • 2:10 - 2:13
    Estamos usando la computación
    para tomar todo tipo de decisiones,
  • 2:13 - 2:15
    además de nuevos tipos de decisiones.
  • 2:15 - 2:20
    Planteamos preguntas a las computadoras
    que no tienen respuestas
  • 2:20 - 2:22
    correctas individuales,
    por ser subjetivas
  • 2:22 - 2:24
    e indefinidas y cargadas de valores.
  • 2:24 - 2:26
    Planteamos preguntas como:
  • 2:26 - 2:28
    "¿A quién debe contratar la empresa?"
  • 2:28 - 2:31
    "¿Qué actualización de qué amigo
    debe mostrarse?"
  • 2:31 - 2:34
    "¿Qué convicto tiene
    más probabilidades de reincidir?"
  • 2:34 - 2:37
    "¿Qué artículo de noticias o película
    se deben recomendar a la gente?"
  • 2:37 - 2:40
    Miren, sí, hemos venido usando
    computadoras hace tiempo,
  • 2:40 - 2:42
    pero esto es diferente.
  • 2:42 - 2:44
    Se trata de un giro histórico,
  • 2:44 - 2:49
    porque no podemos anclar el cálculo
    para este tipo de decisiones subjetivas
  • 2:49 - 2:54
    como anclamos el cálculo para
    pilotar aviones, construir puentes
  • 2:54 - 2:56
    o ir a la luna.
  • 2:56 - 3:00
    ¿Son los aviones más seguros?
    ¿Se balanceó el puente y cayó?
  • 3:00 - 3:04
    Ahí, hemos acordado puntos
    de referencia bastante claros,
  • 3:04 - 3:06
    y tenemos leyes de
    la naturaleza que nos guían.
  • 3:07 - 3:10
    Nosotros no tenemos tales anclas
    y puntos de referencia
  • 3:10 - 3:14
    para las decisiones sobre cuestiones
    humanas desordenadas.
  • 3:14 - 3:18
    Para complicar más las cosas,
    nuestro software es cada vez más potente,
  • 3:18 - 3:22
    pero también es cada vez
    menos transparente y más complejo.
  • 3:23 - 3:25
    Recientemente, en la última década,
  • 3:25 - 3:27
    algunos algoritmos complejos
    han hecho grandes progresos.
  • 3:27 - 3:29
    Pueden reconocer rostros humanos.
  • 3:30 - 3:32
    Pueden descifrar la letra.
  • 3:32 - 3:35
    Pueden detectar
    el fraude de tarjetas de crédito
  • 3:35 - 3:36
    y bloquear el spam
  • 3:36 - 3:38
    y pueden traducir a otros idiomas.
  • 3:38 - 3:40
    Pueden detectar tumores
    en imágenes médicas.
  • 3:40 - 3:43
    Puede vencer a los humanos
    en el ajedrez y en el Go.
  • 3:43 - 3:48
    Gran parte de este progreso viene de un
    método llamado "aprendizaje automático".
  • 3:48 - 3:51
    El aprendizaje automático es
    diferente a la programación tradicional,
  • 3:51 - 3:55
    donde se da al equipo instrucciones
    exactas, detalladas y meticulosas.
  • 3:55 - 3:59
    Es como si uno alimentara el sistema
    con una gran cantidad de datos,
  • 3:59 - 4:01
    incluyendo los datos no estructurados,
  • 4:01 - 4:04
    como los que generamos
    en nuestras vidas digitales.
  • 4:04 - 4:06
    Y el sistema aprende de esos datos.
  • 4:07 - 4:08
    Y también, de manera crucial,
  • 4:08 - 4:13
    estos sistemas no funcionan
    bajo una lógica de una sola respuesta.
  • 4:13 - 4:16
    No producen una respuesta sencilla;
    es más probabilístico:
  • 4:16 - 4:19
    "Esto es probablemente parecido
    a lo que estás buscando".
  • 4:20 - 4:22
    La ventaja es que
    este método es muy potente.
  • 4:22 - 4:26
    El jefe de sistemas de inteligencia
    artificial de Google lo llama:
  • 4:26 - 4:28
    "la eficacia irrazonable de los datos".
  • 4:28 - 4:29
    La desventaja es que
  • 4:30 - 4:33
    realmente no entendemos
    lo que aprendió el sistema.
  • 4:33 - 4:34
    De hecho, ese es su poder.
  • 4:35 - 4:39
    Esto no se parece a dar instrucciones
    a una computadora;
  • 4:39 - 4:43
    se parece más a la formación
    de una criatura cachorro máquina
  • 4:43 - 4:46
    que realmente no entendemos o controlamos.
  • 4:46 - 4:50
    Así que este es nuestro problema;
    un problema cuando el sistema
  • 4:50 - 4:53
    de inteligencia artificial
    hace cosas erróneas.
  • 4:53 - 4:56
    Es también un problema
    cuando hace bien las cosas,
  • 4:56 - 5:00
    porque ni siquiera sabemos qué es qué
    cuando se trata de un problema subjetivo.
  • 5:00 - 5:02
    No sabemos qué está pensando esta cosa.
  • 5:03 - 5:07
    Por lo tanto, piensen en
    un algoritmo de contratación,
  • 5:08 - 5:12
    un sistema usado para contratar,
    usa sistemas de aprendizaje automático.
  • 5:13 - 5:17
    un sistema así habría sido entrenado
    con anteriores datos de empleados
  • 5:17 - 5:19
    y tiene la instrucción
    de encontrar y contratar
  • 5:19 - 5:22
    personas como las de alto rendimiento
    existentes en la empresa.
  • 5:23 - 5:24
    Suena bien.
  • 5:24 - 5:26
    Una vez asistí a una conferencia
  • 5:26 - 5:29
    que reunió a los responsables
    de recursos humanos y ejecutivos,
  • 5:29 - 5:30
    las personas de alto nivel,
  • 5:30 - 5:32
    que usaban estos sistemas
    en la contratación.
  • 5:32 - 5:34
    Estaban muy emocionados.
  • 5:34 - 5:38
    Pensaban que esto haría la contratación
    más objetiva, menos tendenciosa,
  • 5:38 - 5:41
    para dar a las mujeres y a las minorías
    mejores oportunidades
  • 5:41 - 5:44
    contra los administradores
    humanos tendenciosos.
  • 5:44 - 5:46
    La contratación humana es tendenciosa.
  • 5:47 - 5:48
    Lo sé.
  • 5:48 - 5:51
    Es decir, en uno de mis primeros
    trabajos como programadora,
  • 5:51 - 5:55
    mi jefa a veces venía
    allí donde yo estaba
  • 5:55 - 5:59
    muy temprano en la mañana
    o muy tarde por la tarde,
  • 5:59 - 6:02
    y decía: "Zeynep, ¡vayamos a comer!"
  • 6:02 - 6:05
    Me dejaba perpleja por el
    momento extraño de preguntar.
  • 6:05 - 6:07
    Son las 16. ¿Almuerzo?
  • 6:07 - 6:10
    Estaba en la ruina, así que,
    ante un almuerzo gratis, siempre fui.
  • 6:10 - 6:13
    Más tarde me di cuenta
    de lo que estaba ocurriendo.
  • 6:13 - 6:17
    Mis jefes inmediatos no habían
    confesado a sus altos mandos
  • 6:17 - 6:20
    que el programador contratado para
    un trabajo serio era una adolescente
  • 6:20 - 6:24
    que llevaba pantalones vaqueros
    y zapatillas de deporte en el trabajo.
  • 6:25 - 6:27
    Yo hacía un buen trabajo,
    solo que no encajaba
  • 6:27 - 6:29
    por la edad y por el sexo equivocado.
  • 6:29 - 6:32
    Así que contratar a ciegas
    independiente del género y de la raza
  • 6:32 - 6:34
    ciertamente me parece bien.
  • 6:35 - 6:38
    Sin embargo, con estos sistemas,
    es más complicado, y he aquí por qué:
  • 6:39 - 6:45
    Hoy los sistemas informáticos pueden
    deducir todo tipo de cosas sobre Uds.
  • 6:45 - 6:47
    a partir de sus pistas digitales,
  • 6:47 - 6:49
    incluso si no las han dado a conocer.
  • 6:50 - 6:52
    Pueden inferir su orientación sexual,
  • 6:53 - 6:54
    sus rasgos de personalidad,
  • 6:55 - 6:56
    sus inclinaciones políticas.
  • 6:57 - 7:01
    Tienen poder predictivo
    con altos niveles de precisión.
  • 7:01 - 7:04
    Recuerden, por cosas que
    ni siquiera han dado a conocer.
  • 7:04 - 7:06
    Esta es la inferencia.
  • 7:06 - 7:09
    Tengo una amiga que desarrolló
    este tipo de sistemas informáticos
  • 7:09 - 7:13
    para predecir la probabilidad
    de depresión clínica o posparto
  • 7:13 - 7:14
    a partir de datos de medios sociales.
  • 7:15 - 7:16
    Los resultados son impresionantes.
  • 7:16 - 7:20
    Su sistema puede predecir
    la probabilidad de depresión
  • 7:20 - 7:24
    meses antes de la aparición
    de cualquier síntoma,
  • 7:24 - 7:25
    meses antes.
  • 7:25 - 7:27
    No hay síntomas, sí hay predicción.
  • 7:27 - 7:32
    Ella espera que se use para
    la intervención temprana. ¡Estupendo!
  • 7:33 - 7:35
    Pero ahora pongan esto en el
    contexto de la contratación.
  • 7:36 - 7:39
    Así que en esa conferencia
    de recursos humanos,
  • 7:39 - 7:44
    me acerqué a una gerenta de alto nivel
    de una empresa muy grande,
  • 7:44 - 7:48
    y le dije: "Mira, ¿qué pasaría si,
    sin su conocimiento,
  • 7:48 - 7:55
    el sistema elimina a las personas con
    alta probabilidad futura de la depresión?
  • 7:56 - 7:59
    No están deprimidos ahora, solo
    quizá en el futuro, sea probable.
  • 8:00 - 8:03
    ¿Y si elimina a las mujeres con más
    probabilidades de estar embarazadas
  • 8:03 - 8:06
    en el próximo año o dos,
    pero no está embarazada ahora?
  • 8:07 - 8:12
    ¿Y si contratamos a personas agresivas,
    porque esa es su cultura de trabajo?"
  • 8:13 - 8:16
    No se puede saber esto
    mirando un desglose por sexos.
  • 8:16 - 8:17
    Estos pueden ser equilibrados.
  • 8:17 - 8:22
    Y como esto es aprendizaje automático,
    no la programación tradicional,
  • 8:22 - 8:26
    no hay una variable etiquetada
    como "mayor riesgo de depresión",
  • 8:26 - 8:28
    "mayor riesgo de embarazo",
  • 8:28 - 8:30
    "escala de chico agresivo".
  • 8:30 - 8:34
    Ud. no solo no sabe lo que
    su sistema selecciona,
  • 8:34 - 8:36
    sino que ni siquiera sabe
    por dónde empezar a buscar.
  • 8:36 - 8:37
    Es una caja negra.
  • 8:37 - 8:40
    Tiene capacidad de predicción,
    pero uno no lo entiende.
  • 8:40 - 8:43
    "¿Qué salvaguardia", pregunté,
  • 8:43 - 8:47
    "puede asegurar que la caja negra
    no hace algo perjudicial?"
  • 8:49 - 8:53
    Ella me miró como si acabara
    de romper algo valioso.
  • 8:53 - 8:54
    (Risas)
  • 8:54 - 8:56
    Me miró y dijo:
  • 8:57 - 9:01
    "No quiero oír ni una palabra de esto".
  • 9:01 - 9:03
    Dio la vuelta y se alejó.
  • 9:04 - 9:06
    Eso sí, ella no fue grosera.
  • 9:06 - 9:12
    Era claramente: lo que no sé, no es
    mi problema, vete, encara la muerte.
  • 9:12 - 9:13
    (Risas)
  • 9:14 - 9:17
    Un sistema de este tipo
    puede ser incluso menos sesgado
  • 9:17 - 9:20
    que los administradores humanos
    en algunos aspectos.
  • 9:20 - 9:22
    Y podría tener sentido monetario.
  • 9:23 - 9:24
    Pero también podría llevar
  • 9:24 - 9:29
    a un cierre constante pero sigiloso
    del mercado de trabajo
  • 9:29 - 9:31
    a las personas
    con mayor riesgo de depresión.
  • 9:32 - 9:34
    ¿Es este el tipo de sociedad
    la que queremos construir,
  • 9:34 - 9:37
    sin siquiera saber que lo hemos hecho,
  • 9:37 - 9:41
    porque nos movemos en torno a decisiones
    de máquinas que no entendemos totalmente?
  • 9:41 - 9:43
    Otro problema es el siguiente:
  • 9:43 - 9:48
    estos sistemas son a menudo
    entrenados con datos generados
  • 9:48 - 9:50
    por nuestras acciones,
    por huellas humanas.
  • 9:50 - 9:54
    Podrían pues estar reflejando
    nuestros prejuicios,
  • 9:54 - 9:58
    y estos sistemas podrían dar cuenta
    de nuestros prejuicios
  • 9:58 - 9:59
    y la amplificación de ellos
  • 9:59 - 10:00
    volviendo a nosotros,
  • 10:00 - 10:02
    mientras que decimos:
  • 10:02 - 10:05
    "Somos objetivos, es el cómputo neutral".
  • 10:06 - 10:10
    Los investigadores encontraron
    que en Google las mujeres tienen
  • 10:10 - 10:13
    menos probabilidades que los hombres
  • 10:13 - 10:16
    de que les aparezcan anuncios
    de trabajo bien remunerados.
  • 10:16 - 10:19
    Y buscando nombres afroestadounidenses
  • 10:19 - 10:24
    es más probable que aparezcan anuncios
    que sugieren antecedentes penales,
  • 10:24 - 10:25
    incluso cuando no existan.
  • 10:27 - 10:30
    Estos sesgos ocultos
    y algoritmos de la caja negra
  • 10:30 - 10:34
    que descubren los investigadores
    a veces, pero a veces no,
  • 10:34 - 10:37
    pueden tener consecuencias
    que cambian la vida.
  • 10:38 - 10:42
    En Wisconsin, un acusado
    fue condenado a seis años de prisión
  • 10:42 - 10:43
    por escaparse de la policía.
  • 10:44 - 10:47
    Quizá no lo sepan, pero los algoritmos
    se usan cada vez más
  • 10:47 - 10:50
    en las decisiones de
    libertad condicional y de sentencia.
  • 10:50 - 10:53
    El acusado quiso saber:
    ¿Cómo se calcula la puntuación?
  • 10:54 - 10:55
    Es una caja negra comercial.
  • 10:55 - 11:00
    La empresa se negó a que se cuestionara
    su algoritmo en audiencia pública.
  • 11:00 - 11:05
    Pero ProPublica, organización
    no lucrativa de investigación,
  • 11:05 - 11:08
    auditó precisamente ese algoritmo
    con los datos públicos que encontró,
  • 11:08 - 11:11
    y descubrió que sus resultados
    estaban sesgados
  • 11:11 - 11:14
    y su capacidad de predicción era pésima,
    apenas mejor que el azar,
  • 11:14 - 11:18
    y se etiquetaban erróneamente
    acusados negros como futuros criminales
  • 11:18 - 11:22
    con una tasa del doble
    que a los acusados blancos.
  • 11:24 - 11:26
    Piensen en este caso:
  • 11:26 - 11:30
    Esta mujer llegó tarde a
    recoger a la hija de su madrina
  • 11:30 - 11:32
    de una escuela en
    el condado de Broward, Florida,
  • 11:33 - 11:35
    iba corriendo por la calle con una amiga.
  • 11:35 - 11:39
    Vieron la bicicleta de un niño sin candado
    y una moto en un porche
  • 11:39 - 11:41
    y tontamente saltó sobre ella.
  • 11:41 - 11:44
    A medida que aceleraban,
    una mujer salió y dijo,
  • 11:44 - 11:46
    "¡Eh, esa es la bicicleta de mi hijo!"
  • 11:46 - 11:49
    Se bajaron, se alejaron,
    pero fueron detenidas.
  • 11:49 - 11:53
    Estaba equivocada, fue una tontería,
    pero también tenía solo 18 años.
  • 11:53 - 11:55
    Tenía un par de faltas menores.
  • 11:56 - 12:01
    Mientras tanto, detenían al hombre
    por hurto en Home Depot,
  • 12:01 - 12:04
    por un valor de USD 85,
    un delito menor similar.
  • 12:05 - 12:09
    Pero él tenía dos condenas anteriores
    por robo a mano armada.
  • 12:10 - 12:13
    Sin embargo, el algoritmo la anotó
    a ella como de alto riesgo, y no a él.
  • 12:14 - 12:18
    Dos años más tarde, ProPublica descubrió
    que ella no había vuelto a delinquir.
  • 12:18 - 12:22
    Pero le era difícil conseguir un trabajo
    con sus antecedentes registrados.
  • 12:22 - 12:23
    Él, por el contrario, era reincidente
  • 12:23 - 12:27
    y ahora cumple una pena de ocho años
    de prisión por un delito posterior.
  • 12:28 - 12:31
    Es evidente que necesitamos
    auditar nuestras cajas negras
  • 12:31 - 12:34
    para no tener
    este tipo de poder sin control.
  • 12:34 - 12:37
    (Aplausos)
  • 12:38 - 12:42
    Las auditorías son grandes e importantes,
    pero no resuelven todos los problemas.
  • 12:42 - 12:45
    Tomemos el potente algoritmo
    de noticias de Facebook,
  • 12:45 - 12:50
    ese que sabe todo y decide qué mostrarles
  • 12:50 - 12:52
    de las páginas de los amigos que siguen.
  • 12:53 - 12:55
    ¿Debería mostrarles otra imagen de bebé?
  • 12:55 - 12:56
    (Risas)
  • 12:56 - 12:59
    ¿Una nota deprimente de un conocido?
  • 12:59 - 13:01
    ¿Una noticia importante pero difícil?
  • 13:01 - 13:03
    No hay una respuesta correcta.
  • 13:03 - 13:05
    Facebook optimiza para
    que se participe en el sitio:
  • 13:06 - 13:07
    con Me gusta, Compartir
    y con Comentarios.
  • 13:08 - 13:11
    En agosto de 2014,
  • 13:11 - 13:14
    estallaron protestas
    en Ferguson, Missouri,
  • 13:14 - 13:18
    tras la muerte de un adolescente
    afroestadounidense por un policía blanco,
  • 13:18 - 13:20
    en circunstancias turbias.
  • 13:20 - 13:22
    La noticia de las protestas llegaron
  • 13:22 - 13:25
    en mi cuenta de Twitter
    algorítmicamente sin filtrar
  • 13:25 - 13:27
    pero en ninguna parte en mi Facebook.
  • 13:27 - 13:29
    ¿Y qué pasaba con mis amigos de Facebook?
  • 13:29 - 13:31
    Desactivé el algoritmo de Facebook,
  • 13:31 - 13:34
    lo cual es difícil ya que Facebook
    quiere seguir manteniéndonos
  • 13:34 - 13:36
    bajo el control del algoritmo,
  • 13:36 - 13:39
    y vi que mis amigos
    estaban hablando de ello.
  • 13:39 - 13:41
    Pero el algoritmo no me lo mostraba.
  • 13:41 - 13:44
    He investigado esto y encontré
    que era un problema generalizado.
  • 13:44 - 13:48
    La historia de Ferguson no era
    compatible con el algoritmo.
  • 13:48 - 13:49
    No es "gustable".
  • 13:49 - 13:51
    ¿Quién va a hacer clic en "Me gusta"?
  • 13:52 - 13:54
    Ni siquiera es fácil de comentar.
  • 13:54 - 13:55
    Sin Me gusta y sin comentarios,
  • 13:55 - 13:58
    el algoritmo era probable de
    mostrarse a aún menos personas,
  • 13:58 - 14:00
    así que no tuvimos
    oportunidad de ver esto.
  • 14:01 - 14:02
    En cambio, esa semana,
  • 14:02 - 14:04
    el algoritmo de Facebook destacó esto,
  • 14:05 - 14:07
    el ALS que era
    el desafío del cubo de hielo.
  • 14:07 - 14:11
    Noble causa; verter agua con hielo,
    donar a la caridad, bien.
  • 14:11 - 14:13
    Esa causa era súper compatible
    con el algoritmo.
  • 14:13 - 14:16
    La máquina tomó
    esta decisión por nosotros.
  • 14:16 - 14:19
    Una conversación
    muy importante pero difícil
  • 14:19 - 14:21
    podría haber sido silenciada
  • 14:21 - 14:24
    si Facebook hubiese sido el único canal.
  • 14:24 - 14:28
    Ahora, por fin, estos sistemas
    pueden también equivocarse
  • 14:28 - 14:30
    de formas que no se parecen a los humanos.
  • 14:30 - 14:34
    ¿Se acuerdan de Watson, el sistema
    de inteligencia artificial de IBM
  • 14:34 - 14:37
    que arrasó con los concursantes
    humanos en Jeopardy?
  • 14:37 - 14:38
    Fue un gran jugador.
  • 14:38 - 14:42
    Pero entonces, para la final de Jeopardy,
    a Watson se le hizo esta pregunta:
  • 14:42 - 14:46
    "Su mayor aeropuerto lleva el nombre
    de un héroe de la 2ª Guerra Mundial,
  • 14:46 - 14:48
    la 2ª batalla más grande
    de la 2ª Guerra Mundial".
  • 14:48 - 14:50
    (Música final de Jeopardy)
  • 14:50 - 14:51
    Chicago.
  • 14:51 - 14:53
    Los dos humanos lo hicieron bien.
  • 14:53 - 14:57
    Watson, por otra parte,
    respondió "Toronto"
  • 14:57 - 14:59
    para una categoría de ciudad de EE.UU.
  • 15:00 - 15:02
    El impresionante sistema
    también cometió un error
  • 15:03 - 15:06
    que un humano nunca cometería, que
    un estudiante de segundo grado tampoco.
  • 15:07 - 15:10
    La inteligencia artificial puede fallar
  • 15:10 - 15:13
    en formas que no se ajustan a
    los patrones de error de los humanos,
  • 15:13 - 15:16
    de maneras que no esperamos
    y para las que no estamos preparados.
  • 15:16 - 15:20
    Sería pésimo no conseguir trabajo,
    una vez que uno se cualifica para ello,
  • 15:20 - 15:23
    pero sería el triple de pésimo
    si fue por un desbordamiento de pila
  • 15:23 - 15:25
    en algunas subrutinas.
  • 15:25 - 15:27
    (Risas)
  • 15:27 - 15:29
    En mayo del 2010
  • 15:29 - 15:33
    un flash crash de Wall Street alimentado
    por un circuito de retroalimentación
  • 15:33 - 15:36
    por el algoritmo de "venta" de Wall Street
  • 15:36 - 15:41
    borró un billón de dólares en 36 minutos.
  • 15:41 - 15:44
    Yo no quiero ni pensar
    lo que significa "error"
  • 15:44 - 15:48
    en el contexto de
    las armas autónomas letales.
  • 15:50 - 15:54
    Los humanos siempre
    hemos tenido prejuicios.
  • 15:54 - 15:56
    Los que toman decisiones y los guardias,
  • 15:56 - 15:59
    en los tribunales,
    en la actualidad, en la guerra...
  • 15:59 - 16:02
    cometen errores; pero ese
    es exactamente mi tema.
  • 16:02 - 16:06
    No podemos escapar
    a estas preguntas difíciles.
  • 16:07 - 16:10
    No podemos delegar nuestra
    responsabilidad a las máquinas.
  • 16:11 - 16:15
    (Aplausos)
  • 16:17 - 16:22
    La inteligencia artificial
    no nos da una tarjeta libre de ética.
  • 16:22 - 16:26
    El experto en datos Fred Benenson lo
    llama "mathwashing" o lavado matemático.
  • 16:26 - 16:28
    Necesitamos lo contrario.
  • 16:28 - 16:33
    Necesitamos fomentar un algoritmo
    de sospecha, escrutinio e investigación.
  • 16:33 - 16:37
    Tenemos que asegurarnos de tener
    responsabilidad algorítmica,
  • 16:37 - 16:39
    auditoría y transparencia significativa.
  • 16:39 - 16:43
    Tenemos que aceptar que llevar
    las matemáticas y la computación
  • 16:43 - 16:46
    a los asuntos humanos,
    desordenados y cargados de valores
  • 16:46 - 16:48
    no conlleva a la objetividad;
  • 16:48 - 16:52
    más bien, la complejidad de los asuntos
    humanos invaden los algoritmos.
  • 16:52 - 16:56
    Sí, podemos y debemos
    usar la computación
  • 16:56 - 16:58
    para ayudar a tomar mejores decisiones.
  • 16:58 - 17:03
    Pero tenemos que apropiarnos de
    nuestra responsabilidad moral de juicio,
  • 17:03 - 17:06
    y usar algoritmos dentro de ese marco,
  • 17:06 - 17:11
    no como un medio para abdicar
    y delegar nuestras responsabilidades
  • 17:11 - 17:13
    el uno al otro, como de humano a humano.
  • 17:14 - 17:16
    La inteligencia artificial está aquí.
  • 17:16 - 17:20
    Eso significa que hay que
    ajustarla cada vez más
  • 17:20 - 17:22
    a los valores humanos y a la ética humana.
  • 17:22 - 17:23
    Gracias.
  • 17:23 - 17:28
    (Aplausos)
Title:
La inteligencia artificial hace que la moral humana sea más importante
Speaker:
Zeynep Tufekci
Description:

La inteligencia artificial está aquí, y ya la estamos usando para tomar decisiones subjetivas. Pero la forma compleja en la que crece y mejora la inteligencia artificial hace que sea difícil de entender e incluso más difícil de controlar. En esta charla cautelosa, la tecnosocióloga Zeynep Tufekci explica cómo las máquinas inteligentes pueden fallar en formas que no encajan en los patrones del error humano y de maneras que no esperamos ni predecimos. "No podemos delegar nuestra responsabilidad a las máquinas", dice. "Debemos ajustarlas cada vez más a los valores humanos y a la ética humana".

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:42

Spanish subtitles

Revisions Compare revisions