La inteligencia artificial hace que la moral humana sea más importante
-
0:01 - 0:05Empecé mi primer trabajo
como programadora informática -
0:05 - 0:07en mi primer año de universidad,
-
0:07 - 0:09básicamente, siendo aún adolescente.
-
0:09 - 0:11Poco después de empezar a trabajar,
-
0:11 - 0:12programando software en una empresa,
-
0:13 - 0:16un gerente que trabajaba en la compañía
vino allí donde estaba yo, -
0:16 - 0:18y me dijo al oído:
-
0:18 - 0:21"¿Puede decir ella si estoy mintiendo?"
-
0:22 - 0:24No había nadie más en la habitación.
-
0:25 - 0:29"¿Puede "quién" decir si está mintiendo?
¿Y por qué estamos susurrando?" -
0:30 - 0:33El gerente señaló la computadora
de la habitación. -
0:33 - 0:36"¿Puede ella decir si estoy mintiendo?"
-
0:38 - 0:42Bueno, el gerente tenía
una aventura con la recepcionista. -
0:42 - 0:43(Risas)
-
0:43 - 0:45Y yo todavía era adolescente.
-
0:45 - 0:47Por lo tanto, le susurro yo a él:
-
0:47 - 0:51"Sí, la computadora puede determinar
si Ud. está mintiendo". -
0:51 - 0:53(Risas)
-
0:53 - 0:56Bueno, me reí, pero,
en realidad, me reía de mí. -
0:56 - 0:59Hoy en día, existen sistemas informáticos
-
0:59 - 1:03que pueden detectar
estados emocionales e incluso mentir -
1:03 - 1:05a partir del procesamiento
de rostros humanos. -
1:05 - 1:09Los anunciantes, e incluso
hay gobiernos muy interesados. -
1:10 - 1:12Me había convertido en
programadora informática -
1:12 - 1:16porque yo era una de esas chicas
locas por las matemáticas y la ciencia. -
1:16 - 1:19Pero también me había
interesado por las armas nucleares, -
1:19 - 1:23y había empezado a realmente a
preocuparme por la ética de la ciencia. -
1:23 - 1:24Yo estaba preocupada.
-
1:24 - 1:26Sin embargo,
por circunstancias familiares, -
1:26 - 1:29también debía empezar
a trabajar lo antes posible. -
1:29 - 1:32Así que me dije, bueno,
vamos a elegir un campo técnico -
1:32 - 1:34donde poder conseguir un trabajo fácil
-
1:34 - 1:38y donde no tenga que lidiar
con preguntas molestas sobre ética. -
1:39 - 1:41Así que elegí las computadoras.
-
1:41 - 1:42(Risas)
-
1:42 - 1:45Bueno, ¡ja, ja, ja!
Todas las risas a mi costa. -
1:45 - 1:48Hoy en día, los informáticos
construyen plataformas -
1:48 - 1:52que controlan lo que millones
de personas ven todos los días. -
1:53 - 1:57Están desarrollando automóviles que
podrían decidir a quién atropellar. -
1:58 - 2:01Es más, están construyendo
máquinas, armas, -
2:01 - 2:03que podrían matar
a seres humanos en la guerra. -
2:03 - 2:06Esto es ética a fondo.
-
2:07 - 2:09La inteligencia artificial está aquí.
-
2:10 - 2:13Estamos usando la computación
para tomar todo tipo de decisiones, -
2:13 - 2:15además de nuevos tipos de decisiones.
-
2:15 - 2:20Planteamos preguntas a las computadoras
que no tienen respuestas -
2:20 - 2:22correctas individuales,
por ser subjetivas -
2:22 - 2:24e indefinidas y cargadas de valores.
-
2:24 - 2:26Planteamos preguntas como:
-
2:26 - 2:28"¿A quién debe contratar la empresa?"
-
2:28 - 2:31"¿Qué actualización de qué amigo
debe mostrarse?" -
2:31 - 2:34"¿Qué convicto tiene
más probabilidades de reincidir?" -
2:34 - 2:37"¿Qué artículo de noticias o película
se deben recomendar a la gente?" -
2:37 - 2:40Miren, sí, hemos venido usando
computadoras hace tiempo, -
2:40 - 2:42pero esto es diferente.
-
2:42 - 2:44Se trata de un giro histórico,
-
2:44 - 2:49porque no podemos anclar el cálculo
para este tipo de decisiones subjetivas -
2:49 - 2:54como anclamos el cálculo para
pilotar aviones, construir puentes -
2:54 - 2:56o ir a la luna.
-
2:56 - 3:00¿Son los aviones más seguros?
¿Se balanceó el puente y cayó? -
3:00 - 3:04Ahí, hemos acordado puntos
de referencia bastante claros, -
3:04 - 3:06y tenemos leyes de
la naturaleza que nos guían. -
3:07 - 3:10Nosotros no tenemos tales anclas
y puntos de referencia -
3:10 - 3:14para las decisiones sobre cuestiones
humanas desordenadas. -
3:14 - 3:18Para complicar más las cosas,
nuestro software es cada vez más potente, -
3:18 - 3:22pero también es cada vez
menos transparente y más complejo. -
3:23 - 3:25Recientemente, en la última década,
-
3:25 - 3:27algunos algoritmos complejos
han hecho grandes progresos. -
3:27 - 3:29Pueden reconocer rostros humanos.
-
3:30 - 3:32Pueden descifrar la letra.
-
3:32 - 3:35Pueden detectar
el fraude de tarjetas de crédito -
3:35 - 3:36y bloquear el spam
-
3:36 - 3:38y pueden traducir a otros idiomas.
-
3:38 - 3:40Pueden detectar tumores
en imágenes médicas. -
3:40 - 3:43Puede vencer a los humanos
en el ajedrez y en el Go. -
3:43 - 3:48Gran parte de este progreso viene de un
método llamado "aprendizaje automático". -
3:48 - 3:51El aprendizaje automático es
diferente a la programación tradicional, -
3:51 - 3:55donde se da al equipo instrucciones
exactas, detalladas y meticulosas. -
3:55 - 3:59Es como si uno alimentara el sistema
con una gran cantidad de datos, -
3:59 - 4:01incluyendo los datos no estructurados,
-
4:01 - 4:04como los que generamos
en nuestras vidas digitales. -
4:04 - 4:06Y el sistema aprende de esos datos.
-
4:07 - 4:08Y también, de manera crucial,
-
4:08 - 4:13estos sistemas no funcionan
bajo una lógica de una sola respuesta. -
4:13 - 4:16No producen una respuesta sencilla;
es más probabilístico: -
4:16 - 4:19"Esto es probablemente parecido
a lo que estás buscando". -
4:20 - 4:22La ventaja es que
este método es muy potente. -
4:22 - 4:26El jefe de sistemas de inteligencia
artificial de Google lo llama: -
4:26 - 4:28"la eficacia irrazonable de los datos".
-
4:28 - 4:29La desventaja es que
-
4:30 - 4:33realmente no entendemos
lo que aprendió el sistema. -
4:33 - 4:34De hecho, ese es su poder.
-
4:35 - 4:39Esto no se parece a dar instrucciones
a una computadora; -
4:39 - 4:43se parece más a la formación
de una criatura cachorro máquina -
4:43 - 4:46que realmente no entendemos o controlamos.
-
4:46 - 4:50Así que este es nuestro problema;
un problema cuando el sistema -
4:50 - 4:53de inteligencia artificial
hace cosas erróneas. -
4:53 - 4:56Es también un problema
cuando hace bien las cosas, -
4:56 - 5:00porque ni siquiera sabemos qué es qué
cuando se trata de un problema subjetivo. -
5:00 - 5:02No sabemos qué está pensando esta cosa.
-
5:03 - 5:07Por lo tanto, piensen en
un algoritmo de contratación, -
5:08 - 5:12un sistema usado para contratar,
usa sistemas de aprendizaje automático. -
5:13 - 5:17un sistema así habría sido entrenado
con anteriores datos de empleados -
5:17 - 5:19y tiene la instrucción
de encontrar y contratar -
5:19 - 5:22personas como las de alto rendimiento
existentes en la empresa. -
5:23 - 5:24Suena bien.
-
5:24 - 5:26Una vez asistí a una conferencia
-
5:26 - 5:29que reunió a los responsables
de recursos humanos y ejecutivos, -
5:29 - 5:30las personas de alto nivel,
-
5:30 - 5:32que usaban estos sistemas
en la contratación. -
5:32 - 5:34Estaban muy emocionados.
-
5:34 - 5:38Pensaban que esto haría la contratación
más objetiva, menos tendenciosa, -
5:38 - 5:41para dar a las mujeres y a las minorías
mejores oportunidades -
5:41 - 5:44contra los administradores
humanos tendenciosos. -
5:44 - 5:46La contratación humana es tendenciosa.
-
5:47 - 5:48Lo sé.
-
5:48 - 5:51Es decir, en uno de mis primeros
trabajos como programadora, -
5:51 - 5:55mi jefa a veces venía
allí donde yo estaba -
5:55 - 5:59muy temprano en la mañana
o muy tarde por la tarde, -
5:59 - 6:02y decía: "Zeynep, ¡vayamos a comer!"
-
6:02 - 6:05Me dejaba perpleja por el
momento extraño de preguntar. -
6:05 - 6:07Son las 16. ¿Almuerzo?
-
6:07 - 6:10Estaba en la ruina, así que,
ante un almuerzo gratis, siempre fui. -
6:10 - 6:13Más tarde me di cuenta
de lo que estaba ocurriendo. -
6:13 - 6:17Mis jefes inmediatos no habían
confesado a sus altos mandos -
6:17 - 6:20que el programador contratado para
un trabajo serio era una adolescente -
6:20 - 6:24que llevaba pantalones vaqueros
y zapatillas de deporte en el trabajo. -
6:25 - 6:27Yo hacía un buen trabajo,
solo que no encajaba -
6:27 - 6:29por la edad y por el sexo equivocado.
-
6:29 - 6:32Así que contratar a ciegas
independiente del género y de la raza -
6:32 - 6:34ciertamente me parece bien.
-
6:35 - 6:38Sin embargo, con estos sistemas,
es más complicado, y he aquí por qué: -
6:39 - 6:45Hoy los sistemas informáticos pueden
deducir todo tipo de cosas sobre Uds. -
6:45 - 6:47a partir de sus pistas digitales,
-
6:47 - 6:49incluso si no las han dado a conocer.
-
6:50 - 6:52Pueden inferir su orientación sexual,
-
6:53 - 6:54sus rasgos de personalidad,
-
6:55 - 6:56sus inclinaciones políticas.
-
6:57 - 7:01Tienen poder predictivo
con altos niveles de precisión. -
7:01 - 7:04Recuerden, por cosas que
ni siquiera han dado a conocer. -
7:04 - 7:06Esta es la inferencia.
-
7:06 - 7:09Tengo una amiga que desarrolló
este tipo de sistemas informáticos -
7:09 - 7:13para predecir la probabilidad
de depresión clínica o posparto -
7:13 - 7:14a partir de datos de medios sociales.
-
7:15 - 7:16Los resultados son impresionantes.
-
7:16 - 7:20Su sistema puede predecir
la probabilidad de depresión -
7:20 - 7:24meses antes de la aparición
de cualquier síntoma, -
7:24 - 7:25meses antes.
-
7:25 - 7:27No hay síntomas, sí hay predicción.
-
7:27 - 7:32Ella espera que se use para
la intervención temprana. ¡Estupendo! -
7:33 - 7:35Pero ahora pongan esto en el
contexto de la contratación. -
7:36 - 7:39Así que en esa conferencia
de recursos humanos, -
7:39 - 7:44me acerqué a una gerenta de alto nivel
de una empresa muy grande, -
7:44 - 7:48y le dije: "Mira, ¿qué pasaría si,
sin su conocimiento, -
7:48 - 7:55el sistema elimina a las personas con
alta probabilidad futura de la depresión? -
7:56 - 7:59No están deprimidos ahora, solo
quizá en el futuro, sea probable. -
8:00 - 8:03¿Y si elimina a las mujeres con más
probabilidades de estar embarazadas -
8:03 - 8:06en el próximo año o dos,
pero no está embarazada ahora? -
8:07 - 8:12¿Y si contratamos a personas agresivas,
porque esa es su cultura de trabajo?" -
8:13 - 8:16No se puede saber esto
mirando un desglose por sexos. -
8:16 - 8:17Estos pueden ser equilibrados.
-
8:17 - 8:22Y como esto es aprendizaje automático,
no la programación tradicional, -
8:22 - 8:26no hay una variable etiquetada
como "mayor riesgo de depresión", -
8:26 - 8:28"mayor riesgo de embarazo",
-
8:28 - 8:30"escala de chico agresivo".
-
8:30 - 8:34Ud. no solo no sabe lo que
su sistema selecciona, -
8:34 - 8:36sino que ni siquiera sabe
por dónde empezar a buscar. -
8:36 - 8:37Es una caja negra.
-
8:37 - 8:40Tiene capacidad de predicción,
pero uno no lo entiende. -
8:40 - 8:43"¿Qué salvaguardia", pregunté,
-
8:43 - 8:47"puede asegurar que la caja negra
no hace algo perjudicial?" -
8:49 - 8:53Ella me miró como si acabara
de romper algo valioso. -
8:53 - 8:54(Risas)
-
8:54 - 8:56Me miró y dijo:
-
8:57 - 9:01"No quiero oír ni una palabra de esto".
-
9:01 - 9:03Dio la vuelta y se alejó.
-
9:04 - 9:06Eso sí, ella no fue grosera.
-
9:06 - 9:12Era claramente: lo que no sé, no es
mi problema, vete, encara la muerte. -
9:12 - 9:13(Risas)
-
9:14 - 9:17Un sistema de este tipo
puede ser incluso menos sesgado -
9:17 - 9:20que los administradores humanos
en algunos aspectos. -
9:20 - 9:22Y podría tener sentido monetario.
-
9:23 - 9:24Pero también podría llevar
-
9:24 - 9:29a un cierre constante pero sigiloso
del mercado de trabajo -
9:29 - 9:31a las personas
con mayor riesgo de depresión. -
9:32 - 9:34¿Es este el tipo de sociedad
la que queremos construir, -
9:34 - 9:37sin siquiera saber que lo hemos hecho,
-
9:37 - 9:41porque nos movemos en torno a decisiones
de máquinas que no entendemos totalmente? -
9:41 - 9:43Otro problema es el siguiente:
-
9:43 - 9:48estos sistemas son a menudo
entrenados con datos generados -
9:48 - 9:50por nuestras acciones,
por huellas humanas. -
9:50 - 9:54Podrían pues estar reflejando
nuestros prejuicios, -
9:54 - 9:58y estos sistemas podrían dar cuenta
de nuestros prejuicios -
9:58 - 9:59y la amplificación de ellos
-
9:59 - 10:00volviendo a nosotros,
-
10:00 - 10:02mientras que decimos:
-
10:02 - 10:05"Somos objetivos, es el cómputo neutral".
-
10:06 - 10:10Los investigadores encontraron
que en Google las mujeres tienen -
10:10 - 10:13menos probabilidades que los hombres
-
10:13 - 10:16de que les aparezcan anuncios
de trabajo bien remunerados. -
10:16 - 10:19Y buscando nombres afroestadounidenses
-
10:19 - 10:24es más probable que aparezcan anuncios
que sugieren antecedentes penales, -
10:24 - 10:25incluso cuando no existan.
-
10:27 - 10:30Estos sesgos ocultos
y algoritmos de la caja negra -
10:30 - 10:34que descubren los investigadores
a veces, pero a veces no, -
10:34 - 10:37pueden tener consecuencias
que cambian la vida. -
10:38 - 10:42En Wisconsin, un acusado
fue condenado a seis años de prisión -
10:42 - 10:43por escaparse de la policía.
-
10:44 - 10:47Quizá no lo sepan, pero los algoritmos
se usan cada vez más -
10:47 - 10:50en las decisiones de
libertad condicional y de sentencia. -
10:50 - 10:53El acusado quiso saber:
¿Cómo se calcula la puntuación? -
10:54 - 10:55Es una caja negra comercial.
-
10:55 - 11:00La empresa se negó a que se cuestionara
su algoritmo en audiencia pública. -
11:00 - 11:05Pero ProPublica, organización
no lucrativa de investigación, -
11:05 - 11:08auditó precisamente ese algoritmo
con los datos públicos que encontró, -
11:08 - 11:11y descubrió que sus resultados
estaban sesgados -
11:11 - 11:14y su capacidad de predicción era pésima,
apenas mejor que el azar, -
11:14 - 11:18y se etiquetaban erróneamente
acusados negros como futuros criminales -
11:18 - 11:22con una tasa del doble
que a los acusados blancos. -
11:24 - 11:26Piensen en este caso:
-
11:26 - 11:30Esta mujer llegó tarde a
recoger a la hija de su madrina -
11:30 - 11:32de una escuela en
el condado de Broward, Florida, -
11:33 - 11:35iba corriendo por la calle con una amiga.
-
11:35 - 11:39Vieron la bicicleta de un niño sin candado
y una moto en un porche -
11:39 - 11:41y tontamente saltó sobre ella.
-
11:41 - 11:44A medida que aceleraban,
una mujer salió y dijo, -
11:44 - 11:46"¡Eh, esa es la bicicleta de mi hijo!"
-
11:46 - 11:49Se bajaron, se alejaron,
pero fueron detenidas. -
11:49 - 11:53Estaba equivocada, fue una tontería,
pero también tenía solo 18 años. -
11:53 - 11:55Tenía un par de faltas menores.
-
11:56 - 12:01Mientras tanto, detenían al hombre
por hurto en Home Depot, -
12:01 - 12:04por un valor de USD 85,
un delito menor similar. -
12:05 - 12:09Pero él tenía dos condenas anteriores
por robo a mano armada. -
12:10 - 12:13Sin embargo, el algoritmo la anotó
a ella como de alto riesgo, y no a él. -
12:14 - 12:18Dos años más tarde, ProPublica descubrió
que ella no había vuelto a delinquir. -
12:18 - 12:22Pero le era difícil conseguir un trabajo
con sus antecedentes registrados. -
12:22 - 12:23Él, por el contrario, era reincidente
-
12:23 - 12:27y ahora cumple una pena de ocho años
de prisión por un delito posterior. -
12:28 - 12:31Es evidente que necesitamos
auditar nuestras cajas negras -
12:31 - 12:34para no tener
este tipo de poder sin control. -
12:34 - 12:37(Aplausos)
-
12:38 - 12:42Las auditorías son grandes e importantes,
pero no resuelven todos los problemas. -
12:42 - 12:45Tomemos el potente algoritmo
de noticias de Facebook, -
12:45 - 12:50ese que sabe todo y decide qué mostrarles
-
12:50 - 12:52de las páginas de los amigos que siguen.
-
12:53 - 12:55¿Debería mostrarles otra imagen de bebé?
-
12:55 - 12:56(Risas)
-
12:56 - 12:59¿Una nota deprimente de un conocido?
-
12:59 - 13:01¿Una noticia importante pero difícil?
-
13:01 - 13:03No hay una respuesta correcta.
-
13:03 - 13:05Facebook optimiza para
que se participe en el sitio: -
13:06 - 13:07con Me gusta, Compartir
y con Comentarios. -
13:08 - 13:11En agosto de 2014,
-
13:11 - 13:14estallaron protestas
en Ferguson, Missouri, -
13:14 - 13:18tras la muerte de un adolescente
afroestadounidense por un policía blanco, -
13:18 - 13:20en circunstancias turbias.
-
13:20 - 13:22La noticia de las protestas llegaron
-
13:22 - 13:25en mi cuenta de Twitter
algorítmicamente sin filtrar -
13:25 - 13:27pero en ninguna parte en mi Facebook.
-
13:27 - 13:29¿Y qué pasaba con mis amigos de Facebook?
-
13:29 - 13:31Desactivé el algoritmo de Facebook,
-
13:31 - 13:34lo cual es difícil ya que Facebook
quiere seguir manteniéndonos -
13:34 - 13:36bajo el control del algoritmo,
-
13:36 - 13:39y vi que mis amigos
estaban hablando de ello. -
13:39 - 13:41Pero el algoritmo no me lo mostraba.
-
13:41 - 13:44He investigado esto y encontré
que era un problema generalizado. -
13:44 - 13:48La historia de Ferguson no era
compatible con el algoritmo. -
13:48 - 13:49No es "gustable".
-
13:49 - 13:51¿Quién va a hacer clic en "Me gusta"?
-
13:52 - 13:54Ni siquiera es fácil de comentar.
-
13:54 - 13:55Sin Me gusta y sin comentarios,
-
13:55 - 13:58el algoritmo era probable de
mostrarse a aún menos personas, -
13:58 - 14:00así que no tuvimos
oportunidad de ver esto. -
14:01 - 14:02En cambio, esa semana,
-
14:02 - 14:04el algoritmo de Facebook destacó esto,
-
14:05 - 14:07el ALS que era
el desafío del cubo de hielo. -
14:07 - 14:11Noble causa; verter agua con hielo,
donar a la caridad, bien. -
14:11 - 14:13Esa causa era súper compatible
con el algoritmo. -
14:13 - 14:16La máquina tomó
esta decisión por nosotros. -
14:16 - 14:19Una conversación
muy importante pero difícil -
14:19 - 14:21podría haber sido silenciada
-
14:21 - 14:24si Facebook hubiese sido el único canal.
-
14:24 - 14:28Ahora, por fin, estos sistemas
pueden también equivocarse -
14:28 - 14:30de formas que no se parecen a los humanos.
-
14:30 - 14:34¿Se acuerdan de Watson, el sistema
de inteligencia artificial de IBM -
14:34 - 14:37que arrasó con los concursantes
humanos en Jeopardy? -
14:37 - 14:38Fue un gran jugador.
-
14:38 - 14:42Pero entonces, para la final de Jeopardy,
a Watson se le hizo esta pregunta: -
14:42 - 14:46"Su mayor aeropuerto lleva el nombre
de un héroe de la 2ª Guerra Mundial, -
14:46 - 14:48la 2ª batalla más grande
de la 2ª Guerra Mundial". -
14:48 - 14:50(Música final de Jeopardy)
-
14:50 - 14:51Chicago.
-
14:51 - 14:53Los dos humanos lo hicieron bien.
-
14:53 - 14:57Watson, por otra parte,
respondió "Toronto" -
14:57 - 14:59para una categoría de ciudad de EE.UU.
-
15:00 - 15:02El impresionante sistema
también cometió un error -
15:03 - 15:06que un humano nunca cometería, que
un estudiante de segundo grado tampoco. -
15:07 - 15:10La inteligencia artificial puede fallar
-
15:10 - 15:13en formas que no se ajustan a
los patrones de error de los humanos, -
15:13 - 15:16de maneras que no esperamos
y para las que no estamos preparados. -
15:16 - 15:20Sería pésimo no conseguir trabajo,
una vez que uno se cualifica para ello, -
15:20 - 15:23pero sería el triple de pésimo
si fue por un desbordamiento de pila -
15:23 - 15:25en algunas subrutinas.
-
15:25 - 15:27(Risas)
-
15:27 - 15:29En mayo del 2010
-
15:29 - 15:33un flash crash de Wall Street alimentado
por un circuito de retroalimentación -
15:33 - 15:36por el algoritmo de "venta" de Wall Street
-
15:36 - 15:41borró un billón de dólares en 36 minutos.
-
15:41 - 15:44Yo no quiero ni pensar
lo que significa "error" -
15:44 - 15:48en el contexto de
las armas autónomas letales. -
15:50 - 15:54Los humanos siempre
hemos tenido prejuicios. -
15:54 - 15:56Los que toman decisiones y los guardias,
-
15:56 - 15:59en los tribunales,
en la actualidad, en la guerra... -
15:59 - 16:02cometen errores; pero ese
es exactamente mi tema. -
16:02 - 16:06No podemos escapar
a estas preguntas difíciles. -
16:07 - 16:10No podemos delegar nuestra
responsabilidad a las máquinas. -
16:11 - 16:15(Aplausos)
-
16:17 - 16:22La inteligencia artificial
no nos da una tarjeta libre de ética. -
16:22 - 16:26El experto en datos Fred Benenson lo
llama "mathwashing" o lavado matemático. -
16:26 - 16:28Necesitamos lo contrario.
-
16:28 - 16:33Necesitamos fomentar un algoritmo
de sospecha, escrutinio e investigación. -
16:33 - 16:37Tenemos que asegurarnos de tener
responsabilidad algorítmica, -
16:37 - 16:39auditoría y transparencia significativa.
-
16:39 - 16:43Tenemos que aceptar que llevar
las matemáticas y la computación -
16:43 - 16:46a los asuntos humanos,
desordenados y cargados de valores -
16:46 - 16:48no conlleva a la objetividad;
-
16:48 - 16:52más bien, la complejidad de los asuntos
humanos invaden los algoritmos. -
16:52 - 16:56Sí, podemos y debemos
usar la computación -
16:56 - 16:58para ayudar a tomar mejores decisiones.
-
16:58 - 17:03Pero tenemos que apropiarnos de
nuestra responsabilidad moral de juicio, -
17:03 - 17:06y usar algoritmos dentro de ese marco,
-
17:06 - 17:11no como un medio para abdicar
y delegar nuestras responsabilidades -
17:11 - 17:13el uno al otro, como de humano a humano.
-
17:14 - 17:16La inteligencia artificial está aquí.
-
17:16 - 17:20Eso significa que hay que
ajustarla cada vez más -
17:20 - 17:22a los valores humanos y a la ética humana.
-
17:22 - 17:23Gracias.
-
17:23 - 17:28(Aplausos)
- Title:
- La inteligencia artificial hace que la moral humana sea más importante
- Speaker:
- Zeynep Tufekci
- Description:
-
La inteligencia artificial está aquí, y ya la estamos usando para tomar decisiones subjetivas. Pero la forma compleja en la que crece y mejora la inteligencia artificial hace que sea difícil de entender e incluso más difícil de controlar. En esta charla cautelosa, la tecnosocióloga Zeynep Tufekci explica cómo las máquinas inteligentes pueden fallar en formas que no encajan en los patrones del error humano y de maneras que no esperamos ni predecimos. "No podemos delegar nuestra responsabilidad a las máquinas", dice. "Debemos ajustarlas cada vez más a los valores humanos y a la ética humana".
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 17:42
Lidia Cámara de la Fuente edited Spanish subtitles for Machine intelligence makes human morals more important | ||
Sebastian Betti edited Spanish subtitles for Machine intelligence makes human morals more important | ||
Sebastian Betti approved Spanish subtitles for Machine intelligence makes human morals more important | ||
Sebastian Betti accepted Spanish subtitles for Machine intelligence makes human morals more important | ||
Sebastian Betti edited Spanish subtitles for Machine intelligence makes human morals more important | ||
Lidia Cámara de la Fuente edited Spanish subtitles for Machine intelligence makes human morals more important | ||
Lidia Cámara de la Fuente edited Spanish subtitles for Machine intelligence makes human morals more important | ||
Lidia Cámara de la Fuente edited Spanish subtitles for Machine intelligence makes human morals more important |