La era de la fe ciega en los datos masivos ha de terminar
-
0:01 - 0:03Hay algoritmos por todos lados.
-
0:04 - 0:07Ordenan y separan a los ganadores
de los perdedores. -
0:08 - 0:10Los ganadores consiguen el trabajo
-
0:10 - 0:12o buenas condiciones de crédito.
-
0:12 - 0:15A los perdedores ni siquiera
se les invita a una entrevista -
0:16 - 0:17o tienen que pagar más por el seguro.
-
0:18 - 0:22Se nos califica mediante fórmulas
secretas que no entendemos -
0:23 - 0:26y a las que no se puede apelar.
-
0:27 - 0:29Eso plantea una pregunta:
-
0:29 - 0:31¿Qué pasa si los algoritmos se equivocan?
-
0:33 - 0:35Un algoritmo necesita dos cosas:
-
0:35 - 0:37datos ocurridos en el pasado
-
0:37 - 0:39y una definición del éxito;
-
0:39 - 0:41esto es, lo que uno quiere y lo que desea.
-
0:41 - 0:46Los algoritmos se entrenan
mirando, descubriendo. -
0:46 - 0:50El algoritmo calcula a qué
se asocia el éxito, -
0:50 - 0:52qué situaciones llevan al éxito.
-
0:53 - 0:55En general todos usamos algoritmos
-
0:55 - 0:57pero no los formalizamos
mediante un código escrito. -
0:57 - 0:59Les doy un ejemplo.
-
0:59 - 1:02Yo uso un algoritmo todos los días
para preparar la comida en casa. -
1:02 - 1:04Los datos que uso
-
1:04 - 1:06son los ingredientes de la cocina,
-
1:06 - 1:08el tiempo que tengo
-
1:08 - 1:09y lo ambiciosa que estoy.
-
1:09 - 1:11Y así organizo los datos.
-
1:11 - 1:15No incluyo esos paquetitos
de fideos como comida. -
1:15 - 1:17(Risas)
-
1:17 - 1:19Mi definición del éxito es:
-
1:19 - 1:21la comida tiene éxito,
si mis hijos comen verdura. -
1:22 - 1:25Lo que sería muy distinto,
si mi hijito tuviera el control. -
1:25 - 1:28Para él el éxito es comer
mucha Nutella. -
1:29 - 1:31Pero yo soy quien elige el éxito.
-
1:31 - 1:34Estoy al mando. Mi opinión cuenta.
-
1:34 - 1:37Esa es la primera regla de los algoritmos.
-
1:37 - 1:40Los algoritmos son opiniones
que se embeben en código. -
1:42 - 1:45Es muy diferente a cómo la gente
se imagina los algoritmos. -
1:45 - 1:50Se creen que los algoritmos son
objetivos, verdaderos y científicos. -
1:50 - 1:52Ese en un truco del marketing.
-
1:53 - 1:55Tambien es un truco del marketing
-
1:55 - 1:59la intimidación con algoritmos,
-
1:59 - 2:02que nos hacer confiar
y temer los algoritmos -
2:02 - 2:05porque confiamos y tememos
las matemáticas. -
2:06 - 2:10Muchas cosas pueden salir mal si
confiamos a ciegas en datos masivos. -
2:12 - 2:15Esta es Kiri Soares. Es la directora
de una escuela de Brooklyn. -
2:15 - 2:18En 2011 me contó que
sus maestros se clasificaban -
2:18 - 2:20mediante un algoritmo complejo y secreto
-
2:20 - 2:22llamado "modelo del valor añadido".
-
2:23 - 2:26Le dije, "Intente saber
cuál es la fórmula, muéstremela. -
2:26 - 2:27Se la voy a explicar".
-
2:27 - 2:29Me respondió,
"Trate de conseguir la fórmula, -
2:29 - 2:32pero un conocido del Departamento
de Educación me dijo -
2:32 - 2:34que era matemática y
que no la entendería". -
2:35 - 2:37Esto se pone peor.
-
2:37 - 2:40El New York Post la solicitó bajo la
Ley de Libertad a la Información. -
2:40 - 2:43Obtuvo los nombres de los maestros
y su puntuación -
2:43 - 2:46y los publicó como un acto para
avergonzar a los maestros. -
2:47 - 2:51Cuando intenté conseguir las fórmulas en
código base, usando el mismo mecanismo, -
2:51 - 2:53me dijeron que no se podía.
-
2:53 - 2:54Me lo negaron.
-
2:54 - 2:56Más tarde descubrí
-
2:56 - 2:58que nadie tenía derecho
a la fórmula en Nueva York. -
2:58 - 3:00Nadie lo podía entender.
-
3:02 - 3:05Entonces apareció un tipo muy
inteligente, Gary Rubenstein. -
3:05 - 3:09Localizó a 665 maestros por
los datos del New York Post -
3:09 - 3:11que tenían dos puntuaciones.
-
3:11 - 3:13Eso podía ocurrir si enseñaban
-
3:13 - 3:15matemática en 7º y 8º grado.
-
3:15 - 3:17Decidió hacer un gráfico.
-
3:17 - 3:19Donde cada punto representa
a un maestro. -
3:19 - 3:21(Risas)
-
3:22 - 3:23Y eso ¿qué es?
-
3:23 - 3:24(Risas)
-
3:24 - 3:28Eso no debiera haberse usado nunca
para evaluar a una persona. -
3:28 - 3:30Es casi un generador de números al azar.
-
3:30 - 3:33(Aplausos)
-
3:33 - 3:34Pero lo fue.
-
3:34 - 3:35Esta es Sarah Wysocki.
-
3:35 - 3:37La echaron junto a otros 205 maestros
-
3:37 - 3:40de una escuela en Washington DC,
-
3:40 - 3:43a pesar de tener muy buena recomendación
de la directora -
3:43 - 3:45y de los padres de sus alumnos.
-
3:45 - 3:47Me imagino lo que estarán pensando,
-
3:47 - 3:50especialmente los cientificos de
datos, los expertos en IA -
3:50 - 3:54Pensarán "Nosotros nunca produciríamos
un algoritmo tan inconsistente." -
3:55 - 3:57Pero los algoritmos a veces fallan,
-
3:57 - 4:01y tambien provocar mucha destrucción
sin querer. -
4:03 - 4:05Y mientras un avión mal diseñado
-
4:05 - 4:07se estrella y todos lo ven,
-
4:07 - 4:09un algoritmo mal diseñado
-
4:10 - 4:14puede funcionar mucho tiempo
provocando un desastre silenciosamente. -
4:16 - 4:17Este es Roger Ailes.
-
4:17 - 4:19(Risas)
-
4:21 - 4:23Fundador de Fox News en el 1996.
-
4:23 - 4:26Mas de 20 mujeres se quejaron de
acoso sexual. -
4:26 - 4:29Dijeron que no pudieron
tener éxito en Fox News. -
4:29 - 4:32Lo echaron el año pasado,
pero hemos visto que hace poco -
4:32 - 4:35los problemas han continuado.
-
4:36 - 4:37Esto plantea una pregunta:
-
4:37 - 4:40¿Qué debe hacer Fox News para cambiar?
-
4:41 - 4:44Y si substituyeran su mecanismo
de contratación -
4:44 - 4:46con un algoritmo de auto-
aprendizaje automatizado? -
4:46 - 4:48¿Suena bien?
-
4:48 - 4:49Piénsenlo,
-
4:49 - 4:51Los datos, ¿qué datos serían?
-
4:51 - 4:56Una eleccion razonable serian las últimas
21 solicitudes recibidas por Fox News -
4:56 - 4:58Razonable.
-
4:58 - 4:59Y ¿cuál sería la definición del éxito?
-
5:00 - 5:01Algo razonable sería
-
5:01 - 5:03preguntar, quién es exitoso en Fox News.
-
5:03 - 5:07Me imagino que alguien que
hubiera estado alli unos 4 años -
5:07 - 5:09y subido de puesto por lo menosuna vez.
-
5:09 - 5:10¿Suena razonable?
-
5:10 - 5:13Y así se adiestraría el algoritmo.
-
5:13 - 5:17Se adiestraría para buscar a gente
que logra el éxito. -
5:17 - 5:22Y qué solicitudes antiguas
llegaron al éxito -
5:22 - 5:23según esa definición.
-
5:24 - 5:26Ahora piensen que ocurriría
-
5:26 - 5:29si lo usáramos con los candidatos de hoy.
-
5:29 - 5:31Filtraría a las mujeres
-
5:32 - 5:36ya que no parecen ser personas que
hayan tenido éxito en el pasado. -
5:40 - 5:42Los algoritmos no son justos
-
5:42 - 5:45si uno usa algoritmos a ciegas.
-
5:45 - 5:47No son justos.
-
5:47 - 5:49Repiten prácticas anteriores,
-
5:49 - 5:50nuestros patrones.
-
5:50 - 5:52Automatizan al status quo.
-
5:53 - 5:55Sería genial en un mundo perfecto,
-
5:56 - 5:57pero no lo tenemos.
-
5:57 - 6:01Y aclaro que la mayoria de las empresas
no estan involucradas en litigios, -
6:02 - 6:05pero los cientificos de datos
de esas empresas -
6:05 - 6:07emplean esos datos
-
6:07 - 6:09para lograr la precisión.
-
6:10 - 6:12Piensen qué significa esto.
-
6:12 - 6:16Porque todos tenemos prejuicios,
y así podríamos codificar sexismo -
6:16 - 6:18u otro tipo de fanatismo.
-
6:19 - 6:21Un experimento de pensamiento,
-
6:21 - 6:22porque me gusta,
-
6:24 - 6:27una sociedad totalmente segregada.
-
6:28 - 6:32segregada racialmente,
todas las ciudades y los barrios -
6:32 - 6:35y donde enviamos a la policia
solo a barrios minoritarios -
6:35 - 6:36para detectar delitos.
-
6:36 - 6:39Los arrestos serían sesgados.
-
6:40 - 6:42Y, además, elegimos a los
cientificos de datos -
6:42 - 6:47y pagamos por los datos para predecir
dónde ocurrirán los próximos delitos. -
6:47 - 6:49El barrio de una minoría.
-
6:49 - 6:52O a predecir quien será
el próximo criminal. -
6:53 - 6:54Una minoría.
-
6:56 - 6:59Los cientificos de datos se jactarían
de su grandeza y de la precisión -
7:00 - 7:01de su modelo,
-
7:01 - 7:02y tendrían razón.
-
7:04 - 7:09La realidad no es tan drástica,
pero tenemos grandes segregaciones -
7:09 - 7:10en muchas ciudades
-
7:10 - 7:12y tenemos muchas pruebas
-
7:12 - 7:15de datos políticos y
legislativos sesgados. -
7:16 - 7:18Y podemos predecir puntos calientes,
-
7:18 - 7:20lugares donde podrá ocurrir un delito
-
7:20 - 7:24Y así predecir un crimen individual
-
7:24 - 7:26y la criminalidad de los individuos.
-
7:27 - 7:31El organismo de noticias ProPublica
lo estudió hace poco. -
7:31 - 7:33un algoritmo de "riesgo recidivista"
-
7:33 - 7:34según los llaman
-
7:34 - 7:37usado en Florida
al hacer sentencias judiciales. -
7:38 - 7:42Bernardo, a la izquierda, un hombre negro
sacó una puntuación de 10 de 10. -
7:43 - 7:45Dylan, a la derecha, 3 de 10.
-
7:45 - 7:4810 de 10, alto riesgo
3 de 10, bajo riesgo. -
7:49 - 7:51Los sentenciaron por tener drogas.
-
7:51 - 7:53Ambos con antecedentes penales
-
7:53 - 7:55pero Dylan habia cometido un delito
-
7:55 - 7:56Bernard, no.
-
7:58 - 8:01Esto importa porque
a mayor puntuación -
8:01 - 8:04mayor probabilidad de
una sentencia más larga. -
8:06 - 8:08¿Que sucede?
-
8:09 - 8:10Lavado de datos.
-
8:11 - 8:15El proceso que se usa para
ocultar verdades feas -
8:15 - 8:17dentro de una caja negra
de algoritmos -
8:17 - 8:19y llamarlos objetivos;
-
8:19 - 8:21llamándolos meritocráticos
-
8:23 - 8:26cuando son secretos,
importantes y destructivos -
8:26 - 8:28Les puse un nombre a estos algoritmos:
-
8:28 - 8:30"armas matemáticas de destrucción"
-
8:30 - 8:32(Risas)
-
8:32 - 8:35(Aplausos)
-
8:35 - 8:37Estan en todos sitios
-
8:38 - 8:41Son empresas privadas
que construyen algoritmos privados -
8:41 - 8:43para fines privados.
-
8:43 - 8:46Incluso los mencionados
de los maestros y la policía pública -
8:46 - 8:48fueron diseñados por empresas privadas
-
8:48 - 8:51y vendidos a
instituciones gubernamentales. -
8:51 - 8:52Lo llaman su "salsa secreta"
-
8:52 - 8:55por eso no nos pueden hablar de ello.
-
8:55 - 8:57Es un poder privado
-
8:58 - 9:03que saca provecho por su
autoridad inescrutable. -
9:05 - 9:08Entonces uno ha de pensar,
ya que todo esto es privado -
9:08 - 9:09y hay competición,
-
9:09 - 9:12tal vez un mercado libre
podrá solucionarlo -
9:12 - 9:13Pero no.
-
9:13 - 9:16Se puede ganar mucho dinero
con la injusticia. -
9:17 - 9:20Tampoco somos agentes
económicos racionales. -
9:21 - 9:22Todos tenemos prejuicios
-
9:23 - 9:26Somos racistas y fanáticos
de una forma que no quisiéramos, -
9:26 - 9:28de maneras que desconocemos.
-
9:29 - 9:32Lo sabemos al sumarlo
-
9:32 - 9:36porque los sociólogos
lo han demostrado consistentemente -
9:36 - 9:37con experimentos que construyeron
-
9:37 - 9:40donde mandan una cantidad de solicitudes
de empleo -
9:40 - 9:43de personas de calificaciones iguales
pero algunas con apellidos blancos -
9:43 - 9:45y otras con apellidos negros,
-
9:45 - 9:47y los resultados siempre los
decepcionan, siempre. -
9:48 - 9:49Nosotros somos los prejuiciosos
-
9:49 - 9:53que inyectamos prejuicios
a nuestros algoritmos -
9:53 - 9:55al elegir qué datos recoger,
-
9:55 - 9:57así como yo elegí no pensar
en los fideos-- -
9:57 - 9:59Y decidi que no era importante.
-
9:59 - 10:05Pero tenerle confianza a los datos
basados en prácticas pasadas -
10:05 - 10:07y eligiendo la definición del éxito,
-
10:07 - 10:11¿cómo pretendemos que los
algoritmos emerjan intactos? -
10:11 - 10:13No podemos. Tenemos que verificarlos.
-
10:14 - 10:16Hay que revisarlos por equidad.
-
10:16 - 10:19Y las buenas noticias son
-
10:19 - 10:22que los algoritmos pueden ser
interrogados, -
10:22 - 10:24y nos dirán la verdad todas las veces.
-
10:24 - 10:27Y los podemos arreglar.
Y mejorarlos. -
10:27 - 10:29Lo explico. Esto se llama revisión
del algoritmo, -
10:29 - 10:31lo explico.
-
10:31 - 10:33Primero, verificación de
integridad de datos. -
10:34 - 10:37por el riesgo recidivista.
-
10:38 - 10:41La verificación de la integridad de datos
implicaría una conciliación -
10:41 - 10:45que en EE. UU. los blancos y los
negros fuman marihuana -
10:45 - 10:47pero a los negros es mas fácil que
los arresten -
10:47 - 10:50más probablemente cuatro o cinco
veces más dependiendo de la zona. -
10:51 - 10:54Y ¿cómo son los prejuicios en
otras categorías criminales, -
10:54 - 10:56y cómo lo justificamos?
-
10:56 - 10:59Segundo, debemos pensar
en la definición del éxito, -
10:59 - 11:01revisarla.
-
11:01 - 11:03¿Recuerdan el algoritmo
de la contratación? -
11:03 - 11:07alguien que se queda cuatro años
y asciende de cargo una vez? -
11:07 - 11:08Ese es el empleado exitoso,
-
11:08 - 11:11pero tambien es el empleado
apoyado por la cultura. -
11:12 - 11:14Esto puede ser bastante injusto.
-
11:14 - 11:16Tenemos que separar dos cosas.
-
11:16 - 11:19Mirar a la audicion de una
orquesta de ciegos -
11:19 - 11:20por ejemplo.
-
11:20 - 11:23Los que dan la audición están
detrás de la partitura. -
11:23 - 11:25Lo que quiero que piensen
-
11:25 - 11:28es que la gente que escucha
decide lo que es importante -
11:28 - 11:30y lo que no lo es,
-
11:30 - 11:32sin que eso nos distraiga.
-
11:33 - 11:36Cuando empezaron las audiciones
de orquesta de ciegos -
11:36 - 11:39la cantidad de mujeres aumentó
un factor de cinco veces. -
11:40 - 11:42Tambien hay que pensar en la precisión
-
11:43 - 11:47y así el modelo
del valor añadido fallaría. -
11:48 - 11:50Por supuesto ningún algoritmo es perfecto,
-
11:51 - 11:54asi que hay que considerar los
errores de cada algoritmo. -
11:55 - 11:59¿Qué frecuencia tienen los errores
y con quiénes falla? -
12:00 - 12:02Y ¿cuál es el costo de dicha falla?
-
12:02 - 12:05Y por último, tenemos que considerar
-
12:06 - 12:08los efectos a largo plazo
de los algoritmos, -
12:09 - 12:11los bucles de retroalimentación
que engendran. -
12:12 - 12:13Eso suena a abstracto.
-
12:13 - 12:16Pero imagínese si los ingenieros
de Facebook lo hubieran considerado -
12:16 - 12:21antes de mostrarnos cosas
publicadas por nuestros amigos. -
12:22 - 12:25Tengo dos mensajes,
uno para los científicos de datos. -
12:25 - 12:29Cientificos de datos: no debemos
ser los árbitros de la verdad. -
12:30 - 12:33Debemos ser tradutores de las
discusiones éticas que ocurren -
12:33 - 12:35en toda la sociedad.
-
12:36 - 12:38(Aplausos)
-
12:38 - 12:39Y para el resto de Uds.
-
12:40 - 12:42los que no son científicos de datos:
-
12:42 - 12:44esta no es un examen de matemáticas.
-
12:44 - 12:45Es una lucha politica.
-
12:47 - 12:50Tenemos que exigir responsabilidad
a los lores de los algoritmos. -
12:52 - 12:54(Aplausos)
-
12:54 - 12:58La era de la fe ciega en los
datos masivos debe terminar. -
12:58 - 12:59Muchas gracias.
-
12:59 - 13:06(Aplauso)
- Title:
- La era de la fe ciega en los datos masivos ha de terminar
- Speaker:
- Cathy O'Neil
- Description:
-
Los algoritmos deciden quién obtiene un préstamo, quién será invitado a una entrevista de trabajo, quién obtiene un seguro y muchas cosas más importantes. Pero estos no hacen automáticamente que las cosas sean justas, ya que suelen estar lejos de ser científicas.
La matemática y científica de datos Cathy O'Neil acuñó un término para algoritmos que son secretos, importantes y nocivos: "armas matemáticas de destrucción "
Aprenda más sobre las agendas ocultas detrás de estas fórmulas supuestamente objetivas y por qué necesitamos empezar a construirlas mejor. - Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 13:18
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end | ||
Lidia Cámara de la Fuente approved Spanish subtitles for The era of blind faith in big data must end | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end | ||
Lidia Cámara de la Fuente accepted Spanish subtitles for The era of blind faith in big data must end | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end | ||
Lidia Cámara de la Fuente edited Spanish subtitles for The era of blind faith in big data must end |