0:00:01.041,0:00:04.175 Hola, soy Joy, una poetisa del código, 0:00:04.199,0:00:09.192 en una misión para frenar[br]una fuerza invisible que crece, 0:00:09.216,0:00:12.072 una fuerza que llamo "mirada codificada", 0:00:12.096,0:00:15.405 mi término para el sesgo algorítmico. 0:00:15.429,0:00:19.729 El sesgo algorítmico, como el humano,[br]se traduce en injusticia. 0:00:19.753,0:00:25.775 Pero, los algoritmos, como los virus,[br]pueden propagar sesgos a gran escala 0:00:25.799,0:00:27.381 a un ritmo acelerado. 0:00:27.943,0:00:32.330 El sesgo algorítmico puede también[br]generar experiencias de exclusión 0:00:32.354,0:00:34.482 y prácticas discriminatorias. 0:00:34.506,0:00:36.567 Les mostraré lo que quiero decir. 0:00:36.980,0:00:39.756 (Video) Joy Buolamwini: Hola, cámara.[br]Tengo una cara. 0:00:40.162,0:00:42.026 ¿Puedes ver mi cara? 0:00:42.051,0:00:43.676 ¿Sin lentes? 0:00:43.701,0:00:45.915 Puedes ver su cara. 0:00:46.237,0:00:48.482 ¿Qué tal mi cara? 0:00:51.890,0:00:55.640 Tengo una máscara. ¿Puedes verla? 0:00:56.474,0:00:58.839 Joy Buolamwini: ¿Cómo ocurrió esto? 0:00:58.863,0:01:02.004 ¿Por qué estoy ante una computadora 0:01:02.028,0:01:03.452 con una máscara blanca, 0:01:03.476,0:01:07.126 intentando que una cámara[br]barata me detecte? 0:01:07.150,0:01:09.441 Cuando no lucho[br]contra la mirada codificada 0:01:09.465,0:01:10.985 como poetisa del código, 0:01:11.009,0:01:14.281 soy estudiante de posgrado[br]en el Laboratorio de Medios del MIT, 0:01:14.305,0:01:19.222 y allí puedo trabajar[br]en todo tipo de proyectos caprichosos, 0:01:19.246,0:01:21.273 incluso el Aspire Mirror, 0:01:21.297,0:01:26.431 un proyecto que realicé para proyectar[br]máscaras digitales en mi propio reflejo. 0:01:26.455,0:01:28.805 Entonces, de mañana,[br]si deseo sentirme poderosa, 0:01:28.829,0:01:30.263 puedo convertirme en león. 0:01:30.287,0:01:33.783 Si quiero levantar mi ánimo,[br]podré tener una cita. 0:01:33.807,0:01:36.796 Entonces, usé el software[br]de reconocimiento facial 0:01:36.820,0:01:38.171 para crear el sistema, 0:01:38.195,0:01:43.298 pero me resultó muy difícil probarlo[br]sin colocarme una máscara blanca. 0:01:44.282,0:01:48.628 Desafortunadamente, ya tuve[br]este problema antes. 0:01:48.652,0:01:52.955 Cuando era estudiante de informática[br]en Georgia Tech, 0:01:52.979,0:01:55.034 solía trabajar con robots sociales, 0:01:55.058,0:01:58.835 y una de mis tareas fue lograr[br]que un robot jugara a esconderse, 0:01:58.859,0:02:00.456 un juego de turnos simple 0:02:00.456,0:02:04.997 donde las personas cubren sus rostros y[br]luego las descubren diciendo: "Aquí está". 0:02:04.997,0:02:09.340 El problema es que el juego[br]no funciona, si no te pueden ver 0:02:09.364,0:02:11.863 y el robot no me veía. 0:02:11.887,0:02:15.837 Pero usé el rostro de mi compañera[br]para terminar el proyecto, 0:02:15.861,0:02:17.241 entregué la tarea, 0:02:17.265,0:02:21.018 y pensé que otra persona[br]resolvería este problema. 0:02:21.669,0:02:23.672 Al poco tiempo, 0:02:23.696,0:02:27.855 me encontraba en Hong Kong[br]en una competencia de emprendedores. 0:02:28.339,0:02:31.033 Los organizadores decidieron[br]llevar a los participantes 0:02:31.057,0:02:33.429 a un recorrido[br]por empresas locales emergentes. 0:02:33.453,0:02:36.168 Una de ellas tenía un robot social, 0:02:36.192,0:02:38.104 y decidieron hacer una demostración. 0:02:38.128,0:02:41.108 La demostración funcionó bien[br]hasta que llegó mi turno, 0:02:41.132,0:02:43.055 y probablemente pueden adivinar. 0:02:43.079,0:02:46.044 No pudo detectar mi rostro. 0:02:46.068,0:02:48.579 Pregunté a los desarrolladores qué pasaba, 0:02:48.603,0:02:54.136 y resultó que habíamos usado el mismo[br]software genérico de reconocimiento. 0:02:54.160,0:02:55.810 Al otro lado del mundo, 0:02:55.834,0:02:59.686 aprendí que el sesgo algorítmico[br]puede viajar tan rápido 0:02:59.710,0:03:02.880 como el tiempo que lleva[br]descargar archivos de Internet. 0:03:03.745,0:03:06.821 Entonces, ¿qué sucede?[br]¿Por qué no se detecta mi rostro? 0:03:06.845,0:03:10.201 Bueno, debemos pensar[br]cómo hacemos que las máquinas vean. 0:03:10.225,0:03:13.634 La visión por computadora[br]usa técnicas de aprendizaje de máquina 0:03:13.658,0:03:15.538 para el reconocimiento facial. 0:03:15.562,0:03:19.459 Se trabaja así, creando una serie[br]de prueba con ejemplos de rostros. 0:03:19.483,0:03:22.301 Esto es un rostro. Esto es un rostro.[br]Esto no lo es. 0:03:22.325,0:03:26.844 Con el tiempo, puedes enseñar[br]a una computadora a reconocer rostros. 0:03:26.868,0:03:30.857 Sin embargo, si las series de prueba[br]no son realmente diversas, 0:03:30.881,0:03:34.230 todo rostro que se desvíe mucho[br]de la norma establecida 0:03:34.254,0:03:35.903 será más difícil de detectar, 0:03:35.927,0:03:37.890 que es lo que me sucedía a mí. 0:03:37.914,0:03:40.296 Pero no se preocupen,[br]tengo buenas noticias. 0:03:40.320,0:03:43.091 Las series de prueba[br]no se materializan de la nada. 0:03:43.115,0:03:44.903 En verdad las podemos crear. 0:03:44.927,0:03:49.103 Por ende, se pueden crear[br]series de prueba con espectros completos 0:03:49.127,0:03:52.951 que reflejen de manera más exhaustiva[br]un retrato de la humanidad. 0:03:52.975,0:03:55.196 Ya han visto en mis ejemplos 0:03:55.220,0:03:56.988 cómo con los robots sociales 0:03:57.012,0:04:01.623 me enteré de la exclusión[br]por el sesgo algorítmico. 0:04:01.647,0:04:06.462 Además, el sesgo algorítmico[br]puede generar prácticas discriminatorias. 0:04:07.437,0:04:08.890 En EE.UU. 0:04:08.914,0:04:13.112 los departamentos de policía incorporan[br]software de reconocimiento facial 0:04:13.136,0:04:15.595 en su arsenal[br]para la lucha contra el crimen. 0:04:15.619,0:04:17.632 Georgetown publicó un informe 0:04:17.656,0:04:24.419 que muestra que uno de cada dos adultos[br]en EE.UU., 117 millones de personas, 0:04:24.443,0:04:27.977 tiene sus rostros en redes[br]de reconocimiento facial. 0:04:28.001,0:04:32.553 Los departamentos de policía hoy[br]tienen acceso a esas redes no reguladas, 0:04:32.577,0:04:36.863 mediante algoritmos cuya exactitud[br]no ha sido testeada. 0:04:36.887,0:04:40.751 Sabemos que el reconocimiento facial[br]no es a prueba de fallas 0:04:40.775,0:04:44.954 y etiquetar rostros de forma consistente[br]aún es un desafío. 0:04:44.978,0:04:46.740 Tal vez lo han visto en Facebook. 0:04:46.764,0:04:49.752 Mis amigos y yo nos reímos,[br]cuando vemos a otros 0:04:49.776,0:04:52.234 mal etiquetados en nuestras fotos. 0:04:52.258,0:04:57.849 Pero identificar mal a un sospechoso[br]no es un tema para reírse, 0:04:57.873,0:05:00.700 tampoco lo es violar la libertad civil. 0:05:00.724,0:05:03.929 El aprendizaje automático se usa[br]para el reconocimiento facial, 0:05:03.953,0:05:08.458 pero también se está extendiendo[br]al campo de la visión por computadora. 0:05:09.266,0:05:13.282 En su libro, "Armas de[br]destrucción matemática", 0:05:13.306,0:05:19.987 la científica de datos Cathy O'Neil[br]habla sobre los nuevos WMDs, 0:05:20.011,0:05:24.364 algoritmos amplios,[br]misteriosos y destructivos 0:05:24.388,0:05:27.352 que se usan cada vez más[br]para tomar decisiones 0:05:27.376,0:05:30.553 que influyen sobre muchos aspectos[br]de nuestras vidas. 0:05:30.577,0:05:32.447 ¿A quién se contrata o se despide? 0:05:32.471,0:05:34.583 ¿Recibes el préstamo?[br]¿Y la cobertura de seguros? 0:05:34.607,0:05:38.110 ¿Eres aceptado en la universidad[br]a la que deseas entrar? 0:05:38.134,0:05:41.643 ¿Tú y yo pagamos el mismo precio[br]por el mismo producto 0:05:41.667,0:05:44.109 comprado en la misma plataforma? 0:05:44.133,0:05:47.892 La aplicación de la ley también empieza[br]a usar el aprendizaje de máquina 0:05:47.916,0:05:50.199 para la predicción de la policía. 0:05:50.199,0:05:54.123 Algunos jueces usan puntajes de riesgo[br]generados por máquinas para determinar 0:05:54.123,0:05:58.149 cuánto tiempo un individuo[br]permanecerá en prisión. 0:05:58.173,0:06:00.627 Así que hay que pensar[br]sobre estas decisiones. 0:06:00.651,0:06:01.833 ¿Son justas? 0:06:01.857,0:06:04.747 Y hemos visto que el sesgo algorítmico 0:06:04.771,0:06:08.145 no necesariamente lleva siempre[br]a resultados justos. 0:06:08.169,0:06:10.133 Entonces, ¿qué podemos hacer al respecto? 0:06:10.157,0:06:13.837 Bueno, podemos empezar a pensar en[br]cómo creamos un código más inclusivo 0:06:13.861,0:06:16.851 y emplear prácticas[br]de codificación inclusivas. 0:06:16.875,0:06:19.184 Realmente empieza con la gente. 0:06:19.708,0:06:21.669 Con los que codifican cosas. 0:06:21.693,0:06:25.656 ¿Estamos creando equipos de[br]amplio espectro con diversidad de personas 0:06:25.656,0:06:28.247 que pueden comprobar[br]los puntos ciegos de los demás? 0:06:28.271,0:06:31.816 Desde el punto de vista técnico,[br]importa cómo codificamos. 0:06:31.840,0:06:35.491 ¿Lo gestionamos con equidad[br]al desarrollar los sistemas? 0:06:35.515,0:06:38.428 Y finalmente, importa por qué[br]codificamos. 0:06:38.495,0:06:40.892 Hemos usado herramientas informáticas 0:06:40.892,0:06:43.892 para generar una riqueza inmensa. 0:06:43.892,0:06:48.339 Ahora tenemos la oportunidad de generar[br]una igualdad aún más grande 0:06:48.363,0:06:51.293 si hacemos del cambio social una prioridad 0:06:51.317,0:06:53.487 y no solo un pensamiento. 0:06:54.008,0:06:58.530 Estos son los tres principios que [br]constituirán el movimiento "codificador". 0:06:58.554,0:07:00.206 Quién codifica importa, 0:07:00.230,0:07:01.773 cómo codificamos importa, 0:07:01.797,0:07:03.820 y por qué codificamos importa. 0:07:03.844,0:07:06.943 Así que, para abordar la codificación,[br]podemos empezar a pensar 0:07:06.967,0:07:10.131 en construir plataformas[br]que puedan identificar sesgos 0:07:10.155,0:07:13.233 reuniendo experiencias de la gente[br]como las que compartí, 0:07:13.257,0:07:16.327 pero también auditando[br]el software existente. 0:07:16.351,0:07:20.116 También podemos crear[br]grupos de formación más inclusivos. 0:07:20.140,0:07:22.943 Imaginen una campaña de[br]"Selfies por la inclusión" 0:07:22.967,0:07:26.622 donde Uds. y yo podamos ayudar [br]a los desarrolladores a crear 0:07:26.646,0:07:28.739 grupos de formación más inclusivos. 0:07:29.302,0:07:32.130 Y también podemos empezar a pensar[br]más concienzudamente 0:07:32.154,0:07:37.545 sobre el impacto social de la tecnología[br]que estamos desarrollando. 0:07:37.569,0:07:39.962 Para iniciar el movimiento[br]de codificación, 0:07:39.986,0:07:42.833 creé la Liga de la Justicia algorítmica, 0:07:42.857,0:07:45.329 donde todo el que[br]se preocupa por la equidad 0:07:45.330,0:07:48.729 puede ayudar a combatir[br]la mirada codificada. 0:07:48.753,0:07:52.049 En codedgaze.com[br]pueden informar sesgos, 0:07:52.073,0:07:54.518 solicitar auditorías,[br]convertirse en un betatesters 0:07:54.542,0:07:57.313 y unirse a la conversación en curso, 0:07:57.337,0:07:59.624 #codedgaze. 0:08:00.742,0:08:03.229 Así que los invito a que se unan a mí 0:08:03.253,0:08:06.972 para crear un mundo donde la tecnología[br]trabaje para todos nosotros, 0:08:06.996,0:08:08.893 no solo para algunos de nosotros, 0:08:08.917,0:08:13.429 un mundo donde se valore la inclusión[br]y así centrar el cambio social. 0:08:13.429,0:08:14.719 Gracias. 0:08:14.719,0:08:18.508 (Aplausos) 0:08:20.936,0:08:23.447 Pero tengo una pregunta: 0:08:23.727,0:08:25.817 ¿Se unirán a mí en mi lucha? 0:08:25.817,0:08:27.031 (Risas) 0:08:27.031,0:08:29.470 (Aplausos)