WEBVTT 00:00:00.975 --> 00:00:02.571 Hay algoritmos por todos lados. 00:00:04.111 --> 00:00:07.236 Ordenan y separan a los ganadores de los perdedores. 00:00:08.019 --> 00:00:10.283 Los ganadores consiguen el trabajo 00:00:10.307 --> 00:00:12.050 o buenas condiciones de crédito. 00:00:12.074 --> 00:00:15.045 A los perdedores ni siquiera se les invita a una entrevista 00:00:15.590 --> 00:00:17.367 o tienen que pagar más por el seguro. 00:00:18.197 --> 00:00:21.746 Se nos califica mediante fórmulas secretas que no entendemos 00:00:22.675 --> 00:00:25.892 y a las que no se puede apelar. 00:00:27.240 --> 00:00:28.536 Eso plantea una pregunta: 00:00:28.560 --> 00:00:31.473 ¿Qué pasa si los algoritmos se equivocan? NOTE Paragraph 00:00:33.100 --> 00:00:35.140 Un algoritmo necesita dos cosas: 00:00:35.164 --> 00:00:37.145 datos ocurridos en el pasado 00:00:37.169 --> 00:00:38.730 y una definición del éxito; 00:00:38.754 --> 00:00:41.211 esto es, lo que uno quiere y lo que desea. 00:00:41.235 --> 00:00:46.272 Los algoritmos se entrenan mirando, descubriendo. 00:00:46.296 --> 00:00:49.715 El algoritmo calcula a qué se asocia el éxito, 00:00:49.739 --> 00:00:52.202 qué situaciones llevan al éxito. NOTE Paragraph 00:00:52.881 --> 00:00:54.643 En general todos usamos algoritmos 00:00:54.667 --> 00:00:57.385 pero no los formalizamos mediante un código escrito. 00:00:57.409 --> 00:00:58.757 Les doy un ejemplo. 00:00:58.781 --> 00:01:02.097 Yo uso un algoritmo todos los días para preparar la comida en casa. 00:01:02.121 --> 00:01:03.597 Los datos que uso 00:01:04.394 --> 00:01:06.053 son los ingredientes de la cocina, 00:01:06.077 --> 00:01:07.604 el tiempo que tengo 00:01:07.628 --> 00:01:08.861 y lo ambiciosa que estoy. 00:01:08.885 --> 00:01:10.594 Y así organizo los datos. 00:01:10.618 --> 00:01:14.869 No incluyo esos paquetitos de fideos como comida. NOTE Paragraph 00:01:14.893 --> 00:01:16.762 (Risas) NOTE Paragraph 00:01:16.786 --> 00:01:18.631 Mi definición del éxito es: 00:01:18.655 --> 00:01:21.314 la comida tiene éxito, si mis hijos comen verdura. 00:01:22.181 --> 00:01:25.035 Lo que sería muy distinto, si mi hijito tuviera el control. 00:01:25.059 --> 00:01:27.847 Para él el éxito es comer mucha Nutella. 00:01:29.179 --> 00:01:31.405 Pero yo soy quien elige el éxito. 00:01:31.429 --> 00:01:34.136 Estoy al mando. Mi opinión cuenta. 00:01:34.160 --> 00:01:36.835 Esa es la primera regla de los algoritmos. NOTE Paragraph 00:01:36.859 --> 00:01:40.039 Los algoritmos son opiniones que se embeben en código. 00:01:41.562 --> 00:01:45.225 Es muy diferente a cómo la gente se imagina los algoritmos. 00:01:45.249 --> 00:01:49.753 Se creen que los algoritmos son objetivos, verdaderos y científicos. 00:01:50.387 --> 00:01:52.086 Ese en un truco del marketing. 00:01:53.269 --> 00:01:55.394 Tambien es un truco del marketing 00:01:55.418 --> 00:01:58.572 la intimidación con algoritmos, 00:01:58.596 --> 00:02:02.257 que nos hacer confiar y temer los algoritmos 00:02:02.281 --> 00:02:04.739 porque confiamos y tememos las matemáticas. 00:02:05.567 --> 00:02:10.397 Muchas cosas pueden salir mal si confiamos a ciegas en datos masivos. NOTE Paragraph 00:02:11.684 --> 00:02:15.057 Esta es Kiri Soares. Es la directora de una escuela de Brooklyn. 00:02:15.081 --> 00:02:17.551 En 2011 me contó que sus maestros se clasificaban 00:02:17.551 --> 00:02:20.392 mediante un algoritmo complejo y secreto 00:02:20.392 --> 00:02:22.161 llamado "modelo del valor añadido". 00:02:22.505 --> 00:02:25.597 Le dije, "Intente saber cuál es la fórmula, muéstremela. 00:02:25.621 --> 00:02:27.162 Se la voy a explicar". 00:02:27.186 --> 00:02:29.327 Me respondió, "Trate de conseguir la fórmula, 00:02:29.351 --> 00:02:32.123 pero un conocido del Departamento de Educación me dijo 00:02:32.147 --> 00:02:34.253 que era matemática y que no la entendería". NOTE Paragraph 00:02:35.266 --> 00:02:36.604 Esto se pone peor. 00:02:36.628 --> 00:02:40.158 El New York Post la solicitó bajo la Ley de Libertad a la Información. 00:02:40.182 --> 00:02:43.141 Obtuvo los nombres de los maestros y su puntuación 00:02:43.165 --> 00:02:45.947 y los publicó como un acto para avergonzar a los maestros. 00:02:47.084 --> 00:02:50.944 Cuando intenté conseguir las fórmulas en código base, usando el mismo mecanismo, 00:02:50.968 --> 00:02:53.117 me dijeron que no se podía. 00:02:53.141 --> 00:02:54.377 Me lo negaron. 00:02:54.401 --> 00:02:55.575 Más tarde descubrí 00:02:55.599 --> 00:02:58.465 que nadie tenía derecho a la fórmula en Nueva York. 00:02:58.489 --> 00:02:59.794 Nadie lo podía entender. 00:03:01.929 --> 00:03:05.153 Entonces apareció un tipo muy inteligente, Gary Rubenstein. 00:03:05.177 --> 00:03:08.798 Localizó a 665 maestros por los datos del New York Post 00:03:08.822 --> 00:03:10.688 que tenían dos puntuaciones. 00:03:10.712 --> 00:03:12.593 Eso podía ocurrir si enseñaban 00:03:12.617 --> 00:03:15.056 matemática en 7º y 8º grado. 00:03:15.080 --> 00:03:16.618 Decidió hacer un gráfico. 00:03:16.642 --> 00:03:18.815 Donde cada punto representa a un maestro. NOTE Paragraph 00:03:19.104 --> 00:03:21.483 (Risas) NOTE Paragraph 00:03:21.507 --> 00:03:23.028 Y eso ¿qué es? NOTE Paragraph 00:03:23.052 --> 00:03:24.329 (Risas) NOTE Paragraph 00:03:24.353 --> 00:03:27.799 Eso no debiera haberse usado nunca para evaluar a una persona. 00:03:27.823 --> 00:03:29.749 Es casi un generador de números al azar. NOTE Paragraph 00:03:29.773 --> 00:03:32.719 (Aplausos) NOTE Paragraph 00:03:32.743 --> 00:03:33.905 Pero lo fue. 00:03:33.929 --> 00:03:35.105 Esta es Sarah Wysocki. 00:03:35.129 --> 00:03:37.304 La echaron junto a otros 205 maestros 00:03:37.328 --> 00:03:39.990 de una escuela en Washington DC, 00:03:40.014 --> 00:03:42.923 a pesar de tener muy buena recomendación de la directora 00:03:42.947 --> 00:03:44.785 y de los padres de sus alumnos. NOTE Paragraph 00:03:45.020 --> 00:03:47.122 Me imagino lo que estarán pensando, 00:03:47.122 --> 00:03:49.933 especialmente los cientificos de datos, los expertos en IA 00:03:49.957 --> 00:03:54.183 Pensarán "Nosotros nunca produciríamos un algoritmo tan inconsistente." 00:03:54.853 --> 00:03:56.536 Pero los algoritmos a veces fallan, 00:03:56.560 --> 00:04:01.158 y tambien provocar mucha destrucción sin querer. 00:04:02.531 --> 00:04:04.910 Y mientras un avión mal diseñado 00:04:04.934 --> 00:04:06.935 se estrella y todos lo ven, 00:04:06.959 --> 00:04:08.809 un algoritmo mal diseñado 00:04:10.245 --> 00:04:14.110 puede funcionar mucho tiempo provocando un desastre silenciosamente. NOTE Paragraph 00:04:15.748 --> 00:04:17.318 Este es Roger Ailes. NOTE Paragraph 00:04:17.342 --> 00:04:19.342 (Risas) NOTE Paragraph 00:04:20.524 --> 00:04:22.912 Fundador de Fox News en el 1996. 00:04:23.436 --> 00:04:26.017 Mas de 20 mujeres se quejaron de acoso sexual. 00:04:26.041 --> 00:04:29.276 Dijeron que no pudieron tener éxito en Fox News. 00:04:29.300 --> 00:04:32.030 Lo echaron el año pasado, pero hemos visto que hace poco 00:04:32.030 --> 00:04:34.514 los problemas han continuado. 00:04:35.654 --> 00:04:37.054 Esto plantea una pregunta: 00:04:37.078 --> 00:04:39.962 ¿Qué debe hacer Fox News para cambiar? NOTE Paragraph 00:04:41.245 --> 00:04:43.520 Y si substituyeran su mecanismo de contratación 00:04:43.520 --> 00:04:45.964 con un algoritmo de auto- aprendizaje automatizado? 00:04:45.988 --> 00:04:47.583 ¿Suena bien? 00:04:47.607 --> 00:04:48.907 Piénsenlo, 00:04:48.931 --> 00:04:51.036 Los datos, ¿qué datos serían? 00:04:51.060 --> 00:04:56.007 Una eleccion razonable serian las últimas 21 solicitudes recibidas por Fox News 00:04:56.031 --> 00:04:57.533 Razonable. 00:04:57.557 --> 00:04:59.495 Y ¿cuál sería la definición del éxito? 00:04:59.921 --> 00:05:01.109 Algo razonable sería 00:05:01.109 --> 00:05:03.047 preguntar, quién es exitoso en Fox News. 00:05:03.071 --> 00:05:06.651 Me imagino que alguien que hubiera estado alli unos 4 años 00:05:06.675 --> 00:05:08.679 y subido de puesto por lo menosuna vez. 00:05:08.816 --> 00:05:10.377 ¿Suena razonable? 00:05:10.401 --> 00:05:12.755 Y así se adiestraría el algoritmo. 00:05:12.779 --> 00:05:16.656 Se adiestraría para buscar a gente que logra el éxito. 00:05:17.219 --> 00:05:21.537 Y qué solicitudes antiguas llegaron al éxito 00:05:21.561 --> 00:05:22.855 según esa definición. 00:05:24.200 --> 00:05:25.975 Ahora piensen que ocurriría 00:05:25.999 --> 00:05:28.554 si lo usáramos con los candidatos de hoy. 00:05:29.119 --> 00:05:30.748 Filtraría a las mujeres 00:05:31.663 --> 00:05:35.593 ya que no parecen ser personas que hayan tenido éxito en el pasado. NOTE Paragraph 00:05:39.752 --> 00:05:42.289 Los algoritmos no son justos 00:05:42.313 --> 00:05:45.007 si uno usa algoritmos a ciegas. 00:05:45.031 --> 00:05:46.513 No son justos. 00:05:46.537 --> 00:05:48.665 Repiten prácticas anteriores, 00:05:48.689 --> 00:05:49.872 nuestros patrones. 00:05:49.896 --> 00:05:51.835 Automatizan al status quo. 00:05:52.718 --> 00:05:55.107 Sería genial en un mundo perfecto, 00:05:55.905 --> 00:05:57.217 pero no lo tenemos. 00:05:57.241 --> 00:06:01.343 Y aclaro que la mayoria de las empresas no estan involucradas en litigios, 00:06:02.446 --> 00:06:05.034 pero los cientificos de datos de esas empresas 00:06:05.058 --> 00:06:07.247 emplean esos datos 00:06:07.271 --> 00:06:09.414 para lograr la precisión. 00:06:10.273 --> 00:06:11.654 Piensen qué significa esto. 00:06:11.678 --> 00:06:15.705 Porque todos tenemos prejuicios, y así podríamos codificar sexismo 00:06:15.729 --> 00:06:17.565 u otro tipo de fanatismo. NOTE Paragraph 00:06:19.488 --> 00:06:21.129 Un experimento de pensamiento, 00:06:21.129 --> 00:06:22.442 porque me gusta, 00:06:23.574 --> 00:06:26.549 una sociedad totalmente segregada. 00:06:28.247 --> 00:06:31.575 segregada racialmente, todas las ciudades y los barrios 00:06:31.599 --> 00:06:34.636 y donde enviamos a la policia solo a barrios minoritarios 00:06:34.660 --> 00:06:35.853 para detectar delitos. 00:06:36.451 --> 00:06:38.670 Los arrestos serían sesgados. 00:06:39.851 --> 00:06:42.426 Y, además, elegimos a los cientificos de datos 00:06:42.450 --> 00:06:46.611 y pagamos por los datos para predecir dónde ocurrirán los próximos delitos. 00:06:47.275 --> 00:06:48.762 El barrio de una minoría. 00:06:49.285 --> 00:06:52.410 O a predecir quien será el próximo criminal. 00:06:52.888 --> 00:06:54.283 Una minoría. 00:06:55.949 --> 00:06:59.490 Los cientificos de datos se jactarían de su grandeza y de la precisión 00:06:59.514 --> 00:07:00.811 de su modelo, 00:07:00.835 --> 00:07:02.134 y tendrían razón. NOTE Paragraph 00:07:03.951 --> 00:07:08.566 La realidad no es tan drástica, pero tenemos grandes segregaciones 00:07:08.590 --> 00:07:09.877 en muchas ciudades 00:07:09.901 --> 00:07:11.794 y tenemos muchas pruebas 00:07:11.818 --> 00:07:14.506 de datos políticos y legislativos sesgados. 00:07:15.632 --> 00:07:18.447 Y podemos predecir puntos calientes, 00:07:18.471 --> 00:07:20.331 lugares donde podrá ocurrir un delito 00:07:20.401 --> 00:07:24.267 Y así predecir un crimen individual 00:07:24.291 --> 00:07:26.061 y la criminalidad de los individuos. 00:07:26.972 --> 00:07:30.935 El organismo de noticias ProPublica lo estudió hace poco. 00:07:30.959 --> 00:07:32.983 un algoritmo de "riesgo recidivista" 00:07:33.007 --> 00:07:34.170 según los llaman 00:07:34.194 --> 00:07:37.388 usado en Florida al hacer sentencias judiciales. 00:07:38.411 --> 00:07:41.996 Bernardo, a la izquierda, un hombre negro sacó una puntuación de 10 de 10. 00:07:43.179 --> 00:07:45.186 Dylan, a la derecha, 3 de 10. 00:07:45.210 --> 00:07:47.711 10 de 10, alto riesgo 3 de 10, bajo riesgo. 00:07:48.598 --> 00:07:50.983 Los sentenciaron por tener drogas. 00:07:51.007 --> 00:07:52.551 Ambos con antecedentes penales 00:07:52.551 --> 00:07:54.991 pero Dylan habia cometido un delito 00:07:55.015 --> 00:07:56.191 Bernard, no. 00:07:57.818 --> 00:08:00.884 Esto importa porque a mayor puntuación 00:08:00.908 --> 00:08:04.381 mayor probabilidad de una sentencia más larga. NOTE Paragraph 00:08:06.294 --> 00:08:07.588 ¿Que sucede? 00:08:08.526 --> 00:08:09.858 Lavado de datos. 00:08:10.930 --> 00:08:15.357 El proceso que se usa para ocultar verdades feas 00:08:15.381 --> 00:08:17.202 dentro de una caja negra de algoritmos 00:08:17.226 --> 00:08:18.516 y llamarlos objetivos; 00:08:19.320 --> 00:08:20.888 llamándolos meritocráticos 00:08:23.118 --> 00:08:25.503 cuando son secretos, importantes y destructivos 00:08:25.527 --> 00:08:28.014 Les puse un nombre a estos algoritmos: 00:08:28.038 --> 00:08:30.037 "armas matemáticas de destrucción" NOTE Paragraph 00:08:30.061 --> 00:08:31.625 (Risas) NOTE Paragraph 00:08:31.649 --> 00:08:34.703 (Aplausos) NOTE Paragraph 00:08:34.727 --> 00:08:37.081 Estan en todos sitios 00:08:37.695 --> 00:08:41.418 Son empresas privadas que construyen algoritmos privados 00:08:41.442 --> 00:08:42.834 para fines privados. 00:08:43.214 --> 00:08:46.428 Incluso los mencionados de los maestros y la policía pública 00:08:46.452 --> 00:08:48.321 fueron diseñados por empresas privadas 00:08:48.345 --> 00:08:50.576 y vendidos a instituciones gubernamentales. 00:08:50.600 --> 00:08:52.473 Lo llaman su "salsa secreta" 00:08:52.497 --> 00:08:54.625 por eso no nos pueden hablar de ello. 00:08:54.649 --> 00:08:56.869 Es un poder privado 00:08:57.924 --> 00:09:02.619 que saca provecho por su autoridad inescrutable. 00:09:05.114 --> 00:09:08.048 Entonces uno ha de pensar, ya que todo esto es privado 00:09:08.072 --> 00:09:09.230 y hay competición, 00:09:09.254 --> 00:09:11.560 tal vez un mercado libre podrá solucionarlo 00:09:11.584 --> 00:09:12.833 Pero no. 00:09:12.857 --> 00:09:15.977 Se puede ganar mucho dinero con la injusticia. NOTE Paragraph 00:09:17.127 --> 00:09:20.496 Tampoco somos agentes económicos racionales. 00:09:21.031 --> 00:09:22.323 Todos tenemos prejuicios 00:09:22.960 --> 00:09:26.337 Somos racistas y fanáticos de una forma que no quisiéramos, 00:09:26.361 --> 00:09:28.380 de maneras que desconocemos. 00:09:29.352 --> 00:09:32.433 Lo sabemos al sumarlo 00:09:32.457 --> 00:09:35.677 porque los sociólogos lo han demostrado consistentemente 00:09:35.701 --> 00:09:37.270 con experimentos que construyeron 00:09:37.270 --> 00:09:39.682 donde mandan una cantidad de solicitudes de empleo 00:09:39.682 --> 00:09:43.123 de personas de calificaciones iguales pero algunas con apellidos blancos 00:09:43.123 --> 00:09:44.543 y otras con apellidos negros, 00:09:44.543 --> 00:09:46.931 y los resultados siempre los decepcionan, siempre. NOTE Paragraph 00:09:47.510 --> 00:09:49.281 Nosotros somos los prejuiciosos 00:09:49.305 --> 00:09:52.734 que inyectamos prejuicios a nuestros algoritmos 00:09:52.758 --> 00:09:54.570 al elegir qué datos recoger, 00:09:54.594 --> 00:09:57.337 así como yo elegí no pensar en los fideos-- 00:09:57.361 --> 00:09:58.986 Y decidi que no era importante. 00:09:59.010 --> 00:10:04.694 Pero tenerle confianza a los datos basados en prácticas pasadas 00:10:04.718 --> 00:10:06.732 y eligiendo la definición del éxito, 00:10:06.756 --> 00:10:10.739 ¿cómo pretendemos que los algoritmos emerjan intactos? 00:10:10.763 --> 00:10:13.119 No podemos. Tenemos que verificarlos. 00:10:14.165 --> 00:10:15.874 Hay que revisarlos por equidad. NOTE Paragraph 00:10:15.898 --> 00:10:18.609 Y las buenas noticias son 00:10:18.633 --> 00:10:21.985 que los algoritmos pueden ser interrogados, 00:10:22.009 --> 00:10:24.043 y nos dirán la verdad todas las veces. 00:10:24.067 --> 00:10:26.560 Y los podemos arreglar. Y mejorarlos. 00:10:26.584 --> 00:10:28.959 Lo explico. Esto se llama revisión del algoritmo, 00:10:28.983 --> 00:10:30.662 lo explico. NOTE Paragraph 00:10:30.686 --> 00:10:32.882 Primero, verificación de integridad de datos. 00:10:34.132 --> 00:10:36.789 por el riesgo recidivista. 00:10:37.582 --> 00:10:41.155 La verificación de la integridad de datos implicaría una conciliación 00:10:41.179 --> 00:10:44.705 que en EE. UU. los blancos y los negros fuman marihuana 00:10:44.729 --> 00:10:47.214 pero a los negros es mas fácil que los arresten 00:10:47.238 --> 00:10:50.422 más probablemente cuatro o cinco veces más dependiendo de la zona. 00:10:51.317 --> 00:10:54.143 Y ¿cómo son los prejuicios en otras categorías criminales, 00:10:54.167 --> 00:10:55.618 y cómo lo justificamos? NOTE Paragraph 00:10:56.162 --> 00:10:59.201 Segundo, debemos pensar en la definición del éxito, 00:10:59.225 --> 00:11:00.606 revisarla. 00:11:00.630 --> 00:11:03.382 ¿Recuerdan el algoritmo de la contratación? 00:11:03.406 --> 00:11:06.571 alguien que se queda cuatro años y asciende de cargo una vez? 00:11:06.595 --> 00:11:08.364 Ese es el empleado exitoso, 00:11:08.388 --> 00:11:11.467 pero tambien es el empleado apoyado por la cultura. 00:11:12.089 --> 00:11:14.015 Esto puede ser bastante injusto. 00:11:14.039 --> 00:11:16.104 Tenemos que separar dos cosas. 00:11:16.128 --> 00:11:18.554 Mirar a la audicion de una orquesta de ciegos 00:11:18.578 --> 00:11:19.774 por ejemplo. 00:11:19.798 --> 00:11:22.554 Los que dan la audición están detrás de la partitura. 00:11:22.946 --> 00:11:24.877 Lo que quiero que piensen 00:11:24.901 --> 00:11:28.318 es que la gente que escucha decide lo que es importante 00:11:28.342 --> 00:11:30.371 y lo que no lo es, 00:11:30.395 --> 00:11:32.454 sin que eso nos distraiga. 00:11:32.961 --> 00:11:35.710 Cuando empezaron las audiciones de orquesta de ciegos 00:11:35.734 --> 00:11:39.178 la cantidad de mujeres aumentó un factor de cinco veces. NOTE Paragraph 00:11:40.253 --> 00:11:42.268 Tambien hay que pensar en la precisión 00:11:43.233 --> 00:11:46.967 y así el modelo del valor añadido fallaría. 00:11:47.578 --> 00:11:49.740 Por supuesto ningún algoritmo es perfecto, 00:11:50.620 --> 00:11:54.225 asi que hay que considerar los errores de cada algoritmo. 00:11:54.836 --> 00:11:59.195 ¿Qué frecuencia tienen los errores y con quiénes falla? 00:11:59.850 --> 00:12:01.568 Y ¿cuál es el costo de dicha falla? NOTE Paragraph 00:12:02.434 --> 00:12:04.641 Y por último, tenemos que considerar 00:12:05.973 --> 00:12:08.159 los efectos a largo plazo de los algoritmos, 00:12:08.866 --> 00:12:11.073 los bucles de retroalimentación que engendran. 00:12:11.586 --> 00:12:12.822 Eso suena a abstracto. 00:12:12.846 --> 00:12:16.270 Pero imagínese si los ingenieros de Facebook lo hubieran considerado 00:12:16.270 --> 00:12:21.125 antes de mostrarnos cosas publicadas por nuestros amigos. NOTE Paragraph 00:12:21.761 --> 00:12:24.995 Tengo dos mensajes, uno para los científicos de datos. 00:12:25.450 --> 00:12:28.859 Cientificos de datos: no debemos ser los árbitros de la verdad. 00:12:29.520 --> 00:12:33.303 Debemos ser tradutores de las discusiones éticas que ocurren 00:12:33.327 --> 00:12:34.621 en toda la sociedad. NOTE Paragraph 00:12:35.579 --> 00:12:37.712 (Aplausos) NOTE Paragraph 00:12:37.736 --> 00:12:39.292 Y para el resto de Uds. 00:12:40.011 --> 00:12:41.747 los que no son científicos de datos: 00:12:41.747 --> 00:12:43.609 esta no es un examen de matemáticas. 00:12:43.632 --> 00:12:44.980 Es una lucha politica. 00:12:46.587 --> 00:12:50.494 Tenemos que exigir responsabilidad a los lores de los algoritmos. NOTE Paragraph 00:12:52.118 --> 00:12:53.617 (Aplausos) NOTE Paragraph 00:12:53.641 --> 00:12:57.866 La era de la fe ciega en los datos masivos debe terminar. NOTE Paragraph 00:12:57.890 --> 00:12:59.057 Muchas gracias. NOTE Paragraph 00:12:59.081 --> 00:13:05.601 (Aplauso)