WEBVTT 00:00:00.760 --> 00:00:04.390 Cando era un neno, era o típico friqui. 00:00:05.320 --> 00:00:07.496 Creo que algúns de vostedes tamén. 00:00:07.628 --> 00:00:08.628 (risos) NOTE Paragraph 00:00:08.760 --> 00:00:11.976 E vostede, señor, o que ri máis alto, pode que aínda o sexa. 00:00:12.628 --> 00:00:13.628 (risos) NOTE Paragraph 00:00:14.280 --> 00:00:17.776 Medrei nunha cidade pequena nas poirentas chairas do norte de Texas, 00:00:17.800 --> 00:00:21.136 son fillo dun sheriff que era fillo dun pastor. 00:00:21.160 --> 00:00:23.080 así que mellor non meterme en problemas. 00:00:24.040 --> 00:00:27.153 Por tanto comecei a ler libros de cálculo por divertimento. 00:00:27.588 --> 00:00:28.588 (risos) NOTE Paragraph 00:00:28.880 --> 00:00:30.250 Vostede tamén. 00:00:30.600 --> 00:00:34.336 Iso levoume a construir un láser, un computador, cohetes, 00:00:34.360 --> 00:00:37.360 e a facer combustible para foguetes no meu cuarto. 00:00:37.960 --> 00:00:41.616 Agora, en termos científicos, 00:00:41.640 --> 00:00:44.896 a iso chámamoslle: unha moi mala idea. 00:00:45.028 --> 00:00:46.028 (risos) NOTE Paragraph 00:00:46.160 --> 00:00:48.336 Ao mesmo tempo, estreábase 00:00:48.360 --> 00:00:51.576 2001, unha odisea no espazo de Stanley Kubrick, 00:00:51.600 --> 00:00:53.800 e a miña vida cambiaba para sempre. 00:00:54.280 --> 00:00:56.336 Encantoume todo desa película, 00:00:56.360 --> 00:00:58.896 sobre todo HAL 9000. 00:00:58.920 --> 00:01:00.976 HAL era un computador consciente 00:01:01.000 --> 00:01:03.456 deseñado para guiar o Discovery 00:01:03.480 --> 00:01:06.016 da Terra a Xúpiter. 00:01:06.040 --> 00:01:08.096 HAL era ademais un personaxe con defectos, 00:01:08.120 --> 00:01:12.400 xa que ao final lle deu máis importancia á misión ca á vida humana. 00:01:12.840 --> 00:01:14.936 Agora, HAL pertence á ficción 00:01:14.960 --> 00:01:17.616 pero aínda así fala dos nosos medos 00:01:17.640 --> 00:01:19.736 a sermos dominados 00:01:19.760 --> 00:01:22.776 por unha intelixencia artificial (IA) sen sentimentos 00:01:22.800 --> 00:01:24.760 que é indiferente á nosa humanidade. NOTE Paragraph 00:01:25.880 --> 00:01:28.456 Creo que eses medos non teñen fundamento. 00:01:28.480 --> 00:01:31.176 De feito, estamos nunha importante época 00:01:31.200 --> 00:01:32.736 para a historia humana 00:01:32.760 --> 00:01:37.736 na que, por negarnos a aceptar os límites dos nosos corpos e mentes, 00:01:37.760 --> 00:01:39.456 estamos construíndo máquinas 00:01:39.480 --> 00:01:43.096 de exquisita beleza, complexidade e graza 00:01:43.120 --> 00:01:45.176 que ampliarán a experiencia humana 00:01:45.200 --> 00:01:46.880 de formas que nin imaxinamos. NOTE Paragraph 00:01:47.720 --> 00:01:50.296 Despois de pasar da Academia da Forza Aérea 00:01:50.320 --> 00:01:52.256 ao Mando Espacial da Forza Aérea, 00:01:52.280 --> 00:01:53.976 pasei a enxeñeiro de sistemas 00:01:54.000 --> 00:01:56.736 e hai pouco metéronme nun problema de enxeñaría 00:01:56.760 --> 00:01:59.336 relacionado coa misión da NASA a Marte. 00:01:59.360 --> 00:02:01.856 Agora, nos voos espaciais á Lúa, 00:02:01.880 --> 00:02:05.016 dependemos do control de Houston para vixiar 00:02:05.040 --> 00:02:07.016 todos os aspectos do voo. 00:02:07.040 --> 00:02:10.576 Porén Marte está 200 veces máis lonxe 00:02:10.576 --> 00:02:13.792 e por tanto un sinal tarda arredor de 13 minutos 00:02:13.840 --> 00:02:16.976 en viaxar dende a Terra ata alí. 00:02:17.000 --> 00:02:20.400 Se hai algún problema, é demasiado tempo. 00:02:20.840 --> 00:02:23.336 Unha solución razoable 00:02:23.360 --> 00:02:25.936 pasa por incluír o control da misión 00:02:25.960 --> 00:02:28.976 dentro das paredes da nave espacial Orión. 00:02:29.000 --> 00:02:31.896 Outra idea fascinante do perfil da misión 00:02:31.920 --> 00:02:34.816 sitúa a robots humanoides na superficie de Marte 00:02:34.840 --> 00:02:36.590 antes ca os propios humanos, 00:02:36.590 --> 00:02:38.566 primeiro para construír infraestruturas 00:02:38.566 --> 00:02:41.760 e despois para serviren como colaboradores do equipo científico. NOTE Paragraph 00:02:43.400 --> 00:02:46.136 Desde a perspectiva da enxeñaría, 00:02:46.160 --> 00:02:49.336 quedoume moi claro que o que necesitaba deseñar 00:02:49.360 --> 00:02:51.536 era unha intelixencia artificial 00:02:51.560 --> 00:02:53.936 esperta, colaborativa e socialmente intelixente. 00:02:53.960 --> 00:02:58.256 É dicir, precisaba construír algo moi parecido a HAL 00:02:58.280 --> 00:03:00.696 pero sen as súas tendencias homicidas. 00:03:01.308 --> 00:03:02.308 (risos) NOTE Paragraph 00:03:02.920 --> 00:03:04.506 Deteñámonos un momento. 00:03:04.760 --> 00:03:08.656 É posible construírmos unha intelixencia artificial coma esa? 00:03:08.680 --> 00:03:10.136 Pois, si. 00:03:10.160 --> 00:03:11.416 Por moitas razóns, 00:03:11.440 --> 00:03:13.416 este é un difícil problema de enxeñaría 00:03:13.440 --> 00:03:14.896 cos elementos da lA, 00:03:14.920 --> 00:03:19.616 non só unhas pedriñas no camiño que deben ser tratadas pola enxeñaría. 00:03:19.640 --> 00:03:22.296 Parafraseando a Alan Turing, 00:03:22.320 --> 00:03:24.696 Non quero construír unha máquina con sentimentos. 00:03:24.720 --> 00:03:26.296 Non constrúo un HAL. 00:03:26.320 --> 00:03:28.736 Só busco un cerebro simple, 00:03:28.760 --> 00:03:31.880 algo que ofrece a ilusión da intelixencia. NOTE Paragraph 00:03:33.000 --> 00:03:36.136 A arte e a ciencia informática percorreron un longo camiño 00:03:36.160 --> 00:03:37.656 dende que vimos a HAL, 00:03:37.680 --> 00:03:40.896 e creo que se o Dr. Chandra, o seu inventor, estivese aquí hoxe, 00:03:40.920 --> 00:03:43.256 tería moitas preguntas que facernos. 00:03:43.280 --> 00:03:45.376 Énos posible coller un sistema 00:03:45.400 --> 00:03:49.416 de millóns e millóns de dispositivos, 00:03:49.440 --> 00:03:50.896 medir os seus datos, 00:03:50.920 --> 00:03:53.176 predicir os seus fallos e anticiparnos? 00:03:53.200 --> 00:03:54.416 É. 00:03:54.440 --> 00:03:57.616 Podemos crear sistemas que falen nunha linguaxe natural? 00:03:57.640 --> 00:03:58.776 Podemos. 00:03:58.830 --> 00:04:01.856 Podemos crear sistemas que recoñezan obxectos, 00:04:01.880 --> 00:04:05.256 identifiquen e expresen emocións, xoguen, lean os beizos? 00:04:05.280 --> 00:04:06.496 Podemos. 00:04:06.520 --> 00:04:08.656 Podemos crear un sistema que fixe metas, 00:04:08.680 --> 00:04:12.296 cree plans para acadalas e de paso aprenda? 00:04:12.320 --> 00:04:13.536 Podemos. 00:04:13.560 --> 00:04:16.496 Podemos construír sistemas que teñan unha teoría da mente? 00:04:16.800 --> 00:04:18.726 Isto é o que estamos a aprender a facer. 00:04:18.730 --> 00:04:21.920 Podemos construír un sistema que teña principios éticos e morais? 00:04:22.480 --> 00:04:24.520 Isto é o que debemos aprender. 00:04:25.360 --> 00:04:26.736 Aceptemos por un momento 00:04:26.760 --> 00:04:29.656 que podemos construír esta intelixencia artificial 00:04:29.680 --> 00:04:31.816 para este e outro tipo de misións. NOTE Paragraph 00:04:31.840 --> 00:04:34.376 A seguinte pregunta que se deben facer é: 00:04:34.400 --> 00:04:35.856 deberiamos de lle ter medo? 00:04:35.880 --> 00:04:37.856 Todas as novas tecnoloxías 00:04:37.880 --> 00:04:40.776 traen consigo certo grao de inquietude. 00:04:40.800 --> 00:04:42.746 A primeira vez que a xente viu un coche, 00:04:42.746 --> 00:04:46.536 queixábase de que ía destruír as familias. 00:04:46.560 --> 00:04:49.256 Cando vimos por primeira vez os teléfonos, 00:04:49.280 --> 00:04:52.176 preocupábanos que acabasen coas conversas civilizadas. 00:04:52.200 --> 00:04:56.136 Nalgún momento cremos que a escritura se volvería ubicua, 00:04:56.160 --> 00:04:58.656 que se perdería a capacidade de memorizar. 00:04:58.680 --> 00:05:00.736 Todo isto é verdade ata certo punto, 00:05:00.760 --> 00:05:03.176 pero tamén o é que estas tecnoloxías 00:05:03.200 --> 00:05:06.576 nos brindaron avances que ampliaron a experiencia humana 00:05:06.600 --> 00:05:08.480 de formas moi profundas. NOTE Paragraph 00:05:09.840 --> 00:05:12.120 Así que sigamos un pouco máis. 00:05:13.120 --> 00:05:17.856 Non me dá medo a creación dunha IA coma esta, 00:05:17.880 --> 00:05:21.696 xa que, co tempo, encarnará algúns dos nosos valores. 00:05:21.720 --> 00:05:25.216 Tendo isto en conta: construír un sistema cognitivo é distinto 00:05:25.240 --> 00:05:28.536 a crear un anticuado sistema baseado en software intensivo. 00:05:28.560 --> 00:05:31.016 Non os programamos, aprendémoslles. 00:05:31.040 --> 00:05:33.696 Para lles aprendermos a como recoñeceren as flores, 00:05:33.720 --> 00:05:36.736 amosaríalles moitas flores das miñas variedades preferidas. 00:05:36.760 --> 00:05:39.016 Para aprenderlles como xogar a un xogo... 00:05:39.040 --> 00:05:41.000 Eu faríao, e vós tamén. 00:05:42.600 --> 00:05:44.640 De verdade que me gustan as flores. 00:05:45.440 --> 00:05:48.296 Para ensinarlle a un sistema a xogar a un xogo coma Go 00:05:48.320 --> 00:05:50.376 faríao xogar milleiros de partidas. 00:05:50.400 --> 00:05:52.056 E no proceso aprenderíalle 00:05:52.080 --> 00:05:54.496 a distinguir unha boa partida dunha mala. 00:05:54.520 --> 00:05:58.216 Se quixese crear unha IA coa función de asistente legal 00:05:58.240 --> 00:06:00.016 aprenderíalle un corpus legal 00:06:00.040 --> 00:06:02.896 ao mesmo tempo que lle introduciría 00:06:02.920 --> 00:06:05.800 o sentido da misericordia e xustiza que é parte da lei. 00:06:06.560 --> 00:06:09.536 En termos científicos chámaselles verdades fundamentais 00:06:09.560 --> 00:06:11.576 e o máis importante: 00:06:11.600 --> 00:06:13.056 ao producirmos estas máquinas 00:06:13.080 --> 00:06:16.496 estámoslles inculcando os nosos valores. 00:06:16.520 --> 00:06:19.656 Chegados a este punto, confío nunha IA 00:06:19.680 --> 00:06:23.320 tanto, se non máis, ca nun humano ben adestrado. NOTE Paragraph 00:06:24.080 --> 00:06:25.296 Preguntarédesvos 00:06:25.320 --> 00:06:27.936 que pasa cos axentes corruptos, 00:06:27.960 --> 00:06:31.296 con algunhas ONG ben financiadas? 00:06:31.320 --> 00:06:35.136 Unha IA en mans dun lobo solitario non me pon medo. 00:06:35.160 --> 00:06:39.696 Non nos podemos autoprotexer de todo acto aleatorio de violencia 00:06:39.720 --> 00:06:41.856 pero a realidade é que tal sistema 00:06:41.880 --> 00:06:44.976 precisa dun adestramento substancial e sutil 00:06:45.000 --> 00:06:47.406 moi por riba das capacidades dun único individuo. 00:06:47.406 --> 00:06:48.700 E ademais é máis complicado 00:06:48.700 --> 00:06:51.816 ca inxectarmos un virus informático en todo o mundo. 00:06:51.840 --> 00:06:54.936 Premendo un botón o virus chega a milleiros de lugares 00:06:54.960 --> 00:06:57.416 e os portátiles empezan a estoupar. 00:06:57.440 --> 00:07:00.256 Agora, este tipo de contidos son moito máis grandes 00:07:00.280 --> 00:07:01.995 e vémolos vir. NOTE Paragraph 00:07:02.520 --> 00:07:05.576 Teño medo a que unha IA deste tipo 00:07:05.600 --> 00:07:07.560 poida ameazar a toda a humanidade? 00:07:08.280 --> 00:07:12.656 Se ves películas como Matrix, Metrópolis, 00:07:12.680 --> 00:07:15.856 Terminator, series como Westworld 00:07:15.880 --> 00:07:18.016 todas tratan este tipo de medos. 00:07:18.040 --> 00:07:22.336 De feito, no libro Superintelixencia do filósofo Nick Bostrom 00:07:22.360 --> 00:07:23.896 este trata o mesmo tema 00:07:23.920 --> 00:07:27.936 e opina que unha superintelixencia non só podería ser perigosa 00:07:27.960 --> 00:07:31.816 podería representar unha ameaza para toda a humanidade. 00:07:31.840 --> 00:07:34.056 O argumento do Dr. Bostrom 00:07:34.080 --> 00:07:36.816 é que estes sistemas van chegar a ter nun momento 00:07:36.840 --> 00:07:40.096 tal insaciable fame de información 00:07:40.120 --> 00:07:43.016 que pode que aprendan a como aprender 00:07:43.040 --> 00:07:45.656 e poden chegar a descubrir que teñen obxectivos 00:07:45.680 --> 00:07:47.976 contrarios ás necesidades humanas. 00:07:48.000 --> 00:07:49.856 O Dr. Bostrom ten seguidores. 00:07:49.880 --> 00:07:54.200 É apoiado por xente como Elon Musk ou Stephen Hawking. 00:07:54.880 --> 00:07:57.280 Con todo o meu respecto 00:07:58.160 --> 00:08:00.176 por estas mentes prodixiosas, 00:08:00.210 --> 00:08:02.466 creo que se equivocan. 00:08:02.480 --> 00:08:05.656 Hai moitas partes da argumentación do Dr. Bostrom que analizar 00:08:05.680 --> 00:08:07.816 e agora non teño tempo 00:08:07.840 --> 00:08:10.536 pero de forma moi breve, direi isto: 00:08:10.560 --> 00:08:14.296 a supersabedoría é moi diferente da superrealización. 00:08:14.320 --> 00:08:16.216 HAL era unha ameaza 00:08:16.240 --> 00:08:20.656 para a tripulación do Discovery só se tomaba o control de toda a nave. 00:08:20.680 --> 00:08:23.176 O mesmo pasaría cunha superintelixencia. 00:08:23.200 --> 00:08:25.696 Tería que ter o dominio de todo o mundo. 00:08:25.720 --> 00:08:28.536 Isto é o que pasa coa Skynet de Terminator 00:08:28.560 --> 00:08:30.416 onde temos unha superintelixencia 00:08:30.440 --> 00:08:31.816 que dirixe a vontade humana 00:08:31.840 --> 00:08:35.696 e cada dispositivo situado en calquera recuncho do mundo. 00:08:35.720 --> 00:08:37.176 Falando dende a práctica 00:08:37.200 --> 00:08:39.296 isto non vai pasar. 00:08:39.320 --> 00:08:42.376 Non estamos deseñando IA que controlen o clima, 00:08:42.400 --> 00:08:43.736 que dirixan as mareas, 00:08:43.760 --> 00:08:47.136 nin a nós, os caprichosos e caóticos humanos. 00:08:47.160 --> 00:08:51.056 Ademais, de existir unha intelixencia artificial así 00:08:51.080 --> 00:08:54.016 tería que competir coas economías humanas 00:08:54.040 --> 00:08:56.560 e competir con nós polos recursos. 00:08:57.200 --> 00:08:58.416 E á fin e ao cabo 00:08:58.440 --> 00:08:59.680 (non llo digan a Siri) 00:09:00.440 --> 00:09:01.816 podemos desconectalos. 00:09:03.088 --> 00:09:04.088 (risos) NOTE Paragraph 00:09:05.360 --> 00:09:07.816 Estamos nunha incrible viaxe de coevolución 00:09:07.840 --> 00:09:10.336 xunto coas nosas máquinas. 00:09:10.360 --> 00:09:12.856 Os humanos que somos agora 00:09:12.880 --> 00:09:15.416 non somos os que seremos daquela. 00:09:15.440 --> 00:09:18.576 Preocuparse agora polo auxe dunha superintelixencia 00:09:18.600 --> 00:09:21.656 é unha distracción perigosa 00:09:21.680 --> 00:09:24.016 xa que o auxe da informática en si 00:09:24.040 --> 00:09:27.056 xa dá lugar a algúns asuntos humanos e sociais 00:09:27.080 --> 00:09:28.720 aos que temos que atender. 00:09:29.360 --> 00:09:32.176 Como se pode organizar a sociedade 00:09:32.200 --> 00:09:34.536 cando diminúe a necesidade de capital humano? 00:09:34.560 --> 00:09:38.376 Como podo achegarlle compresión e educación a todo o mundo 00:09:38.400 --> 00:09:40.176 respectando as nosas diferenzas? 00:09:40.200 --> 00:09:44.456 Como podo mellorar a vida das persoas a través da medicina cognitiva? 00:09:44.480 --> 00:09:47.336 Como podo utilizar a informática 00:09:47.360 --> 00:09:49.120 para que cheguemos ás estrelas? NOTE Paragraph 00:09:49.760 --> 00:09:51.800 E iso é o excitante. 00:09:52.400 --> 00:09:54.736 As oportunidades de usar a informática 00:09:54.760 --> 00:09:56.616 para que progrese a experiencia humana 00:09:56.616 --> 00:09:57.736 están ao noso alcance 00:09:57.760 --> 00:09:59.616 aquí e agora 00:09:59.640 --> 00:10:01.320 e isto é só o comezo. NOTE Paragraph 00:10:02.280 --> 00:10:03.496 Moitas grazas. 00:10:03.806 --> 00:10:06.036 (Aplausos)