1 00:00:00,760 --> 00:00:04,390 Cando era un neno, era o típico friqui. 2 00:00:05,320 --> 00:00:07,496 Creo que algúns de vostedes tamén. 3 00:00:07,628 --> 00:00:08,628 (risos) 4 00:00:08,760 --> 00:00:11,976 E vostede, señor, o que ri máis alto, pode que aínda o sexa. 5 00:00:12,628 --> 00:00:13,628 (risos) 6 00:00:14,280 --> 00:00:17,776 Medrei nunha cidade pequena nas poirentas chairas do norte de Texas, 7 00:00:17,800 --> 00:00:21,136 son fillo dun sheriff que era fillo dun pastor. 8 00:00:21,160 --> 00:00:23,080 así que mellor non meterme en problemas. 9 00:00:24,040 --> 00:00:27,153 Por tanto comecei a ler libros de cálculo por divertimento. 10 00:00:27,588 --> 00:00:28,588 (risos) 11 00:00:28,880 --> 00:00:30,250 Vostede tamén. 12 00:00:30,600 --> 00:00:34,336 Iso levoume a construir un láser, un computador, cohetes, 13 00:00:34,360 --> 00:00:37,360 e a facer combustible para foguetes no meu cuarto. 14 00:00:37,960 --> 00:00:41,616 Agora, en termos científicos, 15 00:00:41,640 --> 00:00:44,896 a iso chámamoslle: unha moi mala idea. 16 00:00:45,028 --> 00:00:46,028 (risos) 17 00:00:46,160 --> 00:00:48,336 Ao mesmo tempo, estreábase 18 00:00:48,360 --> 00:00:51,576 2001, unha odisea no espazo de Stanley Kubrick, 19 00:00:51,600 --> 00:00:53,800 e a miña vida cambiaba para sempre. 20 00:00:54,280 --> 00:00:56,336 Encantoume todo desa película, 21 00:00:56,360 --> 00:00:58,896 sobre todo HAL 9000. 22 00:00:58,920 --> 00:01:00,976 HAL era un computador consciente 23 00:01:01,000 --> 00:01:03,456 deseñado para guiar o Discovery 24 00:01:03,480 --> 00:01:06,016 da Terra a Xúpiter. 25 00:01:06,040 --> 00:01:08,096 HAL era ademais un personaxe con defectos, 26 00:01:08,120 --> 00:01:12,400 xa que ao final lle deu máis importancia á misión ca á vida humana. 27 00:01:12,840 --> 00:01:14,936 Agora, HAL pertence á ficción 28 00:01:14,960 --> 00:01:17,616 pero aínda así fala dos nosos medos 29 00:01:17,640 --> 00:01:19,736 a sermos dominados 30 00:01:19,760 --> 00:01:22,776 por unha intelixencia artificial (IA) sen sentimentos 31 00:01:22,800 --> 00:01:24,760 que é indiferente á nosa humanidade. 32 00:01:25,880 --> 00:01:28,456 Creo que eses medos non teñen fundamento. 33 00:01:28,480 --> 00:01:31,176 De feito, estamos nunha importante época 34 00:01:31,200 --> 00:01:32,736 para a historia humana 35 00:01:32,760 --> 00:01:37,736 na que, por negarnos a aceptar os límites dos nosos corpos e mentes, 36 00:01:37,760 --> 00:01:39,456 estamos construíndo máquinas 37 00:01:39,480 --> 00:01:43,096 de exquisita beleza, complexidade e graza 38 00:01:43,120 --> 00:01:45,176 que ampliarán a experiencia humana 39 00:01:45,200 --> 00:01:46,880 de formas que nin imaxinamos. 40 00:01:47,720 --> 00:01:50,296 Despois de pasar da Academia da Forza Aérea 41 00:01:50,320 --> 00:01:52,256 ao Mando Espacial da Forza Aérea, 42 00:01:52,280 --> 00:01:53,976 pasei a enxeñeiro de sistemas 43 00:01:54,000 --> 00:01:56,736 e hai pouco metéronme nun problema de enxeñaría 44 00:01:56,760 --> 00:01:59,336 relacionado coa misión da NASA a Marte. 45 00:01:59,360 --> 00:02:01,856 Agora, nos voos espaciais á Lúa, 46 00:02:01,880 --> 00:02:05,016 dependemos do control de Houston para vixiar 47 00:02:05,040 --> 00:02:07,016 todos os aspectos do voo. 48 00:02:07,040 --> 00:02:10,576 Porén Marte está 200 veces máis lonxe 49 00:02:10,576 --> 00:02:13,792 e por tanto un sinal tarda arredor de 13 minutos 50 00:02:13,840 --> 00:02:16,976 en viaxar dende a Terra ata alí. 51 00:02:17,000 --> 00:02:20,400 Se hai algún problema, é demasiado tempo. 52 00:02:20,840 --> 00:02:23,336 Unha solución razoable 53 00:02:23,360 --> 00:02:25,936 pasa por incluír o control da misión 54 00:02:25,960 --> 00:02:28,976 dentro das paredes da nave espacial Orión. 55 00:02:29,000 --> 00:02:31,896 Outra idea fascinante do perfil da misión 56 00:02:31,920 --> 00:02:34,816 sitúa a robots humanoides na superficie de Marte 57 00:02:34,840 --> 00:02:36,590 antes ca os propios humanos, 58 00:02:36,590 --> 00:02:38,566 primeiro para construír infraestruturas 59 00:02:38,566 --> 00:02:41,760 e despois para serviren como colaboradores do equipo científico. 60 00:02:43,400 --> 00:02:46,136 Desde a perspectiva da enxeñaría, 61 00:02:46,160 --> 00:02:49,336 quedoume moi claro que o que necesitaba deseñar 62 00:02:49,360 --> 00:02:51,536 era unha intelixencia artificial 63 00:02:51,560 --> 00:02:53,936 esperta, colaborativa e socialmente intelixente. 64 00:02:53,960 --> 00:02:58,256 É dicir, precisaba construír algo moi parecido a HAL 65 00:02:58,280 --> 00:03:00,696 pero sen as súas tendencias homicidas. 66 00:03:01,308 --> 00:03:02,308 (risos) 67 00:03:02,920 --> 00:03:04,506 Deteñámonos un momento. 68 00:03:04,760 --> 00:03:08,656 É posible construírmos unha intelixencia artificial coma esa? 69 00:03:08,680 --> 00:03:10,136 Pois, si. 70 00:03:10,160 --> 00:03:11,416 Por moitas razóns, 71 00:03:11,440 --> 00:03:13,416 este é un difícil problema de enxeñaría 72 00:03:13,440 --> 00:03:14,896 cos elementos da lA, 73 00:03:14,920 --> 00:03:19,616 non só unhas pedriñas no camiño que deben ser tratadas pola enxeñaría. 74 00:03:19,640 --> 00:03:22,296 Parafraseando a Alan Turing, 75 00:03:22,320 --> 00:03:24,696 Non quero construír unha máquina con sentimentos. 76 00:03:24,720 --> 00:03:26,296 Non constrúo un HAL. 77 00:03:26,320 --> 00:03:28,736 Só busco un cerebro simple, 78 00:03:28,760 --> 00:03:31,880 algo que ofrece a ilusión da intelixencia. 79 00:03:33,000 --> 00:03:36,136 A arte e a ciencia informática percorreron un longo camiño 80 00:03:36,160 --> 00:03:37,656 dende que vimos a HAL, 81 00:03:37,680 --> 00:03:40,896 e creo que se o Dr. Chandra, o seu inventor, estivese aquí hoxe, 82 00:03:40,920 --> 00:03:43,256 tería moitas preguntas que facernos. 83 00:03:43,280 --> 00:03:45,376 Énos posible coller un sistema 84 00:03:45,400 --> 00:03:49,416 de millóns e millóns de dispositivos, 85 00:03:49,440 --> 00:03:50,896 medir os seus datos, 86 00:03:50,920 --> 00:03:53,176 predicir os seus fallos e anticiparnos? 87 00:03:53,200 --> 00:03:54,416 É. 88 00:03:54,440 --> 00:03:57,616 Podemos crear sistemas que falen nunha linguaxe natural? 89 00:03:57,640 --> 00:03:58,776 Podemos. 90 00:03:58,830 --> 00:04:01,856 Podemos crear sistemas que recoñezan obxectos, 91 00:04:01,880 --> 00:04:05,256 identifiquen e expresen emocións, xoguen, lean os beizos? 92 00:04:05,280 --> 00:04:06,496 Podemos. 93 00:04:06,520 --> 00:04:08,656 Podemos crear un sistema que fixe metas, 94 00:04:08,680 --> 00:04:12,296 cree plans para acadalas e de paso aprenda? 95 00:04:12,320 --> 00:04:13,536 Podemos. 96 00:04:13,560 --> 00:04:16,496 Podemos construír sistemas que teñan unha teoría da mente? 97 00:04:16,800 --> 00:04:18,726 Isto é o que estamos a aprender a facer. 98 00:04:18,730 --> 00:04:21,920 Podemos construír un sistema que teña principios éticos e morais? 99 00:04:22,480 --> 00:04:24,520 Isto é o que debemos aprender. 100 00:04:25,360 --> 00:04:26,736 Aceptemos por un momento 101 00:04:26,760 --> 00:04:29,656 que podemos construír esta intelixencia artificial 102 00:04:29,680 --> 00:04:31,816 para este e outro tipo de misións. 103 00:04:31,840 --> 00:04:34,376 A seguinte pregunta que se deben facer é: 104 00:04:34,400 --> 00:04:35,856 deberiamos de lle ter medo? 105 00:04:35,880 --> 00:04:37,856 Todas as novas tecnoloxías 106 00:04:37,880 --> 00:04:40,776 traen consigo certo grao de inquietude. 107 00:04:40,800 --> 00:04:42,746 A primeira vez que a xente viu un coche, 108 00:04:42,746 --> 00:04:46,536 queixábase de que ía destruír as familias. 109 00:04:46,560 --> 00:04:49,256 Cando vimos por primeira vez os teléfonos, 110 00:04:49,280 --> 00:04:52,176 preocupábanos que acabasen coas conversas civilizadas. 111 00:04:52,200 --> 00:04:56,136 Nalgún momento cremos que a escritura se volvería ubicua, 112 00:04:56,160 --> 00:04:58,656 que se perdería a capacidade de memorizar. 113 00:04:58,680 --> 00:05:00,736 Todo isto é verdade ata certo punto, 114 00:05:00,760 --> 00:05:03,176 pero tamén o é que estas tecnoloxías 115 00:05:03,200 --> 00:05:06,576 nos brindaron avances que ampliaron a experiencia humana 116 00:05:06,600 --> 00:05:08,480 de formas moi profundas. 117 00:05:09,840 --> 00:05:12,120 Así que sigamos un pouco máis. 118 00:05:13,120 --> 00:05:17,856 Non me dá medo a creación dunha IA coma esta, 119 00:05:17,880 --> 00:05:21,696 xa que, co tempo, encarnará algúns dos nosos valores. 120 00:05:21,720 --> 00:05:25,216 Tendo isto en conta: construír un sistema cognitivo é distinto 121 00:05:25,240 --> 00:05:28,536 a crear un anticuado sistema baseado en software intensivo. 122 00:05:28,560 --> 00:05:31,016 Non os programamos, aprendémoslles. 123 00:05:31,040 --> 00:05:33,696 Para lles aprendermos a como recoñeceren as flores, 124 00:05:33,720 --> 00:05:36,736 amosaríalles moitas flores das miñas variedades preferidas. 125 00:05:36,760 --> 00:05:39,016 Para aprenderlles como xogar a un xogo... 126 00:05:39,040 --> 00:05:41,000 Eu faríao, e vós tamén. 127 00:05:42,600 --> 00:05:44,640 De verdade que me gustan as flores. 128 00:05:45,440 --> 00:05:48,296 Para ensinarlle a un sistema a xogar a un xogo coma Go 129 00:05:48,320 --> 00:05:50,376 faríao xogar milleiros de partidas. 130 00:05:50,400 --> 00:05:52,056 E no proceso aprenderíalle 131 00:05:52,080 --> 00:05:54,496 a distinguir unha boa partida dunha mala. 132 00:05:54,520 --> 00:05:58,216 Se quixese crear unha IA coa función de asistente legal 133 00:05:58,240 --> 00:06:00,016 aprenderíalle un corpus legal 134 00:06:00,040 --> 00:06:02,896 ao mesmo tempo que lle introduciría 135 00:06:02,920 --> 00:06:05,800 o sentido da misericordia e xustiza que é parte da lei. 136 00:06:06,560 --> 00:06:09,536 En termos científicos chámaselles verdades fundamentais 137 00:06:09,560 --> 00:06:11,576 e o máis importante: 138 00:06:11,600 --> 00:06:13,056 ao producirmos estas máquinas 139 00:06:13,080 --> 00:06:16,496 estámoslles inculcando os nosos valores. 140 00:06:16,520 --> 00:06:19,656 Chegados a este punto, confío nunha IA 141 00:06:19,680 --> 00:06:23,320 tanto, se non máis, ca nun humano ben adestrado. 142 00:06:24,080 --> 00:06:25,296 Preguntarédesvos 143 00:06:25,320 --> 00:06:27,936 que pasa cos axentes corruptos, 144 00:06:27,960 --> 00:06:31,296 con algunhas ONG ben financiadas? 145 00:06:31,320 --> 00:06:35,136 Unha IA en mans dun lobo solitario non me pon medo. 146 00:06:35,160 --> 00:06:39,696 Non nos podemos autoprotexer de todo acto aleatorio de violencia 147 00:06:39,720 --> 00:06:41,856 pero a realidade é que tal sistema 148 00:06:41,880 --> 00:06:44,976 precisa dun adestramento substancial e sutil 149 00:06:45,000 --> 00:06:47,406 moi por riba das capacidades dun único individuo. 150 00:06:47,406 --> 00:06:48,700 E ademais é máis complicado 151 00:06:48,700 --> 00:06:51,816 ca inxectarmos un virus informático en todo o mundo. 152 00:06:51,840 --> 00:06:54,936 Premendo un botón o virus chega a milleiros de lugares 153 00:06:54,960 --> 00:06:57,416 e os portátiles empezan a estoupar. 154 00:06:57,440 --> 00:07:00,256 Agora, este tipo de contidos son moito máis grandes 155 00:07:00,280 --> 00:07:01,995 e vémolos vir. 156 00:07:02,520 --> 00:07:05,576 Teño medo a que unha IA deste tipo 157 00:07:05,600 --> 00:07:07,560 poida ameazar a toda a humanidade? 158 00:07:08,280 --> 00:07:12,656 Se ves películas como Matrix, Metrópolis, 159 00:07:12,680 --> 00:07:15,856 Terminator, series como Westworld 160 00:07:15,880 --> 00:07:18,016 todas tratan este tipo de medos. 161 00:07:18,040 --> 00:07:22,336 De feito, no libro Superintelixencia do filósofo Nick Bostrom 162 00:07:22,360 --> 00:07:23,896 este trata o mesmo tema 163 00:07:23,920 --> 00:07:27,936 e opina que unha superintelixencia non só podería ser perigosa 164 00:07:27,960 --> 00:07:31,816 podería representar unha ameaza para toda a humanidade. 165 00:07:31,840 --> 00:07:34,056 O argumento do Dr. Bostrom 166 00:07:34,080 --> 00:07:36,816 é que estes sistemas van chegar a ter nun momento 167 00:07:36,840 --> 00:07:40,096 tal insaciable fame de información 168 00:07:40,120 --> 00:07:43,016 que pode que aprendan a como aprender 169 00:07:43,040 --> 00:07:45,656 e poden chegar a descubrir que teñen obxectivos 170 00:07:45,680 --> 00:07:47,976 contrarios ás necesidades humanas. 171 00:07:48,000 --> 00:07:49,856 O Dr. Bostrom ten seguidores. 172 00:07:49,880 --> 00:07:54,200 É apoiado por xente como Elon Musk ou Stephen Hawking. 173 00:07:54,880 --> 00:07:57,280 Con todo o meu respecto 174 00:07:58,160 --> 00:08:00,176 por estas mentes prodixiosas, 175 00:08:00,210 --> 00:08:02,466 creo que se equivocan. 176 00:08:02,480 --> 00:08:05,656 Hai moitas partes da argumentación do Dr. Bostrom que analizar 177 00:08:05,680 --> 00:08:07,816 e agora non teño tempo 178 00:08:07,840 --> 00:08:10,536 pero de forma moi breve, direi isto: 179 00:08:10,560 --> 00:08:14,296 a supersabedoría é moi diferente da superrealización. 180 00:08:14,320 --> 00:08:16,216 HAL era unha ameaza 181 00:08:16,240 --> 00:08:20,656 para a tripulación do Discovery só se tomaba o control de toda a nave. 182 00:08:20,680 --> 00:08:23,176 O mesmo pasaría cunha superintelixencia. 183 00:08:23,200 --> 00:08:25,696 Tería que ter o dominio de todo o mundo. 184 00:08:25,720 --> 00:08:28,536 Isto é o que pasa coa Skynet de Terminator 185 00:08:28,560 --> 00:08:30,416 onde temos unha superintelixencia 186 00:08:30,440 --> 00:08:31,816 que dirixe a vontade humana 187 00:08:31,840 --> 00:08:35,696 e cada dispositivo situado en calquera recuncho do mundo. 188 00:08:35,720 --> 00:08:37,176 Falando dende a práctica 189 00:08:37,200 --> 00:08:39,296 isto non vai pasar. 190 00:08:39,320 --> 00:08:42,376 Non estamos deseñando IA que controlen o clima, 191 00:08:42,400 --> 00:08:43,736 que dirixan as mareas, 192 00:08:43,760 --> 00:08:47,136 nin a nós, os caprichosos e caóticos humanos. 193 00:08:47,160 --> 00:08:51,056 Ademais, de existir unha intelixencia artificial así 194 00:08:51,080 --> 00:08:54,016 tería que competir coas economías humanas 195 00:08:54,040 --> 00:08:56,560 e competir con nós polos recursos. 196 00:08:57,200 --> 00:08:58,416 E á fin e ao cabo 197 00:08:58,440 --> 00:08:59,680 (non llo digan a Siri) 198 00:09:00,440 --> 00:09:01,816 podemos desconectalos. 199 00:09:03,088 --> 00:09:04,088 (risos) 200 00:09:05,360 --> 00:09:07,816 Estamos nunha incrible viaxe de coevolución 201 00:09:07,840 --> 00:09:10,336 xunto coas nosas máquinas. 202 00:09:10,360 --> 00:09:12,856 Os humanos que somos agora 203 00:09:12,880 --> 00:09:15,416 non somos os que seremos daquela. 204 00:09:15,440 --> 00:09:18,576 Preocuparse agora polo auxe dunha superintelixencia 205 00:09:18,600 --> 00:09:21,656 é unha distracción perigosa 206 00:09:21,680 --> 00:09:24,016 xa que o auxe da informática en si 207 00:09:24,040 --> 00:09:27,056 xa dá lugar a algúns asuntos humanos e sociais 208 00:09:27,080 --> 00:09:28,720 aos que temos que atender. 209 00:09:29,360 --> 00:09:32,176 Como se pode organizar a sociedade 210 00:09:32,200 --> 00:09:34,536 cando diminúe a necesidade de capital humano? 211 00:09:34,560 --> 00:09:38,376 Como podo achegarlle compresión e educación a todo o mundo 212 00:09:38,400 --> 00:09:40,176 respectando as nosas diferenzas? 213 00:09:40,200 --> 00:09:44,456 Como podo mellorar a vida das persoas a través da medicina cognitiva? 214 00:09:44,480 --> 00:09:47,336 Como podo utilizar a informática 215 00:09:47,360 --> 00:09:49,120 para que cheguemos ás estrelas? 216 00:09:49,760 --> 00:09:51,800 E iso é o excitante. 217 00:09:52,400 --> 00:09:54,736 As oportunidades de usar a informática 218 00:09:54,760 --> 00:09:56,616 para que progrese a experiencia humana 219 00:09:56,616 --> 00:09:57,736 están ao noso alcance 220 00:09:57,760 --> 00:09:59,616 aquí e agora 221 00:09:59,640 --> 00:10:01,320 e isto é só o comezo. 222 00:10:02,280 --> 00:10:03,496 Moitas grazas. 223 00:10:03,806 --> 00:10:06,036 (Aplausos)