WEBVTT
00:00:00.760 --> 00:00:04.390
Cando era un neno,
era o típico friqui.
00:00:05.320 --> 00:00:07.496
Creo que algúns de vostedes tamén.
00:00:07.628 --> 00:00:08.628
(risos)
NOTE Paragraph
00:00:08.760 --> 00:00:11.976
E vostede, señor, o que ri máis alto,
pode que aínda o sexa.
00:00:12.628 --> 00:00:13.628
(risos)
NOTE Paragraph
00:00:14.280 --> 00:00:17.776
Medrei nunha cidade pequena
nas poirentas chairas do norte de Texas,
00:00:17.800 --> 00:00:21.136
son fillo dun sheriff
que era fillo dun pastor.
00:00:21.160 --> 00:00:23.080
así que mellor non meterme en problemas.
00:00:24.040 --> 00:00:27.153
Por tanto comecei a ler libros
de cálculo por divertimento.
00:00:27.588 --> 00:00:28.588
(risos)
NOTE Paragraph
00:00:28.880 --> 00:00:30.250
Vostede tamén.
00:00:30.600 --> 00:00:34.336
Iso levoume a construir un láser,
un computador, cohetes,
00:00:34.360 --> 00:00:37.360
e a facer combustible
para foguetes no meu cuarto.
00:00:37.960 --> 00:00:41.616
Agora, en termos científicos,
00:00:41.640 --> 00:00:44.896
a iso chámamoslle: unha moi mala idea.
00:00:45.028 --> 00:00:46.028
(risos)
NOTE Paragraph
00:00:46.160 --> 00:00:48.336
Ao mesmo tempo, estreábase
00:00:48.360 --> 00:00:51.576
2001, unha odisea no espazo
de Stanley Kubrick,
00:00:51.600 --> 00:00:53.800
e a miña vida cambiaba para sempre.
00:00:54.280 --> 00:00:56.336
Encantoume todo desa película,
00:00:56.360 --> 00:00:58.896
sobre todo HAL 9000.
00:00:58.920 --> 00:01:00.976
HAL era un computador consciente
00:01:01.000 --> 00:01:03.456
deseñado para guiar o Discovery
00:01:03.480 --> 00:01:06.016
da Terra a Xúpiter.
00:01:06.040 --> 00:01:08.096
HAL era ademais un personaxe con defectos,
00:01:08.120 --> 00:01:12.400
xa que ao final lle deu máis importancia
á misión ca á vida humana.
00:01:12.840 --> 00:01:14.936
Agora, HAL pertence á ficción
00:01:14.960 --> 00:01:17.616
pero aínda así fala dos nosos medos
00:01:17.640 --> 00:01:19.736
a sermos dominados
00:01:19.760 --> 00:01:22.776
por unha intelixencia artificial (IA)
sen sentimentos
00:01:22.800 --> 00:01:24.760
que é indiferente á nosa humanidade.
NOTE Paragraph
00:01:25.880 --> 00:01:28.456
Creo que eses medos non teñen fundamento.
00:01:28.480 --> 00:01:31.176
De feito, estamos nunha importante época
00:01:31.200 --> 00:01:32.736
para a historia humana
00:01:32.760 --> 00:01:37.736
na que, por negarnos a aceptar
os límites dos nosos corpos e mentes,
00:01:37.760 --> 00:01:39.456
estamos construíndo máquinas
00:01:39.480 --> 00:01:43.096
de exquisita beleza, complexidade e graza
00:01:43.120 --> 00:01:45.176
que ampliarán a experiencia humana
00:01:45.200 --> 00:01:46.880
de formas que nin imaxinamos.
NOTE Paragraph
00:01:47.720 --> 00:01:50.296
Despois de pasar
da Academia da Forza Aérea
00:01:50.320 --> 00:01:52.256
ao Mando Espacial da Forza Aérea,
00:01:52.280 --> 00:01:53.976
pasei a enxeñeiro de sistemas
00:01:54.000 --> 00:01:56.736
e hai pouco metéronme
nun problema de enxeñaría
00:01:56.760 --> 00:01:59.336
relacionado coa misión da NASA a Marte.
00:01:59.360 --> 00:02:01.856
Agora, nos voos espaciais á Lúa,
00:02:01.880 --> 00:02:05.016
dependemos do control
de Houston para vixiar
00:02:05.040 --> 00:02:07.016
todos os aspectos do voo.
00:02:07.040 --> 00:02:10.576
Porén Marte está 200 veces máis lonxe
00:02:10.576 --> 00:02:13.792
e por tanto un sinal tarda
arredor de 13 minutos
00:02:13.840 --> 00:02:16.976
en viaxar dende a Terra ata alí.
00:02:17.000 --> 00:02:20.400
Se hai algún problema, é demasiado tempo.
00:02:20.840 --> 00:02:23.336
Unha solución razoable
00:02:23.360 --> 00:02:25.936
pasa por incluír o control da misión
00:02:25.960 --> 00:02:28.976
dentro das paredes da nave espacial Orión.
00:02:29.000 --> 00:02:31.896
Outra idea fascinante do perfil da misión
00:02:31.920 --> 00:02:34.816
sitúa a robots humanoides
na superficie de Marte
00:02:34.840 --> 00:02:36.590
antes ca os propios humanos,
00:02:36.590 --> 00:02:38.566
primeiro para construír infraestruturas
00:02:38.566 --> 00:02:41.760
e despois para serviren
como colaboradores do equipo científico.
NOTE Paragraph
00:02:43.400 --> 00:02:46.136
Desde a perspectiva da enxeñaría,
00:02:46.160 --> 00:02:49.336
quedoume moi claro
que o que necesitaba deseñar
00:02:49.360 --> 00:02:51.536
era unha intelixencia artificial
00:02:51.560 --> 00:02:53.936
esperta, colaborativa
e socialmente intelixente.
00:02:53.960 --> 00:02:58.256
É dicir, precisaba construír
algo moi parecido a HAL
00:02:58.280 --> 00:03:00.696
pero sen as súas tendencias homicidas.
00:03:01.308 --> 00:03:02.308
(risos)
NOTE Paragraph
00:03:02.920 --> 00:03:04.506
Deteñámonos un momento.
00:03:04.760 --> 00:03:08.656
É posible construírmos
unha intelixencia artificial coma esa?
00:03:08.680 --> 00:03:10.136
Pois, si.
00:03:10.160 --> 00:03:11.416
Por moitas razóns,
00:03:11.440 --> 00:03:13.416
este é un difícil problema de enxeñaría
00:03:13.440 --> 00:03:14.896
cos elementos da lA,
00:03:14.920 --> 00:03:19.616
non só unhas pedriñas no camiño
que deben ser tratadas pola enxeñaría.
00:03:19.640 --> 00:03:22.296
Parafraseando a Alan Turing,
00:03:22.320 --> 00:03:24.696
Non quero construír
unha máquina con sentimentos.
00:03:24.720 --> 00:03:26.296
Non constrúo un HAL.
00:03:26.320 --> 00:03:28.736
Só busco un cerebro simple,
00:03:28.760 --> 00:03:31.880
algo que ofrece a ilusión da intelixencia.
NOTE Paragraph
00:03:33.000 --> 00:03:36.136
A arte e a ciencia informática
percorreron un longo camiño
00:03:36.160 --> 00:03:37.656
dende que vimos a HAL,
00:03:37.680 --> 00:03:40.896
e creo que se o Dr. Chandra,
o seu inventor, estivese aquí hoxe,
00:03:40.920 --> 00:03:43.256
tería moitas preguntas que facernos.
00:03:43.280 --> 00:03:45.376
Énos posible coller un sistema
00:03:45.400 --> 00:03:49.416
de millóns e millóns de dispositivos,
00:03:49.440 --> 00:03:50.896
medir os seus datos,
00:03:50.920 --> 00:03:53.176
predicir os seus fallos e anticiparnos?
00:03:53.200 --> 00:03:54.416
É.
00:03:54.440 --> 00:03:57.616
Podemos crear sistemas
que falen nunha linguaxe natural?
00:03:57.640 --> 00:03:58.776
Podemos.
00:03:58.830 --> 00:04:01.856
Podemos crear sistemas
que recoñezan obxectos,
00:04:01.880 --> 00:04:05.256
identifiquen e expresen emocións,
xoguen, lean os beizos?
00:04:05.280 --> 00:04:06.496
Podemos.
00:04:06.520 --> 00:04:08.656
Podemos crear un sistema que fixe metas,
00:04:08.680 --> 00:04:12.296
cree plans para acadalas
e de paso aprenda?
00:04:12.320 --> 00:04:13.536
Podemos.
00:04:13.560 --> 00:04:16.496
Podemos construír sistemas
que teñan unha teoría da mente?
00:04:16.800 --> 00:04:18.726
Isto é o que estamos a aprender a facer.
00:04:18.730 --> 00:04:21.920
Podemos construír un sistema
que teña principios éticos e morais?
00:04:22.480 --> 00:04:24.520
Isto é o que debemos aprender.
00:04:25.360 --> 00:04:26.736
Aceptemos por un momento
00:04:26.760 --> 00:04:29.656
que podemos construír
esta intelixencia artificial
00:04:29.680 --> 00:04:31.816
para este e outro tipo de misións.
NOTE Paragraph
00:04:31.840 --> 00:04:34.376
A seguinte pregunta que se deben facer é:
00:04:34.400 --> 00:04:35.856
deberiamos de lle ter medo?
00:04:35.880 --> 00:04:37.856
Todas as novas tecnoloxías
00:04:37.880 --> 00:04:40.776
traen consigo certo grao de inquietude.
00:04:40.800 --> 00:04:42.746
A primeira vez que a xente viu un coche,
00:04:42.746 --> 00:04:46.536
queixábase de que ía destruír as familias.
00:04:46.560 --> 00:04:49.256
Cando vimos por primeira vez os teléfonos,
00:04:49.280 --> 00:04:52.176
preocupábanos que acabasen
coas conversas civilizadas.
00:04:52.200 --> 00:04:56.136
Nalgún momento cremos
que a escritura se volvería ubicua,
00:04:56.160 --> 00:04:58.656
que se perdería a capacidade de memorizar.
00:04:58.680 --> 00:05:00.736
Todo isto é verdade ata certo punto,
00:05:00.760 --> 00:05:03.176
pero tamén o é que estas tecnoloxías
00:05:03.200 --> 00:05:06.576
nos brindaron avances
que ampliaron a experiencia humana
00:05:06.600 --> 00:05:08.480
de formas moi profundas.
NOTE Paragraph
00:05:09.840 --> 00:05:12.120
Así que sigamos un pouco máis.
00:05:13.120 --> 00:05:17.856
Non me dá medo a creación
dunha IA coma esta,
00:05:17.880 --> 00:05:21.696
xa que, co tempo, encarnará
algúns dos nosos valores.
00:05:21.720 --> 00:05:25.216
Tendo isto en conta: construír
un sistema cognitivo é distinto
00:05:25.240 --> 00:05:28.536
a crear un anticuado sistema
baseado en software intensivo.
00:05:28.560 --> 00:05:31.016
Non os programamos, aprendémoslles.
00:05:31.040 --> 00:05:33.696
Para lles aprendermos
a como recoñeceren as flores,
00:05:33.720 --> 00:05:36.736
amosaríalles moitas flores
das miñas variedades preferidas.
00:05:36.760 --> 00:05:39.016
Para aprenderlles como xogar a un xogo...
00:05:39.040 --> 00:05:41.000
Eu faríao, e vós tamén.
00:05:42.600 --> 00:05:44.640
De verdade que me gustan as flores.
00:05:45.440 --> 00:05:48.296
Para ensinarlle a un sistema
a xogar a un xogo coma Go
00:05:48.320 --> 00:05:50.376
faríao xogar milleiros de partidas.
00:05:50.400 --> 00:05:52.056
E no proceso aprenderíalle
00:05:52.080 --> 00:05:54.496
a distinguir unha boa partida dunha mala.
00:05:54.520 --> 00:05:58.216
Se quixese crear unha IA
coa función de asistente legal
00:05:58.240 --> 00:06:00.016
aprenderíalle un corpus legal
00:06:00.040 --> 00:06:02.896
ao mesmo tempo que lle introduciría
00:06:02.920 --> 00:06:05.800
o sentido da misericordia
e xustiza que é parte da lei.
00:06:06.560 --> 00:06:09.536
En termos científicos
chámaselles verdades fundamentais
00:06:09.560 --> 00:06:11.576
e o máis importante:
00:06:11.600 --> 00:06:13.056
ao producirmos estas máquinas
00:06:13.080 --> 00:06:16.496
estámoslles inculcando os nosos valores.
00:06:16.520 --> 00:06:19.656
Chegados a este punto, confío nunha IA
00:06:19.680 --> 00:06:23.320
tanto, se non máis,
ca nun humano ben adestrado.
NOTE Paragraph
00:06:24.080 --> 00:06:25.296
Preguntarédesvos
00:06:25.320 --> 00:06:27.936
que pasa cos axentes corruptos,
00:06:27.960 --> 00:06:31.296
con algunhas ONG ben financiadas?
00:06:31.320 --> 00:06:35.136
Unha IA en mans dun lobo solitario
non me pon medo.
00:06:35.160 --> 00:06:39.696
Non nos podemos autoprotexer
de todo acto aleatorio de violencia
00:06:39.720 --> 00:06:41.856
pero a realidade é que tal sistema
00:06:41.880 --> 00:06:44.976
precisa dun adestramento
substancial e sutil
00:06:45.000 --> 00:06:47.406
moi por riba das capacidades
dun único individuo.
00:06:47.406 --> 00:06:48.700
E ademais é máis complicado
00:06:48.700 --> 00:06:51.816
ca inxectarmos un virus informático
en todo o mundo.
00:06:51.840 --> 00:06:54.936
Premendo un botón
o virus chega a milleiros de lugares
00:06:54.960 --> 00:06:57.416
e os portátiles empezan a estoupar.
00:06:57.440 --> 00:07:00.256
Agora, este tipo de contidos
son moito máis grandes
00:07:00.280 --> 00:07:01.995
e vémolos vir.
NOTE Paragraph
00:07:02.520 --> 00:07:05.576
Teño medo a que unha IA deste tipo
00:07:05.600 --> 00:07:07.560
poida ameazar a toda a humanidade?
00:07:08.280 --> 00:07:12.656
Se ves películas como Matrix, Metrópolis,
00:07:12.680 --> 00:07:15.856
Terminator, series como Westworld
00:07:15.880 --> 00:07:18.016
todas tratan este tipo de medos.
00:07:18.040 --> 00:07:22.336
De feito, no libro Superintelixencia
do filósofo Nick Bostrom
00:07:22.360 --> 00:07:23.896
este trata o mesmo tema
00:07:23.920 --> 00:07:27.936
e opina que unha superintelixencia
non só podería ser perigosa
00:07:27.960 --> 00:07:31.816
podería representar unha ameaza
para toda a humanidade.
00:07:31.840 --> 00:07:34.056
O argumento do Dr. Bostrom
00:07:34.080 --> 00:07:36.816
é que estes sistemas
van chegar a ter nun momento
00:07:36.840 --> 00:07:40.096
tal insaciable fame de información
00:07:40.120 --> 00:07:43.016
que pode que aprendan a como aprender
00:07:43.040 --> 00:07:45.656
e poden chegar a descubrir
que teñen obxectivos
00:07:45.680 --> 00:07:47.976
contrarios ás necesidades humanas.
00:07:48.000 --> 00:07:49.856
O Dr. Bostrom ten seguidores.
00:07:49.880 --> 00:07:54.200
É apoiado por xente
como Elon Musk ou Stephen Hawking.
00:07:54.880 --> 00:07:57.280
Con todo o meu respecto
00:07:58.160 --> 00:08:00.176
por estas mentes prodixiosas,
00:08:00.210 --> 00:08:02.466
creo que se equivocan.
00:08:02.480 --> 00:08:05.656
Hai moitas partes da argumentación
do Dr. Bostrom que analizar
00:08:05.680 --> 00:08:07.816
e agora non teño tempo
00:08:07.840 --> 00:08:10.536
pero de forma moi breve, direi isto:
00:08:10.560 --> 00:08:14.296
a supersabedoría é moi diferente
da superrealización.
00:08:14.320 --> 00:08:16.216
HAL era unha ameaza
00:08:16.240 --> 00:08:20.656
para a tripulación do Discovery
só se tomaba o control de toda a nave.
00:08:20.680 --> 00:08:23.176
O mesmo pasaría cunha superintelixencia.
00:08:23.200 --> 00:08:25.696
Tería que ter o dominio de todo o mundo.
00:08:25.720 --> 00:08:28.536
Isto é o que pasa coa Skynet
de Terminator
00:08:28.560 --> 00:08:30.416
onde temos unha superintelixencia
00:08:30.440 --> 00:08:31.816
que dirixe a vontade humana
00:08:31.840 --> 00:08:35.696
e cada dispositivo situado
en calquera recuncho do mundo.
00:08:35.720 --> 00:08:37.176
Falando dende a práctica
00:08:37.200 --> 00:08:39.296
isto non vai pasar.
00:08:39.320 --> 00:08:42.376
Non estamos deseñando IA
que controlen o clima,
00:08:42.400 --> 00:08:43.736
que dirixan as mareas,
00:08:43.760 --> 00:08:47.136
nin a nós, os caprichosos
e caóticos humanos.
00:08:47.160 --> 00:08:51.056
Ademais, de existir
unha intelixencia artificial así
00:08:51.080 --> 00:08:54.016
tería que competir coas economías humanas
00:08:54.040 --> 00:08:56.560
e competir con nós polos recursos.
00:08:57.200 --> 00:08:58.416
E á fin e ao cabo
00:08:58.440 --> 00:08:59.680
(non llo digan a Siri)
00:09:00.440 --> 00:09:01.816
podemos desconectalos.
00:09:03.088 --> 00:09:04.088
(risos)
NOTE Paragraph
00:09:05.360 --> 00:09:07.816
Estamos nunha incrible viaxe
de coevolución
00:09:07.840 --> 00:09:10.336
xunto coas nosas máquinas.
00:09:10.360 --> 00:09:12.856
Os humanos que somos agora
00:09:12.880 --> 00:09:15.416
non somos os que seremos daquela.
00:09:15.440 --> 00:09:18.576
Preocuparse agora
polo auxe dunha superintelixencia
00:09:18.600 --> 00:09:21.656
é unha distracción perigosa
00:09:21.680 --> 00:09:24.016
xa que o auxe da informática en si
00:09:24.040 --> 00:09:27.056
xa dá lugar a algúns asuntos
humanos e sociais
00:09:27.080 --> 00:09:28.720
aos que temos que atender.
00:09:29.360 --> 00:09:32.176
Como se pode organizar a sociedade
00:09:32.200 --> 00:09:34.536
cando diminúe
a necesidade de capital humano?
00:09:34.560 --> 00:09:38.376
Como podo achegarlle
compresión e educación a todo o mundo
00:09:38.400 --> 00:09:40.176
respectando as nosas diferenzas?
00:09:40.200 --> 00:09:44.456
Como podo mellorar a vida das persoas
a través da medicina cognitiva?
00:09:44.480 --> 00:09:47.336
Como podo utilizar a informática
00:09:47.360 --> 00:09:49.120
para que cheguemos ás estrelas?
NOTE Paragraph
00:09:49.760 --> 00:09:51.800
E iso é o excitante.
00:09:52.400 --> 00:09:54.736
As oportunidades de usar a informática
00:09:54.760 --> 00:09:56.616
para que progrese a experiencia humana
00:09:56.616 --> 00:09:57.736
están ao noso alcance
00:09:57.760 --> 00:09:59.616
aquí e agora
00:09:59.640 --> 00:10:01.320
e isto é só o comezo.
NOTE Paragraph
00:10:02.280 --> 00:10:03.496
Moitas grazas.
00:10:03.806 --> 00:10:06.036
(Aplausos)