1
00:00:00,760 --> 00:00:04,390
Cando era un neno,
era o típico friqui.
2
00:00:05,320 --> 00:00:07,496
Creo que algúns de vostedes tamén.
3
00:00:07,628 --> 00:00:08,628
(risos)
4
00:00:08,760 --> 00:00:11,976
E vostede, señor, o que ri máis alto,
pode que aínda o sexa.
5
00:00:12,628 --> 00:00:13,628
(risos)
6
00:00:14,280 --> 00:00:17,776
Medrei nunha cidade pequena
nas poirentas chairas do norte de Texas,
7
00:00:17,800 --> 00:00:21,136
son fillo dun sheriff
que era fillo dun pastor.
8
00:00:21,160 --> 00:00:23,080
así que mellor non meterme en problemas.
9
00:00:24,040 --> 00:00:27,153
Por tanto comecei a ler libros
de cálculo por divertimento.
10
00:00:27,588 --> 00:00:28,588
(risos)
11
00:00:28,880 --> 00:00:30,250
Vostede tamén.
12
00:00:30,600 --> 00:00:34,336
Iso levoume a construir un láser,
un computador, cohetes,
13
00:00:34,360 --> 00:00:37,360
e a facer combustible
para foguetes no meu cuarto.
14
00:00:37,960 --> 00:00:41,616
Agora, en termos científicos,
15
00:00:41,640 --> 00:00:44,896
a iso chámamoslle: unha moi mala idea.
16
00:00:45,028 --> 00:00:46,028
(risos)
17
00:00:46,160 --> 00:00:48,336
Ao mesmo tempo, estreábase
18
00:00:48,360 --> 00:00:51,576
2001, unha odisea no espazo
de Stanley Kubrick,
19
00:00:51,600 --> 00:00:53,800
e a miña vida cambiaba para sempre.
20
00:00:54,280 --> 00:00:56,336
Encantoume todo desa película,
21
00:00:56,360 --> 00:00:58,896
sobre todo HAL 9000.
22
00:00:58,920 --> 00:01:00,976
HAL era un computador consciente
23
00:01:01,000 --> 00:01:03,456
deseñado para guiar o Discovery
24
00:01:03,480 --> 00:01:06,016
da Terra a Xúpiter.
25
00:01:06,040 --> 00:01:08,096
HAL era ademais un personaxe con defectos,
26
00:01:08,120 --> 00:01:12,400
xa que ao final lle deu máis importancia
á misión ca á vida humana.
27
00:01:12,840 --> 00:01:14,936
Agora, HAL pertence á ficción
28
00:01:14,960 --> 00:01:17,616
pero aínda así fala dos nosos medos
29
00:01:17,640 --> 00:01:19,736
a sermos dominados
30
00:01:19,760 --> 00:01:22,776
por unha intelixencia artificial (IA)
sen sentimentos
31
00:01:22,800 --> 00:01:24,760
que é indiferente á nosa humanidade.
32
00:01:25,880 --> 00:01:28,456
Creo que eses medos non teñen fundamento.
33
00:01:28,480 --> 00:01:31,176
De feito, estamos nunha importante época
34
00:01:31,200 --> 00:01:32,736
para a historia humana
35
00:01:32,760 --> 00:01:37,736
na que, por negarnos a aceptar
os límites dos nosos corpos e mentes,
36
00:01:37,760 --> 00:01:39,456
estamos construíndo máquinas
37
00:01:39,480 --> 00:01:43,096
de exquisita beleza, complexidade e graza
38
00:01:43,120 --> 00:01:45,176
que ampliarán a experiencia humana
39
00:01:45,200 --> 00:01:46,880
de formas que nin imaxinamos.
40
00:01:47,720 --> 00:01:50,296
Despois de pasar
da Academia da Forza Aérea
41
00:01:50,320 --> 00:01:52,256
ao Mando Espacial da Forza Aérea,
42
00:01:52,280 --> 00:01:53,976
pasei a enxeñeiro de sistemas
43
00:01:54,000 --> 00:01:56,736
e hai pouco metéronme
nun problema de enxeñaría
44
00:01:56,760 --> 00:01:59,336
relacionado coa misión da NASA a Marte.
45
00:01:59,360 --> 00:02:01,856
Agora, nos voos espaciais á Lúa,
46
00:02:01,880 --> 00:02:05,016
dependemos do control
de Houston para vixiar
47
00:02:05,040 --> 00:02:07,016
todos os aspectos do voo.
48
00:02:07,040 --> 00:02:10,576
Porén Marte está 200 veces máis lonxe
49
00:02:10,576 --> 00:02:13,792
e por tanto un sinal tarda
arredor de 13 minutos
50
00:02:13,840 --> 00:02:16,976
en viaxar dende a Terra ata alí.
51
00:02:17,000 --> 00:02:20,400
Se hai algún problema, é demasiado tempo.
52
00:02:20,840 --> 00:02:23,336
Unha solución razoable
53
00:02:23,360 --> 00:02:25,936
pasa por incluír o control da misión
54
00:02:25,960 --> 00:02:28,976
dentro das paredes da nave espacial Orión.
55
00:02:29,000 --> 00:02:31,896
Outra idea fascinante do perfil da misión
56
00:02:31,920 --> 00:02:34,816
sitúa a robots humanoides
na superficie de Marte
57
00:02:34,840 --> 00:02:36,590
antes ca os propios humanos,
58
00:02:36,590 --> 00:02:38,566
primeiro para construír infraestruturas
59
00:02:38,566 --> 00:02:41,760
e despois para serviren
como colaboradores do equipo científico.
60
00:02:43,400 --> 00:02:46,136
Desde a perspectiva da enxeñaría,
61
00:02:46,160 --> 00:02:49,336
quedoume moi claro
que o que necesitaba deseñar
62
00:02:49,360 --> 00:02:51,536
era unha intelixencia artificial
63
00:02:51,560 --> 00:02:53,936
esperta, colaborativa
e socialmente intelixente.
64
00:02:53,960 --> 00:02:58,256
É dicir, precisaba construír
algo moi parecido a HAL
65
00:02:58,280 --> 00:03:00,696
pero sen as súas tendencias homicidas.
66
00:03:01,308 --> 00:03:02,308
(risos)
67
00:03:02,920 --> 00:03:04,506
Deteñámonos un momento.
68
00:03:04,760 --> 00:03:08,656
É posible construírmos
unha intelixencia artificial coma esa?
69
00:03:08,680 --> 00:03:10,136
Pois, si.
70
00:03:10,160 --> 00:03:11,416
Por moitas razóns,
71
00:03:11,440 --> 00:03:13,416
este é un difícil problema de enxeñaría
72
00:03:13,440 --> 00:03:14,896
cos elementos da lA,
73
00:03:14,920 --> 00:03:19,616
non só unhas pedriñas no camiño
que deben ser tratadas pola enxeñaría.
74
00:03:19,640 --> 00:03:22,296
Parafraseando a Alan Turing,
75
00:03:22,320 --> 00:03:24,696
Non quero construír
unha máquina con sentimentos.
76
00:03:24,720 --> 00:03:26,296
Non constrúo un HAL.
77
00:03:26,320 --> 00:03:28,736
Só busco un cerebro simple,
78
00:03:28,760 --> 00:03:31,880
algo que ofrece a ilusión da intelixencia.
79
00:03:33,000 --> 00:03:36,136
A arte e a ciencia informática
percorreron un longo camiño
80
00:03:36,160 --> 00:03:37,656
dende que vimos a HAL,
81
00:03:37,680 --> 00:03:40,896
e creo que se o Dr. Chandra,
o seu inventor, estivese aquí hoxe,
82
00:03:40,920 --> 00:03:43,256
tería moitas preguntas que facernos.
83
00:03:43,280 --> 00:03:45,376
Énos posible coller un sistema
84
00:03:45,400 --> 00:03:49,416
de millóns e millóns de dispositivos,
85
00:03:49,440 --> 00:03:50,896
medir os seus datos,
86
00:03:50,920 --> 00:03:53,176
predicir os seus fallos e anticiparnos?
87
00:03:53,200 --> 00:03:54,416
É.
88
00:03:54,440 --> 00:03:57,616
Podemos crear sistemas
que falen nunha linguaxe natural?
89
00:03:57,640 --> 00:03:58,776
Podemos.
90
00:03:58,830 --> 00:04:01,856
Podemos crear sistemas
que recoñezan obxectos,
91
00:04:01,880 --> 00:04:05,256
identifiquen e expresen emocións,
xoguen, lean os beizos?
92
00:04:05,280 --> 00:04:06,496
Podemos.
93
00:04:06,520 --> 00:04:08,656
Podemos crear un sistema que fixe metas,
94
00:04:08,680 --> 00:04:12,296
cree plans para acadalas
e de paso aprenda?
95
00:04:12,320 --> 00:04:13,536
Podemos.
96
00:04:13,560 --> 00:04:16,496
Podemos construír sistemas
que teñan unha teoría da mente?
97
00:04:16,800 --> 00:04:18,726
Isto é o que estamos a aprender a facer.
98
00:04:18,730 --> 00:04:21,920
Podemos construír un sistema
que teña principios éticos e morais?
99
00:04:22,480 --> 00:04:24,520
Isto é o que debemos aprender.
100
00:04:25,360 --> 00:04:26,736
Aceptemos por un momento
101
00:04:26,760 --> 00:04:29,656
que podemos construír
esta intelixencia artificial
102
00:04:29,680 --> 00:04:31,816
para este e outro tipo de misións.
103
00:04:31,840 --> 00:04:34,376
A seguinte pregunta que se deben facer é:
104
00:04:34,400 --> 00:04:35,856
deberiamos de lle ter medo?
105
00:04:35,880 --> 00:04:37,856
Todas as novas tecnoloxías
106
00:04:37,880 --> 00:04:40,776
traen consigo certo grao de inquietude.
107
00:04:40,800 --> 00:04:42,746
A primeira vez que a xente viu un coche,
108
00:04:42,746 --> 00:04:46,536
queixábase de que ía destruír as familias.
109
00:04:46,560 --> 00:04:49,256
Cando vimos por primeira vez os teléfonos,
110
00:04:49,280 --> 00:04:52,176
preocupábanos que acabasen
coas conversas civilizadas.
111
00:04:52,200 --> 00:04:56,136
Nalgún momento cremos
que a escritura se volvería ubicua,
112
00:04:56,160 --> 00:04:58,656
que se perdería a capacidade de memorizar.
113
00:04:58,680 --> 00:05:00,736
Todo isto é verdade ata certo punto,
114
00:05:00,760 --> 00:05:03,176
pero tamén o é que estas tecnoloxías
115
00:05:03,200 --> 00:05:06,576
nos brindaron avances
que ampliaron a experiencia humana
116
00:05:06,600 --> 00:05:08,480
de formas moi profundas.
117
00:05:09,840 --> 00:05:12,120
Así que sigamos un pouco máis.
118
00:05:13,120 --> 00:05:17,856
Non me dá medo a creación
dunha IA coma esta,
119
00:05:17,880 --> 00:05:21,696
xa que, co tempo, encarnará
algúns dos nosos valores.
120
00:05:21,720 --> 00:05:25,216
Tendo isto en conta: construír
un sistema cognitivo é distinto
121
00:05:25,240 --> 00:05:28,536
a crear un anticuado sistema
baseado en software intensivo.
122
00:05:28,560 --> 00:05:31,016
Non os programamos, aprendémoslles.
123
00:05:31,040 --> 00:05:33,696
Para lles aprendermos
a como recoñeceren as flores,
124
00:05:33,720 --> 00:05:36,736
amosaríalles moitas flores
das miñas variedades preferidas.
125
00:05:36,760 --> 00:05:39,016
Para aprenderlles como xogar a un xogo...
126
00:05:39,040 --> 00:05:41,000
Eu faríao, e vós tamén.
127
00:05:42,600 --> 00:05:44,640
De verdade que me gustan as flores.
128
00:05:45,440 --> 00:05:48,296
Para ensinarlle a un sistema
a xogar a un xogo coma Go
129
00:05:48,320 --> 00:05:50,376
faríao xogar milleiros de partidas.
130
00:05:50,400 --> 00:05:52,056
E no proceso aprenderíalle
131
00:05:52,080 --> 00:05:54,496
a distinguir unha boa partida dunha mala.
132
00:05:54,520 --> 00:05:58,216
Se quixese crear unha IA
coa función de asistente legal
133
00:05:58,240 --> 00:06:00,016
aprenderíalle un corpus legal
134
00:06:00,040 --> 00:06:02,896
ao mesmo tempo que lle introduciría
135
00:06:02,920 --> 00:06:05,800
o sentido da misericordia
e xustiza que é parte da lei.
136
00:06:06,560 --> 00:06:09,536
En termos científicos
chámaselles verdades fundamentais
137
00:06:09,560 --> 00:06:11,576
e o máis importante:
138
00:06:11,600 --> 00:06:13,056
ao producirmos estas máquinas
139
00:06:13,080 --> 00:06:16,496
estámoslles inculcando os nosos valores.
140
00:06:16,520 --> 00:06:19,656
Chegados a este punto, confío nunha IA
141
00:06:19,680 --> 00:06:23,320
tanto, se non máis,
ca nun humano ben adestrado.
142
00:06:24,080 --> 00:06:25,296
Preguntarédesvos
143
00:06:25,320 --> 00:06:27,936
que pasa cos axentes corruptos,
144
00:06:27,960 --> 00:06:31,296
con algunhas ONG ben financiadas?
145
00:06:31,320 --> 00:06:35,136
Unha IA en mans dun lobo solitario
non me pon medo.
146
00:06:35,160 --> 00:06:39,696
Non nos podemos autoprotexer
de todo acto aleatorio de violencia
147
00:06:39,720 --> 00:06:41,856
pero a realidade é que tal sistema
148
00:06:41,880 --> 00:06:44,976
precisa dun adestramento
substancial e sutil
149
00:06:45,000 --> 00:06:47,406
moi por riba das capacidades
dun único individuo.
150
00:06:47,406 --> 00:06:48,700
E ademais é máis complicado
151
00:06:48,700 --> 00:06:51,816
ca inxectarmos un virus informático
en todo o mundo.
152
00:06:51,840 --> 00:06:54,936
Premendo un botón
o virus chega a milleiros de lugares
153
00:06:54,960 --> 00:06:57,416
e os portátiles empezan a estoupar.
154
00:06:57,440 --> 00:07:00,256
Agora, este tipo de contidos
son moito máis grandes
155
00:07:00,280 --> 00:07:01,995
e vémolos vir.
156
00:07:02,520 --> 00:07:05,576
Teño medo a que unha IA deste tipo
157
00:07:05,600 --> 00:07:07,560
poida ameazar a toda a humanidade?
158
00:07:08,280 --> 00:07:12,656
Se ves películas como Matrix, Metrópolis,
159
00:07:12,680 --> 00:07:15,856
Terminator, series como Westworld
160
00:07:15,880 --> 00:07:18,016
todas tratan este tipo de medos.
161
00:07:18,040 --> 00:07:22,336
De feito, no libro Superintelixencia
do filósofo Nick Bostrom
162
00:07:22,360 --> 00:07:23,896
este trata o mesmo tema
163
00:07:23,920 --> 00:07:27,936
e opina que unha superintelixencia
non só podería ser perigosa
164
00:07:27,960 --> 00:07:31,816
podería representar unha ameaza
para toda a humanidade.
165
00:07:31,840 --> 00:07:34,056
O argumento do Dr. Bostrom
166
00:07:34,080 --> 00:07:36,816
é que estes sistemas
van chegar a ter nun momento
167
00:07:36,840 --> 00:07:40,096
tal insaciable fame de información
168
00:07:40,120 --> 00:07:43,016
que pode que aprendan a como aprender
169
00:07:43,040 --> 00:07:45,656
e poden chegar a descubrir
que teñen obxectivos
170
00:07:45,680 --> 00:07:47,976
contrarios ás necesidades humanas.
171
00:07:48,000 --> 00:07:49,856
O Dr. Bostrom ten seguidores.
172
00:07:49,880 --> 00:07:54,200
É apoiado por xente
como Elon Musk ou Stephen Hawking.
173
00:07:54,880 --> 00:07:57,280
Con todo o meu respecto
174
00:07:58,160 --> 00:08:00,176
por estas mentes prodixiosas,
175
00:08:00,210 --> 00:08:02,466
creo que se equivocan.
176
00:08:02,480 --> 00:08:05,656
Hai moitas partes da argumentación
do Dr. Bostrom que analizar
177
00:08:05,680 --> 00:08:07,816
e agora non teño tempo
178
00:08:07,840 --> 00:08:10,536
pero de forma moi breve, direi isto:
179
00:08:10,560 --> 00:08:14,296
a supersabedoría é moi diferente
da superrealización.
180
00:08:14,320 --> 00:08:16,216
HAL era unha ameaza
181
00:08:16,240 --> 00:08:20,656
para a tripulación do Discovery
só se tomaba o control de toda a nave.
182
00:08:20,680 --> 00:08:23,176
O mesmo pasaría cunha superintelixencia.
183
00:08:23,200 --> 00:08:25,696
Tería que ter o dominio de todo o mundo.
184
00:08:25,720 --> 00:08:28,536
Isto é o que pasa coa Skynet
de Terminator
185
00:08:28,560 --> 00:08:30,416
onde temos unha superintelixencia
186
00:08:30,440 --> 00:08:31,816
que dirixe a vontade humana
187
00:08:31,840 --> 00:08:35,696
e cada dispositivo situado
en calquera recuncho do mundo.
188
00:08:35,720 --> 00:08:37,176
Falando dende a práctica
189
00:08:37,200 --> 00:08:39,296
isto non vai pasar.
190
00:08:39,320 --> 00:08:42,376
Non estamos deseñando IA
que controlen o clima,
191
00:08:42,400 --> 00:08:43,736
que dirixan as mareas,
192
00:08:43,760 --> 00:08:47,136
nin a nós, os caprichosos
e caóticos humanos.
193
00:08:47,160 --> 00:08:51,056
Ademais, de existir
unha intelixencia artificial así
194
00:08:51,080 --> 00:08:54,016
tería que competir coas economías humanas
195
00:08:54,040 --> 00:08:56,560
e competir con nós polos recursos.
196
00:08:57,200 --> 00:08:58,416
E á fin e ao cabo
197
00:08:58,440 --> 00:08:59,680
(non llo digan a Siri)
198
00:09:00,440 --> 00:09:01,816
podemos desconectalos.
199
00:09:03,088 --> 00:09:04,088
(risos)
200
00:09:05,360 --> 00:09:07,816
Estamos nunha incrible viaxe
de coevolución
201
00:09:07,840 --> 00:09:10,336
xunto coas nosas máquinas.
202
00:09:10,360 --> 00:09:12,856
Os humanos que somos agora
203
00:09:12,880 --> 00:09:15,416
non somos os que seremos daquela.
204
00:09:15,440 --> 00:09:18,576
Preocuparse agora
polo auxe dunha superintelixencia
205
00:09:18,600 --> 00:09:21,656
é unha distracción perigosa
206
00:09:21,680 --> 00:09:24,016
xa que o auxe da informática en si
207
00:09:24,040 --> 00:09:27,056
xa dá lugar a algúns asuntos
humanos e sociais
208
00:09:27,080 --> 00:09:28,720
aos que temos que atender.
209
00:09:29,360 --> 00:09:32,176
Como se pode organizar a sociedade
210
00:09:32,200 --> 00:09:34,536
cando diminúe
a necesidade de capital humano?
211
00:09:34,560 --> 00:09:38,376
Como podo achegarlle
compresión e educación a todo o mundo
212
00:09:38,400 --> 00:09:40,176
respectando as nosas diferenzas?
213
00:09:40,200 --> 00:09:44,456
Como podo mellorar a vida das persoas
a través da medicina cognitiva?
214
00:09:44,480 --> 00:09:47,336
Como podo utilizar a informática
215
00:09:47,360 --> 00:09:49,120
para que cheguemos ás estrelas?
216
00:09:49,760 --> 00:09:51,800
E iso é o excitante.
217
00:09:52,400 --> 00:09:54,736
As oportunidades de usar a informática
218
00:09:54,760 --> 00:09:56,616
para que progrese a experiencia humana
219
00:09:56,616 --> 00:09:57,736
están ao noso alcance
220
00:09:57,760 --> 00:09:59,616
aquí e agora
221
00:09:59,640 --> 00:10:01,320
e isto é só o comezo.
222
00:10:02,280 --> 00:10:03,496
Moitas grazas.
223
00:10:03,806 --> 00:10:06,036
(Aplausos)