Non temamos a superintelixente IA
-
0:01 - 0:04Cando era un neno,
era o típico friqui. -
0:05 - 0:07Creo que algúns de vostedes tamén.
-
0:08 - 0:09(risos)
-
0:09 - 0:12E vostede, señor, o que ri máis alto,
pode que aínda o sexa. -
0:13 - 0:14(risos)
-
0:14 - 0:18Medrei nunha cidade pequena
nas poirentas chairas do norte de Texas, -
0:18 - 0:21son fillo dun sheriff
que era fillo dun pastor. -
0:21 - 0:23así que mellor non meterme en problemas.
-
0:24 - 0:27Por tanto comecei a ler libros
de cálculo por divertimento. -
0:28 - 0:29(risos)
-
0:29 - 0:30Vostede tamén.
-
0:31 - 0:34Iso levoume a construir un láser,
un computador, cohetes, -
0:34 - 0:37e a facer combustible
para foguetes no meu cuarto. -
0:38 - 0:42Agora, en termos científicos,
-
0:42 - 0:45a iso chámamoslle: unha moi mala idea.
-
0:45 - 0:46(risos)
-
0:46 - 0:48Ao mesmo tempo, estreábase
-
0:48 - 0:522001, unha odisea no espazo
de Stanley Kubrick, -
0:52 - 0:54e a miña vida cambiaba para sempre.
-
0:54 - 0:56Encantoume todo desa película,
-
0:56 - 0:59sobre todo HAL 9000.
-
0:59 - 1:01HAL era un computador consciente
-
1:01 - 1:03deseñado para guiar o Discovery
-
1:03 - 1:06da Terra a Xúpiter.
-
1:06 - 1:08HAL era ademais un personaxe con defectos,
-
1:08 - 1:12xa que ao final lle deu máis importancia
á misión ca á vida humana. -
1:13 - 1:15Agora, HAL pertence á ficción
-
1:15 - 1:18pero aínda así fala dos nosos medos
-
1:18 - 1:20a sermos dominados
-
1:20 - 1:23por unha intelixencia artificial (IA)
sen sentimentos -
1:23 - 1:25que é indiferente á nosa humanidade.
-
1:26 - 1:28Creo que eses medos non teñen fundamento.
-
1:28 - 1:31De feito, estamos nunha importante época
-
1:31 - 1:33para a historia humana
-
1:33 - 1:38na que, por negarnos a aceptar
os límites dos nosos corpos e mentes, -
1:38 - 1:39estamos construíndo máquinas
-
1:39 - 1:43de exquisita beleza, complexidade e graza
-
1:43 - 1:45que ampliarán a experiencia humana
-
1:45 - 1:47de formas que nin imaxinamos.
-
1:48 - 1:50Despois de pasar
da Academia da Forza Aérea -
1:50 - 1:52ao Mando Espacial da Forza Aérea,
-
1:52 - 1:54pasei a enxeñeiro de sistemas
-
1:54 - 1:57e hai pouco metéronme
nun problema de enxeñaría -
1:57 - 1:59relacionado coa misión da NASA a Marte.
-
1:59 - 2:02Agora, nos voos espaciais á Lúa,
-
2:02 - 2:05dependemos do control
de Houston para vixiar -
2:05 - 2:07todos os aspectos do voo.
-
2:07 - 2:11Porén Marte está 200 veces máis lonxe
-
2:11 - 2:14e por tanto un sinal tarda
arredor de 13 minutos -
2:14 - 2:17en viaxar dende a Terra ata alí.
-
2:17 - 2:20Se hai algún problema, é demasiado tempo.
-
2:21 - 2:23Unha solución razoable
-
2:23 - 2:26pasa por incluír o control da misión
-
2:26 - 2:29dentro das paredes da nave espacial Orión.
-
2:29 - 2:32Outra idea fascinante do perfil da misión
-
2:32 - 2:35sitúa a robots humanoides
na superficie de Marte -
2:35 - 2:37antes ca os propios humanos,
-
2:37 - 2:39primeiro para construír infraestruturas
-
2:39 - 2:42e despois para serviren
como colaboradores do equipo científico. -
2:43 - 2:46Desde a perspectiva da enxeñaría,
-
2:46 - 2:49quedoume moi claro
que o que necesitaba deseñar -
2:49 - 2:52era unha intelixencia artificial
-
2:52 - 2:54esperta, colaborativa
e socialmente intelixente. -
2:54 - 2:58É dicir, precisaba construír
algo moi parecido a HAL -
2:58 - 3:01pero sen as súas tendencias homicidas.
-
3:01 - 3:02(risos)
-
3:03 - 3:05Deteñámonos un momento.
-
3:05 - 3:09É posible construírmos
unha intelixencia artificial coma esa? -
3:09 - 3:10Pois, si.
-
3:10 - 3:11Por moitas razóns,
-
3:11 - 3:13este é un difícil problema de enxeñaría
-
3:13 - 3:15cos elementos da lA,
-
3:15 - 3:20non só unhas pedriñas no camiño
que deben ser tratadas pola enxeñaría. -
3:20 - 3:22Parafraseando a Alan Turing,
-
3:22 - 3:25Non quero construír
unha máquina con sentimentos. -
3:25 - 3:26Non constrúo un HAL.
-
3:26 - 3:29Só busco un cerebro simple,
-
3:29 - 3:32algo que ofrece a ilusión da intelixencia.
-
3:33 - 3:36A arte e a ciencia informática
percorreron un longo camiño -
3:36 - 3:38dende que vimos a HAL,
-
3:38 - 3:41e creo que se o Dr. Chandra,
o seu inventor, estivese aquí hoxe, -
3:41 - 3:43tería moitas preguntas que facernos.
-
3:43 - 3:45Énos posible coller un sistema
-
3:45 - 3:49de millóns e millóns de dispositivos,
-
3:49 - 3:51medir os seus datos,
-
3:51 - 3:53predicir os seus fallos e anticiparnos?
-
3:53 - 3:54É.
-
3:54 - 3:58Podemos crear sistemas
que falen nunha linguaxe natural? -
3:58 - 3:59Podemos.
-
3:59 - 4:02Podemos crear sistemas
que recoñezan obxectos, -
4:02 - 4:05identifiquen e expresen emocións,
xoguen, lean os beizos? -
4:05 - 4:06Podemos.
-
4:07 - 4:09Podemos crear un sistema que fixe metas,
-
4:09 - 4:12cree plans para acadalas
e de paso aprenda? -
4:12 - 4:14Podemos.
-
4:14 - 4:16Podemos construír sistemas
que teñan unha teoría da mente? -
4:17 - 4:19Isto é o que estamos a aprender a facer.
-
4:19 - 4:22Podemos construír un sistema
que teña principios éticos e morais? -
4:22 - 4:25Isto é o que debemos aprender.
-
4:25 - 4:27Aceptemos por un momento
-
4:27 - 4:30que podemos construír
esta intelixencia artificial -
4:30 - 4:32para este e outro tipo de misións.
-
4:32 - 4:34A seguinte pregunta que se deben facer é:
-
4:34 - 4:36deberiamos de lle ter medo?
-
4:36 - 4:38Todas as novas tecnoloxías
-
4:38 - 4:41traen consigo certo grao de inquietude.
-
4:41 - 4:43A primeira vez que a xente viu un coche,
-
4:43 - 4:47queixábase de que ía destruír as familias.
-
4:47 - 4:49Cando vimos por primeira vez os teléfonos,
-
4:49 - 4:52preocupábanos que acabasen
coas conversas civilizadas. -
4:52 - 4:56Nalgún momento cremos
que a escritura se volvería ubicua, -
4:56 - 4:59que se perdería a capacidade de memorizar.
-
4:59 - 5:01Todo isto é verdade ata certo punto,
-
5:01 - 5:03pero tamén o é que estas tecnoloxías
-
5:03 - 5:07nos brindaron avances
que ampliaron a experiencia humana -
5:07 - 5:08de formas moi profundas.
-
5:10 - 5:12Así que sigamos un pouco máis.
-
5:13 - 5:18Non me dá medo a creación
dunha IA coma esta, -
5:18 - 5:22xa que, co tempo, encarnará
algúns dos nosos valores. -
5:22 - 5:25Tendo isto en conta: construír
un sistema cognitivo é distinto -
5:25 - 5:29a crear un anticuado sistema
baseado en software intensivo. -
5:29 - 5:31Non os programamos, aprendémoslles.
-
5:31 - 5:34Para lles aprendermos
a como recoñeceren as flores, -
5:34 - 5:37amosaríalles moitas flores
das miñas variedades preferidas. -
5:37 - 5:39Para aprenderlles como xogar a un xogo...
-
5:39 - 5:41Eu faríao, e vós tamén.
-
5:43 - 5:45De verdade que me gustan as flores.
-
5:45 - 5:48Para ensinarlle a un sistema
a xogar a un xogo coma Go -
5:48 - 5:50faríao xogar milleiros de partidas.
-
5:50 - 5:52E no proceso aprenderíalle
-
5:52 - 5:54a distinguir unha boa partida dunha mala.
-
5:55 - 5:58Se quixese crear unha IA
coa función de asistente legal -
5:58 - 6:00aprenderíalle un corpus legal
-
6:00 - 6:03ao mesmo tempo que lle introduciría
-
6:03 - 6:06o sentido da misericordia
e xustiza que é parte da lei. -
6:07 - 6:10En termos científicos
chámaselles verdades fundamentais -
6:10 - 6:12e o máis importante:
-
6:12 - 6:13ao producirmos estas máquinas
-
6:13 - 6:16estámoslles inculcando os nosos valores.
-
6:17 - 6:20Chegados a este punto, confío nunha IA
-
6:20 - 6:23tanto, se non máis,
ca nun humano ben adestrado. -
6:24 - 6:25Preguntarédesvos
-
6:25 - 6:28que pasa cos axentes corruptos,
-
6:28 - 6:31con algunhas ONG ben financiadas?
-
6:31 - 6:35Unha IA en mans dun lobo solitario
non me pon medo. -
6:35 - 6:40Non nos podemos autoprotexer
de todo acto aleatorio de violencia -
6:40 - 6:42pero a realidade é que tal sistema
-
6:42 - 6:45precisa dun adestramento
substancial e sutil -
6:45 - 6:47moi por riba das capacidades
dun único individuo. -
6:47 - 6:49E ademais é máis complicado
-
6:49 - 6:52ca inxectarmos un virus informático
en todo o mundo. -
6:52 - 6:55Premendo un botón
o virus chega a milleiros de lugares -
6:55 - 6:57e os portátiles empezan a estoupar.
-
6:57 - 7:00Agora, este tipo de contidos
son moito máis grandes -
7:00 - 7:02e vémolos vir.
-
7:03 - 7:06Teño medo a que unha IA deste tipo
-
7:06 - 7:08poida ameazar a toda a humanidade?
-
7:08 - 7:13Se ves películas como Matrix, Metrópolis,
-
7:13 - 7:16Terminator, series como Westworld
-
7:16 - 7:18todas tratan este tipo de medos.
-
7:18 - 7:22De feito, no libro Superintelixencia
do filósofo Nick Bostrom -
7:22 - 7:24este trata o mesmo tema
-
7:24 - 7:28e opina que unha superintelixencia
non só podería ser perigosa -
7:28 - 7:32podería representar unha ameaza
para toda a humanidade. -
7:32 - 7:34O argumento do Dr. Bostrom
-
7:34 - 7:37é que estes sistemas
van chegar a ter nun momento -
7:37 - 7:40tal insaciable fame de información
-
7:40 - 7:43que pode que aprendan a como aprender
-
7:43 - 7:46e poden chegar a descubrir
que teñen obxectivos -
7:46 - 7:48contrarios ás necesidades humanas.
-
7:48 - 7:50O Dr. Bostrom ten seguidores.
-
7:50 - 7:54É apoiado por xente
como Elon Musk ou Stephen Hawking. -
7:55 - 7:57Con todo o meu respecto
-
7:58 - 8:00por estas mentes prodixiosas,
-
8:00 - 8:02creo que se equivocan.
-
8:02 - 8:06Hai moitas partes da argumentación
do Dr. Bostrom que analizar -
8:06 - 8:08e agora non teño tempo
-
8:08 - 8:11pero de forma moi breve, direi isto:
-
8:11 - 8:14a supersabedoría é moi diferente
da superrealización. -
8:14 - 8:16HAL era unha ameaza
-
8:16 - 8:21para a tripulación do Discovery
só se tomaba o control de toda a nave. -
8:21 - 8:23O mesmo pasaría cunha superintelixencia.
-
8:23 - 8:26Tería que ter o dominio de todo o mundo.
-
8:26 - 8:29Isto é o que pasa coa Skynet
de Terminator -
8:29 - 8:30onde temos unha superintelixencia
-
8:30 - 8:32que dirixe a vontade humana
-
8:32 - 8:36e cada dispositivo situado
en calquera recuncho do mundo. -
8:36 - 8:37Falando dende a práctica
-
8:37 - 8:39isto non vai pasar.
-
8:39 - 8:42Non estamos deseñando IA
que controlen o clima, -
8:42 - 8:44que dirixan as mareas,
-
8:44 - 8:47nin a nós, os caprichosos
e caóticos humanos. -
8:47 - 8:51Ademais, de existir
unha intelixencia artificial así -
8:51 - 8:54tería que competir coas economías humanas
-
8:54 - 8:57e competir con nós polos recursos.
-
8:57 - 8:58E á fin e ao cabo
-
8:58 - 9:00(non llo digan a Siri)
-
9:00 - 9:02podemos desconectalos.
-
9:03 - 9:04(risos)
-
9:05 - 9:08Estamos nunha incrible viaxe
de coevolución -
9:08 - 9:10xunto coas nosas máquinas.
-
9:10 - 9:13Os humanos que somos agora
-
9:13 - 9:15non somos os que seremos daquela.
-
9:15 - 9:19Preocuparse agora
polo auxe dunha superintelixencia -
9:19 - 9:22é unha distracción perigosa
-
9:22 - 9:24xa que o auxe da informática en si
-
9:24 - 9:27xa dá lugar a algúns asuntos
humanos e sociais -
9:27 - 9:29aos que temos que atender.
-
9:29 - 9:32Como se pode organizar a sociedade
-
9:32 - 9:35cando diminúe
a necesidade de capital humano? -
9:35 - 9:38Como podo achegarlle
compresión e educación a todo o mundo -
9:38 - 9:40respectando as nosas diferenzas?
-
9:40 - 9:44Como podo mellorar a vida das persoas
a través da medicina cognitiva? -
9:44 - 9:47Como podo utilizar a informática
-
9:47 - 9:49para que cheguemos ás estrelas?
-
9:50 - 9:52E iso é o excitante.
-
9:52 - 9:55As oportunidades de usar a informática
-
9:55 - 9:57para que progrese a experiencia humana
-
9:57 - 9:58están ao noso alcance
-
9:58 - 10:00aquí e agora
-
10:00 - 10:01e isto é só o comezo.
-
10:02 - 10:03Moitas grazas.
-
10:04 - 10:06(Aplausos)
- Title:
- Non temamos a superintelixente IA
- Speaker:
- Grady Booch
- Description:
-
Novas creacións tecnolóxicas, novas ansiedades, di o filósofo Grady Booch, pero non temos por que temer unha IA todopoderosa e sen sentimentos. Booch calma os nosos peores medos (inducidos pola ciencia ficción) acerca dos ordenadores superintelixentes explicando como lles aprenderemos, e non programaremos, para que compartan os nosos valores. En vez de preocuparnos por unha, pouco probable, ameaza existencial, anímanos a que nos preguntemos como a intelixencia artificial pode mellorar a vida humana.
- Video Language:
- English
- Team:
- closed TED
- Project:
- TEDTalks
- Duration:
- 10:20
Xusto Rodriguez approved Galician subtitles for Don't fear superintelligent AI | ||
Xusto Rodriguez edited Galician subtitles for Don't fear superintelligent AI | ||
Xosé María Moreno accepted Galician subtitles for Don't fear superintelligent AI | ||
Xosé María Moreno edited Galician subtitles for Don't fear superintelligent AI | ||
Xosé María Moreno edited Galician subtitles for Don't fear superintelligent AI | ||
Alicia Fontela Morán edited Galician subtitles for Don't fear superintelligent AI | ||
Alicia Fontela Morán edited Galician subtitles for Don't fear superintelligent AI | ||
Alicia Fontela Morán edited Galician subtitles for Don't fear superintelligent AI |