Return to Video

Non temamos a superintelixente IA

  • 0:01 - 0:04
    Cando era un neno,
    era o típico friqui.
  • 0:05 - 0:07
    Creo que algúns de vostedes tamén.
  • 0:08 - 0:09
    (risos)
  • 0:09 - 0:12
    E vostede, señor, o que ri máis alto,
    pode que aínda o sexa.
  • 0:13 - 0:14
    (risos)
  • 0:14 - 0:18
    Medrei nunha cidade pequena
    nas poirentas chairas do norte de Texas,
  • 0:18 - 0:21
    son fillo dun sheriff
    que era fillo dun pastor.
  • 0:21 - 0:23
    así que mellor non meterme en problemas.
  • 0:24 - 0:27
    Por tanto comecei a ler libros
    de cálculo por divertimento.
  • 0:28 - 0:29
    (risos)
  • 0:29 - 0:30
    Vostede tamén.
  • 0:31 - 0:34
    Iso levoume a construir un láser,
    un computador, cohetes,
  • 0:34 - 0:37
    e a facer combustible
    para foguetes no meu cuarto.
  • 0:38 - 0:42
    Agora, en termos científicos,
  • 0:42 - 0:45
    a iso chámamoslle: unha moi mala idea.
  • 0:45 - 0:46
    (risos)
  • 0:46 - 0:48
    Ao mesmo tempo, estreábase
  • 0:48 - 0:52
    2001, unha odisea no espazo
    de Stanley Kubrick,
  • 0:52 - 0:54
    e a miña vida cambiaba para sempre.
  • 0:54 - 0:56
    Encantoume todo desa película,
  • 0:56 - 0:59
    sobre todo HAL 9000.
  • 0:59 - 1:01
    HAL era un computador consciente
  • 1:01 - 1:03
    deseñado para guiar o Discovery
  • 1:03 - 1:06
    da Terra a Xúpiter.
  • 1:06 - 1:08
    HAL era ademais un personaxe con defectos,
  • 1:08 - 1:12
    xa que ao final lle deu máis importancia
    á misión ca á vida humana.
  • 1:13 - 1:15
    Agora, HAL pertence á ficción
  • 1:15 - 1:18
    pero aínda así fala dos nosos medos
  • 1:18 - 1:20
    a sermos dominados
  • 1:20 - 1:23
    por unha intelixencia artificial (IA)
    sen sentimentos
  • 1:23 - 1:25
    que é indiferente á nosa humanidade.
  • 1:26 - 1:28
    Creo que eses medos non teñen fundamento.
  • 1:28 - 1:31
    De feito, estamos nunha importante época
  • 1:31 - 1:33
    para a historia humana
  • 1:33 - 1:38
    na que, por negarnos a aceptar
    os límites dos nosos corpos e mentes,
  • 1:38 - 1:39
    estamos construíndo máquinas
  • 1:39 - 1:43
    de exquisita beleza, complexidade e graza
  • 1:43 - 1:45
    que ampliarán a experiencia humana
  • 1:45 - 1:47
    de formas que nin imaxinamos.
  • 1:48 - 1:50
    Despois de pasar
    da Academia da Forza Aérea
  • 1:50 - 1:52
    ao Mando Espacial da Forza Aérea,
  • 1:52 - 1:54
    pasei a enxeñeiro de sistemas
  • 1:54 - 1:57
    e hai pouco metéronme
    nun problema de enxeñaría
  • 1:57 - 1:59
    relacionado coa misión da NASA a Marte.
  • 1:59 - 2:02
    Agora, nos voos espaciais á Lúa,
  • 2:02 - 2:05
    dependemos do control
    de Houston para vixiar
  • 2:05 - 2:07
    todos os aspectos do voo.
  • 2:07 - 2:11
    Porén Marte está 200 veces máis lonxe
  • 2:11 - 2:14
    e por tanto un sinal tarda
    arredor de 13 minutos
  • 2:14 - 2:17
    en viaxar dende a Terra ata alí.
  • 2:17 - 2:20
    Se hai algún problema, é demasiado tempo.
  • 2:21 - 2:23
    Unha solución razoable
  • 2:23 - 2:26
    pasa por incluír o control da misión
  • 2:26 - 2:29
    dentro das paredes da nave espacial Orión.
  • 2:29 - 2:32
    Outra idea fascinante do perfil da misión
  • 2:32 - 2:35
    sitúa a robots humanoides
    na superficie de Marte
  • 2:35 - 2:37
    antes ca os propios humanos,
  • 2:37 - 2:39
    primeiro para construír infraestruturas
  • 2:39 - 2:42
    e despois para serviren
    como colaboradores do equipo científico.
  • 2:43 - 2:46
    Desde a perspectiva da enxeñaría,
  • 2:46 - 2:49
    quedoume moi claro
    que o que necesitaba deseñar
  • 2:49 - 2:52
    era unha intelixencia artificial
  • 2:52 - 2:54
    esperta, colaborativa
    e socialmente intelixente.
  • 2:54 - 2:58
    É dicir, precisaba construír
    algo moi parecido a HAL
  • 2:58 - 3:01
    pero sen as súas tendencias homicidas.
  • 3:01 - 3:02
    (risos)
  • 3:03 - 3:05
    Deteñámonos un momento.
  • 3:05 - 3:09
    É posible construírmos
    unha intelixencia artificial coma esa?
  • 3:09 - 3:10
    Pois, si.
  • 3:10 - 3:11
    Por moitas razóns,
  • 3:11 - 3:13
    este é un difícil problema de enxeñaría
  • 3:13 - 3:15
    cos elementos da lA,
  • 3:15 - 3:20
    non só unhas pedriñas no camiño
    que deben ser tratadas pola enxeñaría.
  • 3:20 - 3:22
    Parafraseando a Alan Turing,
  • 3:22 - 3:25
    Non quero construír
    unha máquina con sentimentos.
  • 3:25 - 3:26
    Non constrúo un HAL.
  • 3:26 - 3:29
    Só busco un cerebro simple,
  • 3:29 - 3:32
    algo que ofrece a ilusión da intelixencia.
  • 3:33 - 3:36
    A arte e a ciencia informática
    percorreron un longo camiño
  • 3:36 - 3:38
    dende que vimos a HAL,
  • 3:38 - 3:41
    e creo que se o Dr. Chandra,
    o seu inventor, estivese aquí hoxe,
  • 3:41 - 3:43
    tería moitas preguntas que facernos.
  • 3:43 - 3:45
    Énos posible coller un sistema
  • 3:45 - 3:49
    de millóns e millóns de dispositivos,
  • 3:49 - 3:51
    medir os seus datos,
  • 3:51 - 3:53
    predicir os seus fallos e anticiparnos?
  • 3:53 - 3:54
    É.
  • 3:54 - 3:58
    Podemos crear sistemas
    que falen nunha linguaxe natural?
  • 3:58 - 3:59
    Podemos.
  • 3:59 - 4:02
    Podemos crear sistemas
    que recoñezan obxectos,
  • 4:02 - 4:05
    identifiquen e expresen emocións,
    xoguen, lean os beizos?
  • 4:05 - 4:06
    Podemos.
  • 4:07 - 4:09
    Podemos crear un sistema que fixe metas,
  • 4:09 - 4:12
    cree plans para acadalas
    e de paso aprenda?
  • 4:12 - 4:14
    Podemos.
  • 4:14 - 4:16
    Podemos construír sistemas
    que teñan unha teoría da mente?
  • 4:17 - 4:19
    Isto é o que estamos a aprender a facer.
  • 4:19 - 4:22
    Podemos construír un sistema
    que teña principios éticos e morais?
  • 4:22 - 4:25
    Isto é o que debemos aprender.
  • 4:25 - 4:27
    Aceptemos por un momento
  • 4:27 - 4:30
    que podemos construír
    esta intelixencia artificial
  • 4:30 - 4:32
    para este e outro tipo de misións.
  • 4:32 - 4:34
    A seguinte pregunta que se deben facer é:
  • 4:34 - 4:36
    deberiamos de lle ter medo?
  • 4:36 - 4:38
    Todas as novas tecnoloxías
  • 4:38 - 4:41
    traen consigo certo grao de inquietude.
  • 4:41 - 4:43
    A primeira vez que a xente viu un coche,
  • 4:43 - 4:47
    queixábase de que ía destruír as familias.
  • 4:47 - 4:49
    Cando vimos por primeira vez os teléfonos,
  • 4:49 - 4:52
    preocupábanos que acabasen
    coas conversas civilizadas.
  • 4:52 - 4:56
    Nalgún momento cremos
    que a escritura se volvería ubicua,
  • 4:56 - 4:59
    que se perdería a capacidade de memorizar.
  • 4:59 - 5:01
    Todo isto é verdade ata certo punto,
  • 5:01 - 5:03
    pero tamén o é que estas tecnoloxías
  • 5:03 - 5:07
    nos brindaron avances
    que ampliaron a experiencia humana
  • 5:07 - 5:08
    de formas moi profundas.
  • 5:10 - 5:12
    Así que sigamos un pouco máis.
  • 5:13 - 5:18
    Non me dá medo a creación
    dunha IA coma esta,
  • 5:18 - 5:22
    xa que, co tempo, encarnará
    algúns dos nosos valores.
  • 5:22 - 5:25
    Tendo isto en conta: construír
    un sistema cognitivo é distinto
  • 5:25 - 5:29
    a crear un anticuado sistema
    baseado en software intensivo.
  • 5:29 - 5:31
    Non os programamos, aprendémoslles.
  • 5:31 - 5:34
    Para lles aprendermos
    a como recoñeceren as flores,
  • 5:34 - 5:37
    amosaríalles moitas flores
    das miñas variedades preferidas.
  • 5:37 - 5:39
    Para aprenderlles como xogar a un xogo...
  • 5:39 - 5:41
    Eu faríao, e vós tamén.
  • 5:43 - 5:45
    De verdade que me gustan as flores.
  • 5:45 - 5:48
    Para ensinarlle a un sistema
    a xogar a un xogo coma Go
  • 5:48 - 5:50
    faríao xogar milleiros de partidas.
  • 5:50 - 5:52
    E no proceso aprenderíalle
  • 5:52 - 5:54
    a distinguir unha boa partida dunha mala.
  • 5:55 - 5:58
    Se quixese crear unha IA
    coa función de asistente legal
  • 5:58 - 6:00
    aprenderíalle un corpus legal
  • 6:00 - 6:03
    ao mesmo tempo que lle introduciría
  • 6:03 - 6:06
    o sentido da misericordia
    e xustiza que é parte da lei.
  • 6:07 - 6:10
    En termos científicos
    chámaselles verdades fundamentais
  • 6:10 - 6:12
    e o máis importante:
  • 6:12 - 6:13
    ao producirmos estas máquinas
  • 6:13 - 6:16
    estámoslles inculcando os nosos valores.
  • 6:17 - 6:20
    Chegados a este punto, confío nunha IA
  • 6:20 - 6:23
    tanto, se non máis,
    ca nun humano ben adestrado.
  • 6:24 - 6:25
    Preguntarédesvos
  • 6:25 - 6:28
    que pasa cos axentes corruptos,
  • 6:28 - 6:31
    con algunhas ONG ben financiadas?
  • 6:31 - 6:35
    Unha IA en mans dun lobo solitario
    non me pon medo.
  • 6:35 - 6:40
    Non nos podemos autoprotexer
    de todo acto aleatorio de violencia
  • 6:40 - 6:42
    pero a realidade é que tal sistema
  • 6:42 - 6:45
    precisa dun adestramento
    substancial e sutil
  • 6:45 - 6:47
    moi por riba das capacidades
    dun único individuo.
  • 6:47 - 6:49
    E ademais é máis complicado
  • 6:49 - 6:52
    ca inxectarmos un virus informático
    en todo o mundo.
  • 6:52 - 6:55
    Premendo un botón
    o virus chega a milleiros de lugares
  • 6:55 - 6:57
    e os portátiles empezan a estoupar.
  • 6:57 - 7:00
    Agora, este tipo de contidos
    son moito máis grandes
  • 7:00 - 7:02
    e vémolos vir.
  • 7:03 - 7:06
    Teño medo a que unha IA deste tipo
  • 7:06 - 7:08
    poida ameazar a toda a humanidade?
  • 7:08 - 7:13
    Se ves películas como Matrix, Metrópolis,
  • 7:13 - 7:16
    Terminator, series como Westworld
  • 7:16 - 7:18
    todas tratan este tipo de medos.
  • 7:18 - 7:22
    De feito, no libro Superintelixencia
    do filósofo Nick Bostrom
  • 7:22 - 7:24
    este trata o mesmo tema
  • 7:24 - 7:28
    e opina que unha superintelixencia
    non só podería ser perigosa
  • 7:28 - 7:32
    podería representar unha ameaza
    para toda a humanidade.
  • 7:32 - 7:34
    O argumento do Dr. Bostrom
  • 7:34 - 7:37
    é que estes sistemas
    van chegar a ter nun momento
  • 7:37 - 7:40
    tal insaciable fame de información
  • 7:40 - 7:43
    que pode que aprendan a como aprender
  • 7:43 - 7:46
    e poden chegar a descubrir
    que teñen obxectivos
  • 7:46 - 7:48
    contrarios ás necesidades humanas.
  • 7:48 - 7:50
    O Dr. Bostrom ten seguidores.
  • 7:50 - 7:54
    É apoiado por xente
    como Elon Musk ou Stephen Hawking.
  • 7:55 - 7:57
    Con todo o meu respecto
  • 7:58 - 8:00
    por estas mentes prodixiosas,
  • 8:00 - 8:02
    creo que se equivocan.
  • 8:02 - 8:06
    Hai moitas partes da argumentación
    do Dr. Bostrom que analizar
  • 8:06 - 8:08
    e agora non teño tempo
  • 8:08 - 8:11
    pero de forma moi breve, direi isto:
  • 8:11 - 8:14
    a supersabedoría é moi diferente
    da superrealización.
  • 8:14 - 8:16
    HAL era unha ameaza
  • 8:16 - 8:21
    para a tripulación do Discovery
    só se tomaba o control de toda a nave.
  • 8:21 - 8:23
    O mesmo pasaría cunha superintelixencia.
  • 8:23 - 8:26
    Tería que ter o dominio de todo o mundo.
  • 8:26 - 8:29
    Isto é o que pasa coa Skynet
    de Terminator
  • 8:29 - 8:30
    onde temos unha superintelixencia
  • 8:30 - 8:32
    que dirixe a vontade humana
  • 8:32 - 8:36
    e cada dispositivo situado
    en calquera recuncho do mundo.
  • 8:36 - 8:37
    Falando dende a práctica
  • 8:37 - 8:39
    isto non vai pasar.
  • 8:39 - 8:42
    Non estamos deseñando IA
    que controlen o clima,
  • 8:42 - 8:44
    que dirixan as mareas,
  • 8:44 - 8:47
    nin a nós, os caprichosos
    e caóticos humanos.
  • 8:47 - 8:51
    Ademais, de existir
    unha intelixencia artificial así
  • 8:51 - 8:54
    tería que competir coas economías humanas
  • 8:54 - 8:57
    e competir con nós polos recursos.
  • 8:57 - 8:58
    E á fin e ao cabo
  • 8:58 - 9:00
    (non llo digan a Siri)
  • 9:00 - 9:02
    podemos desconectalos.
  • 9:03 - 9:04
    (risos)
  • 9:05 - 9:08
    Estamos nunha incrible viaxe
    de coevolución
  • 9:08 - 9:10
    xunto coas nosas máquinas.
  • 9:10 - 9:13
    Os humanos que somos agora
  • 9:13 - 9:15
    non somos os que seremos daquela.
  • 9:15 - 9:19
    Preocuparse agora
    polo auxe dunha superintelixencia
  • 9:19 - 9:22
    é unha distracción perigosa
  • 9:22 - 9:24
    xa que o auxe da informática en si
  • 9:24 - 9:27
    xa dá lugar a algúns asuntos
    humanos e sociais
  • 9:27 - 9:29
    aos que temos que atender.
  • 9:29 - 9:32
    Como se pode organizar a sociedade
  • 9:32 - 9:35
    cando diminúe
    a necesidade de capital humano?
  • 9:35 - 9:38
    Como podo achegarlle
    compresión e educación a todo o mundo
  • 9:38 - 9:40
    respectando as nosas diferenzas?
  • 9:40 - 9:44
    Como podo mellorar a vida das persoas
    a través da medicina cognitiva?
  • 9:44 - 9:47
    Como podo utilizar a informática
  • 9:47 - 9:49
    para que cheguemos ás estrelas?
  • 9:50 - 9:52
    E iso é o excitante.
  • 9:52 - 9:55
    As oportunidades de usar a informática
  • 9:55 - 9:57
    para que progrese a experiencia humana
  • 9:57 - 9:58
    están ao noso alcance
  • 9:58 - 10:00
    aquí e agora
  • 10:00 - 10:01
    e isto é só o comezo.
  • 10:02 - 10:03
    Moitas grazas.
  • 10:04 - 10:06
    (Aplausos)
Title:
Non temamos a superintelixente IA
Speaker:
Grady Booch
Description:

Novas creacións tecnolóxicas, novas ansiedades, di o filósofo Grady Booch, pero non temos por que temer unha IA todopoderosa e sen sentimentos. Booch calma os nosos peores medos (inducidos pola ciencia ficción) acerca dos ordenadores superintelixentes explicando como lles aprenderemos, e non programaremos, para que compartan os nosos valores. En vez de preocuparnos por unha, pouco probable, ameaza existencial, anímanos a que nos preguntemos como a intelixencia artificial pode mellorar a vida humana.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20
Xusto Rodriguez approved Galician subtitles for Don't fear superintelligent AI
Xusto Rodriguez edited Galician subtitles for Don't fear superintelligent AI
Xosé María Moreno accepted Galician subtitles for Don't fear superintelligent AI
Xosé María Moreno edited Galician subtitles for Don't fear superintelligent AI
Xosé María Moreno edited Galician subtitles for Don't fear superintelligent AI
Alicia Fontela Morán edited Galician subtitles for Don't fear superintelligent AI
Alicia Fontela Morán edited Galician subtitles for Don't fear superintelligent AI
Alicia Fontela Morán edited Galician subtitles for Don't fear superintelligent AI
Show all

Galician subtitles

Revisions