Return to Video

No le teman a la superinteligente IA

  • 0:00 - 0:05
    Cuando era niño,
    era un nerd por excelencia.
  • 0:05 - 0:07
    Creo que algunos de Uds. también.
  • 0:08 - 0:09
    (Risas)
  • 0:09 - 0:12
    Y Ud. señor, el que se rio más fuerte,
    probablemente aún lo sea.
  • 0:12 - 0:14
    (Risas)
  • 0:14 - 0:18
    Crecí en un pueblo pequeño
    en los llanos del norte de Tejas,
  • 0:18 - 0:21
    hijo de un comisario,
    que fue hijo de un pastor.
  • 0:21 - 0:23
    Meterse en problemas
    no era una opción.
  • 0:24 - 0:27
    Así es que comencé a
    leer libros de cálculo por diversión.
  • 0:27 - 0:29
    (Risas)
  • 0:29 - 0:31
    Uds. también lo hicieron.
  • 0:31 - 0:34
    Eso me llevó a crear un láser,
    una computadora y modelos de cohetes,
  • 0:34 - 0:37
    y eso me llevó a hacer
    combustible para cohetes en mi habitación.
  • 0:38 - 0:42
    En términos científicos,
  • 0:42 - 0:45
    esta es una muy mala idea.
  • 0:45 - 0:46
    (Risas)
  • 0:46 - 0:48
    Por esos días
  • 0:48 - 0:52
    se estrenó "2001: Una Odisea
    en el Espacio" de Stanley Kubrick,
  • 0:52 - 0:54
    y mi vida cambió para siempre.
  • 0:54 - 0:56
    Me encantó todo de esa película,
  • 0:56 - 0:59
    especialmente el HAL 9000.
  • 0:59 - 1:01
    HAL era un computador sensible
  • 1:01 - 1:03
    diseñado para guiar
    la aeronave Discovery
  • 1:03 - 1:06
    de la Tierra a Júpiter.
  • 1:06 - 1:08
    HAL además era imperfecto,
  • 1:08 - 1:12
    porque eligió el valor de la misión
    sobre la vida humana.
  • 1:13 - 1:15
    HAL era un personaje ficticio,
  • 1:15 - 1:18
    y sin embargo habla sobre
    nuestros temores,
  • 1:18 - 1:20
    nuestros temores a ser subyugados
  • 1:20 - 1:23
    por alguna insensible
    inteligencia artificial
  • 1:23 - 1:25
    indiferente a nuestra humanidad.
  • 1:26 - 1:28
    Creo que esos temores
    son infundados.
  • 1:28 - 1:31
    De hecho, estamos en un tiempo notable
  • 1:31 - 1:33
    en la historia de la humanidad,
  • 1:33 - 1:38
    donde, motivados por la negación a
    aceptar los límites del cuerpo y mente,
  • 1:38 - 1:39
    construimos máquinas
  • 1:39 - 1:43
    de complejidad y gracia
    exquisita y hermosa
  • 1:43 - 1:45
    que expanden la experiencia humana
  • 1:45 - 1:47
    más allá de nuestra imaginación.
  • 1:47 - 1:50
    Tras una carrera que me llevó
    de la Academia de la Fuerza Aérea
  • 1:50 - 1:52
    a comandante de estación espacial,
  • 1:52 - 1:54
    me volví ingeniero de sistemas,
  • 1:54 - 1:57
    y recientemente me encontré
    con un problema de ingeniería
  • 1:57 - 1:59
    relacionado con la misión
    de la NASA a Marte.
  • 1:59 - 2:02
    En vuelos espaciales a la Luna,
  • 2:02 - 2:05
    dependemos del control
    de la misión en Houston
  • 2:05 - 2:07
    para vigilar todos los aspectos
    de un vuelo.
  • 2:07 - 2:11
    Sin embargo,
    Marte está 200 veces más lejos,
  • 2:11 - 2:14
    como resultado toma
    en promedio 13 minutos
  • 2:14 - 2:17
    para que una señal viaje
    de la Tierra a Marte.
  • 2:17 - 2:20
    Si hay algún percance,
    no hay suficiente tiempo.
  • 2:21 - 2:23
    Una solución razonable de ingeniería
  • 2:23 - 2:26
    nos incita a instalar
    el control de la misión
  • 2:26 - 2:29
    dentro de las paredes de
    la aeronave Orión.
  • 2:29 - 2:32
    Otra idea fascinante
    en el perfil de la misión
  • 2:32 - 2:35
    es colocar robots humanoides
    en la superficie de Marte
  • 2:35 - 2:37
    antes de que los humanos mismos lleguen,
  • 2:37 - 2:39
    primero para construir instalaciones
  • 2:39 - 2:42
    y luego para servir como colaboradores
    en el equipo científico.
  • 2:43 - 2:46
    Al mirar esto desde
    la ingeniería,
  • 2:46 - 2:49
    me quedó claro que
    lo que necesitaba diseñar
  • 2:49 - 2:52
    era una inteligencia artificial muy lista,
  • 2:52 - 2:54
    colaborativa y social.
  • 2:54 - 2:58
    En otras palabras, necesitaba construir
    algo muy parecido a HAL
  • 2:58 - 3:01
    pero sin las tendencias homicidas.
  • 3:01 - 3:02
    (Risas)
  • 3:03 - 3:05
    Detengámonos un momento.
  • 3:05 - 3:09
    ¿Es realmente posible
    construir inteligencia artificial así?
  • 3:09 - 3:10
    De hecho, sí lo es.
  • 3:10 - 3:11
    En muchas maneras,
  • 3:11 - 3:13
    este es un problema difícil
    de la ingeniería
  • 3:13 - 3:15
    con elementos de IA,
  • 3:15 - 3:20
    no es un simple problema de IA
    que necesite diseñarse.
  • 3:20 - 3:22
    Parafraseando a Alan Turing,
  • 3:22 - 3:25
    no me interesa construir
    una máquina sensible.
  • 3:25 - 3:26
    No voy a construir un HAL.
  • 3:26 - 3:29
    Todo lo que busco es
    un cerebro sencillo,
  • 3:29 - 3:32
    algo que ofrezca
    una ilusión de inteligencia.
  • 3:33 - 3:36
    El arte y la ciencia de la computación
    ha pasado por mucho
  • 3:36 - 3:38
    desde la aparición de HAL,
  • 3:38 - 3:41
    e imagino que si su inventor
    Dr. Chandra estuviera aquí hoy,
  • 3:41 - 3:43
    tendría mucho que preguntarnos.
  • 3:43 - 3:45
    ¿Es realmente posible
  • 3:45 - 3:49
    tomar un sistema de millones
    y millones de dispositivos,
  • 3:49 - 3:51
    para leer flujos de datos,
  • 3:51 - 3:53
    para predecir fallas y
    actuar con antelación?
  • 3:53 - 3:54
    Sí.
  • 3:54 - 3:58
    ¿Podemos construir sistemas que
    se comuniquen con humanos?
  • 3:58 - 3:59
    Sí.
  • 3:59 - 4:02
    ¿Podemos construir sistemas que
    reconozcan objetos, emociones,
  • 4:02 - 4:05
    que se emocionen, jueguen e incluso
    que lean los labios?
  • 4:05 - 4:06
    Sí.
  • 4:06 - 4:09
    ¿Podemos construir un sistema
    que fije objetivos,
  • 4:09 - 4:12
    que lleve a cabo planes contra esos
    objetivos y siga aprendiendo más?
  • 4:12 - 4:14
    Sí.
  • 4:14 - 4:17
    ¿Podemos construir sistemas
    que piensen por sí mismos?
  • 4:17 - 4:18
    Estamos aprendiendo a hacerlo.
  • 4:18 - 4:22
    ¿Podemos construir sistemas
    con fundamentos éticos y morales?
  • 4:22 - 4:25
    Debemos aprender cómo hacerlo.
  • 4:25 - 4:27
    Aceptemos por un momento
  • 4:27 - 4:30
    que es posible construir
    tal inteligencia artificial
  • 4:30 - 4:32
    para estas misiones y otras.
  • 4:32 - 4:34
    La siguiente pregunta que
    deben formularse es,
  • 4:34 - 4:36
    ¿deberíamos temerle?
  • 4:36 - 4:38
    Toda nueva tecnología
  • 4:38 - 4:41
    trae consigo algunos temores.
  • 4:41 - 4:42
    Cuando vimos autos por primera vez,
  • 4:43 - 4:47
    la gente temía que viéramos
    la destrucción de la familia.
  • 4:47 - 4:49
    Cuando se inventaron los teléfonos,
  • 4:49 - 4:52
    la gente temía que arruinara
    la conversación civilizada.
  • 4:52 - 4:56
    En algún momento, vimos a la palabra
    escrita aparecer en todos lados,
  • 4:56 - 4:59
    la gente creyó que perderíamos
    la habilidad de memorizar.
  • 4:59 - 5:01
    Todo esto es cierto hasta cierto grado,
  • 5:01 - 5:03
    pero estas tecnologías también
  • 5:03 - 5:07
    nos dieron cosas que expandieron
    la experiencia humana
  • 5:07 - 5:08
    de manera profunda.
  • 5:10 - 5:12
    Así que vayamos más lejos.
  • 5:13 - 5:18
    No temo la creación de una IA así,
  • 5:18 - 5:22
    porque finalmente encarnará
    algunos de nuestros valores.
  • 5:22 - 5:25
    Consideren lo siguiente: construir un
    sistema cognitivo es muy distinto
  • 5:25 - 5:29
    a construir uno tradicional
    intensivo en software como en el pasado.
  • 5:29 - 5:31
    No los programamos. Les enseñamos.
  • 5:31 - 5:34
    Para enseñarle a un sistema
    a reconocer flores,
  • 5:34 - 5:37
    le muestro miles de flores que me gustan.
  • 5:37 - 5:39
    Para enseñarle a jugar...
  • 5:39 - 5:41
    Bueno, lo haría y Uds. también.
  • 5:43 - 5:45
    Me gustan las flores.
  • 5:45 - 5:48
    Para enseñarle a un sistema
    a jugar un juego como Go,
  • 5:48 - 5:50
    lo pondría a jugar
    miles de juegos de Go,
  • 5:50 - 5:52
    y en el proceso
    también le enseñaría
  • 5:52 - 5:54
    a discernir un buen juego
    de uno malo.
  • 5:55 - 5:58
    Si quiero crear un asistente legal
    con inteligencia artificial,
  • 5:58 - 6:00
    le enseñaría algo del
    corpus legislativo
  • 6:00 - 6:03
    combinando al mismo tiempo
  • 6:03 - 6:06
    el sentido de la piedad y la justicia
    que también son parte de la ley.
  • 6:07 - 6:10
    En términos científicos,
    lo llamamos verdad en tierra firme,
  • 6:10 - 6:12
    este es el punto importante:
  • 6:12 - 6:13
    al producir estas máquinas,
  • 6:13 - 6:16
    les estamos enseñando también
    el sentido de nuestros valores.
  • 6:17 - 6:20
    Para este fin,
    confío en la inteligencia artificial
  • 6:20 - 6:23
    tanto, si no más, que en
    un humano bien entrenado.
  • 6:24 - 6:25
    Quizá se pregunten
  • 6:25 - 6:28
    ¿qué hay de los agentes rebeldes,
  • 6:28 - 6:31
    algunas organizaciones sólidas
    no gubernamentales?
  • 6:31 - 6:35
    No le temo a la inteligencia artificial
    en manos de un lobo solitario.
  • 6:35 - 6:40
    Claramente no podemos protegernos
    de todo tipo de violencia,
  • 6:40 - 6:42
    en realidad, un sistema así
  • 6:42 - 6:45
    requiere entrenamiento importante y sutil
  • 6:45 - 6:47
    más allá de los recursos de un individuo.
  • 6:47 - 6:49
    Además,
  • 6:49 - 6:52
    se trata de algo más que inyectar
    un virus en el internet global,
  • 6:52 - 6:55
    donde al presionar un botón,
    se esparce a millones de lugares
  • 6:55 - 6:57
    y las laptops comienzan a estallar
    en pedazos.
  • 6:57 - 7:00
    Este tipo de sustancias son más grandes
  • 7:00 - 7:02
    y se les ve venir.
  • 7:03 - 7:06
    ¿Temo que ese tipo de
    inteligencia artificial
  • 7:06 - 7:08
    amenace a la humanidad?
  • 7:08 - 7:13
    Si miran películas
    como "Matrix", "Metrópolis",
  • 7:13 - 7:16
    "Terminator" y shows como "Westworld",
  • 7:16 - 7:18
    todos hablan de este miedo.
  • 7:18 - 7:22
    El libro "Superinteligencia"
    del filósofo Nick Bostrom,
  • 7:22 - 7:24
    habla de este tema
  • 7:24 - 7:28
    y opina que una superinteligencia
    no solo puede ser peligrosa,
  • 7:28 - 7:32
    sino que podría representar
    una amenaza existencial para la humanidad.
  • 7:32 - 7:34
    El argumento fundamental del Dr. Bostrom
  • 7:34 - 7:37
    es que dichos sistemas finalmente
  • 7:37 - 7:40
    tendrán una necesidad insaciable
    de información
  • 7:40 - 7:43
    que quizá aprendan cómo aprender
  • 7:43 - 7:46
    y finalmente descubran
    que pueden tener objetivos
  • 7:46 - 7:48
    contrarios a las necesidades humanas.
  • 7:48 - 7:50
    El Dr. Bostrom tiene varios seguidores.
  • 7:50 - 7:54
    Gente como Elon Musk y
    Stephen Hawking lo apoyan.
  • 7:55 - 7:57
    Con todo respeto
  • 7:58 - 8:00
    a estas mentes brillantes,
  • 8:00 - 8:02
    creo que están completamente equivocados.
  • 8:02 - 8:06
    Hay muchas partes del argumento
    del Dr. Bostrom que analizar,
  • 8:06 - 8:08
    y no tengo tiempo para hacerlo,
  • 8:08 - 8:11
    pero brevemente, piensen esto:
  • 8:11 - 8:14
    el superconocimiento es muy distinto
    al superhacer.
  • 8:14 - 8:16
    HAL era una amenaza
    para la flota del Discovery
  • 8:16 - 8:21
    en la medida en que controlaba
    todos los aspectos del Discovery.
  • 8:21 - 8:23
    Se necesitaría una superinteligencia.
  • 8:23 - 8:26
    Y un dominio total de nuestro mundo.
  • 8:26 - 8:29
    Skynet de la película "Terminator"
  • 8:29 - 8:30
    tenía una superinteligencia
  • 8:30 - 8:32
    que controlaba la voluntad humana,
  • 8:32 - 8:36
    y controlaba cada dispositivo
    en todos los rincones del mundo.
  • 8:36 - 8:37
    Siendo prácticos,
  • 8:37 - 8:39
    eso no pasará.
  • 8:39 - 8:42
    No estamos construyendo IAs
    que controlen el clima,
  • 8:42 - 8:44
    que controlen las mareas,
  • 8:44 - 8:47
    que nos controlen a nosotros,
    caprichosos y caóticos humanos.
  • 8:47 - 8:51
    Además, si tal
    inteligencia artificial existiera,
  • 8:51 - 8:54
    tendría que competir contra
    las economías del hombre,
  • 8:54 - 8:57
    y por tanto competir por recursos
    contra nosotros.
  • 8:57 - 8:58
    Y al final
  • 8:58 - 9:00
    --no le digan a Siri--
  • 9:00 - 9:02
    siempre podremos desconectarlos.
  • 9:02 - 9:04
    (Risas)
  • 9:05 - 9:08
    Estamos en una increíble aventura
  • 9:08 - 9:10
    de coevolución con nuestras máquinas.
  • 9:10 - 9:13
    Los humanos que somos hoy
  • 9:13 - 9:15
    no son los humanos que seremos.
  • 9:15 - 9:19
    Preocuparse ahorita del ascenso
    de una superinteligencia
  • 9:19 - 9:22
    es una distracción peligrosa
    en muchos sentidos
  • 9:22 - 9:24
    porque el ascenso de la computación
  • 9:24 - 9:27
    trajo consigo muchos problemas
    humanos y sociales
  • 9:27 - 9:29
    de los que debemos ocuparnos ahora.
  • 9:29 - 9:32
    ¿Cómo organizar a la sociedad
  • 9:32 - 9:35
    cuando la necesidad de trabajo
    humano decrece?
  • 9:35 - 9:38
    ¿Cómo llevar conocimiento y educación
    a través del mundo
  • 9:38 - 9:40
    respetando nuestras diferencias?
  • 9:40 - 9:44
    ¿Cómo expandir y mejorar la vida
    con la atención médica cognitiva?
  • 9:44 - 9:47
    ¿Cómo usar la computación
  • 9:47 - 9:49
    para ayudarnos a alcanzar las estrellas?
  • 9:50 - 9:52
    Eso es lo emocionante.
  • 9:52 - 9:55
    Las oportunidades para usar la computación
  • 9:55 - 9:56
    y fomentar la experiencia humana
  • 9:56 - 9:58
    están a nuestro alcance,
  • 9:58 - 10:00
    aquí y ahora,
  • 10:00 - 10:01
    y apenas hemos comenzado.
  • 10:02 - 10:03
    Muchas gracias.
  • 10:04 - 10:08
    (Aplausos)
Title:
No le teman a la superinteligente IA
Speaker:
Grady Booch
Description:

La nueva tecnología genera nuevas ansiedades, dice el científico y filósofo Grady Booch, pero no hay por qué temerle a la poderosa e insensible IA. Booch disipa nuestros peores miedos (inducidos por la sci-fi) acerca de las computadoras superinteligentes explicando cómo enseñarles, más no programarlas, para compartir nuestros valores. En lugar de preocuparnos acerca de una improbable amenaza existencial, nos incita a pensar cómo la inteligencia artificial mejorará la vida humana.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Spanish subtitles

Revisions