Return to Video

¿Es posible crear inteligencia artificial sin perder control sobre ella?

  • 0:01 - 0:03
    Voy a hablar de un fallo intuitivo
  • 0:03 - 0:05
    que muchos sufrimos.
  • 0:05 - 0:09
    En realidad es la capacidad
    de detectar cierto tipo de peligro.
  • 0:09 - 0:16
    Describiré una situación que creo
    que es tan aterradora como posible
  • 0:17 - 0:19
    y veremos que eso no es
    una buena combinación.
  • 0:20 - 0:22
    Y sin embargo, en lugar de sentir miedo,
  • 0:22 - 0:25
    la mayoría pensará que es
    algo bastante interesante.
  • 0:25 - 0:30
    Describiré cómo los avances
    en el campo de la inteligencia artificial,
  • 0:30 - 0:32
    en última instancia, podrían destruirnos.
  • 0:32 - 0:34
    Y, de hecho, me resulta muy difícil ver
  • 0:34 - 0:37
    que no nos destruirían
    o nos ayudaran a destruirnos.
  • 0:37 - 0:39
    Y sin embargo, si son como yo,
  • 0:39 - 0:42
    encontrarán que es divertido
    pensar en estas cosas.
  • 0:42 - 0:45
    Y esta manera de ver las cosas
    es parte del problema.
  • 0:45 - 0:47
    Esa reacción debería preocuparles.
  • 0:48 - 0:51
    Si tuviera que convencerles
    con esta charla
  • 0:51 - 0:54
    de que estamos al borde de sufrir
    una hambruna a nivel mundial,
  • 0:54 - 0:57
    debido al calentamiento global
    o cualquier otra catástrofe,
  • 0:57 - 1:00
    y que sus nietos o sus bisnietos,
  • 1:00 - 1:02
    vivirán muy probablemente así,
  • 1:03 - 1:04
    no pensarían:
  • 1:05 - 1:07
    "Interesante.
  • 1:07 - 1:08
    Me gusta esta charla TED".
  • 1:09 - 1:11
    El hambre no es divertida
  • 1:12 - 1:15
    La muerte en la ciencia ficción,
    por el contrario, es algo divertido,
  • 1:15 - 1:19
    y lo más preocupante
    en el desarrollo de la IA hoy en día
  • 1:19 - 1:23
    es que parecemos incapaces de ofrecer
    una respuesta emocional adecuada
  • 1:23 - 1:25
    frente a los peligros que se avecinan.
  • 1:25 - 1:28
    Yo mismo soy incapaz de ello
    y estoy dando esta charla.
  • 1:30 - 1:33
    Es como si nos encontráramos
    ante dos puertas.
  • 1:33 - 1:34
    Detrás de la puerta número uno
  • 1:34 - 1:37
    detenemos el progreso
    de máquinas inteligentes.
  • 1:37 - 1:41
    Nuestro hardware y software
    se estancan simplemente, por alguna razón.
  • 1:41 - 1:45
    Traten de reflexionar por un momento
    por qué podría suceder esto.
  • 1:45 - 1:49
    Dada la valía de la inteligencia
    y la automatización,
  • 1:49 - 1:52
    seguiremos mejorando
    nuestra tecnología si es posible.
  • 1:53 - 1:55
    ¿Qué podría impedirnos hacer eso?
  • 1:56 - 1:58
    ¿Una guerra nuclear a gran escala?
  • 1:59 - 2:01
    ¿Una pandemia mundial?
  • 2:02 - 2:04
    ¿El impacto de un asteroide?
  • 2:05 - 2:09
    ¿El hecho que Justin Bieber
    podría ser el presidente de los EE.UU.?
  • 2:09 - 2:10
    (Risas)
  • 2:13 - 2:17
    El caso es que algo tendría que destruir
    la civilización tal como la conocemos.
  • 2:17 - 2:22
    Realmente deberíamos
    imaginar algo terrible
  • 2:22 - 2:25
    para dejar de
    desarrollar nuestra tecnología
  • 2:25 - 2:26
    para siempre,
  • 2:26 - 2:28
    generación tras generación.
  • 2:28 - 2:30
    Casi por definición, sería lo peor
  • 2:30 - 2:32
    en la historia humana.
  • 2:32 - 2:34
    La única alternativa,
  • 2:34 - 2:36
    y esto es lo que hay detrás
    de la puerta número dos,
  • 2:36 - 2:39
    es seguir mejorando
    nuestras máquinas inteligentes
  • 2:39 - 2:41
    año tras año tras año.
  • 2:42 - 2:45
    En algún momento construiremos
    máquinas más inteligentes que nosotros,
  • 2:46 - 2:49
    y una vez que las tengamos
  • 2:49 - 2:51
    empezarán a mejorarse a sí mismas.
  • 2:51 - 2:54
    Y entonces corremos el riesgo
    teorizado por el matemático IJ Good
  • 2:54 - 2:55
    llamado "explosión de inteligencia"
  • 2:56 - 2:58
    donde el proceso podría
    salirse de control.
  • 2:58 - 3:01
    Esto es a menudo caricaturizado,
    como lo he hecho aquí,
  • 3:01 - 3:05
    como el miedo a que nos ataquen
    ejércitos de robots maliciosos.
  • 3:05 - 3:08
    Pero ese no es
    el escenario más probable.
  • 3:08 - 3:13
    No es que nuestras máquinas
    se volverán malignas espontáneamente.
  • 3:13 - 3:15
    La preocupación verdadera
  • 3:15 - 3:18
    al construir máquinas mucho
    más competentes que nosotros
  • 3:18 - 3:21
    es que la menor diferencia
    entre sus objetivos y los nuestros
  • 3:21 - 3:23
    nos podría destruir.
  • 3:24 - 3:27
    Basta con pensar en nuestra
    relación con las hormigas.
  • 3:27 - 3:28
    No las odiamos.
  • 3:28 - 3:30
    No vamos por la vida lastimándolas.
  • 3:30 - 3:33
    De hecho, a veces nos tomamos
    la molestia de no hacerles daño.
  • 3:33 - 3:35
    Evitamos pisarlas en la acera.
  • 3:35 - 3:38
    Pero cada vez que su presencia
    entra seriamente en conflicto
  • 3:38 - 3:39
    con alguno de nuestros objetivos,
  • 3:39 - 3:42
    digamos, en la construcción
    de un edificio como este,
  • 3:42 - 3:44
    las aniquilamos sin escrúpulos.
  • 3:44 - 3:47
    La preocupación es que algún día
    construyamos máquinas
  • 3:47 - 3:50
    que, ya sea conscientemente o no,
  • 3:50 - 3:52
    nos puedan tratar con
    una indiferencia similar.
  • 3:54 - 3:57
    Sospecho que esto pueda
    parece inverosímil para muchos.
  • 3:57 - 4:03
    Apuesto a que hay quienes dudan
    de que la superinteligente IA sea posible
  • 4:03 - 4:05
    y mucho menos inevitable.
  • 4:05 - 4:09
    Pero en este caso hay que refutar
    uno de los siguientes supuestos.
  • 4:09 - 4:11
    Y hay solo tres.
  • 4:12 - 4:17
    La inteligencia es el procesamiento
    de información en un sistema físico.
  • 4:17 - 4:20
    En realidad, esto es poco
    más que una suposición.
  • 4:20 - 4:23
    Ya hemos incorporado inteligencia
    limitada en nuestras máquinas,
  • 4:23 - 4:28
    y aún así, muchas de estas máquinas actúan
    a un nivel de inteligencia sobrehumana.
  • 4:29 - 4:34
    Y sabemos que la mera materia da lugar
    a lo que se llama "inteligencia general",
  • 4:34 - 4:38
    la capacidad de pensar con
    flexibilidad en múltiples campos
  • 4:38 - 4:41
    porque nuestros cerebro
    humano ya lo ha conseguido.
  • 4:41 - 4:45
    Es decir, solo hay átomos aquí,
  • 4:45 - 4:49
    y mientras continuemos
    construyendo sistemas de átomos
  • 4:49 - 4:52
    que exhiban un comportamiento
    más y más inteligente,
  • 4:52 - 4:58
    terminaremos implementando, a menos
    que lo interrumpamos, inteligencia general
  • 4:58 - 4:59
    en nuestras máquinas.
  • 4:59 - 5:03
    Es crucial comprender que
    la velocidad no es el problema
  • 5:03 - 5:06
    porque cualquier velocidad
    es suficiente para llegar al fin.
  • 5:06 - 5:10
    No necesitamos la ley de Moore para
    continuar ni un aumento exponencial.
  • 5:10 - 5:12
    Solo tenemos que seguir adelante.
  • 5:13 - 5:16
    El segundo supuesto es
    que vamos a seguir adelante.
  • 5:17 - 5:20
    Vamos a seguir mejorando
    nuestras máquinas inteligentes.
  • 5:23 - 5:25
    Y teniendo en cuenta
    el valor de la inteligencia,
  • 5:25 - 5:29
    es decir, la inteligencia es o bien
    la fuente de todo lo que valoramos
  • 5:29 - 5:32
    o la necesidad por preservar
    todo lo que valoramos.
  • 5:32 - 5:34
    Es nuestro recurso más valioso.
  • 5:34 - 5:35
    Por eso lo queremos hacer.
  • 5:35 - 5:39
    Tenemos problemas que necesitamos
    desesperadamente resolver.
  • 5:39 - 5:42
    Queremos curar enfermedades
    como el Alzheimer y el cáncer.
  • 5:43 - 5:45
    Queremos entender
    los sistemas económicos.
  • 5:45 - 5:47
    Queremos mejorar el clima.
  • 5:47 - 5:49
    Vamos a hacer esto, si podemos.
  • 5:49 - 5:52
    El tren ya salió de la estación
    y no hay frenos.
  • 5:54 - 5:59
    Por último, no estamos en
    la cima de la inteligencia,
  • 5:59 - 6:01
    ni siquiera cerca, probablemente.
  • 6:02 - 6:04
    Y esto realmente es crucial.
  • 6:04 - 6:06
    Esto es lo que hace nuestra
    situación tan precaria,
  • 6:06 - 6:08
    y esto es lo que hace
    que nuestras intuiciones
  • 6:08 - 6:11
    sobre los riesgos sean poco fiables.
  • 6:11 - 6:15
    Piensen en la persona más inteligente
    que jamás haya vivido.
  • 6:15 - 6:18
    En la lista de casi todos
    está John Von Neumann.
  • 6:18 - 6:21
    La impresión que hacía Von Neumann
    en las personas a su alrededor,
  • 6:21 - 6:25
    incluyendo los más grandes
    matemáticos y físicos de su época,
  • 6:25 - 6:27
    está bastante bien documentada.
  • 6:27 - 6:31
    Si solo la mitad de las historias
    sobre él fueran una verdad a medias,
  • 6:31 - 6:32
    no hay duda
  • 6:32 - 6:35
    de que es una de las personas
    más inteligentes que ha vivido.
  • 6:35 - 6:38
    Así que consideren
    el espectro de la inteligencia.
  • 6:38 - 6:40
    Aquí tenemos a John Von Neumann.
  • 6:42 - 6:43
    Y aquí estamos tú y yo.
  • 6:44 - 6:45
    Y luego tenemos un pollo.
  • 6:47 - 6:49
    Lo sentimos, una gallina.
  • 6:50 - 6:53
    No hay por qué hacer esta charla
    más deprimente de lo que ya es.
  • 6:53 - 6:55
    (Risas)
  • 6:56 - 7:00
    Sin embargo, parece muy probable
    que el espectro de la inteligencia
  • 7:00 - 7:03
    se extienda mucho más allá
    de lo que actualmente concebimos,
  • 7:04 - 7:07
    y si construimos máquinas
    más inteligentes que nosotros,
  • 7:07 - 7:09
    muy probablemente
    explorarán este espectro
  • 7:09 - 7:11
    de maneras que no podemos imaginar,
  • 7:11 - 7:14
    y nos superarán de maneras inimaginables.
  • 7:15 - 7:19
    Y es importante saber que esto
    es cierto solo debido a la velocidad.
  • 7:19 - 7:24
    Así que imaginen que acabamos
    de construir una IA superinteligente
  • 7:24 - 7:26
    que no fuera más inteligente
  • 7:26 - 7:30
    que el promedio del equipo de
    investigadores en Stanford o el MIT.
  • 7:30 - 7:32
    Los circuitos electrónicos funcionan
  • 7:32 - 7:35
    aproximadamente un millón de veces
    más rápido que los bioquímicos,
  • 7:35 - 7:38
    así que esta máquina debe pensar
    un millón de veces más rápido
  • 7:38 - 7:40
    que las mentes que la construyeron.
  • 7:40 - 7:41
    Con una semana funcionando
  • 7:41 - 7:46
    llevará a cabo 20 000 años
    de trabajo intelectual a nivel humano,
  • 7:46 - 7:48
    semana tras semana tras semana.
  • 7:50 - 7:53
    ¿Cómo podríamos siquiera comprender,
    mucho menos restringir,
  • 7:53 - 7:55
    una mente que progresa de esta manera?
  • 7:57 - 7:59
    Algo más que es francamente preocupante
  • 7:59 - 8:04
    es imaginar el mejor de los casos.
  • 8:04 - 8:08
    Imaginemos que diseñamos
    una IA superinteligente
  • 8:08 - 8:10
    que no tiene problemas de seguridad.
  • 8:10 - 8:13
    Tenemos el diseño perfecto a la primera.
  • 8:13 - 8:15
    Es como si nos dieran un oráculo
  • 8:15 - 8:17
    que se comporta exactamente
    como se espera.
  • 8:17 - 8:21
    Esta máquina sería el dispositivo
    de ahorro de mano de obra perfecta.
  • 8:22 - 8:24
    Puede diseñar la máquina
    que puede construir la máquina
  • 8:24 - 8:26
    que pueda hacer cualquier trabajo físico,
  • 8:26 - 8:27
    impulsada por la luz solar,
  • 8:27 - 8:30
    más o menos por el costo
    de las materias primas.
  • 8:30 - 8:33
    Estamos hablando del fin
    del trabajo pesado humano.
  • 8:33 - 8:37
    También estamos hablando del fin
    de la mayoría del trabajo intelectual.
  • 8:37 - 8:40
    Entonces, ¿qué harían simios como
    nosotros en estas circunstancias?
  • 8:40 - 8:44
    Pues, podríamos jugar
    al Frisbee y darnos masajes.
  • 8:46 - 8:48
    Tomar un poco de LSD
    e inventar modas ridículas
  • 8:48 - 8:51
    y todo el mundo podríamos
    parecernos a un festival de rock.
  • 8:51 - 8:53
    (Risas)
  • 8:54 - 8:59
    Puede parecer muy bueno,
    pero hay que preguntarse
  • 8:59 - 9:02
    qué pasaría con nuestro orden
    económico y político actual.
  • 9:02 - 9:05
    Podríamos presenciar
  • 9:05 - 9:09
    un nivel de desigualdad
    de la riqueza y el desempleo
  • 9:09 - 9:10
    nunca antes visto
  • 9:10 - 9:14
    sin la voluntad de poner esta
    nueva riqueza inmediatamente
  • 9:14 - 9:15
    al servicio de toda la humanidad,
  • 9:15 - 9:19
    y unos poco trillonarios estarían en
    las portadas de las revistas de negocios
  • 9:19 - 9:23
    mientras que el resto del mundo
    tendría la libertad de morirse de hambre.
  • 9:23 - 9:25
    Y ¿qué pasaría si los rusos
    o los chinos se enteraran
  • 9:25 - 9:27
    de que alguna empresa en Silicon Valley
  • 9:27 - 9:30
    está a punto de crear
    una IA superinteligente?
  • 9:30 - 9:33
    Esta máquina podría ser
    capaz de hacer la guerra,
  • 9:33 - 9:35
    ya sea terrestre o cibernética,
  • 9:35 - 9:37
    con un poder sin precedentes.
  • 9:38 - 9:40
    En este escenario
    el ganador se lleva todo.
  • 9:40 - 9:43
    Seis meses adelante en la competencia
  • 9:43 - 9:46
    sería una ventaja de 500 000 años,
  • 9:46 - 9:47
    como mínimo.
  • 9:47 - 9:52
    Parecería que incluso meros
    rumores de este tipo de avance
  • 9:52 - 9:54
    podría causar que nuestra
    especie se vuelva loca.
  • 9:54 - 9:57
    Una de las cosas más aterradoras,
  • 9:57 - 10:00
    en mi opinión, en este momento,
  • 10:00 - 10:04
    son el tipo de cosas que dicen
    los investigadores de IA
  • 10:04 - 10:06
    cuando quieren tranquilizarnos.
  • 10:07 - 10:10
    Y el motivo invocado más frecuentemente
    de que no nos preocupemos es el tiempo.
  • 10:10 - 10:13
    Falta mucho para eso, no se preocupen.
  • 10:13 - 10:15
    Eso será probablemente
    dentro de 50 o 100 años.
  • 10:16 - 10:17
    Un investigador dijo,
  • 10:17 - 10:20
    "Preocuparse por la seguridad
    y todo lo relacionado con la IA
  • 10:20 - 10:22
    es como preocuparse por la
    superpoblación en Marte".
  • 10:22 - 10:26
    Esta es la manera de Silicon Valley
    de mostrarse condescendiente.
  • 10:26 - 10:28
    (Risas)
  • 10:28 - 10:29
    Nadie parece darse cuenta
  • 10:29 - 10:32
    que tomar el tiempo con referencia
  • 10:32 - 10:35
    es una incongruencia total.
  • 10:35 - 10:38
    Si la inteligencia es solo una cuestión
    de procesamiento de la información
  • 10:38 - 10:41
    y seguimos mejorando nuestras máquinas,
  • 10:41 - 10:44
    produciremos algún tipo
    de superinteligencia.
  • 10:44 - 10:49
    Y no tenemos idea de cuánto tiempo
    nos llevará crear las condiciones
  • 10:49 - 10:51
    para hacerlo de forma segura.
  • 10:52 - 10:53
    Voy a decirlo de nuevo.
  • 10:53 - 10:59
    Y no tenemos idea de cuánto tiempo
    nos llevará crear las condiciones
  • 10:59 - 11:00
    para hacerlo de forma segura.
  • 11:01 - 11:04
    Y si no lo han notado, 50 años
    ya no son lo que solían ser.
  • 11:04 - 11:07
    Estos son 50 años en meses.
  • 11:07 - 11:09
    Este es el tiempo que
    hemos tenido el iPhone.
  • 11:09 - 11:12
    Este es el tiempo que "Los Simpson"
    ha estado en la televisión.
  • 11:13 - 11:15
    Cincuenta años no es tanto tiempo
  • 11:15 - 11:19
    para lograr uno de los mayores desafíos
    al que nuestra especie se ha enfrentado.
  • 11:20 - 11:24
    Una vez más, parece que no tenemos
    una respuesta emocional adecuada
  • 11:24 - 11:26
    para lo que, con toda
    probabilidad, va a pasar.
  • 11:26 - 11:30
    El científico de la computación
    Stuart Russell ofrece una gran analogía:
  • 11:30 - 11:36
    "Imaginen que recibimos un mensaje de
    una civilización extraterrestre que diga:
  • 11:37 - 11:39
    'Gente de la Tierra,
  • 11:39 - 11:41
    llegaremos en su planeta en 50 años.
  • 11:42 - 11:43
    Prepárense'".
  • 11:43 - 11:47
    ¿Estaremos contando los meses
    hasta que llegue la nave nodriza?
  • 11:48 - 11:51
    ¿No estaríamos un poco más preocupados?
  • 11:52 - 11:54
    Otra razón que se nos da
    para no preocuparnos
  • 11:54 - 11:57
    es que estas máquinas no podrán
    no compartir nuestros valores
  • 11:57 - 12:00
    porque van a ser literalmente
    extensiones de nosotros mismos.
  • 12:00 - 12:02
    Se injertarán en nuestro cerebro,
  • 12:02 - 12:04
    y prácticamente seremos
    su sistema límbico.
  • 12:05 - 12:07
    Consideren por un momento
  • 12:07 - 12:10
    que el camino más seguro
    y prudente hacia adelante,
  • 12:10 - 12:11
    el recomendado,
  • 12:11 - 12:14
    es la implantación de esta tecnología
    directamente en nuestro cerebro.
  • 12:14 - 12:16
    Ahora bien, esto puede ser de hecho,
  • 12:16 - 12:18
    la manera más segura
    y prudente de avanzar,
  • 12:18 - 12:22
    pero por lo general, los problemas
    de seguridad de una nueva tecnología
  • 12:22 - 12:25
    hay que resolverlos antes
    de implementarla en una cabeza.
  • 12:25 - 12:27
    (Risas)
  • 12:27 - 12:28
    El mayor problema es
  • 12:28 - 12:34
    que construir una IA superinteligente
    y autónoma parece más fácil
  • 12:34 - 12:36
    que diseñar una IA superinteligente
  • 12:36 - 12:38
    mientras se controla la neurociencia
  • 12:38 - 12:40
    para integrar la máquina
    y la mente sin problemas.
  • 12:41 - 12:44
    Y dado que las empresas y
    los gobiernos que trabajan sobre ello
  • 12:44 - 12:48
    probablemente se vean a sí mismos en
    una carrera contra todos los demás,
  • 12:48 - 12:51
    y tomando en cuenta que ganar
    esta carrera es ganar el mundo,
  • 12:51 - 12:54
    siempre y cuando no lo destruyan
    en el momento siguiente,
  • 12:54 - 12:56
    entonces parece probable
    que lo más fácil de hacer
  • 12:56 - 12:57
    se hará primero.
  • 12:59 - 13:01
    Ahora, por desgracia, no tengo
    una solución a este problema,
  • 13:01 - 13:04
    además de recomendarles
    que piensen más sobre ello.
  • 13:04 - 13:06
    Creo que necesitamos
    un Proyecto Manhattan
  • 13:06 - 13:08
    sobre el tema de la
    inteligencia artificial.
  • 13:08 - 13:11
    No para construirlo, porque
    creo que eso es inevitable,
  • 13:11 - 13:15
    sino para entender cómo evitar
    una carrera armamentística
  • 13:15 - 13:18
    y construirla de manera que
    concuerde con nuestros intereses.
  • 13:18 - 13:20
    Cuando hablamos de IA superinteligente
  • 13:20 - 13:22
    que puede modificarse a sí misma,
  • 13:23 - 13:27
    solo tenemos una oportunidad de fijar
    las condiciones iniciales correctas,
  • 13:27 - 13:29
    e incluso entonces necesitaremos gestionar
  • 13:29 - 13:32
    las consecuencias económicas
    y políticas de dicho diseño.
  • 13:34 - 13:36
    Pero en el momento en que admitamos
  • 13:36 - 13:40
    que el procesamiento de la información
    es la fuente de la inteligencia,
  • 13:41 - 13:46
    que algún sistema computacional
    adecuado es la base de la inteligencia,
  • 13:46 - 13:50
    y admitamos que los vamos
    a mejorar de forma continua,
  • 13:51 - 13:55
    y admitamos que el horizonte
    del conocimiento supera por mucho
  • 13:55 - 13:57
    lo que actualmente conocemos,
  • 13:58 - 14:00
    entonces tenemos que admitir
  • 14:00 - 14:02
    que estamos en el proceso de
    construir una especie de dios.
  • 14:03 - 14:05
    Ahora sería un buen momento
  • 14:05 - 14:08
    para asegurarse de que sea
    un dios con el que podamos vivir.
  • 14:08 - 14:09
    Muchas gracias.
  • 14:09 - 14:10
    (Aplausos)
Title:
¿Es posible crear inteligencia artificial sin perder control sobre ella?
Speaker:
Sam Harris
Description:

¿Te asusta la super inteligente inteligencia artificial? Debería estarlo, dice el neurocientífico y filósofo Sam Harris y no solo de una manera teórica. Vamos a construir super máquinas, dice Harris, pero aún no entendemos los problemas que conlleva crear algo que podría tratarnos de la misma manera en que nosotros tratamos a las hormigas.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
14:27

Spanish subtitles

Revisions