Return to Video

Daniel Suarez: La decisión de matar no la debe tomar un robot

  • 0:00 - 0:03
    Escribo novelas de suspenso
    de ciencia ficción,
  • 0:03 - 0:06
    así que si digo
    "robots asesinos",
  • 0:06 - 0:08
    probablemente podrían
    pensar en algo así.
  • 0:08 - 0:10
    Pero en realidad no estoy
    aquí para hablar de ficción.
  • 0:10 - 0:13
    Estoy aquí para hablar de
    robots asesinos muy reales,
  • 0:13 - 0:17
    "drones" de combate autónomos.
  • 0:17 - 0:20
    Y no me refiero a robots
    depredadores ni exterminadores,
  • 0:20 - 0:23
    que tienen a un humano tomando
    decisiones de sus objetivos.
  • 0:23 - 0:27
    Estoy hablando de armas
    robóticas totalmente autónomas
  • 0:27 - 0:29
    que toman decisiones
    letales sobre seres humanos
  • 0:29 - 0:32
    por su propia cuenta.
  • 0:32 - 0:36
    De hecho existe un término
    técnico para esto: autonomía letal.
  • 0:36 - 0:38
    Ahora, los robots asesinos
    letales autónomos
  • 0:38 - 0:42
    pueden actuar de muchas
    formas: volando, conduciendo,
  • 0:42 - 0:44
    o simplemente esperando al acecho.
  • 0:44 - 0:47
    Y la verdad es que se están convirtiendo
    rápidamente en una realidad.
  • 0:47 - 0:50
    Estas son dos estaciones
    automáticas de disparo
  • 0:50 - 0:54
    desplegadas actualmente en la zona
    desmilitarizada entre Corea del Norte y del Sur
  • 0:54 - 0:56
    Ambas máquinas son
    capaces de identificar
  • 0:56 - 1:00
    automáticamente un objetivo
    humano y disparar contra él,
  • 1:00 - 1:04
    la de la izquierda a una distancia
    de más de un kilómetro.
  • 1:04 - 1:08
    En ambos casos, todavía hay
    un ser humano en el proceso
  • 1:08 - 1:10
    para tomar esa decisión
    de disparo letal
  • 1:10 - 1:15
    pero no es un requisito
    tecnológico, es una opción.
  • 1:15 - 1:19
    Y es en esa opción en
    la que quiero centrarme,
  • 1:19 - 1:21
    porque cuando desplazamos
    la toma de decisiones letales
  • 1:21 - 1:24
    de los humanos al software,
  • 1:24 - 1:28
    corremos el riesgo no sólo de
    sacar a la humanidad de la guerra,
  • 1:28 - 1:31
    sino también el de cambiar
    nuestro panorama social completamente,
  • 1:31 - 1:33
    lejos del campo de batalla.
  • 1:33 - 1:38
    Eso es porque la manera en que
    los humanos resolvemos los conflictos
  • 1:38 - 1:40
    moldea nuestro panorama social.
  • 1:40 - 1:42
    Y así ha sido siempre
    a lo largo de la historia.
  • 1:42 - 1:45
    Por ejemplo, estos eran los sistemas
    de armamento más avanzados
  • 1:45 - 1:47
    en 1400 D.C.
  • 1:47 - 1:50
    El costo de la construcción y el mantenimiento
    de ambos era muy elevados,
  • 1:50 - 1:53
    pero con ellos se podía
    dominar a la población,
  • 1:53 - 1:57
    y eso se reflejaba en la distribución
    del poder político en la sociedad feudal.
  • 1:57 - 2:00
    El poder ocupó un lugar primordial.
  • 2:00 - 2:04
    Y ¿qué cambió?
    La innovación tecnológica.
  • 2:04 - 2:05
    Pólvora, cañón.
  • 2:05 - 2:09
    Y muy pronto, la armadura y
    los castillos fueron obsoletos,
  • 2:09 - 2:12
    e importó menos a quién
    se traía al campo de batalla
  • 2:12 - 2:16
    versus cuánta gente se traía
    al campo de batalla.
  • 2:16 - 2:19
    Y conforme los ejércitos crecieron
    en tamaño, los Estado-naciones surgieron
  • 2:19 - 2:23
    como un requisito político
    y logístico de defensa.
  • 2:23 - 2:25
    Y conforme los líderes tuvieron
    que depender más de su población,
  • 2:25 - 2:27
    empezaron a compartir el poder.
  • 2:27 - 2:30
    Se comenzó a formar
    el gobierno representativo.
  • 2:30 - 2:33
    Repito, las herramientas que
    utilizamos para resolver conflictos
  • 2:33 - 2:36
    dan forma a nuestro panorama social.
  • 2:36 - 2:40
    Las armas robóticas autónomas
    son esas herramientas,
  • 2:40 - 2:46
    salvo que, al exigir que muy pocas
    personas vayan a la guerra,
  • 2:46 - 2:50
    se corre el riesgo de re-centralizar
    el poder en muy pocas manos,
  • 2:50 - 2:57
    posiblemente revirtiendo una tendencia
    de cinco siglos hacia la democracia.
  • 2:57 - 2:59
    Creo que, sabiendo esto,
  • 2:59 - 3:03
    podemos tomar medidas decisivas para
    preservar nuestras instituciones democráticas,
  • 3:03 - 3:07
    para hacer lo que los seres humanos
    saben hacer mejor, que es adaptarse.
  • 3:07 - 3:09
    Pero el tiempo es un factor.
  • 3:09 - 3:12
    Setenta naciones están
    desarrollando sus propios robots
  • 3:12 - 3:14
    de combate controlados a distancia
  • 3:14 - 3:17
    y como veremos, los drones de
    combate controlados remotamente
  • 3:17 - 3:21
    son los precursores de
    las armas robóticas autónomas.
  • 3:21 - 3:24
    Eso es porque una vez se han desplegado
    drones piloteados remotamente
  • 3:24 - 3:27
    hay tres factores poderosos que
    influyen en la toma de decisiones
  • 3:27 - 3:32
    lejos de los humanos y en
    la misma plataforma del arma.
  • 3:32 - 3:37
    El primero de ellos es el diluvio
    de vídeos que producen los robots.
  • 3:37 - 3:41
    Por ejemplo, en 2004, la flota de
    drones de los Estados Unidos produjo
  • 3:41 - 3:46
    un total de 71 horas de vigilancia
    con video para el análisis.
  • 3:46 - 3:51
    En el 2011, ésta se había
    elevado a 300 mil horas,
  • 3:51 - 3:54
    superando la capacidad
    humana para revisarla toda,
  • 3:54 - 3:58
    y aun ese número está a punto
    de subir drásticamente.
  • 3:58 - 4:00
    El Gorgon Stare y los programas
    Argus del Pentágono
  • 4:00 - 4:03
    pondrán hasta 65 cámaras que
    operan independientemente
  • 4:03 - 4:05
    en cada plataforma de los drones,
  • 4:05 - 4:09
    y esto superaría enormemente
    la capacidad humana para revisarlas.
  • 4:09 - 4:11
    Y eso significa que se necesitará
    software de inteligencia visual
  • 4:11 - 4:15
    para escanear elementos de interés.
  • 4:15 - 4:16
    Y eso significa que muy pronto
  • 4:16 - 4:19
    los drones dirán a
    los humanos qué mirar,
  • 4:19 - 4:21
    y no al revés.
  • 4:21 - 4:24
    Pero hay un segundo incentivo
    poderoso que aleja
  • 4:24 - 4:27
    la toma de decisiones de los humanos
    y la acerca a las máquinas,
  • 4:27 - 4:30
    y es la interferencia electromagnética,
  • 4:30 - 4:32
    cortando la conexión entre el robot
  • 4:32 - 4:35
    y su operador.
  • 4:35 - 4:38
    Vimos un ejemplo
    de esto en 2011
  • 4:38 - 4:41
    Cuando un dron RQ-170
    Sentinel norteamericano
  • 4:41 - 4:45
    se confundió en Irán debido a
    un ataque de "suplantación" de GPS,
  • 4:45 - 4:50
    pero cualquier robot controlado remotamente
    es susceptible a este tipo de ataques,
  • 4:50 - 4:52
    y eso significa que los drones
  • 4:52 - 4:56
    tendrán que asumir
    más la toma de decisiones.
  • 4:56 - 4:59
    Sabrán el objetivo de la misión,
  • 4:59 - 5:04
    y reaccionarán a nuevas
    circunstancias sin ayuda humana.
  • 5:04 - 5:06
    Ignorarán las señales de radio externas
  • 5:06 - 5:09
    y enviarán muy pocas suyas.
  • 5:09 - 5:11
    Lo que nos lleva,
    realmente, al tercer
  • 5:11 - 5:15
    y más poderoso incentivo
    de llevar la toma de decisiones
  • 5:15 - 5:18
    de los seres humanos a las armas:
  • 5:18 - 5:21
    negación plausible.
  • 5:21 - 5:24
    Vivimos en una economía global.
  • 5:24 - 5:28
    La fabricación de alta tecnología ocurre
    en la mayoría de los continentes.
  • 5:28 - 5:31
    El ciberespionaje está impulsando
    diseños muy avanzados
  • 5:31 - 5:33
    a lugares desconocidos,
  • 5:33 - 5:35
    y en ese ambiente,
    es muy probable
  • 5:35 - 5:40
    que un diseño exitoso de drones
    se reproduzca en fábricas contratadas,
  • 5:40 - 5:42
    y prolifere en el mercado negro.
  • 5:42 - 5:45
    Y en esa situación,
    al investigar en los restos
  • 5:45 - 5:48
    de un ataque suicida de drone,
    será muy difícil decir
  • 5:48 - 5:52
    quién envió esa arma.
  • 5:52 - 5:55
    Esto plantea la posibilidad muy real
  • 5:55 - 5:58
    de una guerra anónima.
  • 5:58 - 6:00
    Esto podría poner el equilibrio
    geopolítico de cabeza,
  • 6:00 - 6:04
    y que a una nación le resulte
    muy difícil activar su potencia de ataque
  • 6:04 - 6:07
    contra un atacante, lo cual
    podría inclinar la balanza
  • 6:07 - 6:10
    en el siglo XXI de
    la defensa hacia la ofensiva.
  • 6:10 - 6:14
    Podría hacer de la acción
    militar una opción viable
  • 6:14 - 6:16
    no sólo para las naciones pequeñas,
  • 6:16 - 6:18
    sino para las organizaciones
    criminales, las empresas privadas,
  • 6:18 - 6:21
    e incluso para individuos poderosos.
  • 6:21 - 6:24
    Podría crear un paisaje
    de caudillos rivales
  • 6:24 - 6:28
    socavando el estado de
    derecho y la sociedad civil.
  • 6:28 - 6:31
    Si la responsabilidad y la transparencia
  • 6:31 - 6:34
    son dos de los pilares
    del gobierno representativo,
  • 6:34 - 6:38
    las armas robóticas autónomas
    podrían socavar a ambos.
  • 6:38 - 6:40
    Pueden estar pensando que
  • 6:40 - 6:42
    los ciudadanos de naciones
    con alta tecnología
  • 6:42 - 6:45
    tendrían la ventaja en
    cualquier guerra robótica,
  • 6:45 - 6:48
    que los ciudadanos de esas naciones
    serían menos vulnerables,
  • 6:48 - 6:53
    particularmente contra
    los países en desarrollo.
  • 6:53 - 6:56
    Pero creo que en realidad
    es exactamente lo contrario.
  • 6:56 - 6:58
    Creo que los ciudadanos de
    las sociedades de alta tecnología
  • 6:58 - 7:02
    son más vulnerables
    a las armas robóticas,
  • 7:02 - 7:07
    y la razón puede resumirse
    en una palabra: datos.
  • 7:07 - 7:10
    Los datos empoderan a las
    sociedades de alta tecnología.
  • 7:10 - 7:13
    Geolocalización por teléfono celular,
    metadatos de telecomunicaciones,
  • 7:13 - 7:17
    redes sociales, correo electrónico, mensajes
    de texto, datos de transacciones financieras,
  • 7:17 - 7:20
    datos de transporte, es una riqueza
    de datos en tiempo real
  • 7:20 - 7:24
    sobre los movimientos y las interacciones
    sociales de las personas.
  • 7:24 - 7:27
    En resumen, somos
    más visibles para las máquinas
  • 7:27 - 7:30
    que ninguna otra persona
    en la historia, y esto se adapta
  • 7:30 - 7:35
    perfectamente a las necesidades
    de selección de las armas autónomas.
  • 7:35 - 7:37
    Lo que están viendo aquí
  • 7:37 - 7:40
    es un mapa de análisis de
    los vínculos de un grupo social.
  • 7:40 - 7:44
    Las líneas indican la conectividad
    social entre individuos.
  • 7:44 - 7:47
    Y estos tipos de mapas se pueden
    generar automáticamente
  • 7:47 - 7:51
    basados en la la estela de datos
    que la gente moderna deja.
  • 7:51 - 7:54
    Esto se utiliza normalmente para
    el mercadeo de bienes y servicios
  • 7:54 - 7:58
    a un grupo objetivo específico,
    pero esta es una tecnología de doble uso,
  • 7:58 - 8:02
    porque se define un grupo
    objetivo en otro contexto.
  • 8:02 - 8:04
    Tenga en cuenta que
    ciertos individuos sobresalen.
  • 8:04 - 8:08
    Estos son los ejes de las redes sociales.
  • 8:08 - 8:11
    Estos son los organizadores,
    los creadores de opinión, los líderes,
  • 8:11 - 8:14
    y a estas personas también
    se les puede identificar automáticamente
  • 8:14 - 8:16
    por sus patrones de comunicación.
  • 8:16 - 8:18
    En el caso de un vendedor,
    este podría seleccionarlos
  • 8:18 - 8:21
    con muestras de productos,
    intentando difundir su marca
  • 8:21 - 8:24
    a través de su grupo social.
  • 8:24 - 8:26
    Pero un gobierno represivo
  • 8:26 - 8:30
    buscando enemigos políticos
    podría en cambio removerlos,
  • 8:30 - 8:33
    eliminarlos, destruir
    su grupo social,
  • 8:33 - 8:36
    y aquellos que queden
    perderían cohesión social
  • 8:36 - 8:39
    y organización.
  • 8:39 - 8:42
    En un mundo en que proliferan
    las armas robóticas baratas,
  • 8:42 - 8:45
    las fronteras ofrecerían
    muy poca protección
  • 8:45 - 8:47
    a los críticos de
    los gobiernos distantes
  • 8:47 - 8:51
    o de organizaciones
    criminales transnacionales.
  • 8:51 - 8:54
    Los movimientos populares
    que buscan el cambio
  • 8:54 - 8:58
    puede detectarse tempranamente
    para eliminar a sus líderes
  • 8:58 - 9:01
    antes de que sus ideas
    adquieran masa crítica.
  • 9:01 - 9:03
    Y de lo que se trata en
    un gobierno popular es
  • 9:03 - 9:07
    que las ideas alcancen masa critica.
  • 9:07 - 9:11
    Las armas letales anónimas
    podrían hacer de la acción letal
  • 9:11 - 9:15
    una opción fácil para todo
    tipo de intereses en juego.
  • 9:15 - 9:19
    Y esto pondría en jaque
    a la libertad de expresión
  • 9:19 - 9:24
    y a la acción política popular,
    la esencia de la democracia.
  • 9:24 - 9:27
    Y por esta razón necesitamos
    un tratado internacional
  • 9:27 - 9:30
    sobre las armas robóticas y en
    particular una prohibición mundial
  • 9:30 - 9:34
    sobre el desarrollo y
    el despliegue de robots asesinos.
  • 9:34 - 9:38
    Ya tenemos tratados internacionales
  • 9:38 - 9:41
    sobre armas nucleares y biológicas,
    que aunque imperfectos,
  • 9:41 - 9:43
    han funcionado en gran medida.
  • 9:43 - 9:47
    Pero las armas robóticas
    pueden ser igual de peligrosas,
  • 9:47 - 9:50
    porque muy seguramente se utilizarán,
  • 9:50 - 9:55
    y también serían dañinas para
    nuestras instituciones democráticas.
  • 9:55 - 9:59
    En noviembre de 2012, el Departamento
    de Defensa de los Estados Unidos
  • 9:59 - 10:01
    emitió una directiva que exige
  • 10:01 - 10:06
    que un ser humano esté presente
    en todas las decisiones letales.
  • 10:06 - 10:11
    Esto prohibió efectiva aunque temporalmente
    las armas autónomas en el ejército estadounidense,
  • 10:11 - 10:14
    pero dicha directiva
    debe hacerse permanente.
  • 10:14 - 10:19
    Y podría sentar las bases
    para la acción global.
  • 10:19 - 10:22
    Porque necesitamos un
    marco jurídico internacional
  • 10:22 - 10:25
    sobre armas robóticas.
  • 10:25 - 10:28
    Y lo necesitamos ahora,
    antes de un ataque devastador
  • 10:28 - 10:31
    o un incidente terrorista que
    haga que las naciones del mundo
  • 10:31 - 10:33
    se vean obligadas
    a adoptar estas armas
  • 10:33 - 10:36
    antes de pensar
    en las consecuencias.
  • 10:36 - 10:39
    Las armas robóticas autónomas
    concentran demasiado poder
  • 10:39 - 10:46
    en muy pocas manos y pondría
    en peligro la propia democracia.
  • 10:46 - 10:48
    No me malinterpreten,
    creo que hay toneladas
  • 10:48 - 10:51
    de aplicaciones geniales para
    los drones civiles desarmados:
  • 10:51 - 10:55
    control ambiental, búsqueda
    y rescate, logística.
  • 10:55 - 10:58
    Si tenemos un tratado internacional
    sobre armas robóticas,
  • 10:58 - 11:01
    ¿cómo obtenemos los beneficios
    de los drones y vehículos
  • 11:01 - 11:04
    autónomos y al mismo
    tiempo nos protegernos
  • 11:04 - 11:08
    contra las armas robóticas ilegales?
  • 11:08 - 11:13
    Creo que el secreto
    será la transparencia.
  • 11:13 - 11:16
    No debería existir una expectativa
    de privacidad de un robot
  • 11:16 - 11:19
    en un lugar público.
  • 11:19 - 11:24
    (Aplausos)
  • 11:24 - 11:26
    Cada robot y drone deben tener
  • 11:26 - 11:29
    una identificación de fábrica
    firmada criptográficamente
  • 11:29 - 11:32
    que pueda utilizarse para seguir
    sus movimientos en los espacios públicos.
  • 11:32 - 11:35
    Tenemos placas en los coches,
    números de matricula en los aviones.
  • 11:35 - 11:37
    Esto no es diferente.
  • 11:37 - 11:39
    Y todos los ciudadanos deberían
    poder descargar una aplicación
  • 11:39 - 11:42
    que muestre la población de
    drones y vehículos autónomos
  • 11:42 - 11:45
    moviéndose a través de espacios
    públicos alrededor de ellos,
  • 11:45 - 11:48
    tanto en ese momento
    como en un histórico.
  • 11:48 - 11:51
    Y los líderes civiles deben
    desplegar sensores y drones civiles
  • 11:51 - 11:53
    para detectar los drones no autorizados,
  • 11:53 - 11:57
    y en lugar de enviar drones
    asesinos propios para derribarlos,
  • 11:57 - 12:00
    deben notificar a
    los humanos de su presencia.
  • 12:00 - 12:02
    Y en ciertas áreas
    de muy alta seguridad,
  • 12:02 - 12:04
    tal vez los drones
    civiles deban capturarlos
  • 12:04 - 12:07
    y arrastrarlos a una instalación
    de eliminación de explosivos.
  • 12:07 - 12:10
    Pero tengan en cuenta que esto
    es más un sistema inmunológico
  • 12:10 - 12:11
    que un sistema de armas.
  • 12:11 - 12:14
    Esto nos permitiría
    valernos del uso
  • 12:14 - 12:16
    de drones y vehículos autónomos
  • 12:16 - 12:20
    y al mismo tiempo salvaguardar
    nuestra abierta sociedad civil.
  • 12:20 - 12:23
    Hay que prohibir
    el despliegue y desarrollo
  • 12:23 - 12:25
    de robots asesinos.
  • 12:25 - 12:30
    No caigamos en la tentación
    de automatizar la guerra.
  • 12:30 - 12:33
    Los gobiernos autocráticos y
    las organizaciones criminales
  • 12:33 - 12:36
    sin duda lo harán, pero nosotros no.
  • 12:36 - 12:38
    Las armas robóticas autónomas
  • 12:38 - 12:40
    concentrarían demasiado poder
  • 12:40 - 12:42
    en muy pocas manos invisibles,
  • 12:42 - 12:45
    y eso sería corrosivo para
    un gobierno representativo.
  • 12:45 - 12:48
    Asegurémonos de que al
    menos para las democracias,
  • 12:48 - 12:51
    los robots asesinos
    sigan siendo ficción.
  • 12:51 - 12:52
    Gracias.
  • 12:52 - 12:57
    (Aplausos)
  • 12:57 - 13:01
    Gracias. (Aplausos)
Title:
Daniel Suarez: La decisión de matar no la debe tomar un robot
Speaker:
Daniel Suarez
Description:

Como novelista, Daniel Suarez cuenta distopías del futuro. Pero en el escenario de TED Global, nos habla de una situación de la vida real de la que todos necesitamos saber más: el aumento de las armas robóticas autónomas de guerra. Los aviones no tripulados avanzados o 'drones', las armas automáticas y las herramientas de inteligencia artificial, sugiere, podrían tomar la decisión de hacer la guerra sin la intervención de los seres humanos.

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
13:20

Spanish subtitles

Revisions