Return to Video

无需畏惧超级人工智能

  • 0:01 - 0:05
    在我还是孩子的时候 ,
    我是一个典型的书呆子。
  • 0:05 - 0:08
    我猜你们的一部分人和我一样。
  • 0:08 - 0:09
    (笑声)
  • 0:09 - 0:12
    还有你,那位先生,笑得最大声,
    说不定你现在还是呢。
  • 0:12 - 0:14
    (笑声)
  • 0:14 - 0:18
    我成长在德克萨斯州北部
    荒凉平原上的一个小镇。
  • 0:18 - 0:21
    我的爸爸是警长,爷爷是一位牧师,
  • 0:21 - 0:24
    所以自找麻烦从来不是一个好的选项。
  • 0:24 - 0:27
    所以我开始看有关
    微积分的书来打发时间。
  • 0:27 - 0:29
    (笑声)
  • 0:29 - 0:31
    你也是这样。
  • 0:31 - 0:34
    于是我学着制作了一个激光器,
    一台电脑,和一个火箭模型,
  • 0:34 - 0:37
    并且在自己的卧室制取火箭燃料。
  • 0:38 - 0:42
    现在,从科学的角度而言,
  • 0:42 - 0:45
    我们把这个叫做
    一个糟糕透顶的主意。
  • 0:45 - 0:46
    (笑声)
  • 0:46 - 0:48
    在差不多同一时间,
  • 0:48 - 0:52
    Stanley Kubrick的
    “2001:太空漫游”上映了,
  • 0:52 - 0:54
    我的生活从此改变。
  • 0:54 - 0:56
    我喜欢关于那部电影的一切,
  • 0:56 - 0:59
    特别是 HAL 9000。
  • 0:59 - 1:01
    HAL是一台有情感的电脑,
  • 1:01 - 1:03
    为引导“发现一号”飞船从地球
  • 1:03 - 1:06
    前往木星而设计出来。
  • 1:06 - 1:08
    HAL 也是一个有缺陷的角色,
  • 1:08 - 1:13
    因为在结尾他将任务的
    价值置于生命之上。
  • 1:13 - 1:15
    HAL 是一个虚构的角色,
  • 1:15 - 1:18
    但尽管如此,他挑战了我们的恐惧,
  • 1:18 - 1:20
    被一些冷漠无情的
  • 1:20 - 1:23
    人工智能(AI)
  • 1:23 - 1:25
    所统治的恐惧。
  • 1:26 - 1:28
    但我相信这些恐惧只是杞人忧天。
  • 1:28 - 1:31
    的确,我们正处于人类历史上
  • 1:31 - 1:33
    一个值得铭记的时间点,
  • 1:33 - 1:38
    不甘被自身肉体和头脑所局限,
  • 1:38 - 1:39
    我们正在制造
  • 1:39 - 1:43
    那些可以通过我们无法想象的方式
  • 1:43 - 1:45
    来拓展人类体验的机器,
  • 1:45 - 1:47
    它们精美,复杂,而且优雅。
  • 1:48 - 1:50
    我在空军学院
  • 1:50 - 1:52
    和航天司令部工作过,
  • 1:52 - 1:54
    现在是一个系统工程师。
  • 1:54 - 1:57
    最近我碰到了一个和
    NASA火星任务相关的
  • 1:57 - 1:59
    工程问题。
  • 1:59 - 2:02
    当前,前往月球的宇宙飞行,
  • 2:02 - 2:05
    我们可以依靠休斯顿的指挥中心
  • 2:05 - 2:07
    来密切关注飞行的各个方面。
  • 2:07 - 2:11
    但是,火星相比而言
    多出了200倍的距离,
  • 2:11 - 2:14
    这使得一个信号从地球到火星
  • 2:14 - 2:17
    平均要花费13分钟。
  • 2:17 - 2:20
    如果有了麻烦,
    我们并没有足够的时间来解决。
  • 2:21 - 2:23
    所以一个可靠的工程解决方案
  • 2:23 - 2:26
    促使我们把一个指挥中枢
  • 2:26 - 2:29
    放在“猎户星”飞船之中。
  • 2:29 - 2:32
    在任务档案中的另一个创意
  • 2:32 - 2:35
    是在人类抵达火星之前,把人形机器人
  • 2:35 - 2:37
    先一步放在火星表面,
  • 2:37 - 2:38
    它们可以先建造据点,
  • 2:38 - 2:42
    然后作为科学团队的合作伙伴驻扎。
  • 2:43 - 2:46
    当我从工程师的角度看待这个想法,
  • 2:46 - 2:49
    对于建造一个聪明,懂得合作,
  • 2:49 - 2:52
    擅长社交的人工智能的需求
  • 2:52 - 2:54
    是十分明显的。
  • 2:54 - 2:58
    换句话说,我需要建造一个和HAL一样,
  • 2:58 - 3:01
    但是没有谋杀倾向的机器。
  • 3:01 - 3:02
    (笑声)
  • 3:03 - 3:05
    待会儿再回到这个话题。
  • 3:05 - 3:09
    真的有可能打造一个
    类似的人工智能吗?
  • 3:09 - 3:10
    是的,当然可以。
  • 3:10 - 3:11
    在许多方面,
  • 3:11 - 3:13
    一个困难的工程问题来自于
  • 3:13 - 3:15
    AI的各个零件,
  • 3:15 - 3:20
    而不是什么琐碎的AI问题。
  • 3:20 - 3:22
    借用Alan Turing的话来说,
  • 3:22 - 3:25
    我没有兴趣建造一台有情感的机器。
  • 3:25 - 3:26
    我不是要建造HAL。
  • 3:26 - 3:29
    我只想要一个简单的大脑,
  • 3:29 - 3:32
    一个能让你以为它有智能的东西。
  • 3:33 - 3:36
    自从HAL登上荧幕,
    关于编程的技术和艺术
  • 3:36 - 3:38
    已经发展了许多,
  • 3:38 - 3:41
    我能想象如果它的发明者
    Chandra博士今天在这里的话,
  • 3:41 - 3:43
    他会有很多的问题问我们。
  • 3:43 - 3:45
    我们真的可能
  • 3:45 - 3:49
    用一个连接了无数设备的系统,
  • 3:49 - 3:51
    通过读取数据流,
  • 3:51 - 3:53
    来预测它们的失败并提前行动吗?
  • 3:53 - 3:54
    是的。
  • 3:54 - 3:58
    我们能建造一个和人类
    用语言交流的系统吗?
  • 3:58 - 3:58
    能。
  • 3:58 - 4:02
    我们能够打造一个能
    辨识目标,鉴别情绪,
  • 4:02 - 4:05
    表现自身情感,打游戏,
    甚至读唇的系统吗?
  • 4:05 - 4:06
    可以。
  • 4:06 - 4:09
    我们可以建造一个能设定目标,
  • 4:09 - 4:12
    通过各种达成目的的
    方法来学习的系统吗?
  • 4:12 - 4:13
    也可以。
  • 4:13 - 4:17
    我们可以建造一个类似人脑的系统吗?
  • 4:17 - 4:18
    这是我们正在努力做的。
  • 4:18 - 4:22
    我们可以建造一个有道德
    和感情基础的系统吗?
  • 4:22 - 4:25
    这是我们必须要学习的。
  • 4:25 - 4:27
    总而言之,
  • 4:27 - 4:30
    建造一个类似的用于这类任务的
  • 4:30 - 4:32
    人工智能是可行的。
  • 4:32 - 4:34
    另一个你必须扪心自问的问题是,
  • 4:34 - 4:36
    我们应该害怕它吗?
  • 4:36 - 4:38
    毕竟,每一种新技术
  • 4:38 - 4:41
    都给我们带来某种程度的不安。
  • 4:41 - 4:42
    我们第一次看见汽车的时候,
  • 4:42 - 4:47
    人们悲叹我们会看到家庭的毁灭。
  • 4:47 - 4:49
    我们第一次看见电话的时候,
  • 4:49 - 4:52
    人们担忧这会破坏所有的文明交流。
  • 4:52 - 4:56
    在某个时间点我们看到书写文字的蔓延,
  • 4:56 - 4:59
    人们认为我们会丧失记忆的能力。
  • 4:59 - 5:01
    这些在某个程度上是合理的,
  • 5:01 - 5:03
    但也正是这些技术
  • 5:03 - 5:07
    给人类的生活在某些方面
  • 5:07 - 5:08
    带来了前所未有的体验。
  • 5:10 - 5:12
    我们再稍稍扩展一下。
  • 5:13 - 5:18
    我并不畏惧这类人工智能的诞生,
  • 5:18 - 5:22
    因为它最终会融入我们的部分价值观。
  • 5:22 - 5:25
    想想这个:建造一个认知系统
  • 5:25 - 5:29
    与建造一个以传统的软件为主的
    系统有着本质的不同。
  • 5:29 - 5:31
    我们不编译它们。我们教导它们。
  • 5:31 - 5:34
    为了教会系统如何识别花朵,
  • 5:34 - 5:37
    我给它看了上千种我喜欢的花。
  • 5:37 - 5:39
    为了教会系统怎么打游戏——
  • 5:39 - 5:41
    当然,我会。你们也会。
  • 5:43 - 5:45
    我喜欢花。这没什么。
  • 5:45 - 5:48
    为了教会系统如何玩像围棋一样的游戏,
  • 5:48 - 5:50
    我玩了许多围棋的游戏,
  • 5:50 - 5:52
    但是在这个过程中
  • 5:52 - 5:54
    我也教会它如何分别差游戏和好游戏。
  • 5:54 - 5:58
    如果我想要一个人工智能法律助手,
  • 5:58 - 6:00
    我会给它一些法律文集,
  • 6:00 - 6:03
    但同时我会将 怜悯和正义
  • 6:03 - 6:06
    也是法律的一部分 这种观点融入其中。
  • 6:06 - 6:10
    用一个术语来解释,
    就是我们所说的真相,
  • 6:10 - 6:12
    而关键在于:
  • 6:12 - 6:13
    为了制造这些机器,
  • 6:13 - 6:17
    我们正教给它们我们的价值观。
  • 6:17 - 6:20
    正因如此,我相信一个人工智能
  • 6:20 - 6:23
    绝不逊于一个经过良好训练的人类。
  • 6:24 - 6:25
    但是,你或许会问,
  • 6:25 - 6:28
    要是流氓组织,
  • 6:28 - 6:31
    和资金充沛的无政府组织
    也在利用它们呢?
  • 6:31 - 6:35
    我并不害怕独狼掌控的人工智能。
  • 6:35 - 6:40
    很明显,我们无法从
    随机的暴力行为中保护自己,
  • 6:40 - 6:42
    但是现实是,制造这样一个系统
  • 6:42 - 6:45
    超越了个人所拥有资源的极限,
  • 6:45 - 6:47
    因为它需要踏实细致的训练和培养。
  • 6:47 - 6:48
    还有,
  • 6:48 - 6:52
    这远比向世界散播一个网络病毒,
  • 6:52 - 6:55
    比如你按下一个按钮,
    瞬间全世界都被感染,
  • 6:55 - 6:57
    并且在各处的笔记本电脑中
    开始爆发来的复杂。
  • 6:57 - 7:00
    这类东西正在越来越强大,
  • 7:00 - 7:02
    我们必然会看到它们的来临。
  • 7:03 - 7:06
    我会害怕一个有可能威胁所有人类的
  • 7:06 - 7:08
    人工智能吗?
  • 7:08 - 7:13
    如果你看过《黑客帝国》,《大都会》,
  • 7:13 - 7:16
    《终结者》,或者
    《西部世界》这类电视剧,
  • 7:16 - 7:18
    它们都在表达这种恐惧。
  • 7:18 - 7:22
    的确,在哲学家Nick Bostrom
    写的《超级智能》中,
  • 7:22 - 7:24
    他选择了这个主题,
  • 7:24 - 7:28
    并且观察到超级智能不仅仅危险,
  • 7:28 - 7:32
    它还对所有人类的存在造成了威胁。
  • 7:32 - 7:34
    Bostrom博士的基础观点认为,
  • 7:34 - 7:37
    这样的系统迟早会
  • 7:37 - 7:40
    产生对信息的无止境渴求,
  • 7:40 - 7:43
    也许它们会开始学习,
  • 7:43 - 7:46
    并且最终发现它们的目的
  • 7:46 - 7:48
    和人类的需求背道而驰。
  • 7:48 - 7:50
    Bostrom博士有一群粉丝。
  • 7:50 - 7:54
    Elon Musk和Stephen Hawking也支持他。
  • 7:55 - 7:57
    虽然要向这些伟大的头脑
  • 7:58 - 8:00
    致以崇高的敬意,
  • 8:00 - 8:02
    但我还是相信他们从一开始就错了。
  • 8:02 - 8:06
    Bostrom博士的观点
    有很多地方可以细细体会,
  • 8:06 - 8:08
    但现在我没有时间一一解读,
  • 8:08 - 8:11
    简要而言,请考虑这句话:
  • 8:11 - 8:14
    全知并非全能。
  • 8:14 - 8:16
    HAL成为了对发现一号成员的威胁,
  • 8:16 - 8:21
    只是因为它控制了
    发现一号的各个方面。
  • 8:21 - 8:23
    正因如此它才需要是一个人工智能。
  • 8:23 - 8:26
    它需要对于我们世界的完全掌控。
  • 8:26 - 8:29
    这就是《终结者》中的天网,
  • 8:29 - 8:30
    一个控制了人们意志,
  • 8:30 - 8:32
    控制了世界各处
  • 8:32 - 8:36
    各个机器的超级智能。
  • 8:36 - 8:37
    说实在的,
  • 8:37 - 8:39
    这完全是杞人忧天。
  • 8:39 - 8:42
    我们不是在制造可以控制天气,
  • 8:42 - 8:44
    引导潮水,
  • 8:44 - 8:47
    指挥我们这些
    多变,混乱的人类的人工智能。
  • 8:47 - 8:51
    另外,即使这类人工智能存在,
  • 8:51 - 8:54
    它需要和人类的经济竞争,
  • 8:54 - 8:57
    进而和我们拥有的资源竞争。
  • 8:57 - 8:58
    最后——
  • 8:58 - 9:00
    不要告诉Siri——
  • 9:00 - 9:02
    我们可以随时拔掉电源。
  • 9:02 - 9:04
    (笑声)
  • 9:05 - 9:08
    我们正处于和机器共同演化的
  • 9:08 - 9:10
    奇妙旅途之中。
  • 9:10 - 9:13
    未来的人类
  • 9:13 - 9:15
    将与今天的人类大相径庭。
  • 9:15 - 9:19
    当前对人工智能崛起的担忧,
  • 9:19 - 9:22
    从各方面来说都是
    一个危险的错误指引,
  • 9:22 - 9:24
    因为电脑的崛起
  • 9:24 - 9:27
    带给了我们许多必须参与的
  • 9:27 - 9:29
    关乎人类和社会的问题。
  • 9:29 - 9:32
    我应该如何管理社会
  • 9:32 - 9:35
    来应对人类劳工需求量的降低?
  • 9:35 - 9:38
    我应该怎样在进行全球化
    交流和教育的同时,
  • 9:38 - 9:40
    依旧尊重彼此的不同?
  • 9:40 - 9:45
    我应该如何通过可认知医疗
    来延长并强化人类的生命?
  • 9:45 - 9:47
    我应该如何通过计算机
  • 9:47 - 9:49
    来帮助我们前往其他星球?
  • 9:50 - 9:52
    这些都很令人兴奋。
  • 9:52 - 9:55
    通过计算机来升级
  • 9:55 - 9:56
    人类体验的机会
  • 9:56 - 9:58
    就在我们手中,
  • 9:58 - 10:00
    就在此时此刻,
  • 10:00 - 10:01
    我们的旅途才刚刚开始。
  • 10:02 - 10:03
    谢谢大家。
  • 10:04 - 10:08
    (掌声)
Title:
无需畏惧超级人工智能
Speaker:
格雷迪·布切
Description:

“新技术产生了新的焦虑。“Grady Booch, 这位科学家和哲学家如此说到,”但是我们无需畏惧一个全能但无情的人工智能。" Booch通过解释我们是如何教导人工智能,而非编写它来传递我们的价值观,缓和了我们由于科幻作品导致的对于超级智能机器的恐慌。与其担忧一个不太可能出现的威胁,他强烈建议我们考虑如何通过人工智能使人类的生活变得更美好。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
10:20

Chinese, Simplified subtitles

Revisions