Return to Video

電腦是如何學會創意的?

  • 0:01 - 0:04
    我在 Google 帶領
    一個團隊做機械智慧;
  • 0:04 - 0:09
    換句話說,就是制定一些訓練方法,
  • 0:09 - 0:11
    讓電腦和裝置能做些大腦做的事。
  • 0:11 - 0:15
    而這也讓我們對真實的大腦
  • 0:15 - 0:16
    以及神經科學產生了興趣,
  • 0:16 - 0:20
    特別是一些我們大腦能做
  • 0:20 - 0:24
    但電腦仍無法呈現出來的事。
  • 0:25 - 0:29
    長期以來,機械智慧的
    其中一個領域談的就是機械感知,
  • 0:29 - 0:32
    它是一種轉化的過程——
  • 0:32 - 0:33
    像是把聲音和影像——
  • 0:34 - 0:36
    轉化成心智上的概念。
  • 0:36 - 0:39
    這是我們大腦必備的能力,
  • 0:39 - 0:41
    這個能力對電腦來說也很有用。
  • 0:42 - 0:45
    所謂的機械感知演算法,
    像是我們團隊做的,
  • 0:45 - 0:49
    能讓你 Google 相簿裡的照片
  • 0:49 - 0:51
    根據照片裡的東西
    把它們變成可以被搜尋的資料。
  • 0:52 - 0:55
    感知的另一面是創意:
  • 0:55 - 0:58
    把概念轉化成另一種東西。
  • 0:58 - 1:02
    所以過去幾年,
    我們團隊在機器感知上的努力,
  • 1:02 - 1:05
    已經可以把創意與
  • 1:05 - 1:08
    機器藝術結合在一起。
  • 1:09 - 1:12
    我覺得米開朗基羅對「感知」
    與「創意」這兩者之間的關係
  • 1:12 - 1:16
    有一種很透析的看法。
  • 1:16 - 1:18
    他有一句名言:
  • 1:18 - 1:21
    「每一塊石頭裡都藏著一座雕像,
  • 1:22 - 1:25
    等待雕刻家將它雕塑出來。」
  • 1:26 - 1:29
    所以我覺得米開朗基羅
    當時的體悟是:
  • 1:29 - 1:32
    我們的「創意」來自「感知」,
  • 1:32 - 1:36
    而感知本身就是一個想像行為
  • 1:36 - 1:38
    及創意的來源。
  • 1:39 - 1:43
    人體中有一個器官
    能做出思考、感受和想像,
  • 1:43 - 1:44
    當然,那就是我們的大腦。
  • 1:45 - 1:48
    我想先簡單地來談一談
  • 1:48 - 1:50
    我們對大腦認知的歷史。
  • 1:50 - 1:53
    因為大腦不像我們的心臟或腸道,
  • 1:53 - 1:56
    你不能光用看的來瞭解大腦,
  • 1:56 - 1:58
    光靠肉眼根本看不出個所以然來。
  • 1:58 - 2:00
    早期研究大腦的解剖學家,
  • 2:00 - 2:04
    在大腦表皮結構上
    取了許多稀奇古怪的名字,
  • 2:04 - 2:07
    例如海馬體,意思是「小蝦子」。
  • 2:07 - 2:08
    當然,這樣的命名方式
  • 2:08 - 2:13
    並沒有讓我們對
    大腦的認識有太多的幫助。
  • 2:13 - 2:16
    我認為,第一個有真正深入了解
  • 2:16 - 2:18
    大腦如何運作的,
  • 2:18 - 2:22
    是偉大的西班牙神經解剖學家
    桑地牙哥·拉蒙卡哈,
  • 2:22 - 2:24
    他在十九世紀,
  • 2:24 - 2:28
    就已經開始用顯微鏡和特殊染劑
  • 2:28 - 2:32
    把大腦裡的特定細胞篩選出來染色,
  • 2:32 - 2:34
    或以強烈的對比色來觀察細胞,
  • 2:34 - 2:37
    這樣做,是為了瞭解
    它們的形態結構。
  • 2:38 - 2:41
    這些是他在十九世紀時
  • 2:41 - 2:42
    畫的神經細胞圖,
  • 2:42 - 2:44
    這一張是鳥的大腦。
  • 2:44 - 2:47
    但當時已經可以看到
    各式各樣不同的細胞圖片,
  • 2:47 - 2:51
    即使細胞的原理
    在當時是個相當新穎的概念。
  • 2:51 - 2:52
    這些結構,
  • 2:52 - 2:54
    這些樹枝狀的細胞結構,
  • 2:54 - 2:57
    可以延伸到相當相當長──
  • 2:57 - 2:59
    在當時來講,
    這樣的發現算是相當神奇了。
  • 2:59 - 3:02
    當然,它們也會讓人聯想到電線,
  • 3:02 - 3:05
    這對 19 世紀的人來說,
    這樣的比喻可能比較恰當,
  • 3:05 - 3:10
    因為當時電線和電力的變革
    正如火如荼的進行。
  • 3:10 - 3:11
    但就很多方面來說,
  • 3:11 - 3:14
    像拉蒙卡哈這樣的顯微鏡解剖圖
  • 3:15 - 3:17
    現在看來還是很厲害。
  • 3:17 - 3:19
    但我們卻在一個世紀後,
  • 3:19 - 3:22
    才想試著去完成
    當年拉蒙卡哈的研究。
  • 3:22 - 3:25
    這些原始資料,來自我們
  • 3:25 - 3:28
    馬克斯·普朗克
    神經科學機構的合作夥伴。
  • 3:28 - 3:29
    而我們的合作夥伴的工作就是
  • 3:29 - 3:34
    把大腦組織切成
    一小片一小片的圖像。
  • 3:34 - 3:38
    整個樣本的大小
    大約只有 1 立方毫米,
  • 3:38 - 3:40
    我展示給各位看的只有小小的一片。
  • 3:40 - 3:43
    你可以看到,
    左邊的長度標誌僅有一微米。
  • 3:43 - 3:45
    各位現在看到的結構是粒線體,
  • 3:45 - 3:47
    大小跟細菌一樣。
  • 3:47 - 3:49
    這些連續切片圖,
  • 3:49 - 3:52
    是由一塊很小的組織中
    一片片切出來的。
  • 3:52 - 3:55
    舉個例子做比較,
  • 3:55 - 3:58
    一根頭髮的直徑
    大約有 100 微米。
  • 3:58 - 4:00
    我們在研究的
  • 4:00 - 4:02
    是比一根頭髮還更細更小的東西。
  • 4:02 - 4:06
    而這一系列的電子顯微鏡切片圖像,
  • 4:06 - 4:11
    可以組成像這樣的
    神經元 3D 立體成像。
  • 4:11 - 4:14
    這些和拉蒙卡哈
    當年的研究相去不遠。
  • 4:14 - 4:16
    但只有幾個神經元可以打光,
  • 4:16 - 4:19
    否則我們會看不到東西。
  • 4:19 - 4:20
    因為空間太壅擠、
  • 4:20 - 4:21
    結構太複雜了,
  • 4:21 - 4:24
    神經元蜿蜒地一個接著一個。
  • 4:25 - 4:28
    所以,拉蒙卡哈在當時
    也算是走在時代的尖端,
  • 4:28 - 4:31
    但在那之後的幾十年,
  • 4:31 - 4:33
    人類對大腦的認識卻相當緩慢。
  • 4:33 - 4:36
    但我們已經知道
    神經元是利用電子傳遞訊號,
  • 4:36 - 4:39
    到第二次世界大戰前,
    我們的科技已經進步到
  • 4:39 - 4:42
    可以在活體神經元上做電子實驗,
  • 4:42 - 4:44
    用來更好地理解它們是如何運作的。
  • 4:45 - 4:49
    這也是電腦被發明出來的時間,
  • 4:49 - 4:52
    當初有一個模擬人腦的基礎想法——
  • 4:52 - 4:55
    是由艾倫·圖靈所提出,
    他稱之為「智能機械」,
  • 4:55 - 4:57
    他是計算機科學之父之一。
  • 4:58 - 5:03
    當時沃倫麥卡洛克和華特彼特斯
    (人工神經科學家)
  • 5:03 - 5:04
    看到的視覺皮質圖,
  • 5:04 - 5:05
    就是上面這張拉蒙卡哈的圖片。
  • 5:06 - 5:10
    這個皮質層是負責把
    眼睛傳來的訊號轉換成圖像。
  • 5:10 - 5:14
    他們當時發現,
    它看起來像是一張電路圖。
  • 5:14 - 5:17
    雖然麥卡洛克和彼特斯
  • 5:17 - 5:20
    在電路圖上有很多細節不太正確,
  • 5:20 - 5:21
    但這樣的基礎概念,
  • 5:21 - 5:25
    視覺皮層的工作原理
  • 5:25 - 5:28
    像一系列的計算子
    在串聯的電路圖上傳遞著資訊,
  • 5:28 - 5:29
    這樣的概念卻是相當正確的。
  • 5:29 - 5:32
    我們稍微聊一下,
  • 5:32 - 5:36
    產生視覺資訊的模型,
    需要做哪些事情。
  • 5:36 - 5:39
    覺察力的基本任務就是
  • 5:39 - 5:43
    比如說,看到這一張圖片,
  • 5:43 - 5:44
    就要會判斷出,「這是一隻鳥」,
  • 5:44 - 5:47
    這對我們大腦來說是很簡單的任務。
  • 5:47 - 5:51
    但各位要知道,這對電腦來說
  • 5:51 - 5:54
    在幾年前根本是不可能的事。
  • 5:54 - 5:56
    傳統的計算模式
  • 5:56 - 5:58
    根本不太容易跑出來這樣的任務。
  • 5:59 - 6:02
    所以,像素、
  • 6:02 - 6:06
    鳥圖與文字之間,
  • 6:06 - 6:08
    一定要有一組彼此連結的神經元
  • 6:08 - 6:10
    在神經網路內相互作用著,
  • 6:10 - 6:11
    就像我這張示意圖。
  • 6:11 - 6:15
    這張神經網路圖
    就像我們的視覺皮質運作原理。
  • 6:15 - 6:17
    如今,我們已經有能力
  • 6:17 - 6:19
    用電腦來模擬這樣的神經網路。
  • 6:20 - 6:22
    接下來我向各位展示一下,
    實際的操作大概是怎樣。
  • 6:22 - 6:26
    圖片的像素你可以把它想像成是
    第一層的神經元,
  • 6:26 - 6:28
    實際上,就是眼睛裡面
    像素的呈現方式,
  • 6:28 - 6:30
    像素是透過
    視網膜上的神經元做傳遞。
  • 6:30 - 6:31
    而這些前饋資訊
  • 6:31 - 6:35
    會一層一層地傳遞到下一層神經元,
  • 6:35 - 6:38
    全部由不同的「突觸權重」所連結。
  • 6:38 - 6:39
    神經網路的行為
  • 6:39 - 6:42
    全都由這些突觸的強度所控制。
  • 6:42 - 6:46
    它們決定了神經網路的計算模式。
  • 6:46 - 6:47
    最後,
  • 6:47 - 6:50
    會有一個或一小群的
    神經元發出訊號,
  • 6:50 - 6:52
    辨識出該圖片就是,「鳥」。
  • 6:52 - 6:55
    我現在要來解釋一下這三個元素——
  • 6:55 - 7:00
    輸入的「像素」、
    神經網路裡的「突觸」、
  • 7:00 - 7:01
    還有「鳥」這個輸出的字元——
    它們是如何運作的。
  • 7:01 - 7:04
    它們是由三種變數所組成,
    x、w 和 y。
  • 7:05 - 7:07
    圖片中可能有一百多萬個 x ——
  • 7:07 - 7:09
    100 多萬個像素。
  • 7:09 - 7:11
    而 w 可能有數十億或好幾兆個,
  • 7:11 - 7:15
    它們代表著神經網路中
    各個突觸的權重。
  • 7:15 - 7:16
    而這個網路能輸出的 y
  • 7:16 - 7:18
    只有少數幾個。
  • 7:18 - 7:20
    「bird」只有四個字母,對吧?
  • 7:21 - 7:25
    我們假設它的原理是
    一個簡單的公式,
  • 7:25 - 7:27
    x 「乘以」 w = y
  • 7:27 - 7:29
    我把乘法符號用引號標示起來
  • 7:29 - 7:31
    因為它其實是一個
  • 7:31 - 7:34
    非常複雜的數學運算概念。
  • 7:35 - 7:36
    這個方程式
  • 7:36 - 7:38
    有三個變數,
  • 7:38 - 7:41
    我們都知道,如果你想要
    解開這個方程式,
  • 7:41 - 7:45
    可以從兩個已知數
    交叉算出未知的數。
  • 7:45 - 7:49
    所以要推斷出
  • 7:49 - 7:51
    圖片中的影像是一隻鳥,
  • 7:51 - 7:53
    可以用這種方式得知:
  • 7:53 - 7:56
    y 是未知數,而 w 和 x 是已知數。
  • 7:56 - 7:59
    已知神經網路和圖片像素,
  • 7:59 - 8:02
    其實可以很直接的就得到答案,
  • 8:02 - 8:04
    2x3=6,就做完了。
  • 8:05 - 8:07
    我向各位展示一個
  • 8:07 - 8:09
    我們最近做的人工神經網路,
  • 8:10 - 8:12
    它可以在手機上做及時的操作,
  • 8:13 - 8:16
    當然,手機的運算能力相當驚人,
  • 8:16 - 8:18
    手機每秒
  • 8:18 - 8:21
    可以做出數十億至上兆次的運算。
  • 8:21 - 8:23
    你現在看到的是一隻手機
  • 8:23 - 8:26
    正對著一張張的鳥圖拍照,
  • 8:26 - 8:29
    手機不但可以正確的說出,
    「是的,這是一隻鳥。」
  • 8:29 - 8:32
    還能透過神經網路分類
    分辨出這是哪一種鳥。
  • 8:33 - 8:35
    所以,在這些圖片上,
  • 8:35 - 8:39
    x 和 w 是已知,而 y 是未知。
  • 8:39 - 8:41
    我現在來解釋一下這個
    最困難的 「w」,
  • 8:41 - 8:45
    我們到底是如何算出來的?
  • 8:45 - 8:47
    為什麼大腦可以做出這樣的判斷?
  • 8:47 - 8:49
    我們到底是如何學到
    這樣的認知模式的?
  • 8:49 - 8:53
    這個學習的過程,
    是一個求解 w 的過程,
  • 8:53 - 8:55
    如果我們要解這個一次方程式,
  • 8:55 - 8:57
    當它們都是數字時,
  • 8:57 - 9:00
    我們都知道如何解 6=2 x w,
  • 9:00 - 9:03
    我們只要把 6 除以 2
    就可以得到答案。
  • 9:04 - 9:06
    問題在於這個運算符號,
  • 9:07 - 9:08
    除法這個符號——
  • 9:08 - 9:11
    我們會用除法的方式求解,
    是因為它跟乘法相反,
  • 9:11 - 9:13
    但就如同我剛剛提到的,
  • 9:13 - 9:15
    乘法在這裡有點像是個幌子。
  • 9:15 - 9:18
    這是非常非常複雜的概念,
    它們是「非線性運算」的概念;
  • 9:18 - 9:20
    無法直接用除的求解。
  • 9:20 - 9:23
    所以,我們要另外
    找個方法來解方程式,
  • 9:23 - 9:25
    而不能直接用除的。
  • 9:25 - 9:28
    方法相當簡單,
  • 9:28 - 9:30
    可以說,我們只用了點
    代數的小技巧,
  • 9:30 - 9:33
    將 6 移動到等號的右邊。
  • 9:33 - 9:35
    如此我們就可以繼續用乘法來運算。
  • 9:36 - 9:39
    而等號左邊的零——
    我們把它想像成是誤差。
  • 9:39 - 9:42
    換言之,如果要解出 w,
  • 9:42 - 9:43
    誤差就要變成 0。
  • 9:43 - 9:45
    如果我們沒找到答案
  • 9:45 - 9:47
    誤差會永遠大於 0。
  • 9:47 - 9:51
    所以,我們現在
    只能用猜的來縮小誤差,
  • 9:51 - 9:53
    而這就是電腦非常擅長的地方。
  • 9:53 - 9:55
    所以,你會從頭開始猜:
  • 9:55 - 9:56
    假設 w=0
  • 9:56 - 9:57
    那誤差會等於6
  • 9:57 - 9:59
    但假如 w=1 呢?誤差等於 4。
  • 9:59 - 10:01
    接下來電腦有點像是在玩
    馬可波羅探索遊戲,
  • 10:01 - 10:04
    探索到誤差接近零為止。
  • 10:04 - 10:07
    當它一直探索到零,
    那麼 w 就解出來了。
  • 10:07 - 10:11
    原則上,它會不停探索直到接近零,
    但大約經過多次步驟後,
  • 10:11 - 10:15
    我們就能得出 w=2.999,
    相當接近了。
  • 10:16 - 10:18
    這就是電腦學習的過程。
  • 10:18 - 10:21
    回想一下剛剛發生了什麼事情,
  • 10:21 - 10:25
    我們有很多已知的 x 和 y,
  • 10:25 - 10:29
    透過重複迭代的過程解出了 w。
  • 10:29 - 10:32
    而這就是我們人類學習的過程,
  • 10:32 - 10:35
    我們從小看了很多圖片
  • 10:35 - 10:37
    被告知「這是鳥」,「這不是鳥」;
  • 10:38 - 10:40
    經過了一段時間,不停地重複,
  • 10:40 - 10:43
    我們解出了 w,
    產生了神經元的連結關係。
  • 10:43 - 10:48
    所以現在,我們的 x 和 w
    是固定數,可以解出 y;
  • 10:48 - 10:49
    這就是我們人類每天
    經常性的快速直覺判斷。
  • 10:49 - 10:51
    我們搞懂了如何解出 w,
  • 10:51 - 10:53
    而學習本身是一條相當艱辛的路程,
  • 10:53 - 10:55
    因為為了讓誤差最小化,
  • 10:55 - 10:57
    我們必須使用很多的訓練樣本。
  • 10:57 - 11:00
    約一年前,我們團隊的
    艾力克斯摩文斯夫
  • 11:00 - 11:02
    決定做個實驗,
  • 11:02 - 11:06
    看看如果我們試著給出了 w 和 y,
    解出來的 x 會變什麼樣。
  • 11:06 - 11:07
    換句話說,
  • 11:07 - 11:09
    電腦知道它是一隻鳥,
  • 11:09 - 11:12
    電腦有你給它訓練出來
    辨識鳥圖片的神經網路,
  • 11:12 - 11:14
    但對電腦而言,鳥是怎樣的圖像?
  • 11:15 - 11:20
    原來,使用一模一樣的
    「誤差最小化」程序
  • 11:20 - 11:24
    以及訓練出來
    用來辨識鳥的神經網路,
  • 11:24 - 11:27
    你就能辨識出……
  • 11:30 - 11:32
    這是一張鳥圖,
  • 11:33 - 11:36
    所以,這是一張完全由
  • 11:36 - 11:38
    訓練辨認鳥的神經網路
    自行創造出來的鳥圖,
  • 11:38 - 11:41
    只要透過不斷地重複解出 x,
  • 11:41 - 11:44
    而不是解 y 就可以了。
  • 11:44 - 11:46
    這裡有另一個有趣的範例。
  • 11:46 - 11:49
    我們團隊裡的
    另外一位組員麥克泰卡,
  • 11:49 - 11:51
    他稱這些畫為《動物大遊行》。
  • 11:51 - 11:54
    這讓我有點回想起了
    威廉肯特基的作品,
  • 11:54 - 11:57
    他畫好素描後,擦掉它,
  • 11:57 - 11:58
    然後反覆地畫、反覆地擦
  • 11:58 - 12:00
    透過這樣的方式,
    創造出了一部影片。
  • 12:00 - 12:01
    在這個展示裡,
  • 12:01 - 12:04
    麥可做的就是把不同動物的 y ,
  • 12:04 - 12:07
    透過設計好的神經網路,
  • 12:07 - 12:08
    彼此辨認並分別出不一樣的動物。
  • 12:08 - 12:12
    如此,你就能得到一張像艾雪一樣的
    不同動物的變體圖像。
  • 12:14 - 12:19
    這一張是他和艾力克斯一起完成的,
  • 12:19 - 12:22
    他們試著減少 y 的數量,
    將這些圖案丟到一個 2D 平面上,
  • 12:22 - 12:25
    透過這個網路的辨識,
  • 12:25 - 12:27
    創造出了這一張有各種動物的地圖。
  • 12:27 - 12:29
    要做出這樣的綜合體,
  • 12:29 - 12:31
    或透過整張圖面產出圖像,
  • 12:31 - 12:34
    你只要在圖面上給出各式各樣的 y ,
    你就能做出一張地圖來——
  • 12:34 - 12:37
    一張由神經網路辨識出的視覺地圖。
  • 12:37 - 12:40
    所有動物都會在這上面,
    犰狳就在圖上這個點。
  • 12:41 - 12:43
    你也可以透過不同的神經網路,
    做出類似這樣的作品,
  • 12:43 - 12:46
    這一張由辨識臉的神經網路
  • 12:46 - 12:48
    所做出來的作品,
  • 12:48 - 12:52
    這一張是用「我」當作 y ,
    所做出來的圖畫,
  • 12:52 - 12:53
    用我的臉當參數。
  • 12:53 - 12:55
    當電腦解出 x 後,
  • 12:55 - 12:58
    它就畫出了這一張相當瘋狂、
  • 12:58 - 13:02
    有點像立體派藝術、
    超現實、迷幻效果的我,
  • 13:02 - 13:04
    同一張圖卻有不同的視角。
  • 13:04 - 13:07
    而會有這種「同一張圖
    不同視角」的感覺,
  • 13:07 - 13:10
    是因為這個神經網路的設計,
  • 13:10 - 13:13
    可以將不同姿勢臉之間的
    模糊地帶移除掉,
  • 13:13 - 13:16
    透過觀察不同的光源就可以做到。
  • 13:16 - 13:18
    所以,當你重新製作圖像時,
  • 13:18 - 13:21
    如果你沒有使用指導圖,
  • 13:21 - 13:22
    或特定的統計資料,
  • 13:22 - 13:26
    那你就能得到來自
    不同角度的混合體圖像,
  • 13:26 - 13:28
    因為它是模糊的。
  • 13:28 - 13:32
    所以如果艾力克斯
    用他自己的臉當作指導圖
  • 13:32 - 13:35
    在優化過程中重新建造我的臉,
    就會產生這樣的圖像。
  • 13:36 - 13:39
    各位可以看到,
    這作品還不是很完美,
  • 13:39 - 13:41
    在圖像優化的過程方面,
  • 13:41 - 13:43
    還有很多工作要做。
  • 13:43 - 13:46
    但如果用我的臉當指導圖,
  • 13:46 - 13:49
    就能漸漸地顯現出比較
    條理分明的臉。
  • 13:49 - 13:51
    你不需要從一張空白的畫布
  • 13:51 - 13:53
    或用白雜訊畫起。
  • 13:53 - 13:54
    當你解出 x 後,
  • 13:54 - 13:58
    你就可以從 x 開始畫起,
    因為它本身就有一些圖像。
  • 13:58 - 14:00
    這個小小的展示
    說明了它的運作原理。
  • 14:00 - 14:05
    這個網路是設計用來
    分辨各種不同的物體,
  • 14:05 - 14:08
    像是人造結構、動物……等。
  • 14:08 - 14:10
    這一張畫我們是從
    雲朵的圖像開始畫起的,
  • 14:10 - 14:12
    當我們把它優化後,
  • 14:12 - 14:17
    基本上,這個神經網路
    正在搞懂它在雲朵中看見了什麼。
  • 14:17 - 14:19
    當你看得越久,
  • 14:19 - 14:22
    你就能在雲層中看得越多。
  • 14:23 - 14:26
    你也可以運用人臉網路
    讓它產生幻覺,
  • 14:26 - 14:28
    然後就會跑出相當瘋狂的畫作。
  • 14:28 - 14:29
    (笑聲)
  • 14:30 - 14:33
    或者,麥可已經有作出
    一些其它的實驗,
  • 14:33 - 14:37
    他用那張雲朵的圖像,
  • 14:37 - 14:41
    使電腦產生幻覺、然後放大、
    產生幻覺、再放大。
  • 14:41 - 14:42
    用這樣的方式,
  • 14:42 - 14:45
    我在想,你就能得到一種
    像是在神遊狀態的網路,
  • 14:46 - 14:49
    或者像是一種無拘束的聯想,
  • 14:49 - 14:51
    彷彿神經網路正在吃著自己的尾巴。
  • 14:51 - 14:55
    所以每一張圖像基本上像是正在想:
  • 14:55 - 14:56
    「我接下來會看到什麼?
  • 14:56 - 14:59
    接下來會看到什麼?
    接下來會看到什麼?」
  • 14:59 - 15:02
    我第一次在一個
    公眾場合上展示這個影片,
  • 15:02 - 15:08
    是在西雅圖的「高等教育」
    機構做演說時展示的,
  • 15:08 - 15:10
    當時剛好是大麻剛合法化的時候。
  • 15:10 - 15:13
    (笑聲)
  • 15:15 - 15:17
    所以,我快速總結一下,
  • 15:17 - 15:21
    這項技術並不會受到約束。
  • 15:21 - 15:25
    我剛剛展示的是純粹的視覺範例,
    因為觀察它的變化,真的很好玩。
  • 15:25 - 15:27
    它不單只有視覺科技。
  • 15:27 - 15:29
    我們的藝術合作者,羅斯谷穎
    已經做了一些實驗,
  • 15:29 - 15:33
    他用相機拍了一張照片,
  • 15:33 - 15:37
    然後他背包裡的電腦
    會根據圖片上的內容,
  • 15:37 - 15:39
    透過神經網路,創作出一首詩。
  • 15:39 - 15:42
    這個會作詩的神經網路
  • 15:42 - 15:44
    是透過大量 20 世紀的詩集
    所訓練出來的,
  • 15:44 - 15:46
    而做出來的詩,
  • 15:46 - 15:48
    實際上,我覺得還得不錯。
  • 15:48 - 15:49
    (笑聲)
  • 15:49 - 15:50
    整體而言,
  • 15:50 - 15:53
    我在想,米開朗基羅,
  • 15:53 - 15:54
    他是對的;
  • 15:54 - 15:57
    感知和創意的關係是相當緊密的。
  • 15:58 - 16:00
    我們剛剛看的神經網路,
  • 16:00 - 16:03
    它們是被訓練出來分辯
  • 16:03 - 16:05
    或辨認世界上不同的東西,
  • 16:05 - 16:08
    也可以反過來,自行創作出東西來。
  • 16:08 - 16:10
    而我從中所得到的
  • 16:10 - 16:12
    不僅有米開朗基羅的啟發:
  • 16:12 - 16:15
    「看見石頭裡的雕像」,
  • 16:15 - 16:18
    還有任何能做出感知活動的
    生物、生命、外來物種
  • 16:18 - 16:22
    都能透過這樣的方式
  • 16:22 - 16:23
    被呈現並創造出來,
  • 16:23 - 16:27
    因為這兩者與剛才舉的例子
    都有著相同的機制。
  • 16:27 - 16:31
    我也認為,感知及創意
  • 16:31 - 16:33
    不是只有我們人類獨有。
  • 16:33 - 16:36
    我們已經有電腦模式
    可以做出相當類似的事。
  • 16:36 - 16:40
    所以不需要感到驚訝;
    因為大腦是會運算的。
  • 16:40 - 16:41
    最後,我要說的是,
  • 16:41 - 16:46
    設計智能機器已經開始成為
    電腦界的活動。
  • 16:46 - 16:48
    在如何讓機器更智能的領域方面,
  • 16:48 - 16:51
    已經有很多的模式產生。
  • 16:52 - 16:54
    我們終於開始
  • 16:54 - 16:56
    完成一些早期前輩們
  • 16:56 - 16:58
    像是圖靈、馮諾伊曼、
  • 16:58 - 17:00
    馬庫洛奇和皮斯的期望。
  • 17:00 - 17:04
    而我也認為電腦不是只有拿來計算
  • 17:04 - 17:06
    或玩玩 Candy Crush 而已,
  • 17:06 - 17:09
    回到初衷,我們想要的
    是讓電腦能仿效人腦。
  • 17:09 - 17:12
    它不僅讓我們更了解了人類的心智,
  • 17:12 - 17:15
    並讓我們獲得延伸發展心智的能力。
  • 17:15 - 17:16
    非常感謝大家。
  • 17:16 - 17:22
    (掌聲)
Title:
電腦是如何學會創意的?
Speaker:
布雷斯.阿規耶拉.雅克斯
Description:

我們正站在藝術與創意時代的尖端——但不是人類做的。Google的首席科學家,布雷斯.阿規耶拉.雅克斯(Blaise Agüera y Arcas)運用深度神經網路,讓機械感知並呈現學習的成果。在這場迷人的演示中,他向我們展示如何訓練神經網路辨識圖片,以及如何反向操作讓電腦自行創造出畫作來。成果是:透過定義分類的方式,呈現出完美、迷幻的拼貼畫(及詩詞!)「感知與創造力是緊密相連的」。他說,「任何可以做出感知活動的生物、生命都能被創作出來」。

more » « less
Video Language:
English
Team:
closed TED
Project:
TEDTalks
Duration:
17:34

Chinese, Traditional subtitles

Revisions