谷歌AlphaGo是什么?作為一種人工智能的AlphaGo,和IBM 在上個世紀(jì)打敗國際象棋大師卡斯帕羅夫的深藍(lán)超級計算機(jī),以及當(dāng)代的蘋果Siri、Google Now有著顯著的區(qū)別。要解讀AlphaGo,首先我們需要了解AlphaGo背后到底是一個什么東西。
(資料圖片僅供參考)
其實谷歌AlphaGo背后是一套神經(jīng)網(wǎng)絡(luò)系統(tǒng),由 Google 2014 年收購的英國人工智能公司 DeepMind 開發(fā)。這個系統(tǒng)和深藍(lán)不同,不是一臺超級計算機(jī),而是一個由許多個數(shù)據(jù)中心作為節(jié)點相連,每個節(jié)點內(nèi)有著多臺超級計算機(jī)的神經(jīng)網(wǎng)絡(luò)系統(tǒng)。 就像人腦,是由 50-100 億個神經(jīng)元所組成的,這也是為什么這種機(jī)器學(xué)習(xí)架構(gòu)被稱為神經(jīng)網(wǎng)絡(luò)。
你可以將AlphaGo 理解為《超驗駭客》(Transcendence) 里約翰尼·德普飾演的人工智能,而它所控制的超級計算機(jī),就像影片里被人工智能心控的人類一樣,共同為一種蜂群思維 (Hive Mind) 服務(wù)。
《超驗駭客》中,被人工智能控制的工人馬丁。馬丁沒有所想,但他的所見將會被人工智能直接獲取。
AlphaGo 是在這個神經(jīng)網(wǎng)絡(luò)系統(tǒng)上,專為下圍棋 (Go) 而開發(fā)出的一個實例。然而,雖然名字已經(jīng)介紹了它的功能,AlphaGo 背后的神經(jīng)網(wǎng)絡(luò)系統(tǒng)卻適合用于任何智力競技類項目。
這個系統(tǒng)的基礎(chǔ)名叫卷積神經(jīng)網(wǎng)絡(luò) (Convolutional Neural Network, CNN) ,這是一種過去在大型圖像處理上有著優(yōu)秀表現(xiàn)的神經(jīng)網(wǎng)絡(luò),經(jīng)常被用于人工智能圖像識別,比如 Google 的圖片搜索、百度的識圖功能都對卷積神經(jīng)網(wǎng)絡(luò)有所運用。這也解釋了為什么AlphaGo 是基于卷積神經(jīng)網(wǎng)絡(luò)的,畢竟圍棋里勝利的原理是:
對弈雙方在棋盤網(wǎng)格的交叉點上交替放置黑色和白色的棋子。落子完畢后,棋子不能移動。對弈過程中圍地吃子,以所圍“地”的大小決定勝負(fù)。
AlphaGo 背后的系統(tǒng)還借鑒了一種名為深度強(qiáng)化學(xué)習(xí) (Deep Q-Learning, DQN) 的技巧。強(qiáng)化學(xué)習(xí)的靈感來源于心理學(xué)中的行為主義理論,即有機(jī)體如何在環(huán)境給予的獎勵或懲罰的刺激下,逐步形成對刺激的預(yù)期,產(chǎn)生能獲得最大利益的習(xí)慣性行為。不僅如此,AlphaGo 借鑒了蒙特卡洛樹搜索算法 (Monte Carlo Tree Search) ,在判斷當(dāng)前局面的效用函數(shù) (value function) 和決定下一步的策略函數(shù) (policy function) 上有著非常好的表現(xiàn),遠(yuǎn)超過上一個能夠和人類棋手旗鼓相當(dāng)?shù)膰宄绦颉?/p>
DeepMind 訓(xùn)練AlphaGo 的步驟說明:10 萬盤高手棋譜作為初始數(shù)據(jù),進(jìn)行分類后用于訓(xùn)練策略函數(shù);然后跟自己下棋;強(qiáng)化學(xué)習(xí)訓(xùn)練策略函數(shù),繼續(xù)下棋;下了 3000 萬步后進(jìn)行回歸分析,整合蒙特卡洛樹搜索模型,訓(xùn)練效用函數(shù)。
效用函數(shù)和策略函數(shù),分別對應(yīng)AlphaGo 的兩個思考維度:目前棋盤的現(xiàn)狀,和自己/對手下一步的走向。
AlphaGo 所采用的 DQN 是一種具有廣泛適應(yīng)性的強(qiáng)化學(xué)習(xí)模型,說白了就是不用修改代碼,你讓它下圍棋它能下圍棋,你讓它在紅白機(jī)上玩超級瑪麗和太空侵略者,它也不會手生。作為一個基于卷積神經(jīng)網(wǎng)絡(luò)、采用了強(qiáng)化學(xué)習(xí)模型的人工智能,AlphaGo 的學(xué)習(xí)能力很強(qiáng),往往新上手一個項目,玩上幾局就能獲得比世界上最厲害的選手還強(qiáng)的實力。
2014 年,已經(jīng)被 Google 收購的 DeepMind,用五款雅達(dá)利 (Atari) 游戲 Pong、打磚塊、太空侵略者、海底救人、Beam Rider 分別測試了自己開發(fā)的人工智能的性能,結(jié)果發(fā)現(xiàn):在兩三盤游戲后,神經(jīng)網(wǎng)絡(luò)的操控能力已經(jīng)遠(yuǎn)超世界上任何一位已知的游戲高手。
DeepMind 用同樣的一套人工智能,不調(diào)整代碼就去測試各種各樣的智力競技項目,取得了優(yōu)異的戰(zhàn)績,足以證明今天坐在李世石面前的AlphaGo ,擁有多強(qiáng)的學(xué)習(xí)能力。
李世石執(zhí)黑子,AlphaGo 執(zhí)白子。大約進(jìn)行了 85 分鐘時進(jìn)入休息階段
在此之前,DeepMind 進(jìn)行過的無數(shù)虛擬棋局訓(xùn)練,以及去年擊敗歐洲圍棋冠軍樊麾二段的經(jīng)驗讓AlphaGo 已經(jīng)訓(xùn)練出了頂尖的弈技,極有可能高于世界上任何已知的圍棋高手。
AlphaGo 的水平大約在專業(yè)六段左右。再和其他圍棋程序的 495 盤較量中勝 494 盤;在讓 4 子的前提下仍有 75% 的勝率。
盡管棋盤上風(fēng)云變化,早在本次開戰(zhàn)前,AlphaGo 跟李世石就已不在同一起跑線上了。根據(jù) DeepMind 透露的情況,從去年 10 月 5-0 擊敗樊麾二段到現(xiàn)在,AlphaGo 已經(jīng)在神經(jīng)網(wǎng)絡(luò)容量(數(shù)據(jù)容量)以及自己跟自己下棋用于訓(xùn)練的數(shù)據(jù)質(zhì)量上有了較大的提升。而且神經(jīng)網(wǎng)絡(luò)的分布式計算延遲也得到了優(yōu)化,最終使得AlphaGo 能夠在兩小時的限定時間內(nèi)擊敗了李世石九段。
AlphaGo 只是 DeepMind 證明自己的一個工具。你也可以將這次和李世石的對局理解為 Google 的公關(guān)策略。
2014 年,這家公司曾經(jīng)在其官網(wǎng)上寫道: DeepMind 致力于用研究深度學(xué)習(xí)的方式去真正了解智慧 (solve intelligence) 。但對于 DeepMind 和 Google 來說,打造AlphaGo 以及其他人工智能神經(jīng)網(wǎng)絡(luò)不是終點
將機(jī)器學(xué)習(xí)和神經(jīng)科學(xué)進(jìn)行結(jié)合,打造出一種“一般用途的學(xué)習(xí)算法”。通過這種算法,DeepMind 和 Google 希望能夠?qū)⒅悄?ldquo;定型化”,理解智能是什么,進(jìn)而更好的幫助人類理解大腦。DeepMind 聯(lián)合創(chuàng)始人之一的 Demis Hassabis 曾經(jīng)寫道:
用算法將智慧提煉出來,有可能成為理解人類思維最神秘原理的最佳方式。
attempting to distil intelligence into an algorithmic construct may prove to be the best path to understanding some of the enduring mysteries of our minds.
在 Google 收購 DeepMind 前,收購條款中的一項就是 Google 必須成立人工智能道德委員會。因此,在目前階段人們不必?fù)?dān)心這樣的人工智能最終殺死或統(tǒng)治人類。但至少,人工智能在圍棋這樣的智力類競技項目上擊敗人類,是已經(jīng)注定的事情。
作為一種決策樹巨大的游戲,圍棋本來適合人腦思考,不適合機(jī)器運算。但 DeepMind AI 的方向就是模仿人腦思考,用神經(jīng)網(wǎng)絡(luò)“重現(xiàn)”智慧。