close

NLP工程師:AlphaGo表現出瞭哪些計算和智能?

註:本文來自雷鋒網硬創公開課 | AlphaGo專場的分享。分享嘉賓,出門問問NLP工程師,李理。

一、到底什麼是深度學習?台中商標註冊代辦

我認為深度學習相對於傳統的機器學習,最大的特點就是不需要(太多)的feature engineering。

在機器學習流行之前,都是基於規則的系統,因此做語音的需要瞭解語音學,做自然語言處理(NLP)的需要很多語言學知識,做深藍需要很多國際象棋大師。而到後來統計方法成為主流之後,領域知識就不再那麼重要,但是我們還是需要一些領域知識或者經驗來提取合適的feature,feature的好壞往往決定瞭機器學習算法的成敗。

對於NLP來說,feature還相對比較好提取,因為語言本身就是高度的抽象;而對於Speech或者Image來說,我們人類自己也很難描述我們是怎麼提取feature的。比如我們識別一隻貓,我們隱隱約約覺得貓有兩個眼睛一個鼻子有個長尾巴,而且它們之間有一定的空間約束關系,比如兩種眼睛到鼻子的距離可能差不多。但怎麼用像素來定義”眼睛“呢?如果仔細想一下就會發現很難。當然我們有很多特征提取的方法,比如提取邊緣輪廓等等。

但是人類學習似乎不需要這麼復雜,我們隻要給幾張貓的照片給人看,他就能學習到什麼是貓。人似乎能自動“學習”出feature來,你給他看瞭幾張貓的照片,然後問題貓有什麼特征,他可能會隱隱預約的告訴你貓有什麼特征,甚至是貓特有的特征,這些特征豹子或者老虎沒有。

深度學習為什麼最近這麼火,其中一個重要的原因就是不需要(太多)提取feature。

從機器學習的使用者來說,我們以前做的大部分事情是feature engineering,然後調一些參數,一般是為瞭防止過擬合。而有瞭深度學習之後,我們似乎什麼也不用幹!給它標註足夠多的訓練數據就行瞭。

具體的應用比如語音識別,圖像識別,自然語言處理,這是比較成熟的一些領域。在一些其它領域,比如殺毒,天氣預測。隻要需要用機器建模,特征比較難以描述,而且又有足夠多標註數據的地方都可以試一試深度學習。

二、同樣是與人類對戰,AlphaGo和深藍的區別

深藍的主要技術有兩個:alpha-beta搜索和估值模型。搜索,大傢應該都明白,機器學習就是更加領域專傢(國際象棋大師)提取的特征(比如棋子的價值,位置的作用,棋子的保護和威脅關系等等),然後建立一個復雜的模型來判斷局面(不太清楚是否用瞭機器學習)。

而AlphaGo的核心技術是:MCTS台中商標申請流程搜索和CNN神經網絡。CNN使得機器可以學習人類的“棋感”,從而在開局和中局不落下風,然後殘局憑借強大的計算能力戰勝人類。

因為深度神經網絡非常火,大傢可能覺得它是AlphaGo能贏的關鍵,其實我覺得不是這樣。

根據Tian yuandong(田淵棟)和AlphaGo的論文,如果不做任何搜索,隻是根據“棋感”(其實就是估值函數),CNN最好能達到KGS 3d的水平,我估計也就業餘1段的水平。而MCTS算法在沒有Value Network的情況下在9 x 9的棋盤上能戰勝人類高手,其實這也間接印證瞭AlphaGo在殘局的實力是搜索(計算)起重要作用。原來基於搜索的軟件在開局和中局就崩盤或者虧太多瞭,所以就不能體現搜索的優勢瞭。另外AlphaGo使用瞭Value Network,這保證即使搜索有一些小問題,從人類學來的棋感也能保證不至於偏差太大。

AlphaGo的特點是:開局和中局依靠人類的棋盤學習棋感(可以理解為背棋盤,不過比死記硬背好一點,有一定的泛化能力),然後殘局的計算能力碾壓人類,就好像以前的李昌鎬,前面看不出什麼好來,但官子你就是下不過他,沒辦法,不服不行。

三、在比賽前,很多人都判斷AlphaGo會輸,這種判斷偏差在哪裡?

之前我們都太多關註AlphaGo的神經網絡部分,其實它贏棋的關鍵可能在於殘局的計算上。我們沒有想到。

四、整個比賽的輸贏對人工智能研究意味著什麼?

作為對人工智能感興趣的工程師,我既感到高興又不免有些傷感。

高興是因為我們可以“創造”出比我們自己“聰明”的機器,傷感就像教拳擊的師傅看到徒弟的水平已然超過自己,不免有“老瞭,不中用瞭”的感嘆。但這是大勢所趨,不可避免,人工智能會在很多領域超過人類。

五、首場比賽,AlphaGo為什麼在後半程越走越慢?台中商標申請類別

這是計算機用時的策略問題,因為根據前面的分析,後面的殘局才是AlphaGo贏棋的關鍵,所以它把更多的時間放在殘局是合理的策略。

六、如果計算性能夠強大,AlphaGo能否直接得出最優解?

從數學上來講,圍棋有個最優的走法,也就是用mini-max搜索到遊戲結束時的一條最優路徑(也許有多條,但至少有一條),然後就能知道最優的情況下黑棋勝白棋多少目。

我認為AlphaGo離最優解其實還是差得老遠的,尤其是開局和中局。其實這也間接的說明人類在開局上其實也離最優解差得太遠。人類幾千年也下不瞭多少盤棋(而且水平越差的人的棋對整個人類圍棋沒有太大幫助)。我們認為一個開局是否好,隻能根據水平相似的高手下這個佈局的勝率來推測它的好壞。但如果我們在最後50步的時候誤差就很大,那麼往前傳播時積累的誤差就更大瞭,我們可能經常忽略瞭一個看起來不好的走法,而這個走法可能就是“支持”這個開局的關鍵。

當然AlphaGo的殘局比人厲害,那麼就可以通過自己對弈來學習,然後往前傳播誤差。但是由於這個問題本質是NP的,即使它用瞭MCTS的方台中商標申請代辦法來避免“明顯不好”的走法。但是由於圍棋的復雜性,可能某個“看起來不好”的走法可能恰恰是一個關鍵的勝負手呢?另外根據之前的分析,即使每步都能99%的準確,那麼往前推100步準確的可能性也基本是0瞭。

因此如果人類不能解決NP問題,不能提出計算能力超過圖靈機的計算模型,那麼人類制造的機器也是不太可能解決這個問題的(當然這隻是我的直覺,不知道能不能數學上證明)。

不過即使這樣,能制造和人類一樣,雖然在質上不能超越人類,但在量上能超越人類的機器也是很有意義的。

七、AlphaGo在學習什麼,是如何學習的?

AlphaGo是通過人類高手的對局作為訓練數據來訓練的台中註冊商標流程,也就是給定一個局面,用人類高手的下一步棋做完這個局面的最優走法。通過大量的這樣的數據,使用CNN自動學習出類似人類的”棋感“。當然雖然說CNN不需要太多的feature,其實AlphaGo也是用瞭一些圍棋的知識的,比如征子。我雖然比較業餘,也知道征子能否成功要看那六線上是否有對手的接應,另外更棋的高低也有關系,即使有接應,如果棋太低,可能也能征子成功,這個就要計算瞭。

另外,AlphaGo也通過自己和自己對弈的強化學習來改進它”棋感“。我個人覺得為什麼要強化學習的原因可能是:之前那些棋譜學習出來的是很多人的”棋感“,通過強化學習,AlphaGo能選擇更適合自己的“棋感”。

這樣的”棋感“更能適應它的後階段的計算能力。就好像如果我下棋計算能力不行,我就走一些比較穩的開局。我計算力超強,我就和你搏殺,走復雜的變化。

AlphaGo一晚上的學習大概能達到什麼樣的效果?

這個很難說,我個人覺得他們應該不會再訓練新的模型,因為即使是深度神經網絡,調參也是很tricky的事情。而且他們現在領先,應該不會冒險更新模型。

八、除瞭圍棋,AlphaGo還可以用在什麼領域?

AlphaGo本身的技術是MCTS和CNN,MCTS其實是屬於強化學習這個領域的。

深度學習可以用在很多領域,前面說過瞭,隻要這個領域需要構建一個模型來預測,而且有大量標註的訓練數據。

強化學習是非常關鍵,我覺得強化學習才是人類社會學習的過程,通過行為改變世界,然後從反饋中學習。雖然人類也有一些監督學習,比如學校的教育,把前人的結論作為訓練數據。但大部分的創新(獲取新知識或者修正舊知識)都是靠強化學習。之前學校學到的可以認為是先驗知識,但還是要自己的行為和嘗試。紙上得來終覺淺,絕知此事要躬行。

比如我們要讓機器人在火星生存,火星的環境我們是不太清楚的,隻能根據地球的數據訓練一個基本的先驗的模型。到瞭火星之後機器人就必須能通過強化學習來學習新的知識來適應新的環境。

(雷鋒網)

台灣電動床工廠 電動床

台灣電動床工廠 電動床

AUGI SPORTS|重機車靴|重機車靴推薦|重機專用車靴|重機防摔鞋|重機防摔鞋推薦|重機防摔鞋

AUGI SPORTS|augisports|racing boots|urban boots|motorcycle boots
BABA4431E626140C

arrow
arrow

    k9g44e9km3 發表在 痞客邦 留言(0) 人氣()