首页 国产 亚洲 小说图片,337p人体粉嫩胞高清视频,久久精品国产72国产精,国产乱理伦片在线观看

  Google 能成為下一個 世界圍棋冠軍嗎?

  劉佳 任紹敏

  有著2500多年歷史的圍棋,一直被視作計算機最難以攻克的大眾棋類。但現在,這一人工智能研究領域的“攔路虎”,開始遭遇強勁挑戰。

  1月28日,GoogleDeepMind團隊宣布,他們研發的人工智能(ArtificialIntelligence,下稱“AI”)程序AlphaGo,在沒有任何讓子的情況下以5∶0擊敗了歐洲圍棋冠軍職業圍棋二段樊麾,同時也擊敗了目前最好的圍棋程序中99.8%的對手。

  果殼網新浪微博稱:“圍棋,人類已經下不過谷歌的AI了!”多年以后,當人類仰視AI的智慧時,準會想起谷歌推動黑白子的無形的手。圍棋九段、第二屆百靈杯世界冠軍柯潔轉發了上述微博,并評論說:“震驚!!贊!雖說看棋譜感覺水平有限……但可怕的是這還不是完全體,它是可以學習進化的……”

  AlphaGo的下一個挑戰將是世界頂級圍棋選手之一李世石,這場對戰將在今年3月進行。李世石是圍棋九段高手,也是近10年來獲得世界第一頭銜最多的棋手,Google為此提供了100萬美元作為獎金。

  為什么圍棋難以攻克?

  1997年5月,象棋冠軍加里·卡斯帕羅夫被IBM“深藍”擊敗。今年3月,相似的歷史還會重演嗎?

  “對于更加智能和靈活、具備與人類類似解決問題能力算法的開發工作而言,游戲無疑是一個絕佳的試驗場。”Google在官方博客中這樣寫道。

  歷史上,電腦最早掌握的第一款經典游戲是井字游戲,這是1952年一位博士在讀生的研究項目;隨后是1994年電腦程序Chinook成功挑戰西洋跳棋游戲;3年后,IBM深藍超級計算機在國際象棋比賽中戰勝世界冠軍加里·卡斯帕羅夫。

  除了棋盤游戲外,IBM的Watson系統在2011年成功挑戰老牌智力競賽節目Jeopardy游戲一戰成名;2014年,Google自己編寫的算法,學會了僅需輸入初始像素信息就能玩幾十種Atari游戲。

  但此前,有一項游戲仍然是人類代表著頂尖水平,那就是圍棋。

  圍棋雖然看上去規則簡單,卻因為精妙而富有思想深度,幾個世紀來都牢牢抓住了人們的想象力。

  Google介紹說,圍棋的搜索空間是漫無邊際的——比圍棋棋盤要大1個古戈爾(數量級單位,10的100次方,甚至比宇宙中的原子數量還要多)。因此,傳統的“強力”人工智能方法也就是“為所有可能的步數建立搜索樹”,在圍棋游戲中根本無法實現。

  今年1月10日,卡耐基梅隆大學機器人系博士、Facebook人工智能組研究員田淵棟曾在知乎中作答稱,“圍棋難的地方在于它的估值函數非常不平滑,差一個子盤面就可能天翻地覆,同時狀態空間大,也沒有全局的結構。這兩點加起來,迫使目前計算機只能用窮舉法并且因此進展緩慢。”

  目前,Facebook的智能圍棋darkforest最新的darkfmcts3在KGS圍棋服務器上達到了5d,贏了一局Zen,輸了一局給DolBaram,被讓四子與一位韓國的職業六段一勝一負。

  “現在的深度學習能在大量對局中找到這樣的一些規律,但仍然沒有人腦厲害。這一方面說明我們現在算法的局限性,另一方面它還有巨大的發展空間。”他說。

  人工智能擊敗職業頂尖棋手真的快了嗎?

  知名少兒對弈平臺新博圍棋老總陳勁松在朋友圈評論說:“三個月以后,Deeplearning也許可以打敗李世石,那也只不過是圍棋高手隊伍里面多了一個小伙伴而已,它學會了大家所有的招數。它同時還在等待學習你們發明的新的招數。”

  職業二段棋手、圍棋資深教練劉軼一對《第一財經日報》稱,不用擔心,不會那么容易。不過他所在的朋友圈里,圍棋職業棋手們眾說紛紜,有些認為不可能,有些認為指日可待了,還有聲音是“人類快被自己滅絕了”。

  擊敗歐洲圍棋冠軍

  那么,人工智能程序AlphaGo是如何擊敗圍棋高手的?

  GoogleAlphaGo的研究者DavidSilver說,AlphaGo系統的關鍵是,將圍棋巨大無比的搜索空間壓縮到可控的范圍之內。

  而為了達到這一目的,AlphaGo系統將最先進的蒙特卡洛樹狀搜索技術與兩個深層神經網絡相結合,每個深層神經網絡均包含許多層,每層又包含數以百萬計的神經元一樣的連接。

  在AlphaGo兩種不同的神經網絡中,“策略網絡(policynetwork)”的作用是預測下一步,并用來將搜索范圍縮小至最有可能硬起的那些步驟。另一個神經網絡“價值網絡(valuenetwork)”則是用來減少搜索樹的深度,每走一步估算一次獲勝方,而不是搜索所有結束棋局的途徑。

  上述方法使得AlphaGo的搜索方式相比之前的方法更人性化。例如,深藍采用強力方法搜索的棋子位置要比AlphaGo多數千倍。而AlphaGo則相反,它通過想象下完剩余棋局來對下一步進行預判,如此多次反復。在上述模擬游戲中,策略網絡提出下一步的智能建議,而價值網絡則對走過的每個位置進行評估。

  具體而言,Google首先采用圍棋專業棋手的3000萬步下法對價值網絡進行訓練,直到該網絡對人類下法預測準確率達到57%(AlphaGo之前的紀錄是44%)。

  但AlphaGo的目標是擊敗水平最高的人類棋手,而不僅僅是模仿他們。為了做到這一點,AlphaGo學會自己發現新策略,通過自身兩個神經網絡之間成千上萬的對弈,采用被稱為強化學習的試錯法逐步進行改善。這種方法提高了策略網絡的效率,以至于最原始的神經網絡(即其中不包含任何樹狀搜索)可以擊敗最尖端、構建有巨大無比的搜索樹的圍棋軟件。

  這些策略網絡又反過來對價值網絡進行訓練,采用的還是從自我對弈強化學習的方法。這些價值網絡可以對圍棋的任何位置進行評估并預測獲勝方,而人們過去曾認為這個問題太過困難,根本無法實現。

  實現上述所有設想的前提是,計算機要超級強大。Google稱,這一過程大量使用了Google云平臺,使得人工智能和機器學習研究人員得以隨時靈活地獲得計算、存儲和聯網能力。此外,采用數據流圖形(如TensorFlow)、用于數值計算的開房源庫使研究人員得以對多個CPU或GPU的深度學習算法的計算需求進行高效利用。

  AlphaGo到底有多強大?為了回答這個問題,Google在AlphaGo和人工智能研究領域最前沿的其他頂級圍棋軟件如CrazyStone、Zen和Pachi之間進行了一次比賽。AlphaGo在總計495局中只輸了一局,勝率是99.8%。

  AlphaGo甚至在每局開局讓對方四步的情況下對陣CrazyStone、Zen和Pachi,勝率分別達到了77%、86%和99%。

  如果在今年3月的對戰中,AlphaGo戰勝李世石,是否意味著人工智能已經超過人類?

  或許還不能如此斷言。但新成立的非營利性組織OpenAI的AI研究者IlyaSutskever認為,從技術的角度說,這個研究對AI具有紀念碑式的貢獻。

  在棋類游戲之外,這場對決也將引發更多的思考——那些人們曾經以為人工智能不可能完成的腦力挑戰,是否都將被一一打破?未來人類是否會被人工智能所取代?

責任編輯:柯敏 SF164

相關閱讀

0