還記得好萊塢艷照門嗎?那個黑客認罪了! |
發(fā)布時間:2016-09-13 文章來源: 瀏覽次數(shù):3964 |
自從谷歌的AlphaGo(以下簡稱AG)擊敗了圍棋九段高手李世乭后,一方面關(guān)于人工智能的爭議再次塵囂直上,另一方面AG又找到了新的挑戰(zhàn)領(lǐng)域。3月27日,暴雪娛樂制作總監(jiān)Tim Morten在上海WCS世錦賽上公布證明,狗狗下一個挑戰(zhàn)目標將是星際爭霸2(以下簡稱SC2,星際爭霸簡稱為SC,以后不再贅述)。 關(guān)于AG和星際爭霸職業(yè)選手的比賽,人們最關(guān)注的無疑是比賽結(jié)果,畢竟是AG再次將人類驕傲的自尊捏個破碎摧毀,仍是人類反戈一擊,證實人工智能所謂的勝利只不外是一時僥幸? AG如何學(xué)習(xí)? 所謂“良知知彼,百戰(zhàn)不殆”,要分析AG能否擊敗職業(yè)選手,首先就要了解AG如何學(xué)習(xí)一種全新的規(guī)則。與前輩“深藍”所采用的推演式算法不同,AG在與李世乭對戰(zhàn)之前,除了學(xué)習(xí)圍棋的基本規(guī)則外,還學(xué)習(xí)了人類對弈中使用的近3000萬種走法來“豐碩閱歷”,讓AG學(xué)會猜測人類專業(yè)棋手怎么落子。然后讓AG自己跟自己下棋,從而又產(chǎn)生規(guī)模龐大的新棋譜,據(jù)谷歌工程師宣稱,AG天天可以嘗試百萬量級的走法。而在正式對弈中,AG會通過蒙特卡洛樹搜索算法從這些棋譜中搜索出勝率最高的走法。 比擬國際象棋,圍棋的走法可能性非常多,僅起手時就有19*19種落子方式,更不要說以后的棋子布局方式了。在有限的國際象棋棋盤上,“深藍”可以依賴推演算法算出之后的12步棋,但是在圍棋上,這種“思維方式”非常陳舊,耗費資源多且效率低下,因此才被“學(xué)習(xí)+思維”的全新方式取代。 AG有何優(yōu)劣? 可以說,AG需要先學(xué)習(xí)SC2的基本規(guī)則,包括輿圖地形、各種族兵種的攻防數(shù)值,在此基礎(chǔ)上消耗時間學(xué)習(xí)之前SC2職業(yè)高手大量的對戰(zhàn),最后自我對戰(zhàn)形成更多戰(zhàn)術(shù)儲存在服務(wù)器中,最后利用蒙特卡洛樹搜索算法進行戰(zhàn)術(shù)對比,在實際對戰(zhàn)中與職業(yè)高手一較高下。 但是,因為游戲本身就是多個規(guī)則邏輯模塊組成的程序集合,與AG可以說是源出同門,由人工智能程序執(zhí)行游戲程序,執(zhí)行效率不知要高出人多少倍。目前頂尖的職業(yè)選手,其APM(每分鐘操縱次數(shù),鍵盤+鼠標的總和)也不外400多,假如扣除了重復(fù)操縱外,其EAPM(每分鐘有效操縱次數(shù))就更低了,但與此比擬,AG運行后守舊估計其APM可以超過8000,并且全部都為有效操縱,AG完全可以憑借高速操縱,達到戰(zhàn)術(shù)勝利累積到戰(zhàn)略勝利的目的,這段視頻足以說明AI能夠以人類完全達不到的手速吊打人類。 100只小狗VS20輛攻城坦克,由職業(yè)選手和AI各自操縱小狗進攻,職業(yè)選手僅消滅了2-3輛坦克就全軍覆滅,AI卻能判定彈著點方位避開攻擊,消滅全部坦克后還有近20只左右的剩余。當(dāng)然了,可以通過技術(shù)手段設(shè)定AG的APM上限來限制這種上風(fēng)。而且AG也不是沒有劣勢,人工智能沒有什么戰(zhàn)略戰(zhàn)術(shù)的概念,假如要AG達到職業(yè)選手所需要的戰(zhàn)略戰(zhàn)術(shù)概念,目前還不知道要消耗多長時間。同時目前在比賽中需要為AG設(shè)定操縱視野范圍和偵探的功能,不然輿圖加載完成后,AG可以在最短時間內(nèi)制定出最優(yōu)路線,而職業(yè)選手需要依賴士兵探索,這樣的比賽幾無公平可言。 由AI挑戰(zhàn)AI的電競? 固然AG挑戰(zhàn)職業(yè)選手的眾多細節(jié)還未確定,但目前已經(jīng)引起了各方的愛好,暴雪方面可以通過比賽增加對SC2的關(guān)注度,一改目前SC2的弱勢局面。而同時,AG與職業(yè)選手的比賽也可認為電競增加新的內(nèi)容形式,不僅是人工智能挑戰(zhàn)人類,而且可以衍生出AI挑戰(zhàn)AI的比賽方式。 因為SC中的 AI可以由第三方腳本的形式存在,所以AI挑戰(zhàn)AI并無技術(shù)難度。早在母巢之戰(zhàn)資料片中,用代碼玩 SC的 的服務(wù)器API就已經(jīng)存在, 用C++代碼以及LUA語言可自由編程天生dll格局的AI文件,將這個AI文件注入程序后即可操作SC的兵種。至今為止,AI文件已經(jīng)能夠獲取SC內(nèi)存底層中各種建筑與兵種數(shù)據(jù),并且操作各種兵種作出各種動作,假如更多的人應(yīng)用這個API制作屬于自己的SC AI文件,那么在AI之間進行電競比賽就不再是一個夢了。 此前,美國的Elecbyte小組使用C語言與Allegro程序庫開發(fā)了一款免費2D格斗游戲引擎Mugen,吸納了眾多格斗游戲的著名人物和招式,通過這款引擎實現(xiàn)了各人物的穿越亂斗,并且已經(jīng)實現(xiàn)了AI之間的戰(zhàn)斗,眾多興趣者可以使用自己編寫的AI算法,讓格斗人物發(fā)出無法在實際操縱中實現(xiàn)的酷爽連招,如今這種方式在SC中也同樣可以實現(xiàn)。 電競比賽發(fā)展到今天,此前競賽游戲的戰(zhàn)術(shù)潛力已經(jīng)被開發(fā)殆盡,此次人工智能挑戰(zhàn)職業(yè)選手一方面是為測試人工智能的潛力,另一方面也為電競比賽帶來了新的看點,同時支持第三方算法腳本的競技性游戲又為AI擴展提供了技術(shù)基礎(chǔ),那么AI之間的電競挑戰(zhàn)又有何不可?讓眾多手速不足的“手殘”程序猿們通過自己的代碼一決高下,你高興了嗎? 自從谷歌的AlphaGo(以下簡稱AG)擊敗了圍棋九段高手李世乭后,一方面關(guān)于人工智能的爭議再次塵囂直上,另一方面AG又找到了新的挑戰(zhàn)領(lǐng)域。3月27日,暴雪娛樂制作總監(jiān)Tim Morten在上海WCS世錦賽上公布證明,狗狗下一個挑戰(zhàn)目標將是星際爭霸2(以下簡稱SC2,星際爭霸簡稱為SC,以后不再贅述)。 關(guān)于AG和星際爭霸職業(yè)選手的比賽,人們最關(guān)注的無疑是比賽結(jié)果,畢竟是AG再次將人類驕傲的自尊捏個破碎摧毀,仍是人類反戈一擊,證實人工智能所謂的勝利只不外是一時僥幸? AG如何學(xué)習(xí)? 所謂“良知知彼,百戰(zhàn)不殆”,要分析AG能否擊敗職業(yè)選手,首先就要了解AG如何學(xué)習(xí)一種全新的規(guī)則。與前輩“深藍”所采用的推演式算法不同,AG在與李世乭對戰(zhàn)之前,除了學(xué)習(xí)圍棋的基本規(guī)則外,還學(xué)習(xí)了人類對弈中使用的近3000萬種走法來“豐碩閱歷”,讓AG學(xué)會猜測人類專業(yè)棋手怎么落子。然后讓AG自己跟自己下棋,從而又產(chǎn)生規(guī)模龐大的新棋譜,據(jù)谷歌工程師宣稱,AG天天可以嘗試百萬量級的走法。而在正式對弈中,AG會通過蒙特卡洛樹搜索算法從這些棋譜中搜索出勝率最高的走法。 比擬國際象棋,圍棋的走法可能性非常多,僅起手時就有19*19種落子方式,更不要說以后的棋子布局方式了。在有限的國際象棋棋盤上,“深藍”可以依賴推演算法算出之后的12步棋,但是在圍棋上,這種“思維方式”非常陳舊,耗費資源多且效率低下,因此才被“學(xué)習(xí)+思維”的全新方式取代。 AG有何優(yōu)劣? 可以說,AG需要先學(xué)習(xí)SC2的基本規(guī)則,包括輿圖地形、各種族兵種的攻防數(shù)值,在此基礎(chǔ)上消耗時間學(xué)習(xí)之前SC2職業(yè)高手大量的對戰(zhàn),最后自我對戰(zhàn)形成更多戰(zhàn)術(shù)儲存在服務(wù)器中,最后利用蒙特卡洛樹搜索算法進行戰(zhàn)術(shù)對比,在實際對戰(zhàn)中與職業(yè)高手一較高下。 但是,因為游戲本身就是多個規(guī)則邏輯模塊組成的程序集合,與AG可以說是源出同門,由人工智能程序執(zhí)行游戲程序,執(zhí)行效率不知要高出人多少倍。目前頂尖的職業(yè)選手,其APM(每分鐘操縱次數(shù),鍵盤+鼠標的總和)也不外400多,假如扣除了重復(fù)操縱外,其EAPM(每分鐘有效操縱次數(shù))就更低了,但與此比擬,AG運行后守舊估計其APM可以超過8000,并且全部都為有效操縱,AG完全可以憑借高速操縱,達到戰(zhàn)術(shù)勝利累積到戰(zhàn)略勝利的目的,這段視頻足以說明AI能夠以人類完全達不到的手速吊打人類。 100只小狗VS20輛攻城坦克,由職業(yè)選手和AI各自操縱小狗進攻,職業(yè)選手僅消滅了2-3輛坦克就全軍覆滅,AI卻能判定彈著點方位避開攻擊,消滅全部坦克后還有近20只左右的剩余。當(dāng)然了,可以通過技術(shù)手段設(shè)定AG的APM上限來限制這種上風(fēng)。而且AG也不是沒有劣勢,人工智能沒有什么戰(zhàn)略戰(zhàn)術(shù)的概念,假如要AG達到職業(yè)選手所需要的戰(zhàn)略戰(zhàn)術(shù)概念,目前還不知道要消耗多長時間。同時目前在比賽中需要為AG設(shè)定操縱視野范圍和偵探的功能,不然輿圖加載完成后,AG可以在最短時間內(nèi)制定出最優(yōu)路線,而職業(yè)選手需要依賴士兵探索,這樣的比賽幾無公平可言。 由AI挑戰(zhàn)AI的電競? 固然AG挑戰(zhàn)職業(yè)選手的眾多細節(jié)還未確定,但目前已經(jīng)引起了各方的愛好,暴雪方面可以通過比賽增加對SC2的關(guān)注度,一改目前SC2的弱勢局面。而同時,AG與職業(yè)選手的比賽也可認為電競增加新的內(nèi)容形式,不僅是人工智能挑戰(zhàn)人類,而且可以衍生出AI挑戰(zhàn)AI的比賽方式。 因為SC中的 AI可以由第三方腳本的形式存在,所以AI挑戰(zhàn)AI并無技術(shù)難度。早在母巢之戰(zhàn)資料片中,用代碼玩 SC的 的服務(wù)器API就已經(jīng)存在, 用C++代碼以及LUA語言可自由編程天生dll格局的AI文件,將這個AI文件注入程序后即可操作SC的兵種。至今為止,AI文件已經(jīng)能夠獲取SC內(nèi)存底層中各種建筑與兵種數(shù)據(jù),并且操作各種兵種作出各種動作,假如更多的人應(yīng)用這個API制作屬于自己的SC AI文件,那么在AI之間進行電競比賽就不再是一個夢了。 此前,美國的Elecbyte小組使用C語言與Allegro程序庫開發(fā)了一款免費2D格斗游戲引擎Mugen,吸納了眾多格斗游戲的著名人物和招式,通過這款引擎實現(xiàn)了各人物的穿越亂斗,并且已經(jīng)實現(xiàn)了AI之間的戰(zhàn)斗,眾多興趣者可以使用自己編寫的AI算法,讓格斗人物發(fā)出無法在實際操縱中實現(xiàn)的酷爽連招,如今這種方式在SC中也同樣可以實現(xiàn)。 電競比賽發(fā)展到今天,此前競賽游戲的戰(zhàn)術(shù)潛力已經(jīng)被開發(fā)殆盡,此次人工智能挑戰(zhàn)職業(yè)選手一方面是為測試人工智能的潛力,另一方面也為電競比賽帶來了新的看點,同時支持第三方算法腳本的競技性游戲又為AI擴展提供了技術(shù)基礎(chǔ),那么AI之間的電競挑戰(zhàn)又有何不可?讓眾多手速不足的“手殘”程序猿們通過自己的代碼一決高下,你高興了嗎? |
|