Google人工智慧「AlphaStar」訓練累積200年遊戲時間 擊敗《星海爭霸II》電競選手

2019.01.26 11:47AM
是DeepMind團隊再以人工智慧系統擊敗《星海爭霸II》電競選手這篇文章的首圖

AlphaStar藉由類似AlphaGo以「分身」形式,在系統執行運作中分成諸多分身進行對戰,並且從對戰過程中學習經驗,在電腦系統累積學習超過200年的遊玩時間,最後在與電競選手的兩組五局對戰過程中,獲得十戰全勝成果。

首圖

先前以AlphaGo在圍棋項目壓倒韓國九段棋手李世乭,並且以新版本接續擊敗世界棋王柯潔之後,DeepMind團隊將發展方向轉向遊戲,透過強調即時戰略思考的《星海爭霸II》訓練電腦系統。而在稍早藉由名為「AlphaStar」的人工智慧系統運作之下,DeepMind團隊再次讓電腦在連續兩組五局對戰中贏過電競選手。

「AlphaStar」的訓練模式,基本上也是透過分析諸多玩家操作的遊戲遊玩過程,並且藉由類似AlphaGo以「分身」形式,在系統執行運作中分成諸多分身進行對戰,並且從對戰過程中學習經驗。

在電腦系統累積學習超過200年的遊玩時間,「AlphaStar」總計訓練出5種不同遊玩操作風格,最後在與電競選手的兩組五局對戰過程中,獲得十戰全勝成果。

不過,其實在與身為人類的電競選擇對戰中,「AlphaStar」基本上還是佔有不少優勢,例如相較人類雙眼所能看見地圖範圍依然有限,同時即便電競選手的操作速度比一般人更快,但難免依然會有操作失誤,或是無法用滑鼠100%點擊正確物件位置,而對於電腦系統來說,這些基本上都不會是問題。

因此,「AlphaStar」之所以能贏過電競選手,除了藉由分身訓練累積超過200年的遊玩經驗,以及精進過的不同遊玩風格,更可藉由知曉所有地圖資訊內容、更有效率、精度表現的點按操作獲得優勢,實際上電腦系統的操作速度僅在277 APM (actions per minute,每分鐘操作次數),相比電競選手可達559 APM的情況相差許多,甚至針對全新狀況執行判斷時間更需要0.35秒,此時有經驗的電競選手已經可以做出更多即時判斷。

而在另一場對戰過程中,DeepMind團隊將可看見全局地圖優勢拿掉,讓電腦系統跟人眼判斷一樣,必須透過分析地圖資訊才能獲取有用數據,藉此執行各類判斷,因此最終在此場對戰落敗給電競選手。

選擇與暴雪娛樂合作,透過《星海爭霸II》訓練電腦系統,DeepMind團隊希望能藉由必須在更短時間內完成數據資訊採集,並且在短時間內分析,進而做出具體操作反應的情況,讓人工智慧能因此學習如何用更快方式產生「思考」,同時做出更合適反應操作,預期將可讓人工智慧運算效率進一步提昇。

相關消息

科技應用
EVOX《對話式 AI 白皮書》:掌握 AI 商務溝通新趨勢
癮特務
3 天前
即拍即印普普風概念印章,製造屬於自己的圖像
annti wang
15 年前
應用教學
國家鐵道博物館開館 6處古蹟、8大展覽必參觀 藍皮火車預約搭乘方法看這裡
Zero圈圈
1 天前
開箱評測
2吋大螢幕、7.9mm羽量級厚度 Garmin Venu X1智慧手錶評測心得
Tandee
1 天前
汽車未來
全新改款 BMW iX 豪華純電旗艦休旅強勢上市!「THE NEW BMW iX」現場直擊,亮點分享一次了解!
癮特務
9 天前
App
三星One UI 8以Android桌面模式取代DeX
Chevelle.fu
3 天前
《奇妙之旅》家族競技展開 熱鬪場內容介紹
皮耶哈
15 年前
快訊
伊良可樂台灣首店即將開幕!排不到可以試試這款糖漿,肥仔快樂水自己做。
Shopping guide
1 天前
文化創意
日本Sony宣布LinkBuds Fit與初音未來合作 限量500套加贈壓克力架與AR模型
Chevelle.fu
1 天前