
10月4日電競日報稱 據 decoder 今天報道,騰訊研究人員最近用《王者榮耀》游戲作為訓練平臺,探索如何讓AI在游戲中學會“戰略性思考”,研究全新 TiG(Think in Games)框架,相關成果已發表于 Hugging Face 平臺和 arXiv 期刊。
研究團隊指出,目前的 AI 模型存在明顯的功能鴻溝,以游戲為取向的 AI 能正常游玩但無法理解自己所做的決策,而語言模型雖然可以推理策略,但很難真正執行操作,為此他們研發了全新 TiG 框架,讓模型在游戲中同步思考、行動。
團隊選擇以《王者榮耀》游戲作為訓練范本,先使用匿名且標準化的賽事數據定義推上路、擊殺暴君、守家等 40 種宏觀行動,勝負回數均衡,AI 模型們必須要在每個定義好的場景下選擇最佳策略,并解釋其戰略緣由。
具體來說,訓練分為兩個階段,首先是在監督中學習,弄清楚這些策略的基本機制;隨后通過獎勵機制進行強化學習,如果行動正確能得 1 分,錯誤行動則得 0 分。
隨后團隊測試了多種語言模型,涵蓋 Qwen2.5(7B、14B、32B)、Qwen3-14B 模型,并使用 DeepSeek-R1 大模型作為對照組;先從 DeepSeek-R1 提煉高質量訓練數據,然后使用群體相對策略優化(GRPO)技術,比較不同策略之間的優劣。
最終經過 TiG 框架訓練的模型不僅能制定行動計劃,還能解釋原因,例如 AI 會指出某個防御塔防守薄弱,是理想的進攻目標,但需要注意埋伏的敵人。模型訓練后仍保持原有的文本理解、數學推理與問答能力。
最終測試結果如下:
對照組 DeepSeek-R1:決策準確率達 86.67%
Qwen3-14B:決策準確率達 90.91%,超越 DeepSeek-R1
Qwen2.5-32B :準確率從 66.67% 提升至 86.84%
Qwen2.5-14B:準確率從 53.25% 提升至 83.12%
vs
諾丁漢森林
vs
巴塞爾
vs
盧多戈雷茨
vs
前進之鷹
vs
布加勒斯特星
vs
亨克
vs
伯頓
vs
里爾
vs
斯圖加特
vs
帕納辛納科斯
vs
伯頓
vs
黃蜂
vs
掘金
vs
火箭
vs
大急流城黃金
vs
休斯頓火箭
vs
夏洛特黃蜂
vs
丹佛掘金
vs
勇士
vs
金州勇士