3B 多模态大模型在动作角色扮演游戏的战斗任务中,成功率超越 GPT-4o 和人类玩家,淘天集团未来生活实验室团队提出了 CombatVLA,已被 ICCV 2025 接收。
在复杂的三维环境中实现实时决策仍面临重大挑战,要求模型能在秒级时间尺度做出响应,具备高分辨率感知能力,并能够在动态条件下进行战术推理。
如下图所示,团队给出了 CombatVLA 推理得到的 AoT 解释、解析成 Python 代码的动作指令,以及执行这些动作后的帧序列。前三行案例来自“黑神话:悟空”,第四行为“只狼:影逝二度”。
第一行中,CombatVLA 检测到自身血量较低,于是先将角色后撤到安全位置,然后按“r”键进行回血操作。
第二行中,CombatVLA 判断定身技能可用,便按下“1”键定身敌人,并立即发动连招,大幅削减敌人血量。
第三行展示了模型有效闪避敌人攻击,并抓住时机用蓄力重击进行反击。
第四行中,在 SSDT 场景下,CombatVLA 先用格挡动作抵御攻击,随后用轻攻击发动忍杀,一击击败敌人。
具体而言,CombatVLA 是一个 3B 级别的模型,通过动作追踪器收集的视频-动作对进行训练,数据被格式化为“动作思维”(action-of-thought, AoT)序列。随后,CombatVLA 无缝集成进动作执行框架,并通过截断 AoT 策略实现高效推理。
实验结果表明,CombatVLA 不仅在战斗理解基准测试中超越了所有现有模型(如 GPT-4o 等),还在游戏战斗中实现了 50 倍的加速。此外,CombatVLA 的任务成功率也高于人类玩家。
一. CombatVLA 概览
视觉-语言-动作模型(VLA)结合视觉、语义和动作控制,推动具身智能发展。尽管这类模型在 UI 操作和导航任务表现优异,但 3D 战斗场景(如“黑神话:悟空”和“只狼:影逝二度”)仍面临三大挑战:
1)视觉感知(如敌我定位、运动、环境感知);
2)战斗推理(识别敌方攻击模式等);
3)高效推理(实时响应),目前尚无框架在这些任务上表现突出,也缺乏有效的战斗理解评测基准。
且当前方案存在明显缺陷 —— 基于强化学习方法操控游戏的方法们仅凭视觉输入,通过 DQN 和 PPO 等算法训练智能体自主学习战斗,但需要大量预设奖励和反复试错,泛化能力弱。
依赖超大模型(如 GPT-4o)的方法们推理延迟较高,有时高达 60-90 秒,严重影响实时战斗表现,难以落地应用。
为解决这些问题,团队提出了 CombatVLA—— 首个高效 3D 战斗智能专用 VLA 模型。
CombatVLA 基于 3B 参数规模,能处理视觉输入并输出一系列具体可执行的动作指令(支持键鼠操作),实现高效战斗决策。团队首先开发了动作跟踪器自动采集大规模训练数据,
数据被加工为“动作思维”(Action-of-Thought, AoT)格式,方便模型理解和推理战斗动作。
接下来,CombatVLA 采用渐进式学习范式,逐步从视频级到帧级优化动作生成。
最终,模型可嵌入动作执行机器人中,并通过自定义截断输出策略加速推理。
实验表明,CombatVLA 在战斗理解准确率上超过现有大模型,在执行速度上也实现了 50 倍提升。
本文主要贡献如下:
动作跟踪器:开发了一套后台自动记录玩家动作的工具,大幅提升数据采集效率,为后续研究提供基础。
战斗理解基准:基于动作跟踪器建立了 CUBench 评测集,通过 VQA 任务测试模型的敌方识别和动作推理能力。
AoT 数据集:提出分三阶段(视频粗粒度 / 帧级细粒度 / 帧级截断)构建 AoT 数据,助力模型渐进学习战斗技能。
CombatVLA 模型:结合自适应动作权重损失,经过渐进式训练,在战斗理解基准上达到最优。
动作执行框架:将 CombatVLA 无缝嵌入 PC 端执行,实现基于截断策略的 50 倍加速。
二.动作追踪器和评测基准
团队开发了一个动作跟踪器,用于收集游戏中的人类动作序列,为战斗理解模型提供了大量训练数据。此外,团队还基于该动作跟踪器建立了一个全面的战斗理解 benchmark,涵盖三个不同任务。
2.1 动作跟踪器
由于标注动作的数据极其稀缺,团队开发了一个高效收集视频-动作对的轻量级 Python 工具,称为动作跟踪器。
该工具可以在后台运行,监控键盘和鼠标操作以记录用户动作,并同步截取游戏截图。
2.2 评测基准
为了让基于 VLM 或 VLA 的模型在 3D ARPG 游戏中有良好表现,必须具备高维视觉感知和战斗语义理解能力。
因此,团队基于三项核心能力(信息获取、理解、推理)构建了战斗理解评测基准 ——CUBench,用于评估模型的战斗智商。
分别为:单图判断、多图判断和多图多选,团队汇总出 914 条数据(39.4% 为信息获取,22.3% 为理解,38.3% 为推理),用于全面测试模型的战斗理解能力。
三.CombatVLA 模型
3.1 Action-of-Thought 数据集
受 CoT 启发,团队将动作跟踪器采集的数据转化为“动作思维”数据,如下图所示。具体而言,模型的输出以 JSON 格式表达,包含 [action](如“按下空格键”)以及 [explanation](用于描述当前敌人状态、该动作的物理含义等)。
此外,还引入特殊标记⟨TRUNC⟩,用于实现输出截断,以提高推理速度。
3.2 三阶段渐进式训练
CombatVLA 的训练过程遵循三级渐进式学习范式,使模型能够逐步掌握战斗策略。具体分为:
(1)阶段 1:视频级粗粒度 AoT 微调。
该阶段旨在让模型初步理解战斗环境,数据以若干帧组成的视频为单元,结合每帧对应的动作(时间并不精确对齐)。
这样,模型需要根据整体视频内容推测动作,有助于建立对战斗整体的初步认知,也便于后续稳定训练。
(2)阶段 2:帧级细粒度 AoT 微调。
在 3D 战斗游戏中,模型需要具备秒级反应和快速决策能力。
此阶段构建了动作与若干前序帧严格对齐的数据对(Frames-AoT),帮助模型理解动作前因后果及战斗逻辑。
例如,连续几帧内敌方蓄力攻击,则模型可能触发闪避行为。
(3)阶段 3:帧级截断 AoT 微调。
大模型推理速度与输出长度相关,为提升实时响应,团队引入了⟨TRUNC⟩特殊标记,对 AoT 输出内容进行截断加速。
这样既保留了 AoT 带来的推理优势,又显著提升了模型推理速度。
整个训练过程中,视觉编码器参数冻结,仅微调语言模型参数。
在前两阶段中,AoT 的 [explanation] 置于 [action] 前面,便于模型推理出正确的动作;在第三阶段,AoT 的 [explanation] 置于 [action] 后面,便于模型进行快速截断,以实现推理加速。
3.3 动作执行框架
(1)基于 VLA 的智能体框架。
为让视觉语言模型(VLM)能够像人类一样玩电脑游戏,团队开发了一个轻量级且高效的动作执行智能体。
在实际运行中,框架接收实时游戏画面(视频)作为输入,输出则是具体的键鼠动作指令,实现对游戏角色的自动控制。
团队对实时游戏画面进行帧采样,去除冗余视觉信息,降低 VLM 推理负担。模型推理采用截断输出策略,提取有效动作并执行。
(2)截断推理与执行。
推理过程中,每生成一个新输出 token 就进行监控,一旦检测到特殊的⟨TRUNC⟩标记即停止,将之前的内容解析为动作。这大大加快了推理速度。
最后,利用“pyautogui”库将动作转换为 Python 代码,自动完成键盘鼠标操作,让角色完成战斗任务。
四.实验结果
4.1 实现细节
(1)数据集。
团队选用了“黑神话:悟空(BMW)”和“只狼:影逝二度(SSDT)”两款游戏作为实验平台。
标注人员根据难度将 13 个战斗任务分为四个等级:简单、中等、困难和极难(如下表所示)。
团队通过动作跟踪器在“黑神话:悟空”的第 9 和第 10 任务中收集训练数据。AoT 涵盖 10 种动作,包括“wsad”移动、“shift”冲刺、“space”翻滚(只狼中为格挡防御)、“r”回血、“1”定身、鼠标左键普攻、鼠标右键长按重击等,这些动作可以组合使用。
(2)基准测试。团队用战斗理解基准(CUBench)、通用基准(如 MME、VideoMME、OCRBench)和任务级实际评测作为评测方式。
在任务级实战测试中,动作执行框架直接操控 PC 进行战斗,每个基线模型对每个任务测试 10 次,以击败敌人为成功,否则为失败,记录成功率和平均推理时长。
值得注意的是,团队的 CombatVLA 只在极难任务(9 和 10)上微调,测试时将简单到困难难度的任务(1–8, 同一游戏的不同任务)及其他游戏的任务(11–13)作为零样本(zero-shot)测试,以考察泛化能力。
4.2 定量实验结果
(1)战斗理解评测。在 CUBench 上,CombatVLA 取得了 63.61 的最高平均分,比第二名 Gemini-2.0-flash 高出 5.71 分,较原始基座 Qwen2.5-VL-3B 高出 7.74 分,显著提升了模型的战斗理解能力。
(2)通用基准评测。CombatVLA 在 MME、VideoMME 和 OCRBench 等通用基准上的表现依然与基座模型 Qwen2.5-VL-3B 相当,验证了团队方法的稳健性和泛化能力。
(3)任务级实际评测。团队将 CombatVLA 接入动作执行代理,让其像人类一样自动完成战斗任务。如下图所示,CombatVLA 不仅在简单任务接近人类外,在中高难度任务上全面超越基线,并在零样本任务上也展现出较强的泛化能力。
(4)推理延迟。团队还统计了平均推理延迟和每次动作所需模型调用次数(见下表)。CombatVLA 平均推理延迟仅 1.8 秒,且只需一次模型调用,比 VARP 快约 50 倍,模型调用成本仅为其 1/10。
结束语
本文针对当前视觉语言模型(VLMs)或视觉-语言-动作模型(VLAs)在 3D 动作角色扮演游戏中缺乏秒级响应、高分辨率感知和战术推理能力的问题,提出了 CombatVLA 模型。
该模型规模为 3B,采用 AoT 序列训练,并引入动作对齐损失和模态对比损失进行优化。
CombatVLA 可无缝集成到动作执行框架中,通过截断 AoT 策略实现高效推理。
实验结果表明,CombatVLA 在战斗理解基准上全面超越现有模型,同时具备良好的泛化能力,并在实时战斗场景中实现了 50 倍速度提升。
未来,团队将进一步增强模型对游戏场景的理解能力,拓展其在更多类型游戏甚至物理世界中的应用。
论文链接:https://arxiv.org/pdf/2503.09527
项目主页:https://combatvla.github.io/
本文来自微信公众号:量子位(ID:QbitAI),作者:CombatVLA 团队,原标题《首个 3D 动作游戏专用 VLA 模型,打黑神话 & 只狼超越人类玩家 | ICCV 2025》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。