Agent 评估的奖励设计

分类: 推理与评估 · 难度: 中级 · 关联讲座: L10

Language Agent 的评估与传统 NLP 单步任务有本质区别:需要对整个动作轨迹进行评估,而非单个输出。本文形式化了稀疏奖励与密集奖励两种评估范式,并讨论了自动化评估(AutoEval)在 Agent 场景下面临的独特挑战。

📐 Agent 评估的奖励设计

Agent 评估与单步任务不同,需要考虑整个轨迹:

稀疏奖励(终态评估)R(τ)=r(final state){0,1}R(\tau) = r(\text{final state}) \in \{0, 1\}

密集奖励(过程评估)R(τ)=t=0Tγtr(st,at)R(\tau) = \sum_{t=0}^{T} \gamma^t r(s_t, a_t)

其中 γ(0,1]\gamma \in (0,1] 是折扣因子(γ<1\gamma < 1 鼓励高效完成任务)。

自动评估(AutoEval)的挑战:真实任务环境难以自动化验证,常用方案:

  1. 沙盒执行:在隔离环境运行 agent 动作,检查终态
  2. 单元测试:定义可程序化检验的成功条件(如代码是否通过测试)
  3. LLM 评判:用更强的 LLM 评估 agent 轨迹质量(但引入评估偏差)