news 2026/4/22 8:31:32

我ppo有的轨迹操作70奖励,有的100奖励,会往100的奖励那边靠吗 GAE

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
我ppo有的轨迹操作70奖励,有的100奖励,会往100的奖励那边靠吗 GAE

GAE(Generalized Advantage Estimation,广义优势估计)是强化学习中一个非常关键的技巧,尤其在PPO、A2C、TRPO等基于策略梯度的算法中被广泛使用。它的核心目标是:更准确、更稳定地评估“某个动作到底好还是坏”

你提到“轨迹有70分和100分”,而 GAE 正是用来解决“如何把最终的总奖励(70或100)合理分配到轨迹中的每一步动作上”的问题。


🎯 为什么需要 GAE?—— 先看问题

假设你有一条完整的游戏轨迹(从开始到结束):

  • 总奖励 = 100 分
  • 但中间 99% 的时间奖励都是 0,只有最后一步 +100。

如果直接用蒙特卡洛方法(Monte Carlo),你会认为前面所有动作都和最后+100有关,但这种估计方差极大(因为一次运气好拿100,一次失误拿0,波动太大)。

如果用纯 TD(λ) 方法(时序差分),虽然方差小,但可能有偏(bias),尤其当 critic 网络不准时。

👉GAE 就是为了在“低方差”和“低偏差”之间找一个最佳平衡点


🔧 GAE 的核心思想(直观版)

GAE 引入了一个超参数λ ∈ [0, 1],通过加权平均不同“回溯长度”的优势估计:

  • λ = 0→ 只看下一步(TD(0)),方差小,但有偏
  • λ = 1→ 看整条轨迹(Monte Carlo),无偏,但方差大
  • λ = 0.95(常用值)兼顾两者,既利用了 long-term 的信息,又控制了噪声

公式如下(别怕,我们用例子解释):

AtGAE=∑l=0∞(γλ)lδt+lAtGAE​=l=0∑∞​(γλ)lδt+l​

其中:

  • δt=rt+γV(st+1)−V(st)δt​=rt​+γV(st+1​)−V(st​) 是TD误差(critic 预测 vs 实际)
  • γγ 是折扣因子
  • λλ 是 GAE 超参

💡 简单理解:GAE 把每一步的 TD 误差 δδ 像“涟漪”一样向后传播,并用 (γλ)l(γλ)l 衰减,越远的影响越小。


🌰 举个具体例子(你的场景)

假设你有两条轨迹:

轨迹 A(总奖励 = 70)
  • 步骤:s₀ → a₀ → s₁ → a₁ → ... → sₙ
  • 最终累计回报 R = 70
  • Critic 估算 V(s₀) ≈ 65
轨迹 B(总奖励 = 100)
  • 同样长度,R = 100
  • Critic 估算 V(s₀) ≈ 65

那么对轨迹 B 的起始状态 s₀,其优势为:

A0=R−V(s0)=100−65=+35(正优势!)A0​=R−V(s0​)=100−65=+35(正优势!)

而轨迹 A 的优势是:

A0=70−65=+5(弱正优势)A0​=70−65=+5(弱正优势)

GAE 会进一步把这个 +35 的“功劳”反向分配给轨迹 B 中的每一个动作(a₀, a₁, ..., aₙ₋₁),尤其是那些引导走向高回报的关键决策点

于是,在策略更新时:

  • 轨迹 B 中的动作概率 ↑↑
  • 轨迹 A 中的动作概率 ↑(但幅度小很多)

久而久之,模型就学会:“走那条能拿到 100 的路”。


⚙️ 在 PPO 中 GAE 的作用

  1. 计算优势 AtAt​:用于构建 PPO 的目标函数(clip objective)

LCLIP=Et[min⁡(rt(θ)At,clip(rt(θ),1−ϵ,1+ϵ)At)]LCLIP=Et​[min(rt​(θ)At​,clip(rt​(θ),1−ϵ,1+ϵ)At​)]

其中 rt(θ)rt​(θ) 是新旧策略概率比。

  1. 训练更稳定:相比直接用 MC 回报,GAE 大幅降低了梯度估计的方差,让 PPO 收敛更快、更可靠。
  2. 支持长时程信用分配:即使奖励稀疏(如你的情况),GAE 也能把最终结果“归功”给早期正确决策。

✅ 实践建议

  • λ 通常设为 0.95 或 0.98(OpenAI 默认用 0.95)
  • 确保 Critic(价值网络)训练充分:GAE 依赖 V(s)V(s) 的准确性,如果 critic 学得不好,GAE 也会失效。
  • 配合 Reward Normalization:将 reward 标准化(比如除以 running std),能让 GAE 更稳定。

📌 总结一句话

GAE 就像一个“智能功劳分配器”:它把一条轨迹最终的成败(70 vs 100),科学地拆解到每一步动作上,告诉 PPO “哪些选择真正值得奖励”,从而引导策略稳步向高回报轨迹靠拢。

所以,只要你能稳定采样到 100 分的轨迹,GAE + PPO 就会高效地把它“学下来”

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/17 15:26:17

终极指南:如何用MAA助手轻松玩转明日方舟

终极指南:如何用MAA助手轻松玩转明日方舟 【免费下载链接】MaaAssistantArknights 一款明日方舟游戏小助手 项目地址: https://gitcode.com/GitHub_Trending/ma/MaaAssistantArknights 作为《明日方舟》的忠实玩家,你是否也曾为重复的日常任务感到…

作者头像 李华
网站建设 2026/4/21 7:25:15

从源码到攻击面:深入解析工业控制软件中的内存破坏漏洞

第一章:从源码到攻击面:深入解析工业控制软件中的内存破坏漏洞工业控制系统(ICS)软件广泛应用于能源、制造和交通等关键基础设施领域,其安全性直接关系到物理世界的稳定运行。由于历史原因,许多 ICS 软件基…

作者头像 李华
网站建设 2026/4/18 2:56:21

GLM-4.6V-Flash-WEB响应延迟?推理加速参数设置指南

GLM-4.6V-Flash-WEB响应延迟?推理加速参数设置指南 智谱最新开源,视觉大模型。 1. 背景与问题定位 1.1 GLM-4.6V-Flash-WEB 简介 GLM-4.6V-Flash-WEB 是智谱 AI 推出的最新开源多模态视觉语言模型(VLM),专为高吞吐、…

作者头像 李华
网站建设 2026/4/18 20:56:05

GLM-4.6V-Flash-WEB显存不足?梯度检查点优化实战

GLM-4.6V-Flash-WEB显存不足?梯度检查点优化实战 智谱最新开源,视觉大模型。 快速开始 部署镜像(单卡即可推理);进入Jupyter,在 /root 目录,运行 1键推理.sh;返回实例控制台&#x…

作者头像 李华
网站建设 2026/4/23 1:07:15

微信小程序逆向解析:wxappUnpacker实战指南

微信小程序逆向解析:wxappUnpacker实战指南 【免费下载链接】wxappUnpacker 项目地址: https://gitcode.com/gh_mirrors/wxappu/wxappUnpacker 还在为无法查看微信小程序源码而苦恼吗?wxappUnpacker作为专业的微信小程序逆向解析工具&#xff0c…

作者头像 李华