建设银行跨行转账网站网站外链建设的八大基本准则

张小明 2026/1/6 18:21:11
建设银行跨行转账网站,网站外链建设的八大基本准则,邯郸市建设局官网,seo是什么意思中文如果说 DQN 是强化学习的“开山斧”#xff0c;REINFORCE 是“第一性原理”#xff0c;TRPO 是“数学皇冠上的明珠”#xff0c;那么 PPO (Proximal Policy Optimization#xff0c;近端策略优化) 就是那把统治世界的“AK-47”。 2017 年#xff0c;OpenAI 发布了 PPO。在…如果说 DQN 是强化学习的“开山斧”REINFORCE 是“第一性原理”TRPO 是“数学皇冠上的明珠”那么PPO (Proximal Policy Optimization近端策略优化)就是那把统治世界的“AK-47”。2017 年OpenAI 发布了 PPO。在此后的几年里它几乎横扫了所有榜单。从 Dota 2 的 OpenAI Five 到机器手解魔方再到如今 ChatGPT 背后的 RLHF人类反馈强化学习PPO 无处不在。为什么是 PPO它没有 TRPO 那么复杂的二阶矩阵计算也没有 REINFORCE 那么脆弱的稳定性。它完美地诠释了工程学的最高智慧在理论的严谨与实现的简单之间找到那个完美的平衡点。今天我们将拆解 PPO 的每一个零件看看这个“最实用”的算法是如何炼成的。第一章从 TRPO 的遗憾说起要理解 PPO必须先理解它要解决什么问题。在 PPO 之前TRPO (Trust Region Policy Optimization)提出了一个极其重要的概念信赖域Trust Region。TRPO 告诉我们为了保证策略更新不“翻车”单调提升我们必须限制新旧策略之间的差异KL 散度。max⁡θL(θ)s.t.DˉKL(πθold,πθ)≤δ \max_\theta L(\theta) \quad \text{s.t.} \quad \bar{D}_{KL}(\pi_{\theta_{old}}, \pi_\theta) \le \deltaθmax​L(θ)s.t.DˉKL​(πθold​​,πθ​)≤δ这个思想非常完美但它的代价太大了。计算昂贵为了求解那个约束TRPO 需要计算费雪信息矩阵Hessian Matrix的逆或者使用共轭梯度法Conjugate Gradient。这对计算资源是巨大的消耗。实现困难TRPO 的代码实现非常复杂且很难与其他深度学习模块如 Dropout, Parameter Sharing兼容。OpenAI 的研究员就在想能不能保留“限制步长”的核心思想但扔掉复杂的二阶计算只用一阶梯度First-order Gradient来解决问题于是PPO 诞生了。它的核心哲学很简单如果跳出信赖域太难计算那我就直接用“剪刀”把跳出去的部分剪掉Clip。第二章PPO-Clip——极简主义的胜利PPO 有两个变体Penalty 和 Clip但最终在历史长河中胜出的是PPO-Clip。让我们深入它的数学心脏。2.1 概率比率 (Probability Ratio)首先我们定义新旧策略的概率比率为rt(θ)r_t(\theta)rt​(θ)rt(θ)πθ(at∣st)πθold(at∣st) r_t(\theta) \frac{\pi_\theta(a_t | s_t)}{\pi_{\theta_{old}}(a_t | s_t)}rt​(θ)πθold​​(at​∣st​)πθ​(at​∣st​)​当rt(θ)1r_t(\theta) 1rt​(θ)1时说明新策略比旧策略更倾向于选择该动作。当rt(θ)1r_t(\theta) 1rt​(θ)1时说明新策略比旧策略更不倾向于选择该动作。当θθold\theta \theta_{old}θθold​时rt1r_t 1rt​1。利用重要性采样Importance Sampling我们可以把策略梯度的目标函数写成LCPI(θ)Et[πθ(at∣st)πθold(at∣st)At]Et[rt(θ)At] L^{CPI}(\theta) \mathbb{E}_t \left[ \frac{\pi_\theta(a_t|s_t)}{\pi_{\theta_{old}}(a_t|s_t)} A_t \right] \mathbb{E}_t [ r_t(\theta) A_t ]LCPI(θ)Et​[πθold​​(at​∣st​)πθ​(at​∣st​)​At​]Et​[rt​(θ)At​]这里AtA_tAt​是优势函数Advantage。如果直接优化这个LCPIL^{CPI}LCPIConservative Policy Iteration一旦rtr_trt​变得非常大策略就会崩溃这就变成了原始的 TRPO 之前的状态。2.2 核心公式剪切目标函数PPO 引入了一个极其精妙的clip操作构造了新的目标函数LCLIPL^{CLIP}LCLIPLCLIP(θ)Et[min⁡(rt(θ)At,clip(rt(θ),1−ϵ,1ϵ)At)] L^{CLIP}(\theta) \mathbb{E}_t \left[ \min \left( r_t(\theta) A_t, \text{clip}(r_t(\theta), 1-\epsilon, 1\epsilon) A_t \right) \right]LCLIP(θ)Et​[min(rt​(θ)At​,clip(rt​(θ),1−ϵ,1ϵ)At​)]这个公式看起来有点吓人但我们只要分两种情况拆解就会发现它简单得令人发指。这里的ϵ\epsilonϵ通常取 0.1 或 0.2。情况一动作是好的At0A_t 0At​0因为动作是好的我们希望增加这个动作的概率即希望rtr_trt​变大。如果rtr_trt​只是稍微变大例如 1.1还在1ϵ1\epsilon1ϵ范围内那么实际目标就是rtAtr_t A_trt​At​正常更新。如果rtr_trt​变得太大例如 1.5超过了1ϵ1\epsilon1ϵ那么clip函数会把它强行锁定在1ϵ1\epsilon1ϵ。结果目标函数不再随rtr_trt​增加梯度变为 0。这意味着你已经奖励过头了不要再激进地更新了停下来情况二动作是坏的At0A_t 0At​0因为动作是坏的我们希望减少概率即希望rtr_trt​变小。如果rtr_trt​只是稍微变小例如 0.9还在1−ϵ1-\epsilon1−ϵ范围内正常更新。如果rtr_trt​变得太小例如 0.5低于1−ϵ1-\epsilon1−ϵclip会把它锁定在1−ϵ1-\epsilon1−ϵ。结果这意味着你已经惩罚够了再把概率压低就要导致策略分布差异过大停下来2.3 为什么取最小值Min注意公式里的min⁡\minmin操作。这被称为悲观下界Pessimistic Bound。PPO 总是取“未截断的目标”和“截断后的目标”中较小的那个。这意味着 PPO宁可少更新一点也绝不冒险多更新一点。这种保守的策略正是它极其稳定的秘诀。第三章被遗忘的另一半——PPO-Penalty虽然 PPO-Clip 大行其道但论文中还提出了另一种方法PPO-Penalty基于 KL 惩罚的 PPO。它的逻辑更接近 TRPO。它将 KL 散度作为一个惩罚项直接加到目标函数中LKLPEN(θ)Et[rt(θ)At−βDKL(πθold,πθ)] L^{KLPEN}(\theta) \mathbb{E}_t [ r_t(\theta) A_t - \beta D_{KL}(\pi_{\theta_{old}}, \pi_\theta) ]LKLPEN(θ)Et​[rt​(θ)At​−βDKL​(πθold​​,πθ​)]这就引入了一个难题β\betaβ惩罚系数该取多少PPO-Penalty 设计了一套自适应调整机制如果上一轮训练完发现 KL 散度太大ddtarg×1.5d d_{targ} \times 1.5ddtarg​×1.5说明步子迈大了下一轮把β\betaβ翻倍。如果上一轮 KL 散度太小ddtarg/1.5d d_{targ} / 1.5ddtarg​/1.5说明太保守了下一轮把β\betaβ减半。虽然听起来很合理但在实际实验中PPO-Clip 的效果普遍优于 PPO-Penalty且不需要计算 KL 散度因此 Clip 版本成为了当今的标准实现。第四章魔鬼在细节中——PPO 的工程实现技巧很多初学者照着公式写 PPO却发现根本训练不出来。这是因为 PPO 的威力不仅在于那个 Clip 公式更在于它背后的一整套代码级优化技巧Implementation Matters。4.1 GAE (Generalized Advantage Estimation)PPO 能够成功有一半功劳要归给 GAE。我们需要估计优势函数AtA_tAt​。如果是蒙特卡洛MCAtGt−V(st)A_t G_t - V(s_t)At​Gt​−V(st​)。方差太大。如果是单步 TDAtrtγV(st1)−V(st)A_t r_t \gamma V(s_{t1}) - V(s_t)At​rt​γV(st1​)−V(st​)。偏差太大。GAE 引入了一个λ\lambdaλ参数在 MC 和 TD 之间做了一个完美的加权平均A^tGAE(γ,λ)∑l0∞(γλ)lδtlV \hat{A}_t^{GAE(\gamma, \lambda)} \sum_{l0}^{\infty} (\gamma \lambda)^l \delta_{tl}^VA^tGAE(γ,λ)​l0∑∞​(γλ)lδtlV​其中δ\deltaδ是 TD Error。通过调节λ\lambdaλ通常 0.95GAE 极大地平衡了偏差和方差为 PPO 提供了高质量的梯度指导。4.2 数据利用率的飞跃Epochs 与 Mini-batch在 A2C 中一个样本用完就得扔因为它是 On-Policy 的。但 PPO 因为有了 Clip 机制限制了策略偏移使得旧策略产生的数据在一定范围内可以被重复使用。这使得 PPO 可以采集一批数据例如 2048 步。在这批数据上运行KKK个 Epoch例如 10 轮。每一轮里再把数据切分成 Mini-batch例如 32 或 64进行 SGD 更新。这种采集一次更新多次的模式让 PPO 的样本效率Sample Efficiency比 A2C 高出了一个数量级。4.3 优势归一化 (Advantage Normalization)这几乎是所有高质量 PPO 代码的标配但在论文里往往一笔带过。在每个 Mini-batch 更新前对计算出来的优势值AAA进行归一化AA−mean(A)std(A)1e−8 A \frac{A - \text{mean}(A)}{\text{std}(A) 1e^{-8}}Astd(A)1e−8A−mean(A)​这个简单的操作可以保证梯度的尺度稳定防止因为某个 Reward 突然很大而导致网络权重爆炸。4.4 价值函数的 Clip这是一个很容易被忽视的细节。PPO 不仅 Clip 了策略Actor通常也 Clip 价值网络Critic。在计算 Critic 的 Loss 时如果新的预测值Vϕ(s)V_\phi(s)Vϕ​(s)偏离旧预测值太远也会被截断。这防止了 Critic 在拟合过程中发生剧烈震荡保证了 Critic 提供的“基准线”是稳健的。第五章王者登基——为什么 LLM 选择了 PPO把时间拨到 2022 年ChatGPT 横空出世。在 RLHFReinforcement Learning from Human Feedback的第三阶段OpenAI 明确指出使用了 PPO。为什么不是 SAC为什么不是 TD3为什么不是离线 RL1. 稳定性压倒一切训练一个 175B 参数的大模型成本是数百万美元。如果算法不稳定导致训练发散Diverge损失是不可承受的。PPO 的信赖域机制提供了最强的“安全感”它保证了模型是在人类偏好的基础上“微调”而不是“魔改”。2. 离散动作空间的天然适应LLM 的输出本质上是在词表Vocabulary上的分类问题是离散动作空间。DDPG、SAC 等基于确定性策略或重参数化的算法更适合连续动作机器人控制。而 PPO 天生就支持 Softmax 输出的离散分布与 Transformer 的架构完美契合。3. On-Policy 的妥协虽然 Off-Policy如 SAC样本效率更高但在微调 LLM 时我们通常关心的是当前策略生成的文本质量。PPO 这种 On-Policy 算法直接优化当前策略生成的分布这与 RLHF 的目标让当前模型的输出更像人类在数学上更一致。结语中庸之道的胜利PPO 可能不是数学上最优美的不如 TRPO也不是样本效率最高的不如 SAC更不是探索能力最强的。但它像一把瑞士军刀足够好用足够稳定且对超参数不那么敏感。在深度学习的淘金热中我们往往追求最新、最复杂的算法。但 PPO 的成功提醒我们有时候限制你的野心Clip步步为营Proximal反而能走得更远。这就是 PPO深度强化学习领域最实用的策略方法没有之一。附录核心代码片段 (PyTorch 风格)为了让你更直观地理解这里是 PPO-Clip 核心 Loss 计算的伪代码defppo_loss(new_log_probs,old_log_probs,advantages,epsilon0.2):# 1. 计算概率比率 ratio# exp(log_new - log_old) new / oldratiotorch.exp(new_log_probs-old_log_probs)# 2. 计算未截断的目标surr1ratio*advantages# 3. 计算截断后的目标# clamp 限制 ratio 在 [1-eps, 1eps] 之间surr2torch.clamp(ratio,1.0-epsilon,1.0epsilon)*advantages# 4. 取最小值 (注意是 -mean因为要做梯度下降)loss-torch.min(surr1,surr2).mean()returnloss
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

做歌手的网站做python题目的网站

终极指南:5分钟掌握LOOT模组排序,彻底解决天际冲突难题 【免费下载链接】skyrimse The TES V: Skyrim Special Edition masterlist. 项目地址: https://gitcode.com/gh_mirrors/sk/skyrimse LOOT模组排序工具是《上古卷轴V:天际 特别版…

张小明 2026/1/3 9:58:00 网站建设

网站维护与建设合同书陈木胜老婆吴君如

博主介绍:✌️码农一枚 ,专注于大学生项目实战开发、讲解和毕业🚢文撰写修改等。全栈领域优质创作者,博客之星、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java、小程序技术领域和毕业项目实战 ✌️技术范围:&am…

张小明 2026/1/3 17:03:21 网站建设

三明网站建设公司经营范围 网站建设

PaddlePaddle GPU算力组合推荐:最适合中文AI项目的开发环境 在当今AI项目开发中,一个常见痛点是:明明算法设计得不错,训练却慢如蜗牛;好不容易训完模型,部署时又遇到兼容性问题。尤其在处理中文任务时&…

张小明 2026/1/4 5:19:48 网站建设

网站设计一般多少钱一个页面网站建设制作设计珠海

终极抢币神器:纪念币自动化预约工具完整指南 【免费下载链接】auto_commemorative_coin_booking 项目地址: https://gitcode.com/gh_mirrors/au/auto_commemorative_coin_booking 还在为纪念币预约屡战屡败而烦恼吗?这款纪念币自动化预约工具正是…

张小明 2026/1/5 20:57:25 网站建设

手机如何创网站模板app

MyFlash终极指南:MySQL数据误删恢复神器快速上手 【免费下载链接】MyFlash flashback mysql data to any point 项目地址: https://gitcode.com/gh_mirrors/my/MyFlash 还在为误删MySQL数据而焦虑吗?MyFlash闪亮登场!这款由美团点评技…

张小明 2026/1/5 2:07:36 网站建设

佛山哪家公司建设网站seo怎么优化效果更好

文章目录具体实现截图主要技术与实现手段关于我本系统开发思路java类核心代码部分展示结论源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!具体实现截图 同行可拿货,招校园代理 vuespringboot_9b6a7c5r 框架开发的在线招标投标系统…

张小明 2026/1/4 12:38:36 网站建设