news 2026/2/3 7:30:50

Actor网络负责生成动作

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Actor网络负责生成动作

基于深度强化学习的混合动力汽车能量管理策略,包含DQN和DDPG两个算法。 基于Python编程。

混合动力汽车的能量管理就像在玩即时战略游戏——得实时分配油和电的使用比例,还得考虑电池寿命、油耗和驾驶体验。这活儿交给深度强化学习再合适不过了,毕竟人类工程师很难实时处理这么多动态参数。

咱们先看DQN(深度Q网络)这个经典算法。它特别适合处理离散动作空间,比如当我们需要在"纯电模式"、"混动模式"、"充电模式"这几个选项之间做选择时。用Python实现起来可以这么搞:

class DQNAgent: def __init__(self, state_size, action_size): self.q_net = tf.keras.Sequential([ layers.Dense(64, activation='relu', input_shape=(state_size,)), layers.Dense(64, activation='relu'), layers.Dense(action_size) ]) self.memory = deque(maxlen=2000) # 经验回放池 self.epsilon = 1.0 # 探索率 def choose_action(self, state): if np.random.rand() < self.epsilon: return random.randrange(action_size) # 随机探索 q_values = self.q_net.predict(state[np.newaxis], verbose=0) return np.argmax(q_values[0]) # 选择最大Q值动作

这段代码里的经验回放池就像驾驶员的"错题本",把之前遇到的状态转换都存起来反复学习。ε-greedy策略则模仿人类司机的决策习惯——大部分时间按经验开车,偶尔尝试新路线。

不过当需要更精细的控制时,比如油门开度要精确到百分比,DDPG(深度确定性策略梯度)就派上用场了。它可以直接输出连续的控制量:

class DDPG: def __init__(self, state_dim, action_dim): self.actor = self._build_actor() # Critic网络评估动作价值 self.critic = self._build_critic() def _build_actor(self): inputs = layers.Input(shape=(state_dim,)) x = layers.Dense(256, activation='relu')(inputs) x = layers.Dense(256, activation='relu')(x) outputs = layers.Dense(action_dim, activation='tanh')(x) # 输出[-1,1]范围 return tf.keras.Model(inputs, outputs)

这里有个细节:Actor网络的输出层用tanh激活函数,把动作值压缩到[-1,1]区间,对应实际控制中的油门开度范围。训练时Critic网络会评估这个动作的质量,就像驾校教练实时反馈操作是否合理。

实际部署时,混合动力系统的状态空间需要包含车速、电池SOC、发动机转速等参数。举个状态向量的例子:

state = np.array([ current_speed / 120, # 归一化车速(假设最高120km/h) battery_soc / 100, # 电池电量百分比 engine_temp / 150, # 发动机温度 accelerator_pedal # 油门踏板开度(0-1) ])

训练过程中有个坑要注意:电池SOC的变化具有滞后性。就像手机快充时温度会慢慢上升,得给模型足够长的episode来学习这种延迟效应。这时候可以引入LSTM层来处理时间序列特征:

class TemporalDQN(DQNAgent): def __init__(self, state_size, action_size): super().__init__(state_size, action_size) # 在原有网络中加入LSTM层 self.q_net = tf.keras.Sequential([ layers.Reshape((5, state_size//5)), # 假设取5个时间步 layers.LSTM(64), layers.Dense(action_size) ])

实验对比两个算法时发现,DQN在模式切换场景下响应更快(0.2秒内完成决策),但DDPG在持续控制任务中能耗降低8%。就像手动挡和自动挡的区别——前者换挡果断,后者操作平顺。

最后给个实用建议:先用DQN快速验证算法可行性,当需要精细控制时再上DDPG。代码里记得加实时可视化,毕竟看着电池曲线和油耗数字实时变化,比盯着损失函数下降有趣多了。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/2 19:05:18

固定头尾、中间滚动?用Flex + vh轻松搞定三栏布局

固定头尾、中间滚动&#xff1f;用Flex vh轻松搞定三栏布局固定头尾、中间滚动&#xff1f;用Flex vh轻松搞定三栏布局引言&#xff1a;为什么页面头尾固定这么让人头疼CSS Flex 布局快速上手指南——从“ Flex 是谁”到“ Flex 是我兄弟”1. 激活 Flex 模式2. 主轴与交叉轴—…

作者头像 李华
网站建设 2026/2/2 23:56:23

微电网恒功率PQ控制策略下的LCL并网仿真研究

微电网恒功率PQ控制&#xff0c;LCL并网仿真最近在搞微电网并网控制时发现个有意思的事——并网逆变器的PQ控制策略和LCL滤波器配合使用时&#xff0c;参数整定能把人绕晕。今天咱们就手撕个MATLAB仿真&#xff0c;看看这个经典组合到底怎么玩。先说说控制逻辑的核心&#xff1…

作者头像 李华
网站建设 2026/2/2 23:56:29

【青岛理工】25年计网期末A卷回忆版

一、简答题43分1.TCP/IP协议体系结构各层的核心功能2.简述CDMA的工作原理&#xff0c;计算过程见PPT/作业对于CDMA原理的理解&#xff0c;这里附上我在学习的时候自己的想法和思考&#xff08;仅供参考&#xff0c;并非教科书式权威的理解&#xff09;&#xff1a;考虑&#xf…

作者头像 李华
网站建设 2026/2/2 23:56:24

51单片机数字电压表

51单片机的数字电压表(数码管显示)–可提供C程序、proteus仿真、原理图、PCB、元件清单 功能说明 主要由51单片机最小系统、四位共阴数码管、ADC0832模数转换芯片组成。 可测DC5V以内的电压&#xff0c;显示精度为0. 001V玩单片机的小伙伴应该都想过自己做个电压表吧&#xff1…

作者头像 李华
网站建设 2026/2/2 23:56:31

新的spring boot3.x和spring-security6.x的流程

以下是Spring Boot 3.x与Spring Security 6.x的核心流程及关键配置要点&#xff1a;依赖配置在pom.xml或build.gradle中添加依赖&#xff1a;<dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-security</a…

作者头像 李华
网站建设 2026/2/3 0:43:44

主动配电网故障恢复的重构与孤岛划分模型 关键词:分布式电源 故障网络重构 主动配电网 孤岛划分...

主动配电网故障恢复的重构与孤岛划分模型 关键词&#xff1a;分布式电源 故障网络重构 主动配电网 孤岛划分 参考文档&#xff1a; [1]《A New Model for Resilient Distribution Systems by Microgrids Formation》 [2]《主动配电网故障恢复的重构与孤岛划分统一模型》 仿真软…

作者头像 李华