PINN静电场问题建模求解—平行金属板间电场
PINN 基础理论与最简示例(含Python代码)中介绍了最基础的微分方程的求解,下面我们聚焦电磁场问题实际求解一下看看。
这个问题已经在Maxwell和C++中求解过了,可以看我之前的博客:平行金属板间电场在Maxwell中的求解和MFEM+GMSH静电场问题建模求解—平行金属板间电场。
下面我们看看如何在PINN中求解这个问题。
目录
- PINN静电场问题建模求解---平行金属板间电场
- 0、问题定义
- 1、PINN求解
- 1.1、明确方程与边界
- 1.2、PINN 训练流程解析
- 1.2.1、优化器与学习率调度
- 1.2.2、物理常数与泊松方程常数项
- 1.2.3、PDE 残差点:在内部点上强制满足泊松方程
- 1.2.4、边界条件损失:两端点上强制电压为 1 V 和 0 V
- 1.2.5、总损失:PDE + 边界 的加权和
- 2、结果分析
- 3、全部代码
0、问题定义
定义的问题如下,左边金属平行板电压为1 V 1V1V,右侧为0 V 0V0V,中间填充物质介电常数为1 11,电荷密度为1 0 − 8 C / m 2 {10^{ - 8}}C/{m^2}10−8C/m2。求解平行板之间的电压分布:
1、PINN求解
1.1、明确方程与边界
我们要求解以下一维泊松方程:
d 2 V ( x ) d x 2 = − ρ v ϵ 0 ϵ r \frac{d^2 V(x)}{dx^2} = -\frac{\rho_v}{\epsilon_0 \epsilon_r}dx2d2V(x)=−ϵ0ϵrρv
边界条件为:
V ( 0 ) = 1 V , V ( d ) = 0 V V(0) = 1 \,\text{V}, \qquad V(d) = 0 \,\text{V}V(0)=1V,V(d)=0V
其中参数为:
- 电荷密度:ρ v = − 1 × 1 0 − 8 C/m 2 \rho_v = -1 \times 10^{-8}\ \text{C/m}^2ρv=−1×10−8C/m2
- 板间距:d = 0.08 m d = 0.08\ \text{m}d=0.08m
- 相对介电常数:ϵ r = 1 \epsilon_r = 1ϵr=1
- 真空介电常数:ϵ 0 = 8.854 × 1 0 − 12 F/m \epsilon_0 = 8.854 \times 10^{-12}\ \text{F/m}ϵ0=8.854×10−12F/m
很好,这样分段贴代码确实更适合写博客,那我就按你给的结构,把这一节整理一版「可直接放博客」的版本(语气尽量教程风,不啰嗦)。
1.2、PINN 训练流程解析
接下来这段训练函数,就是把上面的泊松方程和边界条件“翻译”成 loss,然后用神经网络去拟合的全过程。
1.2.1、优化器与学习率调度
一开始先构建优化器和学习率调度器:
- 使用 Adam 作为优化器,对
model里全部参数做更新; - 使用
ReduceLROnPlateau,当损失长时间降不下去时,自动把学习率乘一个系数(这里是 0.8)。
这个调度器的作用是:前期用稍大的学习率快速下降,后期当 loss 平稳时自动“刹车”,避免在极小值附近乱跳。
optimizer=optim.Adam(model.parameters(),lr=lr)scheduler=torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer,'min',patience=1000,factor=0.8)# 自适应调整学习率1.2.2、物理常数与泊松方程常数项
# 电荷密度和介电常数rho_v=1e-8# 电荷密度 (C/m^2)epsilon_0=8.854e-12# 真空介电常数 (F/m)epsilon_r=1# 填充物的相对介电常数# 计算泊松方程的常数项poisson_constant=-rho_v/(epsilon_0*epsilon_r)# 计算常数项在训练函数里,先把物理量写清楚:
电荷密度(物理上是负的):
ρ v = − 1 × 1 0 − 8 C/m 2 \rho_v = -1\times 10^{-8}\ \text{C/m}^2ρv=−1×10−8C/m2
代码中是通过
rho_v = 1e-8和poisson_constant = -rho_v / (epsilon_0 * epsilon_r)
这两个符号叠加来实现“带负号”的效果。真空介电常数:
ϵ 0 = 8.854 × 1 0 − 12 F/m \epsilon_0 = 8.854\times 10^{-12}\ \text{F/m}ϵ0=8.854×10−12F/m
相对介电常数:
ϵ r = 1 \epsilon_r = 1ϵr=1
目标 PDE 写成:
d 2 V ( x ) d x 2 = − ρ v ϵ 0 ϵ r \frac{d^2 V(x)}{dx^2} = -\frac{\rho_v}{\epsilon_0 \epsilon_r}dx2d2V(x)=−ϵ0ϵrρv
对应到代码里,我们构造:
poisson_constant = − ρ v ϵ 0 ϵ r \text{poisson\_constant} = -\frac{\rho_v}{\epsilon_0 \epsilon_r}poisson_constant=−ϵ0ϵrρv
后面在残差中使用:
u x x ( x ) + poisson_constant ≈ 0 u_{xx}(x) + \text{poisson\_constant} \approx 0uxx(x)+poisson_constant≈0
也就是:
u x x ( x ) ≈ − poisson_constant = ρ v ϵ 0 ϵ r u_{xx}(x) \approx -\text{poisson\_constant} = \frac{\rho_v}{\epsilon_0 \epsilon_r}uxx(x)≈−poisson_constant=ϵ0ϵrρv
和原始泊松方程是一致的(注意这里的符号关系)。
1.2.3、PDE 残差点:在内部点上强制满足泊松方程
在每个 epoch 里,首先会在区间 ([0,d]) 上随机采样一批内部点:
x_r=torch.rand(n_residual,1,requires_grad=True)*0.08# 0~0.08mu_r=model(x_r)这一步等价于从区间[ 0 , 0.08 ] [0, 0.08][0,0.08]随机取
n_residual个点,对应物理上的板间空间;requires_grad=True是为了后面能对x_r求导;u_r = model(x_r)就是网络给出的电势预测:u θ ( x r ) ≈ V ( x r ) u_\theta(x_r) \approx V(x_r)uθ(xr)≈V(xr)
接着使用自动微分计算一阶、二阶导数:
u_x=torch.autograd.grad(outputs=u_r,inputs=x_r,grad_outputs=torch.ones_like(u_r),create_graph=True)[0]u_xx=torch.autograd.grad(outputs=u_x,inputs=x_r,grad_outputs=torch.ones_like(u_x),create_graph=True)[0]对应数学上:
一阶导:
u x = d u θ d x u_x = \frac{du_\theta}{dx}ux=dxduθ
再求导得到二阶导:
u x x = d 2 u θ d x 2 u_{xx} = \frac{d^2 u_\theta}{dx^2}uxx=dx2d2uθ
create_graph=True的作用是保留计算图,允许继续对梯度再求梯度(即二阶导)。
然后构造 PDE 残差:
residual=u_xx+poisson_constant loss_pde=torch.mean(residual**2)残差在数学上就是:
residual ( x ) = u x x ( x ) + poisson_constant \text{residual}(x) = u_{xx}(x) + \text{poisson\_constant}residual(x)=uxx(x)+poisson_constant
在所有内部点上做均方平均:
L PDE = 1 N r ∑ i = 1 N r ( residual ( x i ) ) 2 L_{\text{PDE}} = \frac{1}{N_r} \sum_{i=1}^{N_r} \left( \text{residual}(x_i) \right)^2LPDE=Nr1i=1∑Nr(residual(xi))2
这就是PDE 残差 loss,用来在整个区域内强制网络满足泊松方程。
1.2.4、边界条件损失:两端点上强制电压为 1 V 和 0 V
然后是边界条件部分。根据题目要求:
左端板:
V ( 0 ) = 1 V V(0) = 1\ \text{V}V(0)=1V
右端板:
V ( d ) = 0 V V(d) = 0\ \text{V}V(d)=0V
代码中直接把边界点写死为:
x_bc=torch.tensor([[0.0],[0.08]])# 边界点:0 和 0.08mu_bc=model(x_bc)target_bc=torch.tensor([[1.0],[0.0]])# 目标边界值:1V 和 0V用网络计算这两个点上的预测电压u θ ( 0 ) u_\theta(0)uθ(0)、u θ ( d ) u_\theta(d)uθ(d),再和真实值做 MSE:
loss_bc=torch.mean((u_bc-target_bc)**2)*10先算出原始的边界 MSE:
L ~ ∗ BC = 1 2 ( ( u ∗ θ ( 0 ) − 1 ) 2 + ( u θ ( d ) − 0 ) 2 ) \tilde{L}*{\text{BC}} = \frac{1}{2} \Big( \big(u*\theta(0) - 1\big)^2 + \big(u_\theta(d) - 0\big)^2 \Big)L~∗BC=21((u∗θ(0)−1)2+(uθ(d)−0)2)
然后乘以 10 相当于给边界条件一个放大的权重。后面在总损失里你又乘了 500,相当于:
L BC = 5000 ⋅ L ~ BC L_{\text{BC}} = 5000 \cdot \tilde{L}_{\text{BC}}LBC=5000⋅L~BC
这样做的目的很直接:
不管 PDE 残差怎么折腾,边界条件必须被牢牢“钉死”。
1.2.5、总损失:PDE + 边界 的加权和
有了 PDE 残差和边界条件两部分损失之后,真正用来反向传播的是它们的加权和:
loss=loss_pde+loss_bc*500loss.backward()optimizer.step()scheduler.step(loss)抽象一点写:
L = L PDE + λ BC L BC L = L_{\text{PDE}} + \lambda_{\text{BC}} L_{\text{BC}}L=LPDE+λBCLBC
在你的实现中,λ BC \lambda_{\text{BC}}λBC实际上非常大(约 5000),所以优化器会特别用力地把边界条件压到几乎没有误差,同时尽量在内部满足 PDE。
配合:
loss.backward():对总损失求梯度;optimizer.step():按梯度更新网络参数;scheduler.step(loss):根据最近一段时间 loss 的变化情况自动调整学习率;
整个训练过程不断重复这个循环,网络就会学出一个函数u θ ( x ) u_\theta(x)uθ(x),使得:
在内部点上:
d 2 u θ ( x ) d x 2 ≈ − ρ v ϵ 0 ϵ r \dfrac{d^2 u_\theta(x)}{dx^2} \approx -\dfrac{\rho_v}{\epsilon_0 \epsilon_r}dx2d2uθ(x)≈−ϵ0ϵrρv
在边界点上:
u θ ( 0 ) ≈ 1 , u θ ( d ) ≈ 0 u_\theta(0) \approx 1,\quad u_\theta(d) \approx 0uθ(0)≈1,uθ(d)≈0
也就是我们想要的平行板间电压分布的近似解。
2、结果分析
最最最重要的是要调整方程和边界的误差权重,不然不会收敛,就是下面式子里面的λ \lambdaλ:
L = L PDE + λ BC L BC L = L_{\text{PDE}} + \lambda_{\text{BC}} L_{\text{BC}}L=LPDE+λBCLBC
结果和平行金属板间电场在Maxwell中的求解和MFEM+GMSH静电场问题建模求解—平行金属板间电场的一致:
3、全部代码
importtorchimporttorch.nnasnnimporttorch.optimasoptimimportmathimportmatplotlib.pyplotasplt# 固定随机种子(方便复现)torch.manual_seed(0)# 定义 PINN 网络classPINN(nn.Module):def__init__(self,hidden_dim=100,num_layers=5):super().__init__()layers=[]input_dim=1output_dim=1# 输入层layers.append(nn.Linear(input_dim,hidden_dim))layers.append(nn.Tanh())# 隐藏层for_inrange(num_layers-1):layers.append(nn.Linear(hidden_dim,hidden_dim))layers.append(nn.Tanh())# 输出层layers.append(nn.Linear(hidden_dim,output_dim))self.net=nn.Sequential(*layers)defforward(self,x):returnself.net(x)# 定义训练函数deftrain(model,num_epochs=10000,n_residual=200,n_bc=2,lr=1e-4):optimizer=optim.Adam(model.parameters(),lr=lr)scheduler=torch.optim.lr_scheduler.ReduceLROnPlateau(optimizer,'min',patience=1000,factor=0.8)# 自适应调整学习率loss_history=[]# 电荷密度和介电常数rho_v=1e-8# 电荷密度 (C/m^2)epsilon_0=8.854e-12# 真空介电常数 (F/m)epsilon_r=1# 填充物的相对介电常数# 计算泊松方程的常数项poisson_constant=-rho_v/(epsilon_0*epsilon_r)# 计算常数项# 训练过程forepochinrange(num_epochs):optimizer.zero_grad()# 1. PDE 残差点(内部点)x_r=torch.rand(n_residual,1,requires_grad=True)*0.08# 在0到8cm之间随机采样u_r=model(x_r)# 计算 u_x 和 u_xxu_x=torch.autograd.grad(outputs=u_r,inputs=x_r,grad_outputs=torch.ones_like(u_r),create_graph=True)[0]u_xx=torch.autograd.grad(outputs=u_x,inputs=x_r,grad_outputs=torch.ones_like(u_x),create_graph=True)[0]# 计算 PDE 残差residual=u_xx+poisson_constant# 使用正确的电荷密度loss_pde=torch.mean(residual**2)# 2. 边界条件(x=0 和 x=d)x_bc=torch.tensor([[0.0],[0.08]])# 边界点:0 和 8cmu_bc=model(x_bc)target_bc=torch.tensor([[1.0],[0.0]])# 边界条件:1V 和 0V# 增加边界条件权重loss_bc=torch.mean((u_bc-target_bc)**2)*10# 增加边界条件损失的权重# 总损失loss=loss_pde+loss_bc*500loss.backward()optimizer.step()# 记录损失loss_history.append(loss.item())# 每 500 次打印一次if(epoch+1)%500==0:print(f"Epoch{epoch+1}/{num_epochs}| Loss:{loss.item():.4e}")if(epoch+1)%num_epochs==0:print(f"End")# 更新学习率scheduler.step(loss)returnloss_history# 模型初始化model=PINN(hidden_dim=50,num_layers=5)# 训练模型loss_history=train(model,num_epochs=10000)# 绘制训练损失曲线plt.plot(loss_history)plt.yscale('log')plt.xlabel('Epoch')plt.ylabel('Loss')plt.title('Training Loss History')plt.show()# 测试并绘制结果withtorch.no_grad():x_test=torch.linspace(0,0.08,100).view(-1,1)u_pred=model(x_test)# 绘制电势分布plt.plot(x_test.numpy(),u_pred.numpy(),label='PINN prediction')plt.xlabel('x (cm)')plt.ylabel('Voltage (V)')plt.title('Voltage Distribution between Plates')plt.grid(True)plt.legend()plt.show()