TCN结合GRU的组合预测模型做多输入单输出的拟合预测建模。 程序内注释详细直接替换数据就可以使用。 程序语言为matlab。 程序直接运行可以出拟合预测图,线性拟合预测图,多个预测评价指标。 模型属于个人提出的,增加了模型的复杂度,具体一定的创新性,适用于想要灌水的。
直接上干货。今天分享的TCN-GRU组合预测模型在Matlab里实现了多输入单输出的时序预测,代码自带数据预处理、模型训练、结果可视化一条龙服务。模型结构上把时序卷积网络(TCN)的门控机制换成GRU单元,算是给传统结构加点新意。
先看数据准备部分。这段代码把原始数据随机打乱后划分训练测试集,记得自己的数据要按列排列,每列一个特征,最后一列是输出目标值:
% 数据预处理(假设原始数据存储为data变量) data = rand(200,5); % 示例数据:200个样本,5个特征(最后一列为输出) [inputData,outputData] = data(:,1:end-1), data(:,end); % 数据标准化 [inputScaled,inputPS] = mapminmax(inputData'); inputScaled = inputScaled'; [outputScaled,outputPS] = mapminmax(outputData');注意这里用了mapminmax做归一化,对新手更友好。数据打乱部分可以根据实际需求注释掉,比如处理时序数据时要保留顺序。
模型构建是重头戏。TCN部分用卷积层提取特征,GRU替代传统门控机制增强时序记忆:
function model = buildTCN_GRU() numFeatures = 4; % 输入特征数 numFilters = 64; % 卷积核数量 layers = [ sequenceInputLayer(numFeatures) % TCN模块 convolution1dLayer(3, numFilters*2, 'Padding', 'same', 'DilationFactor', 1) gruLayer(32, 'OutputMode', 'sequence') % 用GRU替代传统门控 layerNormalizationLayer() convolution1dLayer(3, numFilters, 'Padding', 'same', 'DilationFactor', 2) gruLayer(16, 'OutputMode', 'sequence') layerNormalizationLayer() % 输出层 globalAveragePooling1dLayer() fullyConnectedLayer(1) regressionLayer() ]; options = trainingOptions('adam', ... 'MaxEpochs', 150, ... 'MiniBatchSize', 32, ... 'Plots', 'training-progress'); model = {layers, options}; end这里的骚操作在于把TCN每层的扩张卷积后面都接了个GRU单元,相当于用时间序列的"记忆大师"来筛选卷积提取的特征。注意卷积核数量采用递减设计(128->64),实际应用时可以把这个改成超参数让使用者自己调整。
训练完成后用这段代码生成预测图:
% 预测结果反标准化 predTrain = predict(net, XTrain); predTest = predict(net, XTest); predTrain = mapminmax('reverse', predTrain, outputPS); predTest = mapminmax('reverse', predTest, outputPS); % 绘制对比曲线 figure subplot(2,1,1) plot([predTrain; predTest], 'r--') hold on plot(realData, 'b-') legend('Predicted', 'Actual') title('拟合效果总览') % 线性拟合度展示 subplot(2,1,2) scatter(realData, [predTrain; predTest], 'filled') hold on plot([minY maxY], [minY maxY], 'k-') xlabel('实际值') ylabel('预测值')重点看第二张散点图,45度线附近的点越密集说明预测效果越好。代码自动计算R²、MAE等指标:
% 计算评价指标 function [metrics] = calculateMetrics(yTrue, yPred) mae = mean(abs(yTrue - yPred)); rmse = sqrt(mean((yTrue - yPred).^2)); R2 = 1 - sum((yTrue - yPred).^2)/sum((yTrue - mean(yTrue)).^2); metrics = table(mae, rmse, R2, ... 'VariableNames', {'MAE','RMSE','R2'}); end这套代码的亮点在于模块化设计——把数据加载、模型构建、训练评估都拆成独立函数。想换自己的数据只需要修改数据加载部分,其他基本不用动。实际测试在CPU上跑200个epoch大概需要3分钟(视数据量而定),内存占用控制在2GB以内。
遇到训练不收敛的情况可以试着调整这两个地方:1. 把卷积层的DilationFactor改成指数增长模式(1,2,4...);2. 在GRU层后面加dropout层。不过要注意模型复杂度越高,过拟合风险也越大,这就是学术的微妙之处了——如何在模型复杂度和泛化性之间找平衡,正是体现研究者"功力"的地方。