即插即用
1 模型翻新点引见
1.1期间编码
输入消息编码参考 Informer 论文,咱们把源码和数据集制造启动了提升,繁难任何带有期间特色列的数据集启动输入消息的编码。
Informer在原始向量上不止参与了Transformer架构必备的PositionEmbedding(位置编码)还参与了与期间关系的各种编码:
在期间序列预测义务中,不同期间节点或者蕴藏着关键消息,例如分层期间戳(周、月和年)和无法知期间戳(假期、事情)。
详细在这里参与什么样的GlobalTimeStamp还须要依据实践疑问来确认,假设计算高铁动车车站的人流量,显然“假期”的期间差就是十分关键的。假设计算公交地铁等通勤交通工具的人流量,显然“星期”可以更多的提醒能否为上班日。
大家依据自己数据集的期间分辨率可灵敏调整!
1.2 基于GlobalAttention提升的LSTM网络
把基于留意力机制的循环网络改良提升为基于全局留意力机制LSTM神经网络:
2 模型全体结构
模型全体结构如下所示,多特色变量期间序列数据先经过输入消息编码:
TokenEmbedding -时序数据编码 PositionalEmbedding-位置编码 TemporalEmbedding-期间编码
经过这三种数据编码模式的联合经常使用,可以更好地捕捉输入数据的语义、位置和期间特色,增强模型对期间序列数据的了解和预测才干。
编码后的数据经过基于GlobalAttention提升的LSTM网络提取全局时序特色,GlobalAttention是一种用于增强模型对输入序列不同局部的关注水平的机制。在 LSTM 模型中,全局留意力机制可以协助模型更好地聚焦于输入序列中最关系的局部,从而提高模型的功能和泛化才干。在每个期间步,全局留意力机制计算一个权重向量,示意模型对输入序列各个局部的关注水平,而后将这些权重运行于 LSTM 输入的特色示意,经过对一切位置的特色启动加权,使模型能够更有针对性地关器关键的时域特色, 提高了模型对多特色序列时域特色的感知才干。
咱们对模型起名为:
Global Attention Temporal LSTM -(GATLSTM)
3 电力变压器数据集预解决
电力变压器数据集的详细引见可以参考下文:
电力变压器数据集引见和预解决
3.1 导入数据
3.2 数据集制造与预解决
详细引见见提供的文档!
4 基于 GATLSTM 的预测模型
4.1定义 GATLSTM 预测网络模型
4.2设置参数,训练模型
50个epoch,MSE 为0.0198,GATLSTM预测成果清楚,模型能够充沛 提取期间序列的全局高低文消息 ,收敛速度快,功能优越,预测精度高,适当调整模型参数,还可以进一步提高模型预测体现。
5 结果可视化和模型评价
5.1 预测结果可视化
5.2 模型评价
本文转载自,作者: