1. 引言
当前,全球正处于前所未有的变革和第三次能源转换浪潮的汇聚之中。绿色低碳转型已成为推动全球发展的重要动力。推动绿色可持续发展既面临新的机遇,也迎来了诸多挑战。天然气凭借其显著的低碳优势,被视为连接传统化石燃料与新能源转型的理想桥梁。其在与储能技术的协同工作中,尤其在气电调峰过程中,发挥着不可替代的作用,极大地促进了新能源的发展[1] [2]。页岩气的产量受地质因素等多种因素的影响,这些影响因素具有高维、非线性和时变性等特点。因此,由于其复杂的性质和多样的影响因素,准确预测其产量,特别是在时间序列分析中,仍然面临巨大的挑战[3]。
传统页岩气产量预测方法目前主要采用数值模拟方法。数值模拟方法在页岩气产量预测中提供了关键的参考信息[4],并已被证实可以用于优化施工设计以及研究页岩气的最大生产效益[5]。数值模拟方法基于质量守恒和能量守恒方程的理论支持,且需要输入钻井、完井、地质以及开采等相关参数[6]。Fan等人通过储层模拟方法,分析了Haynesville页岩的气体生产机制和井刺激效果,结果发现复杂的裂缝网络在提高早期井性能中起关键作用,并证明了这种方法在优化施工设计和提高生产效益方面的有效性[7]。在页岩气数值模拟中,研究人员充分考虑了研究人员充分考虑了多种复杂的输运和渗流机制,如菲克扩散、非达西流动以及多级压裂水平井的模拟[8] [9],这些特性有助于我们更好地理解页岩气中水力压裂的特征[10]。然而,数值模拟通常需要构建复杂的地质模型并求解大规模的Navier-Stokes方程,这依然需要大量的计算资源并可能产生系统误差[11]。
随着人工智能技术的迅速进步,数据驱动的方法在过去几十年得到了显著发展[12]。利用机器学习分析生产历史、各种工程参数以及页岩气生产,对于理解动态性能和提高产量至关重要。Liang和Zhao以及Mudunuru和Hoover使用随机森林算法对Eagle Ford页岩地层分析了生产历史和各种工程参数,进行更好地理解了页岩气的动态性能。Liu等人和Kocoglu等人开发了一种基于人工神经网络页岩气井最终可采储量(EUR)预测方法。Niu等人、Han等人和Guo等人考虑了多种机器学习算法,基于相同的数据集开发预测模型,以确定最适合特定问题的算法,以获得更好的现场应用效果。然而传统的机器学习模型,如回归树、多层感知器、支持向量机和随机森林,虽然在许多应用中表现出色,但在处理页岩气高维数据和复杂的非线性时间序列预测方面存在局限性,捕捉数据的系统性特征和非线性关系时表现不佳,限制了它们的表示能力和应用效果。而深度学习方法与传统机器学习方法相比,其在从大量数据中提取复杂非线性关系方面表现出色,并在时间序列数据预测中展示了更优的性能,因此许多研究人员使用CNN、RNN、LSTM和GRU等神经网络模型进行页岩气产量预测。Sun等人、Alimohammadi等人和Huang等人基于长短期记忆网络(LSTM)研究了页岩气井历史生产数据与产量之间的关系。研究结果表明,LSTM在捕捉产量数据之间的复杂关系方面表现出色。Zha等人通过结合CNN和LSTM模型预测月度气田产量,结果表明混合模型能够更准确地提取时间和空间特征,显著提高预测精度。此外,注意力机制也已经成功应用于页岩气产量预测。LSTM和GRU等时序模型能够处理较长时间序列,但当处理的时间序列过长时,它们会出现序列信息丢失和数据之间的结构信息建模问题。因此对于长周期页岩气产量预测,上述模型的表现出来的预测精度不高。
尽管大多数研究在页岩气产量预测方面取得了良好效果,但仍存在诸多挑战。目前的混合深度学习模型在捕捉数据中复杂时间模式方面受到限制,这使得模型难以找到可靠的依赖关系,而对于长周期时间序列预测,依旧表现出不尽人意的效果。本文提出一种基于Autoformer模型,将RevIN算法与FECAM频率注意力机制与Autoformer结合,形成RevIN-Autoformer-FECAM模型,以提高预测精度。
2. Autoformer模型
Autoformer是一种新型的自注意力模型,类似于Transformer模型,但具有更高的计算效率和更好的性能。Autoformer模型采用了一种新的自注意力机制,即“位置信息编码”,可以更好地捕捉序列中不同位置的相对距离信息。Autoformer模型在自然语言处理和视觉识别等领域的多个任务中取得了优秀的性能表现,在对于时间序列的预测中也表现出优异的成绩。Autoformer主要由三部分组成:序列分解模块(Decomposition Block)、自相关机制(Auto-Correlation Mechanism)、编码和解码器(Encoder和Decoder)。其结构如图1所示。
Figure 1. Diagram of Autoformer model architecture
图1. Autoformer模型结构图
3. 改进Autoformer模型
3.1. RevIN
平稳性在时间序列预测任务中具有重要意义,然而,现实世界中的时间序列数据通常表现出非平稳性。为了解决非平稳序列的分布变化问题,经典的统计方法如ARIMA通过差分法将非平稳序列转化为平稳序列。在深度学习中,分布变化问题是时序预测模型提取特征不足的主要原因,因此,平稳化方法被研究学者广泛探索。自适应范数方法通过对全局采样集进行统计,旨在平稳化时间序列。DAIN则采用非线性神经网络,基于训练集的观测分布对时间序列进行自适应平稳化处理。这些方法通常仅对模型的输入数据进行全局处理,未能充分考虑归一化在平稳化过程中的重要性。因此,本文使用一种简单而有效的RevIN方法,旨在缓解分布变化问题并实现时间序列的平稳化。RevIN网络通过引入归一化层(a-1)对每个样本实例进行归一化处理,剔除了实例中的非平稳信息,然后反归一化层(a-2)将时空特征提取模块的预测值进行反归一化处理,从而使得预测值不仅保留与原始数据相同的变化趋势,还便于观察原始数据的分布情况。RevIN能够缓解分布变化问题,减少实例样本之间的分布差异,从而实现数据的平稳化,最终使得预测值更接近真实的需求值。
RevIN的结构图如图2所示。在RevIN中,实例归一化实例归一化(a-1)与逆归一化(a-2)采用对称结构,灵活地从某一神经网络层中移除非平稳信息(a-3),并通过另一层网络恢复这些非平稳信息。在此过程中,非平稳信息(a-3)指的是输入数据的统计特性(如均值和方差)以及神经网络可学习的仿射参数。归一化层将原始数据分布(b-1)转化为中心化分布(b-2),从而减小不同实例样本之间的分布差异。模型学习中心化分布数据
,得到了未来时刻的预测值
,其中(b-3)中的预测值分布
是将非平稳信息剔除的情况。为了恢复非平稳信息,RevIN在输出层进行反归一化处理,得到最终的预测值
,(b-4)中的
则是包含了非平稳信息的预测值分布。
Figure 2. Diagram of RevIN architecture
图2. RevIN结构图
3.2. 频率增强通道注意力机制
传统通道注意力机制(如Squeeze-and-Excitation,SE网络)依赖全局平均池化(Global Average Pooling, GAP)聚合空间信息以进行通道级特征重校准。然而,基于GAP的方法本质上会抑制特征的高频分量(如边缘和纹理),限制了其在复杂视觉任务中捕获判别性模式的能力。为解决这一问题,本文利用频率增强通道注意力机制(Frequency Enhanced Channel Attention, FECA),通过显式引入频域分析优化通道特征表征,其结构如图3所示。
FECA机制包含以下三个核心阶段:
1) 频域分解:对于输入特征图
,采用采用二维离散余弦变换(2D Discrete Cosine Transform, DCT)将其分解为多频分量。对每个通道c,其DCT系数计算为:
(1)
其中低频分量表征全局结构,高频分量则编码局部细节信息。
2) 频率感知特征压缩:为避免直接空间平均导致的信息损失,FECA通过可学习的频率滤波器自适应聚合多频信息。利用轻量级卷积层对跨通道拼接的DCT频谱进行编码,生成频率感知描述符
。
3) 注意力权重生成:将描述符输入Sigmoid激活的门控函数,生成通道级注意力权重,据此对原始特征进行动态缩放,强化任务关键频段的信息响应。
Figure 3. Diagram of Frequency Enhanced Channel Attention architecture
图3. Frequency Enhanced Channel Attention结构图
FECAM (特征增强通道注意力机制)相较于传统的通道注意力机制(如SE网络)展现出显著优势。通过引入特征增强模块,FECAM提升了通道间的特征表达能力,更精准地识别重要特征。FECAM采用改进的特征建模策略,深入探讨通道间的依赖关系,相比SE网络的简单加权,提供了更细致的控制。同时,FECAM引入更复杂的非线性处理操作,增强了模型的非线性建模能力,更好地适应复杂的数据分布。在通道权重调整上,FECAM展现更高的灵活性和动态性,提高了模型的适应性及跨任务泛化能力。FECAM在多个任务场景中实现更高效、精确的注意力机制,显著提升模型性能。
3.3. RevIN-Autoformer-FECAM
RevIN、Autoformer和FECAM在模型中的协同工作可以有效提升性能。RevIN通过自适应数据规范化处理输入数据,消除偏差和波动,提高了模型对时间序列数据的鲁棒性,确保数据符合训练要求。接着,Autoformer在RevIN处理后的数据上捕捉长期依赖关系和季节性变化,通过自注意力机制提取关键模式,增强了模型对时间序列的建模能力。最后,FECAM在Autoformer输出的特征上进一步优化,通过增强通道间关系和非线性建模,提高了模型对重要特征的关注,精细调整预测结果。这三者在数据预处理、特征提取和优化中的紧密配合,使得模型在复杂的时间序列任务中能够更准确地捕捉关键特征,提升整体性能。
4. 实验结果分析
4.1. 实验环境与参数设置
本研究的实验配置使用NVIDIA 3080显卡,CPU为第13代英特尔酷睿i5-11400KF处理器。操作系统为Ubuntu22.04,环境为Python3.8,配置CUDA版本12.1.0。深度学习框架Torch2.1.2。训练超参数设置如表1所示:
Table 1. Experimental parameters
表1. 实验参数
实验参数 |
参数值 |
Epoch |
100 |
Batchsize |
64 |
Optimizer |
Adam |
learning_rate |
0.001 |
d_model |
256 |
seq_len |
36 |
4.2. 数据集
本研究所使用的数据集来自威海页岩气田的三口气井,其生产数据如图4所示。数据特征包括日产气量、套压、油压、日产水量以及累积产气量。为了对生产数据进行有效分析,首先进行了数据预处理。具体而言,在页岩气井的初始生产阶段,生产率迅速升级到峰值,然后迅速下降,这一阶段被认为是回流期;部分日产气量数据点为零,主要由于气井关闭操作所致。因此这些数据点被直接删除。对于其他特征中的缺失值,采用基于已有数据进行建模,并利用预测方法对缺失值进行填充。
4.3. 对比实验
为了评估我们模型的有效性,我们选取了Informer、Reformer、Transformer、Dlinear以及Autoformer模型进行对比实验。历史输入序列的长度保持在36,而要预测的序列的长度是从一系列值中选择的,即{24, 36, 48, 60}。为了公平比较,所有方法的输入长度都固定为36。实验结果如表2所示。
(a) Well 1
(b) Well 2
(c) Well 3
Figure 4. Diagram of the production data of 3 wells
图4. 3口井的生产数据图
Table 2. Experimental results
表2. 实验结果
Methods |
Ours |
Informer |
Reformer |
Transformer |
Dlinear |
Autoformer |
Metric |
MSE |
MAE |
MSE |
MAE |
MSE |
MAE |
MSE |
MAE |
MSE |
MAE |
MSE |
MAE |
Well 1 |
24 |
0.0264 |
0.1091 |
0.2059 |
0.4000 |
0.1825 |
0.3644 |
0.1274 |
0.2970 |
0.0438 |
0.1591 |
0.0445 |
0.1588 |
36 |
0.0341 |
0.1273 |
0.0904 |
0.2301 |
0.1423 |
0.3120 |
0.1886 |
0.3791 |
0.0398 |
0.1346 |
0.0717 |
0.1982 |
48 |
0.0332 |
0.1220 |
0.1107 |
0.2645 |
0.1645 |
0.3380 |
0.2159 |
0.3907 |
0.0354 |
0.1288 |
0.0746 |
0.2149 |
60 |
0.0416 |
0.1432 |
0.1121 |
0.2752 |
0.1511 |
0.3167 |
0.0956 |
0.2433 |
0.0456 |
0.1582 |
0.1459 |
0.2884 |
Well 2 |
24 |
0.0444 |
0.1071 |
0.1704 |
0.3669 |
0.1599 |
0.3623 |
0.2092 |
0.4200 |
0.0529 |
0.1157 |
0.0564 |
0.1453 |
36 |
0.0458 |
0.1098 |
0.1636 |
0.3568 |
0.1450 |
0.3371 |
0.0559 |
0.1787 |
0.0476 |
0.1324 |
0.0598 |
0.1512 |
48 |
0.0466 |
0.1137 |
0.1142 |
0.2892 |
0.1511 |
0.3500 |
0.2133 |
0.4161 |
0.0482 |
0.1324 |
0.0601 |
0.1573 |
60 |
0.0475 |
0.1179 |
0.0982 |
0.2687 |
0.1386 |
0.3255 |
0.1148 |
0.2989 |
0.0495 |
0.1379 |
0.0586 |
0.1549 |
Well 3 |
24 |
0.0105 |
0.0653 |
0.1241 |
0.3295 |
0.1146 |
0.3167 |
0.1089 |
0.3051 |
0.0108 |
0.0687 |
0.0339 |
0.1298 |
36 |
0.0113 |
0.0700 |
0.0829 |
0.2586 |
0.0956 |
0.2876 |
0.1311 |
0.3403 |
0.0134 |
0.0820 |
0.0358 |
0.1272 |
48 |
0.0119 |
0.0719 |
0.0936 |
0.2807 |
0.0390 |
0.1627 |
0.1471 |
0.3684 |
0.0119 |
0.0726 |
0.0255 |
0.1117 |
60 |
0.0123 |
0.0733 |
0.0848 |
0.2676 |
0.0642 |
0.2213 |
0.0410 |
0.1710 |
0.0128 |
0.0768 |
0.0293 |
0.1261 |
根据表2的实验结果,本研究比较了多个模型(Informer, Reformer, Transformer, Dlinear, Autoformer)在威海页岩气田3口气井上的预测性能。评估指标为均方误差(MSE)和平均绝对误差(MAE),用于衡量每个模型在不同时间步(24天、36天、48天和60天)下的预测效果。结果表明本研究的RevIN-Autoformer-FECAM模型不仅在单一气井上的适应性强,而且在不同时间步的预测精度上也表现稳定,是所有模型中最优的选择。
RevIN-Autoformer-FECAM通过融合可逆实例归一化(RevIN)、自注意力频域分解(Autoformer)与频率增强通道注意力(FECA),实现了对复杂时间依赖关系的精细化建模,为高噪声、多尺度时序预测任务提供了高效可靠的解决方案。
基金项目
重庆科技大学研究生创新计划项目(YKJCX2321102)。