Page 33 - 2025年第56卷第9期
P. 33

上述网络模型均采用自编码器主体结构,利用转置卷积操作将压缩特征解码升维,主要差异在于
              运用了不同网络算法进行编码。采用经典的 ResNet18 网络                      [26] 作为编码器时,其网络参数规模、训练时
              间、验证集均方根误差和召回率均较差,表明该编码器在本项任务中的数据特征学习能力、网络参数
              量和计算成本均不理想。采用 Inception 编码器时,其网络参数量显著减小,训练时间缩短,验证集均
              方根误差和召回率均有所改善,表明 Inception 网络在本任务中以更低的计算成本完成了更有效的特征
              学习。当 Inception 编码器中引入 LSTM 算法后,网络参数量和训练时间增加,由于时序特征的考虑,
              模型准确性进一步提升,与预期效果相符。将 LSTM 算法替换为 GRU 算法后,由于 GRU 模块的体量更
              小,因此网络参数量有所下降,但仍高于单独 Inception 编码器,可能是由于模型中保留的传统隐含层

              拖慢了计算速度。Autoencoder-Inception-GRU 在参数量更大的情况下训练时间还略短于 Autoencoder-
              Inception 模型,从而获得了最快的计算速度;该模型的召回率也最高,展示了较优的特征学习能力。
              5.3 样本重构能力 为进一步研究 Autoencoder-Inception-GRU 模型的样本重构能力,将上述计算过
              程中不同模块的输出特征用主成分分析法降维投影至二维平面,如图 4 所示。在编码过程中,输入样

              本经 CNN 模块计算后在特征空间中的分布范围更加聚集,表明实现了信息压缩和特征提取;经 Incep⁃
              tion 模块运算后,样本点在特征空间中的分布范围再次显著减小,表明大部分无效信息被剔除,仅少
              量关键特征得到保留,实现了输入样本的低维向量特征表示;而样本经 GRU 模块输出后,时序依赖关
              系被考虑,新增了长短期时间特征,样本点在特征空间的分布范围有所扩大,但相比最初输入仍然实
              现了数据的有效压缩,达到了编码器的预期功能。































                                       图 4 Autoencoder-Inception-GRU 模型各模块输出特征可视化
                  在解码过程中,多层传统卷积提供了足够的参数以保障非线性解码映射的实现,转置卷积将数据
              特征逐步升维,表现为样本点在特征空间中分布范围的扩大。对比网络输入和输出,可以发现实际样
              本点和预测样本点在特征空间中的投影范围高度重合,表明 Autoencoder-Inception-GRU 模型学习到了
              原始样本的关键特征,并能够实现样本数据的精确重构,通过进一步的重构误差检测,可实现高坝泄
              流运行状态的有效监测和预警。


              6 工程应用


              6.1 多种类数据集下的模型应用 基于原型监测工况一的实测数据,按第 4 节所述提取特征,构建了

              声 压 、 振 动 和 图 像 单 类 型 、 两 两 融 合 和 全 部 特 征 融 合 共 7 个 数 据 集 。 由 于 表 2 中 Autoencoder-
                                                                                               — 1137  —
   28   29   30   31   32   33   34   35   36   37   38