Page 64 - 2022年第53卷第8期
P. 64

s = σ (net) = σ (w·h + w·x + b)                           (2)
                                              t       t      h  t - 1  x  t
                                           a= tanh (net) =tanh (w·h + w·x + b)                          (3)
                                            t         t        h   t - 1  x  t
                  ( 2)更新单元状态
                                                  C= s C + (1 - s) a t                                (4)
                                                          t - 1
                                                                  t
                                                   t
                                                      t
                  ( 3)计算隐藏层输出
                                                     h= s tanh(C)                                      (5)
                                                      t
                                                         t
                                                                  t
                  ( 4)输出预测值
                                                  y= σ (z) = σ (w·h+ b)                                 (6)
                                                   t    t       y  t  y
              式中:x、s和 a分别为当前时段输入层输入、共享门和信息状态;C 和 C分别为前一时段和当前时
                     t   t   t                                               t - 1  t
              段的单元状态;h 和 h分别为前一时段和当前时段隐藏层输出;y为当前时段输出层的输出,也是当
                              t - 1
                                    t
                                                                           t
              前时段的预测值;net和 z为中间变量,没有具体含义;[w,w,b]和[w,b]分别为隐藏层和输出
                                     t
                                                                                  y
                                                                                      y
                                                                    h
                                                                        x
                                 t
              层权重变量,也是整个神经网络模型需要训练的变量;符号·和符号分别表示矩阵乘法和矩阵元素
              间乘法。函数 σ (·)和 tanh(·)分别是 sigmoid和 tanh激活函数。
                  为提升神经网络类模型性能并避免产生过拟合现象,在模型训练过程中增加小批量梯度下降、正
              则化、衰减学习率和 dropout等机制。
              2.1.2 高斯过程回归 一系列服从高斯分布的连续随机变量构成了高斯过程。在离散情况下,基于已
              知样本信息推求未知样本的高斯分布参数即为高斯过程回归,示意图如图 2所示。











                                                    图 2 高斯过程回归示意

                  采用贝叶斯推理可得验证集预测值 y的后验条件分布为:
                                                                  2
                                                      yY~N( 珋     )                                     (7)
                                                             y,σ y
                                                        y     - 1                                      (8)
                                                        珋 = K K Y
                                                      2         - 1  T
                                                    σ y = K - K K K                                    (9)
                                                              
                                                          
                                                   T
              式中:Y为观测值;K(X,x) =K(x,X) 为训练集特征输入 X和验证集特征输入 x之间的协方差矩
                                    T
              阵,分别简写为 K 和 K ;K(x,x)为验证集输入内部协方差矩阵,简写为 K ; 珋 验证集预测均
                                                                                          y为
                                                                                     
                    2
              值;σ y  为高斯分布方差。
                  高斯过程回归获取的点预测结果为 珋                                                   y       ,y         ];
                                                  y;对应 95%置信度的区间预测结果为[ 珋 - 1 .96 σ y 珋 + 1 .96 σ y
              验证集中第 i个样本预测值的概率密度函数(ProbabilityDensityFunction,PDF)为:
                                                                      y)
                                                               (
                                                        1         (y - 珋  2
                                                                    i
                                                                       i
                                               p(y) =       exp-      2 )                              (10)
                                                  i
                                                     槡 2 πσ y,i    2 σ y,i
              2.1.3 SWLSTM- GPR混合模型 其思路是:首先在训练集上完整地训练 SWLSTM 模型;然后将训练
              集和验证集输入到训练好的 SWLSTM模型中,完成第一次预测;最后将第一次预测结果与观测值重组
              成新训练集和验证集,调用 GPR模型完成第二次预测。
                  SWLSTM- GPR完整步骤如下:
                                                                            ta
                                         ta
                                     ta
                                                 ta
                                                                    ta
                                                               ta
                  步骤 1:特征输入[x,x,…,x ]和观测值[Y ,Y ,…,Y ]构成第一次训练集,用于训练
                                     1   2       Ta            1    2       Ta
                                                                                                —  9 5 1 —
   59   60   61   62   63   64   65   66   67   68   69