Page 32 - 2023年第54卷第6期
P. 32

输入- 输出情况,来预测水文变量的变化。其中代表性的有人工神经网络模型、深度学习模型等。而
              深度学习模型也称为新一代的人工神经网络模型,虽然还处于刚起步的阶段,但也成为国内外学者的
              研究热点。AbouRjeily等       [36] 将 NARX神经网络应用于检查井水深的快速计算,在里尔大学风暴事件
              的模拟中证实了模型具有良好的计算精度和效率。Kratzert等                        [37] 使用长短期记忆神经网络(LSTM)构建
              降雨- 径流模型,通过与 SAC - SMA和 Snow - 17模型的案例计算结果对比证明了 LSTM模型在水文建模
              中的潜力。Kao等        [38] 将 SAE和 RNN模型相互结合,提出的 SAE - RNN模型在台湾宜兰县洪水淹没预
              报中具有很高的模拟精度,可以有效地提取区域洪水特征。数据驱动模型计算效率很高,计算结果精
              度也能得到保证,但仍旧存在着参数选取困难、模型物理意义模糊等方面的不足。因此,可解释的数
              据驱动模型研究是未来的一个重要研究方向。Ding等                        [39] 提出一种基于注意机制的洪水预报 LSTM模型
              (STA - LSTM),并通过分析模型时空注意权重的变化,从水文角度进行了初步的物理解释。


              4 洪涝模型并行计算研究


              4.1 并行计算简述 高分辨率的地形给城市洪涝模型高效模拟带来了巨大挑战,尤其是全水动力城市
              洪涝模型,数值计算效率极大地限制了高地形分辨率城市洪涝模型的推广和应用。与此同时,随着研
              究规模与研究精细度要求的不断提高,城市排水管网和二维地表浅水流动计算效率问题日益显著,逐
              渐成为城市洪涝问题研究亟需突破的技术难题。为提高洪涝灾害发生过程中的应急处理水平和快速响
              应决策能力,如何在计算单元众多、高时空分辨率模拟的情况下,针对城市复杂地形特点,提高模型
              计算效率以满足精细化模拟和灾害防控需求,成为城市洪涝数值模拟研究中的关键问题。
                  伴随高性能计算技术的不断发展,计算效率问题得到极大地缓解,城市洪涝快速预警预报技术已
              逐渐成为可能。21世纪之前,人们通过编译优化、缓存架构创新、提高中央处理器(CPU)的时钟频率
              等方式提升了微处理器 计 算 性 能            [40] ,推 动 了 高 性 能 计 算 的 发 展。但 受 能 耗 墙 的 限 制,简 单 地 增 加
              CPU的主频来获得性能提升等方式走到了尽头。进入 21世纪以来,人们通过增加 CPU核心数目,将
              传统单核处理器发展为多核处理器的方式,继续提高计算性能。与此同时,大中型服务器等高性能计
              算集群也得到发展,通过多个计算节点,充分发挥多个 CPU的计算能力,提高计算效率。计算机技术
              的发展促进了 CPU多线程并行计算和多 CPU高性能计算机集群在洪涝模型中的应用,其中代表性的
              有基于 OpenMP和 MPI的并行计算模式研究。例如 SWMM模型利用 OpenMP并行机制可实现最高 15
              倍的加速     [18] 。较早的洪水模型 LISFLOOD - FP采用了 OpenMP和 MPI的并行机制以加速洪水淹没计
              算。基于 CPU的并行计算模式提高了洪涝数值模拟的计算效率,然而该计算模式受到硬件成本的严重
              制约,多线程和多进程并行也会导致通信问题,限制了 CPU加速技术的应用与发展。同时, “计算机
              性能每 18个月翻一倍” 的摩尔定律逐渐失效,计算机性能提高急需通过不同的方式推进。
                  随着对计算能力的需求越来越大,人们开始另辟蹊径,着眼于计算模式的创新,一种结合通用处
              理器和协处理器的异构并行计算模式被提出。异构并行计算具有高性能、低能耗和低成本的优点,一
              经提出就备受广大研究人员的关注。异构并行计算是指按照一定的方式将中央处理器、图像处理器
              (GPU)和可编程门阵列(FPGA)等计算器件组合成异构计算系统。由于不同计算器件擅长处理领域不
              同,通过异构并行计算模式可以发挥不同计算器件的优势,在保证功耗的条件下,最大程度地提升计
              算性能。而伴随着个人计算机和 GPU硬件的不断发展,CPU - GPU异构并行计算模式成为目前最受欢
              迎的异构并行模式之一,是提高数值模拟效率的有效手段。
                  GPU最初被设计用来进行图像渲染工作,但随着技术的发展,利用 GPU辅助 CPU完成计算任务
              变得越来越普遍。GPU和 CPU类似,都是主要由控制单元、运算单元以及存储单元构成。但不同的
              是 GPU运算单元占据了绝大部分,控制单元和存储单元很少,而 CPU相反。相较于 CPU,GPU拥有
              更强的浮点运算能力和更大的显存带宽,非常适合执行逻辑简单的计算密集型任务,但不适合复杂的
              逻辑运算。CPU - GPU异构并行计算模式是利用 CPU强大的逻辑运算能力和 GPU计算密集型数据的优
              势,共同完成计算任务。该计算模式自 2007年 GPU通用计算(GPGPU)概念提出后,得到了迅速的发

                     0
                —  6 6  —
   27   28   29   30   31   32   33   34   35   36   37