当前位置: 剪切机械 >> 剪切机械市场 >> 基于机器学习的流程建模
在过去的几个世纪里,第一原理,如守恒定律,一直是流体建模的主要组成部分。然而,对于高雷诺数,使用流体力学中最著名的模型纳维尔-斯托克斯方程进行尺度解析模拟,超出了我们目前的计算资源。另一种方法是根据这些方程的近似或特定配置的实验室实验进行模拟。然而,仿真和实验对于迭代优化来说是昂贵的,而且仿真对于实时控制来说往往太慢(BruntonNoack)。因此,在获取精确、高效的降阶模型方面,已经投入了大量的精力,这些模型能够以较低的成本捕捉基本的流动机制(RowleyDawson)。机器学习为流体力学中的降维和降阶建模提供了新的途径,它提供了一个简明的框架,补充和扩展了现有的方法。
我们区分出两个互补的方向:降维和降阶建模。降维涉及提取关键特征和主导模式,这些特征和模式可作为简化坐标,在该坐标中流体被紧凑和有效地描述(Taira等人,)。降阶建模将流动的时空演化描述为一个参数化的动态系统,尽管它也可能涉及开发从参数到平均量(如阻力)的统计图。
在确定坐标转换和简化动力学和捕获基本流物理的简化方面已经作出了重大的努力:适当的正交分解(POD)就是一个显著的例子(Lumley)。模型简化,如纳维尔-斯托克斯方程在POD模态的正交基上的伽辽金投影,得益于与控制方程的密切联系;然而,它是侵入性的,需要人类的专业知识来从工作模拟中开发模型。机器学习构成了一个快速增长的模块化算法体的数据驱动系统识别和建模。数据驱动流体建模的独特方面包括控制方程、约束条件和对称性的部分先验知识的可用性。随着仿真能力和实验技术的进步,流体动力学正成为一个数据丰富的领域,因此可以使用大量的机器学习算法。
在这篇综述中,我们将机器学习算法与模型流动区分开来:1)通过提取流动特征的运动学和2)通过采用各种学习架构的动力学。
1.流动特征提取
模式识别和数据挖掘是机器学习的核心优势,许多技术都很容易应用于时空流数据。我们区分线性和非线性降维技术,然后是聚类和分类。我们还考虑了加速测量和计算策略,以及处理实验流场数据的方法。
1.1。降维:线性和非线性嵌入。
流体动力学模拟和建模的一种常见方法是定义从物理坐标到模态基的正交线性变换。POD为基于经验测量的复杂几何提供了这样的正交基础。Sirovich()引入了快照POD,它将计算减少到一个包含奇异值分解的简单数据驱动过程。有趣的是,同年,Sirovich使用POD生成了一个用于人脸分类的低维特征空间,这是许多现代计算机视觉的基础(SirovichKirby)。
POD与主成分分析(PCA)算法密切相关,主成分分析是应用统计学和机器学习的基本算法之一,用来描述高维数据中的相关性。我们回想一下,PCA可以表示为一个两层神经网络,称为自动编码器,以压缩高维数据的紧凑表示,如图5所示。该网络将高维数据嵌入到低维潜空间中,再从潜空间解码回原始高维空间。当网络节点为线性且编码器和解码器被约束为彼此的转置时,自动编码器与标准的POD/PCA分解密切相关((BaldiHornik),也见图6)。然而,神经网络自动编码器的结构是模块化的,通过对节点使用非线性激活单元,可以开发非线性嵌入,从而提供更紧凑的坐标。这一观测结果导致了深度神经网络最早的应用之一的发展,该应用利用壁面压力和剪切来重建湍流通道流中的近壁面速度场(MilanoKoumoutsakos,)。今天在ML社区中有更强大的自动编码器,这个链接值得进一步探索。
在万能逼近定理(Horniketal.)的基础上,指出一个足够大的神经网络可以表示任意复杂的输入-输出函数,深度神经网络被越来越多地用于为复杂流动获得更有效的非线性坐标。然而,深度学习通常意味着大量训练数据的可用性,远远超过网络的参数。得到的模型通常适合插值,但当新的输入数据的概率分布与训练数据不同时,可能不适合外推(见公式(1))。在许多现代机器学习应用,如图像分类,训练数据是如此之大,以至于很自然地可以预期,大多数未来的分类任务将落在训练数据的插值范围内。例如,年的ImageNet数据集(Krizhevskyetal.)包含超过万张标签图像,这引发了当前深度学习的运动(LeCunetal.)。尽管从实验和模拟中获得了大量的数据,但流体力学社区仍然与这种工作模式保持着距离。然而,在未来的几年里,我们可能会管理大型、标记和完整的流体数据库,以促进此类深度学习算法的部署。
现代机器学习应用,如图像分类,训练数据是如此之大,以至于很自然地可以预期,大多数未来的分类任务将落在训练数据的插值内插。例如,年的ImageNet数据集(Krizhevskyetal.)包含超过万张标签图像,这引发了当前深度学习的运动(LeCunetal.)。尽管从实验和模拟中获得了大量的数据,但流体力学社区仍然与这种工作模式保持着距离。然而,在未来的几年里,我们可能会管理大型、标记和完整的流动数据库,以促进此类深度学习算法的部署。
1.2。聚类和分类。
聚类和分类是机器学习的基石。有几十种成熟的算法可供选择,这取决于数据的大小和想要的类别数量。Kaiser等人()成功地使用k-means算法开发了流体混合层的高维相空间的数据驱动离散化。这种低维表示(就少量集群而言)使可处理的马尔可夫转换模型能够用于流体如何随时间从一种状态演变到另一种状态。由于聚类质心存在于数据空间中,因此可以将每个聚类质心与物理流场关联起来,从而提供了额外的可解释性。Amsallem等()利用k-means聚类方法将相空间划分为不同的区域,在区域中构建局部降阶基,提高了对参数变化的稳定性和鲁棒性。
在流体动力学中,分类也被广泛用于区分各种典型行为和动态体系。分类是一种有监督的学习方法,使用有标签的数据来开发一个模型,将新数据分类到几个类别中的一个。最近,Colvert等人()利用神经网络进行局部涡度测量,研究了俯仰翼型后尾流拓扑(如2S,2P+2S,2P+4S)的分类;扩展已经比较了各种类型传感器的性能(Alsalman等人,年)。在Wang和Hemati()中,使用k近邻(KNN)算法检测外来尾迹。类似地,神经网络已与动力系统模型相结合,以检测流量扰动并估计其参数(Hou等人,年)。Nair和Taira()在流体中的相关图形和网络方法已被用于尾流中的群体检测(Meena等人,年)。最后,最早的一个Bright等人()在流体动力学中使用了基于稀疏表示的机器学习分类实例(Wright等人年)。
1.3。稀疏和随机方法。
与机器学习并行的是,稀疏优化和随机线性代数也取得了长足的进步。机器学习和稀疏算法是协同的,因为底层的低维表示有助于稀疏测量(Manohar等人年)和快速随机计算(Halko等人年)。当需要快速决策时,如在控制中,减少训练和执行模型的数据量是很重要的。在这种背景下,高效采集和重构稀疏信号的算法,如压缩感知Donoho(),已经被用于壁面湍流的紧凑表示(Bourguignon等人,)和基于POD的流动重建(Bai等人,)。
数据中的低维结构也通过随机线性代数大大加速了计算(Mahoney;Halko等人,)。如果一个矩阵具有低秩结构,那么存在基于随机抽样的极其高效的矩阵分解算法;这与稀疏性的概念和稀疏向量的高维几何密切相关。其基本思想是,如果一个大矩阵具有低维结构,那么将列或行投影到随机的低维子空间后,该结构很有可能被保留下来,便于后续的高效计算。这些所谓的随机数值方法有潜力转换计算线性代数,提供精确的矩阵分解,而成本是确定性方法的一小部分。例如,随机线性代数可以用来高效地计算奇异值分解,而奇异值分解用于计算PCA(Rokhlinetal.;Halko等人,)。
1.4。超分辨率和流量净化。
许多机器学习专注于成像科学,提供稳健的方法来提高分辨率,并基于统计推断去除噪声和腐败。这些超分辨率和去噪算法有可能提高流体模拟和实验的质量。
超分辨率涉及到从低分辨率测量中推断出高分辨率图像,利用高分辨率训练数据的统计结构。已经开发出了几种超分辨率的方法,例如基于实例库(Freeman等人,年)、库中的稀疏表示(Yang等人,年),以及最近的卷积神经网络(Dong等人,年)。基于粒子图像测速(PIV)的流场实验测量(WillertGharib;Adrian)提供了一个引人注目的应用,在局部流动分辨率和成像域大小之间存在张力。超分辨率可以在更小的域上利用昂贵和高分辨率的数据来提高更大的成像域上的分辨率。大涡模拟(LES)(Germanoetal.;MeneveauKatz)也可能受益于超分辨率,从而推断出计算边界条件所需的低分辨率单元内的高分辨率结构。最近Fukami等人()开发了一种基于CNN的超分辨率算法,并证明了其在湍流重构中的有效性,表明能谱得到了准确的保存。超分辨率的一个缺点是它通常在计算上非常昂贵,这使得它在高分辨率成像可能非常昂贵的应用中非常有用;然而,改进的基于神经网络的方法可能会显著降低成本。我们还注意到,Xie等人()最近使用了GANs来实现超分辨率。
实验PIV和粒子跟踪的处理也是机器学习的首批应用之一。神经网络已被用于快速PIV(Knaaketal.)和粒子跟踪测速(Labonte),并对三维拉格朗日粒子跟踪进行了令人印象深刻的演示(Ouelletteetal.)。最近,深度卷积神经网络已被用于从PIV图像对构建速度场(Leeetal.)。相关的方法也被用于检测PIV数据中的伪向量(Liangetal.),以去除离群值并填充损坏的像素。
2。流动动力学建模
建模的中心目标是平衡效率和准确性。在建模物理系统时,可解释性和通用性也是关键考虑因素。
2.1之上。非线性嵌入的线性模型:DMD和Koopman分析。
许多经典的系统识别技术可以被认为是机器学习,因为它们是数据驱动的模型,超越了训练数据。动态模式分解(DMD)(Schmid;Kutzetal.)是一种现代方法,从流体流动的时间序列数据中提取时空相干结构,从而得到这些主导相干结构演化的低维线性模型。DMD基于数据驱动回归,对时间分辨的实验数据和数值数据同样有效。DMD与Koopman算子密切相关(Rowleyetal.;Mezic),它是一个无限维线性算子,描述了系统的所有测量功能如何随时间演化。因为DMD算法是基于线性流场测量(即DMD)的。例如,直接(测量流体速度或涡度场),所得到的模型可能无法捕捉非线性瞬态。
最近,人们一致致力于识别随时间线性发展的非线性测量,建立一个非线性动力学呈现线性的坐标系统。扩展DMD(Williamsetal.)和构象动力学(VAC)的变分方法(NoeNuske;N¨uske等人,)利用非线性度量,利用核方法(Williams等人,年)和字典学习(Li等人,年)来丰富模型。这些特殊的非线性测量通常难以表示,深度学习架构现在被用于识别动态呈现线性的非线性Koopman坐标系统(WehmeyerNoe;Mardt等人年;Takeishi等人年;Luschetal.)。VAMPnet架构(WehmeyerNoe;Mardt等人,年)在一个令人印象深刻的蛋白质折叠例子中,使用时滞自动编码器和自定义变分来识别Koopman坐标。基于VAMPnet的性能,流体动力学可以受益于邻近的领域,如分子动力学,它们具有类似的建模问题,包括随机性、粗粒度动力学和时间尺度的大规模分离。
2.2。神经网络建模。
在过去的三十年里,神经网络已经被用来模拟动力系统和流体力学问题。早期的例子包括使用神经网络来学习常微分方程和偏微分方程的解(DissanayakePhan-Thien,;Gonzalez-Garcia等人年;Lagaris等,年)。我们注意到,这项工作的潜力尚未得到充分探索,近年来有了进一步的进展(Chenetal.;RaissiKarniadakis),包括时间网络中的离散和连续。我们也注意到使用这些方法来发现的可能性潜在变量和减少参数研究的数量往往与偏微分方程Raissi等人()。神经网络也经常应用于非线性系统识别技术,如常用于流体系统建模的NARMAX(Glazetal.)。在流体力学中,神经网络被广泛用于模拟传热(Jambunathanetal.)、叶轮机械(PierretVandenBraembussche)、湍流(MilanoKoumoutsakos)和航空学中的其他问题(FallerSchreck)。
带有lstm的循环神经网络(HochreiterSchmidhuber,)在语音识别方面具有革命性意义,被认为是人工智能的里程碑式成功之一。目前正用于动力学系统建模和极端事件的数据驱动预测(Wan等人,年;Vlachas等人,)。这些研究中一个有趣的发现是,将数据驱动模型和降阶模型结合起来是一种有效的方法,在许多研究中,这种方法的性能优于它的每个组成部分。生成式对抗网络(GANs)(Goodfellow等人,年)也被用于从数据推断动力学系统(Wu等人,年)。GANs在湍流建模和模拟方面具有潜力(Kimetal.),尽管这一领域尚处于起步阶段,但非常值得探索。
尽管神经网络在动力系统中的前景和广泛应用,仍然存在许多挑战。神经网络基本上是插值的,因此函数只能在用于训练神经网络的采样数据的范围内(或在概率分布下)很好地逼近。因此,当使用神经网络模型进行外推任务时,应该谨慎行事。在许多计算机视觉和语音识别的例子中,训练数据是如此之大,以至于几乎所有未来的任务都可以看作是对训练数据的插值。然而,到目前为止,在流体力学领域还没有达到这种规模的训练。类似地,神经网络模型容易过拟合,必须谨慎地在一个充分选择的测试集上交叉验证模型;Goodfellow等人()讨论了最佳实践。最后,重要的是要明确地包含物理性质,如对称性、约束条件和守恒量。
2.3。简约的非线性模型。
简约是数学物理学中一个反复出现的主题,从哈密尔顿最小作用原理到许多控制方程的明显简单。与神经网络的原始表征能力相比,机器学习算法还被用于识别最小模型,以平衡预测精度和模型复杂性,防止过拟合,并提高可解释性和泛化性。遗传编程已被用于发现守恒定律和控制方程(SchmidtLipson)。候选模型库中的稀疏回归也被提出来识别动力系统(Bruntonetal.)和偏微分方程(Rudyetal.;Schaeffer)。Loiseau和Brunton()确定了几个流动系统的稀疏降阶模型,将节能作为约束条件。在遗传编程和稀疏识别中,Pareto分析被用于识别在模型复杂性、术语数量和预测精度之间具有最佳权衡的模型。在物理已知的情况下,这种方法通常可以发现正确的控制方程,与机器学习中的其他领先算法相比,具有非凡的通用性。
2.4。带有机器学习的闭包模型。
使用机器学习开发湍流闭合是一个活跃的研究领域(Duraisamy等人,年)。湍流中时空尺度的极大范围使得在模拟中解析所有尺度非常昂贵,即使有摩尔定律,我们可能还需要几十年才能解决工业利益配置中的所有尺度问题(例如,飞机涡轮机、潜艇等)。通常截断小尺度,用闭合模型来模拟它们对大尺度的影响。常用的方法有雷诺平均Navier-Stokes(RANS)和大涡模拟(LES)。然而,这些模型可能需要仔细调整以匹配完全解决的模拟或实验。
图7:用于识别伽利略不变雷诺应力模型的标准神经网络结构(A)和改进的神经网络(B)的比较,转载自Ling等人。(b),获得《流体力学杂志》的许可。符号:λ1、···、λ5:五个张量不变量T(N):各向同性基张量g(N):加权基张量的标量系数b:各向异性张量
机器学习已被用于识别和模拟RANS模型和高保真模拟之间的雷诺应力张量差异(LingTempleton,;ParishDuraisamy;Lingetal.b;Xiaoetal.;辛格等人年;Wangetal.)。Ling和Templeton()比较了支持向量机、Adaboost决策树和随机森林来分类和预测Reynolds应力张量的高不确定性区域。Wangetal.()使用随机森林建立了雷诺应力张量差异的监督模型。Xiao等人()利用贝叶斯框架中的稀疏在线速度测量来推断这些差异。在相关工作中,ParishDuraisamy()开发了现场反演和机器学习建模框架,该框架基于逆建模建立校正模型。Singh等人()后来使用该框架开发了一种对Spalart-AllmarasRANS模型的神经网络增强校正,具有出色的性能。Ling等人(b)的一个关键结果采用了第一个具有许多隐藏层的深层网络结构来建模各向异性雷诺应力张量,如图7所示。他们的新架构包含了一个乘法层,将伽利略不变性嵌入到张量预测中。这提供了一种创新和简单的方法,将已知的物理对称性和不变性嵌入到学习架构中(Lingetal.a),我们相信这将在未来结合物理学习的努力中至关重要。对于大涡模拟闭包,Maulik等人()利用人工神经网络从粗解量预测湍流源项。
2.5。机器学习对动力系统的挑战。
将机器学习应用于物理动力学系统建模提出了许多独特的挑战和机遇。模型的可解释性和通用性是物理学的基本基石。一个精心设计的模型将为以前没有观察到的新现象提供假设。这一原理在牛顿第二定律中经典力学的简洁表述中清楚地表现出来。
高维系统,如在非定常流动力学中遇到的那些,面临着多尺度动力学、对噪声和扰动的敏感性、潜在变量和瞬态的挑战,所有这些都需要在应用机器学习技术时谨慎注意。在动态机器学习中,我们区分两个任务:发现未知物理和结合已知物理改进模型。许多学习架构,不能很容易地将物理约束以对称的形式,边界条件,和全局守恒定律。这是一个持续发展的关键领域,最近的一些工作已经提出了可推广的物理模型(Battaglia等人,年)。
学习问题可以表述为使用有限数量的观察值来估计系统的输入、输出和参数之间的关联的过程(CherkasskyMulier)。我们将样本生成器、问题系统和学习机(LM)区分开来,如图3所示。我们强调,学习机器的近似基本上是随机的,它们的学习过程可以总结为风险函数的最小化:
(1)
其中,数据x(输入)和y(输出)是来自概率分布p的样本,φ(x,y,w)定义了学习机的结构和参数w,损失函数L平衡了各种学习目标(如准确性、简单性、平滑性等)。我们强调,风险函数是由概率分布p(x,y)加权的,它也限制了学习机的预测能力。各种类型的学习算法可以分为三大类:有监督、无监督和半监督,如图1所示。这些区别表示了从专家那里获得的外部监督信息对学习机器可用的程度。
1.监督式学习
监督学习意味着学习机器可以获得正确的信息。在最简单和最常见的形式中,这意味着标记了训练数据,对应于LM的输出。最小化依赖于训练数据的代价函数,将确定LM的未知参数。在在这种背景下,监督学习可以追溯到几个世纪前高斯提出的回归和插值方法(Meijering)。一个常用的损失函数是
(2)
替代损失函数可以反映学习机器上的不同约束,如稀疏性(Hastieetal.;BruntonKutz年)。近似函数的选择反映了对数据的先验知识,在线性和非线性方法之间的选择直接影响到与学习方法相关的计算成本。
1.1。神经网络
神经网络可以说是监督学习中最著名的方法。它们是基本的非线性函数逼近器,近年来,人们致力于理解它们的有效性。万能逼近定理(Horniketal.)指出,任何函数都可以用一个足够大和深的网络逼近。最近的研究表明,稀疏连接的深度神经网络是广泛的函数和系统的信息论最佳非线性逼近器(B¨olcskei等人,)。
神经网络的力量和灵活性来自于它们的模块化结构,这种结构以神经元为核心构建元素,就像人脑中神经元的漫画。每个神经元接收一个输入,通过一个激活函数处理它,并产生一个输出。多个神经元可以组合成不同的结构,反映关于问题和数据类型的知识。前馈网络是最常见的结构之一,它们由多层神经元组成,其中一层的加权输出就是下一层的输入。NN体系结构有一个接收数据的输入层和一个产生预测的输出层。非线性优化方法,如反向传播(Rumelhartetal.),被用来识别网络权值,以最小化预测和标记训练数据之间的误差。深度神经网络涉及多层次、多种类型的非线性激活函数。当激活函数用卷积核表示时,一种功能强大的网络出现了,即卷积神经网络(CNN),在图像和模式识别方面取得了巨大的成功(Krizhevskyetal.;Goodfellow等人,)。
图4所示的循环神经网络(RNN)在流体力学中具有特殊的意义。它们对数据序列(例如,视频中的图像、时间序列等)进行操作,它们的权值通过时间反向传播(BPTT)获得。RNNs在自然语言处理和语音识别方面已经非常成功。他们的体系结构考虑了数据的固有顺序,从而增强了一些先驱性经典神经网络在信号处理中的应用(Rico-Martinezetal.)然而,神经网络的有效性因其训练过程中出现的梯度递减或爆炸而受到阻碍。对rnn的重新
转载请注明:http://www.aideyishus.com/lkjg/3067.html