登录
首页 » Others » SPH光滑粒子流体动力学中英文都有

SPH光滑粒子流体动力学中英文都有

于 2021-11-18 发布
0 231
下载积分: 1 下载次数: 4

代码说明:

SPH光滑粒子流体动力学中英文都有,中文版本以及英文版的都有,拿去参考吧。光滑粒子流体动力学-一种无网格粒子法 第1章 绪论 1.1 数值模拟 1.1.1 数值模拟的作用 1.1.2 一般数值模拟的求解过程 1.2 基于网格的方法 1.2.1 拉格朗日网格 1.2.2 欧拉网格 1.2.3 拉格朗日网格和欧拉网格的结合 1.2.4 基于网格的数值方法的局限性 1.3 无网格法 1.4 无网格粒子法(MPMS) 1.5 MPMs的求解策略 1.5.1 粒子描述法 1.5.2 粒子近似 1.5.3 MPMS的求解过程 1.6 光滑粒子流体动力学(SPH) 1.6.1 SPH方法 1.6.2 SPH方法简史 1.6.3 本书中的SPH方法 第2章 SPH的概念和基本方程 2.1 SPH的基本思想 2.2 SPH的基本方程 2.2.1 函数的积分表示法 2.2.2 函数的导数积分表示法 2.2.3 粒子近似法 2.2.4 推导SPH公式的一些技巧 2.3 其他基本概念 2.3.1 支持域和影响域 2.3.2 物理影响域 2.3.3 particle—in-cell(PIC)方法 2.4 结论 第3章 光滑函数的构造 3.1 引言 3.2 构造光滑函数的条件 3.2.1 场函数的近似 3.2.2 场函数导数的近似 3.2.3 核近似的连续性 3.2.4 粒子近似的连续性 3.3 构造光滑函数 3.3.1 构造多项式光滑函数 3.3.2 一些相关的问题 3.3.3 光滑函数构造举例 3.4 数值测试 3.5 结论 第4章 SPH方法在广义流体动力学问题中的应用 4.1 引言 4.2 拉格朗日型的Navier—Stokes方程 4.2.1 有限控制体与无穷小流体单元 4.2.2 连续性方程 4.2.3 动量方程 4.2.4 能量方程 4.2.5 Navier-Stokes方程 4.3 用SPH公式解Navier-Stokes方程组 4.3.1 密度的粒子近似法 4.3.2 动量方程的粒子近似法 4.3.3 能量方程的粒子近似法 4.4 流体动力学的SPH数值相关计算 4.4.1 人工粘度 4.4.2 人工热量 4.4.3 物理粘度 4.4.4 可变光滑长度 4.4.5 粒子间相互作用的对称化 4.4.6 零能模式 4.4.7 人工压缩率 4.4.8 边界处理 4.4.9 时间积分 4.5 粒子的相互作用 4.5.1 最近相邻粒子搜索法(NNPS) 4.5.2 粒子对的相互作用 4.6 数值算例 4.6.1 在不可压缩流的应用 4.6.2 在自由表面流的应用 4.6.3 SPH对可压缩流的应用 4.7结论 第5章 非连续的SPH(DSPH) 5.1 引言 5.2修正光滑粒子法 5.2.1一维情况 5.2.2 多维情况 5.3 模拟非连续现象的DSPH公式 5.3.1 DSPH公式 5.3.2 非连续的确定 5.4 数值性能研究 5.5 冲击波的模拟 5.6 结论 第6章 SPH在爆炸模拟中的应用 6.1 引言 6.2 HE爆炸和控制方程 6.2.1 爆炸过程 6.2.2 HE的稳态爆轰 6.2.3 控制方程 6.3 SPH公式 6.4 光滑长度 6.4.1 粒子的初始分布 6.4.2 光滑长度的更新 6.4.3 优化和松弛过程 6.5 数值算例 6.6 应用SPH方法模拟锥孔炸药 6.7 结论 第7章 SPH在水下爆炸冲击模拟中的应用 7.1 引言 7.2 水下爆炸和控制方程 7.2.1 水下爆炸冲击的物理特性 7.2.2 控制方程 7.3 SPH公式 7.4 交界面处理 7.5 数值算例 7.6 真实爆炸模型与人工爆炸模型的比较研究 7.7 水介质缓冲模拟 7.7.1 背景 7.7.2 模拟设置 7.7.3 模拟结果 7.7.4 小结 7.8 结论 第8章 SPH方法在具有材料强度的动力学中的应用 8.1 引言 8.2 具有材料强度的动力学 8.2.1 控制方程 8.2.2 本构模型 8.2.3 状态方程 8.2.4 温度 8.2.5 声速 8.3 具有材料强度的动力学SPH公式 8.4 张力不稳定问题 8.5 自适应光滑粒子流体动力学(ASPH) 8.5.1 为什么需要ASPH方法 8.5.2 ASPH的主要思想 8.6 对具有材料强度的动力学的应用 8.7 结论 第9章 与分子动力学耦合的多尺度模拟 9.1 引言 9.2 分子动力学 9.2.1 分子动力学的基本原理 9.2.2 经典分子动力学 9.2.3 经典MD模拟 9.2.4 Poiseuille流的MD模拟 9.3 MD与FEM和FDM的耦合 9.4 MD与SPH的耦合 9.4.1 模型I:双重功能(具有重叠区域的模型) 9.4.2 模型Ⅱ:力桥(没有重叠区域的模型) 9.4.3

下载说明:请别用迅雷下载,失败请重下,重下不扣分!

发表评论


0 个回复

  • Table of Integrals, Series, and Products Eighth Edition.pdf(共1156页)
    数学积分和级数公式,包含基本函数和特殊函数的不定积分、定积分以及级数
    2020-02-25下载
    积分:1
  • 最新迁移学习综述论文(A Comprehensive Survey on Transfer Learning)- 中科院.zip
    迁移学习(Transfer Learning)作为近年来的研究热点之一,受到了广泛关注,每年在各大会议上都有大量的相关文章发表。由于其广泛的应用前景,迁移学习已经成为机器学习中一个热门和有前途的领域。这篇新出论文对近几年迁移学习进行了全面综述,对现有的迁移学习研究进行梳理使其系统化,并对迁移学习的机制和策略进行全面的归纳和解读,帮助读者更好地了解当前的研究现状和思路。
    2021-05-06下载
    积分:1
  • 反向传播算法推导—全连接神经网络
    反向传播算法是人工神经网络训练时采用的一种通用方法,在现代深度学习中得到了大 规模的应用。全连接神经网络(多层感知器模型,MLP),卷积神经网络(CNN),循环神 经网络(RNN)中都有它的实现版本。算法从多元复合函数求导的链式法则导出,递推的 计算神经网络每一层参数的梯度值。算法名称中的“误差”是指损失函数对神经网络每一层 临时输出值的梯度。反向传播算法从神经网络的输出层开始,利用递推公式根据后一层的误 差计算本层的误差,通过误差计算本层参数的梯度值,然后将差项传播到前一层(w, x,)+b这个神经元接受的输入信号为向量(),向量()为输入向量的组合权重,为徧置项,是标量。神经儿对输入冋量进行加权求和,并加上偏置项最后经过激活函数变换产生输出为表述简洁,我们把公式写成向量和矩阵形式。对每个神经元,它接受的来自前一层神经元的输入为向量,本节点的权重向量为,偏置项为,该神经元的输出值为先计算输入向量与权重向量的内积,加上偏置项,再送入一个函数进行变换,得到输出这个函数称为激活函数,典型的是函数。为什么需要激活函数以及什么样的函数可以充当激活函数,在之前的公众号文章“理解神经网终的激活函数”中已经进行了介绍。神绎网络一般有多个层。第一层为输入层,对应输入向量,神绎元的数量等于特征向量的维数,这个层不对数据进行处理,只是将输入向量送入下一层中进行计算。中间为隐含层,可能有多个。最后是输出层,神经元的数量等于要分类的类别数,输出层的输岀值被用来做分类预测。下面我们来看一个简单神经网络的例了,如下图所示这个网络有层。第一层是输入层,对应的输入向量为,有个神经元,写成分量形式为(),它不对数据做任何处理,直接原样送入下一层。中间层有个神经元,接受的输入数据为向量,输出向量为,写成分量形式为。第三个层为输出层,接受的输入数据为向量,输出向量为,写成分量形式为()。第一层到第层的权重矩阵为(,第二层到第三层的权重矩阵为()。权重矩阵的每一行为一个权重向量,是层所有神经元到本层某一个神经儿的连接权重,这里的上标表小层数如果激活函数选用函数,则第二层神经元的输出值为+(-(+0)+(1+(0)(-(()第三层神经元的输出值为如果把代入上面二式中,可以将输出向量表示成输出向量的函数。通过调整权重矩阵和偏置项可以实现不同的函数映射,因此神经网终就是一个复合函数需要解决的·个核心问题是·旦神经网络的结构(即神经元层数,每层神经元数量)桷定之后,怎样得到权重矩阵和偏置项。这些参数是通过训练得到的,这是本文推导的核心任务个简单的例子首先以前面的层神经网络为例,推导损失函数对神经网络所有参数梯度的计算方法假设训练样本集中有个样本()。其中为输入向量,为标签向量。现在要确定神经网络的映射函数:什么样的函数能很好的解释这批训练栟本?答案是神经网络的预测输出要尽可能的接近样本的标签值,即在训练集上最小化预测误差,如果使用均方误差,则优化的目标为:∑‖()-其中()和都是向量,求和项内部是向量的范数平方,即各个分量的平方和。上面的误差也称为欧氏距离损失函数,除此之外还可以使用其他损失函数,如交叉熵、对比损失等。优化目标函数的自变量是各层的权重矩阵和梯度向量,一般情况下无法保证目标函数是凸函数,因此这不是一个凸优化问题,有陷入局部极小值和鞍点的风险(对于这些概念和问题之前的公众号文章“理解梯度下降法”,“理解凸优化”中己经做了详细介绍)这是神经网络之前一直被诟病的一个问题。可以使用梯度下降法进行求解,使用梯度下降法需要计算出损失函数对所有权重矩阵、偏置向量的梯度值,接下来的关键是这些梯度值的计算。在这里我们先将问题简化,只考虑对单个样本的损失函数()-‖后面如果不加说明,都使用这种单样木的损失函数。如果计算出了对单个样木损失函数的棁度值,对这些梯度值计算均值即可得到整个目标函数的梯度值。和(要被代入到网络的后一层中,是复合函数的内层变量,我们先考虑外层的和。权重矩阵是一个x的矩阵,它的两个行分别为向量(和是个维的列向量,它的两个元素为()和()。网络的输入是向量,第一层映射之后的输出是向量首先计算损失函数对权重矩阵每个元素的偏导数,将欧氏距离损尖函数展开,有((+))(())6(如果,即对权重矩阵第行的元素求导,上式分了中的后半部分对来说是常数。根据链式法则有S()+()O如果,即对矩阵第二行的元素求导,类似的有:可以统一写成可以发现,第一个下标决定了权重矩阵的第行和偏置向量的第个分量,第二个下标决定了向量的第个分量。这可以看成是一个列向量与一个行向量相乘的结果,写成矩阵形式为上式中乘法⊙为向量对应元素相乘,第二个乘法是矩阵乘法。是个维列向量,+也是一个维列向量,两个向量执行⊙运算的结果还是个维列向量。是一个元素的列向量,其转置为维行向量,前面这个:维列向量与的乘积为的矩阵,这正好与矩阵的尺寸相等。在上面的公式中,权重的偏导数在求和项中由部分组成,分别是网络输出值与真实标签值的误差激活区数的导数+(),本层的输入值。神经网络的输出值、激活函数的导数值本层的输入值都可以在正向传播吋得到,因此可以晑效的计算出来。对所有训练样本的偏导数计算均值,可以得到总的偏导数对偏置项的偏导数为:如果上式分子中的后半部分对来说是常数,有:()⊥()如果类似的有这可以统写成:写成矩阵形式为偏置项的导数由两部分组成,分别是神经网络预测值与真实值之间的误差,激活函数的导数值,与权重矩阵的偏导数相比唯一的区别是少了。接下来计算对和的偏导数,由于是复合函数的内层,情况更为复杂。()是个的短阵,它的个行向量为(),(,(,(。偏置项()是维向量,个分量分别是(),(,(),(。首先计算损失函数对的元素的偏导数:而上式分子中的两部分都有,因此都与有关。为了表述简活,我们令:根据链式法则有:其巾((和和都是标量和()是两个()向量的内积,的每一个分量都是()的函数。接下来计算和这里的一是个向量,衣示的每个分量分别对求导。当时有:后面个分量相对于求导变量(都是常数。类似的当时有:()0)(()和时的结果以此类推。综合起来有:同理有:()十如果令合并得到()()[()-)。()。()写成矩阵形式为()最后计算偏置项的偏导数()类似的我们得到:合并后得到()写成矩阵形式为:(0)至此,我得到了这个简单网络对所有参数的偏导数,接下来我们将这种做法推广到更般的情况。从上面的结果可以看岀一个规律,输出层的权重矩阵和偏置向量梯度计算公式中共用了()-)()对」隐含层也有类似的结果完整的算法现在考虑一般的情况。假设有个训练样本(),其中为输入向量,为标签向量。训练的目标是最小化样木标签值与神经网络预测值之闩的误差,如果使用均方误差,则优化的目标为:其中为神经网络所有参数的集合,包括各层的权重和偏置。这个最优化问题是·个不带约束条件的问题,可以用梯度下降法求解。上面的误差函数定义在整个训练样本集上,梯度下降法每一次迭代利用了所有训练样本,称为批量棁度卜降法。如果样木数量很大,每次迭代都用所有样木进计算成木太高。为了解决这个问题,可以采用单样本梯度下降法,我们将上面的损失函数写成对单个样本的损失函数之和:定义对单个样本()的损失函数为)=-()如果采用单个样本进行迭代,梯度下降法第次迭代时参数的更新公式为:nV如果要用所有样本进行迭代,根据单个样本的损失函数梯度计算总损失梯度即可,即所有样本梯度的均值用梯度下降法求解需要初始化优化变量的值。一般初始化为一个随机数,如用正态分布(a)产生这些随机数,其中G是一个很小的正数到日前为止还有一个关键问题没有解决:日标函数是一个多层的复合函数,因为神经网络中每一层都有权重矩阵和偏置向量,且每一层的输出将会作为下一层的输入。因此,直接计算损失函数对所有权重和偏置的梚度很复杂,需要使用复合函数的求导公式进行递推计算几个重要的结论在进行推导之前,我们首先来看下面几种复合函数的求导。又如下线性映射函数:其中是维向量,是×的矩阵,是维向量。问题:假设有函数,如果把看成常数,看成的函数,如何根据函数对的梯度值Ⅴ计算函数对的梯度值Ⅴ?根据链式法则,由于只和有关,和其他的≠无关,因此有:c∑(对于的所有元素有:写成矩阵形式为:问题:如果将看成常数,将看成的函数,如何根据V计算Ⅴ?由于任意的和所有的都有关系,根据链式法则有写成矩阵形式为这是一个对称的结果,在计算函数映射时用矩阵乘以向量得到,在求梯度时用矩阵的转置乘以的梯度得到的梯度。问题:如果有向量到向量的映射:
    2020-12-09下载
    积分:1
  • STM32控制步进驱动器的
    STM32103C8控制步进驱动器的程序(脉冲+方向),可设置速度、加速度、减速度以及运动步数
    2020-12-01下载
    积分:1
  • 图像文字识别,BP神经网络
    利用BP神经网络算法进行的图像文字识别.能够成功识别英文字母,数字
    2020-11-29下载
    积分:1
  • 同时计算关联维和Kolmogorov熵
    同时计算时间序列的关联维数及Kolmogorov熵
    2020-11-28下载
    积分:1
  • 遗传算法优化支持向量机算法
    遗传算法优化支持向量机算法,从而更好的提高识别率和预测率
    2020-11-28下载
    积分:1
  • capon谱估计 MATLAB
    capon谱估计 MATLAB 程序 通过验证 可以得到功率谱估计的图 比较准确
    2020-12-05下载
    积分:1
  • 点云重建源代码
    基于点云的网格重建源代码,可以执行,利用泊松重建算法
    2021-05-06下载
    积分:1
  • DSP外扩AD7656
    主控芯片为DSP28335,通过XITNF配置及相应的程序实现与AD7656之间的并行通信
    2020-12-08下载
    积分:1
  • 696518资源总数
  • 104582会员总数
  • 48今日下载