【构建卷积神经网络求解薛定谔方程综述2400字】_第1页
【构建卷积神经网络求解薛定谔方程综述2400字】_第2页
【构建卷积神经网络求解薛定谔方程综述2400字】_第3页
【构建卷积神经网络求解薛定谔方程综述2400字】_第4页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

构建卷积神经网络求解薛定谔方程综述目录TOC\o"1-2"\h\u13386构建卷积神经网络求解薛定谔方程综述 18811(一)机器学习求解二维谐振子势 111888(二)机器学习求解二维库伦势 28023(三)尝试氢原子解的检验 31324然后我们进行分离变量 3958所以我们应用下列矩阵表示二阶微分算子 3(一)机器学习求解二维谐振子势 在可以用矩阵对角化方法求解二维谐振子势后,我们可以对若干随机取参数的二维谐振子势求解来获得若干组势场及其对应能量的数据(这一过程的代码见附录B)。在保障训练数据获取之后,我们就可以开始构建卷积神经网络。 我们将使用一系列由简化卷积层和非简化卷积层(是否简化取决于卷积核之间的步长)组成的重复“模块”,这个神经网络由简化-非简化-非简化的重复模块组成,最后这些层反馈给两个全连接层[6]。这里我们给出一些参数:对于简化卷积层,我们采用的卷积核大小为3×3,设置步长为2;对于非简化卷积层,我们采用的卷积核大小为4×4,设置步长为1。这两种卷积层都采用线性整流函数(ReLU)作为激励函数。最后一个卷积层会反馈到一个关联线性整流函数的宽度为1024的全连接层,这一全连接层再反馈到最终的一个全连接层,给出一个单一输出结果,这一输出结果正是卷积神经网络的输出值,将被用来计算真实解和预测解之间的均方误差,以此来表示卷积神经网络的损耗。 这样我们就构建出了我们所需的卷积神经网络,然后我们输入一组L=64的包含有50000个数据点的数据集,其中40000组数据用以训练,余下10000组用来测试结果的准确性。对于训练数据,采用学习效率为0.00001时,当我们对所有训练实例遍历1000次后,发现损耗不再显著降低,为节省运算时间,因此设置对训练数据遍历1000次。神经网络对训练集数据训练完成之后,对测试集数据进行分批迭代(分批迭代是考虑到GPU内存可能不足),然后计算真实解和预测解的绝对中位差,可以得出下图结果(以上过程代码见附录C):图4对二维谐振子势数据训练后预测解和真实解对比及其绝对中位差 从上图可以看出,预测解和真实解是比较符合的,为了更直观地反映预测解和真实解之间的误差,我们抽取部分结果列表进行比对,如下表所示。ωω真实解预测解误差0.2842890.2602070.272130.270980.423%0.0679640.2958080.181820.181510.170%0.2972100.4616330.379190.378630.148%0.1284920.0911070.109780.110240.419%0.2292420.2538310.241450.240950.207%0.3820700.4230510.402310.403790.368%0.2729080.0751510.173970.173640.190%0.1368240.0288080.082810.082620.229表2机器学习后二维谐振子势的真实解和预测解的误差(二)机器学习求解二维库伦势对于二维库伦势Vx,y在生成数据集时只要将原本的二维谐振子势修改为上式即可,而之前构建的卷积神经网络对改为二维库伦势的数据集仍是适用的,这里就体现出这种方法有极强的适应性。但值得注意的是,库伦势有区别于谐振子势的地方,那就是库伦势的形式是存在一阶奇点的,因此为避免报错我们必须排除掉这个点,然后再生成数据集(此过程代码见附录D)。 在生成二维库伦势的数据集后,卷积神经网络采用同样的参数对40000组数据先进行训练,再对10000组数据进行预测,同样我们也绘制出真实解和预测解的对比图,如下图所示,真实解和预测解也符合得比较好。图5对二维库伦势数据训练后预测解和真实解对比及其绝对中位差 抽取部分结果列表比对,如下表cc真实解预测解误差18.4574311.313320.0120990.0120360.517%23.2045314.274470.0159760.0159500.164%15.7150610.916100.0139600.0139150.323%21.9595919.896630.0137270.0136800.344%11.397329.1133130.0144250.0143850.284%14.3551122.898290.0129130.0128580.425%11.7301219.879510.0126800.0126230.450%21.4678514.646900.0152400.0152070.217%表3机器学习后二维库伦势的真实解和预测解的误差(三)尝试氢原子解的检验 氢原子是量子力学中非常重要的系统,因为它对应的薛定谔方程是可以精确求解的。假如机器学习的方法可以对氢原子实现求解,这便可以作为很好的检验过程。 由于在生成数据集时采用了矩阵对角化方法,这种方法对哈密顿量的表示依赖于对二阶微分算子的矩阵表示,我们之前所采用的有限差分法只能表示一维和二维情况的二阶微分算子,但是氢原子问题是一个三维的问题,因此直接将氢原子问题中的势场写成三维形式求解是存在困难的。 但是我们理论上对氢原子问题的严格求解通常不在直角坐标中进行,因为氢原子问题本身还是一个中心力场问题,选用球坐标会更为方便。假如我们采用球坐标后再进行分离变量,得到径向方程就将问题转化到一维情况,这是否意味着有机会利用机器学习进行求解呢? 首先我们考虑在中心力场中的粒子−ℏ2考虑到中心力场的球对称性,为了方便我们使用球坐标系,∇2∇2=然后我们进行分离变量ψr,θ,φ= 我们可以得到径向方程∂∂rr2∂然后我们做变量代换ρ=rRl径向方程可以写为∂2ρ∂r然后我们考虑氢原子问题,代入势能项Vr−ℏ22μ根据一维情况下的有限差分法,(10)式应变为ui+1+u所以我们应用下列矩阵表示二阶微分算子−2我们对径向坐标均分成N份,每份dr=r−其他两项分别对应−和l上述三项之和即哈密顿量,用矩阵表示出哈密顿量后我们可以很方便地求解(21)式,计算出本征值并将其排序,输出其前三个态的能量,我们得到的结果是E0 但这还只是我们用矩阵对角化方法仅仅针对氢原子问题进行求解,要将这种方法与机器学习联系起来,我们需要在径向方程中加入一个随机参数以便能生成供卷积神经网络训练的数据集,但这里就产生了矛盾,我们得出径向方程的前提是中心力场,而期望在方程中引入参数是与

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论