




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
第六节
不同优化器对比神经网络的学习目的是找到使损失函数的值尽可能小的参数,这是寻找最优参数的问题,解决这个问题的过程称为最优化。优化器是用来更新和计算模型参数以最小化损失函数的工具。有许多不同的优化器,包括最基本的梯度下降(SGD)、带动量的梯度下降、RMSProp、Adam等。参数的更新第六节
不同优化器对比有一个性情古怪的探险家。他在广袤的干旱地带旅行,坚持寻找幽深的山谷。他的目标是要到达最深的谷底(他称之为“至深之地”)。并且,他给自己制定了两个严格的“规定”:一个是不看地图;另一个是把眼睛蒙上。因此,他并不知道最深的谷底在这个广袤的大地的何处,而且什么也看不见。在这么严苛的条件下,这位探险家如何前往“至深之地”呢?他要如何迈步,才能迅速找到“至深之地”呢?探险家的故事第六节
不同优化器对比探险家虽然看不到周围的情况,但是能够知道当前所在位置的坡度(通过脚底感受地面的倾斜情况)。于是,朝着当前所在位置的坡度最大的方向前进,就是SGD的策略。勇敢的探险家心里可能想着只要重复这一策略,总有一天可以到达“至深之地”。探险家的故事第六节
不同优化器对比SGD(StochasticGradientDescent):最基本的梯度下降方法,每次更新都使用一部分样本(一个或多个)来计算梯度。SGD第六节
不同优化器对比每一轮迭代使用的训练数据一般是小批量的,没有使用全部的训练数据,因此更新方向会发生锯齿状甚至随机震荡状;某些梯度分量的值比另外一些分量的值要大的多,导致个别分量主导了梯度的更新方向,而期望的梯度更新方向却行进的非常缓慢。SGD的缺点第六节
不同优化器对比Momentum:一种带动量的梯度下降方法,它在更新参数时不仅考虑当前的梯度,还考虑上一次的梯度方向,这样可以加速收敛,并有可能跳过局部最小值。将一段时间内的梯度向量进行了加权平均,一定程度上消除了更新过程中的不确定性因素(如摆动现象),使得梯度更新朝着一个越来越明确的方向前进。Momentum第六节
不同优化器对比RMSProp:一种自适应学习率的方法,它通过调整每个参数的学习率来加速训练。RMSProp第六节
不同优化器对比Adam(AdaptiveMomentEstimation):结合了Momentum和RMSProp的思想,既考虑了过去的梯度的指数衰减平均值,也考虑了过去的平方梯度的指数衰减平均值。Adam以下是一个简单的使用SGD的例子:importtorch.optimasoptimmodel=...
#createyourmodel#createyouroptimizeroptimizer=optim.SGD(model.parameters(),lr=0.01)#inyourtrainingloop:optimizer.zero_grad()#zerothegradientbuffersoutput=model(input)loss=criterion(output,target)loss.backward()optimizer.step()#Doestheupdate#createyouroptimizeroptimizer=optim.Adam(model.parameters(),lr=0.01)第六节
不同优化器对比以下是一个简单的使用SGD的例子:importtorch.optimasoptimmodel=...
#createyourmodel#createyouroptimizeroptimizer=optim.SGD(model.parameters(),lr=0.01)#inyourtrainingloop:optimizer.zero_grad()#zerothegradientbuffersoutput=model(input)loss=criterion(output,target)loss.backward()optimizer.step()#Doestheupdate#createyouroptimizeroptimizer=optim.Adam(model.parameters(),lr=0.01)第六节
不同优化器对比以下是一个简单的使用SGD的例子:importtorch.optimasoptimmodel=...
#createyourmodel#createyouroptimizeroptimizer=optim.SGD(model.parameters(),lr=0.01)#inyourtrainingloop:optimizer.zero_grad()#zerothegradientbuffersoutput=model(input)loss=criterion(output,target)loss.backward()optimizer.step()#Doestheupdate#createyouroptimizeroptimizer=optim.Adam(model.parameters(),lr=0.01)第六节
不同优化器对比以下是一个简单的使用SGD的例子:importtorch.optimasoptimmodel=...
#createyourmodel#createyouroptimizeroptimizer=optim.SGD(model.parameters(),lr=0.01)#inyourtrainingloop:optimizer.zero_grad()#zerothegradientbuffersoutput=model(input)loss=criterion(output,target)loss.backward()optimizer.step()#Doestheupdate#createyouroptimizeroptimizer=optim.Adam(model.parameters(),lr=0.01)第六节
不同优化器对比以下是一个简单的使用SGD的例子:importtorch.optimasoptimmodel=...
#createyourmodel#createyouroptimizeroptimizer=optim.SGD(model.parameters(),lr=0.01)#inyourtrainingloop:optimizer.zero_grad()#zerothegradientbuffersoutput=model(input)loss=criterio
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 石砌体台阶施工方案
- 管涵桥施工方案
- 2025年度智能家居产品佣金支付及智能家居服务合同
- 二零二五年度事业单位聘用合同:事业单位物业管理人员岗位服务合同
- 二零二五年度文化旅游产业合作终止合同
- 二零二五年度公司股东内部关于战略合作的框架协议
- 2025年度服装厂员工保密与竞业禁止合同
- 2025年度洗浴场所员工激励机制与雇佣协议
- 二零二五年度物联网设备技术顾问服务协议
- 二零二五年度耕作地清理与农业标准化生产合同
- GB/T 2572-2005纤维增强塑料平均线膨胀系数试验方法
- 2023年江苏省中学生生物奥林匹克竞赛试题及答案
- 领导干部应对新媒体时代
- 维修质量检验制度
- 食管支架植入术后护理课件
- 品质控制计划(QC工程图)
- 海外派遣人员管理办法
- 混凝土灌注桩质量平行检查记录(钢筋笼)
- 汽车营销学(全套课件)
- 现浇墩台身轴线偏位、全高竖直度检测记录表
- 激光共聚焦显微镜校准规范编制说明
评论
0/150
提交评论