机器学习-梯度下降法_第1页
机器学习-梯度下降法_第2页
机器学习-梯度下降法_第3页
机器学习-梯度下降法_第4页
机器学习-梯度下降法_第5页
已阅读5页,还剩11页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

梯度下降机器学习方法分类问题回归问题聚类问题其他问题机器学习模型评估线性回归选择线的方法410430450470490510530540570249162536493564成绩周数误差总和=

(y1-(ax1+b))2

+

(y2-(ax2+b))2

+

…+(y9-(ax9+b))2

误差总和=

(y1(ax1+b))2

+

(y2-(ax2+b))2

+

…+(y9-(ax9+b))2

误差总和=

(y1-(ax1+b))2

+

(y2-(ax2+b))2

+

…+

(y9-(ax9+b))2

选误差总和最小的线选择线的方法来自不可思议的数据科学家BhaveshBhatt梯度下降线性模型:使用矩阵来表示就是其中:是所要求取的参数。

数据集标签为

梯度下降数据集标签为

损失函数:展开后得到:

线性模型:梯度下降令

为满秩矩阵或者正定矩阵时,可使用正规方程法,直接求得闭式解。最小二乘法

梯度下降令

为满秩矩阵或者正定矩阵时,可使用正规方程法,直接求得闭式解。最小二乘法其中梯度下降令

为满秩矩阵或者正定矩阵时,可使用正规方程法,直接求得闭式解。最小二乘法但一般

不能满足满秩矩阵或者正定矩阵的条件,此时可使用其中

是学习率梯度下降法梯度下降wijE>0,此时Δwij<0取E<0,此时Δwij>0wij梯度下降如何使得J(w)最小?初始参数wi设置(一般采用随机法)更新直到达到全局最优解,

或者局部最优

或者最大迭代次数其中

是学习率使得J(w)减小梯度下降

1

0

1J(

0,1)梯度下降算法线性回归模型Gradientdescentalgorithm同时更新

和直到收敛最小二乘法vs梯度下降法最小二乘法:全局最优解,因为一步到位,直接求极值,因而步骤简单。线性回归的模型假设,这是最小二乘方法的优越性前提,否则不能推出最小二乘是最佳(即方差最小)的无偏估计。梯度下降法:局部最优解,因为是

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论