【机器学习与线性代数之间的关系探析综述1200字】_第1页
【机器学习与线性代数之间的关系探析综述1200字】_第2页
【机器学习与线性代数之间的关系探析综述1200字】_第3页
全文预览已结束

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

机器学习与线性代数之间的关系分析综述目录TOC\o"1-2"\h\u3823机器学习与线性代数之间的关系分析综述 18851线性代数的基本概念 1216682.1预测输出与实际结果的差异——损失函数 1317512.2双变量分析——协方差 2326382.3主成分分析——特征向量 2268562.4奇异值分解 2284613总结 31线性代数的基本概念线性代数是代数学的一个分支,主要处理线性关系问题。线性关系表示数学对象之间的关系是以一次形式来表达的。例如,在解析几何里,平面上直线的方程是二元一次方程;空间平面的方程是三元一次方程,而空间直线视为两个平面相交,由两个三元一次方程所组成的方程组来表示。含有个未知量的一次方程称为线性方程。关于变量是一次的函数称为线性函数。线性关系问题简称线性问题。解线性方程组的问题是最简单的线性问题。2机器学习中的线性代数基础2.1预测输出与实际结果的差异——损失函数范数包括向量范数和矩阵范数,向量范数表征向量空间中向量的大小,矩阵范数表征矩阵引起变化的大小。一种非严密的解释就是,对应向量范数,向量空间中的向量都是有大小的,这个大小如何度量,就是用范数来度量的,L1范数也称曼哈顿距离、最小绝对误差等,它的定义如下:表示向量中非零元素的绝对值之和。使用L1范数可以度量两个向量间的差异,如绝对误差和:L2范数也称欧几里德距离,它的定义如下:表示向量距离原点的最短距离。L2也可以度量两个向量间的差异,如平方差和:假设预测值存储在向量P中,并且真实值存储在向量E中。P-E是它们之间的差异。P-E的范数就是预测的总损失。2.2双变量分析——协方差双变量分析是数据探索中的重要一步。我们想研究变量对之间的关系。协方差或相关性是用于研究两个连续变量之间关系的度量。协方差表示变量之间线性关系的方向。正协方差表示一个变量的增加或减少在另一个变量中同样增加或减少。负协方差表明一个变量的增加或减少同时另一个变量与它相反。使用线性代数中转置和矩阵乘法的概念,协方差矩阵可表达为:其中是包含所有数字特征的标准化数据矩阵。2.3主成分分析——特征向量主成分分析(PCA)是一种无监督降维技术。PCA会找到最大方差的方向并沿着它们的投影以减小维度。这些方向就是数据的协方差矩阵的特征向量。方阵的特征向量是特殊的非零向量,即使在对矩阵应用线性变换(乘法)之后,其方向也不会改变。设A是阶矩阵,如果数和维非零向量使关系式成立。那么,这样的数称为矩阵A的特征值,非零向量称为A的对应于特征值的特征向量,2.4奇异值分解设的特征值为则称为的奇异值:为零矩阵时,它的奇异值都是0.酉矩阵就是正交矩阵,也就是说都有这个性质:设则存在阶酉矩阵和阶酉矩阵,使得其中而为矩阵的全部非零奇异值。3总结机器学习和深度学习是建立在数学概念之上的,掌握理解数学知识对于算法构建和数据处理有极大帮助。线性代数的研究包括向量及其操作。在机器学习中,各处可见线性代数的背影,如线性回归,独热编码,主成分分析PCA,推荐系统中的矩阵分解。机器学习中,很多情况下需要向量化处理,为此,掌握线性代数的知识至关重要。对于机器学习中典

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论