2023学年完整公开课版多项式回归_第1页
2023学年完整公开课版多项式回归_第2页
2023学年完整公开课版多项式回归_第3页
2023学年完整公开课版多项式回归_第4页
2023学年完整公开课版多项式回归_第5页
已阅读5页,还剩2页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

主讲:某某某简介考虑下面的数据,虽然我们可以使用线性回归来拟合这些数据,但是这些数据更像是一条二次曲线,相应的方程是y=ax2+bx+c,这是式子虽然可以理解为二次方程,但是我们呢可以从另外一个角度来理解这个式子:如果将x2理解为一个特征,将x理解为另外一个特征,换句话说,本来我们的样本只有一个特征x,现在我们把他看成有两个特征的一个数据集。多了一个特征x2,那么从这个角度来看,这个式子依旧是一个线性回归的式子,但是从x的角度来看,他就是一个二次的方程编程实现-模拟数据集importnumpyasnpimportmatplotlib.pyplotasplt

x=np.random.uniform(-3,3,size=100)X=x.reshape(-1,1)#一元二次方程y=0.5*x**2+x+2+np.random.normal(0,1,size=100)

plt.scatter(x,y)编程实现-线性回归拟合fromsklearn.linear_modelimportLinearRegression

lin_reg=LinearRegression()lin_reg.fit(X,y)y_predict=lin_reg.predict(X)

plt.scatter(x,y)很明显,我们用一跟直线来拟合一根有弧度的曲线,效果是不好的。编程实现-添加特征原来所有的数据都在X中,现在对X中每一个数据都进行平方,再将得到的数据集与原数据集进行拼接,再用新的数据集进行线性回归。X2=np.hstack([X,X**2])lin_reg2=LinearRegression()lin_reg2.fit(X2,y)y_predict2=lin_reg2.predict(X2)

plt.scatter(x,y)#由于x是乱的,所以应该进行排序plt.plot(np.sort(x),y_predict2[np.argsort(x)],color='r')总结多线性回归在机器学习算法上并没有新的地方,完全是使用线性回归的思路。

它的关键在于为原来的样本,添加新的特征。而我

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论