课程代码-随堂2.逻辑回归机器学习之_第1页
课程代码-随堂2.逻辑回归机器学习之_第2页
课程代码-随堂2.逻辑回归机器学习之_第3页
课程代码-随堂2.逻辑回归机器学习之_第4页
课程代码-随堂2.逻辑回归机器学习之_第5页
已阅读5页,还剩77页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

, 逻辑回归的基本概念和方个人信用30用户033341逻辑回归是一种用于分类的模型,就相当于最常见问题有如医生治病时的望、闻、问、切,之后判定是否生病或生了什么病,其中的望闻问切就是输入,即特征数据,判断是否生病就相当

z0.5x-

f(z) 1ez11w2x2w3x3w4x4w5x5w6x6f(z)

1ez11w2x2w3x3w4x4w5x5w6x61 f(z)Z1Z

f(z)wW练模型类别1or换一种角度理解逻辑回1y1e(w1x1w2

w1x1w2 w0=0yy

w1

w2w2

w0>0 w1x1w2

w0=0有w0vs无 有w0vs无代码演

x代码演梯度下降xxxx)T wwww)T h(x)

T1e00

,w,

,...,w)12n12n 训练的目的就是找到合适的,使得整体误站在数学的角度上来说,即最小化下式极值分为极大值和极小因此求解最小值的过程就为求解极值的过J(h(xi)y)xi ih(x) 1 1e

J(h(xi)y)xi

i

J

mim

(h(xi)

xi? 表示当前情况下,J随着变化而变化的趋JJJ=0

J随着变大而小,并且越小越陡峭J的变化不在随变化J把误差函数当成一座山梯度就是往前走时陡峭程度的数字化表绝对值越大,此时山越陡梯度>0,往前走是上梯度<0,往前走是下梯度>0梯度<0梯度=0梯度下降法就是一个找寻一座山最低谷的过如果当前往前走是上山,那么就后t1t1

Jm (h(xi)y)xi i鲁棒性调 w1x1w2

w0=00.5x10.4 0.3=05x14 3=0mL1|wimmL2

wiinE(y )2

1e(w1xi1w2xi2w0 E(y )2

1e(w1xi1w2xi2w0

数值优化21301001

2310221301001120001数值优化nnw 2(

1ewT

Tew (1ewTx wt1wtwtAxwt1

wt 1 0 wt1

A wt1 wt

xi2 2 120001111-0-0--1训练方法优梯度下降法的选两种梯度:1SGD2.L-L-BFGS为SGD的优化方法,它的训练速比SGD训练数据选加载所有数据,都参与支持正态分 exp(1(x)T1(xf(x 1,)公P(x|y)P(x,P(对于二分类问题来P(C|x)P(C1,x)P(C1)P(x|C P(x) P(x) P(C|x)P(C2,x)P(C2)P(x|C P(x) P(x) 样本属于C1P(C|x)P(C1)P(x|C)

P(C1)P(x|C1 P(x|C1

P(x,11

)P(x,C2112P(x|C)P(C2)P(x|C12

1P(C2)P(x|C2

P(C1

)P(x|P(x|C2

=exp([(T1T1)x(T1T1P(x|

P(C1|x)

exp([(T1T1)x

1(T1T1

如 P(C1)P(C2x P(C|

0 1exp((wTxw0(w,...,w

(T

T1

1(T1T1 千辛万苦学习出来的参数到底是什(w,...,w

(T

1

1 w1(T1T1

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论