数据挖掘与应用七1答案_第1页
数据挖掘与应用七1答案_第2页
数据挖掘与应用七1答案_第3页
数据挖掘与应用七1答案_第4页
数据挖掘与应用七1答案_第5页
已阅读5页,还剩52页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、第七讲第七讲 预测性建模的一些基本方法预测性建模的一些基本方法 1 (一)判别分析(一)判别分析 判别分析适用于连续型自变量、名义型因变量的情形。判别分析适用于连续型自变量、名义型因变量的情形。 例如,它可用于将贷款、信用卡、保险等申请划分为不同例如,它可用于将贷款、信用卡、保险等申请划分为不同的风险类别。的风险类别。 2 (一)判别分析(一)判别分析 判别分析使用贝叶斯定理对观测进行分类。判别分析使用贝叶斯定理对观测进行分类。 设因变量设因变量Y一共有一共有K个类别。对个类别。对l=1,K,令,令表示类别表示类别l的的lK?1。 先验概率,它们满足先验概率,它们满足 ?l?1?1 设对属于类

2、别设对属于类别Y=l的观测,自变量的观测,自变量X=(X1, ,Xp)的概率函数的概率函数或概率密度函数为或概率密度函数为fl(x)。 根据贝叶斯公式根据贝叶斯公式: 对于自变量为对于自变量为x的观测,如果的观测,如果Pr(Y =l*X= x)达到最大达到最大 (等等价于价于 l*fl*(x)达到最大达到最大),那么把该观测归入第,那么把该观测归入第l*类。类。 3 (一)判别分析(一)判别分析 最常用的判别分析方法为线性判别分析和二次判别分析,最常用的判别分析方法为线性判别分析和二次判别分析,它们都假设对每个类别它们都假设对每个类别l(l=1, ,K),观测的自变量满足多元正,观测的自变量满

3、足多元正态分布,即态分布,即fl(x) MVN(l, l),其中,其中l和和l分别是均值向量和分别是均值向量和协方差矩阵。协方差矩阵。 4 1 1、线性判别分析、线性判别分析 线性判别分析线性判别分析: 假设所有类别的协方差矩阵都相等,假设所有类别的协方差矩阵都相等, 即即1= K= ; 可以推出:可以推出: 5 1 1、线性判别分析、线性判别分析 因为因为A的值对所有类别都一样,所以察看的值对所有类别都一样,所以察看lfl(x)等价于察等价于察看看l(X)。 根据贝叶斯定理,应该把自变量为根据贝叶斯定理,应该把自变量为x的观测归入的观测归入l(X)值值最大的类别。最大的类别。 l(X)是是x

4、的线性函数,它被称为线性判别方程。的线性函数,它被称为线性判别方程。 类别类别l和和l的边界由的边界由l(X) = l(X)给出,该边界对给出,该边界对x是线性是线性的。的。 6 2 2、二次判别分析、二次判别分析 二次判别分析二次判别分析: : 不假设各类别的协方差矩阵相等。容易推出,察看不假设各类别的协方差矩阵相等。容易推出,察看l lf fl l(x)(x)等价于察看下列二次判别方程等价于察看下列二次判别方程: : 应该把自变量为应该把自变量为x的观测归入的观测归入l(x)值最大的类别。值最大的类别。 类别类别l和类别和类别l的边界由的边界由l(x) = l(x)给出,该边界是给出,该边

5、界是x的的二次方程。二次方程。 7 3 3、判别分析的参数估计、判别分析的参数估计 在实际应用中,需要使用训练数据集来估计在实际应用中,需要使用训练数据集来估计l l、l l和和l l的值的值: : l l由训练数据集中属于类别由训练数据集中属于类别l的观测的比例来估计的观测的比例来估计; l l由训练数据集中属于类别由训练数据集中属于类别l的观测的样本均值向量来估计。的观测的样本均值向量来估计。 8 3 3、判别分析的参数估计判别分析的参数估计 估计估计l : 线性判别分析线性判别分析: : 由合并样本协方差矩阵来估计由合并样本协方差矩阵来估计; ; 设训练数据集中观测为设训练数据集中观测为

6、x1, , ,xN,其中,其中N为观测数为观测数; ;考虑考虑训练数据集中属于类别训练数据集中属于类别l(l=1,K)的观测,令的观测,令N Nl l表示这些观测表示这些观测xl表示它们的均值向量,表示它们的均值向量,的个数,的个数,C Cl l表示它们的序号的集合,表示它们的序号的集合, 它们的样本协方差矩阵为它们的样本协方差矩阵为: : 合并样本协方差矩阵为:合并样本协方差矩阵为: 二次判别分析二次判别分析:l l由由Sl来估计来估计(l=1, . ,K)。 判别分析判别分析 虽然线性判别分析和二次判别分析都基于很简单的多元正虽然线性判别分析和二次判别分析都基于很简单的多元正态假设,但是因

7、为很多实际数据无法支持过于复杂的模型,所态假设,但是因为很多实际数据无法支持过于复杂的模型,所以这两种方法的实际分类效果经常令人惊奇地好。以这两种方法的实际分类效果经常令人惊奇地好。 10 判别分析示例判别分析示例 假设假设work. wine数据集记录了对意大利某地区出产的数据集记录了对意大利某地区出产的178种种葡萄酒进行化学分析所得的酒精度、苹果酸、灰度、灰分碱度葡萄酒进行化学分析所得的酒精度、苹果酸、灰度、灰分碱度等等13种指标,这些葡萄酒分别酿自三种不同品种的葡萄种指标,这些葡萄酒分别酿自三种不同品种的葡萄(数据来数据来源于源于/ml

8、/datasets/wine)。 11 判别分析示例判别分析示例 数据集中的数据集中的var1var1变量表示各种葡萄酒所使用的葡萄品种,变量表示各种葡萄酒所使用的葡萄品种,使用线性判别分析对这些葡萄酒进行分类的使用线性判别分析对这些葡萄酒进行分类的SASSAS程序如下程序如下: : proc disc rim data=wine; /* 对对wine数据集进行判别分析,缺省地进行线性判别分析,数据集进行判别分析,缺省地进行线性判别分析, 若要进行二次判别分析需加上选项若要进行二次判别分析需加上选项“pool=no” */ class var1; /*指出指出var1为因变量为因变量*/ ru

9、n; 12 判别分析示例判别分析示例 下表列出了线性判别分析对训练数据集的分类结果,分类下表列出了线性判别分析对训练数据集的分类结果,分类完全正确。完全正确。 13 (二)朴素贝叶斯分类算法(二)朴素贝叶斯分类算法 朴素贝叶斯朴素贝叶斯(Naive Bayes)分类算法适用于因变量是名义变分类算法适用于因变量是名义变量而自变量类型没有限制的情形,在文本分类等领域有广泛的量而自变量类型没有限制的情形,在文本分类等领域有广泛的应用。应用。 它同样基于贝叶斯定理对观测进行分类。它同样基于贝叶斯定理对观测进行分类。 14 (二)朴素贝叶斯分类算法(二)朴素贝叶斯分类算法 关键假设关键假设:给定类别给定

10、类别Y的值,的值,Xl, . ,Xp是条件独立的。是条件独立的。 对属于类别对属于类别Y=l的观测,自变量的观测,自变量X=(Xl, . ,Xp)的概率函数的概率函数或概率密度函数或概率密度函数fl(x)可以写成:可以写成: 其中其中fl(xr)是类别是类别l中自变量中自变量Xr的边缘分布。的边缘分布。 要估计要估计fl(x) ,可以对每个自变量独立估计,可以对每个自变量独立估计fl(xr) ,然后将,然后将它们相乘即可。它们相乘即可。 15 (二)朴素贝叶斯分类算法(二)朴素贝叶斯分类算法 若若Xr是可能取值为是可能取值为1, , v的分类变量,那么的分类变量,那么fl(xr= v) v=(

11、1, ,V)可如下估计可如下估计: 使用最大似然估计,即训练数据集属于类别使用最大似然估计,即训练数据集属于类别l的观测中的观测中xir取值为取值为v的比例:的比例: 其中其中#条件条件表示训练数据集中满足条件的观测数。表示训练数据集中满足条件的观测数。 16 (二)朴素贝叶斯分类算法(二)朴素贝叶斯分类算法 如果训练数据集中没有满足条件的观测,相应的最大似然如果训练数据集中没有满足条件的观测,相应的最大似然? (x? 估计估计 flrv)的值为的值为0。 在这种情形下,对于任何一个新的观测,只要自变量在这种情形下,对于任何一个新的观测,只要自变量Xr取取?(x)f值为值为v而不论其它变量取值

12、如何,相应的而不论其它变量取值如何,相应的 的值就为的值就为0,根据,根据l贝叶斯公式估计的贝叶斯公式估计的Pr(Y =l*X = x)的值就为的值就为0,该观测就不可,该观测就不可能被归为第能被归为第l类。类。 为了避免这种武断的情况,假想在每个类别内另有为了避免这种武断的情况,假想在每个类别内另有Vn0个训个训练观测,练观测,Xr的每种可能取值都分配的每种可能取值都分配n0个假想观测。可以得到一个假想观测。可以得到一种更加种更加“平滑平滑”的估计的估计: 17 (二)朴素贝叶斯分类算法(二)朴素贝叶斯分类算法 若若Xr是连续变量,可以假设对于类别是连续变量,可以假设对于类别Y=l而言,而言

13、,Xr满足均值满足均值为为lr、方差为、方差为lr2的正态分布。的正态分布。 只要训练数据集中每个类别的观测数至少为两个,只要训练数据集中每个类别的观测数至少为两个,lr和和lr2就可如下估计就可如下估计: 18 (三)(三) k近邻法近邻法 k近邻法适用于自变量和因变量的类型没有特殊限制的情形。近邻法适用于自变量和因变量的类型没有特殊限制的情形。它的具体步骤如下它的具体步骤如下: 定义距离定义距离d(x, x)度量自变量分别为度量自变量分别为x和和x的两个观测之间的的两个观测之间的距离距离; 若要预测自变量为若要预测自变量为x*的观测的因变量的观测的因变量Y的取值,对训练数据的取值,对训练数

14、据集中的所有观测集中的所有观测xi,计算,计算d(x*, xi)的值。选择训练数据集中与的值。选择训练数据集中与x*距离最小的距离最小的k个观测。个观测。 使用这使用这k个观测来预测个观测来预测x*对应的对应的Y的取值的取值: 若若Y为离散变量,预测值为这为离散变量,预测值为这k个观测的因变量中所占比例个观测的因变量中所占比例最大的值。最大的值。 若若Y为连续变量,预测值为这为连续变量,预测值为这k个观测的因变量的均值。个观测的因变量的均值。 19 (三)(三) k近邻法近邻法 选择选择k值值: 根据修正数据集评估不同根据修正数据集评估不同k值对应的模型的性能,选择最优值对应的模型的性能,选择

15、最优的的k值。值。 因为因为k近邻法的模型由训练数据集中的所有观测给出,所以近邻法的模型由训练数据集中的所有观测给出,所以它也被称为基于记忆的推理它也被称为基于记忆的推理(Memory-Based Reasoning)或基于或基于实例的学习实例的学习(Instance-Based Learning )。 20 k近邻法示例近邻法示例 假设假设SAS数据集数据集work.car记录了记录了22种品牌的种品牌的159种车型的种车型的如下表所示的一些信息如下表所示的一些信息(数据来源于数据来源于http:/archive.ics.uci.eda/ ml/datasets/Automobile)。 2

16、1 k近邻法示例近邻法示例 22 k近邻法示例近邻法示例 SAS软件的企业数据挖掘模块软件的企业数据挖掘模块(Enterprise Miner)中,有一中,有一个基于记忆的推理个基于记忆的推理(Memory-Based Reasoning)节点可使用节点可使用k近邻近邻法预测法预测price变量的值。变量的值。 23 k近邻法示例近邻法示例 在数据流图中添加输入数据源节点(在数据流图中添加输入数据源节点(Input Data Source),),在数据部分(在数据部分( Data )将数据集设为)将数据集设为work.car,角色(,角色(Role)设为)设为RAW,在变量部分(在变量部分(V

17、ariables)将)将price的模型角色(的模型角色(Model Role)设为目标(设为目标(Target),将),将16个自变量的模型角色设为输入变量个自变量的模型角色设为输入变量( Input ),关闭输入数据源节点。),关闭输入数据源节点。 在数据流图中添加数据分割(在数据流图中添加数据分割(Data Partion),并使输入),并使输入数据源节点指向该节点。打开数据分割点,在分割部分(数据源节点指向该节点。打开数据分割点,在分割部分(Data Partion)将方法()将方法(Method)设为简单随机抽样()设为简单随机抽样(Simple Random),在比例部分(),在比

18、例部分(Percentages)将训练数据集()将训练数据集(Train)设为设为70%,修正数据集(,修正数据集(Validation)设为)设为30%,测试数据集,测试数据集(Test)设为)设为0,关闭数据分割节点。,关闭数据分割节点。 在数据流图中添加基于记忆的推理节点,并使得数据分割在数据流图中添加基于记忆的推理节点,并使得数据分割节点指向该节点。打开基于记忆的推理节点,使用节点指向该节点。打开基于记忆的推理节点,使用“工具工具”菜单菜单下的下的“设置设置”,可以设定,可以设定K的值,关闭该节点后运行,察看结果。的值,关闭该节点后运行,察看结果。 k近邻法示例近邻法示例 下表列出了不

19、同下表列出了不同k值对应的模型对训练数据集和修正数据值对应的模型对训练数据集和修正数据集的均方根误差。要使修正数据集的均方根误差最小,应该集的均方根误差。要使修正数据集的均方根误差最小,应该选择选择k=2。 25 (四)线性模型(四)线性模型 假设因变量来自正态分布假设因变量来自正态分布: YN( ,2) 与自变量与自变量x=(x1, ,xp)之间的关系为之间的关系为: =(+xT) 其中其中是截距项,是截距项, =(1, , p)是对是对x的系数。的系数。 xr的值增加一个单位而其他自变量的值不变时,的值增加一个单位而其他自变量的值不变时,Y的平均值的平均值增加增加r(可能为负可能为负)。

20、26 (四)线性模型(四)线性模型 设训练数据集为设训练数据集为(xi, yi), i=1, ,N,其中,其中xi被看作是给定的,被看作是给定的,而而yi被看作是相互独立的随机变量被看作是相互独立的随机变量Yi的观测值。的观测值。 系数系数和和由最小二乘法估计,即最小化由最小二乘法估计,即最小化: 这等价于使用最大似然估计。这等价于使用最大似然估计。 参数参数2可由最大似然法估计。可由最大似然法估计。 27 (五)广义线性模型(五)广义线性模型 广义线性模型从两方面对线性模型进行扩展广义线性模型从两方面对线性模型进行扩展: 模型的系统成分模型的系统成分:因变量因变量Y分布的位置参数分布的位置参

21、数和自变量和自变量x的关的关系。系。 令令= g( ),其中,其中g为一对一、连续可导的变换,使得为一对一、连续可导的变换,使得的取的取值范围变成值范围变成(- ,);g(.)被称为连接函数。被称为连接函数。 与与x的关系为的关系为: =(+xT) 28 (五)广义线性模型(五)广义线性模型 模型的随机成分模型的随机成分:Y的分布,通常取指数族分布。的分布,通常取指数族分布。指数族分指数族分布的概率函数或概率密度函数的形式为:布的概率函数或概率密度函数的形式为: 其中其中被称为刻度参数,不是所有指数族分布都有刻度参被称为刻度参数,不是所有指数族分布都有刻度参数,没有刻度参数时等价于数,没有刻度

22、参数时等价于 1。 29 (五)广义线性模型(五)广义线性模型 令令y=(y1, ,yN), 令令 =(1, ,N),其中,其中i为为Yi的分布的位置的分布的位置参数。参数。 在广义线性模型下,所有在广义线性模型下,所有i都通过连接函数与同一组参数都通过连接函数与同一组参数(,)有关。有关。 再考虑对再考虑对i没有任何限制的饱和模型,这时对每个没有任何限制的饱和模型,这时对每个i都独都独s? 表示饱和模型下对表示饱和模型下对的最大似然估计。的最大似然估计。 立估计,令立估计,令 ?30 (五)广义线性模型(五)广义线性模型 令令l( , y)表示关于表示关于和和的对数似然函数,定义比率偏的对数

23、似然函数,定义比率偏差差 (Scaled Deviance): ( y;?)/ ?,其中,其中 可以很容易证明比率偏差的形式为可以很容易证明比率偏差的形式为D D(y;? )与刻度参数与刻度参数无关,被称为偏差。线性模型中最小二乘无关,被称为偏差。线性模型中最小二乘法所最小化的量就是偏差的一个特例。法所最小化的量就是偏差的一个特例。 估计广义线性模型的参数时,通过最小化偏差来估计估计广义线性模型的参数时,通过最小化偏差来估计和和,如果有刻度参数如果有刻度参数 ,再通过最大似然法估计,再通过最大似然法估计 。 31 情形一情形一:因变量为二值变量因变量为二值变量 可采用逻辑回归可采用逻辑回归:

24、: 不失一般性,设因变量不失一般性,设因变量Y的取值为的取值为0或或1。 代表取值为代表取值为1的概率。满足参数为的概率。满足参数为的的伯努力分布,没有伯努力分布,没有刻度参数。刻度参数。 使用逻辑使用逻辑(logit)连接函数,即:连接函数,即: 它表示它表示Y取值为取值为1的概率与的概率与Y取值为取值为0的概率的比的对数。的概率的比的对数。 系数系数r可以如下解释可以如下解释:xr的值增加一个单位而其他自变量的值的值增加一个单位而其他自变量的值不变时,不变时,Y取值为取值为1的概率与的概率与Y取值为取值为0的概率的比是原来的的概率的比是原来的exp( r)倍。倍。 32 情形一情形一:因变

25、量为二值变量因变量为二值变量 ?i)。在广义。在广义对数似然函数为对数似然函数为 ?i?1yi log(?i) ? (1 ?yi )log(1 ? 线性模型下,可得线性模型下,可得ui的表达式的表达式: N饱和模型对饱和模型对ui没有任何限制,这时对没有任何限制,这时对ui的最大似然估计为:的最大似然估计为: 可得可得 l(?0。 ? ;y) ? 比率偏差和偏差都等于:比率偏差和偏差都等于: s33 情形二情形二:因变量为名义变量因变量为名义变量 可采用多项逻辑回归可采用多项逻辑回归: 因变量因变量Y的取值为的取值为1, ,K,各取值之间是无序的。,各取值之间是无序的。 令令(l)表示表示Y取

26、值为取值为l的概率的概率l=(1, ,K),它们满足,它们满足(l) + (K) =1。对。对l=1, ,K ,令:,令: 那么那么(Y(l) , ,Y(K)满足参数为满足参数为(1, (l), ,(K)的多项分的多项分 布,布,没有刻度参数。没有刻度参数。 34 情形二情形二:因变量为名义变量因变量为名义变量 将第将第K个类别作为参照类别,使用如下连接函数:个类别作为参照类别,使用如下连接函数: l表示表示Y取值为取值为l的概率与的概率与Y取值为取值为K的概率的比的对数。的概率的比的对数。 令令l =l+xTl(l=1, ,K -1),系数,系数lr可以如下解释:可以如下解释:xr的值的值增

27、加一个单位而其他自变量的值不变时,增加一个单位而其他自变量的值不变时,Y取值为取值为l的概率与的概率与Y取值为取值为K的概率的比是原来的的概率的比是原来的exp( lr)倍。倍。 35 情形二情形二:因变量为名义变量因变量为名义变量 对数似然函数为对数似然函数为 ?l?1?y ?llog(? ,i,l)其中其中i,l代表第代表第i个观测的个观测的因变量取值为因变量取值为l的概率。在广义线性模型下,的概率。在广义线性模型下,i,l的表达式通过连的表达式通过连接函数可得接函数可得: iK36 情形二情形二:因变量为名义变量因变量为名义变量 饱和模型对饱和模型对i,l没有任何限制,这时对没有任何限制

28、,这时对i,l的最大似然估计为:的最大似然估计为: 可得可得 l(?0。 ? ;y) ? s比率偏差和偏差都等于:比率偏差和偏差都等于: 37 情形三情形三:因变量为定序变量因变量为定序变量 可采用序次逻辑回归可采用序次逻辑回归: 令令(l)表示表示Y取值小于或等于取值小于或等于l的概率的概率(l=0,1, ,K),它们满足,它们满足0= (0) (1)(2)(K-1)(K)=1。对。对l=1, ,K,令,令 那么那么(Y(1) , ,Y(K)满足参数为满足参数为 (1, (1),(2)- (1), , 1- (K-1)的多项分布,没有刻度参数。的多项分布,没有刻度参数。 38 情形三情形三:

29、因变量为定序变量因变量为定序变量 使用如下连接函数使用如下连接函数: l表示表示Y取值小于或等于取值小于或等于l的概率与的概率与Y取值大于取值大于l的概率的比的概率的比的对数,它们须满足的对数,它们须满足12 K-1。 令令l= l+xT(l=1, ,K一一1),其中,其中不随不随l变化,而变化,而1 2 K-1 ,这样可以保证满足,这样可以保证满足12 K-1。 系数系数r可以如下解释可以如下解释:xr的值增加一个单位而其他自变量的的值增加一个单位而其他自变量的值不变时,对值不变时,对l=1, ,K-1, Y取值小于或等于取值小于或等于l的概率与的概率与Y取值大取值大于于l的概率的比是原来的

30、的概率的比是原来的exp( r)倍。倍。 39 情形三情形三:因变量为定序变量因变量为定序变量 对数似然函数为对数似然函数为 ?l?1?y ?llog(? ,i,l?i,l?1)其中其中i,l代表第代表第i个个观测的因变量取值小于或等于观测的因变量取值小于或等于l的概率。在广义线性模型下,对的概率。在广义线性模型下,对l=1, ,K-1,可得,可得i,l的表达式的表达式: iK40 情形三情形三:因变量为定序变量因变量为定序变量 饱和模型对饱和模型对i,l没有任何限制,没有任何限制,i,l的最大似然估计为的最大似然估计为: 0。 ?可得可得 l(? ;y) ? 比率偏差和偏差都等于比率偏差和偏

31、差都等于: s41 情形四情形四:因变量为计数变量因变量为计数变量 可采用泊松回归可采用泊松回归: 因变量因变量Y的取值为的取值为1,2, ,代表某事件发生的次数。代表某事件发生的次数。 代表代表Y的均值。设的均值。设Y满足泊松分布,没有刻度参数。满足泊松分布,没有刻度参数。 使用对数连接函数使用对数连接函数= log( )。 系数系数r可以如下解释可以如下解释:xr的值增加一个单位而其他自变量的值增加一个单位而其他自变量的值不变时,事件发生的平均次数是原来的的值不变时,事件发生的平均次数是原来的exp( r)倍。倍。 42 情形四情形四:因变量为计数变量因变量为计数变量 对数似然函数为对数似

32、然函数为? i?1yi log?i ?i? log( yi!) 。在广义线。在广义线性模型下,可得性模型下,可得ui的表达式的表达式: N饱和模型对饱和模型对ui没有任何限制,这时对没有任何限制,这时对ui的最大似然估计为的最大似然估计为: Nyilog可得可得 l(? y) ? yi? yi? log( yi!)。 ? ;i?1s比率偏差和偏差都等于比率偏差和偏差都等于: 43 情形五情形五:因变量为非负连续变量因变量为非负连续变量 因变量因变量Y的取值连续非负的取值连续非负(例如,收入、销售额例如,收入、销售额)。根据分布。根据分布的特性可以使用不同的广义线性模型。的特性可以使用不同的广义

33、线性模型。 44 情形五情形五:因变量为非负连续变量因变量为非负连续变量 情形五的第一种情况情形五的第一种情况:如果如果Y的均值和自变量的关系是非线的均值和自变量的关系是非线性的,而性的,而Y的方差随着均值的增加而增加,那么可以采用下列的方差随着均值的增加而增加,那么可以采用下列几种模型之一几种模型之一: 使用泊松回归,它假设使用泊松回归,它假设Y的方差等于均值。的方差等于均值。 将将Y进行对数转换作为新的因变量,再使用一般的线性回进行对数转换作为新的因变量,再使用一般的线性回归归;这种模型假设这种模型假设Y的变异系数的变异系数(标准偏差与均值的比值标准偏差与均值的比值) 为常数。为常数。这时

34、,系数这时,系数r如下解释如下解释:xr的值增加一个单位而其他自变量的值的值增加一个单位而其他自变量的值不变时,不变时,log(Y)的均值增加的均值增加r 。 45 情形五情形五:因变量为非负连续变量因变量为非负连续变量 使用对数线性伽玛模型,它也假设使用对数线性伽玛模型,它也假设Y的变异系数为常数。的变异系数为常数。 设设Y满足均值为满足均值为、形状参数为、形状参数为的伽玛分布,概率密度函数为的伽玛分布,概率密度函数为: 刻度参数为刻度参数为=1/ 。 使用对数连接函数使用对数连接函数= log( )。 系数系数r可以如下解释可以如下解释:xr的值增加一个单位而其他自变量的的值增加一个单位而

35、其他自变量的值不变时,值不变时,Y的均值是原来的的均值是原来的exp( r)倍。倍。 46 情形五情形五:因变量为非负连续变量因变量为非负连续变量 对数似然函数为对数似然函数为: : 在广义线性模型下,可得在广义线性模型下,可得i的表达式的表达式: : 47 情形五情形五:因变量为非负连续变量因变量为非负连续变量 饱和模型对饱和模型对i没有任何限制,这时对没有任何限制,这时对i的最大似然估计为的最大似然估计为: : 可得可得: : 比率偏差为比率偏差为: : 偏差为偏差为: : 48 情形五情形五:因变量为非负连续变量因变量为非负连续变量 情形五的第二种情况情形五的第二种情况: :如果如果Y和

36、自变量的关系是非线性的,和自变量的关系是非线性的,而而Y的方差大致为常数,那么可以用下列模型的方差大致为常数,那么可以用下列模型: : 假设假设Y满足均值为满足均值为、方差为、方差为2的正态分布。刻度参数为的正态分布。刻度参数为= 2。 使用对数连接函数使用对数连接函数=log( )。 系数系数r可以如下解释可以如下解释:xr的值增加一个单位而其他自变量的的值增加一个单位而其他自变量的值不变时,值不变时,Y的均值是原来的的均值是原来的exp( r)倍。倍。 49 情形五情形五:因变量为非负连续变量因变量为非负连续变量 对数似然函数为对数似然函数为: : 在广义线性模型下,在广义线性模型下, i的表达式通过连接函数可得的表达式通过连接函数可得: : 50 情形五情形五:因变量为非负连续变量因变量为非负连续变量 饱和模型对饱和模型对i没有任何限制,这时对没有任何限制,这时对i的最大似然估计为的最大似然估计为: : 可得可得: : 比率偏差为比率偏差为: : 偏差为偏差为: : 51 情形六情形六:因变量为取值可正可负的连续变量因变量为取值可正可负的连续变量 因变量因变量Y的取值连续且可正可负,假设的取值连续且可正可负,假设Y满足均值为满足均值为 、方、方差为差为2的正态分布,刻度参数为的正态分布,刻度参数为=

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论