数据统计分析实战指南_第1页
数据统计分析实战指南_第2页
数据统计分析实战指南_第3页
数据统计分析实战指南_第4页
数据统计分析实战指南_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

数据统计分析实战指南TOC\o"1-2"\h\u21453第1章数据统计分析基础 3144201.1数据分析概述 3150211.1.1数据分析的基本概念 3201671.1.2数据分析的任务 4571.1.3数据分析的方法 494971.2统计学基本概念 4172851.2.1统计量度 4222811.2.2概率分布 4200481.2.3假设检验 462581.3数据类型与数据结构 566121.3.1数据类型 5264411.3.2数据结构 530542第2章数据收集与清洗 5221482.1数据来源与采集 5250252.1.1数据来源 53512.1.2数据采集 6273152.2数据质量评估 6290792.2.1数据质量维度 65092.2.2数据质量评估方法 6226652.3数据清洗与预处理 663672.3.1数据清洗 6149462.3.2数据预处理 625337第3章描述性统计分析 7255413.1频数分析与图表展示 7194223.1.1频数分析 714163.1.2图表展示 7118623.2集中趋势与离散程度 7285413.2.1集中趋势 76453.2.2离散程度 7272343.3分布形态与统计图表 888613.3.1分布形态 8292893.3.2统计图表 8446第4章概率论与数理统计基础 8243194.1概率论基本概念 8202724.1.1随机试验与样本空间 8106744.1.2事件及其运算法则 841284.1.3概率的定义及性质 8218654.1.4条件概率与独立性 8195844.1.5全概率公式和贝叶斯定理 9164674.2随机变量与概率分布 940354.2.1随机变量的定义与性质 9159144.2.2离散型随机变量 9175374.2.3连续型随机变量 914774.2.4随机变量的函数 9272184.3假设检验与置信区间 951354.3.1假设检验 9244114.3.2置信区间 1030683第5章相关分析与回归分析 108655.1相关性分析 10218045.1.1皮尔逊相关系数 10267235.1.2斯皮尔曼等级相关系数 1091955.1.3肯德尔等级相关系数 1094735.1.4相关系数的显著性检验 1033605.2线性回归分析 10162015.2.1一元线性回归 1090065.2.2多元线性回归 1068025.3非线性回归分析 11216595.3.1多项式回归 11270265.3.2幂函数回归 11139295.3.3指数回归 11281215.3.4对数回归 1127165第6章多变量统计分析 11226016.1主成分分析 11176136.1.1原理与步骤 11313156.1.2应用 12184326.2因子分析 12138106.2.1原理与步骤 12169246.2.2应用 12191446.3聚类分析 12234806.3.1原理与步骤 13206726.3.2应用 1316398第7章时间序列分析 13299867.1时间序列基本概念 13169867.1.1时间序列的定义与分类 13299607.1.2时间序列数据预处理 14120197.2平稳性与白噪声过程 14267527.2.1平稳性 14118677.2.2平稳性检验 14194447.2.3白噪声过程 1445057.3时间序列模型与预测 15249677.3.1自回归模型(AR) 15231947.3.2移动平均模型(MA) 1547327.3.3自回归移动平均模型(ARMA) 15103527.3.4自回归差分移动平均模型(ARIMA) 15309687.3.5时间序列预测 1511937第8章非参数统计方法 16155068.1非参数检验概述 16225088.2核密度估计与核回归 161368.3置换检验与自助法 1630760第9章生存分析与风险管理 16226859.1生存分析基本概念 16200119.2生存函数与风险函数 1686849.2.1生存函数 17240279.2.2风险函数 17182179.3生存分析模型与风险管理 17112249.3.1加速失效时间模型(AFT) 17297479.3.2危险率模型(Cox) 17285109.3.3生存分析在风险管理中的应用实例 176877第10章数据可视化与报告撰写 181339110.1数据可视化基础 183157610.1.1数据可视化基本概念 183034910.1.2数据可视化原则 181348510.1.3常用数据可视化工具 181869010.2高级数据可视化技巧 181794410.2.1复合图表 182816810.2.2动态可视化 192875310.2.3交互式可视化 191333910.3数据分析报告撰写与展示技巧 19768110.3.1报告撰写技巧 191662310.3.2展示技巧 19第1章数据统计分析基础1.1数据分析概述数据分析是指运用一系列方法和技术对数据进行摸索、处理、分析和解释的过程,以揭示数据背后的规律和知识。在当今信息爆炸的时代,数据分析已成为各领域研究的重要手段。本章将从数据分析的基本概念、任务和方法等方面进行概述。1.1.1数据分析的基本概念(1)数据:数据是对客观事物的符号表示,可以是数字、文字、图像等形式。(2)变量:变量是研究对象的属性,可分为定性变量和定量变量。(3)数据集:数据集是由一组相关数据组成的整体。1.1.2数据分析的任务数据分析的任务主要包括以下几个方面:(1)描述性分析:对数据进行概括和描述,揭示数据的基本特征。(2)推断性分析:根据样本数据对总体特征进行推断。(3)预测性分析:建立模型,对未知数据或未来趋势进行预测。(4)相关性分析:研究变量之间的关联程度。1.1.3数据分析的方法数据分析的方法可分为以下几类:(1)统计分析方法:运用统计学原理和方法对数据进行处理和分析。(2)机器学习方法:通过算法自动从数据中学习规律。(3)数据挖掘方法:结合统计学、机器学习和数据库技术,从大量数据中挖掘有价值的信息。1.2统计学基本概念统计学是研究如何有效地收集、整理、分析和解释数据的科学。本节将介绍统计学的基本概念和原理。1.2.1统计量度(1)平均数:一组数据的平均值,反映数据的集中趋势。(2)中位数:将一组数据按大小顺序排列,位于中间位置的数值。(3)众数:一组数据中出现次数最多的数值。(4)方差和标准差:反映一组数据的离散程度。1.2.2概率分布概率分布描述了随机变量取值的概率规律。常见的概率分布有:(1)正态分布:也称高斯分布,是一种对称、钟形的概率分布。(2)二项分布:描述在固定次数的独立实验中,成功次数的概率分布。(3)泊松分布:描述在固定时间或空间内,事件发生次数的概率分布。1.2.3假设检验假设检验是统计学中用于判断样本数据是否支持某个假设的方法。主要包括以下步骤:(1)建立原假设和备择假设。(2)选择合适的检验统计量。(3)计算检验统计量的值。(4)根据显著性水平,判断是否拒绝原假设。1.3数据类型与数据结构数据类型和数据结构是数据分析的基础,本节将介绍常见的数据类型和数据结构。1.3.1数据类型(1)数值型数据:可以进行数学计算的数据,如身高、体重等。(2)分类数据:将数据分为若干类别,如性别、职业等。(3)顺序数据:具有明确顺序的数据,如学历、等级等。1.3.2数据结构数据结构是指数据在计算机中的组织方式。常见的数据结构有:(1)数组:一种线性数据结构,用于存储具有相同类型的数据。(2)列表:一种可变的线性数据结构,可以存储不同类型的数据。(3)元组:一种不可变的线性数据结构,可以存储不同类型的数据。(4)字典:一种键值对的数据结构,用于存储具有映射关系的数据。(5)集合:一种无序且元素唯一的集合数据结构。第2章数据收集与清洗2.1数据来源与采集在进行数据统计分析之前,首要任务是确定数据来源并采集所需的数据。合理选择数据来源渠道是保证数据分析质量的基础。2.1.1数据来源(1)公开数据:网站、国家统计局、专业数据服务平台等官方渠道发布的数据。(2)企业内部数据:企业内部业务系统、财务系统、客户关系管理系统等产生的数据。(3)第三方数据:市场调查报告、研究机构发布的数据、合作伙伴提供的数据等。(4)网络爬虫:通过编写程序,自动抓取互联网上的相关数据。2.1.2数据采集(1)人工采集:通过调查问卷、访谈、观察等方式收集数据。(2)自动化采集:利用相关工具,如ETL(Extract,Transform,Load)工具、API接口等,自动收集数据。(3)数据挖掘:运用数据挖掘技术,从大量原始数据中提取有价值的信息。2.2数据质量评估收集到的数据质量直接影响到后续数据分析结果的准确性。因此,在数据清洗之前,需要对数据进行质量评估。2.2.1数据质量维度(1)完整性:数据是否涵盖所需分析的全部维度和指标。(2)准确性:数据是否准确无误,是否存在错误或异常值。(3)一致性:数据在不同时间、不同来源、不同格式下是否保持一致。(4)时效性:数据是否为最新数据,是否能够反映当前业务状况。(5)可靠性:数据来源是否可靠,数据提供者是否具备权威性。2.2.2数据质量评估方法(1)样本检验:从数据集中随机抽取部分数据,检查数据质量。(2)统计检验:利用统计学方法,对数据进行描述性统计分析,检查数据的分布、异常值等。(3)逻辑检验:通过数据之间的逻辑关系,检查数据是否合理。2.3数据清洗与预处理数据清洗与预处理是保证数据质量、提高数据分析效果的关键步骤。2.3.1数据清洗(1)缺失值处理:对缺失数据进行填充、删除或替换。(2)异常值处理:识别并处理数据中的异常值。(3)重复数据处理:删除或合并重复的数据记录。(4)数据格式统一:将数据格式统一,便于后续分析。2.3.2数据预处理(1)数据集成:将来自不同来源的数据进行整合,形成统一的数据集。(2)数据转换:对数据进行规范化、标准化、归一化等处理,以满足后续分析需求。(3)特征工程:提取数据中的关键特征,构建新的特征变量,提高模型效果。(4)数据降维:通过主成分分析、因子分析等方法,降低数据的维度,减少计算量。第3章描述性统计分析3.1频数分析与图表展示频数分析是对数据进行最基本的统计描述,主要包括计算各数据项出现的次数、比例和累积比例等。本节主要介绍频数分析的实现方法以及如何通过图表展示分析结果。3.1.1频数分析(1)计算各数据项的频数及比例。(2)计算各数据项的累积频数及累积比例。(3)对频数进行分析,挖掘数据中的规律和特点。3.1.2图表展示(1)条形图:用于展示各类别数据的频数和比例。(2)饼图:用于展示各类别数据的比例关系。(3)直方图:用于展示连续型数据的分布情况。3.2集中趋势与离散程度集中趋势和离散程度是描述数据分布的两个重要指标。集中趋势反映了数据的中心位置,离散程度反映了数据的分散程度。3.2.1集中趋势(1)均值:所有数据之和除以数据的个数。(2)中位数:将数据按大小顺序排列,位于中间位置的数值。(3)众数:数据中出现次数最多的数值。3.2.2离散程度(1)极差:最大值与最小值之差。(2)四分位差:上四分位数与下四分位数之差。(3)方差:各数据值与均值之差的平方的平均数。(4)标准差:方差的平方根。(5)变异系数:标准差与均值的比值。3.3分布形态与统计图表数据的分布形态包括对称分布、偏态分布等。本节将介绍如何通过统计图表来展示数据的分布形态。3.3.1分布形态(1)对称分布:数据围绕某一中心值对称分布。(2)偏态分布:数据分布不对称,分为正偏态和负偏态。3.3.2统计图表(1)箱线图:用于展示数据的分布情况,包括中位数、四分位数、极值等。(2)密度曲线图:用于展示连续型数据的分布形态。(3)QQ图:用于检验数据是否符合正态分布。通过本章的学习,读者可以掌握描述性统计分析的基本方法,对数据进行直观、全面的认识,为后续的数据分析奠定基础。第4章概率论与数理统计基础4.1概率论基本概念本章首先介绍概率论的基本概念,这些概念是理解后续统计方法的基础。内容包括:随机试验、样本空间、事件及事件的运算法则、概率的定义及性质、条件概率、独立性、全概率公式和贝叶斯定理等。4.1.1随机试验与样本空间随机试验是概率论研究的基础,样本空间是随机试验所有可能结果的集合。本节将讨论如何定义随机试验,以及如何描述样本空间。4.1.2事件及其运算法则事件是样本空间的一个子集,它代表了一组特定的结果。本节将介绍事件的定义,以及事件间的基本运算法则,如并、交、差、对立事件等。4.1.3概率的定义及性质概率是衡量事件发生可能性的一种数值。本节将探讨概率的公理化定义,以及概率的基本性质,如非负性、规范性、可列可加性等。4.1.4条件概率与独立性条件概率是在给定某个事件发生的条件下,另一个事件发生的概率。独立性则是描述两个事件之间没有相互影响的概念。本节将详细解释条件概率和独立性的定义及性质。4.1.5全概率公式和贝叶斯定理全概率公式是利用条件概率和边缘概率计算事件概率的方法。贝叶斯定理则是在已知某个事件发生的条件下,计算另一个事件发生概率的公式。本节将阐述这两个重要定理的数学表达及其应用。4.2随机变量与概率分布随机变量是描述随机试验结果的变量,它将样本空间映射到实数集。本节将介绍随机变量的概念,以及与之相关的概率分布。4.2.1随机变量的定义与性质本节定义随机变量,并讨论随机变量的性质,如分布函数、数学期望、方差等。4.2.2离散型随机变量离散型随机变量取有限个或可数无限个值。本节将介绍离散型随机变量的概率分布,主要包括伯努利分布、二项分布、泊松分布等。4.2.3连续型随机变量连续型随机变量取值在某个区间内,且任意两点之间的值都有可能取到。本节将讨论连续型随机变量的概率密度函数,如均匀分布、正态分布、指数分布等。4.2.4随机变量的函数在实际应用中,我们经常需要研究随机变量函数的分布。本节将介绍如何求解随机变量函数的分布。4.3假设检验与置信区间假设检验和置信区间是数理统计中的两个基本问题。本节将阐述这两个概念及其应用。4.3.1假设检验假设检验是通过对样本数据进行分析,来对总体参数的某个假设进行判断的方法。本节将介绍假设检验的基本步骤,如零假设和备择假设的建立、检验统计量的选择、显著性水平的确定、拒绝域的构造等。4.3.2置信区间置信区间是估计总体参数的一种方法,它给出参数的可能取值范围,并给出一定的置信概率。本节将讨论如何构造置信区间,包括点估计、区间估计及其误差分析。通过本章的学习,读者将掌握概率论与数理统计基础,为后续的数据统计分析实战提供必要的理论支持。第5章相关分析与回归分析5.1相关性分析相关性分析旨在研究两个或多个变量之间的关联程度和方向。本章首先介绍皮尔逊相关系数、斯皮尔曼等级相关系数和肯德尔等级相关系数,以衡量变量间的线性与非线性相关程度。我们将探讨相关性的显著性检验,以判断相关系数是否具有统计学意义。5.1.1皮尔逊相关系数5.1.2斯皮尔曼等级相关系数5.1.3肯德尔等级相关系数5.1.4相关系数的显著性检验5.2线性回归分析线性回归分析是研究自变量与因变量之间线性关系的统计分析方法。本节将阐述以下内容:5.2.1一元线性回归模型建立参数估计模型检验预测与解释5.2.2多元线性回归模型建立参数估计假设检验多重共线性诊断与处理预测与解释5.3非线性回归分析非线性回归分析用于研究自变量与因变量之间的非线性关系。本节将介绍以下非线性回归模型及其应用:5.3.1多项式回归模型建立参数估计模型检验5.3.2幂函数回归模型建立参数估计模型检验5.3.3指数回归模型建立参数估计模型检验5.3.4对数回归模型建立参数估计模型检验通过本章的学习,读者将掌握相关分析与回归分析的基本原理,能够运用相关系数衡量变量间的关联程度,运用线性与非线性回归模型预测和解释实际问题。第6章多变量统计分析6.1主成分分析主成分分析(PrincipalComponentAnalysis,PCA)是一种常用的多变量统计分析方法,通过线性变换将原始数据变换为一组各维度线性无关的表示,从而降维并提取数据的主要特征。本节将详细介绍主成分分析的原理、步骤及其应用。6.1.1原理与步骤(1)数据标准化(2)计算协方差矩阵(3)求解特征值与特征向量(4)选取主要成分(5)构建主成分得分模型6.1.2应用(1)数据降维(2)数据预处理(3)信号处理(4)金融风险管理6.2因子分析因子分析(FactorAnalysis)是一种通过研究变量之间的相关性,提取少数几个能解释这些变量之间关系的因子,从而简化变量关系的统计分析方法。本节将讨论因子分析的原理、方法及其应用。6.2.1原理与步骤(1)建立相关系数矩阵(2)计算特征值与特征向量(3)提取因子(4)因子旋转(5)计算因子得分6.2.2应用(1)量表设计(2)人类行为研究(3)经济学领域(4)金融市场分析6.3聚类分析聚类分析(ClusterAnalysis)是一种基于样本特征的相似性,将样本划分为若干个类别的方法。本节将阐述聚类分析的基本原理、方法及其在不同领域的应用。6.3.1原理与步骤(1)数据标准化(2)计算距离或相似性(3)选择聚类方法层次聚类法划分聚类法密度聚类法(4)确定聚类数目(5)结果评估6.3.2应用(1)市场细分(2)图像处理(3)生物信息学(4)社会网络分析注意:在实际应用中,应根据研究问题及数据特点选择合适的分析方法,并注意检验分析结果的稳定性和可靠性。第7章时间序列分析7.1时间序列基本概念时间序列分析是一种重要的数据分析方法,主要用于研究某个变量随时间变化而表现出的规律性和趋势性。本章首先介绍时间序列的基本概念,包括时间序列的定义、分类及其特点。还将讨论时间序列数据的收集、预处理以及分析过程中需要注意的问题。7.1.1时间序列的定义与分类时间序列是指在一定时间间隔内,对某一变量进行观测所得到的有序数据集合。根据观测时间间隔的不同,时间序列可分为离散时间序列和连续时间序列。离散时间序列通常以固定的时间间隔(如日、月、季、年等)进行观测,而连续时间序列则是在任意时间点进行观测。根据变量的性质,时间序列可分为以下几类:(1)纯随机序列:序列中的观察值相互独立,不存在任何规律性。(2)确定性趋势序列:序列中的观察值随时间呈现出明显的趋势性。(3)季节性序列:序列中的观察值受到季节性因素的影响,呈现出周期性变化。(4)复合型序列:同时具有趋势性、季节性和随机性特点。7.1.2时间序列数据预处理在进行时间序列分析之前,需要对数据进行预处理。预处理主要包括以下几个方面:(1)数据清洗:去除异常值、缺失值等。(2)数据转换:将原始数据转换成适合时间序列分析的形式,如对数变换、差分等。(3)数据平滑:消除随机波动,突出趋势性和季节性成分。7.2平稳性与白噪声过程平稳性是时间序列分析中的一个重要概念。本章将介绍平稳性及其检验方法,同时探讨白噪声过程及其在时间序列分析中的应用。7.2.1平稳性平稳性是指时间序列的统计性质不随时间的推移而改变。具体而言,一个时间序列满足以下条件时,可认为具有平稳性:(1)均值:序列的均值不随时间变化。(2)方差:序列的方差不随时间变化。(3)自协方差:序列的自协方差仅依赖于时间间隔,与时间点无关。7.2.2平稳性检验常用的平稳性检验方法有:(1)图示法:通过观察时间序列图、自相关图等,判断序列的平稳性。(2)单位根检验:检验序列是否存在单位根,从而判断其平稳性。(3)ADF检验:进行增广迪基富勒检验,判断序列的平稳性。7.2.3白噪声过程白噪声过程是一种特殊的平稳时间序列,其特点为:(1)序列的均值为常数。(2)序列的方差为常数。(3)序列的任意两个不同时间点的观测值相互独立。白噪声过程在时间序列分析中具有重要意义,常用于构建时间序列模型。7.3时间序列模型与预测时间序列模型是描述时间序列变量之间关系的数学模型。本章将介绍几种常见的时间序列模型,并探讨如何利用这些模型进行预测。7.3.1自回归模型(AR)自回归模型(AR)是一种基于过去若干个观测值来预测当前观测值的模型。其基本形式如下:\[Y_t=c\sum_{i=1}^p\phi_iY_{ti}\varepsilon_t\]其中,\(Y_t\)表示第t期的观测值,\(c\)为常数项,\(\phi_i\)为自回归系数,\(p\)为模型阶数,\(\varepsilon_t\)为误差项。7.3.2移动平均模型(MA)移动平均模型(MA)是一种基于过去若干个误差项来预测当前观测值的模型。其基本形式如下:\[Y_t=c\sum_{i=1}^q\theta_i\varepsilon_{ti}\varepsilon_t\]其中,\(\theta_i\)为移动平均系数,\(q\)为模型阶数。7.3.3自回归移动平均模型(ARMA)自回归移动平均模型(ARMA)是自回归模型和移动平均模型的组合,其基本形式如下:\[Y_t=c\sum_{i=1}^p\phi_iY_{ti}\sum_{i=1}^q\theta_i\varepsilon_{ti}\varepsilon_t\]7.3.4自回归差分移动平均模型(ARIMA)自回归差分移动平均模型(ARIMA)是对非平稳时间序列进行差分后,再应用ARMA模型的预测方法。其基本形式如下:\[(1\phi_1B\phi_2B^2\cdots\phi_pB^p)(1B)^dY_t=c(1\theta_1B\theta_2B^2\cdots\theta_qB^q)\varepsilon_t\]其中,\(B\)为滞后算子,\(d\)为差分次数。7.3.5时间序列预测时间序列预测方法主要包括以下几种:(1)单步预测:预测下一个时间点的观测值。(2)多步预测:预测未来多个时间点的观测值。(3)滚动预测:不断更新数据,动态预测未来观测值。在实际应用中,可根据时间序列的特点选择合适的模型和预测方法,以提高预测的准确性。第8章非参数统计方法8.1非参数检验概述非参数检验是统计学中一种重要的数据分析方法,它不依赖于数据的具体分布,适用于处理不符合正态分布或分布未知的数据。本节主要介绍非参数检验的基本概念、分类及其应用场景。阐述非参数检验的原理和特点;介绍常见的非参数检验方法,如符号检验、秩和检验、KruskalWallis检验等;讨论非参数检验在实际应用中的注意事项。8.2核密度估计与核回归核密度估计和核回归是非参数统计方法中用于估计概率密度函数和回归函数的重要技术。本节首先介绍核密度估计的基本原理,包括核函数的选择、带宽的确定以及估计效果的评估;接着阐述核回归的基本概念,探讨其在非线性回归分析中的应用;通过实例分析,展示核密度估计与核回归在实际问题中的应用。8.3置换检验与自助法置换检验和自助法是两种常见的非参数检验方法,广泛应用于假设检验和置信区间的估计。本节首先介绍置换检验的基本原理,包括排列检验、随机化检验等,并讨论其在实际应用中的优缺点;阐述自助法的原理,包括自助样本的、自助估计量的计算等;通过具体实例,展示置换检验与自助法在数据分析中的应用。第9章生存分析与风险管理9.1生存分析基本概念生存分析,作为一种统计方法,主要用于分析生存时间数据,探究影响生存时间的各种因素。在风险管理领域,生存分析有助于识别和评估可能导致个体或项目失败的风险因素,从而为风险预防和控制提供依据。本章首先介绍生存分析的基本概念,包括生存时间、事件发生和删失数据等。9.2生存函数与风险函数生存函数是生存分析的核心概念,描述了个体在给定时间内生存的概率。生存函数的补函数即为风险函数,表示个体在给定时间内发生事件的概率。本节将详细讨论生存函数和风险函数的定义、性质以及它们在风险管理中的应用。9.2.1生存函数生存函数S(t)表示个体生存时间超过时间t的概率,即:\[S(t)=P(T>t)\]其中,T表示生存时间,t为给定的时间点。生存函数反映了个体在不同时间点生存的累积概率。9.2.2风险函数风险函数h(t)表示个体在时间t发生事件的概率,即:\[h(t)=\lim_{\Deltat\rightarrow0}\frac{P(t\leqT<t\DeltatT>t)}{\Deltat}\]风险函数是生存函数的导数,表示个体在给定时间点发生事件的瞬时概率。9.3生存分析模型与风险管理生存分析模型旨在对生存时间和风险因素之间的关系进行建模,以便于预测和管理风险。本节将介绍常见的生存分析模型,并探讨它们在风险管理中的应用。9.3.1加速失效时间模型(AFT)加速失效时间模型是一种常见的生存分析模型,通过将生存时间与风险因素之间的关系表示为一个线性函数,来描述风险因素对生存时间的影响。AFT模型在风险管理中的应用包括:评估风险因素对项目或个体生存时间的影响程度,以及制定针对性的风险控制措施。9.3.2危险率模型(Cox)危险率模型是另一种重要的生存分析模型,通过构建风险函数与风险因素之间的关系,来研究风险因素对生存时间的影响。Cox模型在风险管理中的应用包括:筛选关键风险因素,评估风险因素对生存时间的影响程度,以及制定风险预防策略。9.3.3生存分析在风险管理中的应用实例以某企业项目风

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论