《大数据分析与应用》大学笔记_第1页
《大数据分析与应用》大学笔记_第2页
《大数据分析与应用》大学笔记_第3页
《大数据分析与应用》大学笔记_第4页
《大数据分析与应用》大学笔记_第5页
已阅读5页,还剩17页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

《大数据分析与应用》大学笔记第一章大数据概述1.1什么是大数据?随着信息技术的迅猛发展,我们每天都在产生大量的数字信息。这些海量的信息被称为大数据。它不仅仅指数据的数量庞大,还包括了数据处理的速度快、数据类型的多样性以及对数据质量的要求。大数据可以来源于社交媒体、在线交易、移动设备等多种渠道,并且其规模通常超过了传统数据处理软件的能力范围。1.2大数据的特点Volume

-

体积巨大:指的是数据量极大,从TB级到PB级甚至更大。Velocity

-

速度极快:不仅是指数据产生的速度快,也包括了数据处理速度的需求。Variety

-

种类繁多:数据来源多样,包括结构化数据(如数据库表格)和非结构化数据(如文本、图片、视频)。Veracity

-

真实性高:确保数据准确无误对于做出正确的商业决策至关重要。Value

-

价值密度低:尽管大数据总体上蕴含着巨大的潜在价值,但其中真正有价值的部分往往只占很小的比例。表1-1大数据特征对比特征描述例子Volume数据量大日均数百万条社交媒体帖子Velocity数据生成和处理速度快实时股票市场分析Variety数据类型多样图片、音频、传感器读数Veracity对数据准确性要求高医疗记录Value从大量数据中提取少量有价值信息在线广告点击率优化1.3大数据的发展历程大数据概念并非一夜之间出现的。它的起源可以追溯到上世纪90年代初,当时互联网开始普及,人们开始意识到收集和分析网络流量数据的重要性。进入21世纪后,随着云计算、物联网等新技术的兴起,数据生成速度进一步加快,促进了大数据技术的发展。近年来,随着人工智能技术的进步,如何更高效地利用大数据成为研究热点之一。早期阶段(1990s-2000s):主要关注于Web日志分析等领域。快速发展期(2000s-2010s):以Hadoop为代表的分布式计算框架出现,使得大规模数据处理变得更加容易。成熟与扩展期(2010s至今):大数据技术更加成熟,并广泛应用于各行各业,同时也在不断探索新的应用场景,比如智慧城市、精准医疗等。1.4大数据的重要性推动经济增长:帮助企业更好地了解客户需求,提高运营效率。促进科学研究:加速新药研发过程,改进天气预报模型。改善公共服务:通过分析交通流量来优化城市规划,增强公共安全措施。支持个性化服务:基于用户行为提供定制化的产品推荐。1.5面临的主要挑战数据安全与隐私保护:如何保证个人隐私的同时充分利用数据?技术实现难度:需要开发强大的软硬件基础设施来支撑大数据处理。人才短缺:缺乏足够的专业人员来进行数据分析及解释结果。法律法规限制:不同国家和地区关于数据使用的法律差异很大,给跨国公司带来挑战。第二章数据采集与预处理2.1数据采集方法概述有效的数据采集是进行后续分析的基础。根据不同的应用场景,可以选择多种方式进行数据获取:直接访问API:许多在线平台提供了API接口供开发者调用来获取特定格式的数据。网页爬虫:通过编写程序自动抓取网页上的公开信息。传感器收集:物联网设备如温度计、摄像头等可以直接将环境数据上传至云端。问卷调查:针对特定人群开展调研活动以获得第一手资料。2.2数据清洗原始数据往往包含错误或不完整的信息,因此在使用前必须经过清洗步骤:缺失值处理:删除含有过多空白字段的记录,或者采用插补法填补空缺。异常值检测:利用统计方法识别并移除偏离正常范围的数据点。重复项去除:避免因同一记录多次录入而影响最终结果准确性。格式统一化:确保所有相关字段都遵循相同的数据格式标准。2.3数据转换为了使不同来源的数据能够兼容并便于分析,通常还需要执行一系列转换操作:归一化/标准化:调整数值型变量使其处于相同的尺度范围内。编码:将分类属性转化为数字形式以便机器学习算法处理。特征构造:基于现有特征创建新的衍生变量以捕捉更多潜在规律。2.4数据集成当面对来自多个系统的异构数据时,就需要将其合并为一个统一视图:实体识别:确定哪些记录实际上代表同一个对象。冲突解决:当同一对象的不同描述存在矛盾时选择最可信版本。冗余消除:去除不必要的重复信息以简化数据集结构。2.5数据预处理的最佳实践保持透明度:详细记录每一步骤所做更改的原因及其影响。迭代优化:根据初步分析反馈不断调整预处理策略。重视自动化:尽可能利用脚本自动完成重复性任务以节省时间和减少人为错误。持续监测:定期检查输入数据质量变化情况,及时更新预处理流程。第三章数据存储技术3.1传统的关系型数据库关系型数据库管理系统(RDBMS)长期以来一直是企业级应用程序的核心组成部分。它们通过表格形式组织数据,并支持复杂的查询语句(SQL)来检索相关信息。然而,在面对日益增长的大数据需求时,RDBMS逐渐显现出一些局限性:可扩展性差:难以横向扩展以应对海量数据增长。性能瓶颈:当数据量达到一定程度后查询效率显著下降。成本高昂:维护大型集群所需的专业知识和硬件投入较高。3.2分布式文件系统为克服单机系统限制,分布式文件系统应运而生。其中最著名的就是Hadoop分布式文件系统(HDFS)。HDFS的设计目标是在普通商用服务器组成的集群上可靠地存储大量文件,并且能够轻松扩展到数千节点规模。其主要特点包括:容错机制:即使部分节点失效也能保证数据完整性。高效读写:优化了大文件顺序读写的性能。低成本:利用廉价PC搭建集群,降低了整体拥有成本。3.3NoSQL数据库NoSQL(NotOnlySQL)数据库泛指那些不严格遵循传统关系模型的数据存储解决方案。这类系统通常牺牲了一定程度的一致性换取更高的可用性和分区容忍度,非常适合处理非结构化或半结构化的海量数据。常见的NoSQL类型有:键值存储:例如Redis,非常适合缓存场景。列族存储:如Cassandra,适用于需要快速列访问的应用。文档存储:MongoDB允许以JSON格式存储数据,灵活性强。图形数据库:Neo4j专注于高效处理复杂网络关系。3.4数据仓库数据仓库是一种专门用于支持业务智能活动的系统。它集中存储了来自各个业务线的历史数据,经过清理、转换后形成易于查询的形式。典型的数据仓库架构包括以下几个层次:ODS层:操作数据存储,存放近实时的交易明细。DWD层:数据仓库细节层,保存了经过初步处理的事实表。DWS层:汇总层,按主题区域组织的数据集市。ADS层:应用层,面向具体报表或分析需求定制的数据视图。3.5云原生存储解决方案随着云计算技术的发展,越来越多的企业倾向于将数据托管于云端。云服务商提供的托管服务不仅简化了运维工作量,还提供了弹性伸缩能力。AWSS3、GoogleCloudStorage等都是广受欢迎的对象存储选项;而Aurora、Bigtable则分别代表了云环境下高性能的关系型与非关系型数据库实例。3.6数据存储技术的选择考量因素数据特性:考虑数据类型(结构化/非结构化)、大小及增长率等因素。访问模式:明确是否经常需要执行随机读写还是批量加载操作。一致性需求:确定应用能否接受最终一致性而非强一致性。预算约束:权衡前期投入与长期运营成本之间的平衡点。安全性考量:评估供应商的安全措施是否满足行业标准及内部政策要求。第四章大数据分析基础4.1描述性统计分析描述性统计分析是数据分析中最基本也是最重要的部分之一,它涉及对数据集进行总结和描述的过程,目的是为了更好地理解和展示数据的基本特征。关键统计量包括但不限于均值、中位数、众数、方差、标准差等,这些统计量可以帮助分析师快速把握数据的整体分布状况。均值(Mean):所有数值相加后的平均值,反映了数据集中心位置的一个重要指标。中位数(Median):将一组数据从小到大排列后位于中间位置的数,不受极端值影响。众数(Mode):数据集中出现次数最多的数值。方差(Variance):衡量数据离散程度的一个统计量,值越大表明数据波动越大。标准差(StandardDeviation):方差的平方根,用以表示数据相对于平均值的偏离程度。表4-1常见统计量比较统计量定义适用场景均值所有观测值总和除以观测值数量当数据分布较为对称时中位数数据排序后位于中间位置的值当存在异常值或偏斜分布时众数出现频率最高的值适用于分类数据方差各个数据与其算术平均数差的平方和的平均数评价数据分散程度标准差方差的正平方根与方差作用相似,但单位与原数据一致4.2探索性数据分析探索性数据分析(EDA)是数据分析过程中非常重要的一个环节,它强调通过图形化方法直观地探索数据的内在结构和模式。常用的技术手段包括直方图、箱形图、散点图等。直方图(Histogram):用于显示连续变量分布情况,可以很好地反映出数据的集中趋势和离散程度。箱形图(BoxPlot):展示了数据的五数概括(最小值、第一四分位数、中位数、第三四分位数、最大值),有助于发现异常值。散点图(ScatterPlot):通过二维坐标系展示两个变量间的关系,适合于寻找变量间的相关性。4.3统计推断简介统计推断是从样本数据出发,对总体参数进行估计或假设检验的过程。它基于概率论与数理统计理论,通过构建适当的统计模型来做出合理的预测或判断。参数估计(ParameterEstimation):利用样本信息估计总体未知参数的方法,分为点估计和区间估计两大类。假设检验(HypothesisTesting):依据样本数据检验关于总体参数的某个假设是否成立的过程,常用的检验方法包括t检验、卡方检验等。4.4常见的数据可视化工具和技术良好的数据可视化不仅能帮助我们更清晰地传达分析结果,还能激发新的洞察力。以下是一些流行的数据可视化工具和技术:Tableau:功能强大且易于使用的商业智能工具,支持多种数据源接入。PowerBI:微软推出的一款交互式报告制作平台,特别适合企业级应用。PythonMatplotlib&Seaborn:Python编程语言中非常流行的绘图库,适用于快速原型开发。Rggplot2:R语言中的高级绘图包,以其优雅的设计哲学而闻名。第五章大数据处理框架5.1MapReduce原理与应用MapReduce是由Google提出的一种编程模型,专为处理大规模数据集设计。该模型将计算任务分解为Map(映射)和Reduce(规约)两个步骤,非常适合并行处理。Map阶段:输入数据被分割成多个小块,每个块由一个Map任务处理。Map函数负责将输入转换为键-值对形式输出。Reduce阶段:来自不同Map任务的输出会被归类到一起,然后由Reduce任务进一步处理。最终结果同样是以键-值对形式呈现。5.2ApacheHadoop生态系统Hadoop是一个开源软件框架,实现了MapReduce模型,并提供了一个可靠的分布式文件系统——HDFS。除了核心组件外,Hadoop生态系统还包括了许多其他工具和服务,共同构成了一个完整的解决方案栈:HDFS(HadoopDistributedFileSystem):提供高可靠性、高吞吐量的数据存储服务。YARN(YetAnotherResourceNegotiator):负责集群资源管理和调度。Hive:基于Hadoop的数据仓库工具,支持使用类似SQL的语言进行数据查询。Pig:一种高级过程语言,允许用户编写简单的脚本来处理复杂的数据流。HBase:分布式的、面向列的NoSQL数据库,适合存储稀疏数据集。5.3Spark核心概念及优势ApacheSpark是一个通用的、分布式的计算引擎,旨在提供比HadoopMapReduce更快的数据处理速度。Spark通过内存计算大幅提高了迭代式算法的效率,同时也支持批处理、流处理以及机器学习等多种工作负载。RDD(ResilientDistributedDatasets):Spark中的基本数据抽象,具有容错机制的分布式集合。DataFrame&DatasetAPI:更高层次的API,提供了类似于关系数据库表的操作方式。MLlib:内置的机器学习库,包含了丰富的算法实现。Streaming:支持实时流处理,能够与静态数据集无缝集成。第六章机器学习基础6.1监督学习vs非监督学习机器学习可以根据训练数据是否有标签被划分为两类主要的学习范式:监督学习和非监督学习。监督学习(SupervisedLearning):使用带有标签的数据集进行训练,目标是学习一个从输入到输出的映射函数。常见应用包括分类和回归问题。非监督学习(UnsupervisedLearning):处理没有标签的数据,目的是发现数据内在结构或模式。聚类、降维等是典型的非监督学习任务。6.2主要算法介绍决策树(DecisionTrees):一种简单直观的分类和回归方法,通过递归地选择最佳划分属性来构建树状模型。随机森林(RandomForests):集成学习方法之一,通过组合多个决策树来提高预测性能并降低过拟合风险。支持向量机(SupportVectorMachines,SVM):寻找最优超平面以最大化两类样本之间的间隔,适用于高维空间中的分类问题。k-近邻算法(k-NearestNeighbors,k-NN):基于最近邻居投票原则进行分类或回归,算法简单但计算成本相对较高。6.3模型评估指标为了衡量模型性能的好坏,我们需要借助一系列评估指标。对于分类任务来说,常用的评价标准有准确率、精确率、召回率以及F1分数等;而对于回归任务,则通常会考虑均方误差(MSE)、均方根误差(RMSE)等。准确率(Accuracy):正确预测的比例。精确率(Precision):正例预测正确的比例。召回率(Recall):所有实际正例中被正确识别出来的比例。F1分数(F1Score):精确率和召回率的调和平均值,用于综合考虑两者表现。混淆矩阵(ConfusionMatrix):一种直观展示分类结果的方式,可以帮助更细致地分析各类别间的错误模式。6.4特征选择与工程特征选择是从原始特征集合中挑选出最具代表性的子集,从而简化模型复杂度并提升泛化能力。常见的特征选择方法包括过滤法、包装法以及嵌入法等。过滤法(FilterMethods):根据特征自身的统计性质独立于模型进行选择。包装法(WrapperMethods):依赖特定的学习算法,通过搜索最佳特征子集来优化性能。嵌入法(EmbeddedMethods):在训练过程中直接学习特征的重要性,如LASSO回归等。此外,特征工程是指通过对已有特征进行变换、组合等方式创造出新的特征变量,以期更好地反映数据的本质特征,进而改善模型效果。这一过程往往需要结合领域知识和创造性思维。第七章数据挖掘技术7.1聚类分析聚类分析是一种无监督学习方法,它旨在将数据集中的对象分成若干组(或称为簇),使得同一组内的对象相似度较高,而不同组间的对象相似度较低。聚类算法广泛应用于客户细分、社交网络分析、生物信息学等多个领域。K-means算法:这是最常用的聚类方法之一,通过迭代地分配数据点到最近的簇中心并重新计算簇中心的位置来形成最终的簇。层次聚类:可以进一步分为凝聚型和分裂型两种。凝聚型是从每个点作为一个单独的簇开始,逐步合并相近的簇直到满足停止条件;分裂型则是从所有点属于一个簇开始,逐步分裂簇直到满足一定条件。DBSCAN(Density-BasedSpatialClusteringofApplicationswithNoise):基于密度的聚类方法,能够识别任意形状的簇并且能有效处理噪声点。表7-1常见聚类算法对比算法名称特点优点缺点K-means简单易实现,适用于球形簇计算效率高对初始中心敏感,只能找到凸形簇层次聚类不需要预先指定簇的数量,能够生成树状结构结果直观易理解计算复杂度较高DBSCAN基于密度,能够发现任意形状的簇,抗噪性强无需事先知道簇的数量对参数设置敏感,处理高维数据困难7.2关联规则学习关联规则学习主要用于发现数据集中项之间的有趣关系,即如果某事件发生,则另一事件也很可能发生。这种技术最初是在市场篮子分析中提出的,用来揭示顾客购买行为中的潜在模式。Apriori算法:经典的关联规则挖掘算法,通过频繁项集生成候选集,再验证这些候选集的支持度来发现频繁项集。FP-growth算法:一种改进的关联规则挖掘算法,通过构建FP树来压缩原始事务数据库,从而提高挖掘效率。7.3异常检测异常检测是指识别那些显著不同于大多数数据点的观察值,这些异常点可能是由于数据录入错误、欺诈行为或其他罕见事件引起的。异常检测在网络安全、信用评分、故障诊断等领域有着广泛应用。基于统计的方法:如Z-score标准化、箱形图等,通过计算数据点与平均值的偏差来判定是否为异常。基于距离的方法:如K近邻法,通过计算一个点与其他点的距离来决定其是否属于异常。基于聚类的方法:将数据点聚类后,不属于任何簇或远离簇中心的点被视为异常。7.4推荐系统设计推荐系统是一种信息过滤系统,它尝试预测用户可能感兴趣的信息,并将这些信息主动推荐给用户。推荐系统主要分为基于内容的推荐、协同过滤推荐以及混合推荐三种类型。基于内容的推荐:根据用户的过往喜好以及项目的内容特征来推荐相似的项目。协同过滤推荐:通过分析用户的行为模式(如评分、购买历史)来发现用户间的相似性,从而为用户推荐其他相似用户喜欢过的项目。混合推荐:结合了多种推荐技术的优点,以提高推荐的准确性和覆盖率。第八章文本分析与自然语言处理8.1文本预处理步骤文本预处理是自然语言处理(NLP)的第一步,它包括了去除无关信息、标准化文本格式等一系列操作,以确保后续分析的有效性。分词:将连续的文本切分成有意义的词汇单元。停用词去除:删除常见的无意义词汇,如“的”、“是”等。词干提取/词形还原:将词语还原为其基本形式,如将“running”还原为“run”。8.2词频-逆文档频率(TF-IDF)计算TF-IDF是一种用于信息检索和文本挖掘的重要权重计算方法。它反映了某个词对于一篇文档的重要性,同时也考虑了这个词在整个文档集中的普遍性。词频(TermFrequency,TF):一个词在文档中出现的次数。逆文档频率(InverseDocumentFrequency,IDF):衡量一个词在文档集中的普遍性,IDF=log(文档总数/包含该词的文档数)。8.3情感分析情感分析旨在识别和提取文本中的主观信息,特别是作者的态度、情绪或意见。它可以通过监督学习方法(如支持向量机)或非监督学习方法(如基于词典的方法)来实现。基于词典的方法:利用预先构建的情感词典来标注文本的情感倾向。基于机器学习的方法:通过训练有标记的数据集来构建模型,然后用该模型预测新文本的情感类别。8.4话题建模话题建模是一种统计模型,用于发现文档集合中的潜在话题结构。最常见的方法之一是LDA(LatentDirichletAllocation)。LDA模型:假定每篇文档都是由多个话题以不同比例混合而成的,每个话题又由一系列词语按照一定的概率分布构成。第九章图像识别与计算机视觉9.1图像处理基础图像处理是对图像进行各种操作以改善其质量或提取有用信息的过程。基本的图像处理技术包括灰度化、二值化、边缘检测等。灰度化:将彩色图像转换为灰度图像,简化颜色信息。二值化:将图像转换为只有黑白两种颜色的图像,便于后续处理。边缘检测:识别图像中物体边界的关键步骤,常用算法有Sobel、Canny等。9.2特征提取方法特征提取是从图像中抽取能够代表图像本质特性的数据的过程。这些特征可以是局部的(如角点、纹理)也可以是全局的(如形状描述符)。SIFT(Scale-InvariantFeatureTransform):尺度不变特征变换,用于检测图像中的关键点,并生成描述符。HOG(HistogramofOrientedGradients):方向梯度直方图,通过计算图像局部区域的梯度方向分布来描述图像特征。LBP(LocalBinaryPattern):局部二值模式,通过比较中心像素与周围像素的亮度关系来生成纹理描述符。9.3卷积神经网络(CNN)简介卷积神经网络是一种深度学习模型,特别适合于处理具有网格结构的数据,如图像。CNN通过局部感知、权值共享以及池化等机制大大减少了模型参数量,提高了训练效率。卷积层:通过滑动窗口机制对输入图像进行特征提取。激活函数:引入非线性元素,增加模型表达能力。池化层:对特征图进行下采样,减少计算量并保留重要信息。全连接层:在CNN的最后几层,通常会添加全连接层来进行最终分类或回归任务。第十章时间序列分析10.1时间序列数据特性时间序列数据是指按时间顺序排列的一系列观测值,这些数据通常用于预测未来的趋势或行为。时间序列数据具备几个关键特性,包括趋势、季节性、周期性和随机波动。趋势(Trend):数据随时间长期增加或减少的模式。季节性(Seasonality):数据在一年内固定时间段内重复出现的模式。周期性(Cyclicality):数据在较长时期内表现出的波动模式,通常与经济周期有关。随机波动(IrregularVariations):无法预测的短期波动,通常被认为是噪声。表10-1时间序列数据特性示例特性描述示例趋势数据随时间长期增加或减少GDP年度增长率季节性数据在一年内固定时间段内重复出现旅游景点每月游客数量周期性数据在较长时期内表现出的波动模式房地产市场的繁荣与萧条随机波动无法预测的短期波动每日股票价格变动10.2平稳性检验平稳性是时间序列分析中的一个重要概念,一个时间序列如果其统计特性(如均值、方差)不随时间变化,则称该序列为平稳时间序列。检验时间序列是否平稳的方法包括ADF(AugmentedDickey-Fuller)检验和KPSS(Kwiatkowski-Phillips-Schmidt-Shin)检验。ADF检验:用于检验时间序列是否存在单位根,即是否存在非平稳性。KPSS检验:与ADF检验相反,它假设时间序列是平稳的,并检验这一假设是否成立。10.3ARIMA模型ARIMA(AutoRegressiveIntegratedMovingAverage)模型是时间序列分析中的一种常用模型,它可以处理非平稳的时间序列数据。ARIMA模型由三个部分组成:AR(自回归)、I(差分整合)、MA(移动平均)。AR(p)部分:利用过去的p个观测值来预测当前值。I(d)部分:对数据进行d阶差分以使其变得平稳。MA(q)部分:利用过去的q个残差值来修正预测值。10.4季节性和趋势成分分析在处理时间序列数据时,识别和分离季节性和趋势成分是非常重要的。这可以通过分解方法来实现,如STL(SeasonalandTrenddecompositionusingLoess)分解或X-11季节调整方法。STL分解:将时间序列分解为季节、趋势和残差三部分。X-11方法:一种更为复杂的季节调整方法,广泛应用于官方统计数据的季节调整。第十一章社交媒体数据分析11.1社交网络结构分析社交网络分析旨在理解个体之间以及群体之间的联系。在社交媒体平台上,这种联系可以通过好友关系、关注者关系等形式体现出来。社交网络结构分析的关键指标包括度中心性、介数中心性和紧密中心性等。度中心性(DegreeCentrality):衡量节点与其他节点直接相连的程度。介数中心性(BetweennessCentrality):衡量节点在其他节点之间最短路径上的重要性。紧密中心性(ClosenessCentrality):衡量节点到达网络中所有其他节点的平均最短路径长度。11.2用户行为模式挖掘通过分析用户在社交媒体上的行为模式,可以深入了解用户的兴趣偏好、活跃时段等信息。常用的技术包括聚类分析、关联规则学习以及时间序列分析等。聚类分析:根据用户行为特征将用户分成不同的群体。关联规则学习:发现用户行为之间的关联性,如用户点赞某类帖子后更有可能评论。时间序列分析:分析用户活动的时间模式,预测未来的活动高峰。11.3网络影响力测量网络影响力测量是评估个体或品牌在社交媒体上的影响力。常见的影响力测量指标包括粉丝数量、互动率(点赞、评论、分享等)以及内容传播范围等。粉丝数量:衡量一个账户的关注者基数。互动率:衡量内容与受众之间的互动强度。传播范围:衡量内容在社交媒体上的扩散程度。11.4舆情监控系统构建舆情监控系统可以帮助企业和政府机构实时跟踪公众对特定话题的态度和看法。构建舆情监控系统的关键步骤包括数据采集、情感分析以及可视化展示等。数据采集:从各大社交媒体平台收集相关的帖子和评论。情感分析:利用NLP技术对文本内容进行情感分类。可视化展示:通过图表等形式直观展示舆情动态。第十二章商业智能与决策支持12.1商业智能定义与发展商业智能(BusinessIntelligence,BI)是指通过数据分析来支持商业决策的一系列工具、技术和实践。BI的发展经历了从传统的报表生成到现代的数据可视化和自助式分析等多个阶段。报表生成:早期的BI系统主要用于

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论