




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
数据仓库与数据挖掘教程作业指导书TOC\o"1-2"\h\u13611第1章数据仓库基础 3229691.1数据仓库概念与架构 321901.1.1数据仓库的定义 318541.1.2数据仓库的架构 319401.2数据仓库设计与实施 3306151.2.1数据仓库设计 3250721.2.2数据仓库实施 429261.3数据仓库的维护与管理 4200401.3.1数据质量管理 474071.3.2数据安全管理 4112101.3.3数据仓库功能管理 434471.3.4数据仓库运维管理 4415第2章数据挖掘概述 5199132.1数据挖掘的定义与任务 5212062.2数据挖掘的过程与方法 573622.3数据挖掘的应用领域 612980第3章数据预处理 6227623.1数据清洗 693663.1.1缺失值处理 6254293.1.2异常值处理 6275873.1.3重复值处理 6180873.2数据集成 6212143.2.1数据集成方法 7110793.2.2数据集成策略 7286303.3数据变换 7107443.3.1格式转换 7206263.3.2属性构造 7226463.3.3属性消除 775853.4数据归一化与离散化 719973.4.1数据归一化 7275693.4.2数据离散化 710876第4章数据仓库与数据挖掘工具 7311464.1常见数据仓库工具 8185974.1.1ETL工具 8185784.1.2数据仓库数据库 8232624.1.3数据仓库管理工具 891334.2数据挖掘工具介绍 8267164.2.1商业数据挖掘工具 888144.2.2开源数据挖掘工具 9275274.3案例分析:使用工具进行数据挖掘 9151664.3.1数据准备 9225964.3.2数据摸索 9299834.3.3建立模型 9147094.3.4验证模型 9306404.3.5部署模型 918296第5章关联规则挖掘 9297355.1关联规则基本概念 9101635.2Apriori算法 10305185.3FPgrowth算法 10177735.4关联规则挖掘的应用 1029428第6章聚类分析 10303436.1聚类分析概述 1023766.2Kmeans算法 11293866.3层次聚类法 1188036.4密度聚类法 116892第7章分类与预测 12307927.1分类与预测概述 12134347.2决策树算法 12183067.3朴素贝叶斯算法 12108187.4支持向量机 125734第8章时间序列分析 1374238.1时间序列基本概念 13203788.2时间序列预处理 13118458.3时间序列预测方法 1345458.4时间序列分析应用案例 139第9章数据挖掘可视化 14259659.1数据可视化基本概念 14300129.1.1定义与目标 14214549.1.2分类 14256719.1.3设计原则 14275809.2数据可视化工具与技术 15129149.2.1常用工具 15286709.2.2关键技术 15183019.3数据可视化在数据挖掘中的应用 152689.3.1数据摸索 157469.3.2特征选择 15260119.3.3模型评估 15268399.3.4结果解释 15288429.4可视化案例分析 1610831第10章数据挖掘项目实施与评估 161457910.1数据挖掘项目实施流程 16345310.1.1项目需求分析 161354910.1.2数据准备 16721010.1.3数据挖掘算法选择 161016910.1.4模型构建与训练 162954310.1.5模型部署与维护 172834710.2数据挖掘项目评估指标 17956010.2.1准确性 173191210.2.2召回率 172622710.2.3F1值 173028610.2.4ROC曲线和AUC值 171887410.2.5交叉验证 171802510.3数据挖掘项目风险管理 171118810.3.1数据质量风险 172693610.3.2模型过拟合风险 171079810.3.3模型泛化能力风险 173013510.3.4项目实施过程中的管理风险 171409310.4数据挖掘项目案例分析与实践作业指导 182294910.4.1案例分析 18172610.4.2实践作业指导 18第1章数据仓库基础1.1数据仓库概念与架构1.1.1数据仓库的定义数据仓库是一种面向主题、集成、非易失和随时间变化的数据集合,用于支持管理决策。它将不同来源的数据进行整合,为决策制定者提供全面、一致和经过处理的企业级数据视图。1.1.2数据仓库的架构数据仓库的架构通常包括以下几个层次:(1)数据源:包括内部和外部数据,如企业内部业务系统、外部数据服务等。(2)数据抽取、转换和加载(ETL):对数据源进行抽取、清洗、转换和加载到数据仓库中。(3)数据存储:采用多维数据模型进行存储,如星型模式和雪花模式。(4)数据访问:为用户提供查询、分析和报告等数据访问功能。1.2数据仓库设计与实施1.2.1数据仓库设计(1)需求分析:了解企业业务需求,确定数据仓库的主题和范围。(2)数据模型设计:采用多维数据模型,设计星型模式或雪花模式。(3)数据集成:将不同数据源的数据进行整合,保证数据的一致性和完整性。(4)数据存储设计:根据数据模型和业务需求,选择合适的存储方案。1.2.2数据仓库实施(1)硬件和软件选型:根据数据仓库的规模和功能需求,选择合适的硬件和软件平台。(2)ETL过程实施:根据设计好的数据模型和业务规则,实现数据的抽取、转换和加载。(3)数据仓库部署:将设计好的数据仓库部署到生产环境。(4)功能优化:对数据仓库进行调优,保证其稳定性和高效性。1.3数据仓库的维护与管理1.3.1数据质量管理(1)数据质量评估:定期对数据仓库的数据质量进行评估。(2)数据清洗:发觉并修正数据中的错误和异常。(3)数据监控:对数据质量进行实时监控,保证数据的准确性。1.3.2数据安全管理(1)访问控制:对数据仓库的访问进行权限控制,保证数据安全。(2)数据加密:对敏感数据进行加密存储和传输。(3)审计与合规:对数据仓库的操作进行审计,保证符合相关法规要求。1.3.3数据仓库功能管理(1)功能监控:实时监控数据仓库的功能指标,如响应时间、并发访问数等。(2)功能优化:根据监控数据,调整数据仓库的配置和参数,提高功能。(3)数据备份与恢复:定期进行数据备份,保证数据安全,并在需要时进行数据恢复。1.3.4数据仓库运维管理(1)日常运维:负责数据仓库的日常监控、维护和故障处理。(2)变更管理:对数据仓库的变更进行管理,保证变更的可控性和可追溯性。(3)知识库管理:积累和共享数据仓库运维经验,提高运维效率。第2章数据挖掘概述2.1数据挖掘的定义与任务数据挖掘(DataMining)是指从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中,提取隐藏在其中的、人们事先不知道的、但又是潜在有用的信息和知识的过程。数据挖掘旨在发觉数据间的内在关系,挖掘出潜在的模式,为决策提供支持。数据挖掘的主要任务包括:(1)关联规则挖掘:找出数据中各项之间的关联性,如购物篮分析。(2)聚类分析:将数据划分为若干个类别,使得同一类别内的数据对象尽可能相似,不同类别间的数据对象尽可能不同。(3)分类与预测:根据已知数据集的特征,建立分类模型,对未知数据进行分类或预测。(4)异常检测:发觉数据集中的异常数据,如信用卡欺诈检测。(5)时间序列分析:分析数据随时间的变化趋势,预测未来的发展趋势。2.2数据挖掘的过程与方法数据挖掘的过程可以分为以下几个阶段:(1)数据准备:包括数据选择、数据清洗、数据预处理等,目的是提高数据质量,为后续挖掘分析提供可靠的数据基础。(2)数据挖掘:根据业务需求,选择合适的挖掘算法和方法进行挖掘分析。(3)结果评估:对挖掘结果进行评估,包括准确性、有效性等指标的检验。(4)知识表示:将挖掘出的知识以可视化的方式呈现给用户,便于用户理解和利用。常见的数据挖掘方法包括:(1)统计分析方法:利用统计学原理对数据进行汇总、分析,找出数据间的内在关系。(2)机器学习方法:通过构建学习算法,从数据中自动提取特征,形成模型,用于预测或分类。(3)模式识别方法:通过识别数据中的模式,发觉数据间的规律和联系。2.3数据挖掘的应用领域数据挖掘技术已广泛应用于各个领域,以下列举一些典型应用领域:(1)金融领域:信用评分、风险管理、欺诈检测等。(2)电子商务:推荐系统、客户细分、购物篮分析等。(3)医疗保健:疾病预测、药物发觉、医疗诊断等。(4)通信领域:客户流失预测、基站优化、网络优化等。(5)交通运输:交通流量预测、路径规划、拥堵缓解等。(6)教育:学绩预测、课程推荐、教育质量评估等。(7)农业:作物病害预测、土壤质量分析、农业资源优化配置等。通过数据挖掘技术,可以从海量数据中挖掘出有价值的信息,为各个领域的决策提供有力支持。第3章数据预处理3.1数据清洗数据清洗作为数据预处理阶段的关键步骤,其目的是消除原始数据集中的噪声和无关数据,提高数据质量,从而为后续数据挖掘任务提供准确、可靠的数据基础。3.1.1缺失值处理处理数据集中的缺失值,可采用删除缺失记录、填充缺失值等方法。填充缺失值可以采用均值、中位数、众数等统计量,或采用回归、决策树等预测模型。3.1.2异常值处理识别并处理数据集中的异常值。常用的异常值检测方法有基于统计学的方法、基于邻近度的方法以及基于聚类的方法等。对于检测到的异常值,可以采取删除、修正或标记等方式进行处理。3.1.3重复值处理检测并删除数据集中的重复记录,保证数据的唯一性。3.2数据集成数据集成是将多个数据源中的数据合并到一个统一的数据集的过程。数据集成的主要任务是将不同数据源中的数据整合在一起,形成一个一致、完整的数据视图。3.2.1数据集成方法数据集成方法包括:实体识别、数据合并和数据融合。实体识别是指识别不同数据源中描述同一实体的记录;数据合并是指将来自不同数据源的数据合并为一个数据集;数据融合是指在不同数据源的数据合并过程中,处理数据不一致性和冲突。3.2.2数据集成策略根据实际需求,选择适当的数据集成策略,如:全外连接、左连接、右连接等。3.3数据变换数据变换旨在将原始数据转换成适合数据挖掘的形式,包括对数据进行格式转换、属性构造、属性消除等操作。3.3.1格式转换将数据集中的日期、时间、货币等字段转换成统一的格式,以便于后续处理。3.3.2属性构造根据数据挖掘目标,构造新的属性,以提供更有价值的信息。例如,根据日期字段计算年龄、工作年限等。3.3.3属性消除删除与数据挖掘任务无关的属性,降低数据维度,减少计算量。3.4数据归一化与离散化数据归一化和离散化是数据预处理阶段的重要步骤,旨在消除不同属性之间的量纲差异,使数据挖掘算法能够更好地处理数据。3.4.1数据归一化对数据集中的数值型属性进行归一化处理,使属性值处于同一量级。常用的归一化方法有最小最大归一化和ZScore标准化。3.4.2数据离散化将连续型属性转换为离散型属性,有助于简化数据挖掘算法的计算过程。数据离散化方法包括等宽离散化、等频离散化以及基于熵的离散化等。第4章数据仓库与数据挖掘工具4.1常见数据仓库工具数据仓库是支持管理决策过程的、集成的、稳定的、随时间变化的数据集合。为了有效地管理和分析这些数据,我们需要使用一些专业的数据仓库工具。以下是一些常见的数据仓库工具:4.1.1ETL工具ETL(Extract,Transform,Load)是数据仓库建设过程中的关键环节。常见的ETL工具有:InformaticaPowerCenter:提供强大的数据集成能力,支持复杂的数据转换和业务规则。IBMInfoSphereDataStage:支持大规模数据处理,具有良好的扩展性和功能。OracleDataIntegrator:提供基于服务的架构,简化数据集成过程。4.1.2数据仓库数据库数据仓库数据库主要用于存储大量的历史数据,支持复杂查询。常见的数据库有:OracleExadata:高功能、可扩展的数据库系统,适用于大型数据仓库。MicrosoftSQLServer:提供丰富的数据仓库功能,如列存储索引、分区等。Teradata:基于并行处理技术,适用于大规模数据仓库。4.1.3数据仓库管理工具数据仓库管理工具用于监控、管理和优化数据仓库功能。常见的工具有:OracleEnterpriseManager:提供全面的数据库和中间件管理功能。MicrosoftSQLServerManagementStudio:提供数据库管理、开发、调试等功能。BMCSoftwarePATROLforDatabases:跨平台的数据库监控和管理工具。4.2数据挖掘工具介绍数据挖掘是从大量的数据中发觉潜在模式和知识的过程。以下是一些常用的数据挖掘工具:4.2.1商业数据挖掘工具IBMSPSSModeler:提供丰富的算法和模型,易于操作,适用于各种数据挖掘任务。SASEnterpriseMiner:集成多种数据挖掘算法,支持大数据分析。OracleDataMining:基于Oracle数据库,提供高效、易于使用的数据挖掘功能。4.2.2开源数据挖掘工具R:强大的统计分析工具,拥有丰富的数据挖掘包。Python:简洁易读的语法,适用于各种数据挖掘任务。Weka:集成了大量数据挖掘算法,适用于教学和科研。4.3案例分析:使用工具进行数据挖掘在本案例中,我们将使用某零售企业的销售数据进行分析,以发觉潜在的营销机会。4.3.1数据准备使用ETL工具(如InformaticaPowerCenter)将原始的销售数据从源系统抽取到数据仓库中。4.3.2数据摸索使用数据挖掘工具(如IBMSPSSModeler)对数据进行分析,包括数据清洗、数据可视化、统计描述等。4.3.3建立模型采用决策树算法,利用数据挖掘工具建立销售预测模型。4.3.4验证模型通过交叉验证等方法,评估模型的准确性和泛化能力。4.3.5部署模型将模型部署到生产环境中,为企业的营销决策提供支持。通过以上步骤,我们可以使用数据仓库与数据挖掘工具对企业数据进行深入分析,为企业创造价值。第5章关联规则挖掘5.1关联规则基本概念关联规则挖掘是数据挖掘领域中的一种重要方法,旨在从大规模数据集中发觉项目之间的有趣关系。关联规则可以揭示数据中不同项之间的频繁共现模式,为商业决策、市场分析等领域提供有力支持。本章首先介绍关联规则的基本概念,包括支持度、置信度、提升度等关键指标,并探讨如何利用这些指标评估关联规则的兴趣度。5.2Apriori算法Apriori算法是关联规则挖掘中最经典的算法之一,由Agrawal和Srikant于1994年提出。Apriori算法基于候选集和剪枝策略,通过多趟扫描数据库来挖掘频繁项集。本节详细阐述Apriori算法的原理、步骤以及优化策略,包括如何利用支持度阈值来减少候选集规模,从而降低计算复杂度。5.3FPgrowth算法FPgrowth算法是另一种有效的关联规则挖掘算法,由Han等人在1998年提出。与Apriori算法相比,FPgrowth算法避免了多次扫描数据库,通过构建一种称为频繁模式树(FPtree)的数据结构来压缩数据集,从而提高了挖掘效率。本节将介绍FPgrowth算法的原理、实现步骤以及如何利用FPtree进行频繁项集挖掘。5.4关联规则挖掘的应用关联规则挖掘在实际应用中具有广泛的价值。本节将通过多个案例介绍关联规则挖掘在零售业、金融业、医疗保健等领域的应用,包括商品推荐、欺诈检测、疾病预测等。这些案例展示了关联规则挖掘技术在现实场景中的重要作用,为相关行业提供了有益的决策支持。注意:本章内容旨在为读者提供关联规则挖掘的基础知识、核心算法及应用案例,末尾不包含总结性话语。希望读者在学习过程中能够掌握关联规则挖掘的关键技术,并能够将其应用于实际问题的解决。第6章聚类分析6.1聚类分析概述聚类分析是一种无监督学习方法,它将数据集中的样本根据其特征属性的相似性划分为若干个类别,使得同一类别内的样本相似度尽可能高,而不同类别间的样本相似度尽可能低。聚类分析在数据挖掘、模式识别、图像处理等领域有着广泛的应用。6.2Kmeans算法Kmeans算法是最常用的聚类分析方法之一。其主要思想是通过迭代的方式,将数据集中的样本划分到K个簇中,使得每个样本与其所属簇的均值之间的平方误差最小。算法步骤如下:(1)随机选择K个样本作为初始簇中心。(2)计算每个样本与各个簇中心的距离,将其划分到距离最近的簇中。(3)更新每个簇的中心,即计算每个簇内所有样本的均值。(4)重复步骤2和步骤3,直至满足停止条件(如簇中心变化小于设定阈值或达到最大迭代次数)。6.3层次聚类法层次聚类法是一种基于树形结构的聚类方法,其核心思想是通过逐步合并或分裂簇,形成嵌套的簇层次结构。层次聚类法主要包括以下两种方法:(1)自底向上(凝聚)层次聚类:从每个样本开始,逐步合并相近的簇,直至所有样本都属于同一个簇。(2)自顶向下(分裂)层次聚类:从包含所有样本的簇开始,逐步分裂为更小的簇,直至每个簇只包含一个样本。6.4密度聚类法密度聚类法是基于密度的聚类方法,其主要思想是:在数据集中寻找由高密度区域组成的簇,并通过密度连接不同的簇。DBSCAN(DensityBasedSpatialClusteringofApplicationswithNoise)是典型的密度聚类算法,其步骤如下:(1)计算每个样本的邻域密度,即邻域内的样本数量。(2)对于每个核心点(邻域密度大于等于MinPts的样本),寻找其密度可达的样本,形成簇。(3)对于边界点(邻域密度小于MinPts但存在于某个核心点的邻域内),将其划分到相应的簇。(4)噪声点(既不是核心点也不是边界点)不参与聚类。通过以上步骤,密度聚类法可以有效地识别出任意形状的簇,并处理噪声数据。第7章分类与预测7.1分类与预测概述分类与预测是数据挖掘中两项重要的任务,广泛应用于各个领域。分类的目的是根据已有数据集的特性将新数据划分到预定义的类别中,而预测则是对未来或未知数据进行估计。在本章中,我们将详细讨论分类与预测的基本概念、算法及其应用。7.2决策树算法决策树是一种自上而下、递归划分的方法,通过一系列规则对数据进行分类或预测。它以树状结构表示决策过程,每个内部节点表示一个特征或属性,每个分支代表一个判断,叶节点表示最终的分类或预测结果。决策树算法主要包括以下步骤:(1)选择最优的特征作为树的根节点;(2)根据特征的不同取值建立分支;(3)递归地对子集进行步骤1和步骤2,直至满足停止条件;(4)最终的决策树。7.3朴素贝叶斯算法朴素贝叶斯算法是基于贝叶斯定理和特征条件独立假设的分类方法。它假设各特征在给定类别的条件下相互独立,从而简化了计算过程。朴素贝叶斯算法具有以下特点:(1)模型简洁,易于理解和实现;(2)分类速度快,适用于大规模数据集;(3)对于特征条件独立的假设,使得算法在现实世界中的适用性受到一定限制。7.4支持向量机支持向量机(SupportVectorMachine,SVM)是一种二分类模型,其基本思想是在特征空间中寻找一个最优超平面,使得不同类别的数据点之间的间隔最大化。SVM具有以下优点:(1)可以有效避免过拟合问题;(2)具有较强的泛化能力;(3)适用于线性不可分的数据集,通过引入核函数,可以将其扩展到非线性分类问题。本章主要介绍了分类与预测的基本概念以及三种常见的分类算法:决策树、朴素贝叶斯和支持向量机。这些算法在实际应用中具有广泛的意义,为数据挖掘任务提供了有效的解决方案。第8章时间序列分析8.1时间序列基本概念时间序列分析是对一组按时间顺序排列的数据进行统计分析的方法。本章将介绍时间序列的基本概念,包括时间序列的定义、类型及其特性。阐述时间序列数据的特点,如趋势、季节性和随机性;探讨时间序列数据的收集与整理方法;介绍时间序列分析的基本任务,如预测、建模和假设检验。8.2时间序列预处理在进行时间序列分析之前,需要对原始时间序列数据进行预处理。本节将介绍时间序列预处理的主要步骤,包括:(1)数据清洗:处理缺失值、异常值等问题;(2)数据转换:对时间序列数据进行规范化、标准化处理;(3)时间序列平滑:消除随机波动,提取趋势和季节性成分;(4)时间序列分解:将时间序列分解为趋势、季节性和随机性成分。8.3时间序列预测方法时间序列预测是时间序列分析的核心任务之一。本节将介绍常见的时间序列预测方法,包括:(1)传统预测方法:如移动平均、指数平滑、自回归移动平均(ARMA)等;(2)机器学习预测方法:如支持向量机(SVM)、神经网络(NN)等;(3)深度学习预测方法:如长短时记忆网络(LSTM)、门控循环单元(GRU)等;(4)组合预测方法:结合多种预测方法的优点,提高预测准确性。8.4时间序列分析应用案例时间序列分析在众多领域具有广泛的应用。本节将通过以下案例展示时间序列分析的实际应用:(1)金融市场预测:利用时间序列分析预测股票、期货等金融产品的价格;(2)气象预测:通过时间序列分析预测气温、降水等气象要素;(3)销售预测:基于时间序列分析预测商品的销售量,为库存管理提供依据;(4)能源消耗预测:利用时间序列分析预测电力、燃气等能源需求,为能源管理提供决策支持。第9章数据挖掘可视化9.1数据可视化基本概念数据可视化是指将数据以图形或图像的形式展示出来,以便用户更直观地理解数据背后所隐藏的信息和规律。它是数据挖掘过程中的重要环节,有助于挖掘结果的表达与解释。本节将介绍数据可视化的基本概念,包括可视化的定义、目标、分类以及设计原则。9.1.1定义与目标数据可视化旨在将抽象的数据转化为直观的视觉表现形式,以便用户快速发觉数据中的模式、趋势和异常。其目标包括:提高数据分析效率、降低数据分析难度、发觉数据之间的关联性以及为决策提供支持。9.1.2分类数据可视化可分为以下几类:(1)科学可视化:用于表示科学和工程数据,如地理信息系统(GIS)、医学图像等。(2)信息可视化:用于表示抽象数据,如统计图表、关系图等。(3)视觉传达:关注如何通过视觉元素有效地传达信息,如平面设计、广告设计等。9.1.3设计原则数据可视化设计应遵循以下原则:(1)简洁性:尽量减少冗余信息,突出关键数据。(2)可读性:保证图形清晰、易读,避免视觉混乱。(3)一致性:保持图表风格和符号的一致性,便于用户快速识别。(4)交互性:提供适当的交互功能,方便用户摸索数据。9.2数据可视化工具与技术数据可视化工具和技术是数据挖掘过程中不可或缺的部分。本节将介绍一些常用的数据可视化工具和技术,以帮助读者更好地理解和应用数据可视化。9.2.1常用工具(1)商业软件:如Tableau、PowerBI、QlikView等。(2)开源软件:如R、Python的matplotlib、seaborn等库。(3)专用工具:如ECharts、Highcharts、D(3)js等。9.2.2关键技术(1)数据预处理:包括数据清洗、数据转换、数据降维等。(2)图形渲染:根据数据特点选择合适的图形类型,如柱状图、折线图、散点图等。(3)交互设计:提供丰富的交互功能,如缩放、旋转、筛选等,以便用户摸索数据。9.3数据可视化在数据挖掘中的应用数据可视化在数据挖掘过程中具有重要作用。本节将介绍数据可视化在数据挖掘各阶段的应用,以展示其在实际项目中的价值。9.3.1数据摸索在数据挖掘初期,通过可视化手段摸索数据有助于发觉数据分布、异常值、缺失值等,为后续建模提供依据。9.3.2特征选择通过可视化技
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 冷库批发转让合同范本
- 公司融资合同范本餐饮
- 债务融资顾问合同范本
- 共享酒店项目合同范本
- 科技引领下医疗产业升级的战略布局
- 科技助力绿色建筑电气节能技术创新
- 教材开发合同范本
- 物理学在商业策划中的创新应用
- 乐器培训老师合同范本
- 亲属无偿租赁合同范本
- 小儿急性中毒的处理与急救
- 涂装工技能鉴定考试题库汇总-下(多选、判断题部分)
- 非遗传统文化课件
- 桥梁施工常见问题及预防控制要点(PPT,46)
- 中俄文一般贸易合同范本
- 知情同意书核查要点课件
- 广东省深圳市2021-2022学年高二下学期期末考试 语文 Word版含解析
- 专项施工方案专家论证意见回复表
- 《医古文》教学全套课件580页
- 水电厂计算机监控系统改造技术要求
- 胜利油田压驱技术工艺研究进展及下步工作方向
评论
0/150
提交评论