




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
数据分析与应用算法手册第一章数据分析基础1.1数据概述数据是分析与应用算法的基础,它可以是数字、文本、图像、音频等多种形式。在数据分析过程中,数据的质量和完整性。1.2数据类型与结构2.1数据类型数值型数据:如身高、体重等。文本型数据:如姓名、地址等。时间序列数据:如股票价格、温度等。图像数据:如医学影像、卫星图像等。2.2数据结构关系型数据库:如SQL数据库,使用表格形式存储数据。非关系型数据库:如NoSQL数据库,支持多种数据结构,如键值对、文档、列族等。1.3数据预处理方法数据预处理是数据分析的第一步,主要目的是提高数据质量,为后续分析提供准确的数据基础。3.1数据清洗缺失值处理:删除或填充缺失值。异常值处理:识别并处理异常值。数据类型转换:将数据转换为合适的类型。3.2数据集成数据合并:将多个数据集合并为一个。数据整合:将多个数据集整合为统一格式。3.3数据变换数据标准化:将数据缩放到特定范围。数据归一化:将数据转换为相同的比例。1.4数据清洗与转换4.1数据清洗缺失值处理:删除或填充缺失值。异常值处理:识别并处理异常值。数据类型转换:将数据转换为合适的类型。4.2数据转换特征提取:从原始数据中提取有用的特征。特征选择:选择对分析结果影响较大的特征。特征编码:将非数值型特征转换为数值型特征。1.5数据可视化技术数据可视化是将数据以图形或图像的形式展示出来,有助于更好地理解数据背后的规律。5.1常见数据可视化方法折线图:展示数据随时间变化的趋势。柱状图:展示不同类别数据的对比。饼图:展示各部分占总体的比例。散点图:展示两个变量之间的关系。5.2可视化工具Python:使用Matplotlib、Seaborn等库进行数据可视化。R:使用ggplot2等库进行数据可视化。Tableau:一款专业的数据可视化工具。工具优点缺点Matplotlib语法简单,易于上手功能相对有限Seaborn丰富的可视化效果,易于定制需要一定的Python基础ggplot2灵活、强大的可视化能力语法复杂,学习曲线陡峭Tableau交互性强,易于使用价格较高第二章数据分析方法2.1描述性统计分析描述性统计分析是一种对数据的基本特征进行量化和描述的方法,包括集中趋势的度量(如均值、中位数、众数)、离散程度的度量(如标准差、方差、极差)以及分布形态的分析(如偏度、峰度)。2.1.1集中趋势度量均值:所有数据值的总和除以数据值的个数。中位数:将数据从小到大排序后位于中间位置的值。众数:数据集中出现次数最多的值。2.1.2离散程度度量标准差:衡量数据值与其均值之间的平均差异。方差:标准差的平方,衡量数据的波动程度。极差:数据集中最大值与最小值之差。2.1.3分布形态分析偏度:描述数据分布的对称性。峰度:描述数据分布的尖峭程度。2.2推断性统计分析推断性统计分析旨在从样本数据推断总体特征,包括参数估计和假设检验。2.2.1参数估计点估计:使用样本统计量作为总体参数的估计值。区间估计:给出总体参数的可能范围。2.2.2假设检验显著性检验:检验总体参数是否与某个假设相符。置信区间:基于样本数据构建的,用于估计总体参数的区间。2.3关联规则挖掘关联规则挖掘旨在发觉数据集中的项目之间的关联性,通常用于市场篮子分析、客户细分等。2.3.1支持度支持度:表示某个规则在数据集中出现的频率。2.3.2置信度置信度:表示规则成立的可能性。2.3.3协同过滤协同过滤:基于用户或物品之间的相似性来推荐。2.4分类算法分类算法用于将数据划分为不同的类别,常见算法包括:2.4.1决策树ID3:基于信息增益选择特征。C4.5:基于增益率选择特征。2.4.2支持向量机(SVM)线性SVM:寻找最佳的超平面来分隔数据。非线性SVM:使用核技巧处理非线性问题。2.4.3朴素贝叶斯应用贝叶斯定理:基于类别的先验概率和特征条件概率进行分类。2.5聚类算法聚类算法用于将数据点分组,使组内相似度高,组间相似度低。2.5.1Kmeans算法基于距离:通过迭代优化聚类中心。2.5.2密度聚类算法DBSCAN:基于密度的聚类方法。2.6回归分析回归分析用于预测因变量与一个或多个自变量之间的关系。2.6.1线性回归简单线性回归:一个因变量与一个自变量。多元线性回归:一个因变量与多个自变量。2.6.2逻辑回归用于分类问题:将因变量转换为概率。2.7时间序列分析时间序列分析是分析数据随时间变化的规律和趋势。2.7.1自回归模型(AR)AR(p):当前值与过去p个值相关。2.7.2移动平均模型(MA)MA(q):当前值与过去q个观测值的移动平均。2.7.3自回归移动平均模型(ARMA)ARMA(p,q):结合自回归和移动平均模型。[表格示例]方法描述优点缺点均值所有数据值的总和除以数据值的个数易于计算,对极端值敏感无法反映数据的分布形态标准差衡量数据值与其均值之间的平均差异反映数据的波动程度对极端值敏感支持度表示某个规则在数据集中出现的频率简单易懂忽略了置信度决策树基于信息增益选择特征解释性强,易于可视化容易过拟合Kmeans算法基于距离简单易用可能陷入局部最优线性回归一个因变量与一个自变量解释性强对于非线性关系效果不佳ARMA模型结合自回归和移动平均模型能够处理平稳时间序列模型参数的估计比较复杂第三章数据挖掘技术3.1数据挖掘流程数据挖掘流程主要包括以下几个步骤:数据收集与预处理:收集相关数据,并对数据进行清洗、转换和集成等预处理操作。数据摸索:通过可视化、统计等方法对数据进行初步了解,发觉数据中存在的异常值和潜在规律。特征选择与工程:从原始数据中筛选出对模型预测有重要意义的特征,并进行特征工程。模型选择与训练:根据业务需求选择合适的模型,并进行训练。模型评估与优化:评估模型在测试集上的功能,并针对评估结果进行优化。结果解释与应用:对模型结果进行解释,并将其应用于实际业务中。3.2特征选择与工程特征选择是指从原始数据集中选择出对模型预测有重要意义的特征。特征工程则是对特征进行转换、归一化、缺失值处理等操作,以提升模型的功能。特征选择方法基于统计的方法:如卡方检验、互信息等。基于模型的方法:如Lasso回归、随机森林等。基于信息论的方法:如互信息、信息增益等。特征工程方法数据转换:如对数值型数据进行归一化、标准化等。缺失值处理:如删除缺失值、填充缺失值等。特征组合:如交叉特征、多项式特征等。3.3矩阵分解与降维矩阵分解是一种常用的降维技术,可以将高维数据分解为低维矩阵。常见的矩阵分解方法有奇异值分解(SVD)、主成分分析(PCA)、非负矩阵分解(NMF)等。矩阵分解方法奇异值分解(SVD):将矩阵分解为三个矩阵,分别表示为U、Σ和V。主成分分析(PCA):通过保留数据的主要信息,将高维数据降维。非负矩阵分解(NMF):将矩阵分解为两个非负矩阵,分别表示为W和H。降维方法线性降维:如PCA、LDA等。非线性降维:如tSNE、UMAP等。3.4高维数据分析高维数据分析是指处理具有高维特征的数据。在高维数据中,数据维度远远大于样本数量,导致数据稀疏,从而影响模型的功能。高维数据分析方法降维:如PCA、tSNE等。特征选择:如Lasso回归、随机森林等。聚类分析:如Kmeans、DBSCAN等。3.5文本挖掘与自然语言处理文本挖掘是指从非结构化文本数据中提取有价值信息的技术。自然语言处理(NLP)是文本挖掘的基础,主要包括词性标注、句法分析、语义分析等。文本挖掘方法词袋模型:将文本表示为单词的组合。TFIDF:计算词在文档中的权重。主题模型:如LDA,发觉文本中的潜在主题。自然语言处理方法词性标注:对文本中的单词进行词性分类。句法分析:分析文本的语法结构。语义分析:理解文本的语义含义。3.6图数据分析图数据分析是指处理由节点和边组成的数据。图数据分析在社交网络、推荐系统等领域具有广泛的应用。图数据分析方法图遍历:如DFS、BFS等。图聚类:如Kmeans、谱聚类等。路径搜索:如最短路径、最短回路等。方法名称描述DFS深度优先搜索BFS广度优先搜索KmeansK均值聚类谱聚类基于谱的聚类算法第四章数据仓库与数据湖4.1数据仓库架构数据仓库架构设计是构建高效、可靠的数据仓库的关键。一个典型的数据仓库架构通常包括以下几个层次:数据源层:包括原始数据来源,如关系型数据库、NoSQL数据库、日志文件等。数据集成层:负责数据的抽取、转换和加载(ETL),将数据源中的数据转换为适合数据仓库的结构。数据存储层:存储经过ETL处理后的数据,通常采用关系型数据库或列式数据库。数据访问层:提供数据查询和分析的接口,如OLAP工具、报表工具等。数据展现层:用于展示数据仓库中的数据,如仪表盘、图表等。4.2数据湖概念与技术数据湖是一个分布式存储系统,旨在存储大量异构数据,如结构化、半结构化和非结构化数据。数据湖的主要技术包括:分布式文件系统:如Hadoop的HDFS、AmazonS3等。NoSQL数据库:如HBase、Cassandra等。数据索引与搜索:如Elasticsearch、Solr等。数据治理:包括数据质量控制、元数据管理等。4.3数据仓库设计原则数据仓库设计应遵循以下原则:第三范式:保证数据的一致性和完整性。数据分层:将数据分为事实表和维度表,便于查询和分析。数据粒度:根据业务需求确定数据粒度,如日级、周级、月级等。数据一致性:保证数据仓库中的数据与原始数据源保持一致。4.4数据湖与数据仓库的区别与联系区别数据湖数据仓库数据类型面向所有数据类型,包括结构化、半结构化和非结构化数据主要面向结构化数据数据处理面向数据存储和查询,不提供复杂的ETL处理面向数据的ETL处理、存储和查询成本成本相对较低,适用于存储大量数据成本相对较高,适合存储和处理较少的数据应用场景大数据分析、机器学习等商业智能、报表分析等数据湖与数据仓库的联系在于两者都可以作为数据存储和处理的平台,但各自侧重点不同。4.5数据仓库与数据湖的实施步骤数据仓库与数据湖实施的基本步骤:需求分析:明确业务需求,确定数据仓库或数据湖的目标。数据源集成:选择合适的数据源,如关系型数据库、NoSQL数据库等。数据抽取与转换:根据业务需求进行数据的抽取、转换和加载。数据存储:选择合适的数据存储方案,如HDFS、关系型数据库等。数据索引与搜索:为数据提供索引和搜索功能,提高查询效率。数据展示与分析:提供数据查询、报表和可视化等功能。数据治理:建立数据质量控制和元数据管理机制。第五章数据质量管理5.1数据质量标准数据质量标准是衡量数据质量的重要依据,主要包括以下几个方面:准确性:数据是否真实、准确无误。完整性:数据是否包含所有必要的字段和记录。一致性:数据在不同系统、不同时间点是否保持一致。及时性:数据是否在需要时能够及时获取。可靠性:数据是否可以信赖,不会出现错误。安全性:数据是否受到保护,防止未经授权的访问。5.2数据质量度量方法数据质量度量方法主要包括以下几种:KPI(关键绩效指标):通过设定一系列的KPI来衡量数据质量。数据质量指数:通过计算数据质量指数来评估数据质量。数据质量评分:对数据质量进行评分,通常采用5分制或10分制。数据质量审计:对数据质量进行定期审计,保证数据质量符合标准。5.3数据质量评估流程数据质量评估流程主要包括以下步骤:确定评估目标:明确评估的目的和范围。收集数据:收集需要评估的数据。数据清洗:对数据进行清洗,去除错误和异常数据。数据分析:对清洗后的数据进行分析,识别数据质量问题。评估结果:根据评估结果提出改进措施。5.4数据质量问题处理数据质量问题处理主要包括以下几种方法:数据清洗:对存在问题的数据进行清洗,保证数据准确性。数据替换:将存在问题的数据替换为正确的数据。数据修复:对存在问题的数据进行修复,保证数据完整性。数据删除:删除不符合数据质量标准的数据。5.5数据质量管理工具与技术一些常用的数据质量管理工具与技术:工具/技术描述TalendOpenStudio一款数据集成平台,支持数据清洗、转换和加载等功能。InformaticaPowerCenter一款数据集成平台,提供数据质量管理、数据集成等功能。IBMInfoSphereInformationServer一款数据集成平台,支持数据质量管理、数据仓库等功能。SASDataQuality一款数据质量管理工具,提供数据清洗、数据匹配等功能。TrifactaWrangler一款数据准备工具,支持数据清洗、数据转换等功能。第六章数据安全与隐私保护6.1数据安全概述数据安全是指在数据生命周期中,保证数据不被未授权访问、篡改或泄露的一系列技术和管理措施。数据安全不仅关乎企业利益,更关乎国家安全和公民个人信息保护。6.2数据加密技术数据加密技术是保障数据安全的重要手段。主要包括对称加密、非对称加密和哈希加密等。对称加密对称加密使用相同的密钥进行加密和解密。其优点是效率高,但密钥分发和管理较为复杂。非对称加密非对称加密使用一对密钥进行加密和解密,分别是公钥和私钥。公钥可以公开,私钥必须保密。非对称加密主要用于数据传输过程中的密钥交换。哈希加密哈希加密通过对数据进行运算,固定长度的哈希值。其特点是单向性,即不能通过哈希值反推出原始数据。6.3数据脱敏与匿名化数据脱敏和匿名化是为了保护个人隐私而采取的数据处理技术。数据脱敏数据脱敏是指在保证数据可用性的同时对敏感信息进行隐藏或修改。常见的数据脱敏技术包括随机脱敏、偏移脱敏和加密脱敏等。数据匿名化数据匿名化是指将个人信息从数据中移除或不可逆地隐藏。主要技术有:kanonymity、ldiversity、tcloseness等。6.4数据安全风险评估数据安全风险评估是评估数据安全风险的重要步骤。主要包括以下内容:风险识别识别可能对数据安全构成威胁的因素,如技术漏洞、人为操作失误、外部攻击等。风险分析分析风险发生的可能性及其潜在影响,评估风险程度。风险评价根据风险分析和实际业务需求,制定风险应对策略。6.5数据隐私保护法规与政策个人信息保护法(PIPL)我国《个人信息保护法》于2021年11月1日起正式实施,旨在规范个人信息处理活动,保护个人信息权益。隐私合规指南欧盟出台了《通用数据保护条例》(GDPR),为数据隐私保护提供了全面的规范。美国加州消费者隐私法案(CCPA)美国加州消费者隐私法案规定,加州居民有权了解、访问、删除和控制自己的个人信息。法规名称领域主要内容个人信息保护法(PIPL)中国规范个人信息处理活动,保护个人信息权益通用数据保护条例(GDPR)欧盟保护欧盟居民的个人数据隐私美国加州消费者隐私法案(CCPA)美国保护加州居民的个人信息权益第七章数据分析应用案例7.1营销数据分析案例营销数据分析在帮助企业理解市场趋势、客户行为以及优化营销策略方面发挥着重要作用。一个营销数据分析的案例:分析阶段数据来源分析方法结果应用市场趋势分析销售数据、市场调研报告时间序列分析、相关性分析识别市场增长潜力,调整产品定位客户细分购买行为数据、人口统计学数据聚类分析、客户细分模型针对不同客户群体制定差异化营销策略营销效果评估广告投放数据、销售数据A/B测试、ROI分析评估营销活动效果,优化广告投放客户忠诚度分析客户服务数据、购买行为数据持续性分析、忠诚度指数识别高忠诚度客户,制定忠诚度奖励计划7.2金融市场数据分析案例金融市场数据分析对于预测市场趋势、评估投资风险和优化投资组合具有重要意义。一个金融市场数据分析的案例:分析阶段数据来源分析方法结果应用股票市场分析股票价格数据、交易量数据技术分析、基本面分析预测股票价格走势,指导投资决策风险管理股票价格波动数据、信用评级数据历史模拟、VaR分析评估投资组合风险,制定风险管理策略量化交易股票交易数据、市场新闻数据机器学习、时间序列分析实现自动化交易策略,提高投资效率市场情绪分析社交媒体数据、新闻数据文本分析、情绪分析评估市场情绪,预测市场波动7.3医疗健康数据分析案例医疗健康数据分析有助于提高医疗服务质量、优化资源配置和提升患者满意度。一个医疗健康数据分析的案例:分析阶段数据来源分析方法结果应用疾病预测医疗记录数据、基因组数据机器学习、聚类分析预测疾病风险,实现早期干预医疗资源分配医院运营数据、患者需求数据数据挖掘、优化算法优化医疗资源配置,提高服务效率患者满意度分析医疗服务评价数据、患者反馈数据情感分析、调查分析提升医疗服务质量,改善患者体验流行病监测疾病报告数据、健康监测数据时间序列分析、空间分析监测疾病流行趋势,控制疫情传播7.4社交网络数据分析案例社交网络数据分析可以帮助企业了解用户行为、优化产品功能和提高品牌知名度。一个社交网络数据分析的案例:分析阶段数据来源分析方法结果应用用户行为分析社交媒体数据、用户评论数据用户画像、行为分析了解用户需求,优化产品功能品牌影响力分析社交媒体数据、关键词分析影响力指数、网络分析评估品牌知名度,制定营销策略舆情监控新闻数据、社交媒体数据舆情监测、情感分析及时了解市场动态,应对负面舆论用户活跃度分析社交媒体数据、用户互动数据活跃度指数、网络分析优化平台运营,提高用户粘性7.5供应链数据分析案例供应链数据分析有助于提高供应链效率、降低成本和优化库存管理。一个供应链数据分析的案例:分析阶段数据来源分析方法结果应用库存管理销售数据、库存数据库存周转率、ABC分析优化库存结构,降低库存成本供应商管理采购数据、供应商绩效数据供应商评分、网络分析评估供应商绩效,优化供应链关系供应链优化物流数据、订单数据网络优化、运输模拟优化运输路线,降低运输成本需求预测销售数据、市场调研报告时间序列分析、回归分析预测市场需求,合理安排生产计划第八章数据分析工具与平台8.1数据分析软件概述数据分析软件是指用于数据收集、处理、分析和可视化的计算机程序。这些软件通常具有以下特点:数据处理能力:能够处理大量数据,进行清洗、转换和集成。分析功能:提供各种统计分析、预测建模和机器学习算法。可视化工具:将数据以图表、图形等形式直观展示。8.2SQL与NoSQL数据库8.2.1SQL数据库SQL(StructuredQueryLanguage)数据库是关系型数据库,以表格形式存储数据。其主要特点数据结构化:数据存储在二维表格中,便于查询和分析。SQL语言:提供丰富的数据查询、更新和管理功能。8.2.2NoSQL数据库NoSQL数据库是非关系型数据库,适用于处理非结构化、半结构化数据。其主要特点分布式存储:支持大规模数据存储和横向扩展。灵活的数据模型:支持多种数据结构,如键值对、文档、列族等。8.3数据分析平台比较几种常见的数据分析平台的比较:平台优点缺点Excel易于上手,数据处理和可视化功能丰富处理大型数据集的能力有限,安全性较差Tableau强大的数据可视化功能,支持多种数据源成本较高,需要专业培训PowerBI与MicrosoftOffice集成良好,易于扩展适用于Windows平台,跨平台支持有限QlikSense高度的灵活性和可定制性,支持多种数据源学习曲线较陡,操作复杂8.4开源数据分析工具开源数据分析工具具有以下特点:免费使用:无需付费即可使用。社区支持:拥有庞大的开发者社区,提供丰富的教程和解决方案。一些常见的开源数据分析工具:工具名称功能R统计分析和图形可视化Python数据处理、统计分析、机器学习Hadoop分布式数据处理框架Spark大数据处理框架Jupyter交互式计算环境8.5商业数据分析平台商业数据分析平台通常具备以下特点:强大的数据处理和分析能力:支持大规模数据集和复杂分析。专业的可视化工具:提供丰富的图表和报告模板。集成多种数据源:支持从各种数据源(如数据库、API等)导入数据。一些主流的商业数据分析平台:平台名称优点缺点SAS高度专业化的统计分析软件,功能强大成本较高,学习曲线较陡IBMCognos强大的数据集成和分析功能,易于扩展成本较高,需要专业培训OracleBI集成Oracle数据库,支持多种数据分析方法成本较高,跨平台支持有限MicrosoftSQLServerAnalysisServices(SSAS)与MicrosoftSQLServer集成良好,易于扩展成本较高,跨平台支持有限第九章数据分析团队建设与管理9.1数据分析团队角色与职责数据分析团队的角色与职责明确对于团队的高效运作。以下为常见的数据分析团队角色及其职责:角色名称职责描述数据分析师负责数据收集、清洗、处理和分析,为业务决策提供数据支持。数据工程师负责数据平台的搭建、维护和优化,保障数据分析工作的顺利进行。数据科学家负责研究新的数据分析方法和技术,提升数据分析的准确性和效率。数据可视化专家负责将数据分析结果以可视化形式呈现,帮助团队更好地理解数据。项目经理负责数据分析项目的整体规划、执行和监控,保证项目按时完成。9.2数据分析团队协作模式数据分析团队的协作模式对于提高团队效率和质量。以下为常见的数据分析团队协作模式:瀑布模型:按照需求分析、设计、开发、测试、部署等阶段进行协作。敏捷开发:采用迭代、增量的方式进行协作,快速响应业务需求变化。跨部门协作:与业务部门、技术部门等跨部门协作,共同推进数据分析工作。9.3数据分析项目管理数据分析项目管理是保证数据分析项目按时、按质完成的关键。以下为数据分析项目管理的主要内容:项目规划:明确项目目标、范围、时间表、资源分配等。风险管理:识别项目潜在风险,制定应对措施。进度监控:跟踪项目进度,保证项目按计划推进。质量保证:保证数据分析结果准确、可靠。9.4数据分析团队绩效评估数据分析团队的绩效评估对于激励团队成员、提升团队整体水平具有重要意义。以下为数据分析团队绩效评估的指标:项目完成率:衡量团队完成项目任务的能力。数据分析准确率:衡量数据分析结果的准确性。团队协作能力:衡量团队成员之间的沟通与协作水平。创新能力:衡量团队在数据分析方法和技术方面的创新能力。9.5数据分析团队人才培养与发展数据分析团队的人才培养与发展是团队可持续发展的关
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 导游证资格考试细节决定成败的解析试题及答案
- 房地产经纪资格考试关键考点试题及答案
- 演出经纪人资格证考生经验试题及答案
- 升级策略演出经纪人资格证试题与答案
- 演出经纪人资格证深度试题及答案
- 2024年演出经纪人试题回顾与答案
- 营养师科学研究试题及答案
- 2024年营养师考试全攻略试题及答案
- 演出经纪人资格证知识体系梳理
- 营养干预体系建设试题及答案
- 学习贯彻八项规定切实改进工作作风演示文稿
- 医院ICU消毒隔离制度
- 代维主管岗位职责
- 《相交线与平行线》复习课一等奖课件
- 电梯安装质量手册、程序文件、作业指导书及记录表符合特种设备许可规范TSG07-2019
- q gw2sjss.65金风风力发电机组防腐技术rna部分归档版
- 廉政建设监理实施细则
- 五章节食用菌栽培设施及原料基质
- 施工进度计划表横道图自动生成版(excel模板)
- GB/T 31586.2-2015防护涂料体系对钢结构的防腐蚀保护涂层附着力/内聚力(破坏强度)的评定和验收准则第2部分:划格试验和划叉试验
- GB/T 3078-2019优质结构钢冷拉钢材
评论
0/150
提交评论