




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
数据预处理1数据合并目录数据清洗2数据变换3常用Python数据预处理函数4小结5在数据分析中,海量的原始数据中存在着大量不完整(有缺失值)、不一致、有异常的数据,严重影响到数据分析建模时的执行效率,甚至可能导致分析结果的偏差,所以进行数据清洗就显得尤为重要。数据清洗完成后接着进行或者同时进行数据合并、变换等一系列的处理,该过程就是数据预处理。数据预处理一方面是要提高数据的质量,另一方面是要让数据更好地适应特定的分析技术或工具。统计发现,在数据分析的过程中,数据预处理工作量占到了整个过程的60%。数据预处理重要性数据预处理的主要内容包括数据清洗、数据合并和数据变换。处理过程如下图所示。处理过程数据清洗主要是删除原始数据集中的无关数据、重复数据,平滑噪声数据,筛选掉与分析主题无关的数据,处理缺失值、异常值等。数据清洗概念数据的缺失主要包括记录的缺失和记录中某个字段信息的缺失,两者都会造成分析结果的不准确。缺失值处理有些信息暂时无法获取,或者获取信息的代价太大。有些信息是被遗漏的。可能是因为输入时认为不重要、忘记填写或对数据理解错误等一些人为因素而遗漏,也可能是由于数据采集设备的故障、存储介质的故障、传输媒体的故障等非人为原因而丢失。属性值不存在。在某些情况下,缺失值并不意味着数据有错误。对一些对象来说某些属性值是不存在的,如一个未婚者的配偶姓名、一个儿童的固定收入等。缺失值处理1.缺失值产生的原因数据分析建模将丢失大量的有用信息。数据分析模型所表现出的不确定性更加显著,模型中蕴涵的规律更难把握。包含空值的数据会使建模过程陷入混乱,导致不可靠的输出。缺失值处理2.缺失值的影响处理缺失值的方法可分为三类:删除记录、数据插补和不处理。其中常用的数据插补方法如下表所示。缺失值处理3.缺失值的处理方法插补可方法方法描述均值/中位数/众数插补根据属性值的类型,用该属性取值的平均数/中位数/众数进行插补使用固定值将缺失的属性值用一个常量替换。如广州一个工厂普通外来务工人员的“基本工资”属性的空缺值可以用2015年广州市普通外来务工人员工资标准1895元/月替代,该方法就是使用固定值最近临插补在记录中找到与缺失样本最接近的样本的该属性值插补回归方法对带有缺失值的变量,根据已有数据和与其有关的其他变量(因变量)的数据建立拟合模型来预测缺失的属性值插值法如果通过简单地删除小部分记录达到既定的目标,那么删除含有缺失值的记录这种方法是最有效的。然而,这种方法却有很大的局限性。它是以减少历史数据来换取数据的完备性,会造成资源的大量浪费,丢弃了大量隐藏在这些记录中的信息。尤其在数据集本来就包含很少记录的情况下,删除少量记录就可能会严重影响到分析结果的客观性和正确性。一些模型可以将缺失值视作一种特殊的取值,允许直接在含有缺失值的数据上进行建模。缺失值处理
缺失值处理
缺失值处理解出拉格朗日插值多项式
缺失值处理牛顿插值法在区间上,函数关于一个节点的零阶差商为。两个节点和的一阶差商如下。关于个节点的阶差如下。缺失值处理具体可以按照下表的格式有规律地计算差商。缺失值处理一阶差商二阶差商三阶差商四阶差商……
……………………………………根据差商的定义,牛顿插值多项式可以表示如下。牛顿插值多项式的余项公式如下。其中,,。对于区间
中的任意一点,则有。缺失值处理牛顿插值法也是多项式插值,但采用了另一种构造插值多项式的方法,与拉格朗日插值相比,具有承袭性和易于变动节点的特点。本质上来说,两者给出的结果是一样的(相同次数、相同系数的多项式),只不过表示的形式不同。因此,在Python的SciPy库中,只提供了拉格朗日插值法的函数(因为实现上比较容易),而如果需要牛顿插值法,则需要自行编写函数。。缺失值处理异常值是指样本中的个别值,其数值明显偏离其余的观测值。忽视异常值的存在是十分危险的,不加处理地把异常值包括进数据的计算分析过程中,对结果会带来不良影响。异常值处理异常值分析是检验数据是否有录入错误以及含有不合常理的数据。重视异常值的出现,分析其产生的原因,常常成为发现问题进而改进决策的契机。异常值也称为离群点,异常值的分析也称为离群点分析。异常值处理1.异常值分析简单统计量分析:可以先对变量做一个描述性统计,进而查看哪些数据是不合理的。最常用的统计量是最大值和最小值,用来判断这个变量的取值是否超出了合理的范围。如客户年龄的最大值为199岁,则该变量的取值存在异常。原则:如果数据服从正态分布,在原则下,异常值被定义为一组测定值中与平均值的偏差超过三倍标准差的值。在正态分布的假设下,出现距离平均值之外的值的概率为,属于极个别的小概率事件。异常值处理箱型图分析:箱型图识别异常值的一个标准,异常值通常被定义为小于或大于
的值。称为下四分位数,表示全部观察值中有四分之一的数据取值比它小;称为上四分位数,表示全部观察值中有四分之一的数据取值比它大;称为四分位数间距,是上四分位数与下四分位数之差,四分位数间距包含了全部观察值的一半。异常值处理在餐饮系统中的销量额数据可能出现缺失值和异常值,如下表所示。观察餐饮系统日销量额数据可以发现,其中有部分数据是缺失的。但是当数据集中记录数和属性数较多时,使用人工分辨缺失数据的方法就很不切合实际,所以这里需要编写程序来检测出含有缺失值的记录和属性以及缺失率个数和缺失率等。在Python的pandas库中,只需要读入数据,然后使用describe()方法即可查看数据的基本情况。异常值处理时间2015/2/102015/2/112015/2/122015/2/132015/2/14销量额(元)2742.83014.38653036.8
在数据预处理时,异常值是否剔除,需视具体情况而定,因为有些异常值可能蕴含着有用的信息。异常值处理常用方法如下表所示。异常值处理2.异常值的处理方法异常值处理方法方法描述删除含有异常值的记录直接将含有异常值的记录删除视为缺失值将异常值视为缺失值,利用缺失值处理的方法进行处理平均值修正可用前后两个观测值的平均值修正该异常值不处理直接在具有异常值的数据集上进行分析建模将含有异常值的记录直接删除这种方法简单易行,但缺点也很明显,在观测值很少的情况下,这种删除会造成样本量不足,可能会改变变量的原有分布,从而造成分析结果的不准确。视为缺失值处理的好处是可以利用现有变量的信息,对异常值(缺失值)进行填补。很多情况下,要先分析异常值出现的可能原因,再判断异常值是否应该舍弃,如果是正确的数据,可以直接在具有异常值的数据集上进行分析建模。异常值处理1数据合并目录数据清洗2数据变换3常用Python数据预处理函数4小结5多表合并时指通过堆叠合并、主键合并、重叠合并等多种合并的方式,将关联的数据信息合并在一张表中。多表合并堆叠就是简单地把两个表拼在一起,也被称作轴向连接、绑定或连接。依照连接轴的方向,数据堆叠可分为横向堆叠和纵向堆叠。多表合并1.堆叠合并数据横向堆叠横向堆叠,即将两个表在x轴向上拼接在一起,可以使用concat函数完成。concat函数的使用格式如下。pandas.concat(objs,axis=0,join='outer',join_axes=None,ignore_index=False,keys=None,levels=None,names=None,verify_integrity=False,copy=True)多表合并concat函数的常用参数及相关参数说明如下表所示。多表合并参数名称说明objs接收多个Series、DataFrame、Panel的组合。表示参与连接的pandas对象的列表的组合。无默认值axis接收0或1。表示连接的轴向,默认为0join接收inner或outer。表示其他轴向上的索引是按交集(inner)还是并集(outer)进行合并。默认为outerjoin_axes接收Index(索引)对象。表示用于其他n
1条轴的索引,不执行并集/交集运算ignore_index接收boolean。表示是否不保留连接轴上的索引,产生一组新索引range(total_length)。默认为Falsekeys接收sequence。表示与连接对象有关的值,用于形成连接轴向上的层次化索引。默认为Nonelevels接收包含多个sequence的list。表示在指定keys参数后,指定用作层次化索引各级别上的索引。默认为Nonenames接收list。表示在设置了keys和levels参数后,用于创建分层级别的名称。默认为Noneverify_integrity接收boolean。检查新连接的轴是否包含重复项。如果发现重复项,则引发异常。默认为False当axis=1的时候,concat函数进行行对齐,然后将不同列名称的两张或多张表合并。当两个表索引不完全一样时,可以使用join参数选择是内连接还是外连接。在内连接的情况下,仅仅返回索引重叠部分;在外连接的情况下,则显示索引的并集部分数据,不足的地方则使用空值填补,其原理示例如下图所示。当两张表完全一样时,不论join参数的取值是inner或者outer,结果都是将两个表完全按照x轴拼接起来。多表合并纵向堆叠对比横向堆叠,纵向堆叠是将两个表在y轴向上拼接。concat函数和append方法两者都可以实现纵向堆叠。多表合并使用concat函数时,在默认情况下,即axis=0时,concat进行列对齐,将不同行索引的两张或多张表纵向合并。在两张表的列名并不完全相同的情况下,可以使用join参数:取值为inner时,返回的仅仅是列名的交集所代表的列;取值为outer时,返回的是列名的并集所代表的列。纵向堆叠外连接示例如右图所示。不论join参数的取值是inner或者outer,结果都是将两个表完全按照y轴拼接起来。多表合并除了concat函数之外,append方法也可以用于纵向合并两张表。但是使用append方法实现纵向表堆叠有一个前提条件,那就是两张表的列名需要完全一致。append方法的使用格式如下。pandas.DataFrame.append(self,other,ignore_index=False,verify_integrity=False)多表合并append方法的常用参数及其说明如下表所示。多表合并参数名称说明other接收DataFrame或Series。表示要添加的新数据。无默认值ignore_index接收boolean。如果输入True,就会对新生成的DataFrame使用新的索引(自动产生),而忽略原来数据的索引。默认为Falseverify_integrity接收boolean。如果输入True,那么当ignore_index为False时,会检查添加的数据索引是否冲突,如果冲突,则会添加失败。默认为False主键合并,即通过一个或多个键将两个数据集的行连接起来,类似于SQL中的join。针对两张包含不同字段的表,将其根据某几个字段一一对应拼接起来,结果集的列数为两个原数据的列数和减去连接键的数量,如下图所示。多表合并2.主键合并数据主键合并,即通过一个或多个键将两个数据集的行连接起来,类似于SQL中的join。针对两张包含不同字段的表,将其根据某几个字段一一对应拼接起来,结果集的列数为两个原数据的列数和减去连接键的数量,如下图所示。多表合并pandas库中的merge函数和join方法都可以实现主键合并,但两者的实现方式并不相同。merge函数的使用格式如下。pandas.merge(left,right,how='inner',on=None,left_on=None,right_on=None,left_index=False,right_index=False,sort=False,suffixes=('_x','_y'),copy=True,indicator=False)多表合并和数据库的join一样,merge函数也有左连接(left)、右连接(right)、内连接(inner)和外连接(outer)。但比起数据库SQL语言中的join,merge函数还有其自身独到之处,例如,可以在合并过程中对数据集中的数据进行排序等。根据merge函数中的参数说明,并按照需求修改相关参数,即可以多种方法实现主键合并。merge函数的常用参数及其说明如下表所示。多表合并参数名称说明left接收DataFrame或Series。表示要添加的新数据1。无默认值right接收DataFrame或Series。表示要添加的新数据2。无默认值how接收inner、outer、left、right。表示数据的连接方式。默认为inneron接收string或sequence。表示两个数据合并的主键(必须一致)。默认为Noneleft_on接收string或sequence。表示left参数接收数据用于合并的主键。默认为Noneright_on接收string或sequence。表示right参数接收数据用于合并的主键。默认为Noneleft_index接收boolean。表示是否将left参数接收数据的index作为连接主键。默认为Falseright_index接收boolean。表示是否将right参数接收数据的index作为连接主键。默认为Falsesort接收boolean。表示是否根据连接键对合并后的数据进行排序。默认为Falsesuffixes接收tuple。表示用于追加到left和right参数接收数据列名相同时的后缀。默认为('_x','_y')除了使用merge函数以外,join方法也可以实现部分主键合并的功能。但是使用join方法时,两个主键的名字必须相同,其使用格式如下。pandas.DataFrame.join(self,other,on=None,how='left',lsuffix='',rsuffix='',sort=False)多表合并join方法的常用参数及其说明如下表所示。多表合并参数名称说明other接收DataFrame、Series或者包含了多个DataFrame的list。表示参与连接的其他DataFrame。无默认值on接收列名或者包含列名的list或tuple。表示用于连接的列名。默认为Nonehow接收特定string。取值为“inner”时代表内连接;取值为“outer”时代表外连接;取值为“left”时代表左连接;取值为“right”时代表右连接。默认为“inner”lsuffix接收sring。表示用于追加到左侧重叠列名的尾缀。无默认值rsuffix接收string。表示用于追加到右侧重叠列名的尾缀。无默认值sort接收boolean。根据连接键对合并后的数据进行排序,默认为False数据分析和处理过程中偶尔会出现两份数据的内容几乎一致的情况,但是某些特征在其中一张表上是完整的,而在另外一张表上的数据则是缺失的。这时除了使用将数据一对一比较,然后进行填充的方法外,还有一种方法就是重叠合并。重叠合并在其他工具或者语言中并不常见,但是pandas库的开发者希望pandas能够解决几乎所有的数据分析问题,因此提供了combine_first方法来进行重叠数据合并,其示例如下图所示。多表合并3.重叠合并数据combine_first方法的使用格式如下。pandas.DataFbine_first(other)combine_first方法的常用参数及其说明如下表所示。多表合并参数名称说明other接收DataFrame。表示参与重叠合并的另一个DataFrame。无默认值依据某个或者某几个字段对数据集进行分组,并对各组应用一个函数,无论是聚合还是转换,都是数据分析的常用操作。pandas提供了一个灵活高效的groupby方法,配合agg方法或apply方法,能够实现分组聚合的操作。分组聚合操作的原理下图所示。分组聚合groupby方法提供的是分组聚合步骤中的拆分功能,能够根据索引或者字段对数据进行分组。其常用参数与使用格式如下。DataFrame.groupby(by=None,axis=0,level=None,as_index=True,sort=True,group_keys=True,squeeze=False,**kwargs)分组聚合1.使用groupby方法拆分数据groupby方法的常用参数及其说明如下表所示。分组聚合参数名称说明by接收list、string、mapping或generator。用于确定进行分组的依据。如果传入的是一个函数,则对索引进行计算并分组;如果传入的是一个字典或者Series,则字典或者Series的值用来作为分组依据;如果传入一个NumPy数组,则数据的元素作为分组依据;如果传入的是字符串或者字符串列表,则使用这些字符串所代表的字段作为分组依据。无默认值axis接收int。表示操作的轴向,默认对列进行操作。默认为0level接收int或者索引名。代表标签所在级别。默认为Noneas_index接收boolean。表示聚合后的聚合标签是否以DataFrame索引形式输出。默认为Truesort接收boolean。表示是否对分组依据、分组标签进行排序。默认为Truegroup_keys接收boolean。表示是否显示分组标签的名称。默认为Truesqueeze接收boolean。表示是否在允许的情况下对返回数据进行降维。默认为FalseGroupBy对象常用的描述性统计方法及说明如下表所示。分组聚合方法名称说明方法名称说明count计算分组的数目,包括缺失值cumcount对每个分组中的组员进行标记,标号为0~n-1
,n为组员个数head返回每组的前n个值size返回每组的大小max返回每组最大值min返回每组最小值mean返回每组的均值std返回每组的标准差median返回每组的中位数sum返回每组的和agg和aggregate方法都支持对每个分组应用某函数,包括Python内置函数或自定义函数。同时,这两个方法也能够直接对DataFrame进行函数应用操作。但是有一点是值得注意的,agg函数能够DataFrame对象进行操作是从pandas0.20版本开始的,在之前的版本中,agg函数并无此功能。针对DataFrame的agg与aggregate的使用格式如下。DataFrame.agg(func,axis=0,*args,**kwargs)DataFrame.aggregate(func,axis=0,*args,**kwargs)分组聚合2.使用agg方法聚合数据agg和aggregate函数的常用参数及其说明如下表所示。分组聚合参数名称说明func接收list、dict、function。表示应用于每行或每列的函数。无默认值axis接收0或1。代表操作的轴向。默认为0apply方法类似于agg方法,能够将函数应用于每一列。不同之处在于,与agg方法相比,apply方法传入的函数只能够作用于整个DataFrame或者Series,而无法像agg一样能够对不同字段应用不同函数来获取不同结果。apply方法的常用参数与使用格式如下。DataFrame.apply(func,axis=0,broadcast=False,raw=False,reduce=None,args=(),**kwds)分组聚合3.使用apply方法聚合数据apply方法的常用参数及其说明如下表所示。分组聚合参数名称说明func接收functions。表示应用于每行或每列的函数。无默认值axis接收0或1。代表操作的轴向。默认为0broadcast接收boolean。表示是否进行广播。默认为Falseraw接收boolean。表示是否直接将ndarray对象传递给函数。默认为Falsereduce接收boolean或者None。表示返回值的格式。默认Nonetransform方法能够对整个DataFrame的所有元素进行操作。transform方法只有一个参数“func”,表示对DataFrame操作的函数。分组聚合4.使用transform方法聚合数据1数据合并目录数据清洗2数据变换3常用Python数据预处理函数4小结5简单函数变换是对原始数据进行某些数学函数变换,常用的包括平方、开方、取对数、差分运算等。函数变换简单的函数变换常用来将不具有正态分布的数据变换成具有正态分布的数据;在时间序列分析中,有时简单的对数变换或者差分运算就可以将非平稳序列转换成平稳序列。在数据分析中,简单的函数变换可能更有必要,如个人年收入的取值范围为10000元到10亿元,这是一个很大的区间,使用对数变换对其进行压缩是常用的一种变换处理。函数变换数据标准化(归一化)处理是数据分析的一项基础工作。不同评价指标往往具有不同的量纲,数值间的差别可能很大,不进行处理可能会影响到数据分析的结果。为了消除指标之间的量纲和取值范围差异的影响,需要对数据进行标准化处理,将数据按照比例进行缩放,使之落入一个特定的区域,便于进行综合分析。如将工资收入属性值映射到[-1,1]或者[0,1]内。数据标准化对于基于距离的分析算法尤为重要。数据标准化最小-最大标准化也称为离差标准化,是对原始数据的线性变换,将数值映射到[0,1]之间,公式如下。其中,为样本数据的最大值,为样本数据的最小值。为极差。离差标准化保留了原来数据中存在的关系,是消除量纲和数据取值范围影响的最简单的方法。这种处理方法的缺点是若数值集中某个数值很大,则规范化后各值会接近于0,并且将会相差不大。若将来遇到超过目前属性取值范围的时候,会引起系统出错,需要重新确定和。数据标准化1.最小-最大标准化零-均值标准化也叫标准差标准化,经过处理的数据的均值为0,标准差为1,零-均值标准化公式如下。其中为原始数据的均值,为原始数据的标准差,零-均值标准化是当前用得最多的数据标准化方法。数据标准化2.零-均值标准化通过移动属性值的小数位数,将属性值映射到[-1,1]之间,移动的小数位数取决于属性值绝对值的最大值。小数定标规划转化如下。数据标准化3.小数定标标准化一些数据分析算法,特别是某些分类算法如ID3算法、Apriori算法等,要求数据是分类属性形式。这样,常常需要将连续属性变换成分类属性,即连续属性离散化。连续属性离散化连续属性的离散化就是在数据的取值范围内设定若干个离散的划分点,将取值范围划分为一些离散化的区间,最后用不同的符号或整数值代表落在每个子区间中的数据值。所以,离散化涉及两个子任务:确定分类数以及如何将连续属性值映射到这些分类值。连续属性离散化1.离散化的过程等宽法等宽法将属性的值域分成具有相同宽度的区间,区间的个数由数据本身的特点决定或者由用户指定,类似于制作频率分布表。连续属性离散化2.常用的离散化方法等频法等频法将相同数量的记录放进每个区间。等宽法和等频法都比较简单,易于操作,但都需要人为地规定划分区间的个数。同时,等宽法的缺点在于它对离群点比较敏感,倾向于不均匀地把属性值分布到各个区间。有些区间包含许多数据,而另外一些区间的数据极少,这样会严重损坏建立的决策模型。等频法虽然避免了上述问题的产生,却可能将相同的数据值分到不同的区间以满足每个区间中固定的数据个数。连续属性离散化基于聚类分析的方法一维聚类的方法包括两个步骤,首先将连续属性的值用聚类算法(如K-Means算法)进行聚类。然后再将聚类得到的簇进行处理,合并到一个簇的连续属性值做同一标记。聚类分析的离散化方法也需要用户指定簇的个数,从而决定产生的区间数。连续属性离散化在数据分析的过程中,为了帮助提取更有用的信息,分析更深层次的模式,提高分析结果的精度,需要利用已有的属性集构造出新的属性,并加入其到现有的属性集合中。例如,进行商品库存的分析时,已有的属性包括商品类别、日期、销售数量、库存数量。商品的库存多,销售有了保证,但存货的积压风险也会所有增加。为了分析库存总量是否合理,可以构造一个新的指标——存销比,该过程就是属性构造。新构造的属性存销比通过下式计算。属性构造存销比可以揭示一个单位的销售额需要多少个单位的库存来支持。存销比过高意味着库存总量或者销售结构不合理,资金效率低;存销比过低意味着库存不足,生意难以最大化。存销比还是反应库存周转率的一个常用指标,越是畅销的商品,其存销比值越小,说明商品的周转率越高;越是滞销的商品,其存销比值就越大,说明库存周转率越低。属性构造1数据合并目录数据清洗2数据变换3常用Python数据预处理函数4小结5Python中的插值、数据归一化、主成分分析等与数据预处理相关的主要函数,如下表所示。预处理函数介绍函数名函数功能所属扩展库interpolate一维、高维数据插值SciPyunique去除数据中的重复元素,得到单值元素列表,它是对象的方法名pandas/NumPyisnull判断是否空值pandasnotnull判断是否非空值pandasPCA对指标变量矩阵进行主成分分析scikit-learnrandom生成随机矩阵NumPyinterpolate是SciPy的一个子库,其包含了大量的插值函数,如拉格朗日插值、样条插值、高维插值等。使用之前需要用fromerpolateimport*引入相应的插值函数,读者应该根据需要到官网查找对应的函数名。interpolate的使用格式如下。f=erpo
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 辽宁轨道交通职业学院《分子生物学4》2023-2024学年第二学期期末试卷
- 济南2025年山东济南市钢城区所属事业单位招聘初级综合类岗位26人笔试历年参考题库附带答案详解-1
- 绵阳飞行职业学院《消化系统疾病》2023-2024学年第二学期期末试卷
- 成都医学院《DesignofStructures》2023-2024学年第二学期期末试卷
- 青岛电影学院《作物育种学总论》2023-2024学年第二学期期末试卷
- 河源广东河源市消防救援支队2025年第一批政府专职消防员招聘86人笔试历年参考题库附带答案详解
- 动物炭黑、动物胶及其衍生物项目效益评估报告
- 沈阳工业大学《药用作物栽培学》2023-2024学年第二学期期末试卷
- 2025届高考语文补充背诵诗词:《青玉案·元夕》教学设计
- 南京视觉艺术职业学院《Java应用设计案例》2023-2024学年第二学期期末试卷
- 江苏省招标中心有限公司招聘笔试冲刺题2025
- 2024年防盗门销售合同范本
- 支付令申请书(2025版)
- 麻醉护士的 工作职责
- 2025年中考语文一轮复习:九年级下册知识点梳理
- 旅游健康与保健知识
- 亚朵酒店前台述职报告
- 《肝衰竭诊治指南(2024版)》解读
- 数据安全重要数据风险评估报告
- 孝悌课件教学课件
- 《期末总结》课件
评论
0/150
提交评论