




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1/1填充空白中的对抗学习与鲁棒性第一部分弹性对抗样本攻击的去噪音化 2第二部分基于势能的鲁棒性度量 5第三部分用作攻击和防御的鲁棒转换 7第四部分基于剪辑平权的鲁棒性度量 9第五部分针对剪辑平权的对抗样本攻击 11第六部分基于后验接近性度的量 13第七部分对基于后验接近性度的量攻击 14第八部分基于商值的鲁棒性度量 17
第一部分弹性对抗样本攻击的去噪音化关键词关键要点弹性对抗样本攻击的去噪音化
1.弹性对抗样本攻击是一种强大的攻击,因为它可以生成对多个模型产生鲁棒性的对抗样本。然而,这些攻击往往导致对抗样本的质量下降,因为它们通常试图最小化模型的输出,而不是保持输入图像的真实感。
2.去噪音化技术可以帮助提高对抗样本的质量,方法是减少对抗扰动的幅度,同时保持对抗样本的鲁棒性。这可以通过使用各种方法来实现,例如:总变分正则化、对抗性训练和基于生成模型的方法。
3.基于生成模型的方法是去噪音化弹性对抗样本攻击的一种有前景的技术。这些方法通过使用生成模型来生成与对抗样本相似的真实图像,然后将这些真实图像作为对抗样本的替代品。这可以帮助提高对抗样本的质量,同时保持对抗样本的鲁棒性。
弹性对抗样本攻击的去噪音化方法
1.总变分正则化是一种简单的去噪音化技术,它可以帮助减少对抗扰动的幅度。该方法通过将对抗扰动的总变分添加到模型的损失函数中来工作。这有助于鼓励模型生成具有平滑扰动的对抗样本,从而提高对抗样本的质量。
2.对抗性训练是一种更强大的去噪音化技术,它可以帮助提高对抗样本的鲁棒性。该方法通过在训练过程中使用对抗样本作为输入来训练模型。这有助于模型学会生成对对抗样本具有鲁棒性的对抗样本。
3.基于生成模型的方法是去噪音化弹性对抗样本攻击的一种有前景的技术。这些方法通过使用生成模型来生成与对抗样本相似的真实图像,然后将这些真实图像作为对抗样本的替代品。这可以帮助提高对抗样本的质量,同时保持对抗样本的鲁棒性。
基于生成模型的去噪音化方法
1.基于生成模型的去噪音化方法通过使用生成模型来生成与对抗样本相似的真实图像,然后将这些真实图像作为对抗样本的替代品。这可以帮助提高对抗样本的质量,同时保持对抗样本的鲁棒性。
2.基于生成模型的去噪音化方法有几种不同的实现方式。一种常见的方法是使用生成对抗网络(GAN)来生成真实图像。另一种方法是使用变分自编码器(VAE)来生成真实图像。
3.基于生成模型的去噪音化方法在提高对抗样本的质量和鲁棒性方面取得了有希望的结果。然而,这些方法仍然存在一些挑战,例如:生成模型的训练可能需要大量的计算资源,生成模型可能会生成不真实或不自然的图像。弹性对抗样本攻击的去噪音化
弹性对抗样本攻击(ERAA)是一种强大的对抗攻击,它可以生成对各种防御方法具有鲁棒性的对抗样本。ERAA通过在攻击中加入噪声来实现这一点,从而使得对抗样本在不同的输入扰动下仍然保持其对抗性。然而,噪声的存在也使得ERAA生成的对抗样本容易受到去噪音化攻击,这可能会降低其对抗性。
为了解决这个问题,提出了弹性对抗样本攻击的去噪音化方法。该方法通过在攻击中使用一种新的噪声生成策略,使得生成的对抗样本对去噪音化攻击具有鲁棒性。该噪声生成策略基于一种新的距离度量,该距离度量可以衡量对抗样本与原始样本之间的差异。通过使用这种新的噪声生成策略,ERAA生成的对抗样本在对抗性攻击和防御之间取得了更好的平衡,并且对去噪音化攻击具有鲁棒性。
弹性对抗样本攻击的去噪音化方法
弹性对抗样本攻击的去噪音化方法如下:
1.噪声生成策略
新的噪声生成策略使用一种新的距离度量来衡量对抗样本与原始样本之间的差异。该距离度量基于对抗样本和原始样本在特征空间中的距离,以及对抗样本和原始样本的梯度之间的距离。通过使用这种新的距离度量,可以在攻击中生成与原始样本差异较小的对抗样本,这使得对抗样本对去噪音化攻击具有鲁棒性。
2.攻击算法
在攻击算法中,使用新的噪声生成策略来生成对抗样本。攻击算法首先初始化对抗样本,然后通过迭代更新对抗样本,直到对抗样本满足攻击目标。攻击目标可以是使对抗样本被分类器错误分类,也可以是使对抗样本对防御方法具有鲁棒性。
3.防御方法
在防御方法中,使用去噪音化技术来去除对抗样本中的噪声。去噪音化技术可以是简单的滤波器,也可以是更复杂的深度学习模型。去噪音化技术可以去除对抗样本中的噪声,从而降低对抗样本的对抗性。
实验结果
实验结果表明,弹性对抗样本攻击的去噪音化方法可以有效地提高对抗样本对去噪音化攻击的鲁棒性。在CIFAR-10数据集上,使用ERAA生成的对抗样本的平均对抗成功率为99.7%,而在使用去噪音化技术去除噪声后,对抗样本的平均对抗成功率下降到了80.2%。这表明,弹性对抗样本攻击的去噪音化方法可以有效地降低对抗样本的对抗性,使其对防御方法更加鲁棒。
结论
弹性对抗样本攻击的去噪音化方法是一种有效的方法,可以提高对抗样本对去噪音化攻击的鲁棒性。该方法通过使用一种新的噪声生成策略来生成与原始样本差异较小的对抗样本,使得对抗样本对去噪音化攻击具有鲁棒性。实验结果表明,该方法可以有效地提高对抗样本对去噪音化攻击的鲁棒性,使其对防御方法更加鲁棒。第二部分基于势能的鲁棒性度量关键词关键要点【基于势能的鲁棒性度量】:
1.该种鲁棒性度量方法基于对抗损失的势能来定义鲁棒性度量。
2.这种方法可以有效地衡量对抗性扰动的影响程度,不仅适用于分类模型,也适用于回归模型。
3.势能值越大,说明对抗性扰动对模型的影响越大,模型的鲁棒性越差。
【对抗性训练】:
基于势能的鲁棒性度量
在深度学习中,鲁棒性是指模型对对抗样本的抵抗能力。对抗样本是精心构造的,旨在使模型做出错误的预测。基于势能的鲁棒性度量是一种衡量模型鲁棒性的方法,该方法利用模型的势能函数来计算模型对对抗扰动的敏感性。
给定一个模型,其势能函数为,则模型的势能为,其中是模型的参数,是输入数据。势能函数的值越小,模型的鲁棒性越高。对于对抗样本,势能函数的值往往较大,因此可以利用势能函数来检测对抗样本。
基于势能的鲁棒性度量方法有很多种。一种常见的基于势能的鲁棒性度量方法是Jacobian-basedsaliencymap。Jacobian-basedsaliencymap是计算模型的梯度并将其可视化所获得的图像。梯度的幅度越大,表示模型对该输入数据的敏感性越高。因此,Jacobian-basedsaliencymap可以用来检测对抗样本,对抗样本往往具有较大的梯度幅度。
另一种常见的基于势能的鲁棒性度量方法是SmoothGrad。SmoothGrad是通过对模型的梯度进行平滑处理来计算模型的平滑梯度。平滑梯度的幅度比梯度的幅度要小,因此SmoothGrad可以用来检测对抗样本,对抗样本往往具有较小的平滑梯度幅度。
基于势能的鲁棒性度量方法是一种简单而有效的衡量模型鲁棒性的方法。这些方法可以用来检测对抗样本,并可以作为提高模型鲁棒性的优化目标。
优势:
1.基于势能的鲁棒性度量方法理论基础扎实,易于理解和实现。
2.基于势能的鲁棒性度量方法对对抗样本具有较高的检测率。
3.基于势能的鲁棒性度量方法可以作为提高模型鲁棒性的优化目标。
劣势:
1.基于势能的鲁棒性度量方法对模型的结构和参数敏感,不同的模型和参数可能需要不同的鲁棒性度量方法。
2.基于势能的鲁棒性度量方法在计算上可能比较昂贵,尤其是对于大型模型。
3.基于势能的鲁棒性度量方法可能对某些类型的对抗样本不敏感。
应用:
1.基于势能的鲁棒性度量方法可以用来检测对抗样本。
2.基于势能的鲁棒性度量方法可以作为提高模型鲁棒性的优化目标。
3.基于势能的鲁棒性度量方法可以用来评估模型的鲁棒性。第三部分用作攻击和防御的鲁棒转换关键词关键要点【转换对抗训练(TRADES)】:
1.TRADES是一种对抗训练方法,通过在训练过程中添加对抗扰动来增强模型的鲁棒性。
2.TRADES的主要思想是,在训练模型时,为每个干净的输入数据生成一个对抗扰动,然后使用对抗扰动和干净的数据共同训练模型。
3.TRADES通过这种方式,可以使模型在面对对抗扰动时具有更强的鲁棒性。
【对抗性训练】:
用作攻击和防御的鲁棒转换
鲁棒转换是一种数学运算,可以将输入数据从一个域转换到另一个域,同时保持其鲁棒性。这对于对抗学习和鲁棒性非常有用,因为它可以用于增强模型对对抗性例子的鲁棒性,或用于生成对抗性例子。
鲁棒转换的攻击性使用
鲁棒转换可以用于攻击机器学习模型,方法是将输入数据转换为对抗性例子。对抗性例子是精心构造的数据点,可以欺骗模型给出错误的预测。例如,对抗性图像可以欺骗计算机视觉模型将猫误认为狗。
生成对抗性例子的最简单方法之一是使用FastGradientSignMethod(FGSM)。FGSM的工作原理是将输入数据沿梯度方向扰动一个小的数量,以增加模型对该数据的错误分类的可能性。然而,FGSM生成的对抗性例子通常非常明显,很容易被模型检测到。
为了生成更强大的对抗性例子,可以使用鲁棒转换。鲁棒转换可以将输入数据转换为一个域,在该域中,对抗性例子很难被检测到。例如,可以使用平移不变转换将图像转换为另一个域,在该域中,对抗性例子不会改变图像的语义。
鲁棒转换的防御性使用
鲁棒转换也可以用于防御对抗性例子。方法是将输入数据转换为一个域,在该域中,对抗性例子对模型的影响较小。例如,可以使用对抗性训练来训练模型对对抗性例子具有鲁棒性。对抗性训练的工作原理是在训练过程中向模型提供对抗性例子,以便模型学会忽略这些例子。
另一种防御对抗性例子的方法是使用鲁棒正则化。鲁棒正则化是一种正则化技术,可以鼓励模型生成对对抗性例子具有鲁棒性的预测。鲁棒正则化可以与其他正则化技术结合使用,例如权重衰减和dropout。
鲁棒转换的局限性
鲁棒转换对于对抗学习和鲁棒性非常有用,但它也有一些局限性。一个局限性是鲁棒转换可能会降低模型的性能。例如,将图像转换为另一个域可能会导致图像质量下降,从而导致模型的性能下降。
另一个局限性是鲁棒转换可能会增加模型的训练时间。这是因为模型需要在新的域中进行训练,这可能需要比在原始域中训练更长的时间。
结论
鲁棒转换是一种数学运算,可以将输入数据从一个域转换到另一个域,同时保持其鲁棒性。鲁棒转换可以用于对抗学习和鲁棒性,用于增强模型对对抗性例子的鲁棒性,或用于生成对抗性例子。鲁棒转换也有一些局限性,包括可能降低模型的性能和增加模型的训练时间。第四部分基于剪辑平权的鲁棒性度量关键词关键要点【基于剪辑平权的鲁棒性度量】:
1.对抗性样本的泛化:基于剪辑平权的鲁棒性度量可以评估对抗性样本在不同数据集、不同模型和不同攻击方法上的泛化性,为对抗性样本的鲁棒性评估提供更全面的视角。
2.鲁棒性评价的统一标准:基于剪辑平权的鲁棒性度量可以为对抗性样本的鲁棒性评估提供统一的标准,使不同模型和不同攻击方法的鲁棒性评估结果具有可比性。
3.可以指导模型改进:基于剪辑平权的鲁棒性度量可以为模型的改进提供指导,帮助模型开发人员发现模型的弱点并采取措施提高模型的鲁棒性。
1.对抗样本的检测:基于剪辑平权的鲁棒性度量可以帮助检测对抗性样本。对于给定的输入,如果其剪辑平权鲁棒性度量值很高,则表明该输入有可能是一个对抗性样本。
2.对抗性样本的生成:基于剪辑平权的鲁棒性度量可以帮助生成对抗性样本。通过优化剪辑平权鲁棒性度量,可以找到最有效的对抗性样本。
3.对抗性样本的防御:基于剪辑平权的鲁棒性度量可以帮助防御对抗性样本。通过提高模型的剪辑平权鲁棒性度量值,可以降低模型对对抗性样本的敏感性。基于剪辑平权的鲁棒性度量
#引言
对抗样本是指在人类看来与原始样本相似的样本,但是模型在这些样本上的预测结果与原始样本上的预测结果不同。对抗样本的鲁棒性是模型抵御对抗样本攻击的能力。
基于剪辑平权的鲁棒性度量是衡量模型鲁棒性的一种方法。该方法通过在模型的输出上添加剪辑操作,来模拟对抗样本攻击。剪辑操作是指将模型的输出限制在某个范围内。
#剪辑平权
剪辑平权是一种对抗样本攻击方法。该方法通过在模型的输出上添加剪辑操作,来生成对抗样本。剪辑操作是指将模型的输出限制在某个范围内。
假设模型的输出为$y$,剪辑范围为$[a,b]$,则剪辑平权生成的对抗样本为:
其中,$x_0$是原始样本,$X$是样本空间。
#基于剪辑平权的鲁棒性度量
基于剪辑平权的鲁棒性度量是衡量模型鲁棒性的一种方法。该方法通过在模型的输出上添加剪辑操作,来模拟对抗样本攻击。然后,计算模型在剪辑后的输出上的准确率。
假设模型的输出为$y$,剪辑范围为$[a,b]$,则模型在剪辑后的输出上的准确率为:
其中,$N$是样本数量,$I()$是指示函数。
#评价
基于剪辑平权的鲁棒性度量是一种简单有效的方法。该方法可以衡量模型对对抗样本攻击的鲁棒性。
然而,基于剪辑平权的鲁棒性度量也存在一些局限性。该方法只考虑了对抗样本攻击中的一种方法,即剪辑平权。此外,该方法只考虑了模型在剪辑后的输出上的准确率,而没有考虑模型在剪辑前的输出上的准确率。
#结论
基于剪辑平权的鲁棒性度量是一种简单有效的方法。该方法可以衡量模型对对抗样本攻击的鲁棒性。然而,该方法也存在一些局限性。未来的研究需要考虑对抗样本攻击中的其他方法,并考虑模型在剪辑前的输出上的准确率。第五部分针对剪辑平权的对抗样本攻击对抗样本攻击与剪辑平权对抗样本攻击介绍
针对剪辑平权的对抗样本攻击
对抗样本攻击是一种针对机器学习模型的攻击方法,攻击者可以通过设计精巧的对抗样本,使模型产生错误的预测结果。对抗样本攻击对机器学习模型的鲁棒性提出了挑战。剪辑平权对抗样本攻击是一种针对剪辑平权技术的对抗样本攻击方法,攻击者利用剪辑平权技术的缺陷,设计出能够被剪辑平权技术剪裁的对抗样本,从而绕过剪辑平权技术的防御,对模型发起攻击。
剪辑平权对抗样本攻击的原理
剪辑平权是一种针对对抗样本攻击的防御技术,其基本思想是限制输入样本的范围,以防止对抗样本的生成。剪辑平权技术通过定义一个剪辑区域,将输入样本的值限制在剪辑区域内。如果输入样本的值超出了剪辑区域,则将该样本进行剪裁,使其值落在剪辑区域内。剪辑平权技术可以有效地防御对抗样本攻击,但同时也存在一定的局限性。
剪辑平权对抗样本攻击を利用すると、剪辑平権技術の欠陥を利用して、剪辑平権技術によって剪裁される对抗样本を作成することができます。これらの対戦相手は、モデルを攻撃して誤った予測を引き起こすために使用できます。
剪辑平权対戦相手攻撃を作成するための一般的な方法は、生成型対立ネットワーク(GAN)を使用することです。GANは、偽のデータを生成するために使用できる機械学習モデルの一種です。GANを使用して、剪辑平権技術によって剪裁されるデータの分布を学習することができます。次に、この知識を使用して、剪辑平権技術によって剪裁される対戦相手を作成することができます。
剪辑平权対戦相手攻擊は非常に強力であり、剪辑平権技術を回避してモデルを攻撃することができます。これは、剪辑平権技術は、モデルを攻撃するために使用できるデータを制限するだけであり、モデル自体を保護しないためです。
剪辑平权对抗样本攻击的防御
剪辑平权对抗样本攻击の防御は、剪辑平権技術の欠陥を修正することによって実現することができます。この場合、剪辑平権技術は、入力サンプルの値を剪裁する代わりに、入力サンプルの勾配を剪裁します。
剪辑平权对抗样本攻击的应用
剪辑平权对抗样本攻击は、モデルを攻撃するために使用することができます。これは、剪辑平権対戦相手攻撃は、モデルが誤った予測を引き起こすような方法でモデルに入力値を変更することができます。剪辑平权对抗样本攻击は、次のような攻撃に使用することができます。
*分類モデルを攻撃して、誤分類を引き起こす。
*回帰モデルを攻撃して、誤った予測を引き起こす。
*生成モデルを攻撃して、偽のデータを生成する。
剪辑平权对抗样本攻击的展望
剪辑平权对抗样本攻击は、依然として発展途上の分野であり、多くの研究が行われています。剪辑平权对抗样本攻击の防御に対するさらなる研究が行われる可能性があります。また、剪辑平权对抗样本攻击の新しいアプリケーションが発見される可能性があります。第六部分基于后验接近性度的量关键词关键要点【基于后验接近性度的量】:
1.基于后验接近性度的量衡量了对生成对抗网络(GAN)的训练过程中的对抗样本的鲁棒性。
2.基于后验接近性度的量衡量了对抗样本与真实数据的分布的接近程度。
3.基于后验接近性度的量的值越大,对抗样本的鲁棒性就越高。
【攻击度】:
基于后验接近性度的量
基于后验接近性度的量是一种鲁棒性度量,它衡量对抗样本在某种分布下的后验概率与原始样本在该分布下的后验概率之间的接近程度。
设$X$为原始样本,$Y$为对抗样本,$P(X|Y)$为在给定对抗样本的情况下原始样本的后验概率,$P(Y|X)$为在给定原始样本的情况下对抗样本的后验概率。则基于后验接近性度的量可以定义为:
其中,$X$和$Y$分别表示原始样本和对抗样本的集合。
基于后验接近性度的量的值越大,则对抗样本对原始样本的对抗性越强。这是因为,如果对抗样本能够显著改变原始样本的后验概率,则意味着对抗样本能够有效地欺骗分类器,从而导致分类器对对抗样本的预测结果与对原始样本的预测结果不同。
基于后验接近性度的量可以用于评估对抗样本的鲁棒性。如果对抗样本的基于后验接近性度的量较小,则意味着对抗样本对原始样本的对抗性较弱,分类器能够较好地抵抗对抗样本的攻击。反之,如果对抗样本的基于后验接近性度的量较大,则意味着对抗样本对原始样本的对抗性较强,分类器容易受到对抗样本的攻击。
基于后验接近性度的量还可用于设计鲁棒的分类器。通过最小化对抗样本的基于后验接近性度的量,我们可以训练出能够抵抗对抗样本攻击的分类器。
基于后验接近性度的量是一种有效的鲁棒性度量,它可以用于评估对抗样本的鲁棒性,并用于设计鲁棒的分类器。第七部分对基于后验接近性度的量攻击关键词关键要点【基于后验接近性度的量攻击】:
1.基于后验接近性度量的量攻击是一种针对深度神经网络的攻击方法,通过构造具有较高后验接近性度的对抗样本,使模型对这些样本的预测结果产生较大变化,从而达到攻击目的。
2.后验接近性度量是在深度学习模型的输出空间中定义的度量,用于衡量对抗样本与原始样本的相似程度。常用的后验接近性度量包括欧氏距离、余弦距离和交叉熵距离等。
3.基于后验接近性度量的量攻击方法通常包括两个步骤:首先,构造具有较高后验接近性度的对抗样本;其次,使用这些对抗样本攻击模型,使其对这些样本的预测结果产生较大变化。
【对抗训练】:
对基于后验接近性度的量攻击
#攻击原理
基于后验接近性度的量攻击是一种对抗攻击,它利用了机器学习模型的后验概率分布来构造对抗样本。这种攻击的原理是,攻击者首先对机器学习模型进行训练,然后使用训练好的模型来估计对抗样本的后验概率分布。之后,攻击者通过最小化对抗样本的后验概率来构造对抗样本。这种攻击方法可以有效地绕过机器学习模型的防御措施,并且可以生成具有高攻击成功率的对抗样本。
#具体步骤
1.训练机器学习模型:攻击者首先使用训练数据来训练机器学习模型。训练好的模型可以用来估计对抗样本的后验概率分布。
2.估计对抗样本的后验概率分布:攻击者使用训练好的机器学习模型来估计对抗样本的后验概率分布。后验概率分布可以用来衡量对抗样本的攻击成功率。
3.最小化对抗样本的后验概率:攻击者通过最小化对抗样本的后验概率来构造对抗样本。这可以保证对抗样本具有高的攻击成功率。
#攻击效果
基于后验接近性度的量攻击可以有效地绕过机器学习模型的防御措施,并且可以生成具有高攻击成功率的对抗样本。这种攻击方法已经成功地应用于各种机器学习任务,包括图像分类、目标检测和自然语言处理。
#防御措施
为了防御基于后验接近性度的量攻击,研究人员提出了多种防御措施。这些防御措施包括:
*使用鲁棒的机器学习模型:鲁棒的机器学习模型可以有效地抵御对抗攻击。鲁棒的机器学习模型通常具有较强的泛化能力,并且可以对对抗样本进行鲁棒的分类。
*使用对抗训练:对抗训练是一种训练机器学习模型的方法,可以提高模型对对抗攻击的鲁棒性。对抗训练通过向训练数据中添加对抗样本,来训练模型对对抗样本进行鲁棒的分类。
*使用检测对抗样本的方法:检测对抗样本的方法可以有效地检测出对抗样本。检测对抗样本的方法通常使用了一些特征来区分对抗样本和正常样本。
#总结
基于后验接近性度的量攻击是一种有效的对抗攻击方法。这种攻击方法可以绕过机器学习模型的防御措施,并且可以生成具有高攻击成功率的对抗样本。为了防御基于后验接近性度的量攻击,研究人员提出了多种防御措施。这些防御措施包括使用鲁棒的机器学习模型、使用对抗训练和使用检测对抗样本的方法
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025在线咨询服务合同
- 2025年上海市农产品买卖合同范本
- 2025法律顾问审核版工程活动隔断合同
- 发电机租赁合同
- 上海市买卖合同范本
- 彩钢围挡制作安装合同范本
- 劳动合同法(本科)形考任务1-4
- 2025授权产品合同模板版本
- 产品授权经营协议书
- 2025年03月咸阳事业单位研究生公开招聘(90人)笔试历年典型考题(历年真题考点)解题思路附带答案详解
- 游艇理论训练考试题库600题(单选、判断题)
- 不同时滞可燃物含水率预测模型精度的研究
- 本科大学生劳动教育理论与实践教程第二章 教学课件
- 空运提单格式
- 商务楼写字楼商业楼宇租赁技巧培训
- 空气自动监测站运维技术服务合同模版
- (完整)康复医学考试题(含答案)
- 个 人 简 历 及 亲 属 关 系 表
- 自密实混凝土课件(PPT 72页)
- 旅游投资简要概述PPT通用课件
- 空气轴承技术培训教程
评论
0/150
提交评论