版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、基于keras的深度学习介绍Keras录 CONTENTS深度学习的起源神经网络的原理深度学习的原理Keras介绍及基本语法Keras应用案例深度学习邮源Keras深度学习深度学习的起源DeepLearningKera深度学习的起源 五、六十年代,Rosenblatt输出层和一个隐含层。感知机(perceptron),拥有输入层、对稍复杂一些的函数都无能为力Layer LtLayer L2神经网络的层数直接决定了它对现史为劾而的为 _刹阻缶昌审小为神fB爵 八十年代,Rumelhart、Williams、Hinton、LeCun多层感知机(multilayer perceptron),即有多个
2、隐含层的感知机使用sigmoid或tanh等连续函竅模拟神经元对激励南响应,在训练算法上 则使Werbos发明的反向传播BP算法改名叫神经网络经元拟合更加复杂的函数随着神经网络层数的加深,优化函 这个“陷阱”越来越偏离真正的全 另一个不可忽略的问题是随着网络 重。具体来说,我们常常使用sigm 幅度为1的信号,在BP反向传播竊, 的0.25o层数一多,梯度指数衰减 号。Keras深度学习的起源 2006年,Hinton利用预训练方法缓解了局部最优解问题,将隐含层推动 到了7层,神经网络真正意义上有了 “深度”,由此揭开了深度学习的 热潮。这里的“深度”并没有固定的定义一一在语音识别中4层网络就
3、能 够被认为是“较深的”,而在图像识别中20层以上的网络屡见不鲜。为 了克服梯度消失,ReLU、maxout等传输函数代替了sigmoid,形成了如今 DNN的基本形式。单从结构上来说,全连接的DNN和图1的多层感知机是 没有任何区别的。高速公路网络(highwaynetwork)和深度残差学习(deepresidual learning)进一步避免了梯度消失,网络层数达到了前所未有的一百多层 (深度残差学习:152层)(KaimingHe, MSRA, 2015lmageNet计算机 识别挑战赛,系统错误率已经低至3.57%,人眼辨识的错误率大概为 5.1%)Keras何恺明,2015 Rs
4、Net输入饱和度背景虚化KerasTensorFl1 T Alpha Go以外妾卓手机新增自拍功能,就是通过应用深度学习训练出来的视觉模型,可以非常准确 地分离前景像素和后景像素,对前景像素和后景像素分别处理,这样的话就可以实现 背景虚化这样的功能。实现这种功能,传统上 ,手机厂商需要增加第 二个摄像头,这就会增 加手机的成本,同时对 现有用户已经获得的手 机就不太容易获得这样 的效果,KerasI谷歌翻译to to totoChinese EnglishEnglishEnglishPerfect translationSpanish French HumanNeural Phrase bas
5、ed (PBMT)Reduces ErrorsBy 55%85%Sutskever el al. NIPS. Dec 2014 Google Research Blog. Sept 2016 Wu et aL arXiv. Sept 2016Translation modelKeras其他京东内部搭建了 TensorFlow训练平台,用于开发图像、自然语言相关 的模型,并且把他们用到客服广告等领域。小米也在尝试类似的技术路线,支持他们生态线上各种特殊的应用。网易的有道笔记、网易译君也使用了 TensorFlow视觉和语言的模型。活跃的开源社区广泛参与81,000+GitHub SS23,000
6、+GftHvb forks快速迭代1,200+Contnbuiors21,000+Coownfts in 21 months活跃社群8,000+Stade Overflow questions iinswcreo100+C<xnmunify.MXxnittod GitHubissues responded to weeklyKeras我们正处在下一次技术爆炸的门口人类从直立行走到2003年的四百万年间,一共创造了 5EB的信息,而 到了 2010年,人类每两天就会创造5EB;再到了 2013年,人类每10分 钟就创造5EB;再到今天,人类每1分钟就创造5艾字节。谷歌董事长施密特World
7、 GDP Per Capita (1990$)6.000千年以来世界GDP变动6.000 4,0002.000200汨。600800100012001400160018002000神经网络基刷原理KerasKeras 梯度下降 反向传播算法 激活函数 Keras梯度下降-成本函数(Cost Function)我们想要根据房子的大小,预测房子的价格,给定如下数据集:Housing Prices(Portland, OR) 400300Price 200(in 1000s looof dollars) 0050010001500200025003000Size (feet2)m9J("l
8、)=矗力(标印)/)i=l100<75、-20 .20Keras梯度下降-0.2-0.3-0.4500500100015002000每个不同颜色的线代,表cost function不同的值。这三个点的cost function的值相同(function of the parameters们)M)(for fixed 仇),this is a function of x)007Size (feet2)o6000o5 4 3 2 2001 s S &d)0o-0.1-0.2-0.3-1000 -50005001000 1500 2000%陽0)(for fixed 所),this i
9、s a function of x)丿(Ml)Size (feet2)oooooooo o o o o o o o 7 6 5 4 3 2 1(SOOE s S E-Cd(function of the parameters。(),们)007M)(for fixed 所),this is a function of x)J (El)Size (feet2)o6000o5 4 3 2 10- s S &d)0o(function of the parameters。(),们)M)(for fixed 仇),this is a function of x)丿(4"i)Traini
10、ng data Current hypothesis 30004000Size (feet2)oooooooo o o o o o o o 7 6 5 4 3 2 1(S00E s S &d(function of the parameters。(),们)700M)(for fixed 所),this is a function of x)600o o o o o o o o o o o5 4 3 2 1 (S000I s S E-Ed(feizcs(function of the parameters。(),们)oooooooo o o o o o o o 7 6 5 4 3 2 1
11、(S00E s S E-Cd(function of the parameters。(),们)M)(for fixedthis is a function of x)Training dataCurrent hypothesis1000200030004000Size (feet2)丿(Ml)M)(for fixed 所),this is a function of x)(function of the parameters们)Training data Current hypothesis 1000200030004000Size (feet2)oooooooo o o o o o o o
12、7 6 5 4 3 2 1(S00E s S E-Cd007o6000o5 4 3 210- s S &d)0M)(for fixed 仇),this is a function of x)Training data Current hypothesis 1000200030004000Size (feet2)丿(Ml)(function of the parameters们)007o oM)(for fixedthis is a function of x)丿(Ml)Size (feet2)o60005 4 3 2 10- s S &d)()(function of the
13、parameters们)Keras梯度下降(1) 先确定向下一步的步伐大小,我们称为Learning rate;(2) 任意给定一个初始值:;(3) 确定一个向下的方向,并向下走预先规定的步伐,并更新;一终止条件(4) 当下降的高度小于某个定义的值,则停止下降;re四at until convergencqHJiniultciiicously updatedLearning rate决55大决定了“向 小tempo=缶-ntempi- a吳 J(0i)0Q := tempO 01 := tempi (1)初始点不同,获 得的最小值也不同, 因此梯度下降求得 的只是局部最小值; (2)越接近最小
14、值时, 下降速度越慢;求得该路径上的所有偏导数之乘积,然后将所有路径的“乘积” 累加起来才能得到的值。利用链式法则:dedededededededddadedadbdedbdddbKeras反向传播算法(BP)假设,你有这样一个网络层:第一层是输入层,包含两个神经元il, i2,和截距项bl;第二层是隐含层,包 含两个神经元hl,h2和截距项b2,第三层是输出ol,o2,每条线上标的wi是层与 层之间连接的权重,激活函数我们默认为sigmoid函数。其中,输入敬据i1=0.05, i2=0.10;输出敎据 o1=0.01,o2=0.99;初始权重 w1=0.15,w2=0.20,w3=0.25
15、,w4=0.30;w5=0.40,w6=0.45?w7=0.50,w8=0.88目标:给出箝入数据i1J2(0.05和0.10),使输出尽可能与原始詮b2出。1,。2(0.01 和 0.99)接近。4 sKeras反向传播算法(BP)Step 1前向传播2應含层输日层:1.输入层隐含层:计算输E层神经元。1和。23U值:计真禪经元hl的输入加权和:net况=u?5 * outm 十 w(i * outh2 十但 * 1net hi = u ! *" + w2 f + S,Inethi = 0.15 * 0.05 + 0.2 0.1 + 0.35 1 = 0.3775netoi = 0
16、.4 * 0.593269992 + 0.45 * 0.596884378 + 0.6 * 1 = 1.10590596*和=0.75136507禪经元hl的输出。1:(此处用到激活函数为sigmoid函数)outc2 = 0.772928465=0.593269992卮理,可计算出禪经元h2的输出02 :outh2 = 0.596884378这样前向传播的过程就结束了,我们得到输出值为0.75136079,0.772928465,与实 际值0.01 , 0.99相差还很远,现在我们对误差进行反向传播,更新权值,重新计算输 出。KerasI反向传播算法(BP)i .计算总误差总误差:(squa
17、re error)fH&.挪 姑 1-2 £低是有两个输出,所以分另时算。1和。2的渓差,总误差为两者之和:Eo = (targetoi 一 outni)2 = |(0.01 一 ().751365()7)2 = 0.274811083Eo2 = 0.023560026EM = Em + Eq2 = 0.274811083 + 0.023560026 = 0.298371109Keras反向传播算法(BP)2.隐含层输出层的权值更新: 以权重参数w5为例,如果我们 想知道w5对整体误差产生了多少影 响,可以用整体误差对w5求偏导求 出:(链式法则)outputh!output
18、 h2b2netEtotal = E°i * EqEo1 = %(targetol- outo1Eg = l(targetcl - ontci2 + (targetc2 - outo2)2瓷崙=2 * targtol - out *-1 + 0().711365()7濫辭=一况-回妇)=-(0.01 - 0.75136507)KerasI反向传播算法(BP)()W5Ofdoi=T+cncti =* out hl + Wb * out 2 + 奶 * 1计算Qout : dneta= 1 * m&L* s?T)+()I()=(mfh = ().593269992崙部=饱妇(1
19、一 outoX) = 0.75136507(1 一 0.75136507) = 0.186815602最后三者相乘: 0.74136507 * 0.186815602 * ().593269992 - 0.0821G7041谴=w5 - 7/ * 辎灣=0.4 - 0.5 * 0.082167041 = 0.35891648(其中,n是学习速率,这里我们取0.5)同理,可更新w6,w7,w8,以及更前面的w1-w4这样误差反向传播法就完成了,最后我们再把更新的权值重新计算,总误差E(total)由0.298371109下降至0.291027924。不停地迭代,迭代10000次后,总误差为0.0
20、00035085,输出为0.015912196,0.984065734(原输入为0.01,0.99),证明效果还是不错的Keras激活函数Sigmoid-6一21-1Sigmoid非线性函数 将输入映射到(。,1)之间。 它的数学公式为:历史上,sigmoid函 数曾非常常用,现在实际 很少使用了:1 函数饱和使梯度消失 sigmoid神经元在值为 0或1的时候接近饱和,这 些区域,梯度几乎为0。2. sigmoid函数不是关 于原点中心对称的这个特性会导致后面网 络层的输入也不是零中心的, 进而影响梯度下降的运作Kerastanhtanh函数同样存在饱和问题,但它的输出是 零中心的,因此实际
21、中tanh比sigmoid更 受欢迎。tatihx -sinhx 尸 一 excoshx + eianhxKerasReLu (校正线性单元:Rectified Linear Unit)界稀疏激活性(重点,可以看到红框里前端状态完全没有激活)2001年,神经科学家Dayan, Abott从生物学角度,模拟出了脑神经元接受信号更精确的单侧抑制相对宽阔的兴奋边激活模型,这个模型对比Sigmoid系主要变化有三点:9深度学璽原理Keras 主要深度学习理论评估函数/ 优化函数 假设输入的是一幅像素为1K*1K的图像,隐含层有1M个节点,光这一 层就有10P2个权重需要训练,这不仅容易过拟合,而且极容
22、易陷入局 部最优。图像中有固有的局部模式(比如轮廓、边界,人的眼睛、鼻子、嘴等) 可以利用,显然应该将图像处理中的概念和神经网络技术相结合。此 时我们可以祭出卷积神经网络CNNconvolutton liyerwb-umplingi convoMtxyi. fub-umpling tjyer t fullyMLf iKeraCNN 假设图3中m-l=l是输入层,我们需要识别一幅彩色图像,这幅图像具有四个通道ARGB (透明度和红绿 蓝,对应了四幅相同大小的图像),假设卷积核大小为100*100,共使用100个卷积核wl到W100 (从直 觉来看,每个卷积核应该学习到不同的结构特征)。用wl在A
23、RGB图像上进行卷积操作,可以得到隐含 层的第一幅图像;这幅隐含层图像左上角第一个像素是四幅输入图像左上角100*100区域内像素的加权 求和,以此类推。同理,算上其他卷积核,隐含层对应100幅“图像” o每幅图像对是对原始图像中不 同特征的响应。按照这样的结构继续传递下去。CNN中还有max-pooling等操作进一步提高鲁棒性。 在这个例子里,我们注意到输入层到隐含层的参教瞬间降低到了 100*100*100=106个!convolution tiycrwb-wrpiing layerconvokincr lyrr . wb-umplir hyer i Wly corrected MLP什
24、么是卷积信号学的概念Keras卷积层的工作00Qolo10Qo110011001100Image4ConvolvedFeature当从一个大尺寸图像中随机选取一 小块,比如说3x3作为样本,并且 从这个小块样本中学习到了 一些特 征,这时我们可以把从这个3x3样 本中学习到的特征作为探测器,应 用到这个图像的任意地方中去。特 别是,我们可以用从3x3样本中所 学习到的特征跟原本的大尺寸图像 作卷积,从而对这个大尺寸图像上 的任一位置获得一个不同特征的激 活值。Keras卷积有什么用那么当它移动到上面的 位置时,按照矩阵操作, 将这个区域的图像像素 值与滤波器相乘,我们 得到一个很大的值(660
25、0):r/isualiiation the Freprivefild0000D030*00000300000050505000003000000205000000300u000050区00000300000005050c00003000000二5050c00003000o0005050G00000000Pixel representation of the receptive fieldPixel representation of fitterMultiplcation andSummation = (50*30|+(50*30)+(50*30|+(20*30)+(50*30)- 6600
26、(Alarge number!)而当这个滤波 器移动到其他 区域时,我们 得到一个相对 很小的值:<cxoQ02_丄Q0*000003000p000030004040"oo0003000040o"bo00030000650o1T00003000000030000IT"25"0000000VkuaikdUon Qf ii»e flfief oiiiik ImagePixel fepreaiuilcjii or leceptive rteldAx时忸pr&ntatian of fitterMultiplication and Summ
27、ation = 0Keras池化(Pooling)左侧矩阵A是20*20的矩阵要进行大小为 10*10的池化,那么左侧图中的红色就 是10*10的大小,对应到右侧的矩阵, 右侧每个元素的值,是左侧红色矩阵每 个元素的值得和再处于红色矩阵的元素 个数,也就是平均值形式的池化。Convolved Pooled feature featureKeraspool ing层有什么用不变性更关注是否存在某些特征 而不是特征具体的位員。可以首作加了一个很强的 先验,让学到的特征要能 容忍一些的变化获得定长输出文本分类的时候输入是 不定长的,可以通过池 化获得定长输出防止过拟合或有可能会带来欠报合 减小下一层
28、输入大小,减小计算宜和参数个教Kerastranslation i nvar i ance (平移不变性)假设有一个16x16的图片,里面有个数宇1,我们需要识别出来,这个数宇1可能写的偏左一点 (图1),这人数宇1可能偏右一点(图2),图1到图2相当于向右平移了一个单位,但是图1和图2经 过maxpooing之后它们都变成了相同的8x8特征矩阵,主要的特征我们捕获到了,同时又将问 题的规模从16x16降到了8x8,而且具有平移不变性的特点。图中的a (或b)表示,在原始图 片中的这些a (或b)位置,最终都会映射到相同的位置。Keras下图表示汉宇当于做了旋转,rotation i nvar
29、 i ance (旋转不变性)一”的识别,第一张相对于X轴有倾斜角,第二张是平行于X轴,两张图片相 经过多次max pooling后具有相同的特征Kerassea I e i nvar i ance (尺度不变性)下图表示数宇“0”的识别,第一张的“0”比较大,第二张的“0”进行了较小,相当于作了 缩放,同样地,经过多次max pooling后具有相同的特征Kera循环神经网络(RNN_Recurrent NeuraI Networks) 全连接的DNN还存在着另一个问题一一无法对时间序列上的变化进行建模。假设你希望对电影中的每个 时间点的时间类型进行分类。传统的神经网络应该很难来处理这个问题
30、一一使用电影中先前的事件推断 后续的事件。RNN解决了这个问题。RNN是包含循环的网络,允许信息的持久化。对于自然语言处理、 语音识别、手写体识别等应用非常重要XtRNN 如果我们将这个循环展开:在过去几年中,应用RNN在语音识别,语言建模,翻译,图片描述等问题上已经取 得一定成功,而这些成功应用的关键之处就是LSTM的使用,这是一种特别的RNN, 比标准的RNN在很多的任务上都表现得更好。几乎所有的令人振奋的关于RNN的 结果都是通过LSTM达到的。Keras O) 3优化函数 KerasAva i IabIe metr i cs acc(accuracy) binary_accuracy:
31、对二分类问题,计算在所有预测值上的平均正确率 categorical_accuracy:对多分类问题'计算再所有预测值上的平均正确率 sparse categorical accuracy:与categorical_accuracy相同,在对稀疏的目标值预测时有用top_k_categorical_accracy:计算top-k正确率,当预测值的前k个值中存在目标类别即认为预测正 确 sparse_top_k_categorical_accuracy:与top_k_categorical_accracy作用相同,但适用于稀疏情况Kerasf1 score T/F:表明我预测的结果的类另
32、I P/N:表明实际的类别组合:TP:TN:FP:我认为是A类, 我认为是B类, 我认为是A类,结果确实是A类 结果确实是B类 结果是B类假设有2000个样本,A、B两类各1000个,你只猜了 10个A,全猜对了,这样P=10/(10+0)很高,但 R=10/(10+990)很低。-FN:我认为是B类,结果是A类fl.scorerecall-4-,fP + fnFi (】 + *)precision x recall+ recall度早分类器木会将正汽的仇肝本错误的分为正样本的能力度域r分类器找到所有正样木的能力足precision和recall的加权调和均偵.Beta越小,precision
33、的权)ft就越大. 代羨我们更Brecision性能羨现.Beta“l时,就变成j'Fl.两舌IKeras关于优化方法使用的问题开始总会纠结哪个优化方法好用,但是最好的办法就是试,无数次 尝试后不难发现,Sgd的这种学习率非自适应的优化方法,调整学 习率和初始化的方法会使它的结果有很大不同,但是由于收敛确实 不快,总感觉不是很方便,我觉得之前一直使用Sgd的原因一方面是因为优化方法不多,其次是用Sgd都能有这么好的结果,说明你 网络该有多好啊。其他的Adam, Adade, RMSprop结果都差不多,Nadam因为是adam的动量添加的版本,在收敛效果上会更出色。所以如果对结果不满意
34、的话,就把这些方法换着来一遍吧。Keras交叉信息嫡(cross-entropy)为什么要用cross-entropy呢,他本质上 相当于衡量两个编码方式之间的差值, 因为只有当猜测的分布约接近于真实 分布,则其值越小。类别实际預測求和A9009000. 14B1001000. 33合计100010000. 47Z = - £ Vilogtpixi) + (1 - ylogl 一 p(xi)类别1实际求和A9005000. 90B1005000. 10合计100010001.00KerasWord2Vec像图像处理一样,我们如果想要让计算机处理文本信息,那么我们就需要把 词变为一个向
35、量的形式输入给计算机进行计算。比如:“我労北京',在一 个40W的词典中可以表示成这样:“我” 100 0 0 00. “爱” 000 100 ”北京"0 1000 0 0,问题是- 1)任意两个词V间都是孤立的。比如“爱”和“喜欢”这2个次没有 层级或“近义誡的意思。- 2)词表维度随着语料库增长膨胀。- 3)数据稀疏问题。为了避免以上问题,Deep Learning中一般用到的词向量并不是刚才提到的用 One-hot Representation表示的那种很长很长的词向量,而是用Distributed Representation表示曲一种低姙卖玫甫量。这种有重一般&am
36、p;成这个样子:0.792, -0.177,-0.107, 0.109,-0.542,。维度以50维和100维比较常见。如此一来 我们就可以计算每个词的相似度。KerasWord2Ve c原理z-th output =i I context)该层为预測输出层:使用softmax输出,预测槪 |”天安门,0 0 0 1率,如02 0.3 0.1 0.4即可获得损失函放.然后I根据BP+SGD,谀代c w u蚤数,幡后椭定c矩眸softmaxmostcomputation here网塔参数u神经网络权函wTJ +该启为 为編入为:tanh(WCb) 的C向量的拼接.index for 比一+1Ta
37、ble look-up in CtanhT") 10M的矩碎 二)代表了我的词向、. Matrix ('10*4映辟/| dbsr (ooioj”我“11000shared parameters across words“爱,0 100index for 比_2index fbr w |Keras中文维基百科的试验result 二 model.most_similar(u"衣服“) for e in result:print e(0, e(l鞋子 0.686688780785展 0.672499775887衣物 0.67173999548大衣 0.667605519
38、295model.similarity(u"i+ 算机”,u"自动化”)0.67417196002404789print model.doesnt_match(u"早餐 晚餐 午餐 中心split) 中心单击此处添加标题内容输入内容输入内容输入内容输入内容添加标题在此录入上述12表的福述说明,在此录入上述国表的撞迷说明,在此录入上建田表的描述说明.添加标题在此录入上述田表的 描述说明,在此录入 上述田表的描述说明, 在此荥入上述图表的 描述说明。添加标题在此录入上述图表的 描述说明,在此录入 上迷国表的挂述说明, 在此录入上述IS表的 描述说明。添加标题在此录入上
39、述用表的 描述说明,在此录入 上述田表的描述说明, 在此录入上述田表的描遂说明。在此录入本区表的综A描述说明,在此录入本任表的综描述说明,在此录入本风表的综备描述说明。在此录入本区表的粽4描述说明,在此录入本团表的综4措述说明,在此录入上述区表的综会描述说明,在此录入上迷图表的综合描述说明,在此录入上述团表的综谷描述说明。单击此处添加标题内容点击添加小标题在这里添加 你的文字内 容或者在此 处插入图片 在这里添加 你的文字内 容或者在此 处插入图片 在这里添加 你的文字内 容或者在此 处插入图片 在这里添加 你的文字内 容或者在此 处插入图片在这里添加 你的文字内 容或者在此 处插入图片 在这
40、里添加 你的文字内 容或者在此 处播入图片 在这里添加 你的文字内 容或者在此 处播入图片添加标题在此录入上述园衰的摇述说明,花此录 入上述国袤的擄述说明,在此录入上逑也養的擔述说明。添加标题在此录入上述田我的描述说明,在此录入上述图表的描遂说明。添加标题在比原入上逑园袤的擋述说明,在比录 入上述EJ表的描述说明,在此录入上述 图裏的拈述说明.添加标题在此录入上述EI畏的描述说明,在此录 入上述图芝的描述说明,在此录入上述 匡丧的蜡述说明.添加标题在此录入上述12表的描述说明,在此录入上述I表的瑙述说明。此处添加标题此处添加标题点击此处添加段荐义本点击此处添加段落又本点击此处添加段落文本点击此
41、处添加段落义本201420152016此处添加标题点击此处添加段若芙本点击此处沛加段落X本此处添加标题点击此处添加段落乂本 点击此处添加段落火本工作情况此处第如详?H文本挡遂,建设与标題相关芹符生作诸盲反格,德统计尊员纣灯片的艮好控制在5分伸之内.比I*尙S量荷洁*动.尽債将等虞幻可片的本數丝制在200字以内, 卜搆建,建讥勻标是帽关砕符合!&体儔有风格单击此处添加标题内容您的内打在这里,或者通过复制您的又本后,恐 此框中选择桔贴,并选择只作以又字,在此录入上 述图表的综合描述说明.您的内容打在这里,或者通过复制您的乂本后,恐 此框中选择桔贴,并浅择只保以又字,在此录入上 逑团表的综合
42、描述说明。您的内#打在这里,或者通过复制您的X本后.在 此框中迭择耘贴,并选择只保留文字,在此录入上 逑田表的综合描述说明.Q点击此处录入标题内容«0点击此处录入标题内容:I0 点击此处录入标题内容 :0点击此处录入标题内容:点击添加内容点击添加内容您的内容打在这里,或者通过复制您的义本 后,在此框中选择粘贴,并选择只保留义宇, 在此录入上述囹表的描述说明。 您的内容打在这里,或者通过复制您的义本 后,在此框中选择粘贴,并选择只保留义宇, 在此录入上述田表的描述说明。点击添加内容点击添加内容您的內容打在这里,或者通过复制您的义本 后,在此框中选择粘贴,并选择只保留义宇, 在此录入上述
43、囹表的描述说明。 您的内容打在这里,或者通过复制您的义本 后,在此框中选择粘贴,并选择只保留X宇, 在此录入上述图表的描述说明。添加标题在此录入及表的综合缩述说A 明,在此录入上述国表的描 迷说明,在此录入上述13表 的描述说明。在此录入上述 区表的描述说明。添加标题在此录入上述团表的综合描述说 明,在此录入上述E1表的综备描 述说明,在此录入上述团表的综 令槌述说明。添加标题在此录入上述图表的缘会撻述说 明,在此录入上述图表的综4描 述说明,在此氛入上述田表的综 合描述说明。在此录入上遂12表的综合描逑说明,在此录入上述13表的综合描述说明。在此录入上述团表的描述说明,在此录入上述田表的综合
44、描述说明,在此录入上述IE表的综合描述说明,在此录入上述团表的综备描述说明。成功円此处洒加详地文本挡遂,建议与标题相关拝符0生作诸盲其格,既. 携统计等,幻灯片的長好控制充5分伸之的.比十.£尙展示§量简洁*动。尽量将尊虎纣灯片的字欲技制在200本以内, 卜搆姓,建讥勻标是栢关*符合!&体语有风格单击此处添加标题内容标题文本一点击输入你的义字内容或复制你的义本内容 点击输入你的义字内容或夏制你的文本内容 点击输入你的又字内容或隻制你的入本内容标题文本二点击输入你的义宇内容或危制你的义本内容 点击输入你的义宇内容或岌制你的义本内容 点击折入你的文字内容或复制你的文本内
45、容标题文本三点击输入你的义字内谷或复制你的义本内容 点击折入你的文字內宫或以制你的义本内容 点击折入你的文字内容或复制你的文本内茬请在此处输入您的义本或者复制您的义本粘贴到此处,诵在此处输入您的义本或者复制您 的义本牯贴到此处。请在此处输入您的义本或者复制您的义本粘贴到此处,请在此处输入 您的义本或者复制您的义本粘贴到此处。您的内容 打在这里 或音复制您的内容 打在这里 或者复制您的标题打在这里您的副标题打在这里或通过复制0506您的内容 打在这里成者复制0403您的内容 打在这里 或者复制01您的内容 打在这里 或音复制您的内容打在这里或者复制添加标题点击输入简夏入字内密,文字 内容牵机推埔
46、株,不用多余的入宇 修饰.点击給入荷赛入字内容,X 字内容書税括精炼,不用多余的入 宇修机点击输入简宝文字内容,文字 内*就括講诔,不用多余的文字 修的<丿内#学。括材嫁,不用多余的文宰 修饰.侈饰。点击输入简受入字内容,X字 内容#撤估椅燎,不用多余的文字 修饰.点击输入苟蔓丈字内容,X 宰内容将横括精炼.不用乡会的又 字修饰。点击输入简戛文字内容,又字点击钟入简妄入牢内容,X字 内容*税括精壕,不用多余的入字 修饰.志击输入简戛入字内容,X 字内容等横掂柯蛛,不用多余的又 字修饰.点击输入简戛文宇内容.文字 内容字焼括精炼,不用乡会的义字工作有整不足此处停加详地文本遂,建谖与标題相关
47、拝符。王体语言凡格,请景角沽*动.尽量将等员纣灯片的宇散J5制在200奉以内,据统计萼况纣灯片的艮好控制在5分伸之内.此处建,建议勻杖題培关*符合星体傳糸风格在此录入上述田表的综会描述说明, 述团表的综合描述说明。在此录入上述图表的尊。描述说明, 迷S3表的缘会描述说明。I在此录入上述团表的综冬描述说明, I迷S3表的综合描述说明。I在此录入上述图表的综合描述说明, I迷团表的综合捞述说明。在此录入上在此荥入上在此录入上在此荥入上在此荥入上在此录入上述图表的综合描述说明, 述田表的缘合描述说明。单击此处添加标题内容此处添加标题点古输入简吏又字内容.丈宇内容甯既括精炼,不用乡余的文字修饰,言简意液的说明此处添加标题点击给入简蚤又字内容,文牛由学會横括招嫁,不用名余的文字侈为,言简意駭的说明此处添加标题点击输入简養又字内孝,又字内农需呪拮埔 焼,不用多余的入字修饰,言筒.霓岐的说明此处添加标题点击输入简要入字内容,大字内容商携括精谏,不用多汆的又字修饰,言简蔥賤的说明漆加标題添加标題魚击斩入衫枣入宇 内專,文字内.孕寄 概括捕境,不用名会的又宇修恰,S化意咳的说明分项 内容.点击输入徒耍又字 内孕,文字内应寄 姓括並壕,不用多会的文字修饰.言筒意贱的说明分眾承加标
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 水泥生产线新建及设备升级工程合同三篇
- 醉酒驾车检讨书范文(5篇)
- 港口码头扩建与维护工程合同三篇
- 舞蹈魅力探索
- 痔切除术后护理
- 诗词鉴赏与创作
- 湖南工商大学《博弈论》2023-2024学年第一学期期末试卷
- 中考数学复习第7章图形的变化第30课时投影与视图课件
- 第四章 光【速记清单】(解析版)
- 医疗课题结题汇报
- 2024中国烟草总公司合肥设计院招聘6人笔试易考易错模拟试题(共500题)试卷后附参考答案
- 中学生校园食品安全教育
- 冬季七防知识培训
- 2 让它们立起来 说课稿-2024-2025学年科学一年级上册青岛版
- 国家公务员考试(面试)试题及解答参考(2024年)
- 2024城市公共服务智能垃圾分类系统建设合同
- 2024-2030年中国重力压铸零件行业产销形势与需求前景预测报告
- 2024-2030年中国海上风力发电行业发展状况及投资策略规划分析报告
- 高三第一学期家长会
- 第三单元参考活动1《续一个南社的梦》说课稿 2023-2024学年苏少版初中综合实践活动八年级上册
- 国开(浙江)2024年秋《中国建筑史(本)》形考作业1-4答案
评论
0/150
提交评论