深度学习技术介绍_第1页
深度学习技术介绍_第2页
深度学习技术介绍_第3页
深度学习技术介绍_第4页
深度学习技术介绍_第5页
已阅读5页,还剩37页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

深度学习技术介绍DeepLearningTechnology0深度学习是机器学习中表征学习方法的一类。一个观测值(例如一幅图像)可以使用多种方式来表示,而某些特定的表示方法可以让机器学习算法更加容易进行学习。表征学习的目标是寻求更好的表示方法并建立更好的模型来学习这些表示方法;通俗来讲,机器学习是一种算法框架,通过此算法框架,需要让机器具有类似人类的智慧,学会认识世界的一种方式;为人类提供“大数据+简单模型”的实现方式。什么是深度学习1语音识别图像识别自然语言处理深度学习的实际应用类型2论点:机器学习是要制造一个超级大脑,能够具有人类一样的智慧。这是一个非常典型的错误。机器学习是一个古老的计算机学科,而深度学习正是机器学习的一个狭窄领域,并非新生事物。持此观点的人一般都是对此学科一知半解的人。在工程上,深度学习的目的不是理解人脑的本质,也不是需要制造一个类人的生命体,而是构建有用的机器。神经网络(artificialneuralnetworks)能够帮助我们建立更好的计算机系统,用以处理信息。人脑也是一种处理信息的装置,具有非凡的鞥努力并且在视觉、语音、语义等方面都超过了目前的工程产品,目前研究的方向是用形式算法定义人脑处理这些任务的解,并在计算机上实现此过程。纠正一个错误31989年,计算机已经可以学习识别人类讲话,并且用到了神经网络学习方法和隐马尔科夫模型学习方法;1989年,机器学习方法已经被用于训练计算机控制车辆,实现无人驾驶;1995年,决策树学习算法已经被NASA用来分类天体;1995年,计算机已经可以通过学习,在博弈类游戏中击败人类。人工神经网络的研究历史和数字计算机一样长。1943年,McCulloch和Pitts提出了人工神经网络的第一个数学模型。1962年提出了感知器和学习算法。1969年有人指出了单层感知器的局限性。1986年后,后向传播被发明,单层感知器局限性不复存在。由于深度学习是机器学习的一个子集,讨论时我们混用这两个名词。为什么说机器学习是一个古老的学科4人工智能贝叶斯方法计算复杂性理论控制论信息论哲学心理学和神经生物学统计学和机器学习相关的学科5根据Marr(1982)年理论,理解一个信息处理系统,具有三个被称为分析层面的内容:计算理论(computationaltheory)对应计算目标和任务的抽象定义。表示和算法(representationandalgorithm)是关于输人和输出如何表示和从输入到输出变换的算法说明。硬件实现(hardwareimplementation)是系统的实物物理实现。理解人脑处理信息的过程6

什么是感知器(perceptron)

···

7最简单的分离器设计8感知器定义了一个超平面,而神经网络感知器事不过是实现超平面的一种方法。给定数据样本,权重可以离线计算,并且将其带入后,感知器就可以用来计算输出的值。在训练神经网络时,若果未提供全部样本,而是逐个提供实例,则我们通常使用在线学习,并且在每个实例之后更新网络参数,让给网络缓慢的及时调整。这是目前比较常见的一种训练方式。对于在线学习,不需要全部样本而是需要单个实例上的误差函数。从随机初始权重开始,每次迭代中,我们都对参数稍作调整,以最小化误差,而不是忘记先前学习的。若误差函数可微,则可以使用梯度下降方法。具有单层权重的感知器,只能逼近输入的线性函数,不能解决XOR类型的问题,这些问题的判别式是非线性的。类似的,这种感知器也不能用于非线性回归。鉴于此,MLP可以实现非线性的判别。训练感知器9这是在训练多层感知器时提出的一个概念。训练多层感知器与训练感知器是一样的。唯一区别是现在的输出是输入的非线性函数,这要归咎于隐藏单元中的非线性偏倚函数。在对于多层感知器,计算梯度时误差就向传回到输出一样,所以创造了这个术语。后向传播算法(backpropagation,1986)10对于人脸识别(facerecognition)。输入是人脸图像,类是需要识别的人,并且学习程序应当学习人脸图像与身份之间的关联性。人脸会有更多的类,输入图像也更大一些,并且人脸是三维的,不同的姿势和光线等都会导致图像的显著变化。另外,对于特定人脸的输人也会出现问题,比如说眼镜可能会把眼睛和眉毛遮住,胡子可能会把下巴盖住等。具体应用-人脸识别11对于医学诊断(medicaldiagnosis)。输人是关于患者的信息,而类是疾病。输入包括患者的年龄、性别、既往病史、目前症状等。当然,患者可能还没有做过某些检查,因此这些输入将会缺失。检查需要时间,还可能要花很多钱,而目、也许还会给患者带来不便。因此,除非我们确信检查将提供有价值的信息,否则我们将不对患者进行检查。在医学诊断的情况下,错误的诊断结果可能会导致我们采取错误的治疗或根本不进行治疗。在不能确信诊断结果的情况下,分类器最好还是放弃判定,而等待医学专家来做决断。具体应用-医学诊断12在语音识别(speechrecognition),输人是语音,类是可以读出的词汇。这里要学习的是从语音信号到某种语言的词汇的关联性。由于年龄、性别或口音方面的差异,相同词汇的读音不同,这使得语音识别问题相当困难。语音识另的另一个特点是其输入信号是时态的,词汇作为音素的序列实时读出,而且有些词汇的读音会较长一些。具体应用-语音识别13在语音识别中,“语言模型”的集成是至关重要的,而且提供一语言模型的最好方法仍然是从实例数据的大型一语料库中学习。机器学习在自然语言处理(naturallanguageprocessing)方面的应用与日俱增。垃圾邮件过滤就是一种应用,其中垃圾邮件的制造者为一方,过滤者为另一方,一直都在寻找越来越精巧的方法以便超越对方,也许最吸引人的是机器翻译(machinetranslation),经历了数十年手工编写翻译规则的研究之后,最近人们认识到最有希望的办法是提供大量翻译文本实例对,并且让程序自动地提取,一个字符串映射到另一个字符串的规则。自然语言处理14生物则定学(biometrics)使用人的生理和行为特征来识别或认证人的身份,需要集成来自不同形态的输人。生理特征的例子是面部图像、指纹、虹膜和手掌;行为特征的例子是签字的力度、嗓音、步态和击键。与通常的鉴别过程(照片、印刷签名或门令)相反,会有许多不同的(不相关的)输人,伪造(欺骗)更困难并且系统更准确,不会对用户太不方便。机器学习既用于针对这些不同形态而构建不同的识别器,也考虑这些不同数据源的可靠性,用于组合它们的决策,以便得到接受或拒绝的总体决策。生物测定学15从数据中学习规则也为知识抽取(knowledgeextraction)提供了可能性。规则是一种解释数据的简单模型,而观察该模型我们能得到潜在数据处理的解释。例如,一旦我们学会了区分低风险客户和高风险客户的判别式,我们就拥有了关于低风险客户特性的知识。然后,我们就能够利用这些知识,通过比如广告等方式,更有效地争取那些潜在的低风险客户。机器学习还可以进行压缩(compression)。用规则拟合数据,我们能得到比数据更简单的解释,需要的存储空间更少,处理所需要的计算更少,例如,一旦你掌握了加法规则,你就不必记忆每对可能数字的和是多少。机器学习的另一种用途是离群点检测(outlierdetection),即发现那些不遵守规则的例外实例。在这种情况下,学习规则之后,我们感兴趣的不是规则,而是规则未能覆盖的例外,他们可能暗示出我们需要注意的异常,如诈骗等。机器学习的额外用途16ALVINN系统是ANN学习的一个典型实例,这个系统使用一个学习到的ANN以正常速度在高速公路上驾驶汽车。ANN的输入是一个30*32像素的网格,像素的亮度来自于一个安装在车辆上的前向摄像头。ANN的输出是车辆行进的方向。这个ANN通过模仿驾驶时的操纵命令进行训练,持续约5分钟。ALVINN用学到的网络在高速公路上以70英里的时速成功行驶了90英里。案例-ALVINN系统17ALVINN系统的神经网络18形而下者谓之器19人工智能每一次沉寂后的爆发,有两个条件理论算法的突破计算能力的提升HPC是深度学习的引擎深度学习对计算的依赖20nVidiaTeslaGPU21GPU的发展趋势22GPU产品路线23GPU市场区分24计算专用GPU可选型号特性TeslaM40TeslaK80TeslaK40GPU数量类型GM2002×KeplerGK2101个GK110双精浮点峰值-2.91T(提速)1.87T(基础)1.66T(提速)1.43T(基础)单精浮点峰值7T8.74T(提速)5.6T5T(基础)4.29Tflops存储器带宽(ECC关闭)288GB/s480GB/s288GB/s存储器容量(GDDR5)12GB24GB(2×12GB)12GBCUDA核心数30724992288025主流GPU产品对比26主流GPU产品对比27GPUBoost技术28K80性能提升29M40GPU加速特性30GPU与CPU连接通过PCIe与CPU连接,最大理论带宽8GB/s(gen2.0)、16GB/s(gen3.0)CPU称为主机(host),显卡(GPU)称为设备(device)31最优连接数量:432目前的GPU使用方案33CPU困境348块热插拔3.5寸SATA硬盘16根内存槽,支持1TBDDR4内存两颗Intel160WIntel®

E5-2600v3family

2000W白金级高效电源,1+1冗余3x5¼外设仓位最优的制冷方案最多4个全高全长双宽GPU卡(PCIex163.0)+3个标准PCIe卡XMachineW580-G20机塔互换35XMachineW740-G20服务器天阔W740-G20服务器是专为高性能计算设计的高密度异构计算节点,在2U空间内置4颗主流加速卡,并支持Infiniband高速互联接口。W740I-G20适合在DeepLearning、MachineLearning环境下的应用。2U高度,两颗IntelIntel®E5-2600V3系列CPU,最大支持145W支持4颗GPU/MIC加速单元,4根PCI-E3.0×16+1根PCI-E3.0×8(inX16slot)最大支持1TBDDR4Reg.ECC内存(16DIMM)10个热插拔2.5寸SAS/SATA硬盘可配置2000W1+1冗余电源36XMachineW780-G20服务器天阔W780-G20服务器是专为MachineLearning市场设计的高密度异构计算节点,在4U空间内置8颗主流加速卡,每个CPU之间的GPU卡可以实现P2P。4U高度,两颗IntelIntel®E5-2600V3系列CPU,最大支持160W支持8颗GPU/MIC加速单元,8根PCI-E3.0×16+3根PCI-E3.0×8扩展槽最大支持2TBDDR4ECC内存(24DIMM)24个热插拔2.5寸SAS/SATA硬盘可配置1600W2+2冗余电源37深度学习是一种处理大数据的工具,应对大数据时代信息处理的难题。让”信息资产”成为企业的重要资源。XSystem以”HPC+BigData+Cloud”为设计理念,结合深度学习XSharp深度学习软件栈和XMachine深度学习一体机。为用户提供深度学习一体化解决方案。帮助用户快速进入DeepLearning领域,实现企业应用快速成长,将科研成果快速转化为第一生产力。深度

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论