电子行业AMD数据中心和AI技术首映跟踪报告_第1页
电子行业AMD数据中心和AI技术首映跟踪报告_第2页
电子行业AMD数据中心和AI技术首映跟踪报告_第3页
电子行业AMD数据中心和AI技术首映跟踪报告_第4页
电子行业AMD数据中心和AI技术首映跟踪报告_第5页
已阅读5页,还剩15页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

附录:D数据中心和AI技术首映活动纪要 时间:23年6月3日出席:AMDEO,D.LiaSu,VPndGMofAMDsserverbsinssunit,DnMcNmar,VPndGMofAMDsdtacetersolutiosbsinssgrup,ForrestNorad,M、Met、Micrsoft、CitadlSecurities、PyTorc、HgingFace等公司嘉宾。会议纪要根据公开信息整理如下:我们专注于推动高性能和自适应计算的发展世界上最重要的挑战创造解决方案从云和企业数据中心到G网络再到人工智能、汽车、医疗保健、PC等等,AMD技术无处不在。我们每天都在影响着数十亿人的生活。图:公司简介AMD数据中心和AI技术首映,今天,我们在这里讨论我们最新的EPYC数据中心处理器、我们即将推出的nstinct加速器以及我们不断发展的人工智能软件生态系统。现代数据中心大家真正需要的是全面的最高性能计算引擎。今天,我们的EPYC处理器引领业界这是目前性能最高的处理器我们还提供业界最广泛的产品组合使我们能够真正针对数据中心的不同工作载进行优化。无论是Instinct、为C和人工智能构建的GPU加速器,还是在谈论我们从Xilix和Pesado收购FPGAAdativeSc或SmartNIs以及DPUs今天我们将向您展示我们如何将所有这些结合在一起并通过我们的下一代数据中心和人工智能产品真正扩展我们的产品组合。图:云计算领域简介AMD数据中心和AI技术首映,自7年推出EPYC来我们一直专注于打造业界最好的数据中心CPUsEPC现在是云计算的行业标准鉴于我们在各种工作负载中的领先性能,每个主要的云提供商都为其内部工作负载以及面向客户的实例部署了EPYC今天,全球有超过0个EPYC例,另有0个将在今年年底推出。图:第四代CGnoa处理器AMD数据中心和AI技术首映,企业的EPC的使用率也在增长尤其是对于要求最苛刻的技术性工作负载论是金融服务电信术制造业还是汽车客户等等他们都会根据性能能效TCO来选择EPY随着我们推出第四代EPYCa处理器这一势头正在不断增强第四代EPCa处理器采用5纳米工艺和四个核心它拥有最新的I/包括PCIe个5内存通道,支持CX。图:Gena性能对比AMD数据中心和AI技术首映,自那以后,市场上出现了其他产品。但是如果您看一下今天,a仍然是业界性能最高、最高效的处理器。让我们来看一下a的一些性能指标。首先是云整数性能,这是关键指标。与竞争对手的顶级EPYC产进行比较,a提供了1.8倍的性能在企业领域无论是在Java工负载虚拟化还是企业资源计(ERP工作负载上,第四代EPC的速度提高了最多1.9倍。图:Gena能耗对比AMD数据中心和AI技术首映,对于现代数据中心来说,能耗已成为与整体性能同等重要的因素。当我们设计通用时,我们实际上考虑到了这一点我们想要在性能上领先但我们也必须有一流的能源效率性能功耗比是业界的1.8倍因到目前为止通用型是任何关心可持续发展的人的最佳选择因此当我们与客户交谈时他们中的许多人都告诉我们实际上他们需要更新他们的数据中心并且他们确实需要整合并获得更好的占用空间和更低的运营成本Geoa完美满足这些需求。图:GenaAI性能AMD数据中心和AI技术首映,今天绝大多数的人工智能工作负载都是在CPU上运行a也是人工智能最好的CP查看人工智能性能的最好方法实际上是查看一组广泛的端到端工作负载。我们使用行业标准TCxAI基准试,该测试实际上着眼于十个不同用例的端到端人工智能性能。和许多不同的算法。在这种情况下,我们看到的是EPYC性能是竞争对手的1.9倍亚马逊嘉宾:WS构建最可靠、最安全的全球云基础架构,拥有最广泛、最深入的产品组合,以支持几乎所有类型的客户工作负载自218年以来AMD和WS一直在深入合作当时WS率先在云中引入了AMDEPY与同类的x86E2产品相比,节省了%的成本。图:S引入MDEPYCAMD数据中心和AI技术首映,随着客户使用这些产品并从中受益,他们需要其他基于AMD的产品类型来运行更广泛的应用程序。总之,我们已推出了0多个基于AMDEPYC的AmazonEC的产品,用于通用、计算密集型以及内存和工作负载的感知。就在去年们推出了第一个专门针对基于高性能计算的AMIT进程HPCa而优化的实例其能比同类基于E2X86的计算优化实例高出%,适用于计算流体动力学等工作负载。我们拥有广泛的客户,他们从基于AMD的EC的成本节约中获得了巨大的利益。这是企业客户如何投资的两个例子。这些成本节约转化为创新,以改善他们的业务,包括reca,一个数字汽车司,他们寻求更高效的运营方式并提高开发速度,这样他们就可以将节省下来的钱投入到汽车购买体验中。通过为其核心基础架构选择AMD产品系列以及使用S推荐工在实例中选择合适的大小recar将其WS基础架构优化了%另一个户是一个专为企业提供管理现代渠道上客户体验的网络平台由于运营规模庞大他们需优化强大的架构以实现成本和性能的最佳化他们是我们首代基于AMD的EC2实(用于一般工作负载的早期用者,当他们迁移到亚马逊的EC2M6a实例后,发现性能提升了%,成本节省了%。在HPC领域DT(DynamicrnsfeNtwok使用天气和数据模型进行运算生成需要对全球范围内大量输入据进行连续处理的复杂、高分辨率的输出结果。DTN利用亚马逊的EC2HPCa实例,由AMD的EPYC理器提供动力,运行计算密集型的HPC工作负载。通过在WS运行HPC工作负载的灵活性、弹性和效率,DTN成功将其高分辨率全球天气模拟能力从每天2次提升至每天4次。图:Genoa对E5Intncs的支持AMD数据中心和AI技术首映,我们持续看到的一个趋势是客户对于在WS上更快地运行工作负载并获得更好的性价比的需求不断增加为了足客户需求,我们正在构建新的EC2实例,利用第四代AMDEPYC处器和WSNtro系统的独特组合。现在,WSNitro系统是每个EC2实例的基础,它使我们能够提供性能卓越、安全高效的基础设施。通过结合第代AMDEPC处理器和WSNitro系统,我们释放了下一代AMD处理器的全部能力,并为客户带来了显著的性能提升。今天我们非常激动地宣布预览亚马逊的EC2M7a通用实例由第四代AMDEPC处理器提供动力我们对这项技术非常兴奋。根据我们的基准测试,M7a实例旨在在亚马逊EC2x86通用实例系列中提供最佳的x86性能和每个虚拟CPU的性价比。相比上一代的M6a实例,M7a实例的计算性能提升了多达%。我们认为包括金融应用、应用服务器、视频转码、仿真建模在内的各种工作负载都将受益于M7a实例。M7a实例还提供了新的处理器功能,如VX-512、VNNI和bfloat16,以帮助客户获得额外的性能,并将更广泛的工作负载引入WS。正如我之前提到的,M7a实例现已开始预览。客户可以注册参与预览,而正式推出将在第三季度进行。WS将逐将a技术引入更多的EC2实例中,使我们的客户能够随着时间的推移利用这种新的性能水平做更多的事情WS将把a带到更多的EC两个实例中因此随着时间的推移我们的客户可以利用这一新的性能水平做更多事情。我们对新的M7a通用实例进入公开预览非常兴奋。我们真的相信这是公共云中性能的跃进式改进。我们期待着为客户提供更多的功能。当我们看整个行业时,我们对基于a的响应非常满意,它在领导地位和在广泛的通用服器工作负载上的交付方面表现出色。我还要在这里宣布,Oracle今天也布了新的通用标准HPC和密集I/O例,预计将于七月开始正式投入使用。图:云原生AMD数据中心和AI技术首映,总的来说我们的通用实例正在很好地推进未来几周和几个月您将看到更多公共实例和客户上线但我之前所的是数据中心工作负载变得越来越专业化需要在中央处理器数据处理单元和人工智能加速器方面进行优化的算解决方案这就是AMD的特点所在我们数据中心AI算产品组合的广度实际上提供了重要的优势因为您可根据工作负载选择适合的计算资源。现在,让我们谈谈云原生计算。云原生工作负载实际上是一组快速增长的应用程序,我们可以称之为“诞生于云。它们旨在充分利用新的云计算框架并以微服务的形式运行您大量的代码拆分为较小的进程可以独立扩展这些进程从而实现全天候的运行间这些处理器的最佳设计与通用计算实际上有所不同它们实际上是面向吞吐量的并且受益于最高密度和最佳效所有这因素实际上推动了Bergamo的开发Beramo实际上是我们专为云工作负载设计的首款EPYC处理器。让我简要介绍一下Beram。它利用我们已经为a开发的平台基础设施,支持相同的下一代内存和相同的I/O功能。但它允许我们根据这一设计理念在云中实现每个插槽8个核心的领先性能和能效。图:新一代云原生处理器AMD数据中心和AI技术首映,这是我们的新一代云原生处理器。在这里我们实际上有一个全新的计算芯片。该计算芯片与a使用了我们的iplet技术有所不同每个计算芯片包含6个Zec核心在中央部分我们使用了与a相同的6纳米工艺。图:Brgamo云原生表现及Zen4c介绍AMD数据中心和AI技术首映,Zenc实际上是Zen4核心的增强版本这实际上是我们模块化设计方法的一个很好的例子当我们最初设计Ze4核心时,它实际上是为每个核心的最高性能进行优化的。Zenc实际上是在性能和功耗的最佳平衡点上进行了优化给我们带来了更好的密度和能效们实现这一目标的方式是从与Ze4完全相同的TL设计开始这使我们能够实现%的软件兼容性。然后,我们优化了Ze4c的物理实,以提高功耗和面积。我们还重新设计了3缓存层次结构,以提高吞吐量。将所有这些结合起来,结果是一个面积减小了%且性能每瓦提高了很多的设计。图:Zen4c和Zen4对比AMD数据中心和AI技术首映,从产品角度来看,这意味着什么?这意味着a和Beramo之间唯一的真正区别是D三元组。我们使用相同的插槽将a的CPU三元组替换为Beramo的CPU三元组在Beramo中每个计算三元组包含的核心数量是a上的两倍。这就是我们如何实现每个插槽8个核心的配置。但是重要的是,正如我之前所说,它完全兼容软件,也与a完全兼容平台。对于客户来说,这意味着他们可以根据自己的计算需求和工作负载轻松部署Beramo或。因此,我们真的在尽力利用AMD在体平台投资。图:Brgamo性能AMD数据中心和AI技术首映,这是Beramo的性能指标如果将Beramo与竞争对手的顶级产品进行比较您会看到令人难以置信的性能在种云原生应用程序中,我们提供的性能提高了高达2.6倍,无论是在谈论eb前端、内存分析还是非常繁重的事务工作负载方面。此外,从整体密度和功能的角度来看,Beramo在计算密度和能效方面明显优于竞争对手。每台服务器上容量增加了两倍以上,在Java工作负载中的能效提高了两倍。图:Brgamo的性能AMD数据中心和AI技术首映,Meta嘉宾:自9年以来Meta和AMD一直在EPYC服器设计上展开合作这些合作逐渐扩大涵盖了Milaa和现在的Beram。我们密切合作,根据美光的功耗、效率和计算密度要求,定制了AMD的PYC架构。这些优化包括硬件和软件堆栈的所有层面,包括Zen核心、SoC组成、固件内核性能、遥测和软件,以实现最佳的性能与总拥有成本比我们还分享了在可靠性和维护方面的经验并助改进了EPYC服务器设计以满足有超大规模部的需求对于我们的所有平台我们都进行开源并且以往我们已通过开放计算项(nCmputeProject开源了基于AMDMilan的服务器设计。我们打算以同样的方式开源我们最新的Beramo一代大规模服务器。我们在全球数据中心和服务器群中已经部署了数十万台AMD服务器,运行着成千上万个工作负载,为WhtsAp、InstagamFacebok以及我们的产品团队提供服务我们还在视频转码和存储系统中部署了AMD服务器并在AI计算平台上使用AMD理器。我们与AMD共了我们的工作负载经验,并在处理问题和扩展方面进行合作。你说得对我们的规模非常庞大我们的规模和世代增长速度自然而然地对供应商构成了压力但在我们合作的早期们对AMD否与我们同步扩展并满足我们积极建设数据中心的需求表示担忧。然而,多年来,AMD始终如一地兑现了这些承诺,无论是在供应方面还是技术产品路线图创新方面,他们给我们下了深刻的印象。我们已经得出结论,我们可以依靠AMD一次又一次地按时交付。我们非常兴奋地准备将Beramo作为我们下一代大规模通用计算平台部署到Meta。与Milan相比,我们看到了Beramo显著的性能提升大约是2.5倍它提供了相当大的TCO改进超过了Mila基于AMD所实现的粗颗粒硅创新,我们与AMD合作进行了其他一些优化,帮助我们的工作负载,包括密集计算三元组、缓存比例、功耗管理和制造优化,这些优化帮助我们将大量的这些服务器集成到机架中,并提供了更高的机架级性能和改进的TC。一年前的六月我们发了针对EPC的产品组合针对不的工作负载进行了优化今天我们非常激动地推出了款新产品刚才你已经看到我们如何通过Beramo来优化EPYC以行认知计算现在我将花些时间向您展示我如何将PYC优化用于不同的数据中心工作负载,即企业和设计制造实体产品的技术计算。工程仿真对这些公司来说至关重要这些公司需要行业顶级工程师并配备最佳的计算基础设施能够更快更高效地工作的公司通过更地推向市场、提供更具创新性和更高质量的产品,并在减少成本的同时实现这一目标。考虑到这些目标,我们开发了第二代AMD3DCche技术,在核心芯片上使用相同的Cche集成。在6核CPU支持超过B的L3Cch更大的缓存可以更快地为CPU提供复杂的数据集它提供了一个新的维度即处理器和工作负载优化我们去年在MilnX上首次引入了这项技术现在我们将它带到了Ze4EPYC与高性能e相结合。今天我非常兴奋地宣布推出带有AD3D-Cche的EPYC处理器名称为GenoaX我们将提供四个新的选择,从6个核心到6个核心,与a兼容。GeeralX有帮释放技术计算领域中世界上最重要且要求最苛刻的工作负载的潜力。从飞机发动机到最先进的半导体,新产品的快速设计和仿真是当今市场的当务之急。图:AMD4EPC与DVCahe技术AMD数据中心和AI技术首映,Genoa是市场上最快的CPU处理器,GenoaX将这一性能提升到了技术计算的新水平。我正在与合作伙伴一起提供所有这些高性能作对象包括的Ansys字制造软件CdenceSiemens和Syosis等公司的EDA件。我们将继续与这些解决方案商密切合作,为共同的客户创造优化的环境。图:与AMD合作的解决方案商AMD数据中心和AI技术首映,现在让我们来看看这些解决方案的性能从一些广泛部署的CFD和FEA工作载开始蓝色部分是最高核心数的-X处理器,灰色部分是Inel60核心Ge4Xeon处理器。在这些应用中,6核-X处理器性能提高了一倍以上。即使比较具有相同内核数量的处理器,X性能优势仍然非常明显。所有这些性能表现和软件都将体现在行业顶级OEM提供的务上。图:AMD4EPC在CFD和FEA的性能表现对比AMD数据中心和AI技术首映,aX平台将在下个季度推出。受益于我们的软件知识和合作伙伴,我们增加了解决方案的数量,以行业领先性能和效率进一步服务于技术计算市场,公司可以利用公有云以最高性能运行这些仿真。图:服务器合作伙伴AMD数据中心和AI技术首映,Microoft嘉宾:我们想确保为HPC提供前所未有的性能表现我们的企业客户希望加快数字化转型希望HPC这样的任务关键型作负载能够出现并真正受益于云的规模、可靠性和效率提升。微软与AMD早在9年就开始了合作,推出了首款采用第一代EPYC处器的B系列。0年,我们推出了我们的第二代处理器,采用第二代EPY进入十大超算之列,开始真正抓住市场的发展势头。1年,我们向全球客户推出了第三代HBv系列使用Milan进一步增性能我们布将使用AMD3DCche来升级我们第四代HBv系列从而不增加成本的情况下为客户提供高80%的性能图:微软Azure发展历程AMD数据中心和AI技术首映,今天我们宣布第四代HBv系列全面市,此外我们还有一个新的内存优化HPC虚拟机,AzueHX系列。HBv4和X都采用了AMD3DCch,它还将与我们的InfiniBnd产品配合使用,使我们的HPC工作负载能够很好地扩展。第四代HBv系列提供1.2TBs的内带宽,可以将其与计算密度方面的两个提升相结合,现在我们可以提供速度快4.5倍的HPC工作负载比如CFD分子动力学金融建模天气模拟各种虚拟渲染这是我们从云规模和来自AMD的高效率相结合的成果。在X系列上我们采用了超低内存延迟3DCche和一个巨大的.4TB系统ach对于一些数据密集型工作负载如芯片设计结构分析这将提供六倍的性能这是惊人的对于许多客户来说这意味着他们现在可以在同或更少的内核上适应现有工作流,总体上具有更低的TC,因为他们节省了大量的软件授权费。将其与你们同类最佳的FileUp系统相结合,比如工作负载和端到端编排产品,客户将在云上看到优异的性能。图:v4/HX与v3系列性能表现对比AMD数据中心和AI技术首映,客户的采纳是最终的检验今天我想谈两个客户一个是Petroas一家全球能源公司在全世界数百个国家布局他们是第一个使用Azue第四代HBv系列的公。他们正在试图解决上游工作,需要进行高度复杂的定量解释和处理。这些工作负载需要大量的内存带宽,需要HPC能力,这是AMD与Azue合作之处。我们与AMD密切合作,以确保我们能够推出这些新的虚拟机,结合我们的多AI工具真正加速他们在地球物理学中所做的工作,帮助他们更快地做出决定。Petroas还承诺利用Azre实现AAA级企业持续发展目标和Azu,因为到5年,我们将%使用可再生能源,让他们能够在0年前实现净零碳排放。关于X系列。我想谈谈意法半导体,一家领先的半导体公司,他们是第一家使用我们AzueHX虚拟系列的公司。STMcro将用我们的全新产品来设计下一代芯片。随着工艺技术越来越深入,他们的很多TL仿真需要更低的存储器延迟和更大的存储器占用,X系列能够满足要求,每个虚拟机能够打包更多的仿真工作,这意味着他们只需要少的VM。过近期实验,他们已经能够将模拟时间缩短%。这意味着芯片工程师可以看到更多的设计可能性提高产品质量因为他们现在做了更多的验证并且可以更快地产品推向市场。他们可以在云中完成所有这些工作。这是另一个很好的例子说明我们如何与客户合作为最终客户提供更好的解决方案aX现在可用于MicrsoftHBv4和V系列使公司能够将最具创新性的产品推向市场GeomeX只是我如何针对不同工作负载进行优的一个例子。我们Ze4产品系列的最后一款是Sien,它针对边缘工作负载进行了优化,将在成本优化的封装中提供最高的性能和能效。我们将在今年下半年将其推向市场。CitdelSeurities嘉宾:Citadl实际上是两家公司。首先我们是世界上最赚钱的对冲基金,管理着大约0亿美元。第二CitadlSecurities是世界上最大的做市公司作为一家做市公司我们为买家和卖家金融投资者提供以有竞争力的价格购买或出售任何资产的机会。在任何一天,美国股票市场%的股票换手通过我们的系统。我们在世界各地的交易所为股票期权交易所交易基金国债和其他各种资产提供交易服务从技术角度我们进行实时预测分析开发复杂的定价模型来预测市场走向,有时达到毫秒或微秒的级别,然后尽快将这些价格提供给市场。现在实际上有两个技术平台支撑着这项业务它们的工作负载非常不同首先有一个计算研究平台我们用它来发和测试策略第二有一个超低延迟平台我们用它来快速响应市场上的买家和卖家在这两个平台的基础上有个复杂的监控层,以确保这些模型在市场上始终安全有效地运行。研究意味着我们要提出关于市场价格走向的假设用代码表达这些假设然后测试它们对我们来说测试意味着整个市场的模拟中发布这些策略并观察它们在各种不同环境和场景下的表现需要计算平台有巨大的可扩展性和工作负载优化的能力。例如,所有这些研究都在公有云中运行,达到了约0万个并发核心的峰值需求,并依赖近10PB的市场数据归档0年末我们将所有工作负载转移到AM研究性能提高了%这是史诗级的创新,特别是内存和带宽得到释放,为我们的业务提供不同级别的性能。交易平台不需要密集化和虚拟化我们在内部投入了大量资源并与AMD合作以减少微秒纳秒甚至微微秒的延迟这个平台的每一个核心都在世界上最昂贵的数据中心和房地产中运行,因为它尽可能靠近金融市场中心。这也是我们与AMD合的关键所在。如果有一个市场数据包通过该平台,对于我们运行的最具延迟敏感性的策略赛灵思FPA是绝对要的,他们为市场带来了原本见不到的策略和模式。在研究中我们看起来非常类似于超大规模但在低延迟交易中我们看起来正好相反AMD在了解CitadlSecurities这样复杂、多方面的客户,做得非常出色。我期待着创新产品为我们的业务带来改变,并改善金融市场的运作方式。Jef刚刚告我们云上的0万个EPCCPU内核如何为研究和模拟交易策略提供优化性能,以及AlveoFPGA如何为其交易和做市系统提供终极性能。他也向大家介绍了AMD在数据中心的另一个重要方面,即我们的网络产品合。对于Citadl来说这意味着高性能的SolarFlreNIs为他们供了终极的低延迟和高性能以便在竞争激烈的市中每天进行数百万次股票交易计算和网络引擎变得越来越重要一起提供优化数据中心所需的性能效率和敏捷性我们认识到网络代表了数据中心基础设施中日益增长的关键元素需要针对数据中心工作负载进行优化这就是我收购Pensndo的动机,因为数据中心的复杂性在不断发展。混合云的最新进展以及云计算向边缘的扩展是一个非常重要的模式,但这种模式带来的挑战是巨大的。图:为数据中心优化的计算基础设施AMD数据中心和AI技术首映,第一个挑战是云所固有的虚拟化为我们带来了更高的利用率和敏捷性但也带来了确保工作负载分离和安全的开销随着计算和存储系统跨数据中心分布以及应用程序不再在单个系统上运行网络复杂性进一步激增管理这些分布式资源非常复杂,而随着繁重的系统不断扩展,以及出现更多需要监控的内容,保护数据中心的安全变得更加困难,必须在不增加系统负担的情况下实现监控今天我们有非常复杂的云环境云的敏捷性带来每台服务器的开销通常由提供基础架构服务的独立设备支持。为了虚拟机管理程序和基础架构、软件和负载平衡安全性,许多云部署中的PU负担可能高达甚至更多。图:数据中心发展历程AMD数据中心和AI技术首映,今天有人认识到架构带来的复杂性和开销,并创建了AMDPU的概念,我们的Pensano团队将DPU的概念发展到了世界上最智能的数据流处理器上我相信这是业内最好的网络团队我们与esando收购的团队一起从根本审视问题并创建了一个专门构建的架构以便能够提供复杂的服务包括以线速查找网络和遥测的安全软件同可编程以满足客户的不同需求和未来架构需求。图:混合云边端挑战及CPU开销挑战AMD数据中心和AI技术首映,现在如果我们将P4DU放到每个服务器中可以将CPU从其开销中释放出来通过每台服务器中的DP我们将虚拟化开销浮动并将基础架构和安全服务带到使用端从而消除或大幅减少对外部设备的需求并通过简化管理一步提高灵活性,所有服务器的网络和资源管理都是统一的。图:AMDP4DPU架构AMD数据中心和AI技术首映,最重要的是通过释放CU资源来做真正需要的事情运行工作负载卸载云和虚拟化开销显著改善云的TC这是我们首先将我们的AMDPensano部署到SmartNIs中的个DPU上的原因可以轻松地将DPU添加到每台服务器并允许我们处理开销并释放服务器以供生产性使用通过允许新的范例例如对分布在这些分布式应用程序的所有东西向流量的防火墙保护,极大地提高了安全性,加密所有的流量。图:P4DPU的卸载作用AMD数据中心和AI技术首映,图:AMDPensndoSmarNICsAMD数据中心和AI技术首映,最后,在不增加CPU负担的情况下提供遥测技术,使安全系统能够对网络中的威胁和异常情况发出预警。我很自地说,AMDPnsanoSmatNIs现在已经部署在主要的云中,企业现在就可以获得这种解决方案。当我们与整个行业的数据中心创新者合作时,我们认识到DPU的价值超越了SmartIs。相同的DPU和软件平台现在部署在基础设施本身中,其中许多相同的性能、效率和灵活性优势可以在一组服务器之间共享。这种方法还有另一个好处可以轻松地部署到现有的基础架构中也可以设计到新的基础架构中一个很好的例子Micrsoft的Azue加速连接服务该服务今天进行了公开预览由我们的PoinsetiaP4DPU提供支持为使用该功能的客户提供了更高的每秒连接速度和网络性能。我们把同样的概念带到企业中,与我们合作伙伴HPEOrba共同开发的智能交换机。这是一款基于行业标准开关片的创新交换机,流量流经DPU以提供卸载基础架构和安全服务,这些服务不仅为数据中心提供更高的效率,而还增强了安全性和可观察性。图:P4DPU在交换机中起卸载作用AMD数据中心和AI技术首映,图:SmartSwitchAMD数据中心和AI技术首映,这些优势可以在数据中心之外的无数边缘计算应用程序中实现这些应用程序依赖于安全性性能和灵活性在边部署相同的架构和软件平台意味着端点与数据中心中的对应服务器具有相同的安全性和可管理性级别使得数据中和边缘之间的连接尽可能安全。总之您可以使用SmartIs在零售部署几台服务器为每个人提供安全性和管理一致性服务SienaEPYCCPU提供变革性的能效、效率和性能表现,以及Alveo推理加速卡、敏感的AI应用程可以增强零售体验和安全性。完整的AMD品组合可以为电信部署、智能城市应用等提供类似的优势。图:数据中心及边缘端工作负载优化产品线AMD数据中心和AI技术首映,在整个行业中对人工智能的兴趣非常高从我们的角度来看人工智能实际上是定义下一代计算的关键技术坦地说对于AMD来说人工智能是最重要且长期增长的战略机遇在人工智能领域我们专注于三个关键领域首先我们提供广泛的CPU和自适应计算解决方案用于人工智能的训练和推理涵盖数据中心边缘计算和智能终端其次我们正在开发一个开放且经过验证的软件平台以便广泛且轻松地部署我们的人工智能硬件第三我们正在与行业合作并扩大深度合作伙伴关系以推动生态系统加速规模化的人工智能解决方案因为在这个领域生态系统非常重要。图:I领域布局AMD数据中心和AI技术首映,我们实际上处于一个非常独特的位置拥有覆盖数据中心边缘计算和终端的广泛人工智能平台组合这些平台由个引擎驱动,包括我们的RyzeAI引擎、esal、Alve、EYC和Instict加速器。图:I领域主要产品AMD数据中心和AI技术首映,我们目前涵盖了很多不同的领域举例来说在边缘计算方面NASA在火星车上使用我们的领先FPGA加速器来速基于人工智能的图像检测在汽车行业客户使用我们的人工智能芯片和软件来支持驾驶辅助和先进安全功能医疗领域,领军企业正在使用AMD的自适应计算解决方案,以加速基于人工智能的成像和诊断,帮助医生更快速、更准确地进行诊断。而工业客户如ABB则在用我们的技术进行人工智能辅助机器人技术研发。而像kakoCloud这样的公司则在其视觉应用中使用了我们的许多产品,例如基于人工智能的隐私和道路系统。今年初,我们推出了Ryze700系列处理器,这是业界首款搭载专用人工智能引擎的x86处理器。这些产品正在迅速增长,我们预计今年将有0多款由顶级原始设备制造商推出的PC设计,搭载先进的人工智能术。因此,可以毫无疑问地说,从目前来看,人工智能将是未来可预见的硅消耗的主要驱动力。图:数据中心增长趋势AMD数据中心和AI技术首映,最大的机会在于数据中心在过去的六个月左右广泛采用基于大型语言模型的生成式人工智能真正将这种增长推了一个不同的水平我们在人工智能的生命周期中仍然处于非常非常早期阶段机会还有很多当我们试图估计它时,我们认为数据中心人工智能加速器的总可寻址市(A从今年的大约0亿美元以超过%的年复合增长率增长到7年的超过100亿美元。这个数字可能会更高,也可能会更低。但我可以确定地说,它会非常庞大,因为需求非常巨大。图:数据中心加速市场代表客户AMD数据中心和AI技术首映,AMD多年来一直在为数据中心加速市场进行投资。如今,如果你看看我们所处的位置,我们为世界上许多最快的超级计算机提供动力这些计算机正在使用人工智能解决一些世界上最大的挑战例如在奥克里奇国家实验室这是世界上排名第一的超级计算机它是行业首台超大规模超级计算机"Frntier他们正在使用AMDIstinctGPU加速器来运行大规模的人工智能模型,以加速他们的癌症研究。在芬兰,UMI超级计机使用AMDIstinctGPU加速器来为拥有0亿参数的最大芬兰语言模型提供动力我们还与Allen研究所的研究人员合作他们也正在使用UMI创建具有0亿参数的最先进、完全开放的语言模型,将被全球科学界使用。微软使用的是EPYC和Instinct处理器,并且他们已经建造了最近o50榜单上排名第1的超级计算机,用于运行人工智能和高性能计算工作负载。我们还与韩国电信等其他公司合作,开发了一个拥有10亿参数的大型语言模型。让我们更深入地了解LUMI如何使用EPYC处理器和Instinct加速器进行人工智能症是人类健康的主要负担之一。将样本经过战斗流程需要很长时间。战斗人工智能的目标是为病理学家构建一个决策支持工具,帮助他们进行诊断我们将数百万个来自患者的组织样本输入到这个神经网络中数据越多模型变得越好处理这些数据并开发出洞察力需要大量的计算资源这些洞察力可以用来推动人类进步分析这些组织图像的主要挑战之一是来自样本处(如固定切割和染色的技术变异同时训练这些神经网络也是具有挑战性的通过这些基于人工智能的决策支持工具我们能够为病理学家提供基于数据的诊断工具我们建造的超级计算机将帮助人们构建更准确更好的模型取得更好的结果,影响数十亿人的生活。这只是使用人工智能加速下一代系统的众多案例之一。图:MDAI平台AMD数据中心和AI技术首映,我可以用三个词来总结我们的方向和目前的状态,以及我们如何实现人工智能和软件开发:开放、经过验证和准备就绪。我们在构建强大的软件堆栈方面取得了非常大的进展,该堆栈与开放的模型、库、框架和工具生态系统相互配合。我们的平台在当前的部署中已经得到验证,在介绍软件和生态系统之前,我想分享一些我们在平台方面取得的进展。在CES上,我们宣布了Ryzen74000系列。Ryzen74000系列现在已经投入生产,具有诸如owsStudioEffects的视频协作功能,并且它的运行时支持已在最近的MicrosoftBuild大会上宣布。在嵌入式领域,我们正在向包括汽车和工业市场在内的多个市场的领先客户提供VersalAI产品的样品。对于我们的EPYC平台,我们最新的Zen3.0版本已与TensorFlow集成,并在AI工作负载上实现了非常显著的性能提升。在嵌入式领域,我们正在向包括汽车和工业市场在内的多个市场的领先客户提供esalAI品的样品。对于我们的EPYC平,我们最新的Ze3.0版本已与esrFlow集成,并在AI作负载上实现了非常显著的性能提升。现在转向数据中心的GPU领域我们正在与微软和其他领先的云服务提供商以及许多灵活非常创新的小公司合作图:ROCm技术AMD数据中心和AI技术首映,我们看到对我们GPU的需求在广泛增长,并且增长非常迅猛。我们继续谈谈软件。实现应用性能确实需要一个针对生态系统优化的领先软件堆栈首先让我介绍一下我们为Instinct数据心GPU提供的软件堆栈——ROC是一套完整的库运行时编译器和工具用于开发和运行AI型和算法ROCm堆栈一大部分实际上是开放的,包括我们的驱动程序语言运行时以及调试器和性能分析工具我们的库也都是开放的OCm还支包括开放架、模型和工具在内的AI软件生系统。现在OCm已经进入第五代,它包括了非常全面的I和高性能计算优化套件。如,在AI面,我们为大型语言模型进行了优化的内核。我们支持p8等新的数据类型,并支持像OpnAIriton样的技术。OCm堆栈包括一些工具,可以方便地将现有软件移植到AMDInstinct平上。为了确保ROm的质量和稳定性我每晚运行数十万个框架测试并验了成千上万个AI运算和n到n模型的广泛范围这为持续的Poch和esorFlow兼容性提供了非常可靠的基础从而实现了丰富的开箱即用的AI体验Pyorch嘉宾:图:PyTrch简介AMD数据中心和AI技术首映,我们最近发布了Pyoc2.0,其中包括一个编译器,使得Pyoch速度提高了%到%,比之前的开箱即用版本要快。它使用了ictor之前提到的OpnAIriton技术。我们对此非常兴奋,我们看到很多客户对此非常满意这就是Pyoch为您带来的好处。AMD和Mea之间的合作已经延续了多年。我们向AMD提了关于运行AI工作负所需的理想硬件和软件的许多方面的反馈意见。AMD和Meta一起合作构建了他们的结果堆栈,并开发了一系列Pyoch算符和集成,以对整个堆栈进行强大的测试我对目前的支持感到非常兴奋尤其是对于Instict加速器在ROm中的支持我对也非常兴奋我认为这只是个开始我期待着看客户如何评估这个堆栈的成熟度我们花了很多时间努力确保它的量和效果。在AI工作载中,通常存在一个主导框架。当你编写工作负载时,如果需要切换到不同的硬件平台,这就需要进行大量的工作,开发人员必须在不同平台之间移动神经网络工作负载时进行很多软件方面的工作。所以我们与AMD在ROm堆栈和Hydrgn集成方面的合作解决了这个问题实际上你在很多情况下几乎不需要做太多工作就可以从一个平台切换到另一个平台。因此,你可能只需要在将其部署到AMDPU后进行一些微调工作,整个过程非常无缝所以我认为开发人员在切换到AMD的Pyoch后端时将会有巨大的生产力提升,相比于使用TPU或者Nidia的后端我对开发人员在切换到AMD端时的整体生产力提升感到非常兴奋尤其是从InstictPU开始我希望您们也能将这种能力扩展到其他类别的GPU上。当然,我们的目标是为所有平台上的开发人员提供这种能力。Pyoch2.0为开发人员提供了一个开放的高性能和高效的选项,以开发他们的最新AI项目这种选择对创造力和民主化至关重要我们仅有的两个与Pyoch在这个级别进行集成的GPU平台之一因此们已经介绍了和集成,开放框架,接下来我们将深入探讨AI模型和算法的顶层。HggingFace是开源社区中领先的AI型创新推动者。他们提供广泛的模型,包括在GPT模型中核心的trasfomers,还有用于视觉模型以及其他各种应用和用例的模型。这些模型的参数范围从数十亿到接近万亿,包括百万级和低位数十亿参数的模型。HuggingFce嘉宾:重要的是要记住在过去的5到0年中AI大部分进展都要归功于开放科学和开源也许如果没有它我们离天的位置可能还要远0年现在我们展望未来时开放科学和开源AI不仅是速技术发展的一种方式还可将巨大的AI能力、巨大的价值创造以及巨大的生产力提升分配给所有公司、初创企业、非营利组织和监管机构。在未来我们希望每家公司都能够在AMD硬件上训练和运行他们自己的CatGPT通过这样做大部分时间使用定的、专门的、较小的模型使AI运更快、更便宜、更好。这也使得公司更安全,同时也为整个领域创造了更多透明度和问责制的机会,从而促进了更加道德的A。这是一种巨大的机遇。HginFace非常幸运地成为当今最常用的开放式AI平我们有1,000家公司使用我们的软件他们共享了超过0万个开放模型数据集和演示你可能听说过其中一些比如StaleDiffusionFalcoBallooStock、Music后者是几天前由Meda发布的。仅上周就新增了超过5,00个模型,这展示了开源AI社区的疯狂速度。我们将为AMD平台进行所有这些优化,从InstictGPU开,然后是Ryzen和EPY,以及ersal等嵌入式产品。我们还将在一些最受欢迎的(如rnsfomers的回归测试中包括AMD硬件以确保像上周新增的5,00个模型对AMD平进行了优化。这真是令人兴奋的消息。目标是在硬件和软件之间实现最佳组合。非常重要的一点是,在人工智能发展过程中,硬件不应成为瓶颈或阻碍者我们的目标是扩展人工智能构建者在训练和推理方面的选择范围。我对AMD在据中心中支持大型语言模型的能力感到非常兴奋,这要归功于其内存容量和带宽优势。人工智能正在成为构建各行业技术的默认选择对吧?我们谈论的不仅是语言模型还有图像音频视频等我看到越来越多的应用领域如时间序列生物学化学等希望这种合作能够成为推动人工智能进一步民主化改每个人生活的重要一步。这是一个激动人心的愿景,我们在AMD深并与之共享。有这么多模型在AMD台上进行优化,很快这些模型将在我们的Instict平台上以直接使用。我们将将开源社区的创新速度和模型的广度带到AMD平台上。我想我们都知道,人工智能的创新速度是前所未有的。开源社区显然是推动这种速度和创新广度的主要推动者而我们与之整合并优化开放生态系统的软件以提供高效高性能和开放的开发框架对此至关重要。图:GPU推动生成型人工智能AMD数据中心和AI技术首映,大语言模型的生成型人工智能已经改变了格局对更多计算资源的需求呈指数级增长无论是在训练方面还是推理面,更大的模型可以提供更好的准确性。行业中正在进行大量的实验和开发工作,其中,GPU正在推动生成型人工智能。A是Instinct加速的基础架构,专为人工智能和高性能计算工作负载而设计。CNA3是我们全新的架构,用了全新的计算引擎、最新的数据格式、5纳米和6纳米工艺技术,以及最先进的三联封装技术。图:MI30A介绍AMD数据中心和AI技术首映,今年早些时候的CES,我们提前展示了MI30A,它是世界上第一个数据中心A

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论