版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2024年电子行业专题报告:英伟达GTC大会在即_持续关注AI进展1.全球领先的算力平台,业绩大幅提升1.1四项主营业务,打造行业领先公司全年收入翻倍,数据中心迎来强劲增长。公司2024财年(截止24年1月末)的收入为609亿美元,同比增长126%。公司产品用于多个下游,主要有游戏、数据中心、汽车、专业可视化四个业务板块。数据中心在2024财年的收入为475亿美元,同比增长217%;其中,计算收入增长244%,网络业务收入增长133%。库存水平正常化和需求增长,合作伙伴销售量增加,推动游戏收入增长15%,达104亿美元。专业可视化收入为16亿美元,同比增长1%左右。随自动驾驶平台的增长,汽车收入增长21%至11亿美元。公司数据中心平台由计算和网络产品组成。计算产品包括超级计算平台和服务器,还包括NVIDIAAIEnterprise软件、DGX云服务,以及越来越多的加速库、API、SDK和特定领域的应用程序框架。网络产品包括InfiniBand和以太网的端到端平台,如:网络适配器、电缆、DPU和交换系统,以及完整的软件堆栈。以GPU为基础,业务不断拓展。随着人工智能和高性能计算工作负载变得非常大,数据中心已经成为新的计算单元,GPU是公司加速计算平台的基础,擅长并行工作负载,例如神经网络的训练和推理。除GPU之外,公司数据中心平台业务在2022财年扩展到DPU,在2024财年扩展到CPU,优化整个计算、网络和存储堆栈,以提供数据中心规模的计算解决方案,推出NVIDIADGXCloud平台,包括基于云的人工智能基础设施和软件,目前公司已与领先的云服务提供商合作。游戏平台技术领先,RTX产品将加速AI应用普及。游戏平台利用GPU和先进的软件,游戏运行更流畅,图形质量更高。公司开发的NVIDIARTX具有实时、电影质量渲染的光线跟踪技术,采用深度学习超级采样技术,通过AI技术提升游戏体验。公司拥有超1亿台支持AI的PC的安装基础,超过500个RTX支持AI的应用程序和游戏,以及强大的开发工具,RTX已成为AIPC的领导者。多产品助力市场规模大。公司针对游戏市场的产品包括用于游戏台式机和笔记本电脑的GeForceRTX和GeForceGTXGPU,用于在低功率设备上玩PC游戏的GeForceNOW云游戏,以及用于游戏机的SoC和开发服务。多平台提供服务,专业可视化业务布局广泛。公司与独立软件供应商密切合作,为其产品进行优化,从而服务于专业可视化市场。公司GPU计算平台提高了生产力,并为设计和制造、数字内容创建等领域的关键工作流程引入新功能。RTX平台可实时使用光线追踪来渲染电影、物体和环境,允许专业人员使用RTXGPU和软件优化工作流程。Omniverse作为开发平台和操作系统,可用于构建虚拟世界仿真应用程序;工业企业正采用Omniverse的3D和仿真技术,将实体资产、流程和环境数字化。汽车业务达成广泛合作,DRIVEHyperion服务于自动驾驶技术。公司汽车产品由自动驾驶和车载座舱计算平台解决方案组成。公司在AI领域的技术领先,与汽车生态系统中的数百家合作伙伴合作,包括汽车制造商、tier1供应商、汽车研究机构等,共同为汽车自动驾驶技术开发并部署AI系统。DRIVEHyperion包括DRIVEAGX计算硬件、全套支持全自动驾驶功能的参考传感器,以及全套开放、模块化的DRIVE软件平台,用于自动驾驶、地图和停车服务,为自动驾驶市场提供端到端解决方案。DRIVESim方案使得车辆功能更新更流畅。Omniverse软件的可扩展数据中心仿真解决方案DRIVESim,可用于数字驾驶舱开发以及自动驾驶平台的测试和验证,使汽车能够在车辆的整个生命周期内接收无线更新,以增加新的特性和功能。1.2AI成为有力驱动,业绩全面受益为产品增加AI功能、开发大模型,AI成为新焦点。公司计算解决方案包括AI服务器中的三个主要处理单元GPU、CPU和DPU。公司将继续在GPU架构中添加AI特定功能,进一步扩大领导地位。除DGXCloud外,NeMo利用和第三方创建的开源和专有LLM,构建企业大语言模型。公司推动生成式Al应用于超过1亿台Al-Ready的RTXPC和工作站。数据中心引入加速网络平台、推理平台、DGX云。数据中心业务中,公司发布AI加速网络平台Spectrum-X,并推出AI推理平台,将全栈推理软件与Ada、Hopper和GraceHopper处理器相结合,优化生成式人工智能、LLM和其他AI工作。引入NVIDIADGX云,帮助企业创建和运营定制的大型语言模型和生成式AI模型。构建AI开发者平台,LLM运行效率显著提升。在PC上本地运行生成式Al需要正确的开发工具来调整和优化Al模型。公司为开发人员提供端到端的平台,用于为RTXPC和工作站构建和部署Al应用程序。其中ACE(AvatarCloudEngine)使开发人员能够在游戏中添加智能、动态的数字化身;AlWorkbench可简化对流行库的访问,如HuggingFace、GitHu和为Windows打造的NGCTensorRT-LLM,使得在RTXPC上运行LLM的速度提升5倍。游戏领域推出多款AI相关产品与服务。推出基于AdaLovelace架构的GeForceRTX4060和4070GPU,并宣布使用AI驱动的游戏Avatar云引擎,并推出了DLSS3.5RayReconstruction。此外,公司还发布了面向Windows的TensorRT-LLM,并推出GeForceRTX40系列超级GPU。使用NVIDIADLSS、光线追踪和其他NVIDIARTX技术的AI驱动RTX游戏和应用程序达到500个的里程碑。AI助推,多领域达成合作。与AWS就新的AI基础设施、软件和服务进行战略合作,公司和AWS将合作在AWS产品中承载NVIDIADGXCloud,以加速运行参数超1万亿的尖端生成式AI与LLM模型。AWS将基于NVIDIAH200、L4和L40SGPU推出另外三个新的AmazonEC2实例。同时,公司开发出NVIDIABioNeMo,一款生成型AI平台,与Recursion和Amgen在医疗保健领域达成合作。公司将长期投入AI研发,预期算力将提升100万倍。英伟达CEO黄仁勋2024年3月参加其母校斯坦福大学商学院SIEPR经济峰会以及ViewFromTheTop系列活动。强调在未来的10年里,公司将会把深度学习的计算能力再提高100万倍,从而让AI计算机不断训练、推理、学习、应用,并持续改进,将超级AI转变为现实。2.数据中心业务增长,产品矩阵不断扩充2.1数据中心业务稳步增长算力需求激增,驱动英伟达的数据中心业务飞速增长。英伟达的数据中心业务致力于为超算数据中心、企业数据中心、云计算、AI大模型训练和边缘计算等计算密集型任务提供软件+硬件的全面解决方案。GPU、CPU、DPU三芯矩阵为算力需求提供强力的硬件支持,CUDA则为用户提供了全面的软件生态。AI推理创造数据中心收入增量,汽车数据中心占比提升。数据中心业务2024财年四季度营业收入环比提升到184亿美元,创历史新高;全年收入为475亿美元,比2023财年增长217%。随着自动驾驶算法转向视频转换器,以及越来越多的汽车配备摄像头,预计汽车数据中心处理需求将大幅增长。在2024财年,大约40%的数据中心收入用于AI推理。在2024财年第四季度,大型云服务提供商为内部工作负载和外部客户提供支持,占数据中心收入的一半以上。2.2GPU+CPU+DPU三芯矩阵加速系统是重塑AI计算。服务器和工作站将配备计算加速器,为使用AI、可视化和自主机器等现代应用提供支持。其中许多系统还会配备数据处理器,用以加速网络、存储和安全服务。公司借助基于GPU、DPU和CPU三种新一代架构构建加速计算平台,凭借涵盖性能、安全性、网络等领域的前沿技术,重塑AI时代的数据中心。高性能GPU为AI模型训练加速。根据应用场景的不同,AI服务器可以分为训练和推理两种类型。训练型服务器对芯片算力要求更高,而推理型服务器对算力的要求相对较低。在训练端,目前有V100、A100、H100三款GPU。1)V100基于Volta架构,采用台积电16nm工艺,引入NVLink技术助力实现GPU和CPU之间高速通信,加速大规模模型的训练速度。2)A100基于Ampere架构,采用台积电7nm工艺。搭载第三代Tensor核心,进一步提升AI推理和训练能力。3)H100基于Hopper架构,采用台积电4nm工艺,集成800亿个晶体管。H100中还搭载Transformer引擎,该引擎为Tensor核心的变体,专用于Transformer训练和推理,使大模型训练速度提升6倍。此外,H100更大的显存和显存容量进一步满足了大语言模型的训练需求。在最新MLPerf训练基准测试中,搭载3584颗H100的云端计算系统完成GPT-3模型的训练时长仅11分钟。H100市场需求大,预计推出H200带来性能的进一步提升。英伟达在AI芯片市场的市占率超过80%,一张H100型号的AI芯片在Ebay上的价格甚至炒到了4.5万美元,而据英伟达在2024财年Q4财报电话会上透露,公司将在二季度推出的H200芯片的推理性能H100的两倍。B100即将发布,带来性能全面升级。公司将在GTC2024公布采用Blackwell架构的最新芯片B100GPU。B100相较采用Hopper架构的H系列产品,整体效能均进行大幅提升,HBM内存容量比H200芯片高出约40%,同时AI效能为H200GPU两倍以上、H100的四倍以上。推理端GPU全面覆盖AI应用场景。目前英伟达在推理端的产品主要包括A2、A10、A30、T4、L4、L40。1)A2:面向智能视频领域,为推理端的入门产品。该芯片具有体积小,低功耗的特点,可在数据中心密集部署。2)A10:面对数据中心轻中量级的图形需求,用于加速深度学习推理,交互式渲染和云游戏。3)A30:该芯片能够为行业标准服务器提供通用的性能,支持广泛的AI推理和主流企业级计算工作负载,如推荐系统、对话式AI和计算机视觉。5)A40:基于Ampere架构,主要面向数据中心的计算密集型工作负载,例如数据科学、深度学习和机器学习。相比较与其它推理端GPU,A40拥有更高的功耗。4)L4:基于AdaLovelace架构,拥有显著的能效比优势。并且L4在提高算力的基础上继承了T4小体积的优势,可在数据中心大规模部署。同时,L4支持视频AV1编码/解码,这对于与视频相关的云服务至关重要。GraceCPU是英伟达的第一个数据中心CPU,于23年下半年投入生产。GraceCPU配合GPU使用,具有高带宽低功耗内存的优势。GraceCPU搭载NVLinkChip-2-Chip(C2C)技术,GraceCPU之间或与HopperGPU之间的双向带宽可高达900GB/s,有效地提升了计算效率,可组成GraceHopper超级计算架构。GraceCPU较传统X86CPU更适合AI运算。在真实工作负载测试中,GraceCPU超级芯片在相同的功率范围内运行主流数据中心CPU应用的性能比X86处理器提高2倍。相比于X86CPU,Grace能提供更高带宽和更低能耗。GraceHopper系统的GPU-CPU双向链接带宽最高能达到900GB/s,远高于传统X86CPU+HopperGPU结构的128GB/s。新一代GH200GraceHopper超级芯片平台,迎接加速计算和生成式AI时代。公司于2023年8月8日发布新一代NVIDIAGH200GraceHopper平台,基于全球首款搭载HBM3e处理器的GraceHopper超级芯片,专为处理大语言模型、推荐系统、矢量数据库等全球最复杂的生成式AI工作负载而构建。新平台性能提升,可高效运行更大模型。该平台采用双配置,提供的内存容量和带宽比当前产品分别增加了3.5倍和3倍,包括一个拥有144个ArmNeoverse内核、8petaflops的AI性能和282GB最新HBM3e内存技术的单个服务器。GraceHopper超级芯片可通过NVLink与其他超级芯片连接,协同工作,部署大型生成式AI模型,使GPU可以完全访问CPU内存,在双配置中可提供总计1.2TB的快速内存。HBM3e内存比HBM3快50%,可提供总计10TB/s的带宽,使得新平台能够运行比上一版本大3.5倍的模型。公司率先开发DPU,具备更加高效、节能等优势。数据处理单元(DPU)集成了专用的网络加速模块,用于完成数据中心中网络协议处理、网络安全和存储控制等任务,DPU提供的高速网络能有效减少数据传输过程中的算力损耗。DPU比通用CPU更有效地运行数据中心基础设施任务,且DPU上的CPU内核往往比一般服务器CPU更节能,同时可以直接访问网络管道。因此,DPU内核可更有效地执行遥测、深度数据包检测或其他网络任务。英伟达率先将DPU定义为数据中心的“第三颗主力芯片”。借助BlueField实现数据中心转型,DPU迭代加速。目前英伟达在产品上具备先发优势,自英伟达收购Mellanox以来,英伟达先后推出了3代DPU芯片,包括:BlueFieldDPU,BlueField2.DPU和BlueField-3DPU。其中最新的BlueField-3DPU于2022年推出,该芯片使用ARM核,能提供最高之400Gb/s的网络传输速度。英伟达希望DPU逐步取代当前主流的英特尔和AMD主导的低端X86CPU。2.3DGX全力构建AI基础设施DGX构建AI基础设施,GH200超算系统巩固行业领先地位。NVIDIADGX是NVIDIA推出的一系列集成式深度学习系统,旨在为AI工作负载提供高性能的计算和数据处理能力。DGX系列产品集成了AI计算芯片、高速互连技术和软件工具,以加速深度学习训练和推理任务,大大简化用户部署和管理服务器的过程,具备可扩展性,可通过连接多个DGX系统以构建更大规模的AI集群。公司23年5月29日发布了DGXGH200超算系统,搭载了256块GraceHopper超级计算芯片,拥有18432个CPU核心和144TB显存。通过高速互联技术保证芯片间的数据传输,为AI模型提供内存支持。其中NVLinkC2C负责CPU与GPU之间的数据通信,NVLink4和NVSwitch负责GPU之间的数据传输。高性能芯片和互联技术的集成使DGXGH200拥有极为强大的性能,可处理大型推荐系统、生成式AI和图形分析领域的TB级模型,为超大AI模型提供具备线性扩展能力的大型共享内存空间。3.游戏业务技术领先,业绩重回增长趋势3.1游戏业务回升,新一代RTX40系显卡或成拐点独立显卡出货量增长,游戏业务重回增长。英伟达2024财年的游戏收入为104亿美元,比2023财年增长15%。24财年第一季度游戏业务营收仅22.4亿美元,同比下降38%,主要原因有:1)期间游戏业务爆发式增长,导致消费者当期设备升级的需求低。2)下游PC市场去库存,其中绝大部分库存搭载上一代RTX30系独立显卡,影响独立显卡销售。24财年第三、四季度,公司独立显卡出货量以及游戏业务收入均有所回升,其中第四季度独立显卡出货量760万块,公司游戏业务总收入29亿美元。英伟达独立显卡领域龙头地位稳固。根据游戏平台Steam每月公布的硬件调查数据,英伟达GPU稳居排名第一位置,在2024年2月公司GPU的市场占有率约为77%,AMD为15%,英特尔为8%,其他公司在PC端GPU赛道与英伟达仍有较大差距。新一代RTX40系显卡驱动业务复苏。随着PC去库存进程即将结束,渠道库存水平正常化,合作伙伴的销售量增加,公司新一代显卡的销售量回升。RTX4060Ti16G,RTX4060两款独立显卡在2023年5月发售,这两款显卡均对应中端市场,具有极高的性价比优势。RTX4060Ti16G和RTX4060的发售有望持续带动英伟达未来的游戏业务营收增长。电影级光线追踪技术进一步巩固行业领先地位,产品迭代增强功能。目前英伟达PC端GPU产品包括GeForceRTX和GeForceGTX两个系列。自英伟达20系PC端显卡开始,公司将其先前的GTX系列更名为RTX。其中GeForceRTX平台搭载了专用的光线追踪硬件RTCore,每秒可投射超10GB光线,在游戏中实现电影级实时照明。2024年3月,据博板堂透露,公司已彻底停产GeForceGTX16系列GPU,预计1到3个月消化完库存,RTX系列产品已经完整覆盖了低/中/高端的独立显卡市场。公司在CES2024上推出全新GeForceRTX40SUPER系列显卡、全新RTX游戏、G-SYNC技术、生成式AI领域创新、针对RTX视频超分辨率的全新增强功能。AdaLovelace架构为新一代显卡表现带来质变。AdaLovelace是英伟达推出的第三代RTX架构。作为RTX40系显卡的核心,Ada架构使新一代显卡在性能和效率上都实现了质的飞跃。该架构搭载的第四代TensorCores具有高达1.32Petaflops的FP8张量处理性能,较上一代性能提升超过5倍。同时该架构基于台积电4nm制程工艺,实现了能效比较上一代2倍的提升。并且更高的能效比意味着新一代RTX40系GPU将在笔记本电脑端带来更强的性能释放。3.2DLSS3技术为游戏体验带来质变DLSS3具备AI技术优势,推动游戏业务发展。DLSS3技术由最新一代GeForceRTX40系GPU所搭载的Tensor核心和光流加速器支持。该技术能够预测场景中帧与帧之间的运动变化,从而通过AI实现帧生成技术,提高帧率的同时保持图像质量。DLSS3能通过AI重建7/8的显示像素,与没有DLSS相比,游戏性能提升了4倍。该技术将对PC端的游戏体验带来显著提升,使玩家能够不受硬件限制,仅凭AI计算提高游戏帧率,未来有望刺激PC端的换机需求,为游戏业务创造增量。3.3布局云游戏,扩大游戏业务增长空间GeForceNow,新一代的云端游戏解决方案。GeForceNow是公司推出的一项云游戏流媒体服务,允许用户通过互联网流式传输游戏,而无需下载或安装游戏本身。用户可以通过各种终端设备(如PC、Mac、笔记本电脑、智能手机和电视等)访问GeForceNow,而不用受制于终端设备本身的硬件条件。基于英伟达性能强劲的GeForceRTX系列GPU和GameReady驱动,GeForceNow能给玩家提供更好的游戏体验。此外,与其竞争对手谷歌Stadia和微软xCloud不同,GeForceNow不受游戏平台限制。在Stadia和xCloud游玩的玩家只能与同平台的玩家互动,而使用GeForce的玩家可以进行跨平台互动。云游戏市场前景广阔。根据Statista提供的数据,2025年云游戏市场规模预计达到81.7亿美元,2022-2025年间的CAGR达约51%。受制于网络延迟等因素,现阶段的云游戏市场成熟度有待提升,发展前景广阔,英伟达提前布局云游戏领域有望在未来获得更多市场份额。4.专业可视化业务略有提升,应用场景广泛4.1专业可视化业务表现稳定,FY24Q4营收同比提升与独立软件供应商ISV密切合作,为客户提供软硬件结合的解决方案。其中硬件层面包括RTX系列GPU,用于为软件层的图形渲染提供算力支持。软件层面为Omniverse协同工作平台。专业可视化业务为设计、制造和数字内容创建等多领域的关键工作流程进行优化。其中设计和制造包括计算机辅助设计、建筑设计、消费品制造、医疗仪器和航空航天。数字内容创作包括专业视频编辑和后期制作、电影特效和广播电视图形。2024财年的专业可视化收入为16亿美元,比2023财年增长1%;24财年四季度实现营收4.63亿美元,同比增长105%。4.2Omniverse助力构建全新生态Omniverse打造全新协同工作平台,布局元宇宙。Omniverse是由英伟达基于UniversalSceneDescription(USD)构建的虚拟协作和仿真平台,能将设计师、工程师和其他创作者连接到同一个虚拟平台中实时协同工作。Omniverse平台优势明显。1)Omniverse可连接不同设计工具和软件,如AutodeskMaya、AdobePhotoshop等,使其能够实时传输数据和更好地集成工作流程。2)作为开放性的平台,向开发者提供了API和SDK,使开发者能够扩展和定制平台,与其他工具和系统进行集成。结合构建CUDA生态系统的成功经历,未来可能构建出基于Omniverse的完整生态系统。3)基于RTX技术,Omniverse能够进行实时的物理仿真和模拟,在虚拟世界中复现现实世界中的元素,例如光线、重力、碰撞等。应用场景广阔,助力企业提高生产效率。Omniverse的应用场景覆盖了建筑工程,媒体和娱乐,制造业,超算行业以及游戏开发。目前宝马已经开始应用Omniverse优化工作流程,该技术目前能完全模拟宝马31座工厂的所有元素,包括工人、机器人、建筑物等,工厂内的工作者能够在虚拟空间中进行生产规划。目前宝马已经通过该技术将工厂生产规划效率提升了30%。5.汽车业务架构逐渐完善,自动驾驶创造新增量5.1自动驾驶业务保持增长,未来前景广阔汽车业务表现突出,看好未来增长空间。公司的自动驾驶业务由驾驶舱AV平台、AI驾驶舱和信息娱乐解决方案以及相关的开发协议组成。2024财年第四季度公司的汽车业务收入同比略有下降,为2.81亿美元;但全年实现营收11亿美元,同比23财年增长21%。汽车业务与供应链多企业达成合作,DRIVEOrin与GPU带来增量。汽车制造商理想、蔚来、小鹏,威马、比亚迪、沃尔沃、比亚迪等,还有滴滴、小马智行等出租公司都正基于Orin平台进行自动驾驶开发。在智能座舱领域,英伟达在23年5月与联发科建立合作伙伴关系。联发科将开发集成英伟达GPU芯粒(chiplet)的汽车SoC,搭载NVIDIAAI和图形计算IP,联发科的智能座舱解决方案将运行NVIDIADRIVEOS、DRIVEIX、CUDA和TensorRT软件技术,提供先进的图形计算、人工智能、功能安全和信息安全等全方位的AI智能座舱功能。英伟达在22年9月发布了基于Hopper架构的Thor芯片。Thor芯片算力高达2,000TOPS,是Orin的近8倍,是单颗FSD芯片的28倍。Thor可集成智能汽车所有AI计算需求,包括智能驾驶、主动安全、智能座舱、自动泊车、车载操作系统、信息娱乐等,将在25年上量,未来有望成为智能汽车的集中式中央域控的中央大脑。5.2软硬件结合打造自动驾驶完整开发生态高性能芯片为自动驾驶业务提供硬件支持。1)NVIDIADRIVEHyperion自动驾驶开发平台集成了AI芯片和完整的传感器套件,包括12个外部摄像头、3个内部摄像头、9个雷达、12个超声波、1个前置激光雷达和1个用于真值数据收集的激光雷达。该系统与软件栈结合,加速车辆自动驾驶技术开发。2)NVIDIADRIVEOrinSoC可提供每秒254TOPS,是自动驾驶系统的算力核心。OrinSoC采用7纳米工艺,由Ampere架构的GPU、ARMHerculesCPU、第二代深度学习加速器DLA、第二代视觉加速器PVA、视频编解码器、宽动态范围的ISP组成,引入了车规级安全岛设计,为自动驾驶功能、置信视图、数字集群和AI驾驶舱提供动力支持。全面开放的软件栈,构建完整的自动驾驶开发系统。NVIDIADriven的软件栈完整覆盖了包括感知、定位和地图构建、计划和控制、驾驶员监控和自然语言处理部分,能够有效地辅助用户开发和部署自动驾驶应用。包括:1)DRIVEOS:由嵌入式实时操作系统、Hypervisor、CUDA库和TensorRT组成,是整个软件堆栈的基础,主要用于为应用程序提供安全可靠的执行环境。2)DRIVEWorks:作为中间层充分调用硬件层的计算能力,达到硬件的全部吞吐量限制。3)DRIVEAV:获取传感器数据以完成距离测算、识别障碍物等功能,并基于数据进行地图构建和路径规划。4)DRIVEIX:用于访问驾驶仓内感知的应用程序,可实现驾驶员监控、AR/VR可视化和实现车辆与乘客间的自然语言交互等功能。6.布局具身智能,机器人有望引领AI浪潮6.1开辟具身智能新领域,加紧平台构建开辟具身智能体领域,VIMA实现机械臂操作。在ITFWorld2023半导体大会上,英伟达创始人兼CEO黄仁勋表示,人工智能的下一个浪潮将是具身智能(embodiedAI),即能理解、推理、并与物理世界互动的智能系统。同时,公布VIMA多模态具身人工智能系统,能够在视觉文本提示的指导下执行复杂的任务。VIMA基于Transformer架构的仿真机器人智能体,能像GPT-4一样接受Prompt输入,而且输入可以是多模态的(文本、图像、视频或它们的混合),然后输出动作,完成指定任务。软硬件设施齐备。公司在具身智能领域所开发的代表性产品是数字孪生平台Omniverse和Isaac平台。Isaac平台配套IsaacGem硬件加速工具、IsaacSim仿真平台以及用于端到端工作流部署和管理的EGXFleetCommand和IsaacforAMR等。硬件方面,公司开发Jetson系列嵌入式AI平台,包含Jetson模组、用于加速软件的NVIDIAJetPackSDK,以及包含传感器、SDK、服务和产品的生态系统等。NVIDIAIsaac平台,加速AMR研发。公司Isaac平台是一个全新开放式平台,结合从边缘到云的计算能力与强大的软件堆栈,适用于AI自主移动机器人(AMR)。IsaacAMR平台使用新的IsaacROS(机器人操作系统)GEM、IsaacSim中的仓库仿真和IsaacNovaOrin优化运营效率,使用AI为机器人开发解决方案提供动力支持,提供包括机器人训练、仿真、开发以及部署方案,从而加速AMR的整体开发和部署,为开发者提供了一个功能强大的端到端平台。Jetson边缘人工智能平台,可运行LLM,为Isaac平台等提供支持。Jetson作为适用于自主机器和嵌入式应用的先进平台,包括小型、节能的生产模块和开发套件,提供最全面的人工智能软件堆栈,用于高性能加速,为边缘的GenerativeAI、NVIDIAMetropolis和Isaac平台提供动力,与其他NVIDIA平台无缝集成,共享AI软件和云原生工作流。与其他嵌入式平台不同,Jetson能够运行大型语言模型(LLM)、视觉转换器和本地稳定扩散,包括JetsonAGXOrin上最大的Llama-2-70B型号,以交互速率运行。量产JetsonOrin模组助力机器人更快地进入市场。量产JetsonOrin模组由英伟达其他平台上使用的相同AI软件和云原生工作流提供支持,可提供企业在边缘构建自主机器所需的性能和能效,强大的Jetson软件堆栈可帮助机器人开发者更快地将产品推向市场。JetsonOrin模组算力高275TOPS,性能是上一代产品的8倍,适用于多个并发AI推理管道,还可通过高速接口为多个传感器提供支持,有望成为机器人开发新时代的理想解决方案。英伟达提供JetsonAGXOrin开发者套件,可以模拟整个JetsonOrin模组系列以进行开发,为制造、物流、零售、服务、农业、智慧城市、医疗健康和生命科学等领域的机器人开发和边缘AI应用助力。6.2GEAR小组启动,研究成果卓著成立具身智能体研究小组GEAR,正式布局、研发提速。英伟达于2024年2月24日宣布成立研究小组“GEAR”,通用具身智能体研究,标志着公司正式入局具身智能领域的研究,加速人工智能具身化进程。GEAR的任务是为虚拟和物理世界中的具体代理建立基础模型,专注于四大关键领域:多模态基础模型、通用型机器人研究、虚拟世界中的基础智能体以及模拟与合成数据技术,已开发出VIMA、Voyager、Eureka等先进技术及解决方案。Voyager无需调整模型参数,通用人工智能体起点。Voyager是《我的世界》中第一款LLM驱动的嵌入式终身学习代理,在没有人类干预的情况下不断探索世界,获得各种技能,并做出新的发现。Voyager包括:1)最大化探索的自动课程;2)用于存储和检索复杂行为的可执行代码技能库;3)结合环境反馈、执行错误和程序改进自我验证的迭代提示机制。Voyager与GPT-4进行交互,从而无需对模型参数进行微调,且增强了代理能力,表现出强大的情境终身学习能力。EurekaAI智能体诞生,可自动编写奖励算法训练机器人。NVIDIAResearch开发出一款名为Eureka的新型AI智能体,Eureka使用GPT-4LLM和生成式AI编写软件代码,不需要任何特定任务提示或预定义的奖励模板,且能随时结合人类的反馈改进其奖励。公司于23年10月20日发布此研究,包含一篇论文和相应的
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 大学大学应用概率与统计课件
- 机械制图模拟题+答案
- 介绍河南的英文课件演讲
- 养老院老人生活照顾标准制度
- 养老院老人健康监测人员福利待遇制度
- 托管中心个体工商户劳务合同范本(2篇)
- 拆除施工承包协议书(2篇)
- 《药膳常用的中药》课件
- 对数的运算性质及其应用课件
- 2024年会议室场地出租协议3篇
- 电动葫芦吊装施工方案
- 校本课程《典籍里的中国》教案
- 最新汽车租赁管理制度
- CNAS-CV03-2022 温室气体 第三部分 温室气体声明审定与核查规范和指南
- 思想政治教育学原理整套课件完整版电子教案课件汇总(最新)
- GB 40560-2021 人民币现金机具鉴别能力技术规范
- 10t单梁起重机安装方案
- 医院支气管镜检查及治疗知情同意书
- 住宿业疫情防控应急预案(通用25篇)
- 巡察情况汇报会领导点评范文(2篇)精选
- 压疮预防及护理新进展-PPT课件
评论
0/150
提交评论