构筑NICC新型智算中心加速大模型发展_第1页
构筑NICC新型智算中心加速大模型发展_第2页
构筑NICC新型智算中心加速大模型发展_第3页
构筑NICC新型智算中心加速大模型发展_第4页
构筑NICC新型智算中心加速大模型发展_第5页
已阅读5页,还剩25页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

2023.9人类社会正在步入通用人工智能新时代,科学技术体系、产业布局及社会治理模式都将被深刻改变生产力发展通用人工智能时代通用人工智能时代蒸汽时代消费互联网时代蒸汽时代消费互联网时代电气时代电气时代 数字经济时代2充分发挥人工智能从“X+AI”到“AI+X”的变革性作用,重塑业务流程、形态、服务模式、价值呈现大模型大平台大平台新型智算中心3面向设计目标,AI赋能网络的设计重点在于数据和模型、网络使能AI的设计重点在于计算和平台AI赋能网络网络使能AI赋能场景使能场景为实现AI赋能网络设计目标,需重点关注网络内生数据和模型的构建问题调用服务第三方驱动为实现AI赋能网络设计目标,需重点关注网络内生数据和模型的构建问题调用服务第三方驱动支撑的平台化服务网络平台数据模型计算+能力平台数据构建构建构建S用户云核心网MEC无线网用户4为实现4为实现AI内生网络的整体性能最优设计,需重点解决AI赋能网络和网络使能AI在资源、功能和服务层的耦合关系,实现至简灵活的架构•基础大模型:加快构建适用于泛场景的自主可控通用基础大模型,打造国家级通用智能底座•行业大模型:聚焦供给侧,加快构建行业大模型,加速各行业各领域智能化转型升级,促进我国整体生产力跃升支撑工业生产民生服务通信特色工业生产民生服务通信特色治理衍衍生5新型智算中心C以高性能GPU、AI加速卡为中心,以高速互联智算集群为目标,形成集约化建设的E级超大规模算力基础设施,具备软硬件AI全栈环境,支撑AI大模型的高效训练和推理新互联新算效新存储新互联新算效新存储6在新互联、新算效、新存储、新平台、新节能等五大方面进行系统性重构,推动集群时期(~2025)超级池化时期(2025~)集群时期(~2025)百卡高速总线互联异构时期(~2021)百卡高速总线互联异构时期(~2021)单机8卡高速互联高性能无损网络扣卡模组海量非结构化数据,融合存储算力池化扣卡模组海量非结构化数据,融合存储算力池化,分布式训练单机柜40KW,冷板式液冷25G传统以太存算一体内存池化算力原生独立存储冷板/浸没式液冷独立存储冷板/浸没式液冷裸机/虚机/容器裸机/虚机/容器7CPUGPUDPUCIM高速互联计算总线CPUGPUDPUCIM高速互联计算总线液冷高效供电冷却水系统TesnsorFlowPyTorchPaddlePaddleDeepSpeed跨架构编译器算力抽象运行时...裸金属实例容器实例虚拟机实例RoCEGSE文件对象全局统一存储融合存储编排调度计量计费算力交易用户界面开发管理交付管理容器存储裸机虚机TesnsorFlowPyTorchPaddlePaddleDeepSpeed跨架构编译器算力抽象运行时...裸金属实例容器实例虚拟机实例RoCEGSE文件对象全局统一存储融合存储编排调度计量计费算力交易用户界面开发管理交付管理容器存储裸机虚机8模型从千亿到万亿,高速卡间互联需求从8卡扩展到百卡,智算设备形态将从S(Server服务器)演变为S²(SuperServer,超级服务器带来智算中心底层互联技术的全新变革计算总线SwitchSwitchSwitch总线Switch总线Switch...计算总线SwitchSwitchSwitch总线Switch总线Switch......一组有N张GPU/AI卡一组有N张GPU/AI卡更低延迟的内部通信更高效的数据读写更灵活的拓扑连接八_人_太_A\__人__太__A…9专用网络、超高性能、成本昂贵生态开放、性能有限、性价比高创新全调度以太网(GSE),革新以太网底层转发机制,增强物理以开放破垄断层、链路层、网络层、传输层协议能力,全面提升网络性能以开放破垄断分发粒度发流模式以创新提性能以创新提性能逐流逐流分发盲发盲发+被动拥塞控制逐“报文容器”分发感知+感知+主动流量控制传统CPU和GPU分立的存储架构,导致数据大量搬移,影响模型训练效率需要构建CPU和GPU间的统一内存池,减少数据搬运,简化编程开发,使模型训练更加高效传统:HBM和DDR分立•数据多次复制,延迟高,影响模型训练效率•AI模型开发复杂,需要手动管理数据搬移未来:HBM和DDR池化•数据无需多次搬运,GPU可快速访问巨量共享内存•提供统一寻址空间,AI软件模型开发简化统一内存池随着NICC向超级池化阶段发展,解决海量数据处理要求,需要聚焦GPU升级,突破性能瓶颈,加强CPU、GPU、DPU三大芯片协同。未来,探索存算一体新型计算范式,达到能效比数量级提升下一代GPU芯片设计GPU、CPU、DPU三大芯片协同存算一体,突破传统计算范式性能瓶颈显存带宽和容量的制约数据搬移的功耗激增演进路线①存储一体化设计②稀疏化设计③算法和芯片协同设计④低时延推理架构设计三大芯片协同提升算效迎接更加爆炸式的数据处理需求达到能效比数量级提升智算应用难以在多样竖井化智算生态间迁移部署,制约系统整体运用效能。中国移动原创提出算力原生技术,打造“芯合”算力原生跨架构平台,打破“框架+工具链+硬件”紧耦合生态锁定,屏蔽底层硬件差异,繁荣全“芯”生态应用层•跨架构综合编译器应用层算力原生层算力原生层框架层 跨架构流转的原生程序•跨架构流转的原生程序原生运行时程序加载动态链接原生运行时程序加载动态链接工具链硬件层•工具链硬件层CANNnteloneAPICUDAROCmNeuWare实现“中间元语”跨厂商的再装配CANNnteloneAPICUDAROCmNeuWare一次开发、一次封装、跨芯迁移智算中心走向超大规模,面对不断攀升的能耗需求,液冷是必经之路但液冷产业生态不完善,设备标准化程度低,需要通过“五大统一”实现三“极”目标挑战1:单一挑战1:单一AI服务器功耗超过10kW单单机架功率TDP(W)700GPU500300-400300W250250-300150-250~2016~20192020~20212022~挑战2:单

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论