2025年TMT行业AI与车载2025算力与算法新星熠熠_第1页
2025年TMT行业AI与车载2025算力与算法新星熠熠_第2页
2025年TMT行业AI与车载2025算力与算法新星熠熠_第3页
2025年TMT行业AI与车载2025算力与算法新星熠熠_第4页
2025年TMT行业AI与车载2025算力与算法新星熠熠_第5页
已阅读5页,还剩34页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

AI+车载:2025算力与算法新星熠熠!2025年TMT行业投资策略证券研究报告3投资案件相关标的:EDA/IC/处理器:华大九天、澜起科技、寒武纪、燧原科技(辅导)、摩尔线程(辅导)、沐曦集成(一级)先进制造与封测:中芯国际、甬矽电子、长电科技、通富微电、伟测科技国产

AI

服务器:浪潮信息、神州数码、中科曙光信创/数据:达梦数据、软通动力智驾国产化:地平线机器人(港股)、黑芝麻智能(港股)、韦尔股份、比亚迪电子(港股)风险提示:技术路线不确定、技术研发迭代进展不及预期、供应链稳定风险、竞争加剧风险主要内容科技拐点,产业蜕变硬件:群星熠熠生辉软件:关键领域突破相关标的4证券研究报告51.1

三大需求驱动本土算力增长,受限背景下国产替代提速需求类型主体有关算力投资表述/开展模式厂商24H1出货量(颗)24H1份额23H1出货量(颗)23H1份额2024计划资本开支1730亿元,同比下降4%;但其中投入算力领域运营商中国移动475亿元,同比增长21.5%;预计2024年,智能算力计划至少新增英伟达724,57179.8%462,61890.1%7EFlops,整体算力规模到17EFlops,确保行业领先华为昇腾151,53216.7%39,1567.6%预计2024年资本开支约960亿元;产业数字化计划资本开支370亿元,昆仑芯16,5061.8%9,1971.8%中国电信同比增长4.1%;其中云/算力投资180亿元。2024年智能算力计划新寒武纪11,0921.2%5970.1%增至少10EFlops,整体算力规模将达到21EFlops以上,并全面打造面向智算的AIDC。燧原科技2,4920.3%1650.0%中国联通2024年总投资650亿元,投资重点由稳基础的联网通信业务转向高增长的算网数智业务;打造上海、呼和万卡智算集群,全网智算算力超15EFLOPS天数智芯9560.1%1670.0%英特尔4910.1%0.0%智算中心政府+国企+第三方企业合作根据中国信通院,截至2024年5月,中国建设和规划中的智算中心共有185座,总规划算力为272

EFLOPS,建成运营的有104

EFLOPS。沐曦集成2860.0%0.0%快手0.0%1,2220.2%算丰0.0%1280.0%互联网阿里巴巴2024H1

的资本支出230亿元人民币,同比增长123%,主要用于购买处理器以训练其统一系列AI模型,并将计算能力出租给其他企业。登临科技0.0%860.0%新华三.%.%腾讯H 的资本支出亿元人民币,同比增长%

,部分原因是对GPU和CPU服务器的投资增加。合计907,926100.0%513,399100.0%需求侧:政策明确指引,运营商

+

政府智算中心

+

互联网三大需求旺盛根据工信部等六部门联合印发的《算力基础设施高质量发展行动计划》及中国信通院数据,2022

年中国智算规模为41

EFLOPS,2025

年将达到105

EFLOPS1)电信运营商:2024

年三大运营商规划算力规模达

53

EFLOPS2)政府智算中心:智算中心落地节奏明显加速,同时建设规模增加3)互联网公司加大AI算力资本开支:2024

年上半年,阿里、腾讯、百度资本支出总和高达

500

亿元,同比增长117%供给侧:禁运背景下,国产算力替代必要性提高三大需求驱动本土算力增长 中国AI芯片出货量份额情况资料来源:

21世纪经济报道,证券时报,人民网,新浪网,IDC咨询,申万宏源研究61.2

2025

智能平权,智驾芯片迎国产化拐点国内AD/ADAS:2025

年智驾渗透率有望全面提升。比亚迪:预计

2025

年智能化会成为高优先级任务。国内其余领军如奇瑞、吉利、极氪:也有智能化新动作。特斯拉:多项目

FSD

进展发布,2026

robotaxi有望量产。智能平权、高端升级的趋势,也会带来车载芯片格局的变化。预计特斯拉、英伟达、华为的

AD/ADAS

解决方案的趋势较为乐观,往往是高端升级和综合竞争的结果(Orin

依然价格强势、Thor

升级、华为智能平权、特斯拉开始放量)预计地平线方案有一定优势(预计

2025

年比亚迪、理想等主机厂乐观,而

J6

中两款芯片的替代效果较好);预计高通、Mobileye、瑞萨、TI

等方案的渗透率情况值得关注和跟踪中国头部新能源车企2025年智驾趋势主机厂2025

智能驾驶趋势比亚迪

的五倍,与华为规模类似。比亚迪

2022H1

AD

团队约100

人,2024H1

大约

4000

人,已经是特斯拉原本比亚迪有数种方案支持智能化,预计后续聚焦到

2-3

大类,预计高速NOA、城市

NOA更多的渗透到平价车型,部分

AD/ADAS

下沉到

10

万价格带奇瑞2025

年高阶智驾将搭载十几款车型量产上市,从无图城区

NOA

到高速

NOA,依托于端到端技术加速规模化量产吉利 10

月吉利正式发布

NOA

系统并将搭载于全新博越极氪作为吉利旗下高端品牌,其

AD/ADAS

趋势更体现吉利对高端

AD

的投入趋势,预计将在市场首批推出支持英伟达最新Thor

芯片的车型特斯拉

FSD

截至

9

月累计里程突破20

亿英里,同时预计Cybercab

2026

年量特斯拉

产,未来可能扩大至 万台, 年第一季度中国可能上线FSD

功能,目前正在等待监管机构批准121110386012513225342277970200120140特斯拉英伟达Mobileye华为地平线TI高通爱芯元智其他2023年装机量(万颗) 2024年1-9月装机量(万颗)国内智能驾驶域控芯片装机量格局20 40 60 80 10093证券研究报告 资料来源:腾讯新闻,搜狐网,新浪网,汽车之家,盖世汽车研究院,申万宏源研究证券研究报告7从消费级SoC大芯片看国产化半导体技术进展:先进制程受限背景下,国产化系列芯片麒麟9020、9010、9010E和9000S仍位列2024年11月高端手机CPU天梯图前列。2024年新发布的麒麟9020芯片延续了8核12线程设计,CPU由1个2.5GHz泰山超大核+3个2.15GHz泰山大核+4个1.6GHz泰山小核构成,内置马良920GPU,频率840MHz。相较于9010,9020在CPU、GPU主频小幅提升。华为官方披露性能:Mate

70配合纯血鸿蒙系统,整机性能提升40%。极客湾测评跑分接近高通骁龙8Gen2(3nm),但主板功耗相对较高。1.3

底层硬件:国产半导体能力突破麒麟9020跑分与骁龙8Gen2相当资料来源:极客湾,芝麻科技讯,申万宏源研究2024年11月手机高端CPU性能天梯高通华为苹果三星联发科骁龙8至尊版骁龙8Gen3领先版骁龙8Gen3骁龙8Gen2+骁龙8Gen2麒麟9020A18ProA18A17ProA16Exynos2400天玑9400天玑9300+天玑9300天玑9200天玑8350骁龙8s

Gen3骁龙7+Gen3A15 天玑8300骁龙8+骁龙8

Gen1骁龙7+

Gen2天玑9000+天玑9000麒麟9010A14骁龙888Plus骁龙麒麟9010E麒麟SExynos 天玑8250天玑8200-Ultra天玑证券研究报告8资料来源:ASML,申万宏源研究国产光刻机崭露头角,最新制程节点65nm【DUV光刻机】数值孔径NA可达1.35(浸润式),对应的k值达到0.266,已接近理论极限0.25;也意味着DUV光刻机本身的精度可达38nm。【EUV光刻机】精度达到13nm,high-NA

EUV光刻机本身精度达到8nm;【国产光刻机】2024年9月9日,工信部披露国产KrF、ArF光刻机已完成首台生产、进入推广应用阶段。国产光刻机参数:NA=k·波长193nm/分辨率65nm=2.97k。假设k值达到极限值0.25,则对应NA为0.74;假设NA达到ASML水平的极值0.93,则对应k值0.31;浸润式可以将原有NA值提升0.44倍,即将CD缩减31%(有望从65nm→45nm)。ASML技术研发路线图1.3

底层硬件:国产半导体能力突破证券研究报告91.4

软件生态:国产玩家已布局完整AI芯片软硬件工具层次功能玩家特点海外国内AI开发框架直接面向AI应用开发者,将神经网络模型转为计算图,再进行图优化、算子优化(例如算子融合等)PytorchTensorflow华为Mindspore百度PaddlePaddle、清华JitterPytorch、Tensorflow双寡头,过往与CUDA紧耦合,正逐渐解耦GPU编程平台Host(主机CPU+内存)Library提供计算库函数(算子)CUDAROCm、OpenCL华为CANN寒武纪CUDA寡头垄断,CUDA、CANN与硬件紧耦合,其他解耦Runtime管理设备内存、调度并行任务和进行数据传输,提供运行期组件Driver直接控制底层Device

GPU硬件资源,并与Host端对接Device(设备GPU)Kernel控制每个硬件计算单元AI芯片硬件提供并行计算算力和存储、通信、控制等硬件资源资料来源:CSDN(中国开发者网络),申万宏源研究证券研究报告101.4

软件生态:竞争策略,开源开放

or

自成体系其他AI芯片硬件与英伟达竞争,有两种方式开放开源:尽可能方便开发者,兼容CUDA,同时其他(如指令集等)尽可能开放自成一派:从AI开发框架-GPU编程平台-底层硬件完全走自己的路线兼容CUDA自成体系AMD寒武纪海光信息百度昆仑芯 华为阿里平头哥摩尔线程、沐曦等谷歌TPU NvidiaIntel燧原科技工具链完善程度资料来源:各公司官网,Tom’s

hardware资讯,申万宏源研究证券研究报告111.5

从训到推:工具丰富,生态优于训练ONNX正逐渐成为AI模型标准格式。ONNX(开发神经网络交换协议,

OpenNeural

Network

Exchange)是机器学习和深度学习模型的开放格式Tensorflow、PyTorch、MindSpore、MXNet各自定义了自己的模型的数据结构,推理系统需要将它们转换到统一的数据结构上,即ONNX结构。推理引擎组织前端解析模型优化前处理模型推理后处理ONNX

or

自定义模型Pytorchtf其他量化算子融合算子替换其他编译优化向量化循环拆分其他数据加载resize归一化序列化/反序列\化nmsyolo其他异步/同步其他上层优化/图优化底层优化资料来源:极智视界,申万宏源研究证券研究报告121.5

从训到推:工具丰富,生态优于训练ONNX是模型转换的中间人,因此推理框架差异主要来自于开发难度和优化性能将模型保存为ONNX格式后,可使用任何一种推理框架进行优化。资料来源:极智视界,各产品官网,申万宏源研究寒武纪寒武纪/ 自定义算子方便,不同形态硬件间框架通用性强丰富度不足模式推理框架主导者底层优势劣势使用场景自用OpenVINOIntel/支持多种推理引擎和底层硬件不支持ONNX中的所 以CPU为有算子 主TensorRT英伟达/配套CUDA,工具完善只支持英伟达GPU广泛的AI场景华为昇腾华为参考TVM底层优化开放开发难度略高HPC

AI模型通用NCNN腾讯开源/端侧模型部署和推理,尤其手机端性能好,适配所有OS云端性能移动端TVM华盛顿大学的SAMPL组开源/效率高,跨硬件平台性能好学习成本高ONNXRuntimeMeta、微软开源/跨平台、易用性高有精度损失问题主要内容科技拐点,产业蜕变硬件:群星熠熠生辉软件:关键领域突破相关标的13证券研究报告142.1

训推GPU,群星熠熠资料来源:各公司官网,wccftech,TechPowerUp,百度百科,奇客solidot,电子工程专辑,快科技,CSDN,

CNW网界,极客公园,证券时报,Cloud

Hin官网,智东西,腾讯新闻,新浪网,申万宏源研究厂商GPU型号推出时间用途工艺晶体管数量算力内存容量内存带宽互联带宽功耗H202023训练及推理4nm-148

TFLOPS@FP1674

TFLOPS@TF3296GBHBM34.0

TB/sNVLink900

GB/s400W摩尔线程100

TFLOPS@FP16200

TOPS@INT8GDDR6240GB/s英伟达L202023训练及推理5nm763亿 119.5

TFLOPS@FP16 48GB 864GB/s - 275W注:芯片面积609mm2 59.8

TFLOPS@TF32 GDDR6L22023训练及推理5nm- 96.5

TFLOPS@FP16 24GB 300GB/s - -48.3

TFLOPS@TF32 GDDR6昇腾910B2023训练7nm- 320

TFLOPS@FP16 64GB - HCCS 400WHBM2e 392GB/s寒武纪MLU370-X82022.3训练及推理7nm390亿 24

TFLOPS@FP32 48GB 614.4GB/sMLU-Link

250W96

TFLOPS@FP16 LPDDR5 200GB/s平头哥含光8002019推理12nm170亿 825

TOPS@INT8 - - - 276W205

TOPS@INT16昆仑芯R2002022训练7nm- 128

TFLOPS@FP16 32GB 512GB/s - 150W32

TFLOPS@FP32 GDDR6MXC500(OAM)2023训练及推理-- 36280

TFLOPS@FP16

ix) 64GB 1.8TB/sMetaXLink450WTFLOPS@FP32(matr HBM2eMXN1002023推理7nm- 160

TOPS@INT8 容量不详 - - -80

TFLOPS@FP16 HBM2E壁仞科技BR1002022.8训练-- 256TFLOPS@FP32 64GB 2.3TB/s Blink 400W1024TFLOPS@BF16 HBM2E 512GB/s云燧T21(OAM)2021训练12nm- 32

TFLOPS@FP32 32GB 1.6TB/s - 300W128

TFLOPS@FP16 HBM2E云燧i202021推理12nm- 32

TFLOPS@FP32 16GB 819GB/s - 150W128

TFLOPS@FP16 HBM2EMTT

S40002023.9训练及推理-25

TFLOPS@FP32/FP16- 50

TFLOPS@TF32 48GB 768GB/s MTLink 450WMTT

S30002022.11训练及推理12nm220亿10.6TFLOPS@FP3232GBGDDR6448GB/s-250W天垓1502023.12训练--45TFLOPS@FP32190

TFLOPS@FP16380

TOPS@INT864GBHBM2e1.2TB/s-350W天数智芯天垓1002021.9训练7nm240亿37TFLOPS@FP32147

TFLOPS@FP16295

TOPS@INT832GBHBM21.2TB/s64GB/s250W智铠1002022.12推理7nm-24

TFLOPS@FP3296

TFLOPS@FP16384

TOPS@INT832GBHBM2

800GB/s-150W地平线J系列智驾--旗舰型号JP

高达TOPS

(在/稀疏网络下)----黑芝麻华山A20002024智驾--A2000(250+TOPS算力)----沐曦集成燧原科技证券研究报告152.2

昇腾:满足多数AI场景需求,单片性能比肩A100满足多数AI场景需求,昇腾为国产算力芯片领军昇腾是目前国产算力芯片中可用性较强的产品之一。在单卡算力方面,昇腾910系列的算力接近英伟达A100/A800;在片间互联方面,HCCS技术实现服务器内8卡全互联,每个芯片对外具有7*56GB/s的互联带宽,形成大规模集群的基础;在服务器集群层面,Atlas

900

AI集群通过以太交换网络实现千卡集群。昇腾在AI场景的实际可用性国内领先;昇腾910系列是国内最早实现大规模出货的算力芯片之一型号昇腾310昇腾910系列英伟达A100功耗8W350W400W显存-64GB

HBM2e80GB

HBM2e显存带宽--1935GB/s-392GB/s600GB/s互联带宽--HCCS-NVLink64GB/s--PCIe4.0上市时间2018年10月2019年-2023年2020年5月INT8算力16TOPS512TOPS624TOPSFP168TFLOPS256TFLOPS312TFLOPSBF16--312TFLOPSFP32--19.5TFLOPSFP--.TFLOPS工艺12nm7nm7nm资料来源:华为昇腾官网,CSDN,申万宏源研究证券研究报告162.2

昇腾:软硬件全栈自研具备长期提升潜力◼

华为昇腾打造了从AI开发框架-GPU编程平台-底层硬件全自栈生11一致功能一致,参数名不同存在差异功能一致,参数数据类型不一致功能一致,参数个数或顺序不一致功能一致,默认值不同功能一致,参数名不一致功能一致,参数默认值不一致Mindspore中已有173个实现了完全对齐华为框架适配器运行逻辑Pytorch:覆盖95%的API自有Mindspore框架框架适配器:其他框架的转换Pytorch华为MindsporeCaffe/PaddlePaddle等Framework

AdapterAI开发框架Tensorflow资料来源:华为昇腾官网,申万宏源研究证券研究报告172.3

寒武纪:从智能终端处理器到思元系列AI加速卡寒武纪AI加速卡产品布局型号思元100思元270-F4思元270-S4思元290-M5思元370-S4/S8思元370-X4思元370-X8架构MLUv01MLUv02MLUv02MLUv02扩展MLUarch03MLUarch03MLUarch03功耗75W-110W150W70W350W75W150W250W显存 8GB/16GBDDR416GBDDR4,ECC

16GB

DDR4,ECC 32GBHBM2 24GB/48GB 24GB

LPDDR5 48GB

LPDDR5ECC LPDDR5显存带宽102.4GB/s102GB/s102GB/s1228GB/s307.2GB/s307.2GB/s614.4GB/s---600GB/s--200GB/s互联带宽---MLU-Link--MLU-Link32GB/s32GB/s32GB/s64GB/s64GB/s64GB/s64GB/sPCIe3.0PCIe3.0PCIe3.0PCIe4.0PCIe4.0PCIe4.0PCIe4.0上市时间2018年2019年6月2019年6月2021年1月2021年11月2021年11月2022年3月INT8算力32TOPS128TOPS128TOPS512TOPS192TOPS256TOPS256TOPSFP1616TFLOPS支持支持256TOPS

(INT16)72TFLOPS96TFLOPS96TFLOPSBF16----72TFLOPS96TFLOPS96TFLOPSFP32-支持支持64TOPS

CINT3218TFLOPS24TFLOPS24TFLOPSFP-------工艺16nm16nm16nm7nm7nm7nm7nm从智能终端处理器向AI加速卡延申2018年前,产品主要为智能处理器,即应用于终端设备SoC芯片中的智能处理器模块;2018年推出首款AI加速卡思元100,正式进入AI赛道。资料来源:寒武纪官网,招股说明书,申万宏源研究证券研究报告182.3

寒武纪:AI框架适配+开发者共建算子生态寒武纪拥有完整的软件堆栈,SDK中包含各类库,以及自有智能编程语言BANGAI开发框架,公司自行维护Pytorch、Tensorflow后端,与Pytorch的适配进展较好BANG语言底层算子,公司目前拥有327+41+81个,处于国产算力第一梯队(略少于华为)Pytorch

API Tensorflow

APIBANGCNNL(深度学习

CNNL_Extra融合 自开发算子库) 算子寒武纪10555033274181整体20452000+///资料来源:寒武纪官网,申万宏源研究证券研究报告192.4

燧原科技:第三代芯片燧原S60,支持CUDA和PytorchAI硬件训练系列云燧T1训练系列云燧T10、T11云燧T2x训练系列云燧T20、T21云燧i1x推理系列云燧i10推理系列云燧i2x推理系列

燧原S60推理系列云燧i20燧原科技专注人工智能领域云端算力产品,为通用人工智能打造算力底座。2018年3月成立以来,发布云燧10系列、云燧20系列、燧原S60三代芯片。S60支持FP32、FP16、BF16、INT8多种数据精度,可应用于各类人工智能边缘推理和云端推理场景。自研驭算TopsRider软件栈,兼容TensorFlow、PyTorch等AI开发框架。燧原科技AI芯片与软件栈资料来源:燧原科技官网,申万宏源研究证券研究报告202.4

燧原科技:赋能万卡集群项目,政务MaaS应用案例领先落地项目 时间 部署方案 合作方太湖亿芯(无锡)智算中心2024年9月27日启动建设 /燧原科技、万物之宜、无锡高新区三方合作甘肃庆阳·万卡国产推理算力集群项目基于新一代人工智能加速卡‘燧原S60’,采用了中移动集团自研

甘肃省庆阳市人民政府、2024年8月20日

集的“微模方”技术,极大缩短了整个建设周期。2024年底5万P规

弘信电子、万兴科技、中燧原科技与爱奇艺签署战略合作协议群亮点 模算力目标。 国移动基于“燧原曜图 ,共同对图生图算法训练、视频风格化渲染在2024年3月13日 影视内容制作领域的应用进行了探索,并取得了实质性的成果。 爱奇艺燧原曜图MaaS平台服务产品2023年7月5日发布以燧原科技邃思®系列芯片为算力支撑,由首都在线提供计算服务燧原曜图MaaS平台服务产品为用户提供面向AIGC时代的高效易用、安全可靠、企业级的文生图服务。首都在线低碳赋能之江实验室前沿技术研究2021年以超千张燧原高算力AI加速卡T11为核心,打造基于液冷系统方案的人工智能计算集群,结合之江的本土自研天枢人工智能开源平台高效支持多类型前沿研究。之江实验室助力头部互联网公司极致化用户游戏体验/以云燧人工智能训练加速卡为算力底座,通过对云端AI模型训练的加速,帮助客户让机器以更快的速度持续地学习游戏动态与多样化对战角色、策略等,提升游戏挑战、丰富游戏乐趣。/互联网App加速图片分类和OCR文字识别/SIP计算单元针对AI计算任务极致优化,能效大幅提升;创新架构实现更强的算子融合能力,减少数据搬运,提升运算效率;MID特性的支持大大提升了算力利用率。西南核心省会城市“1+5+N”

新型AI算力中心建设

/燧原科技基于核心自研AI算力与配套自主创新软件栈,融合上层各类城市治理应用,打造了一体化、全栈式的本土AI算力中心解决方案。/上海银行全栈本土化AI软硬平台/以云燧作为底层算力,提供了针对发票、营业执照、身份证、名片和银行承兑汇票在内的各类银行文本识别业务场景的智能化解决方案,实现金融行业OCR的规模化应用。上海银行燧原科技S60率先搭建国产万卡集群,抢跑国产算力方案落地:【股东赋能】第一大股东腾讯科技(上海)有限公司持股比例20.49%。借助腾讯云“存算分离”架构,助力燧原芯片仿真设计,加速芯片的研发工作。【智算中心】赋能甘肃庆阳“东数西算”智算中心和太湖亿芯(无锡)智算中心。【行业应用】燧原在互联网、绿色智算中心、智慧城市、金融等领域解决方案率先落地。“基于国产云端算力的政务大模型应用”成功入选工信部未来产业领域典型应用案例。燧原科技落地AI项目资料来源:燧原科技官网,申万宏源研究证券研究报告212.5

沐曦:三大产品系列覆盖图形处理、AI训推型号曦思N100曦云C500曦彩G100功耗-450W-显存16GB

HBM2E64GB

HBM2E-显存带宽-1.8TB/s-互联带宽推出时间- --- MetaXLink-2023年 2023年2023年INT8算力160TOPS560TOPS-FP1680TFLOPS280TFLOPS-BF16-280TFLOPS-FP32-36TFLOPS-FP64---工艺7nm--应用场景AI推理AI训练及推理图形渲染加速沐曦集成电路于2020年成立,核心成员来自AMD创始人陈维良曾担任AMD图形研发高级总监,CTO杨建曾担任AMD

Fellow(AMD的最高技术头衔)三大GPU系列覆盖图形处理+AI训推布局全栈GPU产品:2023年7月,沐曦在第六届世界人工智能大会上首度推出AI推理GPU曦思N系列、通用计算GPU曦云C系列、图形处理GPU曦彩G系列全栈产品。沐曦三大产品线覆盖图形渲染+AI训推资料来源:沐曦官网,申万宏源研究证券研究报告222.6

壁仞科技:三年实现量产,产品配置灵活型号功耗显存显存带宽2.3TB/s

1.14TB/s互联带宽上市时间512GB/sBLink128GB/sPCIe5.02022年8月192GB/sBLink128GB/sPCIe5.02022年8月INT8算力2048TOPS1024TOPSFP16--BF161024TFLOPS512TFLOPSFP32256TFLOPS128TFLOPSFP--工艺7nm7nm三年实现算力芯片量产,瞄准云上大规模AI训推2022年,壁仞科技发布BR100和BR104两款算力芯片以及8卡BR100海玄服务器;8卡全互联提升集群性能。服务器内互联是GPU大规模集群的基础。海玄服务器中BR100实现8卡全互联,节点内每张卡拥有7*64GB/s的互联带宽+节点外64GB/s,为国内领先水平。封装die数不同导致BR104部分参数为BR100的一半BR100 BR104550W 350W64GBHBM2E 32GB

HBM2E资料来源:壁仞科技官网,申万宏源研究证券研究报告232.6

壁仞科技:三年实现量产,产品配置灵活PCIe

4卡互联产品分为

OAM

模组和

PCIe

板卡,适配不同应用场景1)OAM模组:OAM是行业制定的AI加速模块接口规范(可理解为GPU接口设计规范),BR100为OAM模组形式,提升片间通信性能,对应大规模集群的AI训练场景;2)PCIe板卡:BR104以PCIe板卡形式出货,互联数量从8卡降低至4卡,实现降低功耗节降、灵活配置,对应AI推理场景。BR100

采用台积电

2.5DCoWoS-S

先进封装BR100

为国内首款通用GPU

芯片,美国商务部新规后供应链受限。OAM

模组和

PCIe板卡对应不同互联拓扑 BR100采用台积电

2.5D

CoWoS-S

先进封装OAM8卡互联资料来源:壁仞科技官网,CSDN,中国新闻网,新浪网,申万宏源研究证券研究报告242.7

摩尔线程:智算、消费两手布局,领衔突破万卡集群能力50

TFLOPS@TF3210.6

TFLOPS@FP32产品型号MTT

S4000MTT

S3000MTT

S2000推出时间2023.92022.112022.3MUSA

微架构第三代“曲园”第二代“春晓”第一代“苏堤”制程-12nm12nmMUSA核心数81924096409625

TFLOPS@FP32/FP16算力100

TFLOPS@FP16200

TOPS@INT810.6

TFLOPS@FP3242.4

TOPS@INT8内存容量48GB

GDDR632GB

GDDR632GB

GDDR6内存带宽768GB/s448GB/s-互联MTLink

GB/s--功耗450W250W150W摩尔线程于2020年10月成立于北京。创始人兼CEO张建中曾任英伟达全球副总裁、中国区总经理,在GPU行业已经深耕近20年。摩尔线程团队成员主要来自英伟达、AMD等芯片公司。根据36氪报道,公司累计融资数十亿元,估值255亿元(2024年4月)。股东包括中国移动、字节跳动、腾讯投资、中关村科学城、前海母基金等。能力建设:从芯片、加速卡、服务器、集群到软件的全栈

AI智算产品线。【单卡】MTT

S4000

支持48GB

显存和768GB/s

显存带宽。MTLink

(240GB/s)支持卡间互联;【软件栈】MUSA(对标且兼容CUDA),自研

MUSIFY

工具可将

CUDA

代码迁移至

MUSA;【服务器】双路

8

卡GPU

服务器MCCXD800;【集群】夸娥(KUAE)千卡/万卡智算集群。摩尔线程智算GPU加速卡产品规格情况 摩尔线程构建了从芯片到显卡到集群的智算产品线资料来源:摩尔线程官网,申万宏源研究2.7

摩尔线程:智算、消费两手布局,领衔突破万卡集群能力国内少有的在

B端和

C

端均有布局的国产

GPU

厂商2022年11月,推出国产游戏显卡

MTT

S80,被誉为“国产游戏第一卡”,也是国内唯一可以支持DX12的消费级显卡。该卡的Windows驱动已经迭代多个版本,已实现国内TOP50热门游戏100%兼容。B端智算客户包括头部运营商、地方政府、大型国有银行、大模型创业公司等。摩尔线程商业拓展情况客户类别 合作模式运营商/国央企2024.10

摩尔线程全功能GPU和MUSA自研软件栈与中国移动原生算力平台深度适配,打造智算基础算力底座;2024.7

摩尔线程联合中国移动通信集团青海有限公司、中国联通青海分公司、中国能源建设股份有限公司总承包公司等就青海零碳产业园万卡集群项目、青海高原夸娥万卡集群项目、广西东盟万卡集群项目战略签约。地方政府2023.6贵州省贵阳市贵安新区、威星智能(002849.SZ)、摩尔线程三方将共同建设贵安摩尔智算中心。该项目拟总投资30亿元,预计建设2000P以上算力的智算中心。分三期建设:一期计划投资5亿元(预计建设370P算力的智算中心),二期计划投资10亿元,三期计划投资15亿元。2024.5

摩尔线程与盐城市盐南高新区、东华软件达成战略合作。三方将在盐城共同建设华东(盐城)国产算力产业基地。银行金融机构2024.10

摩尔线程与浦发银行、邮储银行和北京银行就“摩尔线程国产全功能GPU万卡通用智算集群科研项目”签署了重大科技项目合作协议;2024.9

摩尔线程与建设银行北京市分行签约合作;2023.6

摩尔线程与北京银行达成战略合作;2022.6

摩尔线程与招商银行北京分行签署战略合作协议大模型创业公司 已拓展了智谱AI、智源研究院、无问芯穹、滴普科技、瑞莱智慧、实在智能、因识智能等国内众多大模型企业软件服务/企业2024.8

摩尔线程与东华软件合作,完成了政企客户多种业务系统的AI升级;. 摩尔线程与弘信电子签署《战略合作框架协议》,将合作构建面向元宇宙场景的智能计算中心,为客户提供定制化的工厂管理和智慧办公解决方案等。此外,弘信电子还将使用摩尔线程的GPU算力服务,开发高效智能的工业质检应用系统。证券研究报告 资料来源:芯智讯,中国日报网,腾讯新闻,搜狐网,摩尔线程官网,弘信电子公告,申万宏源研究 25证券研究报告2.8

天数智芯:与爱特云翔合作建设千卡GPU算力集群天数智芯成立于2015年12月29日,总部位于上海。联合创始人郑金山:复旦大学微电子与固体电子学专业硕士,曾在AMD带领上海芯片设计团队参与过多个GPU芯片的研发。根据投中网,公司估值150亿元(2022年7月)。股东包括中国联通,上海/北京/广东等地方国资。已推出训练卡天垓150/100、推理卡智铠100/50根据21世纪经济网,截至2022年底,天数智芯累计订单接近6亿元,并在当年确认收入2.5亿元产品型号天垓150天垓100智铠100智铠50推出时间2023.122021.92022.122022制程-7nmCoWoS

2.5D7nm-内存容量64GB

HBM2e32GB

HBM232GB

HBM216GB

HBM2内存带宽1.2TB/s1.2TB/s800GB/s-天数智芯

GPU

产品规格情况算力45190TFLOPS@FP16380TOPS@INT8TFLOPS@FP3237TFLOPS@FP3224TFLOPS@FP3261

TFLOPS@FP32147TFLOPS@FP1696TFLOPS@FP1664

TFLOPS@FP16295

TOPS@INT8 384TOPS@INT8256

TOPS@INT8互联-GB/s--功耗 350W250W150W 75W天数智芯商业拓展情况客户类别合作模式运营商2024.7

天数智芯参与建设的中国移动智算中心(呼和浩特)项目全集群系统正式上线运营。该中心是全球运营商领域内规模最大的单体液冷智算中心,单体算力6.7EFLOPS(FP16)。此项目集成了万卡高速互联、软硬件全链路监控等尖端技术。天数智芯片在该项目使用天垓150产品,与新华三共同打造高性能AI训练服务器。地方政府/IDC运营商2024.7

天数智芯与爱特云翔合作建设千卡GPU算力集群,可支持千亿以上参数大模型的全量预训练,支持与国际主流产品进行异构混训,商业化稳定运营已超过1年。2023.4

天数智芯与智谱AI合作,推出了基于千亿基座模型的ChatGLM,采用天数智芯算力集群方案无需修改代码即可跑通GLM

6B开源版大模型创业公司2023.4

无问芯穹在天数智芯智铠100百卡推理集群上成功部署了无问芯穹Infini-AI异构云平台,并实现了多种主流大模型在该推理集群上的全功能适配,并正式对外提供MaaS服务2024.7

与金融大模型解决方案商熵简科技合作基于金融大模型+传统AI模型定向开发,为金融智能检索、研报分析、智能会议提供整体解决方案。2024.7

天数智芯与中科闻歌打造的多模态大模型解决方案。支持文字、图片、视软件服务/垂类

频、音频多模态生成,赋能媒体宣传,助力出版、文旅、政务、新闻、电影、教育、营销七大应用场景数字资产升值。. 天数智芯与深库信息科技联合推出的汽车零部件缺陷检测系统,利用线扫相机和高性能算法服务器,通过图像采集与分析,实现对零部件表面缺陷的自动检测。缺陷检出率高,误检率低,能够识别多种缺陷类型。资料来源:天数智芯官网,天数智芯官方公众号,Cloud

Hin官网,智东西,申万宏源研究 26证券研究报告272.9

平头哥:含光NPU专注AI推理型号 上市时间 功耗 显存 显存带宽 互联带宽 INT8算力 INT16 FP16 工艺含光800 2019年9月 276W - - 64GB/s

PCIe4.0

825TOPS

205TOPS

-

12nm含光800NPU:专注AI推理2019年,平头哥推出含光800NPU,主要用于数据中心AI推理;平头哥团队认为,云上推理是AI下一步的重要领域。针对AI推理,1)深度优化CNN(卷积神经网络)及视觉类算法;2)软硬协同支持权重的稀疏压缩,计算的量化压缩;3)在通用可编程上进行尝试,保证了NPU架构具有一定的扩展性。场景:定向赋能阿里云计算、电商等领域云计算服务:含光800云服务器已在阿里云上线,通过自研神龙虚拟化计算平台,实现算力资源的动态调整,提供IaaS服务。含光800NPU具有低成本、高能效比的优势,支持主流深度学习框架TensorFlow、Caffe、MXNet和ONNX,广泛适用于语音、图片、视频等AI推理;电商智能搜索:搜索和推荐是电商平台用户和商品交互的主要方式,也是自然流量的入口。搜索推荐算法经历了统计模型+

机器学习→实时深度学习+

智能决策体系的演变。含光800NPU支持多种智能搜索算法,基于强大的推理算力,显著提升电商搜索算法效率;电商营销:电商行业消费行为数据不断积累,大数据+AI成为电商营销的趋势。含光800支持搜索定向广告、广告排序等多种电商智能营销业务场景的计算需求,为阿里妈妈等业务提供可靠高效的算力支持。含光800NPU专注AI推理www.swsresearch.com

资料来源:平头哥官网,申万宏源研究证券研究报告282.10

昆仑芯:赋能百度内部AI能力,已实现万卡级别部署前身为百度智能芯片及架构部;股东包括比亚迪于2021年4月完成独立融资,首轮估值约130亿元;原百度芯片首席架构师欧阳剑担任

CEO自研XPU架构,昆仑芯前两代的产品已有数万片的部署支持主流深度学习开发框架,例如

Tensorflow、Pytorch、PaddlePaddle2021年8月发布昆仑芯2代(7nm),目前市场销售的产品以AI加速卡R200和AI加速器组R480-X8为主赋能百度内部搜索、文心大模型、小度、智驾Apollo业务;外部服务数十家行业客户已在百度的数据中心实现万卡级别的部署上线并稳定运行算力256

TOPS@INT8256

TOPS@INT8内存容量32GB

GDDR616GB

HBM内存带宽512

GB/s512

GB/s互联200GB/s-功耗--昆仑芯

AI

芯片产品规格情况产品型号 昆仑芯2代 昆仑芯1代推出时间 2021 2018制程 7nm 14nm128

TFLOPS@FP16 64

TFLOPS@FP16外部智慧工业昆仑芯累积了"工业质检"、“安全生产管理”等多种模型,可提供以行业数据为核心的模型训练、预测、优化等支持,帮助用户实现高效部署。案例包括工业质检、某企业仓储盘点和某汽车企业智能检测、某化纤纺织企业丝锭缺陷检测。智慧金融通过创新智慧金融产品和服务模式,助力金融机构打破数据和效率的瓶颈,为金融机构业务数字化升级打下坚实基础。案例包括昆仑芯科技赋能百度智能云飞桨一体机AI-TF2000,助力江苏银行进行证照识别能力的建设。智慧交通依托昆仑芯科技及生态合作伙伴的AI、知识图谱等技术及互联网数据能力,昆仑芯科技可全面落地边云一体的V2X智慧交通方案,树立交通领域新标杆。智慧物流昆仑芯科技聚焦物流行业的主流场景,融合大数据、IoT、机器人等技术,实现物流端到端业务可视及决策性业务智能处理,极大提升物流各环节协同运作效率,助推物流产业智能化升级。智慧园区昆仑芯科技以智能计算为基础,赋能园区智慧化建设,全面提升人员、车辆、安防、生产、运维五大领域的智能化管理能力,促进传统产业降本增效和转型升级。昆仑芯商业拓展情况内部业务类别 合作模式搜索引擎、小度

昆仑芯1代已在百度搜索引擎、小度等业务中部署数万片文心大模型与百度合作在昆仑芯硬件上与飞桨+文心大模型的适配,共同完成一套端到端的AI计算系统解决方案。“昆仑芯+飞桨”方案已在智慧金融、工业质检等领域成功部署落地智能驾驶昆仑芯

2

代已完成无人驾驶场景端到端适配;为萝卜快跑和百度Apollo提供算力支持国芯科技与昆仑芯签署《战略合作框架协议》,双方将针对智能驾驶场景,展开在边缘AI计算、车规功能安全SoC等技术领域的长期合作资料来源:芯智讯,中国日报,昆仑芯官网,天天IC,申万宏源研究证券研究报告292.11

地平线机器人:高阶智驾下沉最受益的国产化方案商资料来源:地平线,申万宏源研究时间名称 BPU

制程性能参数 搭载平台/车型2024年4月加速智驾面向全场景、全生态量产应用与标配

纳什普及/ 主打极致性价比,10+

TOPS,20K+

CPU

DIMPS征程6系列已获得超10家车企及品牌的量产合作,并将于2024年内开启首个前装量产车型交付,预计于2025年实现超10款车型量产交付。/ 行泊一体/ 面向高速NOA场景,80+

TOPS,100K+

CPU

DIMPS/ 提供普惠城区的性价比解决方案,128

TOPS,137K

CPU

DIMPS征程

6B征程

6L征程

6E征程

6M征程

6H/ 城区领航智驾进阶选择征程

6P/旗舰型号,4核BPU,AI算力高达560

TOPS(在1/2稀疏网络下),18核Cortex-A78AE

410K

CPUDIMPS2021年7月征程

5中国首款百TOPS级大算力车载智能计算方案贝叶斯 16nmCPU:八核Cortex-A55DSP:2个可编程Vision

P6

DSP,频率最高为650MHz,总算力为0.67TOPSBPU:双核贝叶斯架构设计,算力为128

TOPSISP:每个ISP模块可支持2x4k/8M@30fps图像处理,具备HDR、多帧曝光、图像降噪等功能主要用在智能驾驶域控制器上,这是地平线目前主力的产品;理想L系列-Pro及Air、比亚迪、一汽红旗、自游家2020年9月征程

3首款支持量产的车载智能计算方案伯努利2.016nmCPU:采用4个Arm

Cortex

A53内核,最大工作频率为1.2GHz,支持动态频率缩放(DFS)950MHz,支持动态频率缩放(DFS)DRAM:支持x32片外DDR4/LPDDR4/LPDDR4X

DRAM,最大支持4GB容量,速度可达3200

MT/s超低功耗:2W目前J3主要用在一体机上面;理想One、荣威RX5年8月征程

2中国首款前装量产的车 伯努利载智能计算方案 1.028nm 伯努利

1.0

BPU

架构,4

TOPS,

双核

A5长安UNI-T、奇瑞蚂蚁◼

地平线是领先的乘用车ADAS和AD解决方案供应商,自研BPU、征程系列芯片、Horizon

Matrix系列智驾解决方案以及专有的开发工具。地平线征程系列芯片及定位302.11

地平线机器人:高阶智驾下沉最受益的国产化方案商地平线智驾方案累计定点车型突破290款地平线智驾方案出货量突破600万套证券研究报告 资料来源:地平线招股说明书,地平线官网,申万宏源研究2021年以来,快速量产抢滩国内智驾方案市场:【营收高增】2021-2023年地平线营收分别为4.67亿元/9.06亿元/15.52亿元,两年CAGR

82.3%;2021-2023年综合毛利率分别为70.9%、69.3%及70.5%。【合作客户】2024Q3末,累计定点车型数290款。代表客户:大众、理想等。地平线授权及服务收入占比过半(亿元) 地平线主营业务毛利率(%)31提供IP、ISP/SoC芯片、自动驾驶到车联网解决方案全套服务,支持L2-L4级自动驾驶。【主力产品】华山A1000系列产品支持自动驾驶、智能座舱、先进成像及互联功能,A2000(250+TOPS算力)面向Transformer全新大核架构,支持大模型应用;2023年4月发布武当系列跨域SoC,产品市场化在即。【量产进度】截至2023年末,A1000系列SoC积累出货超15.2万片。截至2024中报,意向量产车型数23款。【合作客户】已超过49名汽车OEM及Tier

1,如一汽集团、东风集团、江汽集团、合创、亿咖通科技、百度、博世、采埃孚及马瑞利等。2023年末客户数85家。华山系列芯片武当系列芯片A2000 支持L3+A1000Pro

106TOPS(INT8)A1000 58TOPS(INT8)A1000L 16TOPS(INT8)C1296

支持多域融合C1236

单芯片NOA黑芝麻智能山海开发工具链乘用车、商用车、无人驾驶出租车等应用场景自研算法在吉利领克08、东风風eπ系列车型量产商用车主动安全系统Patronus2.0黑芝麻智能AI芯片与产品2021-2023黑芝麻智能收入(百万元)黑芝麻智能解决方案客户数NoA功能覆盖中国个省市。202120222023自动驾驶产品及解决方案34.3142.3276.3基于SoC的解决方案1.685.4193.6基于算法的解决方案32.656.982.7智能影像解决方案26.223.236.1

总计 . . . 2.12

黑芝麻智能:面向Transformer全新国产智驾解决方案证券研究报告 资料来源:黑芝麻智能招股书、官网、公告,申万宏源研究主要内容科技拐点,产业蜕变硬件:群星熠熠生辉软件:关键领域突破相关标的32证券研究报告333.1

OS:开源鸿蒙奇点将至,生态逐步扩大生态设备发货量已达10亿部截至24.11,已有513类商用设备接入鸿蒙生态截至2024年11月,开源鸿蒙项目群成员单位已达61家,8100名贡献者。深圳市国资委成立鸿蒙生态服务公司,推动鸿蒙在各行业应用金融、电力等行业,开源鸿蒙OS已打开市场资料来源:OpenHarmony官方公众号,Openharmony官网,华为2022&2023开发者大会,全球开源生态大会,申万宏源研究01002003004005006002022年9月2022年11月2023年1月2023年3月2023年5月2023年7月2023年9月2023年11月2024年1月2024年3月2024年5月2024年7月2024年9月2024年11月软件发行版数量(个)商用设备数量(个)开发板/模组数量(个)0246810122021.1

2021.12

2022.4

2023.8

2024.6

2024.10鸿蒙生态设备发货量(亿台)证券研究报告343.2

数据库:通用内核支持集中式/分布式两大能力类别数据库作为基础软件,产品通用性是商业成功的关键要素之一。Oracle在提供传统集中式架构同时,还可提供具备一定分布式数据库特征;达梦能做到“集中式”和“分布式”通用,源于自身对数据库内核技术的深刻掌控。策略是先研发一套通用内核,后依托通用内核研发集中式和分布式产品。核心技术层面,公司所掌握的数据库核心技术是数据库领域的普适技术;产品工程化层面,产品均共用同一套承载介质和可执行程序;达梦分布式技术具有独特的生态优势。公司基于同一套内核代码的不同数据库产品对集中式商用数据库生态具备良好兼容性,也有助于使用商用数据库的用户以更低成本迁移至分布式架构。国内外主流数据库均同步发展集中式、分布式产品 数据库产品+集群方式实现分布式能力集中式数据库产品 分布式数据库产品达梦数据DM7、DM8达梦数据库+达梦透明分布式集群OracleOracle

数据库Oracle

数据库Sharding特性微软SQLServer公有云服务:CosmosDB人大金仓KingbaseES数据库KSOne数据库阿里云公有云服务:PolarDB公有云服务:分布式数据库PolarDB-X华为OpenGauss数据库

公有云数据库服务:GaussDBOpenGauss+第三方开源分布式中间件资料来源:各公司官网,达梦数据官网,申万宏源研究3.2

数据库:达梦优势在于资源禀赋和去“O”能力达梦数据人大金仓南大通用神舟通用背景国有企业(中国电子旗下中国软件持股)国有控股(中电科旗下太极股份持股51.3%)民营企业持股国有控股(神舟航天81.1%)成立时间2000年1999年2004年2008年收入(2023,亿元)7.943.73-1.51净利润(,亿元)2.930.75-0.38人员规模1474超过600550214党政端客户资源重要,达梦数据和人大金仓暂时领先。达梦及金仓股东背景为承担自主可控事业的央企,在党政信创合计市场份额已较高。行业端除客户资源外,比拼的是产品力、性价比和行业经验。在电力、交通等关键行业,数据库是支撑核心业务的重要软件;达梦指标已能对标Oracle+国外环境,对于大部分业务场景足够使用。存量替换市场达梦更具优势。达梦从体系架构、语法、接口等多方面对标Oracle技术标准,能够实现平滑的迁移;公司开发了专门的柔性替代方案。四朵金花中仅达梦数据实现了大规模盈利达梦数据能够柔性替代大部分国外数据库产品

证券研究报告资料来源:达梦数据招股说明书,太极股份年报,航天软件年报,达梦数据库产品文档,申万宏源研究35证券研究报告363.3

大模型:国内科技巨头布局大模型版图更加完整国内巨头基础模型投入成为标配:自研大模型,且投入多模态/开发平台/深度学习框架,且部分进行开源计划;已推出多项核心应用:包括Chat类对话工具、Agent平台、搜索工具,部分开始尝试视频工具、自动驾驶等更细分领域;与现有云业务充分协同:与现有云业务协同且披露GenAI相关收入,24Q2后AI普遍成为云业务重要驱动;投资一个或多个AI一级市场公司:在应用、渠道、算力基础设施方便充分合作。国内互联网公司AI布局资料来源:

各公司官网,申万宏源研究字节跳动AI芯片布局 大模型及AI开发框架 已推出的核心AI应用 现有业务生态协同 投资公司外购:根据Omdia,2023年公司

大模型:豆包;购买了2万片H100 多模态BuboGPTAIChatbot:豆包AI

Agent平台:Coze、小悟空今日头条等办公:飞书AI视频工具:即梦 应用矩阵:抖音

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论