




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
证券研究报告/行业研究报告日期:2024年12月31日>豆包大模型重磅更新,有望带动Al应用市场繁荣分析师:吴起涤2024年12月火山引擎冬季FORCE原动力大会推出豆包视觉理解大模型和3D生产大模型,并对通用模型Pro、音乐生产模型和文生图模型性能升级。根据智源研究院发布的FlagEval“百模”评测结果,豆包通用模型Pro在大语言模型总榜中主观评测得分最高,豆包视觉理解模型和文生图模型在多模态模型主观测评中得分第二。豆包视觉理解大模型和3D生产大模型具备的内容识别、视觉描述和3D内容生成能力进一步增强Al应用实用性,而使用成本相比行业价格可降低85%,有望推动Al应用市场的商业繁荣。人工智能指数与沪深300指数走势对比>大模型的大规模商业化应用已成熟,拉动算力基础设施建设人工智能指数与沪深300指数走势对比——人工智能指数——沪深300人工智能行业已跨过Al大模型大规模成熟商业化应用的节点,国内厂商加大对AlAgent等新一代人工智能应用的投入。——人工智能指数——沪深30011.《人工智能专题研究系列一:大模型推动各行业AI应用渗透》2023.08.02Al大模型开展算力竞赛,推动Al基础设施建设》2023.08.03Gemini1.0有望拉动新一轮Al产业革新,算力产业链受益确定性强》2023.12.124.《人工智能专题研究系列四:OpenAl发布Sora文生视频模型,Al行业持续高速发展》2024.02.195.《人工智能专题研究系列五:Kimi智能助手热度高涨,国产大模型加速发展》2024.03.26算力扩建浪潮下服务器高密度、高耗能特征显著,催动液冷技术市场快速扩容》2024.08.15块等是供应链的核心环节。1)服务器:服务器是算力载体,Al服务器比普通服务器对算力及存储性能要求更高,2024年全球普通AI服务器和高端AI服务器出货量分别为72.5和54.3万台,分别同比增长54.2%和172.0%。2)液冷设备:液冷服务器具有低能耗、高散热优点,符合高算力数据中心需求;3)芯和1.6T高端光模块用量有望大幅提升,国产公司在全球市场具有领先地位。>投资建议豆包大模型产品力大幅提升,并大幅降低人工智能大模型使用成本,有望推资机会:1)服务器:浪潮信息、中科曙光;2)液冷设备:英维克;3)芯片:海光信息;4)光模块:中际旭创、天孚通信、光迅科技。>风险提示Al应用渗透不及预期;算力开支不及预期;宏观经济不及预期;竞争加剧。请请源达目录 4 8 1.大模型打开算力需求,服务器建设规模快速增长 2.液冷技术低能耗高散热,受益算力扩建浪潮 211.建议关注 2.行业重点公司一致盈利预测 图表目录图1:豆包大模型产品矩阵丰富 4图2:豆包视觉理解模型具备更强内容识别能力 5图3:豆包视觉理解模型具备更强理解和推理能力 5图4:火山引擎首次发布豆包3D生成模型 5图5:豆包3D生成模型可根据文本生成3D场景 5图6:豆包通用模型Pro综合能力大幅提升 6图7:通用模型Pro在指令遵循、代码、数学等指标对标GPT-40 6图8:豆包文生图模型能力升级 6图9:豆包音乐模型能力升级 6图10:豆包通用模型Pro在大模型测评总榜中排名第一 7图11:豆包视觉理解模型在视觉语言模型测评榜单中排名第二 7图12:豆包视觉理解模型使用成本大幅低于行业平均水平 7图13:豆包APP在11月全球AI产品榜中排名第二 7图14:预计2022-2024年全球Al支出年增速高于20% 8图15:预计2024年中国智能算力规模同比增长50% 8图16:IDC预计2024-2028年全球人工智能资本开支复合增速GAGR达29% 9预计2028年软件资本开支将占人工智能支出的57% 9图18:AI服务器出货量高速增长 图19:搭载鲲鹏920处理器的鲲鹏服务器主板 图20:华为推出昇腾系列AI算力基础设施 图21:传统风冷技术与液冷技术原理对比 图22:液冷技术散热能力显著优于风冷技术 图23:液冷技术节能水平显著优于风冷技术 2图24:2019-2022年中国液冷数据中心市场规模 图25:2022-2027年中国液冷数据中心市场规模预测 图26:NvidiaGPUH200芯片示意图 图27:H200较H100相比在存储性能上有大幅提升 图28:Al大模型中东西向流量显著增加 图29:叶脊网络架构适用于东西向流量传输 图30:NvidiaDGXH100架构示意图 图31:全球光模块市场在2027年有望突破200亿美元 20表1:人工智能大模型的参数规模呈指数级增长趋势 8表2:国内厂商加大对AIAgent等大模型驱动下的人工智能应用的投入 表3:具有1750亿个模型参数的大模型训练一天需要约2917台NvidiaA100服务器 表4:主流液冷技术与传统风冷技术冷却效果指标对比 表5:不同密度数据中心适用的冷却技术 表6:国产AI芯片性能指标仍与国际顶尖水平存在较大差距 表7:BIS禁令限制高性能AI芯片向中国出口 表8:叶脊网络架构对光模块数量需求大幅提升 表9:NvidiaDGXH100架构所需GPU、交换机数量 表10:中际旭创在2023年全球光模块企业排名中位居第一 20 213Yd源达一、豆包大模型产品力大幅增强,推动Al应用商业繁荣2024年12月火山引擎冬季FORCE原动力大会推出豆包视觉理解大模型和3D生产大模型,并将通用模型Pro、音乐生产模型和文生图模型升级,进一步丰富产品矩阵。2024年5月火山引擎春季FORCE原动力大会首次发布豆包大模型系列产品以来,仅7个月就再度升级,并在多项大模型能力测评榜单中居于前列。本次大会新推出的豆包视觉理解大模型和3D生产大模型拓展了模型的内容识别、视觉描述和3D内容生成能力,并显著降低使用成本,有望推动人工智能应用端的商业繁荣。图1:豆包大模型产品矩阵丰富豆包通用模型Pro字节跳动自研大语言模型专业版,支持256K长文本,具备更强的理解、生成、逻辑等综合能力,适配问答、总结、创作、分类等丰富…对图像、视频等视觉内容有更强的识别能力,更强理解和推理能力,以及更细腻的视觉描述能力通过精准语义理解、强大动态及运镜能力创作高质量视频,支持文本和图片生成两种模式O通过精准语义理解、强大动态及运镜能力创作…豆包通用模型lite字节跳动自研大语言模型轻量版,对比专业版.…5秒即可实现声音1:1克隆,对音色相似度和自.个性化的角色创作能力,更强的上下文感知和…更高的准确率及灵敏度,更低的语音识别延迟…提供更加准确的功能识别和参数抽取能力,适…更精美的文字理解能力,图文匹配更准确,画….A聚焦向量检索的使用场景,为LLM知识库提供….四快速生成精美写真,支持50余种风格变换,并….敬请期待….提供超低延时且自然高质量的实时翻译,支持….G更多模型…更强模型,更低价格,更易落地查看更多模型>资料来源:火山引擎,源达信息证券研究所豆包视觉理解模型具备更强内容识别能力和理解推理能力。豆包视觉理解模型具备强大的图片理解与推理能力及精准的指令理解能力。模型在图像文本信息抽取、基于图像的推理任务上有展现出了强大的性能,能够应用于更复杂、更广泛的视觉问答任务。比如模型可描述图数学问题、代码图像等复杂推理场景下完成任务。4图2:豆包视觉理解模型具备更强内容识别能力图3:豆包视觉理解模型具备更强理解和推理能力图表、数学、逻辑、代码代码推理数学推理物理推理图表推理火山引擎火山引擎FORCE识别影子更强内容识别能力识别地标建筑图像知识、动作情绪、位置状态中国传统文化、文字信息识别自然知识识别工业用品资料来源:火山引擎,源达信息证券研究所资料来源:火山引擎,源达信息证券研究所火山引擎冬季FORCE原动力大会首次发布豆包3D生成模型。该模型可支持文生3D、图生3D及多模态生成等诸多功能,模型与火山引擎数字孪生平台veOmniverse结合使用,可高效完成智能训练、数据合成和数字资产制作,成为一套支持AIGC创作的物理世界仿真模拟器。图4:火山引擎首次发布豆包3D生成模型图5:豆包3D生成模型可根据文本生成3D场景3D编辑器应用场景:1min生成高保真高质量3D资产支持文生3D图生3D及多模态生成支持多模态3D资产编辑物理&传感精确模拟高保真复杂物品、物品组合6¥详资料来源:火山引擎,源达信息证券研究所资料来源:火山引擎,源达信息证券研究所火山引擎对豆包通用模型Pro进行升级,模型性能大幅提升。豆包通用模型Pro相比2024年5月发布版本,在综合能力上提升32%,与GPT-4o持平,而使用成本仅是其八分之一。模型在指令遵循、代码、专业知识、数学层面对齐GPT-40水平,其中指令遵循能力提升9%,代码能力提升58%,GPQA专业知识方面能力提升54%,数学能力提升43%,推理能力提升13%。5Yd源达图6:豆包通用模型Pro综合能力大幅提升图7:通用模型Pro在指令遵循、代码、数学等指标对标GPT-40(综合能力)(综合能力)GPQA(专业知识)12月5月12月12月资料来源:火山引擎,源达信息证券研究所资料来源:火山引擎,源达信息证券研究所火山引擎对豆包文生图模型和音乐模型能力升级。1)豆包文生图模型:模型在通用性、可控性、高质量方面实现突破,并新增一键海报和一键P图功能,可根据用户简单指令对图片进行精准编辑,并加强了对文字细节的指令遵循能力。2)豆包音乐模型:可根据用户简单描述或上传图片,生成时长3分钟的包含旋律、歌词和演唱等元素在内的音乐作品,包括前奏、主歌、副歌、间奏、过渡段等复杂结构,并支持局部修改功能,在针对部分歌词修改后仍能在原有旋律的节奏框架内适配。图8:豆包文生图模型能力升级图9:豆包音乐模型能力升级火山引擎火山引擎FORCE从1分钟创作升级为包括前奏、主歌、副歌、间奏、过渡段等完整的3分钟全曲创作曲风一致音质稳定合理运用旋律、节奏、和声等信息,使全曲在风格、情感和音乐逻辑上保持一致可以针对歌词进行局部修改,也仍能在原有旋律的节奏框架内进行适配一键P图谢中英文、专有名调”*智不面”一键海报聚信目标不”误“图文精妙融合资料来源:火山引擎,源达信息证券研究所资料来源:火山引擎,源达信息证券研究所豆包大模型能力显著提升,在多项能力测评中排名前列。根据2024年12月19日智源研究院发布的FlagEval“百模”评测结果,在闭源大模型评测能力总榜中,豆包通用模型Pro在大语言模型总榜中主观评测得分最高;多模态模型评测总榜中,豆包视觉理解模型和文生图模型的主观测评得分均排名第二。6图10:豆包通用模型Pro在大模型测评总榜中排名第一图11:豆包视觉理解模型在视觉语言模型测评榜单中排名第二TOP1闭源字节跳动TOP1闭源字节跳动GPT-4o-20241120TOP2ERNIETOP2ERNIE4.0TurboTOP2Doubao-Pro-Vision-32k-241028闭源百度Claude-3.5-Sonnet-20241022资料来源:智源研究院,源达信息证券研究所资料来源:智源研究院,源达信息证券研究所豆包视觉理解模型使用成本大幅低于行业平均水平,有望推动Al应用商业化成熟。根据火山引擎冬季FORCE原动力大会数据,豆包视觉理解模型的使用成本是0.003元/千Tokens,推动Al应用商业化。根据Al产品榜数据,豆包APP在2024年11月全球Al产品榜中排名第二,在终端应用的渗透率进一步提升。图12:豆包视觉理解模型使用成本大幅低于行业平均水平图13:豆包APP在11月全球AI产品榜中排名第二全球排名产品名11月上榜应用APPMAU11月上榜应用ChatGPTTheofficialappbyOpenAI豆包AI智能助手|抖音5Nova聊天AI与AI写作机器人49.63MChatOnPoweredbyChatGPT&GPT-40Remini人工智能修图8比行业价格低85%Doubao-vision-pro-32k3.5Sonnet-200k-vl-max-32k0.021-40-128kClaudeqwenGPT资料来源:火山引擎,源达信息证券研究所资料来源:智源研究院,源达信息证券研究所7Yd源达二、人工智能产业加快增长,应用及算力是两大支柱Al大模型对算力需求大,推动AI基础设施建设。AIGC行业进入高速发展期,A能持续提升的背后是千亿级以上的参数训练,带来对算力的高额需求,有望推动新一轮Al基础设施建设。根据OpenAl官网,AI模型训练计算量自2012年起每3.4个月就增长一倍。以GPT-3模型为例,根据lambdalabs数据,该模型参数规模达1750亿,完整训练运算量达3640PFlop/s-days(以3640PFlop/s速度进行运算,需要3640天)。模型完成单次训练约需要355个CPU年并耗费460万美元(假设采用NvidiaTeslaV100芯片)。表1:人工智能大模型的参数规模呈指数级增长趋势——————资料来源:《大语言模型研究现状及趋势》,源达信息证券研究所高算力需求迫切,推动AI基础设施建设。高训练算力需要与相应基础设施匹配,根据《2022-2023中国人工智能计算力发展评估报告》预计,2024中国智能算力规模将达641EFlop/s,同比增长50%,并预计2025年中国智能算力将达923Eflop/s,同比增长44%。。27.9%27.9%26.6%26.3%30%2024E2022E20202023E20212024E2022E20202023EYOY(%,右轴)Al支出增幅——DX支出增幅—GDP增幅资料来源:IDC,世界银行,源达信息证券研究所资料来源:IDC,源达信息证券研究所8源达美元,复合增速达29%。此外生成式人工智能资本开支2024-2028年GAGR有望达59%,显著高于其他人工智能技术的22%。图16:IDC预计2024-2028年全球人工智能资本开支复合增速GAGR达29%生成式人工智能生成式人工智能GenAl20242028其他人工智能技术202420285年复合年增长率(CAGR)支出预测($USD)AI总支出占比资料来源:IDC,源达信息证券研究所根据IDC数据,人工智能支出排名前三的行业是软件和信息服务、银行及零售业,预计在2024年的Al投资达896亿美元,占全球市场的38%。银行业将显著增加对欺诈分析和图17:IDC预计2028年软件资本开支将占人工智能支出的57%2024排名前三的人工智能用例AI基础设施配置增强型欺诈分析和调查Al赋能的客户服务和自助服务增强型欺诈分析和调查AI基础设施配置Al赋能的客户服务和自助服务各技术类别的支出比例●硬件●服务●软件支出比例:硬件部署●所有部署类型●公有云服务支出比例:软件部署●本地部署/其他●公有云服务资料来源:IDC,源达信息证券研究所9表2:国内厂商加大对AlAgent等大模型驱动下的人工智能应用的投入大模型产品阿里云百炼大模型服务平台Amazonbedrock以及partyrock.aws等工具百度智能云京东云AlAgent开发管理平台蚂蚁集团/蚂蚁数科蚂蚊AlStudio+Max昆仑万维商汤科技MaaS平台-应用智能体深信服科技Al算力平台神州数码神州问学-Al应用及Agent管理腾讯云腾讯元器月之暗面中国电信(天翼Al)智能体开发运营平台字节跳动火山引擎AlAgent开发管理平台、豆包APP360智脑、360智汇云Yd源达三、算力产业链:服务器是算力基础设施力需求极大,预计将推动一轮算力中心的建设。以NvidiaA100服务器为例(由8个A100GPU构成),单台服务器算力约为5Pflop/s,则训练一个具有1750亿个模型参数的大模型需要约2917台A100服务器。表3:具有1750亿个模型参数的大模型训练一天需要约2917台NvidiaA100服务器模型参数(亿个)所需算力(E+8PFlop/s)有效算力比率(%)实际算力需求(E+8PFlop/s)服务器算力(PFlop/s)55555每日工作时间(s)8640086400864008640086400服务器需求数(台)资料来源:Nvidia官网,OpenAI,源达信息证券研究所AI服务器/高端AI服务器出货量分别为47.0和27.0万台,较2022年分别同比增长36.6%和490.5%,并预计2024年全球普通AI服务器和高端AI服务器出货量分别为72.5和54.3万台,分别同比增长54.2%和172.0%。图18:Al服务器出货量高速增长资料来源:华勤技术投资者关系公众号,源达信息证券研究所Yd源达华为加大算力基础设施研发力度。目前华为算力基础设施布局中:鲲鹏系列以通用算力为主,昇腾系列以智能算力为主,均采用国产芯片打造。华为凭借自身强大的研发能力,已实现从算力、存力、互联技术和计算架构等方面为世界提供第二选择,打造算力坚实底座。从产业链布局看,目前华为主要负责服务器或其中核心器件的研发和生产,并由下游服务器厂商代理销售,主要的华为系服务器厂商有高新发展(对华鲲振宇持股70%)、四川长虹、神州数码、拓维信息和烽火通信等。此外2023年3月中兴通讯宣布自身服务器将为百度“文心一言”提供算力支撑。图19:搭载鲲鹏920处理器的鲲鹏服务器主板图20:华为推出昇腾系列AI算力基础设施Atlas800Al服务器Atlas200Al加速模块开发者套件推理卡智能小站资料来源:华为官网,源达信息证券研究所资料来源:华为官网,源达信息证券研究所2.液冷技术低能耗高散热,受益算力扩建浪潮液冷技术相较于传统风冷技术,具有低能耗、高散热、低噪声和低TCO等优点,符合数据中心高能耗、高密度的发展趋势:1)高效散热:液体的冷却能力是空气的1000-3000倍,使得液冷技术更适用于高能耗、高功率的服务器应用场景。2)节能降耗:液冷系统可实现更高能效比,降低数据中心能耗。液冷技术(尤其是浸没式液冷)可将数据中心的PUE值降至1.2以下,相较于传统风冷技术,可以节省电量30~50%。3)提高设备可靠性:液冷技术可以减少因高温引起的设备故障,延长服务器的使用寿命,并避免因风扇引起振动和噪音。4)节省空间:液冷技术允许更紧凑的服务器布局,无需像风冷那样需要较大的空气流通空间,从而节省了数据中心的占地面积。5)提高功率密度:液冷技术可以支持更高的机架功率密度,满足高性能计算和Al应用的需求。浸没式液冷方案可以将单机架功率提升到100kW甚至200kW以上。源达图21:传统风冷技术与液冷技术原理对比风冷服务器:风冷服务器:空气与发热部件接触换热液冷服务器:接触换热传统风冷液冷资料来源:曙光数创招股说明书,源达信息证券研究所图22:液冷技术散热能力显著优于风冷技术图23:液冷技术节能水平显著优于风冷技术■风冷■冷板式液冷■浸没式液冷■风冷■冷板式液冷■浸没式液冷冷却能耗/KW冷却电费/万元■风冷■冷板式液冷■浸没式液冷资料来源:《中兴液冷技术白皮书》,源达信息证券研究所资料来源:《中兴液冷技术白皮书》,源达信息证券研究所冷板式和浸没式等主流液冷技术在散热性、集成度、能效等冷却效果指标上显著优于传统风Yd源达表4:主流液冷技术与传统风冷技术冷却效果指标对比传统风冷浸没相变液冷散热性能0集成度0可维护性0+可靠性0十性能0能效0废热回收0噪音0资料来源:曙光数创招股说明书,源达信息证渐广。传统的风冷方式只能满足2.7kW/机柜的数据中心散热需求,无法适应中高密度数据中心需求。液冷技术利用高比热容的特点和对流传热的能力,可以满足2.7-30kW/机柜的数据中心散热需求,解决超高热流密度的散热问题,未来液冷技术必将在数据中心领域得到表5:不同密度数据中心适用的冷却技术每平方功率数据中心密度制冷方式1.2Kw/机柜以下超低密度数据中心风冷1.2-2.7kW/机柜低密度数据中心风冷2.7-7.5kW/机柜中、低密度数据中心风冷/液冷7.5-18kW/机柜中、高密度数据中心冷板式液冷18-30kW/机柜高密度数据中心冷板式液冷/浸没式液冷资料来源:曙光数创招股说明书,源达信息证券研究所根据2023《中国液冷数据中心市场深度研究报告》,预计2025年中国液冷数据中心市场年中国液冷数据中心市场将以59%的复合增长率持续发展。预计到2027年,AI大模型商图24:2019-2022年中国液冷数据中心市场规模图25:2022-2027年中国液冷数据中心市场规模预测036.9201949.5202020212022800700600500400300200020222023E377.6236.32024E2025E619.02026E2027E资料来源:《中国液冷数据中心市场深度研究报告》,源达信息证券研究所资料来源:《中国液冷数据中心市场深度研究报告》,源达信息证券研究所Yd源达四、算力产业链:芯片是智能核心,国产化短板明显2023年11月13日Nvidia推出新款人工智能芯片GPUH200,与公司上一代产品H100相比在存储性能力层面性能指标未有显著改变。图26:NvidiaGPUH200芯片示意图资料来源:Nvidia,源达信息证券研究所图27:H200较H100相比在存储性能上有大幅提升Memory6.5Gbps5.24GbpsMemoryBuswidthMemoryBandwidth4.8TB/sec3.35TB/sec资料来源:Nvidia,源达信息证券研究所国产公司旗下的AI旗舰芯片与NvidiaH100SXM的性能指标对比,可以看到国产AI芯片表6:国产Al芯片性能指标仍与国际顶尖水平存在较大差距公司Nvidia寒武纪华为沐曦产品型号H100SXM思元370昇腾910曦思N100320TFlop/s80TFlop/s资料来源:各公司公告,源达信息证券研究所。2022年10月7日美国商务Yd源达管制范围1、输入输出(I/O)双向传输速度高于600GB/s;2、算力性能与精度指令比特长度乘积超过48004A0901、含有超过3A090技术指标芯片的计算机、电子组件和相关部件资料来源:美国商务部,源达信息证券研究所Yd源达五、算力产业链:光模块快速放量,产品结构向高端升级高算力需要与高效传输架构相匹配。Al大模型通常由多个服务器作为节点,并通过高速网络架构组成集群合作完成模型训练。因此在模型中东西向流量(数据中心服务器间的传输流量)大幅增加,而模型训练过程中南北向流量(客户端与服务器间的传输流量)较少,由于叶脊网络架构相较传统三层架构更适用于东西向流量传输,成为现代数据中心主流网络架图28:Al大模型中东西向流量显著增加图29:叶脊网络架构适用于东西向流量传输南北向南北向东西向流量资料来源:华为云,源达信息证券研究所资料来源:鹅厂网事,源达信息证券研究所叶脊网络架构大幅增加对光模块数量需求。由于叶脊网络架构中东西向流量大,因此服务器与交换机相连均需使用光模块,从而大幅增加对光模块数量需求。同时AI大模型的高流量对带宽提出更高要求,800G光模块相较200G/400G光模块具有高带宽、功耗低等优点,有望在Al大模型网络架构中渗透率提升。表8:叶脊网络架构对光模块数量需求大幅提升架构类型传统三层架构改进等三层架构叶脊网络架构光模块相对于机柜倍数资料来源:中际旭创定向增发募集说明书,源达信息证券研究所架构,分为1-4个SU单元类型(8个GPU组成一个H100服务器节点,32个服务器节点组成一个SU单元)。其中4-SU单元架构由127个服务器节点组成(其中一个节点用于安装UFM网络遥测装置),具有1016个H100GPU、32个叶交换机、16个脊交换机。Yd源达表9:NvidiaDGXH100架构所需GPU、交换机数量Nodes18426834connectivity.资料来源:Nvidia,源达信息证券研究所我们以NvidiaDGXH100架构为例测算GPU与光模块的对应数量。在4-SU的NvidiaDGXH100架构中,每32台服务器节点组成一个SU单元,并与8台叶交换机相连,因此服务器节点与叶交换机之间共有1024个连接(32×8×4);32台叶交换机需分别与16台脊交换机相连,因此叶交换机与脊交换机之间共有512个连接(32×16);在NvidiaDGXH100的目前方案中,脊-叶连接采用800G光模块,需要1024个800G光需要512个800G光模块(128×4),同时每台叶交换机通过一个400G光模块与一个服务器节点连接,需要1024个400G光模块(128×8)。综上计算得一个4-SU单元的DGX800G光模块:400G光模块的比例约等于1:1.5:1。SpineSpine-02cUFM1C-UFM2H100-127H100-097H100-0322x400Spine-01Spine-16Leaf-04-02Leaf-04-01Leaf-01-01H100-001资料来源:Nvidia,源达信息证券研究所根据Lightcounting预测,全球光模块市场规模在2025年有望达170亿美元,并在2025-2027年或将以CAGR=11%的复合增速增长,2027年有望突破200亿美元。源达图31:全球光模块市场在2027年有望突破200亿美元22.00022.00020.000 6.000 4.0002.0000201620172018201920202021-15%2022E2023E2024E2025E2026E2027EFTTx——yoyEthernetWirelessFronthaulFibreChannel资料来源:Lightcounting,源达信息证券研究所国产光模块厂商在2023年全球光模块企业TOP10排名中占据7席。TOP10中国内企业为中际旭创(Innolight)、华为(Huawei)、光迅科技(Accelink)、海信(Hisense)、新易盛(Eoptolink)、华工正源(HGG)、索尔思光电(已被华西股份收购)。而在高端光模块领域,中际旭创已在2024年实现1.6TG光模块批量出货,并加快对3.2T等更高端光模块技术的研发。表10:中际旭创在2023年全球光模块企业排名中位居第一Huawei(HiSilicon)Huawei(HiSilicon)Huawei(HiSilicon)AccelinkAccelinkBroadcom(Avago)AccelinkMarvell资料来源:Lightcounting,源达信息证券研究所六、投资建议豆包大模型产品力大幅提升,产品矩阵进一步丰富,并大幅降低人工智能大模型使用成本,配合豆包APP在终端应用渗透率的提升,有望推动
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 二零二五年度文化交流活动冠名赞助合同
- 医疗器械承包合同
- 企业运营保证金合同
- 二零二五年度燃气电厂建设项目合同
- 2025年度民间个人农业项目投资借款合同
- 典当合同样本
- 二零二五年度农村房屋买卖及使用权转移合同
- 二零二五年度新能源汽车研发干股虚拟股分红及合作开发协议
- 二零二五年度车牌租赁与广告合作合同
- 2025年度物流行业协议书格式字体规范合同
- 2024年普通高等学校招生全国统一考试·新课标卷(生物)附试卷分析
- 优化热处理工艺的机器学习
- 2024年1月时政热点题库及答案
- 2023年山东省夏季普通高中学业水平合格考试会考生物试题及参考答案
- 非正常接发列车作业标准
- 体育室内课-体育大富翁
- 2024年国家保安员资格考试题库及参考答案(完整版)
- DL-T692-2018电力行业紧急救护技术规范
- 消防员训练伤的预防及恢复课件
- 医院感染防控基本知识2
- 泌尿外科专业英语词汇 总结
评论
0/150
提交评论