版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
证券研究报告HTTP://WWW.LONGONE.COM.CN标配AI大模型竞赛方兴未艾,OpenAI与行行电子电子 2.海外科技股2024Q4业绩持续回暖,DeepSeek大模型引燃AI云与端块长期受益——半导体行业深度报告(十)能的技术,按照智能程度划分,主要分为狭义人工智能、通用人工智能和超级自2020年起,全球AI市场规模以高于20%的同比增速呈现迅猛增长的态势,从2019年的1.91万亿美元有望扩张至2024年的6.16万亿美元,同比增速逐年上升,整体市场有望在小对于模型性能提高的重要性。大模型的商业化落地形式主要包括通过API调用收费以及都将逐步收敛至头部厂商,部分规模较小的模型厂商GPT与OpenAIo1系列模型分别验证了算力投入在训练侧和推理侧的重要性,而DeepSeek通过创新性的训练方法和架构实现了较低的模型训练成本,在未来大模创始人OpenAI自成立起先后发布了GPT系列模型和以OpenAIo1、o3为代表的深度推理在后训练阶段大规模使用了强化学习技术而不依赖监督微调,性能对齐OpenAI-o1正式证券研究报告HTTP://WWW.LONGONE.COM.CN2/38请务必仔细阅读正文后的所有说鑫科技、中科蓝讯、晶晨股份、瑞芯微、全志科技、炬芯科技、国科微等3)存储板块北京君正等4)光模块、光器件、光芯片板块关注中际旭创、天孚通信、新易盛、光迅石科技、光迅科技、川环科技、国芯科技等7)电源板块关注麦格米特、光宝科技、中风险提示1)AI需求不及预期风险2)行业竞争过度风险3)国际贸易政策的变化证券研究报告HTTP://WWW.LONGONE.COM.CN3/38请务必仔细阅读正文后的所有说 6 6 8 3.大模型创新迭代,性能提升与成本下行 3.3.AI大模型产业链半导体相关重点厂商 4.投资建议与风险提示 证券研究报告HTTP://WWW.LONGONE.COM.CN4/38请务必仔细阅读正文后的所有说图1人工智能发展历程 6图2按智能程度划分的三类人工智能 7图3GenAI的工作原理 7图4GenAI在各领域的应用效果 7图5AI的三大要素 8图6AI算力的相关常用名词及其含义 8图7AI产业链 8图8全球AI市场规模(十亿美元)及同比增速 9图9头部主要厂商大模型迭代时间轴 图10MLLM的架构示意图 图11训练与推理示意图 图12模型性能与计算量、数据大小、参数量的关系 图13大模型的涌现现象 图14GPT系列模型迭代参数规模的变化 图15海外云厂商2024Q1-Q4资本开支(亿美元) 图162020-2029E全球大模型市场规模(亿美元)及增速 图17大模型商业化模式 图18模型推理部署四种主要形式的优劣 图192024年国内各行业大模型公开披露的落地项目数量(单位:个) 图202024年国内各行业大模型公开披露的落地项目金额(单位:亿元) 图21字节跳动Coze智能体创建界面 图22大模型区别于互联网时代的竞争特点 图23海外主流AI大模型基准评分差距逐步缩小 图24海外模型厂商竞争格局 20图25大模型区别于互联网时代的竞争特点 21图262020-2024年阿里云业务营收占比 21图27国内模型厂商竞争格局 22图28OpenAI发展历程以及重要模型发布节点 23图29OpenAIGPT系列模型迭代相关性能参数 24图30以GPT-4为例的GPT系列模型路径 24图31OpenAIo1与其他头部模型评分对比 25图32OpenAIo1在训练和推理阶段算力资源的投入与模型性能的关系 25图33o1模型相比GPT-4o在推理密集型任务上的改进 26图34未来GPT系列与o1系列模型或将收敛融合 26图35DeepSeek发展历程以及重要模型发布节点 26图36DeepSeek用户增长速度 27图37海内外接入DeepSeek的厂商 27图38DeepSeek-V3多项评测能力与海内外头部模型对比 28图39DeepSeek模型性能与价格比处于最优范围内 28图40DeepSeek-V3训练成本 28图41DeepSeek-V3的MLA和DeepSeekMoE架构 29图42DeepSeek-R1在数学、代码、自然语言推理等任务上的性能表现 30图43DeepSeek-R1-Zero在训练过程中的AIME准确性不断上升 31图44蒸馏后的小型模型在数学、代码、自然语言推理等任务上的性能表现 32图45AI服务器产业链 33图46寒武纪2020-2024年总营收和归母净利润与各自同比增速 33证券研究报告HTTP://WWW.LONGONE.COM.CN5/38请务必仔细阅读正文后的所有说图47海光信息2020-2024年总营收和归母净利润与各自同比增速 33图48恒玄科技2020-2024年总营收和归母净利润与各自同比增速 34图49乐鑫科技2020-2024年总营收和归母净利润与各自同比增速 34图50兆易创新2020年-2024Q1-Q3总营收和归母净利润与各自同比增速 34图51澜起科技2020-2024年总营收和归母净利润与各自同比增速 34图52中际旭创2020-2024年总营收和归母净利润与各自同比增速 35图53天孚通信2020年-2024Q1-Q3总营收和归母净利润与各自同比增速 35图54鹏鼎控股2020-2024年总营收和归母净利润与各自同比增速 35图55胜宏科技2020-2024年总营收和归母净利润与各自同比增速 35图56浪潮信息2020年-2024Q1-Q3总营收和归母净利润与各自同比增速 36图57工业富联2020-2024年总营收和归母净利润与各自同比增速 36图58麦格米特2020年-2024Q1-Q3总营收和归母净利润与各自同比增速 36图59欧陆通2020年-2024Q1-Q3总营收和归母净利润与各自同比增速 36表1Transformer架构和MoE架构的对比 表2模型API服务的构成、重要性和主要指标 表3海内外代表大模型Token定价 证券研究报告HTTP://WWW.LONGONE.COM.CN6/38请务必仔细阅读正文后的所有说(1)人工智能(ArtificialIntelligence,AI)是一种模拟人类智能的技术,旨在使机器能够像人类一样思考、学习和解决问题。AI涵盖了多种技术和方法,包括深度学习、机器学习、计算机视觉和自然语言处理等。自1956年达特茅斯会议首次提出AI概念之后,AI经历了早期的萌芽式发展,20世纪70年代出现的专家系统实现了AI从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破,但后续AI因为一系列问题陷入发展瓶颈,进入21世纪,随着网络技术的发展,数据的获取变得更加容易,云计算的兴起提供了强大的计算能力,为深度学习的应用提供了土壤,2010年起,以深度神经网络为代表的AI技术蓬勃发展,应用落地场景多点开花,尤其在近几年,大规模预训练模型时代开启,海内外以ChatGPT、DeepSeek等为代表的AI模型竞赛如火如荼,标志着AI进入了一个新的纪元。图1人工智能发展历程(2)按照智能程度划分,AI主要分为狭义人工智能(ANI)、通用人工智能(AGI)和超级人工智能(ASI目前AGI和ASI尚处于理论和探索阶段。ANI(ArtificialNarrowIntelligence)又称弱人工智能指专注于特定任务的人工智能系统,能够高效执行特定功能,但其能力局限于预设任务,不具备通用智能。AGI(ArtificialGeneralIntelligence)指具备与人类相当的综合智能,能够理解、学习和执行任何智力任务,具备自主学习和推理能力。ASI(ArtificialSuperIntelligence)指在几乎所有领域超越人类智能的人工智能,具备自我改进能力,可能在科学、艺术等领域远超人类。目前,ANI已广泛应用于图像和语音识别、自动驾驶等场景,AGI尚未有实际应用,仍处于理论阶段,但Sora的问世无疑使我们离AGI更进了一步。证券研究报告HTTP://WWW.LONGONE.COM.CN7/38请务必仔细阅读正文后的所有说图2按智能程度划分的三类人工智能(3)生成式人工智能(GenerativeArtificialIntelligence,GenAI)是AI领域的重要分支,不同于传统的AI仅对输入数据进行处理和分析,GenAI能够学习并生成具有逻辑的新内容。GenAI可以学习并模拟事物的内在规律,是一种基于算法和模型生成具有逻辑性和连贯性的文本、图片、声音、视频、代码等内容的技术。早期GenAI主要针对单一模态,如GPT系列生成文本、StyleGAN生成图像。随着技术进步,GenAI开始结合多模态模型,依赖于复杂的机器学习模型,实现异构数据的生成式输出,创建跨模态原创内容(例如文本、图像、视频、音频或软件代码)以响应用户的提示或请求。在应用层面,GenAI可显著提升生产效率,根据贝恩,GenAI可在营销方面缩减30%-50%内容创造所需的时间消耗,在软件开发方面缩短15%的代码编写时间。图3GenAI的工作原理图4GenAI在各领域的应用效果(4)AI具有算力、算法、数据三大要素,其中基础层提供算力支持,通用技术平台解决算法问题,场景化应用挖掘数据价值。数据是AI学习和成长的基石,决定了算法是否能得到有效的训练和优化,数据的质量和数量也直接影响到AI模型的准确性和效率;算法是AI的灵魂,决定了AI如何处理数据和解决问题,其设计和选择直接关系到AI的性能和应用效果;算力是AI运行的动力,算力提供了执行算法和处理数据所需的计算资源,强大的算力可以支持复杂和大规模的AI应用。其中算力指计算设备在单位时间内处理数据的能力,证券研究报告HTTP://WWW.LONGONE.COM.CN8/38请务必仔细阅读正文后的所有说AI算力是专门针对AI任务(如矩阵运算、神经网络训练)优化的计算能力,需支持高并行性和大规模数据处理,通常用浮点运算次数(FLOPS)衡量,衍生的还有TFLOPS(万亿次/秒)、PFLOPS(千万亿次/秒)等常见单位,算力的核心硬件包括GPU、ASIC、FPGA等。图5AI的三大要素图6AI算力的相关常用名词及其含义(1)AI产业链可大致分为基础设施层、模型层、平台层、应用层及服务层,其中基础设施层包含芯片、存储、网络等,模型层包含通用模型、行业模型等。上游基础设施层是AI产业链的基础,主要涉及数据、算力等基础软硬件,包括AI芯片,代表厂商寒武纪、英伟达等;计算、存储、网络方面,代表厂商亚马逊、微软、阿里、三星电子等。模型层是AI产业链的核心部分,包括通用大模型和行业大模型等。平台层和模型层深度绑定,使大模型更便于使用和普及。随着AI大模型的发展,平台中多种模型选择、如何将大模型高效且可靠地部署于生产环境是当前的核心问题。应用层是AI产业链的终端环节,主要涉及AI在各个领域的应用和落地,而大模型的不断更新升级有助于加速应用场景的创新及商业化落地。图7AI产业链证券研究报告HTTP://WWW.LONGONE.COM.CN9/38请务必仔细阅读正文后的所有说(2)2024年全球AI市场规模有望达到6.16万亿美元,同比增长30.1%。根据Frost&Sullivan,自2020年起,全球AI市场规模以高于20%的同比增速呈现迅猛增长的态势,从2019年的1.91万亿美元有望扩张至2024年的6.16万亿美元,同比增速逐年上升,2025年开始虽然预计增速同比放缓,但整体市场有望在2027年扩张至11.64万亿美元,体现出全球AI行业井喷式的发展速度。图8全球AI市场规模(十亿美元)及同比增速04732.7201920202021202220232024全球AI市场规模(十亿美元)yoy(右轴)资料来源:Frost&Sulliv证券研究报告HTTP://WWW.LONGONE.COM.CN10/38(1)AI大模型指使用大规模数据和强大的计算能力训练出来的“大参数”模型,通常具有高度的通用性和泛化能力,可以应用于自然语言处理、图像识别、语音识别等领域。2022年11月30日,伴随着ChatGPT的推出,其亮眼的语言生成能力掀起了全球范围内的AI大模型热潮,Gemini、Llama、文心一言、SORA、DeepSeek等各类大模型如雨后春笋般涌现。大模型作为AI产业链中的核心环节,推动了自然语言处理、计算机视觉等领域的突破,显著提升了AI的理解和生成能力,并且在医疗、金融、教育、自动驾驶等多个行业中得到广泛应用,有望引领人类步入第四次工业革命。图9头部主要厂商大模型迭代时间轴(2)按照输入数据类型的不同,大模型可分为大语言模型、视觉大模型、多模态大模型三大类;从训练范式看,大模型也可分为基座模型、推理模型和多模态模型。1)从输入数据类型看,大语言模型(LLM,LargeLanguageModel)是指在自然语言处理(NaturalLanguageProcessing,NLP)领域中的一类大模型,通常用于处理文本数据和理解自然语言,它们在大规模语料库上进行了训练,以学习自然语言的各种语法、语义和语境规则;视觉大模型是指在计算机视觉(ComputerVision,CV)领域中使用的大模型,通常用于图像处理和分析,这类模型通过在大规模图像数据上进行训练以实现各种视觉任务,如图像分类、目标检测、人脸识别等;多模态大模型(MLLM,MultimodalLLM)是指能够处理多种不同类型数据的大模型,例如文本、图像、音频等多模态数据,这类模型结合了NLP和CV的能力,以实现对多模态信息的综合理解和分析,能更全面地理解和处理复杂的数据。2)从训练范式看,除去上文提到的多模态模型,基座模型(FoundationModels)是一种大规模的预训练模型,通常用于提供基础的语言理解和生成能力,特点是参数数量庞大,能够处理复杂的语言任务;推理模型(InferenceModels)是在基座模型的基础上进行进一步训练和证券研究报告HTTP://WWW.LONGONE.COM.CN11/38优化的模型,它专注于提升模型的推理能力,通常通过强化学习等技术来增强模型的性能,能够处理更复杂的任务,具备自主规划和决策的能力。图10MLLM的架构示意图(3)深度学习作为机器学习中的重要分支,也是大模型提供了强力的技术支撑,深度学习涵盖训练和推理两个阶段,其中训练又分为预训练、后训练两个步骤。训练(Training)是指通过给定的训练数据集,利用深度学习算法来不断地调整和优化神经网络模型的参数,使其能够从数据集中学习并形成对未知数据的预测能力。其中预训练(Pre-training)通常发生在模型开发的早期阶段,目的是在大规模数据集上学习通用特征,为后续任务奠定基础,预训练不针对特定任务,而是追求广泛的适用性。后训练(Post-Training)发生在预训练之后,模型部署前或部署初期,后训练针对特定的任务或数据集进行额外训练,以优化模型性能,包括SupervisedFine-tuning(SFT,监督微调)和ReinforcementLearningfromHumanFeedback(RLHF,人类反馈的强化学习)等环节。推理(Inference)是指在经过训练后,将已经训练好的模型应用到真实的数据上,让模型对真实的数据进行预测或分类。图11训练与推理示意图(4)ScalingLaw作为大模型预训练第一性原理,仍是驱动模型进步的重要定律。规模定律(ScalingLaw)也称尺度定律、缩放定律等,在AI领域中被业界认为是大模型预训练第一性原理,描述了在机器学习领域,特别是对于大语言模型而言,模型性能(L,模型在测试集上的交叉熵损失)与模型的参数量大小(N)、训练模型的数据大小(D)以及训练模型使用的计算量(C)之间存在一种可预测的关系。这种关系通常表现为随着这些因素的证券研究报告HTTP://WWW.LONGONE.COM.CN12/38增长,模型性能会按照一定的幂律进行改善。预训练阶段的ScalingLaw依然是目前GPT范式中成本最高的训练阶段,99%的计算在预训练阶段中。图12模型性能与计算量、数据大小、参数量的关系Chess,Child,&etal.(202(5)大模型中存在一种“涌现”现象,进一步证明模型参数量等属性大小的重要性。“涌现”在物理学中的解释是指系统的量变引起行为的质变,在AI领域中,涌现能力(EmergentAbilities)在较小的模型中不出现,通常只在大模型中出现,尤其是大语言模型。下图显示了对于GPT-3等模型针对涵盖数学、历史、法律等等一系列主题的基准测试,结果显示,对于GPT-3、Gopher和Chinchilla,小于等于10B参数时,准确率等表现结果并没有超过随机太多,但一旦参数量达到70B-280B时,性能大大超越了随机效果,这个结果或意味着跨越某个阈值,模型解决大量以知识为基础的、涵盖多个领域的问题的表现会出现质的飞跃(对于没有检索或访问外部内存的稠密语言模型来说进一步体现模型参数量、数据量等大小的重要性。图13大模型的涌现现象证券研究报告HTTP://WWW.LONGONE.COM.CN13/38(6)尽管硬件层面限制等因素致使当前大模型参数规模的提升速度已经有所放缓,但各大头部厂商仍在持续投入数据中心建设。以GPT系列模型为例,GPT-3的参数规模是GPT-2的100倍左右,而GPT-4相比GPT-3仅仅翻了10倍左右,下一代模型在参数规模上可能增加3-5倍。目前模型规模增加的主要限制因素在硬件层面,模型参数过大对于GPU训练集群的内存要求和通信要求极高,但目前物理基础设施能力的提升比软件更慢,尽管如此,各大头部云服务厂商仍在不断加码AI基础设施投入,为未来更大规模的大模型作准备。图14GPT系列模型迭代参数规模的变化图15海外云厂商2024Q1-Q4资本开支(亿美元)0(7)除了训练与推理环节的投入之外,模型架构的创新也在不断引领模型进步,目前主流的两种模型架构分别为Transformer和MoE架构。1)Transformer是一种基于自注意力机制(self-attentionmechanism)的神经网络架构,通过并行处理整个输入序列。自注意力机制让模型在处理每个单词时,都能计算该单词与其他所有单词的关联程度,给不同单词分配不同的“注意力权重”,从而捕捉到文本中词汇之间丰富的语义关系,理解上下文,提升了长序列的处理能力。标准的Transformer由多层堆叠的编码器(Encoder)/解码器(Decoder)组成,捕捉输入序列的长距离依赖关系,但每个输入样本会经过所有层和所有参数的计算,属于一种稠密(Dense)架构,计算量随着序列长度的增加而显著增加,需要大量的计算资源和内存来存储中间结果。采用Transformer架构的大模型包括GPT-1、GPT-2、GPT-3等。2)MoE(MixtureofExperts,混合专家模型)通过组合多个专家网络处理输入数据,每个专家是一个独立的神经网络,专注于处理特定类型的输入,由门控机制(gatingmechanism)根据输入数据动态选择最合适的专家,并将它们的输出加权组合。区别于Transformer会激活所有参数,MoE只激活部分专家网络,计算是稀疏(Sparse)的,可显著降低计算成本,在模型规模扩展方面,MOE架构具有很强的灵活性。通过增加专家网络的数量,就能轻松扩展模型的规模,提升模型的能力,而不需要对模型结构进行大规模改动。采用MoE架构的大模型如DeepSeek-V3。表1Transformer架构和MoE架构的对比(尤其是Sparsely-GatedMoE)证券研究报告HTTP://WWW.LONGONE.COM.CN14/38(1)未来五年全球大模型行业市场规模的CAGR有望达到36.23%。随着AI技术的不断进步和应用场景的日益丰富,大模型的市场规模日益扩展,2021年,全球大模型市场规模同比增长132%,2020年至2024年,全球大模型市场规模有望从25亿美元飞速扩张至280亿美元,增长十倍以上,2025年或将扩张至366亿美元,同比增长30.71%,虽然增速有所放缓,但未来五年,全球大模型行业市场规模有望以36.23%的年复合增长率扩张至2029年的1314亿美元。图162020-2029E全球大模型市场规模(亿美元)及增速86.21%33.33%36621020202021202220232024E(2)目前,大模型的主要盈利模式是基于用量的一种商业模式,核心理念是通过API调用收费,此外还有广告、模型推理部署方向的业务模式。基于用量的收费模数主要按照Tokens、调用次数、时间区间等维度来收费,也是当前主流的盈利方式。除此之外,模型在云端或者本地部署也是模型盈利的重要形式,还有一些AI大模型相关的app因为下载量巨大,吸引到部分商家投放广告,进而形成了广告收入。证券研究报告HTTP://WWW.LONGONE.COM.CN15/38图17大模型商业化模式(3)模型API本质是一种MaaS(Modelasaservice)模式,是海外大模型的核心商业模式,国内市场由于差异化程度较低,规模相对较小,低价竞争策略或将长期持续。API(ApplicationProgrammingInterface,应用程序编程接口)是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细节,在大模型层面,开发者通过API这一标准化接口调用大模型功能,而无需从头训练模型,只需发送请求即可获得模型的输出。通过API调用从而盈利的特点是简单易用、复杂性低和定制化程度低,模型能力是唯一的差异化之处,这本质是一种基于底层模型用量的模式,再增加一部分产品层的溢价构成定价。API行业需求方较为碎片化,来自各个行业,从供给层面看,模型API是海外大模型的核心商业模式,从国内市场看,由于国内模型能力缺乏差异化,行业低价竞争趋势等因素,整体市场规模较小,难以成为模型厂商的主要收入来源。表2模型API服务的构成、重要性和主要指标构成重要程度(1-4星)含义及主要指标模型库★包括模型厂商的自研模型和第三方开源模型(主要适用于云厂商,会提供MaaS服务)模型能力★★★★调用量由真实的市场需求产生(1)推理能力:核心指标,包括指令遵从、内容合规、用户意图理解等(2)上下文长度(ContextWindow支持的上下文窗口大小,决定模型可以处理的任务复杂度上限(3)多模态能力:文字、图像、音视频等模态的理解、生成、交互表现价格★★★和调用量、调用方式有关,总体上呈快速下降趋势包括输入价格(InputTokens)和输出(OutputTokens)价格,以及更便宜的BatchAPIAPI性能★★★(1)延迟:FTL(FirstTokenlatency,从发出请求到收到第一个Token的时间,也称TimetofirstToken)(2)吞吐量:RPM(Requestperminute,每分钟请TPM(Tokensperminute,一分钟输出Token量)(3)输出速度:Tokenspersecond(每秒输出Token量)(4)稳定性:各项指标稳定性、波动水平、故障频率安全合规★★用户的数据隐私保护、内容安全合规性证券研究报告HTTP://WWW.LONGONE.COM.CN16/38(4)按照Token计价是大部分大模型API的收费方式,国内外大模型对于Token的标准并不统一,定价也差别较大,其余还有按照时间区间计价、调用次数等计价模式。Token在大模型中的含义是最小文本单元,可以直观地理解为字或词,但目前Token和单个汉字、英文字母之间的关系并没有统一的计量标准,各大模型也各不相同,但总体来说1个token≈1-1.8个汉字,在英文文本中,1个token≈3-4个字母。定价方面,不仅对于不同大模型收费标准不同,对于一些大模型来说,在不同时间段使用的定价也不同。此外,按照时间区间计价主要是针对个人用户的订阅制收费模式,可按照年、月、周等维度购买服务(如ChatGPT按照调用次数的计价模式则方便用户按需购买。表3海内外代表大模型Token定价大模型名称输入价格/百万Tokens(缓存命中/cachehit)输入价格/百万Tokens(缓存未命中/cachemiss)输出价格/百万Tokens海外GPT-4.537.5美元75美元150美元GPT-4o1.25美元2.5美元10美元Gemini2.0Flash(Google)0.025美元0.1美元0.4美元Claude3.7Sonnet(Anthropic)3美元15美元国内DeepSeekR1(DeepSeek)0.14美元0.55美元2.19美元qwen-max(阿里)2.4元9.6元qwen2.5-72B(阿里)4元Kimi-latest-128k(月之暗面)60元SenseChat-Vision(商汤)60元hunyuan-TurboS(腾讯)0.8元2元doubao-1.5-pro-32k(字节)0.8元2元(5)定制化服务主要是指模型推理部署,包含云端、本地、边缘及混合部署,是国内大模型市场的核心业务模式,贡献了大部分营收,其中云端部署是目前最为普遍的大模型部署方式。1)云端部署是当前模型推理部署的主流方式,分为私有云部署和公有云部署,私有云部署是企业将模型部署在自己管理的云基础设施上,结合了本地部署的控制权和云的灵活性,公有云部署则是企业将模型和数据托管在云服务商提供的基础设施上;2)本地部署需要企业有完善的IT基础设施,是将大模型部署在企业自己的物理服务器上,适用于需要极高数据隐私或对外部依赖有严格要求的场景;3)边缘部署是指将原本运行在云端或大型服务器上的大模型通过优化和压缩后,部署在靠近数据产生源头或应用场景的“边缘设备”(如手机、传感器、本地服务器、IoT设备等)上运行的技术方案,核心目标是通过本地化处理,减少对云端服务器的依赖,从而提升响应速度、保护数据隐私,并适应网络不稳定的环境;4)混合部署是将私有云和公有云结合使用,将一些关键任务(如训练、大规模数据处理)放在私有云中,而将推理任务或其他非机密任务放在公有云中。证券研究报告HTTP://WWW.LONGONE.COM.CN17/38图18模型推理部署四种主要形式的优劣(6)从国内大模型项目落地的应用领域看,2024年落地项目数量排在前三位的分别为通信、教科和政务,落地项目金额前三位分别是政务、教科和能源。从2024年国内公开披露的大模型落地项目看,在教科、通信、能源、政务、金融等行业数量和金额都相对较多。能源(11.18%)和金融(8.75%从金额维度看,排名前五的行业分别为政务(34.64%)、单个项目涉及金额较大,其次为能源。图192024年国内各行业大模型公开披露的落地项目数量(单位:个)0图202024年国内各行业大模型公开披露的落地项目金额(单位:亿元)50资料来源:智能超参数,东海证券研究所资料来源:智能超参数,东海证券研究所(7)随着模型能力不断提升,业务不断成熟,未来以AIAgent为代表的基于结果和价值创造的商业模式有望逐步落地。大模型的三种应用模式分别为Embedding、Copilot和Agent,在Embedding模式中,大模型被集成到现有的应用程序或服务中;Copilot模式中,大模型充当助手的角色,为用户提供实时的建议和支持;Agent模式中,大模型被赋予了一定程度的自主权。近日,Manus作为“全球首款通用AIAgent”问世,引发市场热情。AI证券研究报告HTTP://WWW.LONGONE.COM.CN18/38Agent以大模型为核心引擎,但是区别于用户基于提示词(prompt)与AI模型交互,AIAgent具备通过独立思考、调用工具逐步完成用户给定的目标的能力,主打“直接完成工作”,本质是一个控制大模型来解决问题的代理系统。与上文模型API不同,这种基于结果和价值创造的商业模式更加复杂,且需要可衡量的结果和交付价值,目前模型厂商的产品形态还几乎不支持对直接基于模型产生的实际效益去定价,但这种模式能更好地满足客户需求。目前,Copilot类产品首先实现商业落地,AIAgent或首先从垂直场景开始逐步探索,未来在模型能力不断上升、产品模式更加成熟后,有望成为新的下游应用增量点。图21字节跳动Coze智能体创建界面2.3.大模型竞争日趋白热,未来玩家格局或将逐(1)大模型的能力日新月异,护城河不明确,规模效应尚未显现,厂商需要持续大量投入参与市场竞争。互联网时代,厂商可以根据用户画像进行相关推荐,形成了较强的用户关系网络,规模效应能够显著降低成本,且部分APP的迁移成本较高,头部厂家都形成了自己清晰的护城河,能够维持稳定较好的利润水平。区别于互联网,大模型目前产品较为同质化,迁移成本较低,用户关心的是模型的智能程度和成本,且目前行业仍处于前期大规模资本投入阶段,大模型能力不断突破上限,规模效应尚未显现,因此厂商仍需要长期大量投入从而参与市场竞争,维持领先地位。证券研究报告HTTP://WWW.LONGONE.COM.CN19/38图22大模型区别于互联网时代的竞争特点(2)从海外大模型厂商来看,整体竞争格局日益白热化,尽管GPT拥有先发优势,但是以Claude、Gemini等为代表的大模型正在迅速追赶缩小性能差距。总体来说,模型能力决定市场份额,OpenAI在2023年初发布GPT-4时由于领先的模型能力在市场有较强的竞争力,但后续Anthropic、Google相继迭代旗下的大模型,目前Claude、Gemini的最新旗舰版大模型已经在性能上逐步赶上或在某些领域超越GPT系列模型,模型差距相比2023年显著缩小。图23海外主流AI大模型基准评分差距逐步缩小(3)目前,OpenAI、Anthropic、DeepMind形成了海外大模型的第一梯队玩家,第二梯队包括xAI、Meta等,第三梯队玩家逐步被头部厂商吸收,小模型厂商在激烈的市场竞争下被淘汰出清,未来竞争格局将逐步收敛至头部5家厂商。1)OpenAI目前和微软深度绑定,目前营收仍处于领先地位,主要来自于GPT的订阅服务。2)Anthropic营收构成与证券研究报告HTTP://WWW.LONGONE.COM.CN20/38请务必仔细阅读正文后的所有说OpenAI差别较大,主要为API服务,目前和亚马逊绑定,近一年来市场份额快速增长。3)DeepMind背靠谷歌,与谷歌工作流进行整合,发力针对中小企业的API市场。4)马斯克带领的xAI目前正在迅速发展,近期发布的Grok3宣称在基准测试中击败GPT-4o,潜力巨大。5)区别于其他厂商,Meta选择了开源路线,目前尚未通过模型进行商业化,构造围绕Llama的开源生态。6)由于目前海外基础模型需要数百亿美元的持续投入,需要厂商本身较强的资本支撑和与巨头的深度合作带来资源支持,第三梯队的模型厂商已经进入出清时期,部分被头部模型厂商吸收合并,整体竞争格局已收敛。图24海外模型厂商竞争格局(4)国内大模型厂商主要分为四类,分别为互联网云厂商、大模型创业公司、模型推理平台及技术类厂商,其中互联网云厂商在模型、生态和渠道优势各方面更为全面,具备较强的竞争力。对于大模型厂商来说,模型能力最为重要,其次是生态能力和渠道能力,国内互联网云厂商和大模型创业公司均具备较高的模型能力,云厂商的生态能力和渠道能力同样亮眼,优势更为全面,代表厂商包括阿里、字节、百度、腾讯等。大模型创业公司也拥有优秀的模型能力,但是生态能力和渠道能力弱于互联网云厂商,代表厂商包括DeepSeek、月之暗面、智谱AI等。模型推理平台通常不自己研发模型,而是整合开源模型生态,通过API盈利,如硅基流动、无问芯穹等。传统的技术类厂商拥有积累的较强的渠道能力,模型和生态能力也较强,代表厂商如商汤科技、科大讯飞、昆仑万维等。证券研究报告HTTP://WWW.LONGONE.COM.CN21/38请务必仔细阅读正文后的所有说图25大模型区别于互联网时代的竞争特点(5)以阿里为例,其云业务相关营收占比总体营收在逐年提升,体现头部模型厂商在持续投入资源后,云业务或将成为其新的增长点。2020年,阿里云营收仅为555.76亿元,到2024年,其云业务营收翻倍,达到1134.96亿元,在总营收中的占比也从8.63%上升至11.56%,未来三年,阿里巴巴在云和AI基础设施上的资本开支将达3800亿元,体现了头部云厂商对AI相关基础建设的投入信心,AI业务有望成为头部互联网云厂商营收增长的重要支撑。图262020-2024年阿里云业务营收占比8364.0586456442.088.65%555.76723.58775.92994.19 云业务营收占比(右轴)(6)由于通用基础模型领域竞争较为激烈,一方面,国内头部大厂将持续投入通用类产品,结合渠道实力打造生态壁垒,另一方面,部分模型厂商或将开始聚焦商业化层面,转型至相对垂直的细分场景进行服务,增强差异化竞争力。国内第一梯队的大模型厂商多数综合布局,能够承受大量投资和长期亏损的预期,且拥有丰富的消费端场景和自身现有业务产品背书,因此未来国内通用模型竞争格局同样将收敛至第一梯队的少数玩家。在这样的行业背景下,模型创业公司或针对B端模型客户将聚焦于更加垂直、细分的商业化场景。对于传统的技术类厂商来说,目前多数在自身已有的渠道中服务,如部分政府和行业大客户,未来或将尝试将重心转型至大模型。证券研究报告HTTP://WWW.LONGONE.COM.CN22/38请务必仔细阅读正文后的所有说图27国内模型厂商竞争格局证券研究报告HTTP://WWW.LONGONE.COM.CN23/38请务必仔细阅读正文后的所有说3.大模型创新迭代,性能提升与成本下行或成为两(1)OpenAI是一家致力于推动通用人工智能惠及人类的企业。OpenAI创立于2015年,最早为非营利组织,创始人包括萨姆·奥尔特曼(SamAltman)、彼得·蒂尔(PeterThiel)、里德·霍夫曼(ReidHoffman)和埃隆·马斯克(ElonMusk)等,其中大多都有丰富的技术和商业背景,2016年,OpenAI发布首个产品OpenAIGym和Universe,2018年,GPT系列模型首次亮相,采用Transformer架构,参数规模达到1.17亿,后续该系列模型不断迭代,参数规模、训练数据、上下文窗口大小呈指数级增长,模型性能相应也有显著提升,此外,GPT系列模型也从最初单一的文本模态迭代成为GPT-4系列的多模态大模型,2025年,OpenAI将推出GPT-4.5大模型。除GPT系列外,OpenAI还推出了深度推理模型OpenAIo1、o3模型,以及文生视频模型Sora等。图28OpenAI发展历程以及重要模型发布节点(2)基于GPT-3.5的ChatGPT的发布推动了AI技术的普及和AI产业的变革,是人工智能的重要里程碑之一。2022年11月30日,OpenAI正式发布聊天机器人ChatGPT,基于GPT-3.5架构,能够回答问题、创作文章、编程,甚至可以模仿人类的对话风格,颠覆了人们对于通用大语言模型的认知。ChatGPT发布后,仅仅用了2个月用户数量便达到亿级,增速超越了TikTok、Instagram等全球头部消费级应用。ChatGPT的发布标志着自然语言处理(NLP)技术的重大进步,改善了人机交互体验,显著提高了生产力,推动了AI行业变革。证券研究报告HTTP://WWW.LONGONE.COM.CN24/38请务必仔细阅读正文后的所有说图29OpenAIGPT系列模型迭代相关性能参数(3)GPT系列模型着重于预训练阶段的Scalinglaw,在预训练阶段投入了大部分算力资源,在后训练阶段采用SFT、RFHL等形式,整体来说更适合解决通识类知识。以GPT-4为例,其整体参数规模约为GPT-3的10倍,根据Semianalyst的《GPT-4Architecture,Infrastructure,TrainingDataset,Costs,Vision,MoE》文章中透露,GPT4在预训练阶段使用了25000张40G的英伟达A100训练了90天以上,总耗费约6300万美元,而模型能力也因此基本来自预训练阶段学习理解的大量多模态信息和知识,所以GPT系列模型针对问题能够迅速反应并给出答案,擅长处理的也基本是通识类的知识。在后训练阶段,GPT采用SFT、RFHL(人类提供偏好反馈数据从而训练强化学习的奖励模型)方式,提升模型的实际应用效果。图30以GPT-4为例的GPT系列模型路径(4)OpenAI于2024年9月发布OpenAIo1模型,可以执行复杂的推理任务,MMLU评分超越一众大模型。o1模型在回答问题之前会形成一条内部思维链(ChainofThought模拟人类的思考过程,其在物理、化学和生物学这些具有挑战性的基准任务上的表现与博士生相似,在数学和编码方面表现同样出色。他的MMLU(知识问答,评估LLM的知识和推理能力)评分、Math(含代数、微积分、几何、概率等多个领域)评分、GPQADiamond(全面的框架,测试模型在多种推理场景下的能力)评分均超过了当时的主流大模型,如Gemini2.0ProExperimental、Hunyuan-TurboS、Claude3.5Sonnet等,对比GPT-4o也有显著提升。证券研究报告HTTP://WWW.LONGONE.COM.CN25/38请务必仔细阅读正文后的所有说图31OpenAIo1与其他头部模型评分对比(5)o1模型的发布证明了推理侧的算力资源投入同样重要,“ScalingLaw”在推理阶段或同样适用。o1模型引入的思维链类似人类在回答困难问题之前的长时间思考,通过训练时的强化学习,o1能够锻炼其思维链并改进其使用的策略,它还能够识别并改正错误,将棘手的问题拆分成更简单的步骤,如果目前的方式不奏效,o1还会尝试不同的解决方式。上述思维链让o1的推理能力大幅增强。从下图可知,当推理侧的算力资源增加时,模型处理问题的准确度显著提升,代表着类似于预训练阶段的“ScalingLaw”在推理阶段也同样兑现了。图32OpenAIo1在训练和推理阶段算力资源的投入与模型性能的关系(6)未来,GPT系列与o1为代表的深度推理系列模型或将互相补充。相比GPT-4o,o1在具有挑战性的推理密集型任务中都有更为出色的表现,GPT系列类似于思维中的浅层、快速反应系统,能迅速处理日常生活中的直觉性反应和基础认知任务,有更好的多模态交互能力,更大的参数规模、更优质的训练数据、优化后的模型架构是GPT系列模型的发展方向。而对于以o1为代表的深度推理系列模型来说,类似于思维中的逻辑性系统,更擅长复杂的分析和经过深思熟虑后的决策提供,需要更多的推理时间和大量的思维链分析过程,后证券研究报告HTTP://WWW.LONGONE.COM.CN26/38请务必仔细阅读正文后的所有说续发展更注重后训练阶段的“思考模式”优化,以及推理阶段更多的算力资源投入。这两类模型相互补充,GPT类模型可以作为o1类模型的基础模型增强通识,o1类模型可以为GPT类模型生成高质量的推理数据,未来两类模型或共同发展,相互促进。图33o1模型相比GPT-4o在推理密集型任务上的改进图34未来GPT系列与o1系列模型或将收敛融合(1)DeepSeek大模型的发布进一步带动AI大模型热潮。DeepSeek,全称杭州深度求索人工智能基础技术研究有限公司,由量化私募管理机构幻方量化成立,专注于开发先进的大语言模型和相关技术。DeepSeek创始人为梁文峰,有丰富的电子信息和人工智能相关背景。2024年12月26日,DeepSeek-V3发布,训练成本约为GPT-4o的1/10,同时性能比肩顶尖闭源模型,DeepSeek-R1于2024年1月发布,性能对标OpenAI-o1正式版。DeepSeek的发布挑战了纯算力路径,发布后海内外各大厂商争相本地部署DeepSeek,云服务商也相继入局,掀起AI云与端热潮,算力芯片、服务器、算力云等产业链有望长期收图35DeepSeek发展历程以及重要模型发布节点(2)DeepSeek大模型发布后仅用七天用户增长一亿,海内外头部厂商纷纷入场布局。相比ChatGPT先前两个月的记录,DeepSeek在DeepSeek-R1发布后,仅用七天就实现了用户增长一亿的成绩,远超各大头部APP。其卓越的性能表现和开源特性,吸引了全球AI开发者和海内外头部厂商布局,华为云与硅基流动联合首发并上线基于华为云昇腾云服务的证券研究报告HTTP://WWW.LONGONE.COM.CN27/38请务必仔细阅读正文后的所有说DeepSeekR1/V3推理服务,腾讯云则将R1大模型一键部署至高性能应用服务HAI上,开发者仅需3分钟就能接入调用;海外AI芯片头部厂商英伟达宣布DeepSeek-R1模型登陆NVIDIANIM,AMD宣布已将新的DeepSeek-V3模型集成到InstinctMI300XGPU上,针对AI推理进行了优化,云服务龙头亚马逊和微软也纷纷接入DeepSeek-R1,共同推动AI技术的迅速发展和应用普及。图36DeepSeek用户增长速度图37海内外接入DeepSeek的厂商(3)DeepSeek-V3性能对齐海外领军闭源模型,训练成本和定价却远低于后者。DeepSeek-V3于2024年12月底发布,为开源自研MoE模型,共671B参数,激活37B,在14.8Ttoken上进行了预训练。根据测试,DeepSeek-V3的多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。从API定价看,DeepSeek-V3每百万输入tokens0.5元(缓存命中)/2元(缓存未命中每百万输出tokens8元,远低于其他厂商的头部大模型。从训练成本看,根据官方的《DeepSeek-V3TechnicalReport》,在预训练阶段,在每万亿个token上训练DeepSeek-V3只需要18万个H800GPU小时,即在拥有2048个H800GPU的集群上需要3.7天。因此,预训练阶段是在不到两个月的时间内完成的,成本为266.4万个GPU小时。再加上11.9万个GPU小时用于扩展上下文长度和5000个GPU小时的后训练,DeepSeek-V3的总训练成本仅为278.8万个GPU小时。假设H800GPU的租赁价格为2美元/每GPU小时,那总训练成本仅为557.6万美元(上述成本仅包括DeepSeek-V3的官方训练,不包括与先前研究、架构、算法、数据和消融实验相关的成本)。与GPT-4相比,上述成本不到其1/10,DeepSeek-V3的发布验证了AI大模型低成本训练的商业可行性。证券研究报告HTTP://WWW.LONGONE.COM.CN28/38请务必仔细阅读正文后的所有说图38DeepSeek-V3多项评测能力与海内外头部模型对比资料来源:DeepSeek,东海证券研究所(注:加粗字体为最高分)图39DeepSeek模型性能与价格比处于最优范围内图40DeepSeek-V3训练成本(4)DeepSeek-V3创新性的架构特点是通过引入MLA实现高效推理,通过DeepSeekMoE实现成本更低的训练。1)多头潜在注意力机制(Multi-HeadLatentAttention,MLA)区别于Transformer架构的多头注意力(Multi-HeadAttention,MHA)机制,显著减少了键-值缓存的内存占用。MHA通过计算查询(Query)、键(Key)和值(Value)矩阵之间的关系,使模型能够关注输入序列中的不同部分。然而,在自回归生成过程中,为了避免重复计算,需要维护一个键-值(KV)缓存,该缓存存储了所有先前生成令牌的键和值矩阵,同时带来了显著的内存挑战,制约了模型的实用性。为了解决该类问题,MLA不直接存储完整的键值矩阵,而是存储一个维度更小的压缩向量。在需要进行注意力计算时,再通过解压缩重构出所需的键和证券研究报告HTTP://WWW.LONGONE.COM.CN29/38请务必仔细阅读正文后的所有说值。这种压缩-解压缩机制使得模型可以在显著减少内存占用的同时,保持甚至提升性能。DeepSeek-V2的技术报告显示,MLA使KV缓存减少了93.3%,训练成本节省了42.5%,生成吞吐量提高了5.76倍。2)DeepSeekMoE的基本架构建立在Transformer框架之上,在前馈网络(FFN)层引入了创新的MoE机制。与传统MoE使用较粗粒度的专家划分不同,DeepSeekMoE采用了更细粒度的专家划分方式,使每个专家能够负责更具体的任务,从而提高模型的灵活性和表达能力。具体来说,DeepSeekMoE的每个MoE层由1个共享专家和256个路由专家组成,每个token会激活8个路由专家。这种设计使得模型能够在保持高性能的同时,显著减少计算资源的消耗。不同于传统MoE中专家都是独立的设计,DeepSeekMoE的共享专家负责处理所有token的通用特征,而路由专家则根据token的具体特征进行动态分配。这种分工不仅减少了模型的冗余、提高了计算效率,还使得模型能够更好地处理不同领域的任务。图41DeepSeek-V3的MLA和DeepSeekMoE架构(5)DeepSeek-R1性能对齐OpenAI-o1正式版。DeepSeek-R1于2025年1月20日发布,共671B参数,激活参数37B,在DeepSeek-V3-Base基础上训练而来。DeepSeek-R1在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩OpenAIo1正式版。证券研究报告HTTP://WWW.LONGONE.COM.CN30/38请务必仔细阅读正文后的所有说图42DeepSeek-R1在数学、代码、自然语言推理等任务上的性能表现(6)DeepSeek-R1表明通过强化学习可以直接提升推理能力,能够在不依赖监督微调的情况下实现强大的推理表现,同时蒸馏技术也能够将大模型的推理能力转移到更小的模型上,提升它们的表现。1)DeepSeek-R1-Zero通过强化学习训练,展现了“自我验证、自我反思”和“生成长链推理”的能力,DeepSeek-R1在此基础上做了改进,加入了冷启动数据和多阶段训练流程,从而进一步提升了推理能力并改善了可读性。过去的大多数模型依靠大量的监督数据来提升模型性能,但监督数据的搜集耗时耗力,而DeepSeek-R1-Zero仅从基础模型开始,在后训练中通过纯粹的强化学习(RL)过程进行自我进化。为了节省RL的训练成本,R1-Zero采用了组相对策略优化(GroupRelativePolicyOptimization,GPRO)方法,让模型针对每个问题生成多个输出,通过比较这些输出的相对表现来调整策略。而在训练时,奖励模型(RewardModeling)决定了模型优化的方向。R1-Zero采用了包括准确性奖励和格式奖励的基于规则的奖励系统,而没有采用基于神经网络的奖励模型,为了避免出现奖励欺骗的情况。在自我进化的过程中,随着推理运算时间的增加,模型解决复杂推理任务的能力也在不断增强,此外还涌现出了“反思”等复杂行为,模型会重新审视和评估自己先前的步骤,还会自发地探索解决问题的其他方法。R1-Zero虽然推理能力强,但存在推理过程可读性差、语言混杂等问题,因此DeepSeek-R1在R1-Zero的基础上引入了“冷启动”策略和多阶段训练,冷启动是指先用少量高质量的CoT数据对模型进行初步训练,相当于给模型一个“热身”,目标是让模型既能保持强大的推理能力,又能生成清晰、用户友好的回答。证券研究报告HTTP://WWW.LONGONE.COM.CN31/38请务必仔细阅读正文后的所有说图43DeepSeek-R1-Zero在训练过程中的AIME准确性不断上升2)模型蒸馏技术是一种将知识从复杂的大型模型(教师模型)转移到更小、更高效的模型(学生模型)的方法,旨在保持性能的同时减少计算资源和存储需求。DeepSeek-R1证明了较大模型的推理模式可以被蒸馏到较小的模型中,比在小模型上通过RL训练的推理模式表现更好。DeepSeek利用DeepSeek-R1生成的推理数据,对多个稠密模型进行了微调,结果表明,蒸馏后的小型稠密模型在基准测试中表现非常出色,其中32B和70B模型在多项性能上比肩OpenAIo1-mini。证券研究报告HTTP://WWW.LONGONE.COM.CN32/38请务必仔细阅读正文后的所有说图44蒸馏后的小型模型在数学、代码、自然语言推理等任务上的性能表现(1)根据大模型产业链上游涉及到的半导体相关环节,我们将其主要划分为AI芯片(云端与端侧)、存储、光模块、PCB、服务器、电源等几个板块。如下图所示,AI产业高速发展离不开AI服务器的基础功能,AI服务器产业链整体包括上中下游,上游硬件部分是AI产业构建的基础,核心是AI服务器展开的相关零组件,随着AI产业的高速发展,上游电子零部件板块或将也高速增长。证券研究报告HTTP://WWW.LONGONE.COM.CN33/38请务必仔细阅读正文后的所有说图45AI服务器产业链(2)云端AI芯片指面向AI应用,针对AI算法(如深度学习等)进行特殊加速设计的芯片。AI芯片是大模型的“大脑”,提供算力支持,主要包括GPU、FPGA、ASIC等。国内相关厂商包括寒武纪、海光信息、龙芯中科等。图46寒武纪2020-2024年总营收和归母净利润与各自同比增速资料来源:Wind,东海证券研究所(注:2024年为业绩快报)图47海光信息2020-2024年总营收和归母净利润与各自同比增速(3)端侧AI芯片是指应用于AI应用,如智能手机、笔记本电脑、智能摄像头等各种终端设备的芯片,核心特点包括低功耗、高算力、低延迟和高集成度等。端侧AI芯片能够在设备本地完成复杂的AI任务,减少数据传输和云端计算的依赖,从而提升设备的智能化水平和用户体验,国内相关重点厂商包括恒玄科技、乐鑫科技、中科蓝讯、晶晨股份、瑞芯微、全志科技、炬芯科技、国科微等。证券研究报告HTTP://WWW.LONGONE.COM.CN34/38请务必仔细阅读正文后的所有说图48恒玄科技2020-2024年总营收和归母净利润与各自同比增速资料来源:Wind,东海证券研究所(注:2024年为业绩快报)图49乐鑫科技2020-2024年总营收和归母净利润与各自同比增速(4)存储包括存储模组和存储芯片,包括DRAM、NANDFLASH、HBM等。AI的发展由海量数据支撑,对数据处理提出了极高的要求,因而需要更大的内存去存储更多的数据,国内相关重点厂商包括兆易创新、江波龙、佰维存储、德明利、澜起科技
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年南京三乐集团有限公司招聘备考题库及参考答案详解1套
- 2026年天津滨海新区建设投资集团面向社会公开招聘27人备考题库及参考答案详解
- 2026年云南盈江县中医医院公开招聘编外聘用人员5人备考题库完整答案详解
- 2026年寻甸县功山镇中心卫生院乡村医生招聘备考题库带答案详解
- 2026年大庆市中医医院招聘备考题库完整答案详解
- 2026年中机数科(北京)备考题库技术有限公司招聘备考题库及参考答案详解
- 2026年崇左市龙州县消防救援大队政府专职消防队员招聘15人备考题库及参考答案详解1套
- 2026年恩施州平安押运有限公司公开招聘工作人员备考题库及一套答案详解
- 2026年专业营销人员招聘备考题库有答案详解
- 2026年中国外运华中有限公司威海分公司招聘备考题库及参考答案详解一套
- 自然资源部所属单位2026年度公开招聘工作人员备考题库(第一批634人)含答案详解
- 2026课件-人工智能通识 教案 模块四-教学设计-人工智能通识-新版
- 加油站合伙合同协议书范本
- 细胞治疗课件
- 人教版八年级下册数学期末试卷测试卷(含答案解析)
- 2025年电商财务统一管理方案报告-帆软
- 2025内蒙古交通集团有限公司社会化招聘168人笔试考试参考试题及答案解析
- 2025广东东莞市东城街道办事处2025年招聘23人模拟笔试试题及答案解析
- 门店关闭清算协议书
- 2025年及未来5年市场数据中国硝基化合物行业投资研究分析及发展前景预测报告
- 2026年内蒙古建筑职业技术学院单招职业适应性测试题库带答案
评论
0/150
提交评论