通信行业专题报告_第1页
通信行业专题报告_第2页
通信行业专题报告_第3页
通信行业专题报告_第4页
通信行业专题报告_第5页
已阅读5页,还剩26页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

通信行业专题报告:GPT~4引发新一轮AI算力需求爆发一、OpenAI正式发布多模态大模型GPT-4,实现多重能力跃升(一)多模态大模型GPT-4是OpenAI公司GPT系列最新一代模型美国OpenAI公司成立于2015年12月,是全球顶级的人工智能研究机构之一,创始人包括ElonMusk、著名投资者SamAltman、支付服务PayPal创始人PeterThiel等人。OpenAI作为人工智能领域的革命者,成立至今开发出多款人工智能产品。2016年,OpenAI推出了用于强化学习研究的工具集OpenAIGym;同时推出开源平台OpenAIUniverse,用于测试和评估智能代理机器人在各类环境中的表现。2019年,OpenAI发布了GPT-2模型,可根据输入文本自动生成语言,展现出人工智能创造性思维的能力;2020年更新了GPT-3语言模型,并在其基础上发布了OpenAICodex模型,该模型可以自动生成完整有效的程序代码。2021年1月,OpenAI发布了OpenAICLIP,用于进行图像和文本的识别分类;同时推出全新产品DALL-E,该模型可以根据文字描述自动生成对应的图片,2022年更新的DALL-E2更是全方位改进了生成图片的质量,获得了广泛好评。2022年12月,OpenAI推出基于GPT-3.5的新型AI聊天机器人ChatGPT,在发布进两个月后拥有1亿用户,成为史上用户增长最快的应用;美东时间2023年3月14日,ChatGPT的开发机构OpenAI正式推出多模态大模型GPT-4。GPT(GeneralPre-Training)系列模型即通用预训练语言模型,是一种利用Transformer作为特征抽取器,基于深度学习技术的自然语言处理模型。GPT系列模型由OpenAI公司开发,经历了长达五年时间的发展:(1)其最早的产品GPT模型于2018年6月发布,该模型可以根据给定的文本序列进行预测下一个单词或句子,充分证明通过对语言模型进行生成性预训练可以有效减轻NLP任务中对于监督学习的依赖;(2)2019年2月GPT-2模型发布,该模型取消了原GPT模型中的微调阶段,变为无监督模型,同时,GPT-2采用更大的训练集尝试zero-shot学习,通过采用多任务模型的方式使其在面对不同任务时都能拥有更强的理解能力和较高的适配性;(3)GPT-3模型于2020年6月被发布,它在多项自然语言处理任务上取得了惊人的表现,并被认为是迄今为止最先进的自然语言处理模型之一。GPT-3训练使用的数据集为多种高质量数据集的混合,一次保证了训练质量;同时,该模型在下游训练时用Few-shot取代了GPT-2模型使用的zero-shot,即在执行任务时给予少量样例,以此提高准确度;除此之外,它在前两个模型的基础上引入了新的技术——“零样本学习”,即GPT-3即便没有对特定的任务进行训练也可以完成相应的任务,这使得GPT-3面对陌生语境时具有更好的灵活性和适应性。(4)2022年11月,OpenAI发布GPT-3.5模型,是由GPT-3微调出来的版本,采用不同的训练方式,其功能更加强大。基于GPT-3.5模型,并加上人类反馈强化学习(RLHF)发布ChatGPT应用,ChatGPT的全称为ChatGenerativePre-trainedTransformer,是建立在大型语言模型基础上的对话式自然语言处理工具,表现形式是一种聊天机器人程序,能够学习及理解人类的语言,根据聊天的上下文进行互动,甚至能够完成翻译、编程、撰写论文、编辑邮件等功能。(5)2023年3月,OpenAI正式发布大型多模态模型GPT-4(输入图像和文本,输出文本输出),此前主要支持文本,现模型能支持识别和理解图像。(二)GPT大模型通过底层技术的叠加,实现组合式的创新由于OpenAI并没有提供关于GPT-4用于训练的数据、算力成本、训练方法、架构等细节,故我们本章主要讨论ChatGPT模型的技术路径。ChatGPT模型从算法分来上来讲属于生成式大规模语言模型,底层技术包括Transformer架构、有监督微调训练、RLHF强化学习等,ChatGPT通过底层技术的叠加,实现了组合式的创新。GPT模型采用了由Google提出的Transformer架构。Transformer架构采用自注意力机制的序列到序列模型,是目前在自然语言处理任务中最常用的神经网络架构之一。相比于传统的循环神经网络(RNN)或卷积神经网络(CNN),Transformer没有显式的时间或空间结构,因此可以高效地进行并行计算,并且Transformer具有更好的并行化能力和更强的长序列数据处理能力。ChatGPT模型采用了“预训练+微调”的半监督学习的方式进行训练。第一阶段是Pre-Training阶段,通过预训练的语言模型(PretrainedLanguageModel),从大规模的文本中提取训练数据,并通过深度神经网络进行处理和学习,进而根据上下文预测生成下一个单词或者短语,从而生成流畅的语言文本;第二阶段是Fine-tuning阶段,将已经完成预训练的GPT模型应用到特定任务上,并通过少量的有标注的数据来调整模型的参数,以提高模型在该任务上的表现。ChatGPT在训练中使用了RLHF人类反馈强化学习模型,是GPT-3模型经过升级并增加对话功能后的最新版本。2022年3月,OpenAI发布InstructGPT,这一版本是GPT-3模型的升级版本。相较于之前版本的GPT模型,InstructGPT引入了基于人类反馈的强化学习技术(ReinforcementLearningwithHumanFeedback,RLHF),对模型进行微调,通过奖励机制进一步训练模型,以适应不同的任务场景和语言风格,给出更符合人类思维的输出结果。RLHF的训练包括训练大语言模型、训练奖励模型及RLHF微调三个步骤。首先,需要使用预训练目标训练一个语言模型,同时也可以使用额外文本进行微调。其次,基于语言模型训练出奖励模型,对模型生成的文本进行质量标注,由人工标注者按偏好将文本从最佳到最差进行排名,借此使得奖励模型习得人类对于模型生成文本序列的偏好。最后利用奖励模型输出的结果,通过强化学习模型微调优化,最终得到一个更符合人类偏好语言模型。(三)GPT-4相较于ChatGPT实现多重能力跃迁ChatGPT于2022年11月推出之后,仅用两个月时间月活跃用户数便超过1亿,在短时间内积累了庞大的用户基数,也是历史上增长最快的消费应用。多模态大模型GPT-4是OpenAI的里程碑之作,是目前最强的文本生成模型。ChatGPT推出后的三个多月时间里OpenAI就正式推出GPT-4,再次拓宽了大模型的能力边界。GPT-4是一个多模态大模型(接受图像和文本输入,生成文本),相比上一代,GPT-4可以更准确地解决难题,具有更广泛的常识和解决问题的能力:更具创造性和协作性;能够处理超过25000个单词的文本,允许长文内容创建、扩展对话以及文档搜索和分析等用例。(1)GPT-4具备更高的准确性及更强的专业性。GPT-4在更复杂、细微的任务处理上回答更可靠、更有创意,在多类考试测验中以及与其他LLM的benchmark比较中GPT-4明显表现优异。GPT-4在模拟律师考试GPT-4取得了前10%的好成绩,相比之下GPT-3.5是后10%;生物学奥赛前1%;美国高考SAT中GPT-4在阅读写作中拿下710分高分、数学700分(满分800)。(2)GPT能够处理图像内容,能够识别较为复杂的图片信息并进行解读。GPT-4突破了纯文字的模态,增加了图像模态的输入,支持用户上传图像,并且具备强大的图像能力—能够描述内容、解释分析图表、指出图片中的不合理指出或解释梗图。在OpenAI发布的产品视频中,开发者给GPT-4输入了一张“用VGA电脑接口给iPhone充电”的图片,GPT-4不仅可以可描述图片,还指出了图片的荒谬之处。(3)GPT-4可以处理超过25000字的文本。在文本处理上,GPT-4支持输入的文字上限提升至25000字,允许长文内容创建、扩展对话以及文档搜索和分析等用例。且GPT-4的多语言处理能力更优,在GPT-4的测评展示中,GPT-4可以解决法语的物理问题,且在测试的英语、拉脱维亚语、威尔士语和斯瓦希里语等26种语言中,有24种语言下,GPT-4优于GPT-3.5和其他大语言模型(Chinchilla、PaLM)的英语语言性能。(4)具备自我训练与预测能力,同时改善幻觉、安全等局限性。GPT-4的一大更新重点是建立了一个可预测拓展的深度学习栈,使其具备了自我训练及预测能力。同时,GPT-4在相对于以前的模型已经显著减轻了幻觉问题。在OpenAI的内部对抗性真实性评估中,GPT-4的得分比最新的GPT-3.5模型高40%;在安全能力的升级上,GPT-4明显超出ChatGPT和GPT3.5。(四)商业模式愈发清晰,微软Copilot引发跨时代的生产力变革OpenAI已正式宣布为第三方开开发者开放ChatGPTAPI,价格降低加速场景应用爆发。起初ChatGPT免费向用户开放,以获得用户反馈;今年2月1日,OpenAI推出新的ChatGPTPlus订阅服务,收费方式为每月20美元,订阅者能够因此而获得更快、更稳定的响应并优先体验新功能。3月2日,OpenAI官方宣布正式开放ChatGPTAPI(应用程序接口),允许第三方开发者通过API将ChatGPT集成至他们的应用程序和服务中,价格为1ktokens/$0.002,即每输出100万个单词需要2.7美元,比已有的GPT-3.5模型价格降低90%。模型价格的降低将推动ChatGPT被集成到更多场景或应用中,丰富ChatGPT的应用生态,加速多场景应用的爆发。GPT-4发布后OpenAI把ChatGPT直接升级为GPT-4最新版本,同时开放了GPT-4的API。ChatGPTPlus付费订阅用户可以获得具有使用上限的GPT-4访问权限(每4小时100条消息),可以向GPT-4模型发出纯文本请求。用户可以申请使用GPT-4的API,OpenAI会邀请部分开发者体验,并逐渐扩大邀请范围。该API的定价为每输入1000个字符(约合750个单词),价格为0.03美元;GPT-4每生成1000个字符价格为0.06美元。Office引入GPT-4带来的结果是生产力、创造力的全面跃升。微软今天宣布,其与OpenAI共同开发的聊天机器人技术BingChat正在GPT-4上运行。CopilotOpenAI发布升级后的GPT-4后,微软重磅发布了GPT-4平台支持的新AI功能,Microsoft365Copilot,并将其嵌入Word、PowerPoint、Excel、Teams等Office办公软件中。Copilot可以在一篇速记的基础上快速生成新闻草稿、并完成草稿润色;在Excel中完成各种求和、求平均数,做表格、归纳数据、甚至是完成总结提取;在PPT上可以直接将文稿内容一键生成;在Outlook邮件中自动生成内容、并自由调整写作风格、插入图表;在Teams中总结视频会议的要点/每个发言人谁说了核心内容,跟进会议流程和内容,自动生成会议纪要、要点和任务模板。基于GPT-4的Copilot可以看作是一个办公AI助理,充分发挥出了AI对于办公场景的赋能作用,有望从根本上改变工作模式并开启新一轮生产力增长浪潮。二、GPT-4带动多模态x多场景落地,AIGC蓝海市场打开(一)历经三阶段发展,AIGC技术升级步入深化阶段AIGC全程为AI-GeneratedContent,人工智能生成内容,是继专业生成内容(PGC,ProfessionalGenerateContent)和用户生成内容(UGC,UserGenerateContent)之后,利用AI自动生成内容的新型生产方式。传统AI大多属于分析式AI,对已有数据进行分析并应用于相应领域。以AIGC为典型的生成式AI不在局限于分析固有数据,而是基于训练数据和算法模型自主生成创造新的文本、3D、视频等各种形式的内容。历经三阶段迭代,AIGC现已进入快速发展阶段:(1)早期萌芽阶段(1950s-1990s),受限于科技水平及高昂的系统成本,AIGC仅限于小范围实验。(2)沉淀积累阶段(1990s-2010s),AIGC开始从实验性向实用性逐渐转变。但由于其受限于算法瓶颈,完成创作能力有限,应用领域仍具有局限性;(3)快速发展阶段(2010s-至今),GAN(GenerativeAdversarialNetwork,生成式对抗网络)等深度学习算法的提出和不断迭代推动了AIGC技术的快速发展,生成内容更加多元化。AIGC可分为智能数字内容孪生、智能数字内容编辑及智能数字内容创作三大层次。生成式AI是指利用现有文本、音频文件或图像创建新内容的人工智能技术,其起源于分析式AI,在分析式AI总结归纳数据知识的基础上学习数据产生模式,创造出新的样本内容。在分析式AI的技术基础上,GAN、Transformer网络等多款生成式AI技术催生出许多AIGC产品,如DALL-E、OpenAI系列等,它们在音频、文本、视觉上有众多技术应用,并在创作内容的方式上变革演化出三大前沿能力。AIGC根据面向对象、实现功能的不同可以分为智能数字内容孪生、智能数字内容编辑及智能数字内容创作三大层次。(二)生成算法+预训练模型+多模态推动AIGC的爆发AIGC的爆发离不开其背后的深度学习模型的技术加持,生成算法、预训练和多模态技术的不断发展帮助了AIGC模型具备通用性强、参数海量、多模态和生成内容高质量的特质,让AIGC实现从技术提升到技术突破的转变。(1)生成算法模型不断迭代创新,为AIGC的发展奠定基础。早期人工智能算法学习能力不强,AIGC技术主要依赖于事先指定的统计模型或任务来完成简单的内容生成和输出,对客观世界和人类语言文字的感知能力较弱,生成内容刻板且具有局限性。GAN(GenerativeAdversarialNetwork,生成式对抗网络)的提出让AIGC发展进入新阶段,GAN是早期的生成模型,利用博弈框架产生输出,被广泛应用于生成图像、视频语音等领域。随后Transformer、扩散模型、深度学习算法模型相继涌现。Transformer被广泛应用于NLP、CV等领域,GPT-3、LaMDA等预训练模型大多是基于transformer架构构建的。ChatGPT是基于Transformer架构上的语言模型,Transformer负责调度架构和运算逻辑,进而实现最终计算。Tansformer是谷歌于2017年《AttentionisAllYouNeed》提出的一种深度学习模型架构,其完全基于注意力机制,可以按照输入数据各部分重要性来分配不同的权重,无需重复和卷积。相较于循环神经网络(RNN)流水线式的序列计算,Transformer可以一次处理所有的输入,摆脱了人工标注数据集的缺陷,实现了大规模的并行计算,模型所需的训练时间明显减少,大规模的AI模型质量更优。Transformer的核心构成是编码模块和解码模块。GPT使用的是解码模块,通过模块间彼此大量堆叠的方式形成了GPT模型的底层架构,模块分为前馈神经网络层、编解码自注意力机制层(Self-Attention)、自注意力机制掩码层。自注意力机制层负责计算数据在全部内容的权重(即Attention),掩码层帮助模型屏蔽计算位置右侧未出现的数据,最后把输出的向量结果输入前馈神经网络,完成模型参数计算。(2)预训练模型引发AIGC技术能力的质变。AI预训练模型是基于大规模宽泛的数据进行训练后拥有适应广泛下游任务能力的模型,预训练属于迁移学习的领域,其主旨是使用标注数据前,充分利用大量无标注数据进行训练,模型从中全面学习到与标注无关的潜在知识,进而使模型灵活变通的完成下游任务。视觉大模型提升AIGC感知能力,语言大模型增强AIGC认知能力。NLP模型是一种使用自然语言处理(NaturalLanguageProcessing,NLP)技术来解决自然语言相关问题的机器学习模型。在NLP领域,AI大模型可适用于人机语言交互,并进行自然语言处理从实现相应的文本分类、文本生成、语音识别、序列标注、机器翻译等功能。NLP的研究经过了以规则为基础的研究方法和以统计为基础的研究方法的发展,目前以基于Transformer的预训练模型已成为当前NLP领域的研究热点,BERT、GPT等模型均采用这一方法。CV模型指计算机视觉模型,是一种基于图像或视频数据的人工智能模型。常见的CV模型有采用深度学习的卷积神经网络(CNN)和生成对抗网络(GAN)。近年来以视觉Transformer(ViT)为典型的新型神经网络,通过人类先验知识引入网络设计,使得模型的收敛速度、泛化能力、扩展性及并行性得到飞速提升,通过无监督预训练和微调学习,在多个计算机视觉任务,如图像分类、目标检测、物体识别、图像生成等取得显著的进步。(3)多模态技术拓宽了AIGC技术的应用广度。多模态技术将不同模态(图像、声音、语言等)融合在预训练模型中,使得预训练模型从单一的NLP、CV发展成音视频、语言文字、文本图像等多模态、跨模态模型。多模态大模型通过寻找模态数据之间的关联点,将不同模态的原始数据投射在相似的空间中,让模态之间的信号相互理解,进而实现模态数据之间的转化和生成。这一技术对AIGC的原创生成能力的发展起到了重要的支持作用,2021年OpenAI推出AI绘画产品DALL.E可通过输入文字理解生成符合语义且独一无二的绘画作品,其背后离不开多模态技术的支持。(三)多模态x多场景落地,AIGC爆发商业潜力ChatGPT的广泛应用意味着AIGC规模化、商业化的开始。ChatGPT是文字语言模态AIGC的具体应用,在技术、应用领域和商业化方面和传统AI产品均有所不同。ChatGPT已经具备了一定的对现实世界内容进行语义理解和属性操控的能力,并可以对其回以相应的反馈。ChatGPT是AIGC重要的产品化应用,意味着AIGC规模化、商业化的开始。创新工场董事长兼CEO李开复博士在3月14日表示,ChatGPT快速普及将进一步引爆AI2.0商业化。AI2.0是绝对不能错过的一次革命。多家公司正加紧研发ChatGPT类似产品,引爆新一轮科技企业AI军备竞赛。在GPT4推出之后,Google开放自家的大语言模型API「PaLMAPI」,此外还发布了一款帮助开发者快速构建AI程序的工具MakerSuite。2月底,Meta公布一款全新的AI大型语言模型LLaMA,宣称可帮助研究人员降低生成式AI工具可能带来的“偏见、有毒评论、产生错误信息的可能性”等问题。AIGC的应用领域分为视频、音频、文本、图像、跨模态生成五个部分。AIGC以其真实性、多样性、可控性、组合性的特质,为各行业、各领域提供了更加丰富多元、动态且可交互的内容。根据AIGC生成内容的模态不同,可将AIGC的应用领域分为视频、音频、文本、图像、跨模态生成五个部分。其中,在图像、文本、音频等领域,AIGC已经得到了较大优化,生成内容质量得到明显提升;而在视频与跨模态内容生成方面,AIGC拥有巨大发展潜力。三、高算力需求带动基础设施迭代加速(一)AI大模型驱动高算力需求数据、算力及模型是人工智能发展的三要素。以GPT系列为例:(1)数据端:自OpenAI于2018年发布GPT-1,到2020年的GPT-3,GPT模型参数数量和训练数据量实现指数型增长。参数数量从GPT-1的1.17亿增长到GPT-3的1750亿,训练数据量从5GB增长到的45TB;(2)模型端:ChatGPT在以往模型的基础上,在语料库、计算能力、预训练、自我学习能力等方面有了明显提升,同时Transformer架构突破了人工标注数据集的不足,实现与人类更顺畅的交流;(3)算力端:根据OpenAl发布的《LanguageModelsareFew-ShotLearners》,训练13亿参数的GPT-3XL模型训练一次消耗的算力约为27.5PFlop/s-dav,训练1750亿参数的完整GPT-3模型则会消耗算力3640PFlop/s-dav(以一万亿次每秒速度计算,需要3640天完成)。在人工智能发展的三要素中,数据与算法都离不开算力的支撑。随着AI算法突飞猛进的发展,越来越多的模型训练需要巨量算力支撑才能快速有效实施,同时数据量的不断增加也要求算力配套进化。如此看来,算力成为AI突破的关键因素。AI大模型的算力需求主要来自于预训练、日常运营和模型微调。(1)预训练:在完成完整训练之前,搭建一个网络模型完成特定任务,在训练网络过程中不断调整参数,直至网络损失和运行性能达到预期目标,此时可以将训练模型的参数保存,用于之后执行类似任务。根据中国信通院数据,ChatGPT基于GPT3.5系列模型,模型参数规模据推测达十亿级别,参照参数规模相近的GPT-3XL模型,则ChatGPT完整一次预训练消耗算力约为27.5PFlop/s-dav。(2)日常运营:满足用户日常使用数据处理需求。根据Similarweb的数据,23年1月份ChatGPT月活约6.16亿,跳出率13.28%每次访问页数5.85页,假设每页平均200token。同时假设:模型的FLlops利用率为21.3%与训练期间的GPT-3保持一致;完整参数模型较GPT-3上升至2500亿;以FLOPs为指标,SOTA大型语言在在推理过程中每个token的计算成本约为2N。根据以上数据及假设,每月日常运营消耗算力约为6.16亿*2*(1-13.28%)*5.85*200*2500亿/21.3%=14672PFlop/s-day。(3)模型微调:执行类似任务时,使用先前保存的模型参数作为初始化参数,在训练过程中依据结果不断进行微调,使之适应新的任务。ChatGPT引发新一轮AI算力需求爆发。根据OpenAI发布的《AIandCompute》分析报告中指出,自2012年以来,AI训练应用的算力需求每3.4个月就回会翻倍,从2012年至今,AI算力增长超过了30万倍。据OpenAI报告,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7-8个算力500P的数据中心才能支撑运行。上海新兴信息通信技术应用研究院首席专家贺仁龙表示,“自2016年阿尔法狗问世,智能算力需求开启爆发态势。如今ChatGPT则代表新一轮AI算力需求的爆发”。全球算力规模将呈现高速增长态势。根据国家数据资源调查报告数据,2021年全球数据总产量67ZB,近三年平均增速超过26%,经中国信息通信研究院测算,2021年全球计算设备算力总规模达到615EFlops,增速达44%。根据中国信通院援引的IDC数据,2025年全球算力整体规模将达3300EFlops,2020-2025年的年均复合增长率达到50.4%。结合华为GIV预测,2030年人类将迎来YB数据时代,全球算力规模达到56ZFlops,2025-2030年复合增速达到76.2%。(二)云商/运营商推进AI领域算力基础设施投入北美云厂商资本支出向技术基础设施和新数据中心架构倾斜。22Q4亚马逊资本支出主要用于技术基础设施的投资,其中大部分用于支持AWS业务增长与支持履行网络的额外能力。预计未来相关投资将延续,并增加在技术基础设施方面的支出。谷歌指引2023年资本开支与2022年基本持平,其中技术基础设施有所增加,而办公基础设施将减少。Meta2022年资本开支为314.3亿美元,同比增长69.3%,但同时Meta略微调低其2023年资本开支预期至300-330亿美元(此前预期为340-370亿美元),主要原因系减少数据中心建设的相关支出,转向新的更具成本效益的、同时支持AI和非AI工作量的数据中心新架构。国内三大运营商积极布局算力网络,资本支出向新兴业务倾斜。电信运营商作为数字基座打造者,运营商数字业务板块成为收入增长的主要引擎,近几年资本支出由主干网络向新兴业务倾斜。中国移动计划2022年全年算力网络投资480亿元,占其总资本开支的39.0%。2022Q3,中国移动算力规模达到7.3EFLOPS,并计划在2025年底达到20EFLOPS以上。中国电信产业数字化资本开支占比同比上升9.3pc,算力总规模计划由2022年中的3.1EFLOPS提升至2025年底的16.3EFLOPS。中国联通2022年预计算力网络资本开支达到145亿,同比提升43%,云投资预计提升88%。作为算力基础设施建设的主力军,三大运营商目前已经进行前瞻性的基础设施布局。通信运营商自身拥有优质网络、算力、云服务能力的通信运营商,同时具备天然的产业链优势,依靠5G+AI技术优势,为下游客户提供AI服务能力,是新型信息服务体系中重要的一环,助力千行百业数字化转型。在移动网络方面,中国运营商已建设覆盖全国的高性能高可靠4/5G网络;在固定宽带方面,光纤接入(FTTH/O)端口达到10.25亿个,占比提升至95.7%;在算力网络方面,运营商在资本开支结构上向算力网络倾斜,提升服务全国算力网络能力。在AI服务能力方面,加快AI领域商业化应用推出,发挥自身产业链优势,助力千行百业数字化转型。(三)算力需求带动数据中心架构及技术加速升级1、数据中心呈现超大规模发展趋势。超大规模数据中心,即HyperscaleDataCenter,与传统数据中心的核心区别在于超大规模数据中心具备更强大的可扩展性及计算能力。1)规模上,超级数据中心可容纳的规模要比传统数据中心大得多,可以容纳数百万台服务器和更多的虚拟机;2)性能上,超级数据中心具有更高的可扩展性和计算能力,能够满足数据处理数量和速率大幅提升的需求。具体来讲,相较于传统数据中心,超大规模数据中心的优势在于:(1)可扩展性:超大规模数据中心的网络基础架构响应更迅速、扩展更高效且更具成本效益,并且提供快速扩展存储和计算资源以满足需求的能力,超大规模数据中心通过在负载均衡器后水平扩展,快速旋转或重新分配额外资源并将其添加到现有集群,可以实现快速向集群添加额外资源,从而在不中断操作的情况下进行扩展;(2)定制化:超大规模数据中心采用更新的服务器设计,具有更宽的机架,可以容纳更多组件并且允许定制化设计服务器,使得服务器能够同时接入多个电源和硬盘驱动器;(3)自动化服务:超大规模数据中心提供自动化服务,帮助客户管理高流量网站和需要专门处理的高级工作负载,例如密码学、基因处理和三维渲染;(4)冷却效率更高:超大规模数据中心对其电源架构进行了优化,并将冷却能力集中在托管高强度工作负载的服务器,大大降低了成本和对环境的影响,电源使用效率和冷却效率远高于传统数据中心;(5)工作负载更平衡:超大规模数据中心有效地将工作负载分布在多台服务器上,从而避免单台服务器过热。避免了过热的服务器损坏附近的服务器,从而产生不必要的连锁反应。Statista数据显示,全球超大规模数据中心的数量从2015年的259个,提升到2021年的700个。根据PrecedenceResearch的报告显示,全球超大规模数据中心市场规模在2021年为620亿美元,到2030年将达到5930亿美元,预计在2022-2030年间以28.52%的复合增长率(CAGR)增长。海内外云商均具备自己的超大规模数据中心。StructureResearch在其报告中估计,到2022年全球超大规模自建数据中心总容量将达到13177兆瓦(MW)。全球四大超大规模数据中心平台——AWS、谷歌云、Meta和微软Azure——约占该容量的78%。全球占主导地位的超大规模数据中心企业仍然是亚马逊、谷歌、Meta和微软,在中国,本土企业阿里巴巴、华为、百度、腾讯和金山云都是领先的超大规模数据中心企业。2、IB网络技术将更广泛应用于AI训练超算领域。超级数据中心是具有更大规模和更高计算能力的数据中心。随着对数据处理数量和速率需求的提升,数据中心的可扩展性需求也在迅速提升。超级数据中心在规模和性能上较传统数据中心都有了大幅升级,能够满足超高速度扩展以满足超级需求的能力。泛AI应用是超算中心的重要下游。自20世纪80年代以来,超级计算主要服务于科研领域。传统超算基本上都是以国家科研机构为主体的超算中心,如气象预测、地震预测、航空航天、石油勘探等。截止2022年底,国内已建成10家国家超级计算中心,不少省份都建立起省级超算中心,服务于当地的中科院、气象局以及地震爆炸模型。一方面,行业头部企业将超算应用于芯片设计、生物医疗、材料测试等工业应用场景;另一方面,自动驾驶训练、大语言模型训练、类ChatGPT等AI训练的需求,也推动超算应用场景延伸至图像识别、视频识别定位、智能驾驶场景模拟以及对话和客服系统等,成为超算中心的重要下游。超级数据中心成为算力储备的重要方向,中美加速算力基建布局。凭借其在算力能力及能耗效率的巨大提升,超级数据中心在算力储备中的地位日渐凸显。根据SynergyResearchGroup数据,全球超级数据中心数量从2017年的390个增长至2021年二季度的659个,增长近一倍,预计2024年总数将超1000个。份额方面,中美持续加强超级数据中心的布局,占全球市场份额持续提升。InfiniBand网络满足大带宽和低时延的需求,成为超算中心的主流。InfiniBand(简称IB)是一个用于高性能计算的计算机网络通信标准,主要应用于大型或超大型数据中心。IB网络的主要目标是实现高的可靠性、可用性、可扩展性及高性能,且能在单个或多个互联网络中支持冗余的I/O通道,因此能够保持数据中心在局部故障时仍能运转。相比传统的以太网络,带宽及时延都有非常明显的优势。(一般InfiniBand的网卡收发时延在600ns,而以太网上的收发时延在10us左右,英伟达推出的MetroX-3提升长距离InfiniBand系统带宽至400G)。作为未来算力的基本单元,高性能的数据中心越来越多的采用InfiniBand网络方案,尤其在超算中心应用最为广泛,成为AI训练网络的主流。(四)细分受益环节GPT-4多模态大模型将引领新一轮AI算力需求的爆发,超大规模数据中心及超算数据中心作为泛AI领域的重要基础设施支持,其数量、规模都将相应增长,带动整个算力基础设施产业链(如高端服务器/交换机、CPO技术、硅光、液冷技术)的渗透加速。同时在应用侧,Copilot的推出加速AI在办公领域的赋能,看好办公场景硬件配套厂商机会。1、服务器/交换机:AIGC带动算力爆发式增长,全球进入以数据为关键生产要素的数字经济时代。从国内三大运营商资本支出结构上看,加码算力基础设施投资成重要趋势。重点推荐:中兴通讯。公司作为运营商板块算力投资的核心受益标的,持续在服务器及存储、交换机/路由器、数据中心等算力基础设施领域加强布局,将作为数字经济筑路者充分受益我国数字经济建设。算力需求带动上游硬件设备市场规模持续增长,高规格产品占比提升。伴随着数据流量持续提升,交换机作为数据中心必要设备,预计全球数据中心交换机保持稳定增长。2021年全球数据中心交换机市场规模为138亿美元,预计到2031年将达246亿美元,2022年至2031年复合年增长率为5.9%。多元开放的AI服务器架构为可以人工智能发展提供更高的性能和可扩展性的AI算力支撑,随着AI应用的发展,高性能服务器数量有望随之增长,带动出货量及服务器单价相应提升。根据IDC报告,2022Q3,200/400GbE交换机市场收入环比增长25.2%,100GbE交换机收入同比增长19.8%,高速部分呈现快速增长。2、光模块/光芯片:算力需求提升推动算力基础设施升级迭代,传统可插拔光模块技术弊端和瓶颈开始显现。(1)功耗过高,AI技术的加速落地,使得数据中心面临更大的算力和网络流量压力,交换机、光模块等网络设备升级的同时,功耗增长过快。以博通交换机芯片为例,2010年到2022年交换机芯片速率从640G提升到51.2T,光模块速率从10G迭代到800G。速率提升的同时,交换机芯片功耗提升了约8倍,光模块功耗提升了26倍,SerDes功耗提升了25倍。(2)交换机端口密度难以继续提升,光模块速率提升的同时,自身体积也在增大,而交换机光模块端口数量有限。(3)PCB材料遭遇瓶颈,PCB用于传输高速电信号,传

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论