![2024年计算机行业投资策略:AI三要素共振-AIGC云到端加速推进_第1页](http://file4.renrendoc.com/view2/M00/23/1C/wKhkFmZdw_2AenqUAAF4hhdo05s093.jpg)
![2024年计算机行业投资策略:AI三要素共振-AIGC云到端加速推进_第2页](http://file4.renrendoc.com/view2/M00/23/1C/wKhkFmZdw_2AenqUAAF4hhdo05s0932.jpg)
![2024年计算机行业投资策略:AI三要素共振-AIGC云到端加速推进_第3页](http://file4.renrendoc.com/view2/M00/23/1C/wKhkFmZdw_2AenqUAAF4hhdo05s0933.jpg)
![2024年计算机行业投资策略:AI三要素共振-AIGC云到端加速推进_第4页](http://file4.renrendoc.com/view2/M00/23/1C/wKhkFmZdw_2AenqUAAF4hhdo05s0934.jpg)
![2024年计算机行业投资策略:AI三要素共振-AIGC云到端加速推进_第5页](http://file4.renrendoc.com/view2/M00/23/1C/wKhkFmZdw_2AenqUAAF4hhdo05s0935.jpg)
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
2024年计算机行业投资策略:AI三要素共振_AIGC云到端加速推进主线一:算力侧——智能算力渗透率快速提升(一)算力侧:技术革新及政策双轮驱动,AI算力景气度高企1、从供给侧看算力不断升级,未来将呈现“云-边-端”一体格局从算力供给而言,可以分为通用算力、智能算力和超算算力。算力实现的核心是CPU、GPU、FPGA、ASIC等各类计算芯片,并由计算机、服务器、高性能计算集群和各类智能终端等承载,海量数据处理和各种数字化应用都离不开算力的加工和计算,算力数值越大代表综合计算能力越强,常用的计量单位是FLOPS(每秒执行的浮点数运算次数)。算力是设备根据内部状态的改变,每秒可处理的信息数据量。算力的载体发展经历了以算盘和机械计算器为代表的时代到基于架设互联网基础平台的服务器的历程。在过去20年,随着算力载体的丰富程度得到了极大提升,呈现多样化发展趋势。算力架构可以拆解为芯片、设备、软件,呈现“云-边-端”一体格局。未来将形成云端侧负责大体量复杂计算、边缘侧负责简单计算执行、终端侧负责感知交互的泛在算力部署形式。2、大模型驱动智能算力需求指数级增长大模型需要强大算力来支持训练过程和推理过程。根据OpenAI数据,训练GPT-3175B的模型,需要的算力高达3640PF-days(假如每秒做一千万亿次浮点运算,需要计算3640天)。2018年以来,大模型的参数量级已达到数千亿参数的量级规模。而CPU的物理工艺、核心数已接近极限。在AI时代下,仅靠CPU已经不能满足需求,通过GPU、FPGA、ASIC等加速芯片异构而成的智能算力的演化成为趋势,并最终成为生成式人工智能时代下算力的主角。AI时代的摩尔定律,算力平均每3.43个月翻一倍。自2012年后,驱动AI的底层机器学习技术计算量呈指数级增长,根据OpenAI论文,深度学习前期,算力翻倍时间为21.3个月,深度学习时期,算力翻倍时间为5.7个月,大模型时期,AI训练任务所用的算力每3.43个月就会翻倍,远超摩尔定律(晶体管每18个月翻一倍)带来的算力提升速度。大模型对算力的需求主要体现在以下三个场景:(1)预训练算力需求:模型预训练过程是消耗算力的最主要场景。ChatGPT采用预训练语言模型,GPT-3具有大约1750亿参数,GPT-4的规模是GPT-3的10倍以上,它具有大约1.8兆参数,分布在120个层,13万亿token,OpenAI训练GPT-4的FLOPS约为2.15*10^25,单张英伟达A100的算力为19.5TFlops(浮点运算每秒19.5万亿次),如果不考虑利用率用25000张A100训练需要52天,实际情况在大约25000个A100上训练了90到100天,MFU(平均功能利用率)在32%到36%之间。如果按照OpenAI云计算的成本是差不多1美元/每验、失败的训练和其他成本,比如数据收集、RLHF(以强化学习方式依据人类反馈优化语言模型)、人力成本等,这次训练的成本大约是6300万美元。(2)日常运营算力需求:预计ChatGPT单月运营需要算力约4874.4PFlops-days,对应成本约1800万美元。在完成模型预训练之后,ChatGPT对于底层算力的需求并未结束,日常运营过程中,用户交互带来数据处理需求。根据OpenAI官网9月数据,ChatGPT目前拥有超过1亿用户,每月产生18亿次访问量。据Fortune杂志,每次用户与ChatGPT互动,产生的算力云服务成本约0.01美元。基于此,我们估算OpenAI为ChatGPT每月支付的运营算力成本为1800万美元。(3)模型调优算力需求:从模型迭代的角度来看,ChatGPT模型并不是静态的,而是需要不断进行Finetune模型调优,以确保模型处于最佳应用状态。调优过程中,一方面是需要开发者对模型参数进行调整,确保输出内容不是有害和失真的;另一方面,需要基于用户反馈和PPO(近端策略优化),对模型进行大规模或小规模的迭代训练。因此,模型调优同样会为OpenAI带来算力成本,具体算力需求和成本金额取决于模型的迭代速度。3、海外:全球算力规模进入加速期,科技巨头不断加大AI资本开支伴随全球人工智能浪潮,全球算力规模爆发式增长。2022年全球算力总规模达到906EFlops,增速达到47%,其中基础算力规模(FP32)为440EFlops,智能算力规模(换算为FP32)为451EFlops,超算算力规模(换算为FP32)为16EFlops。根据中国移动预测,未来五年全球算力规模将以超过50%的速度增长,到2025年全球计算设备算力总规模将超过3ZFlops,至2030年将超过20ZFlops。以AIGC为首的应用表现强劲,推动了智能计算的快速和持续增长。IDC预测,全球人工智能计算市场规模将从2022年的195亿美元增长到2026年的346.6亿美元。其中,生成式人工智能计算市场规模将从2022年的8.2亿美元增长到2026年的109.9亿美元,占整体人工智能计算市场的比重将从4.2%增长到31.7%。生成式人工智能将推动互联网、制造、金融、教育、医疗等行业创新发展。从海外云巨头三季报看,人工智能投资推动收入和资本支出。年初至今,生成式AI技术浪潮的快速崛起带来对AI算力需求的大幅提升,海外云厂商巨头谷歌、微软、Meta(这里暂时不考虑亚马逊,亚马逊由于三季度收缩用于仓储物流的资本开支,影响权重较大)3Q资本开支212.05亿美元,合计资本开支环比增长9.43%,主要系AI基础设施投入加大,各家在业绩会上均表示2024将继续加码AI领域。另一方面,各大厂商资本开支与营收呈现显著正相关。谷歌云2023年第三季度收入为84.1亿美元,同比增长22.59%,微软智能云部门(包括Azure)的收入为243亿美元,同比增长19%。我们认为,预计北美云厂商巨头微软、谷歌、Meta的资本开支在2024年进入上行周期,整体增速预计超过双位数。4、国内:智能算力需求持续增长,芯片禁令导致高端算力供需错配算力是集计算力、网络运载力、数据存储力力于一体的新型生产力。一国算力指数与GDP、数字经济发展呈现显著正相关。IDC、浪潮信息、清华产业研究院联合发布的《2022-2023全球计算力指数评估报告》中表明,计算力评估指标涵盖计算能力、计算效率、应用水平、基础设施支持四个维度。回归分析显示,计算力指数与GDP、数字经济的走势呈现出显著正相关。算力对于促进GDP与数字经济增长效果显著。相关数据显示,十五个样本国家的计算力指数平均每提高1点,国家的数字经济和GDP将分别增长3.6‰和1.7‰,预计该趋势在2023至2026年将继续保持。中国计算力指数排名第二,处于领跑者地位。根据《2022-2023全球计算力指数评估报告》中,第一梯队包括中国和美国;第二梯队国家包括日本、德国、英国、法国、加拿大、韩国和澳大利亚;第三梯队国家包括印度、意大利、巴西、俄罗斯、南非和马来西亚。2022年中国计算力指数同比增长1.4%,达到了71分,2022年受到反复冲击,全年GDP增长低于预期,在这样的大环境下,中国算力指数仍保持增长。中国算力核心产业规模高增,成为国内GDP增长重要抓手。据工业和信息化部数据,截至2022年年底,我国算力核心产业规模达到1.8万亿元,算力总规模达到180EFLOPS,年增长率近30%;存力总规模超过1000EB;国家枢纽节点间的网络单向时延降低到20毫秒以内。预计2023中国算力核心产业规模。算力每投入1元,将带动3~4元的GDP经济增长。2023是企业数字化转型拐点,2024资本开支有望继续高增。从2022年开始,全球企业在数字化转型的浪潮下开始加速数字化进程,2023年是企业数字化转型的拐点,企业从数字化转型时代进入到数字化业务时代,开始逐渐步入数字化新阶段。根据IDC的研究,到2023年底,全球数字化转型支出在总体企业ICT支出中的占比将达到52%,全球52%的软件应用支出也将是SaaS模式。预计2023年全球数字化转型技术的支出增长率为16.9%。数字化转型在降本增效、提高创新能力、商业模式转型升级等方面已初显成效,已成为企业核心发展战略。国内算力产业总体规模未来三年有望维持30%左右CAGR,智能算力渗透率及占比快速提升。近几年,我国不断加大对计算、网络和存储等基础设施的投入,高度重视数据中心、智算中心、超算中心以及边缘数据中心等算力基础设施的高质量发展,近5年,我国算力产业规模年平均增速超过30%。智能算力渗透率逐渐提升。智能算力增长迅速,新增算力中智能算力成为增长新引擎,截至2022年底,我国算力总规模达到180EFLOPS,其中智能算力规模与去年相比增加41.4%,超过全球整体智能算力增速(25.7%),其中通用算力规模137EFLOPS,占比约76.7%,智能算力规模41EFLOPS,占比约22.8%。根据《2022-2023中国人工智能计算力发展评估报告》,未来5年中国智能算力规模年复合增长率将达到52.3%,通用算力规模年复合增长率为18.5%。预计到2026年中国智能算力将达到145EFLOPS,占比将达到36.7%。随着AI大模型的快速发展,智能算力需求正呈现爆发性增长态势,渗透率将显著提升。高端算力芯片进口受限,多轮禁令加剧高端算力供应的短缺,导致供需错配。一方面,从ChatGPT面世以来,国内各企业和研究院在短短半年多的时间内先后推出了超过130款大模型,其中领跑玩家已经开始着手于将大模型应用于特定场景,打造爆款应用。此外,为了构筑算力底座,各地政府纷纷上马智算中心建设,铺设大数据时代的信息高速,推动产业创新升级。根据华为昇腾计算业务总裁张迪煊在2023世界人工智能大会上的揭示,大模型所需的算力相对于2020年预计将增长500倍。而另一方面,2023年10月17日,美国商务部工业和安全局(BIS)发布了针对芯片的出口禁令新规,更加严格的限制了中国购买重要的高端芯片,导致国内算力缺口正在不断扩大。5、政策密集发布,推动算力基础设施高质量发展工信部等六部门联合印发《算力基础设施高质量发展行动计划》,提出到2025年,计算力方面,算力规模超过300EFLOPS,智能算力占比达到35%,东西部算力平衡协调发展。2023年10月9日,工业和信息化部等六部门近日联合印发《算力基础设施高质量发展行动计划》,从计算力、运载力、存储力以及应用赋能四个方面定下发展目标,引导算力基础设施高质量发展。此次《行动计划》详细定下了量化目标。1)计算力方面,到2025年算力规模超过300EFLOPS(每秒30000京次浮点运算次数),智能算力占比达到35%,东西部算力平衡协调发展;2)运载力方面,国家枢纽节点数据中心集群间基本实现不高于理论时延1.5倍的直连网络传输,重点应用场所光传送网(OTN)覆盖率达到80%,骨干网、城域网全面支持IPv6等创新技术使用占比达到40%;3)存储力方面,存储总量超过1800EB,先进存储容量占比达到30%以上,重点行业核心数据、重要数据灾备覆盖率达到100%;4)应用赋能方面,打造一批算力新业务、新模式、新业态,工业、金融等领域算力渗透率显著提升,医疗、交通等领域应用实现规模化复制推广,能源、教育等领域应用范围进一步扩大。每个重点领域打造30个以上应用标杆。目前,我国加速推进算力布局,与算力有关的多项国家政策发布,与此同时,各地政府也在推进相关规划落地,包括基础电信企业等在内的各方也在积极推进算力网络建设,算力产业发展进入“快车道”。(二)算力侧投资主线:国产化、高带宽存储、AI服务器、液冷、算力租赁1、出口禁令倒逼国产化加速,华为昇腾VS英伟达参数对比出口禁令影响海外供应,倒逼不断加速。2023年10月17日,美国商务部工业和安全局(BIS)发布了针对芯片的出口禁令新规,更加严格的限制了中国购买重要的高端芯片。一方面,从ChatGPT面世以来,国内各企业和研究院在短短半年多的时间内先后推出了超过130款大模型,其中领跑玩家已经开始着手于将大模型应用于特定场景,打造爆款应用。另一方面,为了构筑算力底座,各地政府纷纷上马智算中心建设,铺设大数据时代的信息高速,推动产业创新升级,降低企业调用以大模型为代表的科技成果的成本。根据华为昇腾计算业务总裁张迪煊在2023世界人工智能大会上的揭示,大模型所需的算力相对于2020年预计将增长500倍,这个算力缺口正在不断扩大。A800、H800被禁后,英伟达继续推出新款芯片,单卡性能H20弱于昇腾910b。2023年11月9日,相关报道称英伟达已开发出针对中国市场的最新改良版系列芯片——HGXH20、L20PCle和L2PCle。最新三款芯片是由H100改良而来,就单卡性能而言H20弱于昇腾910b。华为昇腾芯片为AI体系提供强大算力,昇腾910b单卡性能接近英伟达A100。华为昇腾芯片是华为发布的两款人工智能处理器,包含昇腾310用于推理和910用于训练,均采用自家的达芬奇架构。昇腾910是一款高性能AI芯片,采用了7nm工艺制程,集成了数千个达芬奇核心,能够提供高达256TOPS的算力,在业界其算力处于领先水平。昇腾310是一款入门级AI芯片,采用了12nm工艺制程,集成了数百个达芬奇核心,能够提供高达8TOPS的算力,适合用于边缘计算和物联网等应用场景。2023年科大讯飞与华为昇腾启动专项攻关,合力打造我国通用人工智能新底座,让国产大模型架构在自主创新的软硬件基础之上,当前华为昇腾910B能力已经基本做到可对标英伟达A100。华为昇腾生态打开市场空间,国产算力产业链有望持续受益。我们认为,国内第一批大模型厂商使用的基本都是英伟达A100、A800的芯片,因为英伟达构建了完善的CUDA生态,贸然换生态,意味着学习成本、试错成本、调试成本都会增加。目前华为基于“鲲鹏+昇腾”双引擎正式全面启航计算战略,打造算力底座,未来趋势下,华为昇腾市场份额将不断提升,产业链细分赛道上市公司有望持续受益。15%到全国产化是大概率事件,国产化空间巨大。根据IDC数据,2022年中国AI芯片出货量约109万张,其中英伟达市占率约为85%,华为在内的国产AI芯片市占率约为15%,国产化仍有很大空间。昇腾计算产业链是基于昇腾系列处理器和基础软件构建的全栈Al计算基础设施、行业应用及服务,包括异腾系列处理器、系列硬件、CANN、Al计算框架、应用使能、开发工具链、管理运维工具、行业应用及服务等全产业链。百度等率先开始采购昇腾910B,释放多重积极信号。据相关报道,百度为200台服务器向华为订购了1600颗昇腾910BAI芯片,作为英伟达A100的替代品,订单总价值约4.5亿人民币,预计今年年底前完成交付,截至10月已交付约60%,同时360集团创始人周鸿祎表示,360也采购了华为1000片左右的AI芯片。我们认为,此次采购意义重大,虽然此订单规模相较过去从英伟达采购的数千颗芯片较小,但是此次采购证明国产昇腾910B可以满足大模型训练需求,伴随百度、360等互联网大厂竞相采购,有望掀起互联网行业乃至千行百业采购浪潮。华为昇腾服务器,国产算力之王。搭载华为昇腾系列AI芯片和业界主流异构计算部件的算力集群,具有超强计算性能,可以广泛用于中心侧AI推理、深度学习模型开发和场景训练,根据训练需求不同可以分为AI训练服务器和AI推理服务器。AI训练服务器:1)Atlas800训练服务器(型号:9000)是基于华为鲲鹏920+昇腾910处理器的AI训练服务器,具有超强算力密度、超高能效与高速网络等特点。2)Atlas800训练服务器(型号:9010)是基于Intel处理器+华为昇腾910芯片的AI训练服务器,具有超强算力密度、高速网络带宽等特点。这两款服务器广泛应用于深度学习模型开发和训练,适用于智慧城市、智慧医疗、天文探索、石油勘探等需要大算力的行业领域。AI推理服务器:1)Atlas800推理服务器(型号:3000)是基于昇腾310芯片的推理服务器,最大可支持8个Atlas300I推理卡,提供强大的实时推理能力,广泛应用于中心侧AI推理场景。2)Atlas800推理服务器(型号:3010)是基于Intel处理器的推理服务器,最多可支持7个Atlas300I推理加速卡,支持560路高清视频实时分析,广泛应用于中心侧AI推理场景。软件端:昇腾全栈AI软硬件平台,面向“端、边、云”的全场景AI基础设施。AI处理器和基础软件构建Atlas人工智能计算解决方案,包括Atlas系列模块、板卡、小站、服务器、集群等丰富的产品形态,打造面向“端、边、云”的全场景AI基础设施方案,覆盖深度学习领域推理和训练全流程,充分释放硬件性能。昇思MindSpore崛起,打造国产AI开发新生态。昇腾910配套的AI开源计算框架MindSpore更方便AI科学家和工程师使用,该框架可满足终端、边缘计算、云全场景需求,能够更好地保护数据隐私。昇腾在硬件上为合作伙伴提供Altas昇腾计算模组和计算卡,发展20+硬件合作伙伴(整机、工控机等),15家一体机伙伴;在软件上开源昇思MindSporeAI框架,社区开源模型400+,下载量超390万+;生态发展上,昇腾采用行业+教育的方式,行业打通1000+合作伙伴,认证解决方案2000+,超过110所高校开设昇腾AI课程,有着120万+开发者。五大类华为昇腾生态合作伙伴,产业链上市公司迎来重大机遇。昇腾生态伙伴包含整机硬件伙伴、IHV硬件伙伴、应用软件伙伴、一体机解决方案伙伴以及生态运营伙伴五大类其中,整机硬件伙伴有13家、IHV硬件伙伴有6家、软件伙伴大约1200家。2、“内存墙”制约算力释放,HBM高带宽存储量价齐升高端算力持续提升,摩尔定律注定失效,内存带宽成为重要制约因素。根据英伟达新卡HGXH20核心参数可以看出,其计算性能大幅下降,但是900GB/s的NVLink速度和96GB的HBM3都将使得集群计算效果较佳。算力并不是AI芯片唯一的性能指标,内存同样对AI芯片的整体效能起到决定性作用。在大模型的训练过程中,“内存墙”成为瓶颈。通常在训练过程中计算和存储是同步进行的,在计算数据量增加的同时,如果存储的带宽不能匹配其数据量,就会造成延迟,势必会影响性能。伴随大模型处理数据吞吐量的指数级增长,庞大的数据处理和传输,对内存就提出了更高的带宽需求。然而,存储器和处理器并没有同步发展,处理器的性能按照摩尔定律规划的路线不断飙升,而内存所使用的DRAM从工艺演进中的获益却很少,性能提升速度远慢于处理器速度。根据行业预计,处理器的峰值算力每两年增长3.1倍,而DRAM的带宽每两年只增长1.4倍。这种情况下,当存储器的性能跟不上处理器,对指令和数据搬运时间将是处理器运算所消耗时间的几十倍乃至几百倍,这就是所谓的“内存墙”问题。HBM突破能有效打破了“内存墙”对算力提升的桎梏,是未来DRAM重要发展路径。HBM这种新型的内存方案具备高带宽、低功耗的特点,面对AI大模型千亿、万亿级别参数时,服务器中负责计算的GPU几乎必须搭载HBM。目前AI芯片中GPU在训练和推理中占绝对优势。AI芯片又称AI加速器或计算卡,是专门用于处理人工智能应用中大量计算任务的模块,AI芯片是AI服务器的核心部件,在AI服务器中价值量占比接近70%。目前主流的AI算力芯片主要包括CPU、GPU、FPGA、ASIC等。其中,GPU是较为成熟的通用型人工智能芯片,FPGA和ASIC则是针对人工智能需求特征的半定制和全定制芯片,GPU、FPGA、ASIC作为加速芯片协助CPU进行大规模计算。全球AI芯片市场规模持续提升,将维持20%以上的增速。发布的《2023-2029全球与中国光子AI芯片市场现状及未来发展趋势》显示,2022年全球AI芯片市场规模约为441.7亿美元。根据相关数据预测,2023年AI芯片市场规模将达到534亿美元,比2022年增长20.9%。欧美地区是全球AI芯片的重要市场,未来亚太市场份额进一步提升。欧美地区在AI芯片领域长期维持着行业领先地位,2021年占全球市场份额为42.6%。亚太地区和东南亚市场占比分别为16.2%和11.6%,随着亚太地区半导体产业的快速发展,未来其市场优势地位将进一步凸显。英伟达GPU芯片处于全球行业领先地位。2022年Intel正式杀入了显卡市场,目前独立GPU市场则主要由NVIDIA、AMD和英特尔三家公司占据,2022年全球独立GPU市场占有率分别为88%、8%和4%,其中,NVIDIA在PC端独立GPU领域市场占有率优势明显。英伟达A100提供40GB和80GB显存两种版本,性能比上一代提升20倍。A100采用Ampere架构,是NVIDIA数据中心平台的引擎。并可划分为七个GPU实例,以根据变化的需求进行动态调整。A100提供40GB和80GB显存两种版本,A100采用80GBHBM2位宽达到5120bit使其显存带宽达到了1935GB/s,超快速的显存带宽,可处理超大型模型和数据集。当今的AI模型面临着对话式AI等更高层次的挑战,这促使其复杂度呈爆炸式增长。训练这些模型需要大规模的计算能力和可扩展性。A100借助Tensor浮点运算(TF32)精度,对于具有庞大数据表的超大型模型,A10080GB可为每个节点提供高达1.3TB的统一显存,而且吞吐量比A10040GB多高达3倍。英伟达将SK海力士HBM3应用于H100,价格上涨5倍之多。新一代HBM3的带宽最高可达819GB/s,在辅助GPU进行运算时有明显优势。英伟达已经将SK海力士的HBM3应用于H100,这也使HBM3在DRAM整体表现不佳的情况下实现逆势增长,HBM3的原价为30美元/GB,如今上涨5倍之多,而对于训练来说HBM无疑是最优的选择。AI推理的带宽需求,GDDR6是更加经济的选择。AI推理带宽需求往往低于500Gb/s,在此类场景中,带宽高于LPDDR5,低于HBM2E的GDDR6,是更加经济的选择。如果将HBM3作为AI推理的存储设备,基本上会把带宽需求翻倍,超过了AI推理本身的带宽需求,还会使成本增加3-4倍。相比之下,GDDR6是更加经济高效的选择。AI带动HBM3需求激增,SK海力士和三星2025年前订单排满。SK海力士在第一季度财报中指出,大型语言模型和AIGC的开发和商用化,将带动HBM在2023年的需求上扬。三星也在第一季度财报指出,将为AI带动的DDR5和高密度内存模块需求做好产能准备。3、AI服务器渗透率不断提升,推理服务器占比持续提高服务器是计算机的一种,它比普通计算机运行更快、负载更高、价格更贵。服务器在网络中为其它客户机如PC机、智能手机、ATM等终端等大型设备提供计算或者应用服务。服务器具有高速的CPU运算能力、长时间的可靠运行、强大的I/O外部数据吞吐能力以及更好的扩展性。其中X86和ARM是两种主流的架构。通用服务器硬件设备中CPU及芯片组占服务器成本大约50%左右。主要硬件包括处理器、内存、芯片组、I/O(RAID卡、网卡、HBA卡)、硬盘、机箱(电源、风扇)。以一台普通的服务器生产成本为例,CPU及芯片组大致占比50%左右,内存大致占比15%左右,外部存储大致占比10%左右,其他硬件占比25%左右。AI服务器中用于运算和存储的芯片占服务器成本结构约70%,其中在机器学习型服务器中GPU成本占比达72.8%。全球服务器市场高增长,中国市场占比提升。根据Statista数据,2021年全球服务器市场规模达到831.7亿美元,同比增长6.97%,中国服务器市场占比30.16%,预计2023年全球服务器市场规模来到907.8亿美元,同比增长6.96%,中国服务器市场占比33.93%,变化+3.77pct。我们认为,随着人工智力所需算力扩大,未来中国服务器市场有望进一步扩大。人工智能时代AI服务器优势凸显。随着AI技术的广泛使用,CPU的串行处理架构已经不能满足AI时代的算力需求,企业需要为人工智能、机器学习和深度学习建设全新的IT基础架构,正在由CPU密集型转向搭载GPU、FPGA、ASIC芯片的加速计算密集型,且越来越多地使用搭载GPU、FPGA、ASIC等加速卡的服务器,AI服务器应运而生。AI服务器主要是异构形式的服务器,根据芯片的种类不同可以为CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC或CPU+多种加速卡5种,目前广泛采用的是CPU+GPU架构。AI服务器在组成部件上与普通服务器差异不大,主要提升在以下几个方面:1)更大容量内存,满足大数据实时负载增加的需求;2)提供更多外置硬盘插槽,并广泛支持NVME/PCIE等SSD,满足大数据或模型参数的快速存储需求;3)需要带宽更高的网络模块,满足AI服务器之间、与终端用户的数据高速传输需求。随着AI在各行各业得到广泛使用,算力需求将会呈指数级增长,AI服务器的需求将会高速增长。全球AI服务器市场规模CAGR为22.7%,有望进一步提升。据IDC预测,2023年全球AI服务器市场规模为211亿美元,预计2025年达317.9亿美元。据TrendForce预测,2026年全球AI服务器出货量将进一步提升,2022-2026年CAGR达到10.8%。从搭载芯片种类上来看,目前全球以GPU服务器为主流。据IDC统计,2022年全球GPU服务器出货量占比87.3%,GPU服务器销售额占比89.5%。中国AI服务器市场存量替换需求叠加增量需求,预计2026年达到123.4亿美元,年复合增长率13.02%。中国AI服务器受益于人工智能等相关新兴领域的应用以及“东数西算”政策下,云计算、超算中心的蓬勃发展,数据计算、存储需求呈几何级增长,算力需求持续释放,AI服务器作为算力基础设备保持较快增速。存量来看,服务器平均寿命3-5年更换一次每年根据算力需求使用需求变化产生比较明显的更新需求。增量来看,伴随人工智能浪潮以及数字中国建设,未来对智能算力需求将持续爆发增长,且智能算力增长速度远超算力总体增速,中国AI服务器市场将迎来爆发增长,占比将逐步提升。2018-2021年我国AI服务器市场规模由14.76亿美元增长至59.2亿美元,预计2026年达到123.4亿美元,2021-2026年CAGR达13.02%。终端算力需求爆发,推理服务器占比将持续提升。根据IDC预测,2023年AI服务器训练需求占比达41.5%,随着大模型的应用,该比例在2025年将降低至39.2%;将GPT-4的推算结果作为训练需求,进一步推算2023、2025年推理需求最高达44081、48502PFlop/s-day。单个AI应用如ChatGPT可以带动推理算力66亿美元需求。假设平均针对20字的提问生成200字的响应,对应267token,根据OneFlow的数据和《ScalingLawsforNeuralLanguageModels》,在推理过程中每个token的计算成本约为2*NFlops,其中N为模型参数数量,则在ChatGPT4一万亿参数中每个token需算力2万亿Flops。假定GPT-4训练期间FLOPS利用率为32%,则每人每次提问需要算力:2万亿*267token/32%=17PFlops。据官网9月数据,ChatGPT目前拥有超过1亿用户,每月产生18亿次访问量,假定每日访问量为6000万人次,每人提问10次,且假设一天平均分布,则每秒算力需求为118EFlops,目前AI推理使用的主流GPU是T4,提供混合精度算力65TFlops,则需要182万个T4GPU可满足单日访问量,对应22.75万台8*T4服务器,一台8*T4服务器的价格约为29000美元,则目前来看推理服务器的需求在66亿美元。我们认为,伴随AI场景化加速落地,推理服务器市场占比有望进一步提升。AI推理服务器能为用户提供强大的实时推理能力,广泛应用于中心侧AI推理场景。据恒州诚思调研统计,2022年全球AI推理服务器市场规模约740亿元,预计未来将持续保持平稳增长的态势,到2029年市场规模将接近2676亿元。大量推理算力服务边缘侧部署,与云端算力相辅相成。目前推理服务放置在云端,数据中心中很多服务器都会配置推理用的PCIE插卡,还有大量的推理算力服务用在边缘侧(各种数据中心外的设备),如自动驾驶汽车、机器人、智能手机、无人机或物联网设备,它们都是用训练好的模型进行推理。边缘算力与云端算力相互补充、相互关联,而非替代关系。人工智能快速发展,智能终端渗透率提升,边缘算力四大优逐渐凸显。(1)低延迟。边缘计算的一个主要优势在于其能够实现端到端的数据分析。在传统的云计算架构中,数据需要从设备传输到云端,进行分析处理后再返回设备。这种做法增加了数据传输的时间和延迟,对于实时性要求较高的应用而言,可能无法满足需求。而边缘计算通过在设备端进行数据处理,可以减少数据传输时间,提高响应速度和实时性。例如,在智能制造领域,边缘计算可以实现实时监测和预警,有效提高生产效率和产品质量。(2)高可靠性。边缘计算还具有高效可靠的通信优势。由于数据在设备或终端进行处理,因此可以减少网络带宽的需求,从而提高通信效率。同时,边缘计算还可以通过本地化通信,降低数据传输的延迟,实现更快的响应速度。在物联网应用中,边缘计算可以实现对大量设备的快速、高效的数据收集和处理,从而提升整个系统的性能。(3)安全性、隐私性更好。边缘计算在提高数据隐私和安全方面也具有优势。由于数据在本地进行处理,因此可以减少数据传输过程中的泄露风险。同时,边缘计算还可以使用加密技术,进一步提高数据的安全性。在医疗健康、金融服务等领域,边缘计算可以更好地保护用户的隐私和数据安全。(4)低能耗、成本更低。边缘计算的另一个显著优势是更小的能耗。由于数据在设备端进行处理,因此可以减少设备需要传输的数据量,从而降低能耗。此外,边缘计算还可以通过节能算法,进一步降低设备的能耗。在物联网和智能家居领域,边缘计算可以帮助设备实现更长的续航时间,减少充电次数,提高用户体验。(5)易扩展性。通常扩展IT基础架构的成本非常昂贵,需要为基础架构购买新的设备及为设备到额外的空间。但边缘计算轻松扩展基础架构,可以购买具有足够计算能力的设备来扩展边缘网络。无需为其数据需求建立私有或集中式数据中心。算力下一站AIOT时代,边缘算力市场空间广阔。根据国际电信咨询公司STLPartners发布的边缘计算关键数据统计,预测到2030年,边缘计算潜在市场将从2020年的90亿美元,增长到4450亿美元,行业复合年增长率高达48%。到2026年,全球26%的网络边缘站点将位于中国,届时国内将占据主导地位。同时根据亿欧智库数据,2021年我国边缘计算市场规模达427.9亿元,其中边缘硬件市场规模为281.7亿元,边缘软件与服务市场规模为146.2亿元。预计到2025年,我国边缘计算产业市场规模将达1987.68亿元,2021-2025年CAGR为46.81%,发展潜力巨大。4、国内液冷服务器市场未来5年CAGR预计达54.7%数据中心PUE要求愈发严苛。随着云计算、大数据、人工智能、元宇宙等信息技术的快速发展和传统产业数字化的转型,数据呈现几何级增长,算力和硬件部分能耗也在持续增加,而在“双碳”政策的持续推进下,国家、地方政府、企业层面均在积极推动绿色低碳转型和可持续发展,通讯领域对数据中心节能降耗要求越来越严格。液冷未来有望逐渐替代风冷,成为AI服务器、数据中心标配。A1训练及推理应用、超算等高算力业务需求持续推升,由此带来的芯片性能需求、服务器功率需求不断提高,场景侧,以英伟达DGXA100640GB服务器为例,系统最大功率为6.5KW,传统风冷无法做到及时散热,相比之下,液体比热容为空气的1000-3500倍,导热性能是空气的15-25倍,利用自然冷却显著降低耗电量,使得液冷成为风冷的不二选择。我们认为,人工智能浪潮下,对算力需求进一步提升,液冷预计将成为最优冷却方案,未来中国液冷服务器市场有望进一步打开竞争格局,产业相关上市公司将受益。目前,中国液冷服务器普及率不足5%,径普及率并不高。受制于:1)数据中心国家PUE标准收紧;2)受制于面积等因素,机柜密度逐渐提升;3)温度过高,芯片故障率升高等客观因素,未来液冷服务器将成为调和快速的算力需求与有限数据中心承载力的共识方案。液冷服务器是大势所趋,数据中心PUE可降至1.25以下。算力的持续增加,意味着硬件部分的能耗也在持续提升;在保证算力运转的前提下,只有通过降低数据中心辅助能源的消耗,才能达成节能目标下的PUE要求。冷板式液冷服务器与浸没式相变服务器为两大主流液冷服务器。冷板式液冷服务器技术利用工作流体作为中间热量传输的媒介,将热量由热区传递到远处再进行冷却。在该技术中,工作液体与被冷却对象分离,工作液体不与电子器件直接接触,而是通过液冷板等高效热传导部件将被冷却对象的热量传递到冷媒中。该技术将冷却剂直接导向热源,同时由于液体比空气的比热大,散热速度远远大于空气,因此制冷效率远高于风冷散热,每单位体积所传输的热量即散热效率高达1000倍。该技术可有效解决高密度服务器的散热问题,降低冷却系统能耗而且降低噪声。浸没式液冷服务器又可以分为单相浸没式液冷服务器和两相浸没式液冷服务器。浸没式相变换热液冷系统采用进口环保专用冷媒,具有不导电、无闪点、无腐蚀性、无毒性的特性,利用环保冷媒良好的热物理特性,通过控制系统物理参数,利用冷媒工质的气化潜热转移服务器内部热量,极大提高了系统的换热效率,同时保留了高端热源的能量品位。此冷媒较传统冷媒,在系统压力较低的情况下即可实现50℃~60℃的蒸发温度,无须利用压缩机进行机械制冷,从而使室外机组的全年自然冷却工作方式成为可能。作为中国液冷服务器第一的曙光数创,目前浸没式液冷服务器技术领先。1)整机功耗:全浸没方案,无风扇设计,风扇功耗降低为0。2)终极的噪音指标:区别于传统风冷机房,全浸没机房噪音控制在35dB以下。3)终极的功率密度:高密度配置,轻松实现整机柜功率200kW。4)终极的PUE指标:直接利用高品位完成热量转移,可实现PUE低至1.01-1.02。2023H1中国液冷服务器市场同比增长近3倍。根据IDC发布的《中国半年度液冷服务器市场(2023上半年)跟踪》报告数据显示,2023上半年中国液冷服务器市场规模达到6.6亿美元,同比增长283.3%,预计2023年全年将达到15.1亿美元。IDC预计,2022-2027年,中国液冷服务器市场年复合增长率将达到54.7%,2027年市场规模将达到89亿美元。5、高端算力供不应求,算力租赁空间广阔,但需注意供应链风险算力租赁是一种利用云计算技术对算力进行出租的一种计算服务,通过云计算平台给企业用户提供高性能、高效率、高可靠性的计算资源,且有着灵活、成本低廉、高效的特点。算力租赁对中小企业、初创企业、科研机构这种偏向轻资产的模式,转租赁的方式会是一个好选择。算力租赁需求主要来源于创业公司、科研院所、政府智慧城市三方面。创业公司和科研院所等对算力租赁需求持续增长,政府智慧城市大模型化,包括城市智能交通、智慧城市等。AI算力租赁需求增长确定,市场空间广阔。1)数字基础设施:新型数据中心是支撑人工智能、5G、云计算等新一代信息技术发展的算力载体,是推动经济社会数字转型、智能升级、融合创新的关键基础设施。2)低成本、灵活高效:人工智能技术不断提升,带动算力需求的蓬勃上升,给算力租赁带来广泛的市场空间,因为自建数据中心不仅成本高且算力产生大量冗余,因此租赁算力成了当前方案的最优解。3)政策扶持:算力租赁也受到了政策的大力扶持,工信部等六部门日前印发的《算力基础设施高质量发展行动计划》提出打造集成多方算力资源和开发平台的算力服务,鼓励各地为中小企业、科研机构提供普惠算力资源。4)应用端催化:算力租赁需求旺盛,教育、法律和办公需求较大,未来偏创作、剪辑、游戏需求将放量。算力租赁单价年内大幅上涨,H800算力租赁租金15万元/P/年。由于H20、L20暂未上市,暂以H800和A80进行测算。目前A800单卡算力在0.6P,根据相关数据H800训练速度是A800的1.6-2.1倍,推算H800单卡算力在2P。根据GPUShare报价数据A800/80G单卡租赁价格9元/小时,换算单卡0.6P算力=15元/P/小时=13.5万元/P/年。H800/80G单卡租赁价格4.5美金/小时,换算单卡2P算力=17元/P/小时=15万元/P/年,对比一个月前报价(14元每小时,或13.3万元/P/年)涨价15%。成本回收周期短,算力租赁毛利率超过50%。一台8卡A系列服务器卡成本占比在80%左右,每张A800价格为10万元,每张H800的价格是20万元。结合当前市场,一台8卡A系列服务器成本大概在100万左右,8卡H系列服务器成本在200万左右。假定一台服务器的平均使用寿命在3-5年左右,不考虑残值,按照3年使用寿命8卡A系列服务器每年折旧费用每年33万元左右,8卡H系列服务器每年折旧费用在67万元左右。以8卡H系列服务器为例,H系列服务器提供16P算力,按照80%的价格来计算,产生收入192万元,每年折旧费用在67万元左右,假定运维成本、电费、机柜等成本A800为8万元,H800为20万元,粗略估算毛利率在40%-60%左右,预计1.5年可以收回成本。我们认为,算力租赁短期供需错配,仍有较大市场空间。2023年在AI大模型发展持续加速背景下,对高端智算资源的需求呈指数级增长,算力租赁行业进入蓬勃发展期。算力租赁上市公司需要重点关注五大维度(优先级依次降低)。1)购卡能力及服务器渠道:是否有购卡渠道及绑定服务器厂商。2)在手订单量:在手订单是否充足。3)资金实力:算力租赁前期购买芯片及服务器投入较大,公司是否有充足现金流。4)能耗指标:各地政府对数据中心有能耗指标限制,公司能否拿到能耗指标影响业务扩张。5)业务协同性:传统业务能否与算力租赁业务形成协同效应。投资者应注意算力租赁行业受地缘政治、政策、法律等引发供应链及衍生风险。主线二:数据侧,数据要素三次价值释放,入表推动价值“显性化”(一)数据入表:2024年初实行,数据资产化时代正式开启财政部于2023年8月正式发布《企业数据资源相关会计处理暂行规定》(以下简称《暂行规定》),并规定自2024年1月1日起施行,数据资产化时代正式开启。数据入表的具体操作:主要入表项目为无形资产、存货与开发支出,无形资产适用于绝大部分情况。主要变化体现在由原来的损益类可转换为资产类。在具体操作层面,根据《暂行规定》,企业在编制资产负债表时,应当根据重要性原则并结合本企业的实际情况,在“无形资产”、“存货”与“开发支出”项目下增设“其中:数据资源”项目。其中,无形资产反映资产负债表日确认为无形资产的数据资源的期末账面价值;存货反映资产负债表日确认为存货的数据资源的期末账面价值;开发支出反映资产负债表日正在进行数据资源研究开发项目满足资本化条件的支出金额。数据入表项目应符合原有会计准则并进行相应处理,一般来说,企业自有以产生经济价值的数据确认为无形资产、目的用于交易出售的数据确认为存货。依据《企业会计准则》,“无形资产”不具有实物形态但需要可辨认,需满足预期经济收入可能流入企业、成本可计量的条件。对应到数据资源同样需要满足以上条件,数据资源需要具备可辨认的形态、相关成本可以清晰计量、未来具备预期的收益。“存货”同样需要满足预期收益流入、成本可清晰计量的会计确认条件,不同于无形资产的是,企业持有存货的目的是为了出售。会计处理方式应符合对应项目的会计准则,对于无形资产,报告期需对账面原值、累计摊销、减值准备、账面价值等拆分披露。对于存货,报告期需对账面原值、存货跌价准备、账面价值等拆分披露。数据入表的主要场景:我们认为,未来数据入表主要有以下四种场景:1.企业内部自行开发形成的数据资产(不用做单纯交易出售目的)根据《企业会计准则》中无形资产的资本化条件的相关规定,内部研究阶段产生的支出应计入损益项,开发阶段的支出,应满足一定条件后确认为无形资产。(一)从技术上来讲,完成该无形资产以使其能够使用或出售具有可行性;(二)具有完成该无形资产并使用或出售的意图;(三)无形资产产生未来经济利益的方式,包括能够证明运用该无形资产生产的产品存在市场或无形资产自身存在市场;无形资产将在内部使用的,应当证明其有用性;(四)有足够的技术、财务资源和其他资源支持,以完成该无形资产的开发,并有能力使用或出售该无形资产;(五)归属于该无形资产开发阶段的支出能够可靠计量。2.企业外购取得的数据资产外购取得的数据符合无形资产确认条件的可入无形资产,不符合确认条件的服务支出根据具体用途计入当期损益。对于外购过程中产生的数据资源成本包括购买价款、相关税费、以及直接归属于使该项无形资产达到预定用途的数据标注、整合、分析、可视化等加工过程所发生的有关支出等,需根据具体情况界定是否可进行资本化处理。3.企业通过合并方式取得的数据资产根据准则,企业合并时,购买方在对企业合并中取得的被购买方资产进行初始确认时,应当对被购买方拥有的但在其财务报表中未确认的无形资产进行充分辨认和合理判断,满足以下条件之一的,应确认为无形资产:(一)源于合同性权利或其他法定权利;(二)能够从被购买方中分离或者划分出来,并能单独或与相关合同、资产和负债一起,用于出售、转移、授予许可、租赁或交换。4.目的用于交易出售的数据资源根据准则,企业日常活动中持有、最终目的用于出售的数据资源,符合存货准则规定的定义和确认条件的,应当确认为存货。需要注意的是,根据本次暂行规定的界定,作为无形资产的数据不排他,作为存货的数据具备排他性。在绝大部分场景与企业中,企业对数据资源进行反复使用,使用的场景包括不限于自用数据产生产品销售以产生经济价值、通过数据共享给客户以产生经济价值等,数据资源为多方所使用,不具备使用权的排他性,应为无形资产。存货的场景主要有数据采集与加工厂商,产生数据资源的目的单纯是为了销售,进行数据所有权的转让,出售之后数据不再属于原有企业,具备排他性。数据入表的具体影响:财务报表改善,利润释放,降低资产负债率,提升企业价值。过去,一些数据相关支出往往被确认为期间费用项目,对企业当期业绩造成影响。现在,无论是将数据确认为无形资产还是确认为存货,均属资产项,有助于企业改善利润率与资产负债率。在企业的经营层面,数据入表后,企业投入压力减小,有助于增长企业的经营与研发的动力,深入挖掘数据多重价值。暂行规定并未改变资产确认条件和计量基础,且数据的估值与确权存在具体执行层面的难度,数据入表的相关探索与执行是一个循序渐进的过程。(二)数据要素政策仍有细化空间,政策催化效应预期凸显国家数据局成立:顶层设计的解构与整合涉及到数据要素与数据经济的顶层机构主要有三个:(1)中共中央网络安全和信息化委员会下属办事机构中央网信办;(2)国家发改委下属创新和高技术司;(3)工信部。中央网信办组织研究起草网络安全和信息化发展战略、宏观规划和重大政策,根据职责权限负责相关法规、规章等的起草、实施和监督检查。国家发改委负责统筹推进战略性新兴产业和数字经济发展,衔接平衡信息化发展规划与国家发展规划,组织拟订推进创新创业和高技术产业发展的规划和政策。工信部负责统筹推进工业领域信息化发展,研究拟订信息化和工业化融合发展战略、规划、政策和标准;互联网行业管理(含移动互联网),拟定电信网、互联网及工业控制系统网络与信息安全规划、政策、标准并组织实施,拟订电信网、互联网数据安全管理政策、规范、标准并组织实施等。2023年3月10日,十四届全国人大通过《国务院机构改革方案》,组建国家数据局,隶属于国家发改委。根据改革方案,国家数据局整合了中央网信办承担的研究拟订数字中国建设方案、协调推动公共服务和社会治理信息化、协调促进智慧城市建设、协调国家重要信息资源开发利用与共享、推动信息资源跨行业跨部门互联互通等5项宏观管理职责,国家发改委承担的统筹推进数字经济发展1项宏观管理职责,组织实施国家大数据战略、推进数据要素基础制度建设、推进数字基础设施布局建设等3项具体管理职责。目前,新任局长与副局长均已完成任命,内部招聘进行中。10月25日,国家数据局正式揭牌。全新的职能部门有助于更好地制定纲领性文件与统筹全国数据经济与数据要素市场发展。数据二十条:数据要素发展顶层指导文件数据二十条中的制度制定贯穿数据产业链的全生命周期,提出核心的四项数据基础制度,包括数据产权制度、数据要素流通和交易制度、数据要素收益分配制度、数据要素治理制度。在这四项制度中,数据产权制度是基础,流通和交易制度是核心,收益分配制度是动力,治理制度是保障。这四项基础制度是我国数据经济可持续发展的“四梁八柱”,是数据要素发展的基石。2023年11月,由浙江省财政厅归口,浙江省标准化研究院牵头制定的《数据资产确认工作指南》省地方标准正式发布。该标准是国内首个针对数据资产确认制定的省级地方性标准,将于2023年12月5日起正式实施。工作指南明确规定初始确认(资产识别、确认条件判断、确认流程);变更确认(变更识别、变更判断、变更确认流程)、终止确认(终止识别、终止判断、终止确认流程)相关细节,在数据资源开发、数据要素市场化和产业化进程中强化标准实施应用,推进以标准为依据开展宏观调控、产业推进、行业管理、市场准入和质量监管。提出具体指导指南,为数据资产化落地提供支撑与助力。该标准的研制实施将填补数据资产确认标准空白,指引组织对其拥有或控制的数据资源进行确认为资产,将数据资源转化为数据资产,引导数据资产化进程,有利于破解数据资产确认难题,助推数据资产公共服务,促进数据资产交易流通,为加快数据资源开发提供标准化手段,为健全数据资产管理机制建设提供标准技术支持,为数据要素市场化配置改革提供标准技术支撑,有利于激活数据要素潜能。2023年11月23日,第二届全球数字贸易博览会召开,在数据要素治理与市场化论坛上,国家数据局党组书记、局长刘烈宏表示,目前国家数据局围绕数据要素市场化配置改革正在推进一系列重点工作,包括丰富完善数据基础数据体系、促进数据流通交易和开发利用推动数据基础设施建设、推进数据领域核心技术攻关、强化数据安全治理工作等,体现了顶层设计层面对数据要素的重视及发展数据要素的决心。2023年11月25日,2023全球数商大会在上海开幕,数据交易链正式启用,十省市实现“一地挂牌、全网互认”。数据交易链由上海数据交易所、浙江大数据交易中心、山东数据交易有限公司、广州数据交易所、广西北部湾大数据交易中心、西部数据交易中心、北方大数据交易中心等七家省级数据交易机构发起并建设联盟链共识节点。郑州数据交易中心、湖南大数据交易所、青岛大数据交易中心、苏州大数据交易所等省、市级交易机构作为第二批意向机构也积极申请加入,共同启动数据要素市场“可信通”计划,合作开展制度共创、标准共制、数链共推、服务共享、生态互联等工作。数据交易链的建立有助于打通数据流通环节,发挥数据要素价值最大化。我们认为,2024年在政策层面主要有三个方面的可能变化:第一,各个地方将围绕顶层设计进行一些具体实施层面政策的设计与执行。各省市已先后发布针对数据要素相关的政策规定,但大多数是建立在原本数字经济上的一些大方向政策,往往体现在数据价值的前两次释放,对于涉及数据价值第三次价值释放的流通交易具体措施上布局较少。随着国家层面对数据要素动作不断,今年以来,各地方逐步开始发布一些具体执行层面的细则,例如公共数据的共享、数据交易以及数据产权登记等。但这些依然集中在北上广深等经济较为发达地区的一些暂行办法与草案,数据要素执行层面的政策将逐步下沉。第二,政策将围绕具体行业领域进行细化,例如金融、交通、医疗、教育等,加速行业层面应用落地。第三,目前仍然处于不明晰或者探索阶段的领域,例如数据的确权、评估计价、交易、数据资产融资的细则将伴随具体实施不断细化。(三)数据要素迎三次价值释放,数据资本空间预计可达30万亿数据资源的价值可量化将使得2024年成为数据要素三次价值释放的元年。伴随着数据交易的活跃,数据由机构内部向外部流转,更好地流入需求方,促进数据价值最大化。此外,数据的流通将促进全新的应用场景与技术出现与活跃,盘活数据要素市场生态。根据信通院定义,数据技术发展有三大阶段:(1)第一阶段:数据技术支撑业务贯通。在此阶段,数据主要来自于业务运转,在不同的业务系统中进行共享及流通,在此阶段数据技术主要支撑数据的事务处理,以文件系统、数据库等技术为代表。此阶段减少了信息的传递成本,提升了运营效率。(2)第二阶段:数据技术推动数智决策。数据经过挖掘、清洗、筛选并嵌套入相应场景,实现业务的智慧化、智能化决策。在此阶段数据技术以数据仓库、数据湖以及湖仓一体等技术为代表,以支撑数据的分析、治理等工作。(3)第三阶段:数据技术进入可信流通对外赋能阶段。在这一时期,数据不仅在企业内部流转,也将会通过流通发挥更大价值,实现多方共赢。数据技术将推动各行业从“有数可用”到“数尽其用”,全场景智能、跨领域协同、数据流通跨域安全管控成为新阶段的发展目标,推动数据要素价值不断向更多应用场景拓展。技术方面以相对匿名化、隐私计算、区块链、全密态数据库以及防篡改数据库等技术为代表,以支撑数据要素可信流通。三次价值释放循序渐进,后一次以前一次为基础。目前,我国前两次数据价值释放环境已渐趋成熟。我们认为,第三次价值释放不同以往,侧重于数据从企业内部向外部的流通,使得数据从供应方更好地流转到需求方,使得数据作为生产要素的生产效率与价值最大化。此外,三次价值释放将衍生出全新数据相关技术,产业链进一步丰富与完善。数字要素市场空间测算:根据清华大学社科院刘雄涛教授等人根据增值法对数据资本的测算所得,2020年,我国数据资本存量约为17.4万亿。本报告基于该测算做如下假设,并测算十四五期间数据资本预测值:(1)假设2023-2025年GDP增速为5.2%、5.2%、4.7%;(2)假设2021-2025年数据资本存量占GDP比重的增速为5%、5%、6%、10%、10%。基于以上假设的测算结果为:预计2023-2025年,我国数据资本空间约为26.6万亿、30.8万亿、35.5万亿元,增速为12%、16%、15%。(四)细分投资机会解析:贯穿全产业链的价值“显性化”数据要素方向建议重点关注:1)数据资产化的确权、定价等政策落地时点;2)国资云厂商;3)拥有各类数据资产(例如时空数据要素、政府或数据运营权的企业;4)数据治理、数据安全、数据复制与灾备等服务提供商。数据要素市场从产业链角度来看,主要包括底层的基础设施、数据要素的治理与服务、上层的应用,以及贯穿全产业链的数据服务,主要包括数据的安全服务、数据的流通交易、数据的流通服务。数据要素基础设施主要涵盖提供计算、存储与网络的物理数据中心,和用于数据采集的物理设备等;数据要素的治理主要包括数据的采集、标注、治理、加工、分析、可视化、商业智能等;数据要素的应用主要体现在个人、政府与千行百业。数据安全服务主要包括数据的容灾与备份、数据防泄漏、隐私计算、文档安全、数据库安全、数据脱敏、数据分类分级、大数据保护、数据安全合规检测等。数据流通交易主要涵盖数据交易(数据产品的交易、数据中间态交易、原始数据交易、共性服务交易)、数据开放(政府数据开放、公共数据开放、行业开放共享平台)、数据共享(政府间与政府内数据共享、企业内部数据共享)。数据流通服务涵盖数商服务(数据产品开发利用、数据资产开发利用)、专业服务(数据集成、合规认证、数据托管、资产评估、风险评估、人才培训、数据公证等)、运营服务(公共/企业/个人数据运营)。我们认为,2024年有望有边际变化的主要有以下几个领域:数据的备份与灾备市场在信创、数据要素与云计算推进下,加速。我国灾备行业起步较晚,主要以国外厂商为主。根据IDC统计,2021年国内数据复制与保护的纯软件市场中,前五大供应商分别为Veritas、DELL、英方软件、Commvault和华为,市场占有率分别为16.0%、13.1%、10.2%、8.5%和8.3%,海外厂商占比接近40%。2022H1,国内数据复制保护总体市场中除华为凭借硬件销售占据第一外,戴尔科技和Veritas依然分列二、三位。此外,随着云服务器渗透率的提升,灾备即服务(DRaaS)的新模式高速增长。根据MarketsandMarkets发布的市场研究报告显示,全球DRaaS市场规模预计将从2020年的51亿美元增长到2025年的146亿美元,年复合增长23.4%。数据的治理与加工将同时受益于AI与数据要素产业而蓬勃发展。要实现数据的流通,数据治理不可或缺,此外,高质量与大规模的数据集同样是AI大模型的突破的关键点。目前国内数据资源丰富,从总量来说具备优势,但由于数据挖掘不足,数据无法自由在市场上流通,数据的清洗与标注产业链不够完善等现状,优质数据集仍然稀缺。高质量数据集离不开数据的治理,数据治理市场空间广阔。根据艾瑞数据显示,2021年,中国面向人工智能的数据治理规模约为40亿元,2026年规模突破百亿达105亿元,五年CAGR达到21.3%;中国的数据治理市场规模约为121亿元,预计2026年市场规模达到294亿元,五年CAGR为19.5%。数据治理离不开高质量的数据采集与标注。从AI的数据治理产业链图谱来看,上游主要为数据的提供方,下游主要为数据的最终应用方。应用于AI模型的训练与推理的数据主要由中游基础数据服务商进行采集与标注,数据治理平台进行数据的优化治理。数据确权是数据要素流通交易与发展的基础,产业落地有望加速发展。根据“数据二十条”,首先推动数据处理者开发利用原始数据,其次支持其行使数据应用权利,从而充分利用数据价值、促进数据流通。在数据的权益保护与分置上,主要涉及两大参与方,即数据来源者和数据处理者。针对数据来源者,享有获取或复制转移由其促成产生数据的权益。针对数据处理者,其权益对应“三权”,即:保护其对持有的数据进行自主管控的权益(数据资源持有权);承认和保护其获取的数据加工使用权,保障其使用数据和获得收益的权利(数据加工使用权);保护经加工、分析等形成数据或数据衍生产品的经营权,许可他人使用数据或数据衍生产品的权利,流转数据相关财产性权益等(数据产品经营权)。目前,在产业端已经有相应的探索与落地。人民网旗下人民数据按照“数据二十条”中提到的三权分置发放数据要素“三证”—“数据资源持有权证书”“数据加工使用权证书”“数据产品经营权证书”。“三证”基于人民链Baas服务平台(2.0版本),进行确权、上链、存证、交易服务工作。“三证”主要旨在统一和连接各级党政机关和大数据交易所之间相对分散的数据,形成全国性的数据交易服务平台,同时解决数据权利不明晰的问题。主线三:算法侧,大模型从云到端,2024年手机有望搭载生成式AI(一)云端大模型持续升级,云人工智能市场五年CAGR有望达32.37%1、海外大厂积极布局云端,明年预计发布多个大模型OpenAI明年上半年预计发布GPT-5,Meta预计已在开发比GPT4更强大的开源大模型Llama3。大模型从云到端持续推进,云端继续升级,终端大模型呼之欲出。算力方面,OpenAI表示已收到H100,预计后续订单将顺利执行;数据方面,据OpenAI透露,GPT-5参数量是GPT-4的10倍,GPT-5训练数据来源于互联网数据集和公司专有数据,包括开源和私有数据,涵盖各种数据类型,如文本、图像、音频和视频,将支持更多种类的输入和输出。OpenAI表示,GPT-5的终极目标是实现类似人脑的超级AI,最终实现AGI(ArtificialGeneralIntelligence)。2023年11月,Meta称正在研发Llama3,预计将于2024年上半年亮相。Llama3被猜测可与GPT-4相匹敌,能够支持生成精密文本、分析和其他输出性服务,并计划保持开源免费。2、云服务产品市场持续扩容,云人工智能市场未来五年CAGR有望达32.37%据MordorIntelligence预计,云人工智能市场规模将从2023年的510.4亿美元增长到2028年的2074亿美元,预测期内(2023-2028年)复合年增长率为32.37%。随着企业数量的不断增加以及企业之间的竞争,企业正在积极尝试将人工智能技术与其应用、分析、业务和服务相集成。此外,将公司致力于降低运营成本以提高利润率,推动云端人工智能快速发展,进一步推动预测期内的市场规模增长。3、MaaS加速发展,云端AI渗透率预期稳增随着ChatGPT引爆大模型市场,MaaS(ModelasaService,模型即服务),成为继SaaS(SoftwareasaService)、IaaS(InfrastructureasaService)、PaaS(Platformasaservice)之后的新型云服务方式。MaaS将人工智能大模型变成可服务化的产品,用户无需自建底层基础设施,只需通过API接口调用即可使用大模型服务,MaaS通常有推理、微调、深入开发三种服务方式,降低使用门槛的同时也可以大幅提高大模型的使用效率。科技厂商MaaS商业模式主要分为三种:1、订阅制模式:将模型产品化并通过提供增值服务获取收入,例如ChatGPTPlus;2、嵌入其他产品获得引流式收入:例如微软Microsoft365服务全面接入AI驱动工具Copilot,其由OpenAI的GPT-4技术驱动,出现在Microsoft365的侧边栏,可作为聊天机器人随时召唤,带来更智能、更高效的办公体验的同时,获得引流式收入;3、API服务调用或定制开发:如文心千帆大模型平台,是面向企业开发者的一站式大模型开发及服务运行平台,提供基于文心一言底层模型(ErnieBot)的数据管理、自动化模型定制微调以及预测服务云端部署一站式大模型定制服务。海内外巨头纷纷持续开发大模型云端应用,微软从11月1日开始向核心大公司出售Microsoft365Copilot。微软公开表示,随着B端新产品不断推出,未来有望持续提升AI产品转化率及ARPU值。微软的AI业务营收将以整个行业史上最快的速度达到100亿美元规模。此前,微软宣布其MaaS+SaaS结合产品365Copilot30美元/月的定价,目前用户对此价格反馈符合预期;Microsoft365拥有1.6亿用户群,B端用户是微软AI业务增长的主要驱动力。除此之外,BingChat企业版基于Copilot构建Microsoft并添加商业数据保护,因此可以确信业务数据受到保护,并不会被泄漏到外部。使用BingChat企业版,不会保存聊天数据,Microsoft没有监视访问权限,并数据不会用于训练大型语言模型。2023年6月19日,腾讯云首次正式公布行业大模型,并发布面向B端客户的腾讯云MaaS服务解决方案。腾讯云MaaS是基于TI平台打造的行业大模型商店,覆盖金融、文旅、政务、传媒、教育等10个行业,提供超50个解决方案。在模型基础上,用户只需加入现有的场景数据,即可快速生成专属模型。通过TI平台以及模型私有化部署、权限管控和数据加密等方式,腾讯云可帮助开发者和企业客户解决数据安全和隐私方面的问题。另外,与微软类似,腾讯云MaaS将加持SaaS产品发展,对现有SaaS产品进行智能化升级,包括腾讯会议、腾讯企点智能客服、AI代码助手等;腾讯会议AI小助手可实现在会前、会中、会后的全流程服务。(二)边云算法协同发展,推动大模型终端侧落地1、边缘智能向五大方向全面优化,算法支持边缘计算效率提升大模型时代,从云到端(边缘侧)算法不断优化升级,其中边缘智能优化方向包括五大方面,包括边云协同、模型分割、模型压缩、减少冗余数据传输以及轻量级加速体系结构。其中,边云协同、模型分割、模型压缩能够减少边缘智能对于计算、存储和设备的需求;减少冗余数据传输以改善传输效率,降低网络资源浪费;轻量级加速体系结构将在硬件和应用方面支持边缘计算效率提升。边云协同云计算和边缘计算相结合,将数据和计算资源分布在云端和边缘设备,实现数据的高效处理和传输。云边协同优势明显,1)充分利用云端强大的计算资源;2)在需要实时响应或者断网情况下可借助本地设备完成任务;3)保证数据安全性。2023年8月,KubeEdgeSIGAI发布KubeEdgeSednav0.6及Ianvsv0.2,全面提升边云协同终身学习的能力和性能;升级三大功能,包括支持图片视频等非结构化数据场景、提供全面基准测试套件和具备未知任务识别与处理能力。模型分割将大量的计算任务分解成不同的部分,把部分或全部计算任务推到边缘,利用不同设备协同解决问题,能够获得更好的端到端延迟性能和能源效率。常见的分割方法包括水平分割和垂直分割,水平分割即沿端-边-云进行分割,垂直分割是将层进行融合,以网格的方式进行垂直分区。这种终端与边缘设备协同的方法能有效降低深度学习模型的推断时延,但不同的模型切分点将导致不同的计算时间,因此如何选择最佳的模型切分点是模型分割的关键。模型裁剪可在不影响准确度的条件下对模型“剪枝”,从而减少对计算、存储等方面的需求。深度学习网络模型在训练过程中形成大量冗余参数,影响模型运行效率。通过模型裁剪去除冗余参数,并不会影响模型的表达能力。在工业视觉识别系统领域,模型裁剪技术已实现应用:利用权重剪裁和迭代裁剪技巧,将提高生产自动化水平和装备运行效率和稳定性等,有利于推动AI与边缘计算在工业视觉识别系统的深度融合。减少冗余数据传输通过边云协同、模型压缩、模型共享和边缘缓存方面实现。
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 环境艺术设计与可持续发展的协同实践
- 汇报沟通职场中的软实力
- 未来商业发展趋势与市场分析
- 生产线工艺改进的思路与实践案例
- 吊装工程专项方案
- “比赛场次”(说课稿)-2024-2025学年六年级数学上册北师大版
- 《7 栽小葱》(说课稿)三年级下册科学苏教版
- Module 1 Unit 2 I'm Danny(说课稿)-2024-2025学年牛津上海版(试用本)英语二年级上册
- Unit3 What would you like?(说课稿)-2024-2025学年人教PEP版英语五年级上册001
- 16 宇宙的另一边 说课稿-2023-2024学年语文三年级下册统编版
- 医院电梯引导服务方案
- 远视储备培训课件
- 岭南膏方规范
- 【可行性报告】2023年虚拟演播室制作设备相关行业可行性分析报告
- 世界老年人跌倒的预防和管理指南解读及跌倒应急处理-
- GB/T 7251.2-2023低压成套开关设备和控制设备第2部分:成套电力开关和控制设备
- 四川省地图模板含市县图课件
- 带拼音生字本模板(可A4打印)
- 小学语文必备文学常识常考100题汇总(含答案)
- 英语人教版高中必修三(2019新编)第一单元教案
- 超高大截面框架柱成型质量控制
评论
0/150
提交评论