AI PC和AI手机市场分析_第1页
AI PC和AI手机市场分析_第2页
AI PC和AI手机市场分析_第3页
AI PC和AI手机市场分析_第4页
AI PC和AI手机市场分析_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

AIPC和AI手机市场分析一、PC/手机发展史及AIPC/手机必要性的探讨AIPC/手机作为端侧相较于云端能够解决数据安全、延迟等问题AIPC/手机作为端侧大模型解决方案,能够帮助解决数据安全及隐私泄露等问题。对个人用户而言,可通过访问本地数据形成其数字孪生,大模型成为用户的个性化助理;对企业用户而言,可通过公司内网访问企业数据库以实现智能化协同办公。云端通用模型不具备服务某一领域的能力,需要接入数据后才具有专业能力,这意味着企业为获得行业模型,须将关键性资产——数据上传至云端,而一旦训练完成的模型被全行业共享,则意味着一定程度上企业竞争壁垒的消弭,由此催生出各企业在数据墙内训练专用模型的需求,AIPC/手机应运而生。绝大多数应用场景下用户对推理的时效性要求较高,在云端进行推理再将结果传回端和边缘因物理距离而不可避免存在延迟,AIPC/手机直接面向终端用户,因此能很大程度上缓解这一问题,为用户带来更好的使用体验。AIPC/手机作为去中心化的服务模式能够帮助云端分担算力成本将大模型部署在端侧和边缘可能会带来公有云、私有云和本地数据中心市场需求,以及云、端和边缘算力的平衡。生成式AI在诞生之初主要通过云端以付费API接口的形式向用户提供服务,过去市场对算力的关注多集中于云服务提供商以及大模型训练阶段,但云端算力相对有限,在高峰期难以满足所有用户的推理需求,因而提高端侧和边缘算力,为推理加速成为市场新的焦点。通过智能终端(如AIPC/手机)和边缘设备为云端分担算力成本或使云、端、边缘算力需求走向平衡。基于渗透率对AIPC出货量及增量收入空间的测算我们基于渗透率对AIPC的出货量进行测算,据Canalys,2024年全年PC出货量预计将达到2.67亿台,我们参考这一数据对PC出货量进行情景假设,在四种不同情景下分别为2.4/2.6/2.8/3.0亿台;同样对AIPC渗透率进行情景假设,在七种不同情景下分别为5%/10%/20%/30%/40%/50%/60%。通过测算可知,AIPC出货量区间为0.12~1.80亿台。对AIPC的提价水平进行假设,在AIPC提价1000元/台和1500元/台两种不同情景下的增量市场空间分别为120~1800亿元及180~2700亿元。二、从硬件角度看AIPC/手机潜在的投资机会GPU发展史:诞生于专用性需求,作为辅助处理器执行并行计算任务像处理催生出专用处理器需求,GPU的设计初衷正是为了应对批量同类任务的高并行执行,随着工艺的发展,GPU开始不断在个人PC以及移动设备上普及,甚至于随着其性能呈指数级增长,独显势头渐起。NPU:诞生于神经网络计算的需求,相较于GPU同时兼顾专用性和能耗比NPU(NeuralnetworkProcessingUnit),即神经网络处理单元,可在电路层模拟人类神经元和突触,并用深度学习指令集直接处理大规模的神经元和突触,一条指令完成一组神经元的处理。相较于CPU和GPU的冯诺依曼结构,NPU通过突触权重实现存储和计算一体化,从而提高运行效率。NPU是ASIC芯片的一种,目前主要应用于深度学习和机器学习等人工智能任务。骁龙8Gen3让手机运行大模型提速,骁龙XElite助力高通切入AIPC赛道高通在2023骁龙技术峰会上发布用于AI手机的骁龙8Gen3和用于AIPC的骁龙XElite,率先成为同时抢占生成式AI应用落地的两个端侧赛道的芯片厂商。就手机端而言,搭载了骁龙8Gen3的手机运行StableDiffusion模型,只用0.6秒即在本地生成了一张图像,其相较于骁龙8Gen2的15秒很大程度上优化了移动终端生成式AI的推理速度;就PC端而言,高通开创性地推出骁龙XElite平台,该处理器不仅拓展了生成式AI应用的广度,也是高通强势切入PC市场的重要举措。PC搭载NPU成为AIPC时代开启的重要标志,叠加Windows系统迭代或将带来换机潮NPU作为人工智能相关任务专用引擎成为PC的核心零部件之一为AIGC在端侧落地打开可能性,是AI时代PC产品的重要革新。NPU相较于GPU拥有更优的能耗比,这意味着随着NPU在PC上普及,其与GPU的分工或将更加明确。此先作为图像处理专用芯片的GPU亦常用于深度学习相关领域,对矩阵加乘的并行计算能力使GPU在NPU之前一直是AI模型训练和推理倚赖的重要硬件单元。随着Transformer成为LLM的主流架构,并将CV和NLP这两个研究分支统一起来,神经网络成为构建AI模型的基本单元,NPU作为张量处理器能够在更短的时间内完成大规模神经网络计算任务,因而其相较于GPU是更适合人工智能相关任务的加速引擎。NPU将作为端侧重要的基础设施之一为PC端搭载大模型提供前提条件,其普及标志着AIPC时代的来临。为支持端侧运行高规格大模型,AIPC的散热模组可能会迎来重构散热能力是高算力芯片的一个主要瓶颈,随着搭载在AIPC和AI手机上的模型规格不断提升,NPU性能释放可能会更加激进,为配合硬件升级,相较于传统PC/手机,AIPC/手机可能会给出全新的散热解决方案。从数据中心来看,关键痛点是耗电和散热,在芯片的有限体积内,如何将高集成、高能量密度产生的热值和热效应准确计算并顺利排出,已经成为多源异构芯片3D封装中最具挑战性的问题。目前的消费电子终端,手机方面,不锈钢VC均热板开始逐渐取代铜VC均热板成为散热主力;PC的散热方案一般以组合的形式呈现,而散热模组(ThermalModule)从结构上看主要包括散热底座、热管、散热鳍片、散热风扇等物件。大模型在端侧落地或使AIPC/手机厂商成为这一服务模式下的流量入口大模型在端侧落地的主要受益方包括硬件(以NPU为主)设计制造商、大模型提供商以及终端设备(AIPC/手机)厂商,其中终端设备厂商作为唯一直接面向C端用户的角色,可能会成为这一服务模式下的流量入口。三、AIPC/手机产业链重点公司分析联想集团:率先推出首款AIPC概念机,预计将于2024年下半年推出2023年10月,联想集团在第九届联想创新科技大会上展示了其人工智能个人电脑(AIPC)产品,该产品预计将于2024年下半年推出。据联想官方,其AIPC能够创建个性化的本地知识库,并通过模型压缩技术运行个人大模型,实现用户与人工智能的自然交互。联想集团:发布AIPhone和功能性产品AITwin,后者同时赋能个人与企业用户就个人用户而言,AITwin被定义为用户在数字世界的延伸,其本质上是基于本地知识库生成的属于个人的专有大模型,其能够在最大范围内了解用户的思维方式并给出解决方案。由于AITwin只会被存储在本地化的设备或家庭服务器上,个人数据不会被共享或上传至公有云平台,因此用户的个人隐私和数据安全能够得到有效保护;企业级AITwin涵盖一系列企业级人工智能应用,其能够打通企业内部各类智能设备、边缘和私有云,联动各种企业级软件,综合和分析各类信息并给出最优建议。例如,企业级AITwin可以综合考虑企业的差旅政策、审批流程与员工的个人信息和偏好,为用户指定一个合理的计划。小米:计划在终端接入轻量化本地大模型,与WPSAI达成深度合作2023年4月,小米组建了AI大模型团队,在手机端测试了13亿参数的模型,同时小米语音助手“小爱同学”开始大模型版本内测,成为小米大模型的第一个应用。2023年8月,小米最新的一个13亿参数的大模型已经成功在手机本地跑通,部分场景可以媲美60亿参数模型在云端运行的结果;此外,小爱同学月活已超1.1亿,并升级AI大模型能力,开启邀请测试。2023年10月,WPSAI在小米14系列手机新品发布会上亮相,小米14系列手机用户可通过小米社区下载搭载WPSAI功能的专属版WPS。在小米14系列手机上,WPSAI支持输入主题一键生成PPT演示文稿,并且可以提供进一步细化调节的功能。2023年10月,小米1

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论