电子行业市场前景及投资研究报告:AI手机芯片最大端侧芯片市场_第1页
电子行业市场前景及投资研究报告:AI手机芯片最大端侧芯片市场_第2页
电子行业市场前景及投资研究报告:AI手机芯片最大端侧芯片市场_第3页
电子行业市场前景及投资研究报告:AI手机芯片最大端侧芯片市场_第4页
电子行业市场前景及投资研究报告:AI手机芯片最大端侧芯片市场_第5页
已阅读5页,还剩18页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

行业研究报告(优于大市,维持)AI手机芯片有望成为最大端侧芯片市场2024年7月28日摘要

1、AI手机高渗透率有望推动AI手机芯片发展。据Canalys预测2024年,全球16%的智能手机出货为AI手机,到2028年,这一比例将激增至54%。受消费者对AI助手和端侧处理等增强功能需求的推动,2023年至2028年间,

AI手机市场以63%

的年均复合增长率(CAGR)增长。我们认为AI手机的高渗透率将促进AI手机芯片发展。

2、AI手机芯片目前竞争者集中,有望成为AI端侧标杆性市场。经过我们梳理,目前布局AI手机芯片的厂商主要是原来5G手机芯片厂商苹果/高通/联发科等。目前AI技术的落地不断加速,而作为与每个人生活密切相关的智能手机品类,其也成为了AI技术在消费端应用落地的桥头堡,手机芯片AI能力的提升,势必会进一步催化AI技术的应用成熟。同时我们认为AI手机芯片有望成为最大端侧芯片市场。

投资建议:AI手机芯片有望树立端侧芯片标准,建议关注国内端侧芯片厂商。

风险提示:宏观经济下行;AI落地和渗透率不及预期;技术路线变更;行业竞争加剧。2概要3.目前大厂的进度3.1.1高通骁龙8Gen3芯片3.1.2高通骁龙XElite芯片与copilot+

PC3.2联发科天玑9300芯片3.3苹果M4芯片1.手机芯片发展历程1.1手机形态的发展史1.2苹果A系列手机芯片的时间线1.3手机厂商份额占比1.4智能手机销量逐渐停滞4.核心观点总结2.

AI手机及芯片被寄予厚望2.1AI手机成为新亮点2.2传统手机芯片的限制2.3NPU的发展与局限2.4SLM推动AI手机芯片进化2.5.1Phi-3与其他SLM以及LLM的对比2.5.2Phi-3部署于Apple

AI芯片上的测试2.6SLM的部署有望推动AI手机需求31.1

手机形态的发展史

1983年6月13日,美国的摩托罗拉公司推出了世界上第一台便携式手机,这台手机最长通话时间是一个小时,可以存储30个电话号码,后流入我国拥有别称“大哥大”。大哥大最早使用的是摩托罗拉生产的SC99878CFB

芯片、99T30

芯片、34C21芯片。大哥大

摩托罗拉

StarTAC

1995年首次推出的一款开创性手机。它因是最早的翻盖手机之一而闻名于世。这款标志性的设备以其紧凑的翻盖设计为未来的移动通信奠定了基础,彻底改变了整个行业。它使用了一款未具体公开的16位的单核处理器,具有1MB的SDRAM和1KB的内部储存空间。2G手机

2020年10

14日,苹果迎来了旗下首款

5G手机,iPhone12

,全系支持

5G网络。该机型应用了苹果A14芯片,提供

6个内核,分为

2个性能内核和

4个能效内核。A14采用

5纳米制造工艺,集成了

118

亿个晶体管和快速的

4核

GPU

16核神经引擎,最高可达到

11

TOPS。A14处理器性能的提升并没有以功耗的增加为代价,因为设计人员能够利用微架构的改进和新的工艺节点——与基于

7nm

工艺的

A13

相比,实际上达到了功耗持平或小幅降低。3-5G智能手机

2024年1月25日,三星电子面向中国市场正式推出新一代高端旗舰智能手机三星Galaxy

S24系列,通过创新的Galaxy

AI,三星GalaxyS24系列将AI优势引入智能手机,首发了高频版本的第三代骁龙8移动平台,其CPU的大核主频提升到3.39GHz,CPU主频提升到1.0GHz,理论上可以更高的瞬时频率对软件进行冷启动。高频版骁龙8

Gen3,借助三星的Galaxy

AI,充分利用了NPU芯片的强劲AI算力,让智能手机不再局限于应用本身的智能,而是上升到系统阶层,这一战略不仅是对产品的一次深刻革新,更是对“智能”手机概念的重新定义,让智能手机获得真正的智能。手机资料:个人图书馆,newsdeshi,phonemore,cengn,证券研究所4notebookcheck,

anandtech,快科技,三星官网,1.2苹果A系列手机芯片的时间线苹果A10Fusion芯片2016年苹果A9芯片2015年苹果A8芯片2014年苹果A7芯片2013年苹果A6芯片2012年苹果A5芯片2011年苹果A4芯片制程:16nm2010年制程:14~16nm架构:ARM

v8核心数量:2架构:ARM

v8核心数量:4制程:20nm制程:28nm晶体管数量:33亿架构:ARM

v8架构:ARM

v8晶体管数量:20亿核心数量:2制程:32nm架构:ARM

v7核心数量:2核心数量:2制程:32~45nm架构:ARM

v7核心数量:2晶体管数量:20亿晶体管数量:>10亿制程:45nm架构:ARM

v7核心数量:1资料CNMO,:维基百科,NotebookCheck,中关村在线,5证券研究所1.2苹果A系列手机芯片的时间线苹果A17Pro芯片2023年苹果A16仿生芯片2022年苹果A15仿生芯片2021年苹果A14仿生芯片2020年苹果A13仿生芯片2019年苹果A12仿生芯片2018年苹果A11仿生芯片制程:3nm2017年制程:4nm核心数量:6制程:5nm核心数量:6晶体管数量:190亿制程:5nm架构:ARM

v8核心数量:6晶体管数量:160亿架构:ARM

v8制程:7nm核心数量:6制程:7nm架构:ARM

v8核心数量:6晶体管数量:150亿晶体管数量:118亿制程:10nm架构:ARM

v8核心数量:6架构:ARM

v8核心数量:6晶体管数量:85亿晶体管数量:69亿晶体管数量:43亿资料究所:维基百科,ChipRebel,苹果官网,证券研61.3手机厂商份额占比

据IDC统计,2024年第一季度,智能手机市场份额前三为三星,苹果,小米,其份额分别为20.1%,17.5%,13.6%,而相对于2023年同期出货量变化为-0.5%、-5.1%、+33.7%。图:2023-24年第一季度全球智能手机厂商市场份额变化7资料:IDC,证券研究所1.4智能手机销量逐渐停滞

据Canalys数据,由于需求减少,2022

年全年厂商出货量不足

12

亿部,导致全年出货量下降

12%。

据下图可见自2018年到2023年,除2021年外,整体手机市场基本处于销量逐渐停滞。图:2014年-2023年全球智能手机销量8资料:Canalys,证券研究所1.4智能手机销量逐渐停滞

目前,全球智能手机市场已过了快速增长阶段,消费者更换手机的周期越来越长,设备创新趋同,智能手机市场日趋成熟。

我们认为,智能手机销量停滞的原因之一是手机性能的过剩,即消费者认为现有的智能手机功能和性能已经足够,导致更换手机的频率降低。Counterpoint的报告提到,虽然高端市场(如价格在600美元以上的手机)在增长,但整体市场增速放缓,部分原因是设备性能过剩和消费者换机周期延长。资料:Counterpoint

,证券研究所92.1AI手机成为新亮点

据Canalys数据,2024年,全球16%的智能手机出货为AI手机,到2028年,这一比例将激增至54%。受消费者对AI助手和端侧处理等增强功能需求的推动,2023年至2028年间,AI手机市场以63%

的年均复合增长率(CAGR)增长。预计这一转变将先出现在高端机型上,然后逐渐为中端智能手机所采用,反映出端侧生成式AI作为更普适性的先进技术渗透整体手机市场的趋势。图:AI手机市场关键数据图:AI手机市场份额预测资料:

Canalys,证券研究所102.2传统手机芯片的限制

尽管“AI+手机”展现出的潜力让市场为之兴奋,但从当下已发布的AI手机来看,AI功能还仅集中在图像处理、语音识别等方面,离理想中的AI手机仍存在差距。

当前,AI手机尚需解决的关键问题包括提升离线环境下AI处理能力、优化AI运算能效、延长电池寿命,以及加强AI决策的透明度和伦理规范等。理想的AI手机应具备全方位的智能感知与自主服务能力,能无缝融入用户生活并与各类智能设备联动。

这些

AI用例面临两大共同的关键挑战。第一,在功耗和散热受限的终端上使用通用

CPU和

GPU服务平台的不同需求,难以满足这些

AI用例严苛且多样化的计算需求。第二,这些

AI用例在不断演进,在功能完全固定的硬件上部署这些用例不切实际。因此,支持处理多样性的异构计算架构能够发挥每个处理器的优势,例如以

AI为中心定制设计的

NPU,以及

CPU和

GPU。每个处理器擅长不同的任务:CPU

擅长顺序控制和即时性,GPU适合并行数据流处理,NPU擅长标量、向量和张量数学运算,可用于核心AI工作负载。资料:21经济网,高通白皮书《通过NPU和异证券研究所11构计算开启端侧AI》,2.3NPU的发展与局限

NPU是面向机器学习和人工智能领域的专用加速芯片。相比CPU、GPU等通用芯片,NPU在电路层模拟了人类神经元和突触,针对AI计算涉及的大量神经网络模型进行特殊优化,能够以更高的效率、更低的能耗处理人工神经网络、随机森林等机器学习算法和深度学习模型。

NPU专为实现以低功耗加速

AI

推理而全新打造,其架构随着新

AI

算法、模型和用例的发展不断演进。Al

工作负载主要包括由标量、向量和张量数学组成的神经网络层计算以及非线性激活函数。优秀的

NPU设计能够为处理这些AI

工作负载做出正确的设计选择,与

AI

行业方向保持高度一致。图:NPU

随着不断变化的

AI用例和模型持续演进,实现高性能低功耗。12资料启端侧AI》,:中国电子报,高通白皮书《通过证券研究所NPU和异构计算开2.3NPU的发展与局限

在面向更多行业、更多场景的落地过程中,NPU的应用开发也出现了一些痛点。

NPU的使用难点在于如何能释放出有效的算力。想让NPU充分发挥性能,不能光靠堆积来实现,而要了解NPU的理论算力和实际应用算力。在此基础上,再对现有的编程模型进行优化,使其更好地适应NPU的并行处理架构。这需要开发者和工程师深入了解NPU的工作原理和特性。除了编程模型优化外,还需要对硬件设备本身进行优化,例如散热、功耗管理等。这些因素都会影响到NPU的实际性能和算力。

为了进一步实现NPU在AI

PC中的普及并释放出有效算力,还需要建设针对NPU的生态。由于缺乏统一的工具链,NPU在推理侧出现了硬件碎片化,增加了应用开发创新的代价和周期。另一方面,NPU处理AI模型的训练、推理时,涉及或产生大量数据,开发者对白盒软件、工具链的诉求越发迫切。图:Arm科技“周易”NPU软件开源计划资料:中国电子报,证券研究所132.4SLM推动AI手机芯片进化

在大模型发展趋缓的情况下,我们认为AI手机创新发展的重点在于软件生态和小模型,AI手机芯片作为小型语言模型的载体,是实现用户需求的关键。

小型语言模型(SLM)是一种轻量级的生成式人工智能模型。这里的“小型”指的是模型神经网络的大小、模型用于决策的参数数量以及模型训练的数据量。许多研究人员的共识是,参数少于

1亿的

语言模型被认为是小型模型,尽管定义可能有所不同。一些专家认为,参数少至

100

万至

1000

万的模型都属于小型模型,这与当今拥有数千亿参数的大型模型形成了鲜明对比。与大型语言模型(LLM)相比,SLM体积小,可以使用相对较小的数据集进行训练,需要的计算能力和内存更少,可以部署在移动设备上。图:SLM的战略性优势资料:Leewayhertz,winder

AI,证券研究所142.5.1Phi-3与其他SLM以及LLM的对比

微软的

Phi-3

模型是专为提高效率和性能而设计的小型语言模型

(SLM),拥有38

亿个参数,其结果与大型模型相比极具竞争力。Phi-3

具有资源效率高、可扩展性强和灵活性高的特点,适合部署在资源有限的设备上。尽管体积较小,但它通过数据集质量优化和有效参数利用,实现了与大型模型相当的性能。

在关键基准测试中,Phi-3型号明显优于相同尺寸和更大尺寸的语言型号(参见下面的基准测试数字,越高越好)。Phi-3-mini

比其两倍大小的模型表现更好,Phi-3-small和

Phi-3-medium则比更大的模型表现更好,包括

GPT-3.5T。图:Phi-3与其他SLM以及LLM的比较资料:

Microsoft

,证券研究所152.5.2Phi-3部署于Apple

AI芯片上的测试

Phi3-mini是可在手机本地运行的高性能语言模型。由于体积小,它可以量化到4bit,因此只占用

1.8GB

的内存。该论文作者在配备

A16

Bionic

芯片的iPhone

14

上部署了Phi-3-mini,在原生设备上完全离线运行,测试了量化后的模型,每秒可生成超过

12

个tokens。图:

Phi-3-mini

在配备

A16

Bionic

芯片的

iPhone上原生运行资料:《A

Highly

Capable

Language

Model证券研究所16Locally

on

Your

Phone》

Microsoft,2.6SLM的部署有望推动AI手机需求

我们认为目前手机芯片只体现出部分AI功能,并没有颠覆式的使用体验,AI体验并不完善。自

ChatGPT

推出以来,使用大型语言模型(LLM)构建产品的需求激增。Nvidia

GPU(尤其是其A100

H100芯片)在市场份额中占据主导地位。据Tomshardware援引Financial

Times预测,

2024

Nvidia

H100的出货量将在

150

万片到

200万片之间,比2023年预计的

50万片大幅增加。图:Nvidia数据中心硬件收入图:Nvidia

H100

GPU

出货量预测资料:Tomshardware,Towards

AI,证券研究所173.1.1高通骁龙8Gen3芯片

高通骁龙8Gen3芯片是针对终端上的生成式人工智能而开发的高通首个支持多模式生成式人工智能模型的人工智能引擎。

Gen3支持仅在边端设备上运行的大型语言模型

(LLM)、语言视觉模型

(LVM)

和基于变压器网络的自动语音识别(ASR)。图:骁龙8Gen3芯片性能介绍18资料:

Qualcomm,证券研究所3.1.2高通骁龙X

Elite与Copilot+

PC

(Copilot+

PC)引入了全新的系统架构,将CPU、GPU

以及全新的高性能神经处理单元

(NPU)

的强大功能结合在一起。与Azure云中运行的大型语言模型(LLM)

和小型语言模型

(SLM)

相连接并得到增强,Copilot+

PC现在可以达到前所未有的性能水平。在运行人工智能工作负载方面,它们的性能提高了

20倍,效率提高了

100

倍,并提供了业界领先的人工智能加速功能。

Copilot+

PC利用功能强大的处理器和多种先进的人工智能模型(包括多个微软的世界级

SLM),可以直接在设备上本地运行。这消除了以前在延迟、成本甚至隐私等方面的限制,能帮助用户提高工作效率、创造力和沟通效率。图:搭载骁龙X

Elite和骁龙X

Plus的Copilot+

PC19资料:Qualcomm,

Microsoft,证券研究所3.2联发科天玑9300芯片

联发科天玑9300芯片充分利用了今年业界一直追求的人工智能生成技术的进步。其搭载的引擎即联发科第

7

代NPU架构内建硬件级的生成式AI引擎,能够实现更快速且安全的边缘

AI计算。与骁龙

8

Gen

3一样,天玑9300的APU

790

AI处理器也从该品牌的

A

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论