计算机行业2024年市场前景及投资研究报告:大模型能力日新月异AI重塑各行各业_第1页
计算机行业2024年市场前景及投资研究报告:大模型能力日新月异AI重塑各行各业_第2页
计算机行业2024年市场前景及投资研究报告:大模型能力日新月异AI重塑各行各业_第3页
计算机行业2024年市场前景及投资研究报告:大模型能力日新月异AI重塑各行各业_第4页
计算机行业2024年市场前景及投资研究报告:大模型能力日新月异AI重塑各行各业_第5页
已阅读5页,还剩61页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

证券研究报告

|

2023年12月22日计算机2023年12月暨2024年度策略:大模型能力日新月异,AI将重塑各行各业行业研究

·

深度报告投资评级:超配(维持评级)报告摘要

AI大模型迭代迅速。大模型在参数量、训练数据量以及训练轮数方面均有提升,新一代多模态大模型如GPT-4V和Gemini拓展了大语言模型的能力边界,展示出多样化任务的处理能力。随着基座模型的发展进入新阶段,模型功能迭代和应用生态构建同步进行,GPTs等Agent平台初步尝试全民定制个人AI应用,加速了使大语言模型成为“操作系统”的迭代。

全球AI算力市场快速增长,国产AI算力芯片迎来历史机遇期。模型参数量+训练数据量大幅提升,以及AI应用有望进入爆发式增长阶段,拉动算力需求喷发。根据Gartner数据,2022年全球AI芯片市场规模为442.2亿美金,预计2027年达到1194亿美金,对应22-27年CAGR为22.0%,市场规模快速增长。23年10月,美国收缩对华AI芯片出口,目前市场上主流AI芯片均在限制范围之内,国产AI算力芯片顺势超5万片,仅占整个市场10%左右份额,

空间广阔。。根据IDC数据,2023年上半年,中国本土AI芯片出货

AI边缘端有望率先落地,AI

PC和AI手机值得期待。混合AI架构能够在全球范围带来成本、能耗、性能、隐私、安全和个性化优势,是最优的解决方案;大模型小型化以及边缘侧AI算力芯片的发展,为混合AI方案的实现奠定了基础,AI

PC和AI手机将率先落地。

AI重塑各行业应用,商业化落地已逐步兑现。自动驾驶领域,以特斯拉FSD

V12为代表,端到端模型再次推动奇点临近。机器人领域,特斯拉和谷歌均已将大模型推向应用,工业领域应用加快。网络安全领域,国内外均将大模型引入安全运维,改变传统人工服务模式。金融领域,同花顺大模型探索已久,正打造金融大模型—问财HithinkGPT。教育领域,Duolingo

Max备受好评,佳发教育产品致力于将AI融入育人场景全过程、全要素场景。医疗领域,谷歌Med-PaLM

2成为行业标杆,润达医疗与云等合作开展了积极探索。办公领域,微软多应用实现Copilot落地,金山办公WPS

AI已全线接入,定价模式可期。

投资建议:关注AI产业持续催化机会,重点关注在AI各领域积极寻求突破的公司,维持“超配”评级。AI大模型日新月异背景下,对人类工作和生活的改变将逐步显现,我们仍认为以AI为核心寻找投资机会是市场主线。在大模型侧,重点关注科大讯飞,三六零;国产算力关注海光信息等;边缘端重点关注AI

PC、AI

手机产业链;应用端重点关注中科创达、宝信软件、深信服、同花顺、金山办公等。

风险提示:宏观经济下行风险;行业竞争加剧风险;AI大模型和算力等产业发展不及预期;AI相关政策推进不及预期。目录AI大模型:多模态方向延伸,视频模型迎来发展元年AI算力:国产算力迎历史机遇期0102AI边缘侧布局正当时,

AI

PC和手机值得期待AI重塑应用百态,商业落地逐步兑现0304投资建议:看好AI产业持续催化,维持“超配”评级05AI大模型:人工智能发展的新一里程碑•

AI大模型为人工智能发展的新一里程碑。以1956年达莱茅斯会议为起点,人工智能的发展历史可以归纳为四个阶段,随着互联网、云技术的兴起,人工智能逐步从符号主义向联结主义演进,整体呈现出波浪式前进态势。本轮人工智能由AI大模型推动,将迎来通用人工智能时代。••••阶段一(1956-1986年):基于推理逻辑和规则匹配技术的符号主义为主;阶段二(1987-2010年):联结主义复兴、神经网络崛起以及深度学习算法突破;阶段三(2011-2017年):联结主义为主,人工智能迎来深度学习的爆发期;阶段四(2018年-至今):大模型掀起第四次科技革命,迎来通用人工智能时代。AI大模型为人工智能发展的新一里程碑基于推理逻辑和规则匹配技术的符号主义为主联结主义复兴、神经网络崛起以及深度学习算法突破联结主义为主,人工智能迎来深度学习的爆发期大模型掀起第四次科技革命,迎来通用人工智能时代1956年1987年2011年2018年

1956年:达莱茅斯学院会议,人工智能元年;

1987-1993年:人工智能第二次低谷期,专家系统进入寒冬,神经网络技术重新获得重视;1994-2010年:人工智能第三次浪潮,机器学习、自然语言处理、计算机视觉、推理及知识表示、强化学习等在这一时期出现了很多新的算法和应用。

2011-2017年:人工智能第四次浪潮,也是人工智能深度学习的爆发期,随着计算机技术的发展,人工智能技术得到了快速的普及和提升;深度学习领域:神经网络等技术的发展使得机器能够从海量的数据中自动提取特征和规律,并进行智能决策和推理;

2018年-至今:人工智能第五次浪潮,以人工智能大模型的提出和ChatGPT技术的突破为标志;大模型技术:具备了更高的水平的自然语言处理和生成能力,能够从大量的数据中提取知识,并将其应用于各种实际场所,为通用人工智能技术带来希望和路径;

1956-1974年:人工智能第一次浪潮,尝试将人类思维方式和语言能力转化为计算机程序,提出很多理论和方法;1974-1980年:人工智能第一次低谷期,投入下降;1980-1986年:人工智能第二次浪潮,专家系统发展迎来高潮,利用专家知识提高AI系统的准确性和效率。

深度学习算法突破:2006年杰弗里·辛顿提出深度学习概念,开启了深度学习的热潮。AI领域拓展:自然语言处理、图像识别、语音识别、自动驾驶等;资料:田杰华,易欢欢著-《通用人工智能》-中译出版社(2023)-P65、国信证券经济研究所整理AI大模型:发展趋势-参数量、数据量、训练轮数提升•

AI大模型能力的提升主要有三条路径:模型参数量的提升、训练数据量的提升以及训练轮数的提升。•

模型参数量的提升:以OpenAI的GPT模型为例,第一代GPT模型GPT-1的参数量仅有1.17亿,GPT-2参数量提升至15亿,GPT-3参数量进一步提升至1750亿,GPT-4的参数量应该达到万亿级别;模型代际之间参数量呈现指数级增长,大模型能力亦随模型参数量的增长而大幅提升;•

训练数据量的提升:1)语言模态训练数据量提升;2)多模态训练数据的加入:例如图片、视频等也作为训练数据,训练数据集大小大幅提升;•

训练轮数的提升:1)新模型:通过多轮训练,模型能力得到提升,但过多的训练亦会导致模型过拟合;2)已有模型:定期训练(每周、每月),对模型的能力和数据的时效性进行提升和更新。模型能力提升的路径18-23年,模型参数量持续增长增大模型方法优势劣势难度高可行性高(1)模型结构需要基于先验设计;增加模型参数

增加模型根本方法

(2)结构与参数需要复杂设计过程;(3)参数提升、工程训练难度随之提升;(1)增加数据是昂贵的行为;(2)数据增加训练数据能与模型解耦中低中低无法保证多样性和均一性;增加训练轮数

充分利用模型容量过多训练导致模型过拟合;资料:智源研究院、国信证券经济研究所整理资料:中国人工智能协会、国信证券经济研究所整理AI大模型:多模态是大模型的未来•

多模态模型是指将不同类型的数据(例如图像、文字、视频、语音等)结合起来进行分析处理的模型。其通过不同数据类型的相互关联和结合,可以大幅提高模型的准确性和鲁棒性,应用场景进一步拓展。其次,多模态更接近人类学习的模式,在物理世界中,人类认知一个事物并不是通过单一模态,例如认知一只宠物,可以从视觉(宠物形貌)、听觉(宠物叫声)、嗅觉(宠物体味)、触觉(宠物毛发、宠物体温等)等多模态全面立体认知,是未来人工智能的发展方向。•

多模态大模型分类:单塔结构和双塔结构。1)单塔结构:只利用一个深度神经网络来完成图像和文本之间的交互融合,本质上属于信息前融合方案;2)双塔结构:利用不同的神经网络来完成不同模态的信息抽取,然后仅在最后一层做信息交互和融合,属于信息后融合方案,具有模型独立性强,训练效率高等优势。•

头部厂商发力多模态大模型,看好多模态多模型未来。2023年下半年,多模态大模型发布频率加快,OpenAI率先发布GPT-4V,随后12月份谷歌发布原生多模态大模型Gemini,多模态大模型已经成为各大模型头部厂商发力的重点。多模态大模型双塔结构AI大模型逐步从单模态向多模态发展资料:、国信证券经济研究所整理资料:毕马威、国信证券经济研究所整理AI大模型:商业化落地加速,市场规模快速增长•

大模型商业化落地加速,市场规模快速增长。目前,大模型落地模型主要可分为三种,即大模型、大模型+算力、大模型+应用,其中大模型指企业用户可以直接买断大模型产品,也可以租用大模型(例如中软国际的模型工厂);大模型+算力指厂商将模型与算力进行组合销售;大模型+应用指厂商向企业用户销售融入了大模型能力的上层应用,要求用户支付软件授权费等。短期大模型+算力为主流的收费模式,后随着模型应用、生态的进一步完善,大模型+应用模式占比有望逐步提升。•

全球市场:根据钛媒体国际智库数据,2022年全球大模型市场规模108亿美金,预计2028年达到1095亿美金,对应22-28年CAGR为47%,全球大模型市场规模快速增长。•

中国市场:根据钛媒体国际智库数据,2022年中国大模型市场规模70亿人民币,预计2028年达到1179亿人民币,对应22-28年CAGR为60%,中国大模型市场规模快速增长,且快速全球市场。全球大模型市场规模快速增长中国大模型市场规模快速增长全球大模型市场规模(亿美元)中国大模型市场规模(亿人民币)12001000800600400200010951400120010008006004002000117988788062456636628031821021614710858702537152020202120222023E2024E2025E2026E2027E2028E2020202120222023E2024E2025E2026E2027E2028E资料:钛媒体国际智库、国信证券经济研究所整理资料:钛媒体国际智库、国信证券经济研究所整理GPT-4V:大语言模型边界拓展

GPT4V拓展了语言模型的边界,可处理多样化任务。OpenAI的GPT-4V模型代表了语言模型的一个重要扩展,它不仅融合了传统的文本处理能力,还加入了图像输入的处理功能,进而提供了更丰富的交互界面和新功能。这一进步使得GPT-4V能够处理更多样化的任务,增强了用户体验。图3:GPT-4V可以识别图片并处理

GPT-4V的技术基础仍然是GPT-4,保持了相同的训练过程,使用了大量互联网上的文本和图像数据,并结合了人类反馈强化学习(RLHF)来优化其输出。

在安全性方面,OpenAI为GPT-4V实施了严格的评估和缓解措施,包括专家红队测试和高拒绝回答率的安全限制,以防止敏感内容的生成。GPT-4V的OCR功能也得到了改进,以更准确地从像素中读取文本。

GPT-4V在处理多模态攻击和科学文献时仍存在挑战,特别是在医疗领域,不建议接受模型提供的任何医疗建议,因为它可能会产生幻觉,部分原因是OCR的不准确性。总的来说,GPT-4V在扩展AI的应用范围和提高用户体验方面迈出了重要一步,但在安全性和准确性方面仍需不断改进。资料:OpenAI,国信经济研究所整理Gemini:定义下一代AI的能力边界••与传统多模态模型相比,Gemini从一开始就被设计为原生多模态,更加直观和有效地整合不同类型的信息。过去,创建多模态模型的常规方法是训练不同模态的独立组件,然后将它们组合在一起,以模拟部分功能。这些模型在执行某些任务(例如描述图像)时表现良好,但在处理更概念化和复杂的推理时则常常遇到困难。•

Gemini从设计之初便作为一个原生多模态模型,对不同模态进行预训练。随后,我们通过额外的多模态数据进行微调,以进一步提高其有效性。这使Gemini能够从根本上无缝理解和推理各种输入,其能力在几乎每个领域都达到了最先进水平。如:1)复杂推理能力Gemini架构与过去的多模态模型不同Gemini

1.0具备的复杂多模态推理能力,可以帮助理解复杂的书面和视觉信息。这使其在从大量数据中发掘难以辨认的知识方面具有独特技能。其从数十万份文档中提取洞见的惊人能力,通过阅读、过滤和理解信息,将有助于在科学、金融等众多领域实现数字速度的新突破。2)理解文本、图像、音频等更多内容Gemini

1.0经过训练,能同时识别和理解文本、图像、音频等内容,因此它更能理解微妙的信息,并能回答涉及复杂主题的问题。这使其在解释数学和物理等复杂科目的推理方面表现尤为出色。3)高级编码能力Gemini

1.0能够理解、解释和生成Python、Java、C++和Go等世界上最流行的编程语言中的高质量代码。它在多语言处理和复杂信息推理方面的能力,使其成为世界领先的基础编码模型之一。资料:OpenAI、国信证券经济研究所整理Gemini:谷歌迄今能力最强的大模型•谷歌近期推出强大的通用模型“Gemini”,该模型在许多测试中表现优越。Gemini

1.0是由谷歌DeepMind开发的一款突破性的多模态AI模型,能够高效理解和处理文本、图像、音频等多种类型的数据。Gemini系列模型表现优秀••针对不同的需求和应用场景,Gemini模型推出三个规模:1)Gemini

Ultra:作为该系列最大型且功能最强大的模型,专为处理高度复杂的任务而设计;2)Gemini

Pro:最佳的多功能模型,适用于广泛的任务,能够实现高效的规模化应用;3)Gemini

Nano:作为该系

最高效的模型,专为移动设备上的任务而设计,体现了极致的便携性和应用灵活性。•Gemini系列模型在各种任务表现

超越了现有标准。特别是Gemini

Ultra,在32项广泛应用于大型语言模型(LLM)研究与开发的学术基准测试中,其性能在30项测试上超越了当前的最高水平。在MMLU(大规模多任务语言理解)测试中,Gemini

Ultra以90.0%的得分首次超越了人类专家。MMLU测试涵盖了57个科目,如数学、物理、历史、法律、医学和伦理学,旨在测试模型的世界知识和问题解决能力。Gemini

Ultra在新的MMMMU(多模态多任务理解)基准测试中也取得了59.4%的最高成绩,该测试包含跨不同领域的多模态任务,要求模型进行深思熟虑的推理。在图像基准测试中,Gemini

Ultra同样表现出色,超越了先前的最高水平,且无需依赖光学字符识别(OCR)系统从图像中提取文本进行进一步处理。这些基准测试突显了Gemini的本地多模态能力,并预示了其更复杂的推理能力的初步迹象。资料:谷歌官网、国信证券经济研究所整理多模态模型架构发生变化•

多模态模型架构发生变化。过去的模型多用Cross-attention,对于多模态任务,将图像与语言分别结合,实现图文信息的相互嵌入与问答。未来模型可采用的架构方式多样:如Merge-attention可将多个输入模态调整为同一的特征表示,多个模态的特征在自注意力之前被合并,共同进入Transformer;Tangled-transformer可使用使用三组

Transformer

模块同时处理动作、图形对象和语言特征,通过特定的三角连接关系,注入其他模态的

Transformer

网络,以不同模态的信息融合。多模态模型架构发生变化资料:reseachgate,国信证券经济研究所整理AIAgent:使大语言模型成为“操作系统”•大语言模型的能力迭代催化了AI

Agent。基座模型的发展正进入一个新阶段,其能力提升将由之前的快速增长转变为更加渐进式的发展。在这一阶段,基座模型厂商的重点将从模型的功能迭代转移到应用生态构建上,这表明了对更广泛应用和服务生态的重视和投入。•

AI

Agent使基座大模型成为模型的操作系统。人工智能代理(AI

Agent)是一种能够感知环境、做出决策并执行动作的智能实体。通过赋予大型语言模型(LLM)代理能力,AI

Agent能够自主地理解、规划并执行复杂任务,实质上成为一个控制LLM解决问题的系统。这不仅改变了传统的人机交互方式,而且是拓展大模型应用潜力的关键进化方向。随着基座模型提供更先进的开发工具和开源社区的持续创新,AIAgents预计将成为未来大模型应用的关键竞争领域。基座模型功能持续迭代,催化应用生态构建AI

Agent使基座模型成为模型的操作系统资料:OpenAI、国信证券经济研究所整理资料:OpenAI官网、国信证券经济研究所整理GPTs:OpenAI“Agent化”的尝试•OpenAI于近期推出GPTs,开启了AI应用的新时代。2023年11月6日,OpenAI

在旧金山成功举办了首届全球开发者大会“OpenAIDevDay”。在本次发布会上,OpenAI

推出了GPTs和Assistants

API。GPTs作为“零代码”AI代理方案,以及Assistants

API作为企业和开发者的定制化工具,都强调为用户提供根据个人需求和偏好定制的体验。这两种服务允许用户通过指定指令和功能要求来个性化定制AIAgent的行为和能力。这是OpenAI“Agent化”的初步尝试,开启了AI应用的新时代。•GPTs的前身为插件商店,旨在构建openAI自己的AI生态。OpenAI

曾在早期尝试过插件系统,这是GPTs的初步尝试。2023年5月,OpenAI开放了插件系统,首批就上线了学习、翻译、财务数据分析等领域的几十个应用,试图构建GPT的生态。尽管插件的数目不断增长,但是插件商店的影响力远不及预期,因此OpenAI重新梳理了应用商店的体系,做出新的尝试。不过一些较为复杂的插件产品,比如Zapier(用于日程管理等),未来仍可能是应用商店里的重要应用。OpenAI发布者大会推出GPTs/GPTstoreOpenAI的插件商店Pluginstore模型功能改进新推出GPT-4性能改进Turbo模型其他开发者支持发布GPT

Assistant

API发布GPTs\GPTs

storeOpenAI2023

DevDay针对开发者的改进提供侵权保护、双倍提高每分钟token限制等其他开发者支持ChatGPT改进资料:OpenAI、国信证券经济研究所整理资料:OpenAI官网、国信证券经济研究所整理Agent

落地:AutoGPT、AutoGen百花齐放•AutoGPT为代表的单Agent框架进行了早期探索和实验。23年3月ChatGPT开放API后,AutoGPT、BabyAGI等项目利用OpenAI

API、向量数据库以及学术届ReAct、Reflexion等思想构建Autonomous

Agent,其思想是让LLM像人一样有记忆、会使用工具、会规划和反思,自己提示自己,以此完成用户最初的指令。由此软件生产成本大幅降低,Agent可以作为一款符合用户需求的软件乃至操纵硬件更好满足人类需求。•AutoGen为代表的多Agent协作框架进一步打开Agent想象空间。23年4月Stanford

AI小镇展示了多个Agent协作能展现出一定的社交行为,人们开始探索多Agent分工协作能否带来1+1>2的效果,例如MetaGPT模仿软件公司分工直接产出可执行的软件。微软开源的AutoGen将多Agent协作固化为框架,例如助手Agent负责写代码,用户代理Agent负责将用户输入阐明成需求并执行代码,共同完成用户最初的意图Agent原理:利用记忆和工具,完成规划、执行和反思AutoGen设计多Agent协作以完成用户需求资料:Microsoft、国信证券经济研究所整理资料:BabyAGI、国信证券经济研究所整理目录AI大模型:多模态方向延伸,视频模型迎来发展元年AI算力:国产算力迎历史机遇期0102AI边缘侧布局正当时,

AI

PC和手机值得期待AI重塑应用百态,商业落地逐步兑现0304投资建议:看好AI产业持续催化,维持“超配”评级05大模型引发算力浪潮:训练数据量+参数量大幅提升,模型能力发生“涌现”•训练数据量+参数量大幅提升,模型能力发生“涌现”。根据2022年谷歌、斯坦福大学和Deepmind联合发表的《Emergent

Abilitiesof

LargeLanguage

Models》,很多新能力在中小模型上线性放大都得不到线性的增长,模型规模必须呈指数级增长并超过某个临界点,新技能才会突飞猛进。•参数量+训练数据量,双轮拉动算力需求增长。模型的参数量和数据量在一定程度下是正相关的,因为:a)在小规模数据上训练模型时,若模型参数量过大,可能出现过拟合情况;b)在大规模数据上训练模型时,若不增加模型参数量,可能造成新的知识无法存放的情况。更大的参数量和训练数据量,对应更大的算力消耗,双轮驱动算力需求增长。训练数据大幅提升后,模型能力“涌现”模型参数大幅提升后,模型能力“涌现”资料

:JasonWei等著-《EmergentAbilitiesofLargeLanguageModels》-TransactionsonMachineLearningResearch(2022)-P4、国信证券经济研究所整理资料

:JasonWei等著-《EmergentAbilitiesofLargeLanguageModels》-TransactionsonMachineLearningResearch(2022)-P27、国信证券经济研究所整理大模型引发算力浪潮:大模型训练+推理拉动算力需求快速增长•大模型训练+推理拉动算力需求快速增长。•模型迭代和数量增长拉动AI算力需求增长:从单个模型来看,模型能力持续提升依赖于更大的训练数据量和模型参数量,对应更高的算力需求;从模型的数量来看,模型种类多样化(文生图、文生视频)和各厂商自主模型的研发,均推动算力需求的增长。•未来AI应用爆发,推理侧算力需求快速增长:各厂商基于AI大模型开发各类AI应用,随着AI应用用户数量爆发,对应推理侧算力需求快速增长。•智能算力需求快速增长:从全球来看,根据中国信通院发布的《中国算力发展指数白皮书(2022年)》和《中国算力发展指数白皮书(2023年)》数据,22年全球智能算力约451EFlops(基于FP32计算),预计2030年全球智能算力规模将达到52.5ZFlops,全球智能算力快速增长;从国内来看,根据IDC和浪潮信息发布的《2023-2024国人工智能计算力发展评估报告》,22年中国智能算力规模为259.9EFlops(基于FP16计算),预计27年达到1117.4EFlops,对应22-27年CAGR为33.9%。全球智能算力快速增长中国智能算力快速增长智能算力(基于FP16计算,EFLOPS)智能算力(基于FP32计算,ZFLOPS)1200100080060040020001117.4605040302010052.50812.5616.6497.12024414.32023259.92022155.22021750.230.452021202220302020202520262027资料究所整理:《中国算力发展指数白皮书(2022年&2023年,中国信通院)》

、国信证券经济研资料

:《2023-2024国人工智能计算力发展评估报告(IDC&浪潮信息)》

、国信证券经济研究所整理大模型引发算力浪潮:国内千亿级别AI芯片市场,市场规模持续增长•全球AI芯片市场:受益于AI大模型的训练和推理带来的智能算力需求的增长,全球AI芯片市场规模持续增长,根据Gartner数据,2022年全球AI芯片市场规模为442.2亿美金(约3095亿人民币,按美元兑人民币汇率7.0来计),预计2027年达到1194亿美金,对应22-27年CAGR为22.0%。•国内AI芯片市场:国内互联网头部公司及部分AI创业公司训练国产AI大模型,同时基于中国高人口基数,推理侧算力需求强劲,拉动中国AI芯片市场持续增长。根据头豹产业研究院数据,2022年中国AI芯片市场954亿人民币,预计2025年达到1979亿人民币,对应22-25年CAGR为27.5%。22年全球AI芯片市场442.2亿美金22年中国AI芯片市场954亿人民币全球AI芯片市场规模(亿美元)中国AI芯片市场规模(亿人民币)14001200100080060040020002500200015001000500119419791581671.48534.451186954919442.2202202023E2024E2027E202120222023E2024E2025E资料:Gartner、国信证券经济研究所整理资料:头豹产业研究院、国信证券经济研究所整理国产算力迎历史机遇期:美国禁令,推动AI芯片国产化进程•海外巨头垄断国产AI芯片市场。根据IDC数据,2023年上半年,中国本土AI芯片出货超5万片,占整个市场10%左右份额,海外巨头(主要是英伟达)仍占据中国AI芯片市场主要市场份额。•美国禁令限制英伟达主流AI芯片对华出口,国产AI芯片迎来历史机遇期。本次法案新增两个政策(3A090a和3A090b),以TPP(计算公式:TPP=算力*位数)和PD(计算公式:PD=TPP/die

size)作为判定指标,满足任一政策,该芯片都将禁止对华出口,经测算,目前市场上主流AI芯片(A100、H100、A800、H800、L40S)均在限制范围之内,国产AI芯片迎来历史机遇期。AI芯片空间广阔美国禁令政策一:3A090a(美国禁令)1、TPP>48002、TPP>1600,且PD超过5.92政策二:3A090b(美国禁令)1、2400≤TPP<4800,且1.6≤PD<5.922、1600≤TPP,且3.2≤PD<5.9210%进口AI芯片出货国产AI芯片出货TF32算力TF16算力(TFLOPS)不满足出口要求TPPdie

size(mm2)PD(TFLOPS)A100A800H100H800L40S1563124,9924,9928268268148146096.046.0490%1563127561,5131,51336224,19224,1925,85629.7229.729.62756183资料:IDC、国信证券经济研究所整理资料所整理:

BIU(美国商务部工业和安全局)、英伟达、TechPowerUp

、国信证券经济研究英伟达:全球AI算力芯片龙头,性能+生态打造核心壁垒•

性能:全球领先。英伟达于20年5月发布新一代“Ampere”架构GPU——A100,采用7nm工艺,包含超过540亿个晶体管,配备了专用的硬件单元,包括通用算数核“CUDA核”和可以更快进行矩阵运算的第3代张量核,性能和能效大幅提升。英伟达22年3月发布新一代“Hopper”架构GPU——H100,采用4nm工艺,算力达到1,979TFLOPS(FP16),配合80GB显存、3.35TB/s显存带宽,借助NvLink交换机系统,最多可连接256个H100

GPU来完成训练,产品性能全球领先。•

生态:CUDA打造核心壁垒。CUDA是英伟达2006年11月推出的,用于发挥英伟达GPU通用计算能力的编程环境,支持CUDA

C和OpenCL等语言,计算效率高,常可加速十几倍到几十倍;同时CUDA深度优化多种深度学习基本运算指令,例如PyTorch、TensorFlow等主流的深度学习框架均提供了基于CUDA的GPU运算支持,并提供了更高层、更抽象的调用方式,方便用户编程;CUDA经过十七年的发展,成为英伟达GPU最核心的护城河。英伟达产品路线图:种类丰富,性能强大英伟达CUDA生态成为最核心的护城河资料:SemiAnalysis、国信证券经济研究所整理资料:英伟达官网、国信证券经济研究所整理AMD:芯片硬件指标领先,开源缩小生态差距•

AMD发布Instinct

MI300X,硬件指标全球领先。23年12月7日,AMD在其“Advancing

AI”大会上发布新一代AI算力芯片——MI300X,芯片采用CDNA

3架构,包含1530亿个晶体管,配备192GB

HBM3和5.3TB/s的显存带宽,产品硬件指标全球领先。•

通过开源手段,快速缩小生态差距。AMD自研生态——ROCm,定义为开放式软件平台,全面支持TensorFlow和PyTorch等主要机器学习框架,以帮助用户加速人工智能工作负载;AMD

与人工智能开放社区广泛合作,允许开发人员根据自己的需要自由定制和定制他们的GPU软件,同时与其他开发人员社区合作,以促进和扩展机器和深度学习功能和优化,以开源的方式,快速缩小与CUDA生态间的差距。AMD发布MI300X芯片通过开源手段,快速缩小与英伟达的生态差距资料:AMD官网、国信证券经济研究所整理资料:AMD官网,国信证券经济研究所整理海思:国产AI算力领导者,全栈AI软硬件平台能力•

独创达芬奇架构,国产AI算力领导者。海思昇腾针对深度神经网络运算特征,以高性能3D

Cube矩阵计算单元为基础,自研达芬奇架构,实现算力和能效比的大幅提升;同时,处理器内部还支持多维计算模式(如标量、矢量和张量等),打破了传统AI

Asic芯片的局限,增加了计算的灵活性。海思于2019年发布昇腾910

AI训练芯片,主要面向云端训练,算力达到256TFLOPS(FP16),单芯片计算密度国内领先,为国产AI算力的领导者。•

全栈AI软硬件平台能力,合作伙伴众多。海思昇腾软硬件全栈包括Atlas系列硬件、异构计算架构、AI框架、应用使能、行业应用,拥有从底层硬件到顶层应用使能的人工智能全栈能力。昇腾合作伙伴包括整机硬件伙伴、IHV硬件伙伴、应用软件伙伴、一体机解决方案伙伴、生态运营伙伴,合作伙伴数量众多,软硬件生态快速发展,打造核心竞争力。昇腾独创达芬奇架构昇腾全栈AI软硬件平台资料:海思发布会、国信证券经济研究所整理资料:海思官网,国信证券经济研究所整理海光信息:生态+性价比优势,产品快速迭代•

生态优势:兼容CUDA。海光DCU产品为GPGPU架构,可以全面兼容ROCm

GPU生态,由于ROCm和CUDA在生态、编程环境等方面具备高度的相似性,CUDA用户可以以较低的成本快速迁移到ROCm平台,因此,公司DCU产品能够较好地适配国际主流商业计算软件和AI软件,软硬件生态丰富,可广泛应用于AI、大数据等计算密集类应用,生态优势明显。•

性价比优势:公司深算一号于2021年上半年开始小规模批量生产,我们选取同时期(或相近时期)海外巨头AI芯片产品作为对比(此处选取英伟达A100和AMD

MI100作为对照组),英伟达A100性能指标领先,在核心数量、显存容量、显存位宽、显存带宽等参数均领先于同时期竞品,公司深算一号产品在制程、内核频率、显存容量、显存位宽、显存带宽等指标基本追平AMD

MI100产品,而公司产品平均售价仅1.93万人民币/颗,大幅低于AMD

MI100售价,公司DCU产品具有性价比优势。•

产品快速迭代:公司18年开始发力AI算力芯片,深算一号21年成功量产,深算二号23年实现商业化,预计24年发布深算三号产品,产品快速迭代。海光信息软硬一体化生态,兼容CUDA产品具有性价比优势人工智能应用国内典型异构应用主流学习框架其他应用…单价(万人民币)框架及应用库函数65432105数学库(hipBLAS,hipRand,hipFFT…)MIOpenEigenRCCLhipsparseOpenMPI3.2编译器驱动与工具硬件LLVM编译器OpenCLHIP异构编程接口1.93驱动程序/vBios/APIRunTime调试工具海光x86中央处理器海光深度计算处理器AMDMI300英伟达A100海光深算一号资料:海光信息官网、国信证券经济研究所整理资料

:《海光信息——发行人及保荐机构关于第二轮审核问询函的回复》,国信证券经济研究所整理(注:该价格为22年市场价,23年英伟达和AMD产品价格有大幅提升)寒武纪:云、边、终端三位协同,产品矩阵丰富•

云、边、终端三位协同——硬件层面:寒武纪致力于全算力布局,开发边缘侧、云端推理、云端训练、车载领域AI算力芯片,芯片算力覆盖范围广,广泛应用于服务器厂商和产业公司,面向互联网、金融、交通、能源、电力和制造等领域的复杂AI应用场景提供AI算力支持,推动AI赋能产业升级。•

云、边、终端三位协同——软件层面:寒武纪针对云、边、端的智能处理器产品打造基础软件平台,采用云边端一体、训推一体架构,可同时支持寒武纪云、边、端的全系列产品;同时,寒武纪终端IP、边缘端芯片、云端芯片共享同样的软件接口和完备生态,可以方便地进行智能应用的开发,迁移和调优。云、边、终端三位协同,产品矩阵丰富资料:《寒武纪——2022年度社会责任报告》,国信证券经济研究所整理目录AI大模型:多模态方向延伸,视频模型迎来发展元年AI算力:国产算力迎历史机遇期0102AI边缘侧布局正当时,

AI

PC和手机值得期待AI重塑应用百态,商业落地逐步兑现0304投资建议:看好AI产业持续催化,维持“超配”评级05边缘侧布局正当时:基于成本、时延、隐私的考量•节约成本是端侧AI主要推动因素。随着生成式AI模型使用量和复杂度的不断增长,推理成本持续提升,将部分推理从云端迁移到边缘终端,可以减轻云基础设施的压力并减少开支,进而支持OEM厂商、独立软件开发商(ISV)和应用开发者更经济实惠地探索和开发应用。•生成式AIquery成本是传统搜索方法的十倍。根据高通披露数据,生成式AI搜索(query)成本是传统搜索方法的10倍,目前每天有超过100亿次的搜索查询产生,即便基于大语言模型的搜索仅占其中一小部分,每年的增量成本也将达到数十亿美金,节约成本是必然趋势。•云端向边缘终端迁移,可大幅降低推理成本。随着生成式AI推理需求快速增长,数据中心基础设施成本(硬件、场地、能耗、运营、额外带宽和网络传输等)将持续提升,云端推理的性价比将下降;将部分任务从云端迁移到边缘终端,可减轻云基础设施的压力并减少开支。••时延与安全:不同应用对时延和带宽要求不同,部分应用场景必须走端侧路线。尽管5G移动通信的URLLC可以达到低延迟(1ms)传输,但是对于自动驾驶汽车、无人机导航、机器人技术等应用,仅依赖云端远程数据传输的时延和安全风险较高,特别是在自动驾驶场景,其必须走端侧路线,进而尽可能提高安全性和可靠性,减少决策失误风险。隐私:查询和个人信息完全保留在终端上,有助于保护用户隐私。对于企业和个人工作场所等场景中使用的生成式AI,端侧AI可以将查询和个人信息完全保留在终端上,不向云端暴露保密信息,进而保护用户隐私。目前,终端侧的安全能力已经非常强大,且将不断演生成式AIquery成本是传统搜索方法的十倍不同应用对时延和带宽要求不同1210810x641x20传统搜索方法(基准

1x)生成式AI搜索(query)成本资料:高通、国信证券经济研究所整理资料

:张臣雄著-《AI芯片:前沿技术与创新发展》-人民邮电出版社(2021年)-P42、国信证券经济研究所整理边缘侧布局正当时:端侧已可以支持多样化的AI模型••利用大规模终端侧AI处理支撑生成式AI有着广阔前景。根据高通披露数据,目前初步具备AI功能的手机(例如苹果M2芯片)、PC和其他品类的便携式终端数量已经达数十亿台,且未来终端设备的AI性能和设备数量会快速增长,进而支撑起大规模边缘生成式AI计算的需求。端侧已可以支持多样化的AI模型。1)AI模型在变小:各AI模型厂商为了降低推理侧成本,通过蒸馏等方式降低模型参数量,进而降低端侧AI处理的算力要求;2)端侧AI处理能力持续提升:目前10亿+参数的模型已经可以在终端设备上运行(例如Stable

Diffusion等参数超过10亿的模型已经能够在手机上运行,且性能和精确度可以达到与云端处理类似的水平),近期高通有望发布支持100亿模型运行的边缘侧芯片,在0-100亿模型参数区间了,可以实现文字生成图像、对话和NLP、组合优化、图像理解、视频理解、协作机器人等模型应用。数量可观的生成式AI模型可以从云端分流到终端上运行资料:高通、国信证券经济研究所整理边缘侧布局正当时:混合AI是最优解决方案•混合AI是最优的解决方案。混合AI指终端和云端协同工作,在适当的场景和时间下分配AI计算的工作负载,以提供更好的体验,并高效利用资源。在部分场景中,混合AI的计算将以终端为中心,在必要时向云端分流;同时,在以云为中心的场景下,终端(根据自身能力)将在可能的情况下从云端分担一些AI工作负载。混合AI架构能够在全球范围带来成本、能耗、性能、隐私、安全和个性化优势,主要包括三类:以终端为中心的混合AI、基于终端感知的混合AI、终端与云端协同处理的混合AI。•以终端为中心的混合AI:终端将充当锚点,云端仅用于分流终端无法充分执行的任务;终端通过运行不太复杂的推理完成大部分处理工作,未来随着终端侧AI处理能力的提升,其可以分流更多的云端负载。•基于终端感知的混合AI:在边缘侧运行的模型将充当云端大模型(类似大脑)的传感器输入端(类似眼睛和耳朵),例如在终端部署Whisper模型可将用户的语音输入转化成文字,之后再将其作为请求提升发送到云端;在更先进的版本中,其可以借助终端侧学习用户数据,进而创建用户画像,与编排器程序协作,基于更多场景提供更完善的提示。•终端与云端协同处理的混合AI:即终端和云端的AI计算协同工作来处理AI负载,例如生成大语言模型的多个token(以4个举例),仅需在终端连续运行4次近似模型(阉割后模型,仅为目标模型的1/10),然后将生成的4个token传输到云端,云端高效运行4次目标模型来检验其准确度,且仅需要读取一次完整的模型参数,节省了能耗。以终端为中心的混合AI基于终端感知的混合AI终端与云端协同处理的混合AI资料:高通、国信证券经济研究所整理资料:高通、国信证券经济研究所整理资料:高通、国信证券经济研究所整理AIPIN:设备作为模型入口,云端做大模型推理•设备作为模型入口,云端做大模型推理。用户通过语音、手势等方式对设备输入命令,设备通过语音识别ASR等方式将其转化为指令文本,指令文本上传到云端AI大模型(例如GPT-4)做推理,将推理得到的结果通过设备反馈给用户(例如提问、查询等),或直接调用设备应用或更改设备设置(例如播放音乐、提高音量等)。AIPin作为模型入口,云端做大模型推理资料:头豹产业研究院、Humane、国信证券经济研究所整理AIPIN:以轻便、低功耗为主•

AI

Pin硬件:以轻便、低功耗为主。AI

Pin硬件主要包括电池仓、广角摄像头、投影、信任灯、扬声器、触控板、SoC芯片、麦克风等,硬件选择以轻便、低功耗为主,打造AI大模型入口。AIPin硬件:以轻便、低功耗为主电池仓(重量仅20.5g)广角摄像头(13MP,120°

FOV)投影(分辨率720p,20-40cm操作距离)信任灯(关注客户隐私)麦克风扬声器(AAC)触控板(单指/双指操作)SoC(2.1Ghz,4GBRAM)资料:Humane、国信证券经济研究所整理AIPIN:功能丰富,语音通话、修饰文稿、处理电子邮件等•••••语音通话:同运营商T-Mobile合作,可直接通过语音拨打电话号码/联系人,进而进行语音通话;识别物体:利用多模态大模型能力,可以识别食物、书本等物体,提供营养成分(食物)、价格(书本)等信息;处理电子邮件&修饰文稿:可通过产品生成回复内容,且可以通过语音控制修订回复内容,并回复邮件;实时翻译:两用户面对面对话,可将双方不同语言进行实时翻译并输出,提升交流效率;推荐音乐和餐厅:产品实时联网,可以根据个人喜好,为用户推荐音乐和餐厅。AIPin功能——语音通话、修饰文稿、处理电子邮件、实时翻译、识别物体、推荐餐厅和音乐语音通话识别物体修饰文稿推荐音乐和餐厅处理电子邮件实时翻译资料:Humane、国信证券经济研究所整理AIPC:PC与大模型天然匹配•多模态自然语言交互:大模型逐步从单一模态向多模态方向发展,模型能力更加强大,应用愈加丰富;而多模态的交互需要多种模态输入,PC具备文字输入、语音输入、身体语言、触控、键鼠等多种输入方式,满足多模态交互的需求。•模型压缩后仍具备通用场景服务能力:PC作为通用生产力平台,具有非常广泛的应用场景(工作、学习、娱乐等),且配备专业工具的支持(例如图像处理软件、视频编辑工具等);AI大模型通过蒸馏、压缩等方式处理后,可以显著减少模型的尺寸和复杂度,同时保留其核心能力,进而赋能PC各应用场景,提升用户使用体验和工作效率。••强AI算力推理需求:即使压缩后的大模型降低了算力需求,但仍需要强大的本地算力支撑;在消费级市场,PC代表着个人计算平台的先进水平,同时结合CPU+NPU+GPU异构算力的系统运用,为PC提供了强大的并行计算能力,可以支撑边缘侧AI大模型的推理。基于个人数据和隐私的微调及个性化服务:云端公共大模型无法满足用户千人千面的需求,个人大模型可通过用户自身数据和需求进行微调,获得相对个性化的服务;PC具备大容量的本地安全存储支持用户数据的存储,进而完成对个人大模型的微调。PC与大模型天然匹配资料:IDC、国信证券经济研究所整理AIPC:包含AI模型及硬件设备的混合体•

AI

PC是一个包含AI模型及硬件设备的混合体。AI

PC的核心特征包括自然语言交互的个人智能体、内嵌个人大模型、标配本地混合AI算力、开放的AI应用生态、设备级个人数据&隐私安全保护。•从硬件维度来看:1)交互入口:AI

PC作为第一交互入口,用户可通过AI

PC的输入、输出设备实现交互;2)AI算力支撑:终端异构混合(CPU+NPU+GPU)算力实现更快速、更高效的AI模型推理,

目前芯片提供商集成了NPU计算单元的CPU陆续推向市场,与终端厂商协作研发,共同推广。•从软件维度来看:1)个人大模型:本地部署大模型和个性化本地知识库共同组成,在AI

PC执行任务时,知识库能通过对向量数据库的检索,来匹配并强化用户的提示词,进而帮助模型更好地理解用户意图。2)开放的AI应用生态:由AI原生应用、AI赋能应用和公共大模型组成,作为AI

PC能力的延伸和补充,帮助用户应对相对复杂的任务。AIPC核心特征个人智能体提升AIPC的自主性与易用性资料:IDC、国信证券经济研究所整理资料:IDC、国信证券经济研究所整理AIPC:带来个性化、及时、安全可信的用户体验••••通用场景下个性化服务:AI

PC针对工作、学习、生活等场景,提供个性化的创作服务、秘书服务和设备管家服务,提升工作效率以及学习、娱乐体验。及时、可靠的服务响应:云端公共大模型存在响应慢等实际体验问题,而AI

PC以本地推理为主,有效缩减响应时间,在离线状态下仍具备可操作性。更低的大模型使用成本:用户购买AI

PC后,可享受全生命周期的本地免费推理服务,叠加有限的云端订阅,可以在不降低用户体验的前提下,显著降低用户使用AI大模型服务的成本。可信、安全的个人数据和隐私保障:隐私数据在本地进行推理,可以有效避免敏感信息因上传远程服务器处理而带来的泄露等问题,AIPC有专门用于存储用户特定类型文件与数据的安全空间,确保个人、企业用户的数据安全和隐私保障。通用场景下个性化服务资料:IDC、国信证券经济研究所整理AIPC:价格亲民,支撑渗透率提升逻辑•

AI

PC价格亲民,渗透率有望快速提升。根据IDC预测数据,消费市场、中小企业市场、大型企业市场AI

PC价格相对于传统PC提升幅度较小,同时AI

PC将给用户带来丰富的用户体验,AI

PC渗透率有望快速提升。•消费市场AIPC价格:根据IDC预测数据,AI笔记本电脑平均价格在5500-6500元之间,AI台式电脑平均价格在4000元左右,预计24年后AI

PC价格稳步上涨;••中小企业市场AIPC价格:根据IDC预测数据,AI笔记本电脑平均价格在5000-6000元之间,AI台式电脑平均价格在3500元左右,价格稳中有涨;大型企业市场AIPC价格:根据IDC预测数据,AI笔记本电脑平均价格在5500-6000元之间,AI台式电脑平均价格在4000元左右,价格稳中有涨。中国市场主流台式机价格趋势消费市场:AIPC价格预测中小企业市场:AIPC价格预测大型企业市场:AIPC价格预测36大中城市日用工业消费品平均价格:电脑(主流品牌台式机,单位:元)43004250420041504100405040003950390038502018/1/1

2019/3/1

2020/5/1

2021/7/1

2022/9/1资料:Wind、国信证券经济研究所整理资料:IDC、国信证券经济研究所整理资料:IDC、国信证券经济研究所整理资料:IDC、国信证券经济研究所整理AIPC:迎来AI

PC元年,市场规模快速增长•

PC新机中AI

PC占比持续提升,迎来AI

PC元年。随着应用场景的持续拓展,AI

PC在中国PC市场新机出货量中占比快速提升,根据IDC预测数据,2023年AI

PC在PC新机出货量中占比为8.1%,预计24年将大幅提升至54.7%,迎来AI

PC元年。•随着渗透率提升,AI

PC市场规模快速增长。根据IDC预测数据,2023年AI笔记本+台式电脑在消费市场、中小企业市场、大型企业市场合计销售额分别为141、32、2.3亿元,预计27年将分别提升至1312、547、449亿元人民币,AI

PC市场规模快速增长。PC新机中AIPC出货量占比持续提升,迎来AIPC元年AI

PC市场规模快速增长消费市场AI

PC销售额(亿)

中小企业市场AI

PC销售额(亿)

大型企业市场AI

PC销售额(亿)25002000150010005004495471312020232027资料:IDC、国信证券经济研究所整理资料:IDC、国信证券经济研究所整理AI手机:硬件侧-AI手机芯片发布节奏提速,高算力支撑更大模型•

AI手机芯片发布节奏提速,高算力支撑更大模型推理。AI大模型部署在手机终端运行,利用手机自身算力进行AI大模型的推理,手机算力的大小决定了其能承载AI模型的大小;近期,谷歌、高通、联发科等头部厂商先后发布专用AI手机芯片,为手机终端提供了强大的算力支持,进而可以搭载更大参数量的AI模型,带来更丰富的应用功能和更好的用户体验。•••Google

Tensor

G3(23年10月):芯片采用9核心架构(1个Cortex-X3超大核+4个Cortex-A715大核+4个Cortex-A510小核),该架构使TensorG3在处理多任务和复杂计算时更为高效;目前,谷歌手机Pixel8和Pixel

8Pro已经搭载该芯片,其支撑运行机器学习模型的数量是Pixel6(即使用第一代Tensor芯片)的2倍。高通骁龙8Gen3(23年10月):芯片采用“1+5+2”架构(1个Cortex-X4+5个Cortex-A720+2个Cortex-A520),NPU升级为Hexagon,AI算力高达73

TOPS,是高通首个专为生成式AI而打造的移动平台,已支持运行超100亿参数大模型。目前,小米14、小米14

pro、iQOO12、

iQOO12Pro等机型已经搭载该芯片。天玑9300(23年11月):芯片采用“4+4”架构(4个Cortex-X4+4个Cortex-A720

),集成第七代APU790

AI处理器,全链路对生成式AI进行优化,整数、浮点运算性能都提升了2倍,同Vivo深度合作,已经实现70亿参数大模型端侧落地。目前,Vivo

X100、Vivo

X100

Pro等机型已经搭载该芯片。GoogleTensorGen3高通骁龙8Gen3天玑9300资料:谷歌、国信证券经济研究所整理资料:高通、国信证券经济研究所整理资料:联发科、国信证券经济研究所整理AI手机:模型侧-蒸馏、剪枝等压缩技术支持,多款手机专用AI大模型发布•蒸馏、剪枝等模型压缩技术支持,AI大模型进边侧成为可能。考虑到边侧设备算力、功耗等问题,大规模参数的AI模型无法直接部署在手机等端侧设备运行,蒸馏、剪枝等模型压缩技术支持,可以在保留模型大部分能力的同时,大幅降低模型参数量,AI大模型边侧部署成为可能。•多款手机专用AI大模型发布,边侧AI大模型进入加速期。1)谷歌:23年5月,谷歌发布PaLM

2大模型,其中,最轻量级的Gecko模型可以直接在各种智能手机设备上本地化运行,每秒可以处理约20个token,基本满足移动设备用户的需要;23年12月,谷歌发布Gemini新一代AI大模型,其中Gemini

Nano为端侧大模型,参数量有18亿和32.5亿两个版本,可直接在手机上部署。2)手机厂商:小米自研MiLM-1.3B/6B大模型,小米14已接入自研大模型,可以实现撰写文字、AI扩图等功能;Vivo自研“蓝心”AI大模型,其中10亿、70亿版本是面向端侧定制,可以实现文本总结、文本创作等功能,目前Vivo

X100已接入大模型。模型蒸馏谷歌PaLM

2最小版本可直接在手机侧运行Loss(2)(3)(2)教师模型学生模型(1)数据生成器(1):数据生成器生成大量迁移数据,分别送入教师模型和学生模型;(2):将教师模型的输出作为真实值,衡量学生模型的输出与它之间的损失;(3):通过梯度下降等方法更新学生模型的权重,使学生模型的输出与教师模型的输出更加接近,从而达到小模型拟合大模型的效果。资料

:谈继勇著-《深度学习500问——AI工程师面试宝典》-电子工业出版社(2021年)-P557

、国信证券经济研究所整理资料:谷歌、国信证券经济研究所整理目录AI大模型:多模态方向延伸,视频模型迎来发展元年AI算力:国产算力迎历史机遇期0102AI边缘侧布局正当时,

AI

PC和手机值得期待AI重塑应用百态,商业落地逐步兑现0304投资建议:看好AI产业持续催化,维持“超配”评级05AI+自动驾驶:短期看感知侧大模型化•

感知侧过去主要应用经典的CNN(ResNet/Yolo)进行白名单识别,如今BEV+Transformer成为主流,且模型参数量不断提升并走向无监督。•Tesla

21

AI

Day展示BEV+Transformer,将Transformer模型用到了自动驾驶领域,利用强大的Transformer模型统一处理传感器数据为鸟瞰图(Birds’Eyes

View)的时空信息,而非CNN的仅空间信息,且CLIP为代表的模型能推理训练集中没有的标签,为后续统一的端到端模型打下基础。•Tesla

22

AI

Day展示了Occupancy

Network(占用网络),将2D图像转3D空间并预测空间中每个点被占用的概率,无监督不再需要事先的白名单。自动驾驶流程:感知、决策、控制CNN学习如何将图像划分到已知的标签类,没见过则束手无策训练的标签中不含有“猫”的话则无法识别,会撞上去感知层:五官

决策层:大脑易控制层:四肢

资料:Think

Autonomous、国信证券经济研究所整理资料:Think

Autonomous、国信证券经济研究所整理占用网络预测空间中每个点的“占用”,因此即使没见过也能识别占用网络18年便提出,实现并不难,难在高质量数据覆盖边角情况资料:Tesla、国信证券经济研究所整理资料:GitHub、国信证券经济研究所整理AI+自动驾驶:长期从模块化走向端到端•过去自动驾驶如同传统车企模块化造车,多个不同模块覆盖不同功能共同协作,且需要大量手写规则。•Tesla

FSD

v12之前用类似MoE的架构,几个稍小的神经网络共同协作,如Occupancy

Network预测空间占用,HydraNet识别车道线等,再由决策网络给出潜在路径并打分选取最高分的路径执行。•

Tesla

FSDv12采用端到端的模式,一个大型神经网络直接接受视觉输入并输出执行动作。•模型变大背后是海量高质量数据集,让模型不至于过拟合的同时获得涌现能力。端到端模型2016年便出现了,但受限于数据仅仅是一个玩具模型。FSDv12看上去代码数量从原来包含手写规则的30

多万行缩减到了搭建神经网络的2000

行,实际上背后是数百万辆Tesla汽车采集数年Corner

case得到的数据集经由充分训练得到的参数量未知的大模型。•模型变大背后也需要大量的训练算力支撑不断迭代。Tesla根据自身工作负载设计了ASIC集群Dojo,和Nvidia集群一起完成FSD的训练。FSDv12之前的模块化架构FSDv12用一个神经网络完成多个流程目前Tesla全球第二多的A100和第四多H100资料:Tesla、国信证券经济研究所整理资料:eet-China、国信证券经济研究所整理资料:StateofAI、国信证券经济研究所整理AI+自动驾驶:低成本化趋势持续•低部署成本:激光•

2Q23

Tesla电话会称与OEM洽谈FSD授权。历史上看Tesla也不在意(创新和规模效应带来的)成本优势之外的护城河,例如开放超充网络给第三方。如若FSD开放授权,不需要激光

的FSD对其他车企由于成本优势更具吸引力。等成本仍是产业趋势,例如搭载3颗激光、高精度地图等的成本较高,Tesla因而采用了纯视觉、无图的技术路径。•短期通过激光+多模态信息融合可以快速弥补视觉模型的不足,但长期降低的阿维塔11定价达40万。•低推理成本:新能源车上的AI芯片需要做到低能耗、低延迟同时有一定的算力,Tesla因而从Nvidia

GPU切换至自研NPU。主流厂商解绑高精地图以降低成本

纯视觉方案更具成本优势

Tesla自研NPU以满足FSD需求时间厂商措施完全去高精地图自动驾驶解决方案DeepRoute-Driver

3.0特斯拉Model

Y设备价格小鹏G612个5个3月22日

元戎启行3月30日

小鹏汽车4月2日

大疆车载4月11日

毫末智行4月12日

智己汽车4月16日芯片CPUCPU频率NPU数量NPU频率单NPU算力SoC总算力内存FSD112

A722.2GHz2FSD220

ARMv82.35

GHz32.2GHz40.55

TOPs121.65

TOPsGDDR614000

MT/s16GB224

GB/s三星

5nm推出不依赖高精地图的XNGP

预计在24年实现,超声波100元内00不依赖高精地图全场景下的辅助驾驶全新一代智能驾驶解决方案,不依赖高精地图、1500-2000元2GHz不依赖激光、仅有摄像头的纯视觉方案毫米波激光36.86

TOPs73.7

TOPsLPDDR44266

MT/s8GB发布其重感知轻地图的城市NOA方案,搭载在长城旗下魏牌摩卡以及蓝山上城市NOA领航辅助以及替代高精地图的数据驱动道路环境感知模型,已开启公测6000-7000元2个0内存速率内存容量内存带宽制程发布HUAWEI

ADS2.0

问界M5智驾版将成为首,摄像头200元内12个约3万8个约1万个搭载的车型,预计年底推广到45城年底计划向全国一百个城市推送城市NOA功能,68.3

GB/s三星

14nm总成本4月18日

理想汽车

其NOA架构同样不依赖高精地图,仅需导航地图即可实现城市OA功能资料:36Kr、国信证券经济研究所整理资料:汽车之家、国信证券经济研究所整理资料:SemiAnalysis、国信证券经济研究所整理AI+自动驾驶:大模型提升合成数据与自动标注效率•

合成数据做真实数据的“杠杆”,弥补真实数据“数量不足”,补充Corner

case。•

利用大模型(World

model)合成数据能兼顾隐私保护与数据的可用性、高效生成在真实场景中很难获取的Corner

Case、缓解数据不足时过拟合的问题,加速模型落地。•

利用大模型对数据自动标注,从而实现FSD快速迭代、快速解决corner

cases的效果。•

早期Tesla在2D图像上手动标注,如今采用4D自动标注,即用大模型重构出3D空间和时序信息,再重建出道路和车辆等标签信息。用法如Tesla

派了一庞大的车队,采集了1万+恶劣天气场景的视频片段,然后在一周内就自动标注完了,然后送到网络里面去训练。UniSim等大模型可以高效合成数据,加速模型落地自动标注系统帮助FSD快速迭代,形成数据闭环资料:eet-China、国信证券经济研究所整理资料:九章智驾、国信证券经济研究所整理AI+自动驾驶:激光+大模型的无图方案•硬件层面,自研了传感器(特别是激光)和SoC芯片。••激光激光通过向四周散射激光,基于反馈判断周边是否存在障碍并生成点云图。好处是抗干扰能力强、获得精确的景深数据,但坏处是成本较高数量减少。早期合作推出的极狐阿尔法S

HI版和阿维塔11配备了三颗激光,最终定价都触及了40万元的高位。后期问界M5、M7以及智界S7只采用一颗自研的激光以降低成本。•软件层面,AI模型对标Te

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论