版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
核心要点2人工智能:ChatGPT推动产业迎来iPhone时刻,并从“小作坊”走向工业化时代。ChatGPT在全球市场的爆发,正将AI产业推到过去70年以来前所未有的高度,科技巨头纷纷入局,继微软、谷歌之后,国内企业百度、阿里巴巴等先后发布大模型,并进行用户测试和企业应用接入。全球一线科技巨头在AI领域的军备竞赛,以及在大模型方向的持续下注,必将极大加速全球AI产业的发展进程,并推动产业从过去的“小作坊”式发展快速进入“工业化”时代。算法模型:AI发展的灵魂,技术路线料将快速向GPT方向收敛,并有望在中期形成少数大模型(底层)+若干垂类模型(应用层)的格局。ChatGPT的成功证明了高质量数据+反馈激励(大模型预训练+小数据微调)的有效性。GPT在自然语言理解、生成方面的整体优势,有望驱动AI大模型技术路线快速向GPT方向收敛,同时少数科技巨头&机构专注于基础大模型的研发,更多企业则发挥各自在垂类数据、场景理解等层面优势,并最终构建少数大模型+若干应用模型的生态格局。芯片&算力:算法快速迭代,以及对算力的巨大需求,料推动通用AI芯片(GPU)、云厂商早期高确定性受益。目前AI大模型领域的创新正在以月、周为单位快速向前推进,短期维度,预计通用AI芯片仍将是底层算法快速迭代的核心受益者。同时当前大模型在训练、推理环节仍需要巨大的算力承载,云厂商在算力基础设施、基础软件框架等层面综合优势明显,AI带来的算力增量料将主要向云计算平台转移,云厂商有望充分受益。但若后续算法迭代速度放缓,以及针对部分应用场景的专门优化,ASIC芯片需求料将快速展开,AI单位算力成本有望快速下降,但亦同时带来应用需求的进一步增长。数据:AI的粮食和血液。当前AI算法的发展正转向以大模型为主的数据依赖,丰富、高质量数据集是AI产业持续向前的核心基础。伴随公开数据集的逐步耗尽,借助算法实现数据合成,以及垂类领域专有数据集将是企业后续差异化优势主要来源,同时数据使用合规、用户隐私保护等亦将成为持续监管领域。核心要点3算法模型:技术路线:以大语言模型为主导,向GPT方案靠拢:ChatGPT的成功证明了GPT模型的Prompting道路的正确性,同时也强调了数据质量的重要性。ChatGPT最重要的成功是在产品化上更进一步:ChatGPT在模型精度上并没有飞跃性的突破,但从Few
Shot
prompt(需要输入范例示范)转换到Instruct(用人类语言描述想做什么)更加贴合用户的习惯。5)展望未来3-5年的人工智能模型技术路线,我们认为人工智能将继续沿着大语言模型的道路前景发展,并快速向GPT路线收敛。GPT路线已经表现出了其不可替代的产品化能力,这也将推动更多厂商想这个方向投入资源。随着多模态的不断成熟以及新模态的持续加入,我们预计将会看到通用求解能力更强的GPT类基础模型。竞争壁垒:数据质量、资本投入、核心人才、工程实践能力等。1)从Bert开始到GPT-3再到谷歌的PALM,网络中的公开语言数据源已经在被尽可能地利用(论坛、新闻、维基百科等),而模型的进一步优化对数据质量要求也越来越高。我们认为优质的私有数据源将在未来3-5年里人工智能模型的精度优化上发挥更重要的作用。2)随着模型体量仍然在成倍数增加,大量的前期资本投入是阻碍新入者的重要因素。在过去五年内,我们看到人工智能模型的独角兽都在寻找互联网科技大厂作为其背后的依靠,主要因为能够得到充足而短时间内不求产出的资金支持并获取互联网大厂长期以来所积累的优质数据源。这也是我们看到为什么在过去五年内人工智能头部厂商逐渐从开源走向闭源,利用其资源优势来打造差异化的AI模型,而落后者更希望通过开源的模式以求缩小与头部厂商的距离。3)研发团队的工程能力是决定公司在大语言模型竞争力的另一个重要因素。随着语言模型的体积不断增加,在研究方法上现今千亿量级的模型与之前几十亿量级的小模型发生了本质变化,个体工程师没有能力通过自有资源积累对大模型的学习经验。一个合格的大模型研发团队需要依靠大公司的资源支持才能积累对模型调试、优化、实际部署等各个环节足够的经验。大厂商对大语言模型的底层研究构建了极高竞争壁垒,因此底层架构的研发与实践应用的分离将是必然趋势,前者由少部分大型企业机构主导,而中小型企业专注于后者。4核心要点数据:数据:AI的血液与粮食。按照当前LLM的技术范式,数据集主要应用于预训练、模型调优阶段。预训练阶段需要大规模、多类别、高质量的训练数据,在模型调优阶段,垂类小数据集、提示词工程同样重要。近年来全球数据量呈现爆发式增长,据IDC统计,2019年全球产生的数据量为41ZB,过去十年的CAGR接近50%,预计到2025年全球数据量或高达175ZB,2019-2025年仍将维持近30%的复合增速,其中超过80%的数据都将是处理难度较大的文本、图像、音视频等非结构化数据。从Bert开始到GPT-3再到谷歌的PALM,网络中的公开语言数据源已经在被尽可能地利用(论坛、新闻、维基百科等),但模型优化仍需更多数据,这要求模型开发商有能力接触到优质私有数据来源,从而才能在模型的数据底层取得差异性的优势。数据筛选:为AI提供高质量数据。ChatGPT以GPT
3.5(生成式预训练)模型进行调优,注重数据质量,以及人类反馈强化学习,让模型在早期开放给大众测试并收集人类反馈数据,从而显著增强了模型在海量历史数据中挖掘知识的能力,并最终在人机对话领域获得理想效果。由于不同的行业、不同的业务场景对数据标注的需求存在一定的差异性,高质量的数据集成为提高数据标注质量的关键。公开数据集可以帮助数据标注团队减少从零开始创建和标注大量数据所需的时间和成本,且通常由专业团队或机构创建,其数据质量往往较高。同时,这些通常由专业团队或机构创建,其数据质量往往较高。这有助于提高数据标注项目的准确性和可靠性,从而提高整体项目的质量。根据IDC发布的《2021年中国人工智能基础数据服务市场研究报告》,预计中国AI基础数据服务市场近5年复合年增长率将达到47%,预期2025年将突破120亿元。数据管理:AI产业趋势的核心受益者之一。数据库管理系统是大数据时代的底层软件和核心支撑。AI时代数据量爆发、数据结构复杂度攀升,驱动全球数据库市场长期稳定增长,云化趋势明确。
2020年,
IDC预计全球DBMS市场规模受疫情冲击小幅降至487亿美元,但云数据库仍然保持11.6%增速。IDC预测2024年全球数据库市场规模将稳步增长至739亿美元,其中云数据库市场规模将达404亿美元,4年CAGR
27.3%。Gartner预测2024年云数据库占比将提升至75%。我们预计2024年中国数据库市场规模达200亿元,同比增长22%且近年来增速不断加快。随着国产化替代的推进,传统海外巨头份额不断缩小。核心要点算力:算力与算法相互促进、相互影响。大模型正在成为人工智能的中短期主流技术路线,随着模型参数日益增多,神经网络算法愈加复杂,相应带来底层算力消耗的持续、显著增长。同时,算力的增长亦为模型参数的增长与复杂性的提高提供基础,算力与算法相互促进,相互影响。算力需求:ChatGPT在工程实践层面的创新推动全球AI领域军备竞赛,并在内容生成领域推动AIGC时代全面到来。1)成本测算方面,我们以英伟达HGX服务器(含8张A100卡)为算力载体并假定服务器成本为8美元/小时,我们测算ChatGPT算力成本约14.6亿美元(其中14.3亿美元为推理成本),生成式AI算力成本约189.6亿美元(训练环节15.4亿美元,推理环节174.2亿美元)。2)AI芯片方面,AI算力的需求增速显著高于摩尔定律的芯片性能增速,芯片设计端需要系统级创新,主要包括制程升级、计算单元数量提升、架构优化、Transformer计算单元的引入、采用混合计算精度等。算力供给:AI芯片的需求增长,吸引全球科技巨头与创业公司加入赛道,硬件设备亦迎来新的需求增量。1)AI芯片:按应用分,AI芯片主要分为AI训练芯片与推理芯片。按技术架构分,AI芯片包括CPU、GPU、FPGA与ASIC,AI服务器正向“CPU+XPU”发展。而尽管异构计算正在成为主流,在训练端,GPU仍为主要角色。随着AI产业快速发展,多家公司积极入局,其中不仅包括英伟达、谷歌、亚马逊、华为海思、阿里巴巴、百度等公司在内的科技巨头,还包括Graphcore、Habana(被Intel收购)、寒武纪、地平线等公司在内的初创公司。2)硬件设备:除芯片外,硬件设备亦是算力供应的主要制程,主要包括:①AI服务器:为满足人工智能需求,搭载的XPU数量大幅上升,对AI服务器的散热性与稳定性亦提出更高要求;②交换机&光模块:随着数据量的快速提升,市场对高速、低延时的数据交换需求日益增长,并以此带动交换机与光模块需求,其中800G光模块正在成为行业主流;③算力承载:考虑到AI产业所需的巨大算力,云计算平台为更合理的承载对象。就目前行业情况看,云计算单位成本下降,总算力扩张是大概率事件。56核心要点应用场景:AIGC
产业化方向众多、前景广阔。AIGC
在需要高效处理大量客户需求、创意性内容行业以及标准化生产行业均有较大的应用空间,在诸如归纳性文字工作、代码开发相关工作、图象生成领域等领域均有广阔的产业化前景。海内外基于AIGC涌现出诸多应用,如作图领域的Midjourney、文字编辑领域的Notion
AI、视频领域的Make-A-Video等。我们认为AIGC的应用方向可分为2C和2B两类:1)ToC
端应用主要包括各类内容生产服务,比如图像生成、语音生成、视频生成、代码生成、文字生成等;2)ToB
端应用主要包括各类融合业务、辅助工作效率类产品,比如:微软使用大模型能力赋能Office、Teams、Dynamics等多种应用场景,Salesforce使用Einstein
GPT赋能销售、营销、客服等全场景。实现方式:基于第三方模型进行微调为主流方式,部分厂商通过自研模型构筑壁垒。大语言模型方面,目前主流厂商均选择和OpenAI进行合作,基于自身数据、业务流程等对GPT模型进行微调,在部署上线后亦结合用户数据对Prompting(提示)进行个性化精调,将人类语言的表述根据实际的数据情况更换成更符合大语言模型理解的Prompting,然后以此完成多模态之间的转换并提升指令的准确性。Adobe基于自身在创意领域长年的积累推出了创意生成式人工智能模型Firefly,可以生成图像和文本。一方面,Adobe专注于将其与现有创意流程整合;另一方面,训练数据来自于AdobeStock的授权内容、公开许可的内容以及版权过期的公共领域内容,以平衡创意生成的需求和内容商业化的可行性。隐私&合规:控制数据及功能访问权限,规避版权等合规风险。数据安全、权限控制、隐私保护、版权合规是大模型在实际应用过程中的核心因素。目前微软在提供copilot相关服务时,在协议中明确表示使用的是公开数据+无版权数据以及微软的自有数据,一定程度降低了数据隐私性的风险。Copilot
LLM不会根据用户的自有数据以及用户的提示上进行训练。在企业用户组内部,微软应用了相应的权限模型确保数据不会在用户组之间泄露。而对于Adobe,亦通过规范数据来源,较好地避免了
Stable
Diffusion、Midjourney、Dall-E等其他图像生成模型存在的版权合规问题。与此同时,创意者可以选择其作品不进入训练数据集,而Adobe也计划向贡献训练数据的艺术家支付一定报酬。7核心要点投资建议:ChatGPT在全球AI产业、技术领域带来的良好示范效应,有望推动AI算法模型结束当前的技术路线分叉,并不断向以GPT为主导的大语言模型(LLM)靠拢,加速全球AI产业“工业化”时代到来。中期维度,大语言模型领域“暴力美学”预计仍将是我们不断逼近通用人工智能的最可能路线,基于此基准假设,预计模型算法架构将遵从渐进的学术研究步伐,高质量数据集、工程实践能力、核心人才、资本将成为大模型研发领域的核心竞争壁垒。数据产业链(数据源、数据管理等)、算力设施(大算力芯片、云计算平台、Aiops等)、应用场景(内容生成、人机交互范式、信息检索等)等环节投资逻辑亦面临持续重构。作为中期最具确定性的产业方向之一,我们持续看好全球AI领域的投资机会,并建议持续聚焦芯片、算力设施、模型架构&工程实践、应用场景等核心环节。在美股市场,我们建议持续关注:英伟达、台积电、微软、谷歌、AMD、Arista、博通、Marvell、百度、Adobe、Snowflake等。风险因素:AI核心技术发展不及预期风险;科技领域政策监管持续收紧风险;全球宏观经济复苏不及预期风险;宏观经济波动导致欧美企业IT支出不及预期风险;AI潜在伦理、道德、用户隐私风险;企业数据泄露、信息安全风险;行业竞争持续加剧风险等。8关键图表a16z,中信证券研究部大模型推动AI产业工业化时代到来End-to-End
Apps具有专有模型的面向最终用户的应用程序如:Midjourney,
RunwayApps没有专有模型的面向最终用户的B2B和B2C应用程序如:
Jasper,
Github
Copilot闭源基础模型通过API公开的大规模预训练模型如:
GPT-3
(OpenAl)模型中心共享与托管模型如:
Hugging
Face,
Replicate开源基础模型如:Stable
Diffusion
(Stability)云计算平台在云部署模型中向开发人员公开的计算硬件如:
AWS,
GCP,Azure,
Coreweave芯片&硬件针对模型训练和推理工作负载优化的加速器芯片如:
GPUs(Nvidia),
TPUs
(Google)下游应用算法模型算力基础算法模型算力基础下游应用9LLM发展路线图关键图表《Attention
is
All
You
Need》(AshishVaswani,
Noam
Shazeer,
Niki
Parmar等),OpenAITransformer发展历程各公司官网,中信证券研究部10关键图表资料来源:艾瑞咨询AI驱动的数据产业链11关键图表承载AI算法的加速芯片、硬件设备等中信证券研究部绘制算力需求AI训练芯片GPU为主AI推理芯片CPU+GPU/ASIC/FPGA硬件设备AI云端推理芯片边缘推理芯片终端推理芯片服务器…交 光换 模机 块12关键图表Microsoft
Copilot发布会LLM带来全新的人机交互范式13重点个股美股AI产业链部分公司列表资料来源:Bloomberg(含一致预期),中信证券研究部注:市值日期为2023年4月27日类别公司代码市值(亿美元)估值方法2022A2025E算力英伟达NVDA6725PE80.435.3AMDAMD1409PE25.617.0台积电TSMC4339PE12.711.3AristaANET480PE33.221.7博通AVGO2578PE15.612.9MarvellMRVL331PE18.213.7算法模型微软MSFT22666P/FCF35.327.4谷歌GOOG13661PE22.815.2百度BIDU414PE13.89.9应用场景AdobeADBE1704P/FCF23.717.6SalesforceCRM1959P/FCF31.016.4Service
NowNOW922P/FCF42.722.7产业配套SnowflakeSNOW484P/S23.49.1ConfluentCFLT67P/S11.45.4MongoDBMDB169P/S13.17.1Palo
AltoPANW560P/FCF32.9估值(自然年)2023E 2024E60.4 45.428.7 20.416.1 13.026.3 23.614.4 13.725.9 16.939.2 31.821.0 17.812.6 10.921.4 18.726.6 20.035.9 28.416.8 12.28.8 6.911.2 9.328.6 23.319.9一.AI产业:GPT驱动,进入工业化时代二.算法模型:AI产业灵魂,技术路线持续向GPT方向收敛三.数据:AI粮食和血液,关注数据合成、专有数据集四.算力设施:AI产业的卖水者,短期最具确定性五.应用场景:从分析型AI到生成式AI,不断逼近AGI14一、AI产业:GPT驱动,进入工业化时代15Chat-GPT相比于前代回答更加灵活,更接近人类反应ChatGPT:全球用户增长最快的消费者应用面对有违人类伦理的问题,Chat-GPT会进行拒绝ChatGPT16ChatGPT17SimilarWebChatGPT在上线仅两个月后预估DAU突破1000万ChatGPT:全球用户增长最快的消费者应用010203040506070TwitterFacebookInstagram微信TikTokChatGPT月活破亿所花时间(月)ChatGPT:全球用户增长最快的消费者应用SimilarWeb,Sensor
Tower18OpenAIChatGPT发展历程ChatGPT发展历程2019.12018.6
2020.5
2022.1
2022.11
2023.3GPT-1 GPT-2GPT-3InstructGPTChatGPTGPT-4参数量1.17亿 15亿1750亿13亿未公布未知模型更新在大规模数据上对Transformer
模型进行无监督预训练,再在小规模有监督数据集
解决零次学习问题上精细调节。
(zero-shot),使得该模型在测试常识推 模型更具通用性。理和阅读理解的数据集上获得了最先进的结果数据量指数级增加,可利用少量样本学习,引入RLHF,微调后能更好地遵循用户意图,泛化能力极大提升。在数据收集设置上优化连接大量真实语料库,能够支持多轮对话、结果修正,人机交互效果更好、更快、更高效。可以解决更加复杂的任务,安全性进一步强化,更加“拟人化”。并且引入多模态能力,覆盖图片的识别。贴近人脑学习模式。此外,基于GPT-3模型微调在其他领域包括代码生成、图像生成、数学算数等产生了应用。19GPT-4:面对复杂问题能力时大幅提升GPT-4相比于3.5在大多数AP考试科目上都取得了显著进步GPT-4面对复杂问题能力时大幅提升,对AP考试、GRE考试等表现优异。OpenAI在官网表示,GPT-4虽然在大多数现实场景中的能力不如人类,但在一些专业问题和学术基准上表现已经和人类持平。根据OpenAI在其技术文档所公布的数据,GPT-4在60%的AP考试科目中取得了5分(满分)的成绩,并较前一代GPT-3.5取得了30%以上的提升。而对于国外研究生入门考试的GRE,GPT-4取得了339+4的成绩,超越95%的应试者。OpenAI官网2020ChatGPT的回答胡编乱造的情况非常严重GPT-4的回答有所改善,但仍有胡编乱造的情况GPT-4:答案的准确度逐步提升大量GPT-3.5模型针对事实类问题回答胡编乱造的情况以及通过种种语言诱导可以绕开GPT模型的安全限制。GPT-4通过加入额外的奖励模型以及更多的对齐(简单理解,模型参考人类的思考方式进行调整)工作将准确率提升了约10%ChatGPTChatGPT21GPT-4:引入了图片的输入识别能力对于梗图,GPT-4可以精准回答幽默的点在哪里;微软在Kosmos-1模型中引入多模态能力多模态能力成为GPT-4加入的新亮点。GPT-4在模型能力方面最大的提升在于引入了多模态的处理能力。除了此前ChatGPT就支持的文字外,GPT-4还可以接受图片输入,根据OpenAI在技术文档内给出的实例来看,GPT-4可以理解图中的各类含义甚至包括人类的幽默能力。不过在当前阶段,图片输入的功能暂时还没有开放给用户使用。OpenAI技术博客,微软技术博客22技术概览:通过预训练模型+微调,实现问答与对话1、2、3、4、Hung-yi
Lee个人频道(YouTube)23ChatGPT的技术逻辑:RLHF的主要改变在于人工监督数据与调整后的奖励模型核心技术:验证了大模型预训练+小数据fine-tuning的有效性OpenAI24技术趋势:GPT将逐步成为生成式任务的优选Bert与GPT技术路线对比(双向+需要对下游任务微调vs自回归+zero/few
shot
prompting)尽管都是Transformer模型,Bert模型采用双向使用Mask的方法进行训练;而GPT则是采用了自回归+prompting的方式。这两者的区别根据谷歌资深AI科学家Jeff
Dean在2020年的文章回答,Bert路线在NLU(自然语言理解)的能力以及准确度会更好,而GPT路线在NLG(自然语言生成)的表现会更突出。通俗来说,BERT是完形填空,GPT为命题作文。资料来源:量子学派微信公众号25iPhone:技术驱动+聚合式创新,“连点成线”的经典案例Apple公司官网,雷科技,中信证券研究部摄像头技术多点触控屏幕大容量电池IOS系统iPhone的诞生融合了多个技术创新iPhone的技术迭代不断推进Apple公司官网,雷科技,中信证券研究部26资料来源:斯坦福大学AI年度报告,中信证券研究部人工智能软件:计算机视觉准确率显著提升,正处于产业化阶段ICEAA,
中信证券研究部人工智能硬件:算力规模不断增加IDC(含预测),中信证券研究部数字化转型,带动全球数据量呈现井喷式爆发(ZB)多种因素驱动,人工智能行业蓬勃发展1354290%20%40%60%020040060020162017201820192020我国算力规模(EFlops) 全球算力规模(EFlops) 全球算力增速100%80%60%40%20%0%0501001502002005200620072008200920102011201220132014201520162017201820192020E2021E2022E2023E2024E2025E全球数据量(ZB) 同比增速97.9%98.8%100%95%90%85%80%2012年10月2013年3月2013年8月2014年1月2014年6月2014年11月2015年4月2015年9月2016年2月2016年7月2016年12月2017年5月2017年10月2018年3月2018年8月2019年1月2019年6月2019年11月2020年4月2020年9月2021年2月不含额外的训练数据 含有额外的训练数据 人类水平94.9%人工智能发展驱动因素硬件软件数据资料来源:中信证券研究部产业现状:千亿量级参数是目前行业主流的体积大小隐藏层层数GPU数量批量大小AchievedteraFlOP/sper
GPU比1.724230424113251213744%4.43.632307230216451213844%8.87.5324096364112851214246%18.218.44861444081256102413543%34.639.11636481924882512153613844%70.876.1801024060841024179214045%143.8145.6961228880881536230414847%227.1310.112816384968161920216015550%297.4529.6128204801058352520252016352%410.21008.0160256001288643072307216352%50227张量模型--并行大小管道模型-并行大小理论峰值FLOP/s的百分实现聚合petaFLOP/sNLP大模型时间线以及训练成本测算我们认为,当前千亿量级的参数,一方面能够体现出大模型在泛化、涌现等领域的额外能力,同时也兼顾了对算力的需求。资料来源:中信证券研究部测算资料来源:各公司官网,中信证券研究部参数数量 注意头28产业影响:虽然不是颠覆式创新,但探索产业化可能性增加资料来源:红衫投资官网各时间节点所对应的AI能力以及所能产生的应用产品Chat-GPT的强势“出圈”成为了对人工智能中短期内的产业化方向一系列探索的催化剂。从对Chat-GPT的测试结果来看,Chat-GPT
开始能在大范围、细粒度问题上给出普遍稳妥的答案,并根据上下文形成有一定的具备逻辑性的创造性回答,在文字领域表现突出。通过调整数据集、奖励函数调整的方式,能够依靠chatGPT的思路向其他垂直领域迈进,文字、图片、视频等的生成同样可以值得期待,AIGC相对更为靠近。但由于chatGTP在训练初的数据限制,不能输出超过自身“学会”的内容,而搜索引擎所用的是发散和关联,所以不会颠覆搜索引擎。29技术层基础层智能医疗智慧金融智慧教育智慧交通智能家居智慧零售智能制造医疗影像贷款评估作业批改自动驾驶智能照明智能收银工业机器人应用层远程诊断智能投影智能问答交通控制智能门锁无人商店智能供应链药物挖掘金融监管远程辅导车辆识别家居机器人智能配货智能运维疾病预测智能客服虚拟课堂车辆检测智能物联智能物流产品检测机器学习算法类脑算法算法理论基础开源框架技术开放平台开放平台计算机视觉自然语言处理应用技术智能语音计算硬件计算系统技术数据AI芯片云计算大数据5G通信数据采集标注分析产业影响:产业链有望迎来重构资料来源:艾瑞咨询,中信证券研究部30人工智能发展趋势资料来源:“数据与智能”微信公众号,中信证券研究部产业影响:AI的快速发展将对社会和人类产生更大的影响数据量级相对少特定领域的分析任务应用表现与人类相差较远数据量级相对大通用问题求解能力提升可以胜任人类工作数据量级相对大,同时关注数据质量具备通用问题求解能力应用表现超越人类水平强人工智能弱人工智能超人工智能必要的监管以确保AI技术发展的安全性31AI重塑人机交互方式产业影响:信息交互的方式有望被重构AI交互提示词AI入口AI
1.0AI
2.0AIGCLogo摘自各公司官网,中信证券研究部绘制产业影响:全球主要国家将持续布局1990200020102020PC互联网:copy
toChina移动互联网:copy
from
ChinaAI:?ReelsChatGPT32人工智能:中美科技竞速的下一个十年资料来源:各公司官网,Pixabay,中信证券研究部33资料来源:各公司官网,中信证券研究部产业影响:有望加快AI产业商业化落地进程头部科技企业加快AI领域布局公司时间事件2015开源第二代深度学习系统
Tensorflow,用于各种感知和语言理解任务的机器学习。2016由Deepmind研发AlphaGo
以4:1嘉绩击败世界围棋冠军李世石。2020谷歌最新人工智能
AlphaFold
2成功基于氨基酸序列预测了生命基本分子,蛋白质的三维结构。谷歌2023.1.28发布生成式AI音乐模型MusicLM2023.1.30向人工智能初创公司Anthropic
AI投资约3亿美元2023.2.3“未来几周或几个月”推出类似ChatGPT的基于人工智能的大型语言模型2023.2.6谷歌宣布将推出一款聊天机器人—Bard。2019投资OpenAI
10亿美元微软2021再次投资OpenAI2023.1.23开启对OpenAI的第三轮投资2023.2.2宣布将OpenAI相关产品导入旗下云计算、Office、Bing、Viva
Sales等产品中34产业影响:有望加快AI产业商业化落地进程头部科技企业加快AI领域布局公司时间事件2013成立深度学习实验室(IDL)2014成立硅谷人工智能实验室(SVAIL)百度2016发布百度大脑AI平台2017成立深度学习技术实验室、增强现实实验室;推出全球第一个自动驾驶开放平台百度Apollo。2021百度发布“文心”系列产业级知识增强大模型2023.2.7百度官宣中国版的类ChatGPT项目文心一言(英文名ERNIE
Bot),预计三月份完成内测,面向公众开放阿里巴巴2023.2.8阿里达摩院类ChatGPT机器人已进入内测阶段腾讯2023.2.3腾讯科技(深圳)有限公司申请的“人机对话方法、装置、设备及计算机可读存储介质”专利获授权,能够实现机器与用户之间自然且顺畅的沟通。小米2023.2.9此前小米在AI大模型上已有多路并行尝试,未来将加大相关领域人力和资源投入。小爱拥有庞大数据支撑会让小米在大模型方面进展更迅速。快手2023.2.9快手正在开展大规模语言模型(LLM
Large
Language
Model)相关研究,并启动了相应专项,覆盖LLM模型训练、文案自动创作与生成、对话系统开发等领域。京东 2023.2.10资料来源:各公司官网,中信证券研究部京东正式推出产业版ChatGPT,命名“ChatJD”。35产业影响:有望引发新一轮AI创业与投资热潮2011201320142015201620182019202020212005 20102016年,AlphaGo引发全球AI创业及投资热潮资料来源:各公司官网,
Pixabay,中信证券研究部362016年,AlphaGo引发全球AI创业及投资热潮产业影响:有望引发新一轮AI创业与投资热潮CB
insights,IT桔子,亿欧智库,中信证券研究部00.511.522.533.540500100015002000250030003500400045002010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021中国AI历年金额趋势(亿元) 中国AI历年单笔融资平均金额(亿元)0200400600800100012002010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021中国历年人工智能公司成立数量14%13%11%10%10%42%中国人工智能融资热门前10的领域(2020)企业服务 金融 大健康 机器人 汽车 其他37ChatGPT产业结构:从小作坊式发展走向工业化道路a16z,中信证券研究部ChatGPT产业结构End-to-End
Apps具有专有模型的面向最终用户的应用程序如:Midjourney,
RunwayApps没有专有模型的面向最终用户的B2B和B2C应用程序如:
Jasper,
Github
Copilot闭源基础模型通过API公开的大规模预训练模型如:
GPT-3
(OpenAl)模型中心共享与托管模型如:
Hugging
Face,
Replicate开源基础模型如:Stable
Diffusion
(Stability)云计算平台在云部署模型中向开发人员公开的计算硬件如:
AWS,
GCP,Azure,
Coreweave计算硬件针对模型训练和推理工作负载优化的加速器芯片如:
GPUs(Nvidia),
TPUs
(Google)下游应用算法模型算力基础算法模型算力基础下游应用83关系型数据库和非关系型数据库的扩展方式数据能力:数据库重要性将持续提升全球Nosql数据库市场规模及增速(百万美元,%)70%60%50%40%30%20%10%0%050001000015000200002015201620172018201920202021E2022E2023E2024E2025E公有云部署收入 本地/其他部署收入 总收入增长率IDC(含预测),中信证券研究部IDC3920%15%10%5%0%050,000100,000150,0002015201620172018201920202021E2022E2023E2024E2025EPubliccloud On
premises/other YoY全球数据管理软件市场规模及增速(百万美元,%)数据能力:管理等需求将持续增加云数据库架构的主要优势IDC(含预测),中信证券研究部IDC,华为云,中信证券研究部绘制40算法模型:此前模型以堆叠参数和数据为主StanfordAI
Index2020小模型(2015年前)AI擅长特定领域的分析任务,但通用型任务的完成情况很差。硬件算力不够导致重新训练成本过高;数据来源过于稀少难以提升到更高精确度,整体表达能力与人类相差较远。大模型(2015-2022年)Transformer模型的出现使得文字、图像识别等领域达到了超越人类的水平,但同时也极大增加了模型的体积,只有拥有强大算力支撑的科技巨头才有能力训练Transformer模型。2015-2022年间深度学习模型体积不断扩大41算法模型:Transformer有望扩展至多元领域2022TeslaAI
DayTesla在自动驾驶中引入Transformer模块英伟达Hopper架构追加一层用以处理Transformer算法NVIDIA官网ChatGPT的成功展现出Transformer模型的潜力尚未被完全发掘,而其本身所提供的通用问题解决能力有望随着算力成本的优化、算力的进一步提升,比如:特斯拉:公司在自动驾驶原有的视觉模型基础上引入Transformer模块以融合多个摄像头模组间的信息英伟达:在其芯片中引入Transformer引擎,实现计算能力的大幅提升未来随着数据质量级算法能力的进步,我们认为Transformer模型有望朝着小算力终端更加友好的方向发展。42算法模型:使AI算法模型迈向新阶段资料来源:中信证券研究部预测、绘制AI算法模型发展历史及对应表现ChatGPT的成功一改往日大模型依靠堆积数据量的训练方式,RLHF(人类反馈强化学习)和Reward
model(奖励模型)是其核心训练逻辑。ChatGPT的成功推动AI算法模型展现出更加明晰的发展脉络,使行业迈向了兼顾经济性与可使用性的新发展阶段,展望未来,模型开放+快速优化迭代或将成为AI实现大规模应用落地的终极发展形态。43应用场景:成本下降+高质量数据加速AIGC落地资料来源:红杉投资官网模型开放、快速迭代(2024以后)得益于AIGC基础设施可获得性的逐步提高,平台层变得更加稳固,算力成本持续下探,模型逐渐趋于开源与免费,应用层爆发式发展的节点正在靠近。正如GPS技术的普及打开了导航市场,我们认为AIGC整体产业链从底层硬件到中层技术再到产品思维的成熟正在催生新的杀手级应用。未来可能出现的杀手级应用及其对应的当前模型44应用场景:实现UGC到AIGC的助推器资料来源:虎嗅网Chat-GPT的出现所带来的内容生成能力将会为当今从用户创作(UGC)到AI创作(AIGC)的转型提供关键的辅助支持。目前我们正经历从Web2.0开始向Web3.0转型的启航阶段,在过去五年我们已经看到内容创造从专业创作(PFC)转型为了用户创作(UGC)。而在不远的将来,AI协助内容生成(AIUGC)与AI创作(AIGC)将为我们提供更低的创作门槛以及更丰富的创作思路。在这两个阶段中。内容生产主体从人类本身开始向人工智能迁移,主要区别体现在内容的生产效率、知识图谱的多样性以及提供更加动态且可交互的内容上。人脑只能基于自己的知识图谱进行少数方向的信息处理,而AI能从更庞大的知识体系中进行多个方向的处理,进而提供更多的创作思路。Gartner预计,到2025年,生成式人工智能将占所有生成数据的10%。内容生成的四个阶段45二、算法模型:AI产业灵魂,技术路线持续向GPT方向收敛46资料来源:Vertex人工智能发展史就是技术不断向通用人工智能靠近的历史AI技术发展的核心主线:通用人工智能(AGI)底层算法与模型是贯穿人工智能技术发展的核心,从上世纪50年代第一次提出人工智能概念开始,底层算法经历了多次迭代。而贯穿多次迭代的主线是研发出真正的通用人工智能(AGI),即用一个模型解决大多数的问题,通过这一方式才能真正做到降低人工智能的成本并取代人类。47资料来源:Medium“三起两落”的关注热潮历史上对人工智能的关注经历了“三起两落”1950S~1970S:受制于算力性能、数据量等,更多停留在理论层面。1980S~1990S:专家系统是人工智能的第一次商业化尝试,高昂的硬件成本、有限的适用场景限制了市场的进一步向前发展。2015年至今:逐步形成完整的产业链分工、协作体系。48资料来源:虎嗅网1956年的达特茅斯会议第一次提出“人工智能”这个单词早期人工智能模型发展:对人工智能的最初探索1956-1960s:停留在理论层面的人工智能畅想达特茅斯会议:第一次提出AI概念,符号主义&连接主义的雏形可以进行跳棋对战,实际硬件能力不足以支撑对人工智能的更复杂的理论假想49资料来源:David
C.
England
(Jun1990).
An
Expert
System
fortheManagementofHazardous
Materials标志性的专家系统流程图早期人工智能模型发展:失败的专家系统尝试1970-1980s:专家系统是人工智能“第二次浪潮”中的一次代表性尝试专家系统是一个以人工智能取代人类专家解决专业问题的尝试由大量复杂的规则组合而构成,80年左右的PC硬件进步让50年代时对于人工智能的理论畅想得以实践复杂规则堆砌后导致总成本过高&系统难以维护,频繁对规则以及底层知识的更新让其无法取代人类劳动力50资料来源:Data
Science
centerLeNet让神经网络这一概念重新被计算机界关注早期人工智能模型发展:神经网络让人工智能第三次焕发生机1990-2010:神经网络算法的提出及其在21世纪初的深度学习缓步推动人工智能前行1989年,Lecun提出了一种用反向传导进行更新的卷积神经网络,称为LeNet2006年,Hinton提出了深度学习大大提高了模型的泛化效果在图像领域取得了大幅提升,CNN&DNN算法成为了这一阶段的绝对主流深度学习推动了人工智能21世纪前15年的发展资料来源:英伟达官网51资料来源:《Stanford
AI
Index
2020》Human-centered
Artificial
Intelligence
(HAI)以LSTM模型为代表,主要思路是叠加模型层深度近10年内的人工智能模型发展:深度学习为核心的小模型2013-2017年:以深度学习为核心的小模型以LSTM及CNN模型作为典型的特征抽取器根据特定领域标注数据训练,在一些任务上可以达到接近人类的水准通用型任务的完成情况很差,硬件算力不够导致针对其他领域重新训练成本过高;数据来源稀少难以超越人类水平模型精度难以超越人类水平(蓝色为人类)资料来源:《Stanford
AI
Index
2020》Human-centered
Artificial
Intelligence
(HAI)52资料来源:Deepmind,MediumAlphaGo是以深度学习与蒙特卡洛树搜索为核心的模型2015年
AlphaGo:将多年积攒的研究成果展现给大众AlphaGo
是由
DeepMind(后被谷歌收购)开发的人工智能程序,代表了从上世纪90年代开始深度学习、蒙特卡洛树搜索等先进技术的集大成者,实现了人工智能在围棋领域的重大突破2015年,AlphaGo
首次与欧洲围棋冠军樊麾对弈,并以5-0的成绩取得胜利。2016年,AlphaGo
在一场备受瞩目的比赛中战胜了韩国围棋世界冠军李世石,向世人展示了其在围棋领域的强大实力AlphaGo
的成功引发了全球范围内对人工智能和深度学习的关注,展示了机器在复杂问题解决和策略制定方面的巨大潜力2016年AlphaGo战胜李世石将其的关注度推到最高峰资料来源:Deepmind,Medium53资料来源:research
gate这一阶段面对多种问题需要依靠不同的模型,研究资源大量分散AlphaGo成功的背后:人工智能研究种类繁多且杂乱虽然AlphaGo在围棋领域取得了巨大成功,但仍无法解决通用人工智能问题,其方法在其他领域的应用受到局限这一人工智能研究方向众多且缺乏统一,导致学术界和产业界的资源分散,影响整体发展图像检索:深度学习为主的方法;图像生成:对抗神经网络为主的方法;推荐系统:蒙特卡洛树等方法等54资料来源:nexocodeNLP是计算机技术、AI、人类知识三者的交汇点后AlphaGo时代:NLP成为通用人工智能(AGI)的可能解尽管AlphaGo及其背后的深度学习无法解决通用人工智能问题,但其给人工智能这一领域重新带来了关注度在这一阶段,NLP(自然语言处理)开始展现其对通用人工智能(AGI)的潜力。语言是人类历史上最具表述力的工具,人类的所有知识都可以通过语言进行表述,因此以语言为基础的NLP任务开始被人们寄予厚望研究者们开始尝试将NLP模型从特定任务的优化扩展到多任务学习,以便在各种任务上取得更好的表现。这也反映了通用人工智能的目标,即让AI系统具备广泛的知识和技能,以应对不同领域的问题NLP任务中我们看到了将多类任务通过单一模型解决的可能性资料来源:nexocode55资料来源:《Attention
is
all
you
need》(Ashish
Vaswani,
Noam
Shazeer,
Niki
Parmar等)Transformer结束了过去对CNN、RNN、LSTM等谁更好的争论近10年内的人工智能模型发展:从小模型走向大语言模型2017年-2020年:以谷歌Bert为代表的双向预训练+Fine
Tuning(微调)的NLP
Transformer模型谷歌的《Attention
isallyou
need》论文开创了Transformer模型,重新统一了自然语言模型(NLP)的研究范式以预训练的方式学习语言学特征,大幅简化了过去NLP繁琐的研究种类Transformer作为特征提取器效果好于CNN、LSTM模型等,让AI首次能在语言任务的部分场景中追平人类国内互联网大厂在这一阶段仍有出色表现,如百度在Bert的基础上改良了Mask训练方法发布了ERNIE2.0在语言任务上,AI第一次能在部分场景追平人类资料来源:《Attention
is
all
you
need》(Ashish
Vaswani,Noam
Shazeer,
Niki
Parmar等)56GPT:坚持自回归+Zero/Few
Shot
Prompt
//
谷歌:从双向预训练+Fine
Tune开始向GPT模式靠拢OpenAI与谷歌的Transformer道路之争2018年6月OpenAI发布基于TransformerDeconder的GPT-1,1.1亿参数2019年2月 2020年5月OpenAI发布GPT-
OpenAI发布GPT-2,15亿参数 3,1750亿参数2022年3月OpenAI发布InstructGPT,用到Instruction
Tuning和RLHF2022年12月OpenAI发布ChatGPT2017年6月Google发布2018年10月Google发布编码器的2019年10月Google发布基于2021年10月Google发布2021年11月DeepMind发表2022年1月Google再发LaMDA2022年4月Google发布PaLM2022年9月DeepMind发布Transformer,成为后 BERT(最大3.5亿参 Transformer FLAN,转向 Gopher(2800亿
(1370亿参数),称
(5400亿参数, Sparrow,加入来所有LLM的基础架数),用于微调下游任Decoder的T5,兼decoder-参数),加LLM其具有“意识”decoder-only),RLHF和Retrival构;务容BERT和GPT的only,提出大战提出神奇的思维链(GoogleDeepMind提出RLHF方下游任务InstructionSearch)法TuningGoogle,OpenAI57Stanford
AIIndex2020,NVIDIA官网从2018年到2022年,模型参数量增加了5000倍近10年内的人工智能模型发展:GPT-3证明生成式模型是更好的产品2020年-2022年:以1750亿参数的GPT-3为代表,各大互联网巨头不断尝试增加模型体积以获得更好的效果通过预训练无监督学习的方法不断增加模型大小成为了这一时段的主流GPT-3为代表的自回归+Prompting的方法开始展现产品化能力的优越性,与Fine-tuning方法的Bert模型成为两条道路Fine-tuning对于小公司更难部署,从产品化的角度上更加困难Prompting的方法更符合我们对以人类的方式使用AI的愿望,正如开头所描述的ChatGPT与Siri的区别谷歌等巨头在这一阶段也意识到了Prompting方法的重要性,逐渐开始转向。国内AI研究在这一段时间内出现了明显落后,仍然沿着Bert模型的方向继续前进,对GPT-3的研究很少;同时受制于中文优质语料的稀缺,模型大小也较难提升Prompt简化了使用端接口,是更好的产品思维Stanford
AIIndex2020,
NVIDIA官网58资料来源:苹果公司,中信证券研究部自回归生成模型vs双向+微调模型GPT-3发布后被学术圈开始重视自回归模型+Zero/Few
Shot
Prompt的大语言模型此前接触的人工智能如·Siri、小爱、小度音箱等,底层技术是Bert类的双向+微调模型。通过以任务分类的形式运行,准备不同任务的标注数据分别进行训练。简单来说,将预先设置好的任务类型放于模型背后,使用者通过描述任务类型系统来
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 文员个人总结简短500字
- 指定监护人决定书(5篇)
- 科技读书节开幕词(3篇)
- 灭火应急预案大全15篇
- 建筑项目施工合同范本(34篇)
- 北京市海淀区2024−2025学年高二上学期阶段性针对训练(10月) 数学试卷含答案
- 风险整改报告5篇
- DB11T 1500-2017 自然保护区建设和管理规范
- 2023年冷弯型钢资金需求报告
- 2023年建材级纤维素醚资金申请报告
- 中华人民共和国建筑法(2019年版)知识培训
- 12 光的传播 (教学设计)-2023-2024学年五年级上册科学人教鄂教版
- 水电站生态风险评估与预警
- 3.9 秦统一中国 课件 2024~2025学年统编版七年级历史上册
- 广东省2024年中考历史真题试卷【附真题答案】
- 个人胜任项目经理岗位的认识
- 2024至2030年中国大型铸锻件行业市场深度研究及投资规划建议报告
- DB11-T 2291-2024 建设工程电子文件与电子档案管理规程
- 07J901-1实验室建筑设备(一)
- 异地就医备案的个人承诺书
- 《出口退税培训》课件
评论
0/150
提交评论