AI+计算机行业市场分析_第1页
AI+计算机行业市场分析_第2页
AI+计算机行业市场分析_第3页
AI+计算机行业市场分析_第4页
AI+计算机行业市场分析_第5页
已阅读5页,还剩12页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

AI+计算机行业市场分析1.算力:大超预期的白热化战争,AI蚕食Non-AI预算1.1.NVIDIA:大Beta显示出华尔街买卖方的缺位NVIDIA作为千亿美元级别的大票,华尔街理论上有着极为紧密的跟踪,但事实上美股投资者们出现了大Miss。从卖方视角来看,有较多的Tracker可以验证到NVIDIA的业绩,2023年以来卖方对NVIDIA股价的Preview都是一条直线;从买方的视角来看,NVIDIA流动性较为充沛,但此次美股投资者们却出现了大Miss,纷纷对NVIDIA2024日历年的收入预期进行较大调整,一定程度上显示出了华尔街买卖方的缺位。在达到万亿市值之后,NVIDIA的估值反而降低了。NVIDIA突破了万亿美元的市值,但是目前的P/ERatio反而降低了,主要系NVIDIA的业绩的爆炸性增长。从产业链视角来看,我们认为该增长可能仍将持续:据BAC研究报告,CSP(云端服务业者)占据NVIDIA采购占比仅40%。如何看待NVIDIA的估值?如果将NVIDIA看作一家纯半导体公司,那么NVIDIA的估值偏高;但如果将NVIDIA是一家以软件生态为核心的AI算力核心供应商,那么其估值其实并不高。根据MS的研究,2027年AI半导体的TAM将达到1250亿美元。其他的ASIC硬件很难达到NVIDIACUDA生态下的效能,特别是CuDNN和CuBLAS,其甚至可以绕过来驱动直接操作GPU,CUDA生态也是NVIDIA占据AI算力核心地位的重要原因。NVIDIA目前提供针对AI的服务和软件能力。其中,NVIDIAAIFoundationsCloudServices提供云端快速训练模型的能力,而NVIDIAAIEnterpriseSoftwarePlatform提供100多种框架、预训练模型和开发工具,以加速数据科学管道并简化AI应用的开发和部署。由此可见,NVIDIA已经逐渐脱离了传统的Fabless公司的范畴。海外巨头不愿意被供应商绑定,并且考虑成本因素,纷纷进行ASIC自研。一方面,由于NVIDIA的压倒性优势,巨头在谈判时议价权有限;另一方面,2024年大规模的推理应用或将铺开,而对于推理端来讲,性价比是唯一的考量因素。而巨头期望于通过软硬一体的解决方案来大幅度降低推理成本,从而获取竞争优势。因此巨头大量采用了ASIC的解决方案,ASIC提供商如AMD、AVGO、MRVL会有所受益。巨头在AISemi上的投入十分巨大,AI对于Non-AI形成了显著替代。2024年日历年度,巨头对于AI芯片的采购量是十亿以上量级,AI相关的数据中心投入将占巨头的Capex的四成以上。考虑到巨头的Capex不会大幅度增长,因此AI对于Non-AI将形成严重的挤出效应。这不仅解释了为什么ANET、JNPR、MU、STX等公司表现不佳,还解释了为什么MRVL跑不过AVGO。我们预期未来较长一段时间AI的暴露度(Exposure)会是美股半导体相关股票的核心考量,那么对ANET/MU/INTC也需要重新考量。AISemi的卡脖子环节在哪里?在TSMC。目前几乎所有的GPU和ASIC都需要芯片和显存/内存的高速连接,并且对于显存/内存而言越大越好。由于对尖峰性能的极致追求,目前的封装方案中只有COWOS能满足需求,而COWOS目前由TSMC独家掌握。目前看到MI300已经将HBM堆到192GB,预计后续的Training芯片的显存将突破200GB。因此我们认为,TSMC将会是一个良好的投资标的,特别是其会叠加消费电子+AI的双重Cycles。2.数据:版权问题最值得关注西方的趋势是逐步强调版权的重要性。不同地区的法律法规显著不同,并且在快速的变化中,其中有两个非常重要的因素值得关注:1)训练中使用的数据的版权,以及2)AIGC生成的作品的版权。从各国版权要求来看:英国:允许AIGC生成的作品拥有部分版权,但是禁止将此版权授予给AI。欧盟:立法者目前正在考虑要求生成性AI系统的提供者“公开披露使用受版权法保护的训练数据的摘要”,关注AIAct。美国:美国版权局只承认人类创造的作品,国会可能会进行法律修订对于AIGC生成的作品的版权的归属进行明晰化。AdobeFirefly的一大吸引点是其训练内容都是有版权的。绝大多数的数据均有版权,因此大模型的海量数据中势必包括版权数据。针对AIGC生成的作品,人类参与的成分和程序参与的成分并不是那么容易进行区分,如果AIGC生成的图片和真人的图片一模一样,其版权划分问题有待商榷。我们预计版权问题还需要长久的立法探讨之后才能得到解决。作为应对方案,Adobe声明其会补偿Firefly用户相关版权诉讼的损失。具体而言,Firefly是Adobe在AI时代的核心平台。AdobeFirefly是一款创新的生成性人工智能引擎,它可以根据用户的文本提示生成图像、矢量图、视频和3D内容。Firefly现已集成到Photoshop(测试版)、Illustrator、AdobeExpress以及Web上。Firefly将作为Adobe的核心AIOffering进行推广。首先,Firefly将作为一项面向消费者的独立免费增值服务,并针对企业提供服务。其次,Adobe旗舰应用程序中的Copilot生成AI功能将提高平均每用户收入(ARPU)并保持用户粘性。第三,Adobe将为需要生成更多内容的客户提供订阅点数(Credit)。第四,Adobe将为开发者社区提供Firefly的API访问权限,并允许企业使用他们的专有内容创建独家定制模型。最后,行业合作伙伴以及Firefly对ExperienceCloud、CreativeCloud和DocumentCloud的发展带来了新的机会。Adobe目前的优先事项是广泛推广Firefly,预计将在今年晚些时候推出具体的定价。除了Firefly,公司还有SenseiAI等产品。SenseiGenAI是一种为市场营销人员和其他客户体验团队提供的新型AI助手,可以在AdobeExperienceCloud的多个应用程序中用于各种用例,如资产创建和在客户旅程中的个性化服务等。公司的AI和机器学习服务团队也正在发布新的下一代功能和解决方案,这些功能和解决方案由Sensei驱动,在AdobeExperienceCloud中帮助品牌实现规模化的个性化,这些新的AI和机器学习功能使用智能决策和预测洞察来加速影响,帮助品牌为其客户提供更个性化和相关的体验。Adobe认为,其在AI发展中拥有三大优势:1)独有的数据源,包括CreativeCloud中的和DocumentCloud中的;2)Adobe自己创建FoundationModel,具有较高的掌控力;3)最重要的是Adobe提供了良好的界面(Interface)。我们认为公司在终端应用中具有生态位的卡位优势。3.大模型:私有模型两大巨头单挑,开源模式Meta苦苦耕耘与国内大模型百花齐放不同,海外的大模型在GPT的强压面前快速收敛。海外以GPT-3或BERT两大路线作为基础模型或参考,大模型厂商以谷歌系(包括DeepMind和Anthropic)和微软系(OpenAI)为首,Facebook、NVIDIA、Runway、AWS及学术机构均有参与,但大多采取开源模式,且发展规模较谷歌微软存在差距。国内则展现出百花齐放的局势,大厂(腾讯、百度、字节、京东、阿里、华为、360等)、传统AI公司(商汤、讯飞)以及科研国家队(智源、中科院自动化所)纷纷入局。闭源模型微软、谷歌领先,Meta持续耕耘开源模式。闭源:基于Transformer衍生出GPT与BERT两大知名NLP模型族,分别对应业界两大巨头,即微软(OpenAI)&谷歌(GoogleBrain、DeepMind)。其性能暂时领先其他大厂模型(如AWS的BLOOM),两大巨头在闭源模型领域进行激烈PK。开源:Meta发布LLaMA模型并开源,LLaMA+LoRA模式是当前开源LLM中最活跃的生态;AWS与HuggingFace基于LLM生态展开合作。LLaMA的出现验证了GPT之外的另一条路径,即更大规模的训练数据+更优的算法调试,降低模型对参数和算力的依赖。4.应用:一切+AI,但单独的KillerApp可能就是GPT本身4.1.SAP:集成AI到公司产品,并没有全新AI应用SAP的AI策略是将AI集成(Embed)到其产品组合中。SAP较为关键的AI产品是Datasphere,其是SAPDataWarehouseCloud的下一代产品,其是一种全面的数据服务,可以使每个数据专业人员都能无缝且可扩展地访问对决策产生重大影响的业务关键数据。同时SAP也宣布了跟UiPath的合作,将通过UiPath更好地进行流程自动化操作。此外在SAPSapphire会议上,SAP还宣布了将SAPSuccessFactors解决方案与Microsoft365Copilot和MicrosoftVivaLearning中的Copilot集成,旨在解决技能差距,提高招聘、保留和提升员工的能力。4.2.ORCL:强调OCI+AI的先进性与SAP显著不同的是,Oracle提供OracleCloudInfrastructure(OCI)。OCI可以理解为IaaS+PaaS层,Oracle的公有云的SaaS的解决方案可以在OCI上运行,例如FusionCloud和NetSuite。OCI提供了包括虚拟机(VM)、裸机服务器、GPU实例、块存储、文件存储、对象存储、虚拟私有网络(VPC)、负载均衡器、DNS服务、身份和访问管理(IAM)、防火墙、数据加密等功能,其上面也可以搭载OracleAutonomousDatabase和其他数据库服务。Oracle表示其客户对于AIService有着非常大的需求。Oracle的OCI的订单已达到了20亿美元。Oracle与NVIDIA正在建设世界上最大的超级计算机,其拥有16000颗GPU晶片。此外,Oracle还与企业AI平台提供商Cohere合作推出了GenerativeAICloudService,在保护客户隐私的同时允许他们训练大模型,Cohere也在Oracle的OCI上训练自己的LLM。Oracle表示其OCI与其他公有云厂商有所不同。Oracle表示其OCI采用了RDMA架构,并且内嵌了APEX低代码平台,同时其数据库产品AutonomousDatabase不需要数据库维护就可以进行自修复和升级。RDMA是一类技术的统称,Infiniband就是RDMA技术的一种,而其被NVIDIA广泛使用。4.3.Salesforce:大幅强调AI的重要性,建立了完整的AI架构公司近期发布了AICloud产品。AICloud是Salesforce的核心Offering,其整合了Salesforce的技术,包括Einstein、DataCloud、Tableau、Flow和MuleSoft,以提供可信赖、开放的生成式AI。AICloud将使销售代表能够快速自动生成针对客户需求的个性化电子邮件,服务团队能够自动生成个性化的代理聊天回复和案例摘要。Salesforce自研了EinsteinGPT以及EinsteinGPTTrustLayer。Salesforce的EinsteinGPT是世界上第一个给CRM定制的GenerativeAI,其是公司AI产品的核心。EinsteinGPT的主要特点包括:个性化内容生成:EinsteinGPT可以生成个性化的内容,使每个员工更高效,每个客户体验更好。开放和可扩展:EinsteinGPT支持为CRM定制的公共和私有AI模型,并在可信赖的实时数据上进行训练。与OpenAI集成:EinsteinGPT将与OpenAI集成,为Salesforce客户提供开箱即用的生成AI能力。例如,EinsteinGPT可以为销售人员生成个性化的电子邮件,为客户服务专业人员生成特定的回答以更快地回答客户问题,为营销人员生成针对性的内容以提高活动响应率,以及为开发人员自动生成代码。通过应用LLM,Salesforce表示员工的生产力能够提升20%-30%。Salesforce收购的Slack进行了OpenAI集成。Salesforce和OpenAI早在3月推出了Slack的ChatGPT应用程序,该应用程序由OpenAI在Slack平台上构建,集成了ChatGPT的AI技术,可直接在Slack中提供即时会话摘要、研究工具和写作辅助,帮助数百万家公司更高效地工作。由于Slack中沉淀了大量的Salesforce数据,并且是一个关键的交互节点,Salesforce认为Slack在GenerativeAI中意义重大。Salesforce还强调了DataCloud的重要性。SalesforceDataCloud是一个实时的数据湖,它提供了连接所有客户数据的能力,无论是来自任何应用程序、设备还是实时流,都可以使用开箱即用的连接器。它还能够自动将所有数据和谐成一个单一的客户图,并为任何部门和任何行业提供实时适应其活动的统一客户档案。EinsteinGPTTrustLayer作为中间层使得大模型无法获得敏感数据。Salesforce的EinsteinGPTTrustLayer是一个重要的功能组件。它是AICloud的一部分,专门用于处理生成式AI的安全性问题。它包括数据脱敏功能,可以从发送到大型语言模型的数据中删除个人信息。Salesforce长期投资进行AI能力建设,可以追溯到2014年。Salesforce在2014年成立SFDCAIResearch,即Salesforce的人工智能研究部门,致力于在人工智能领域推动研究进展,并将这些研究应用于开发AI产品及解决方案。2016年Salesforce推出Einstein平台,并陆续通过收购/自研方式扩充AI产品及能力,包括对话Insights、BOTs、EinsteinSearch等,直至2022年结合GPT能力,推出EinsteinGPT、SlackGPT和TableauGPT等。SalesforceAICloudStarterPack定价36万美元每年。Pack内包括DataCloud、MuleSoft、Einstein、TableauAnalytics、Slack、CRM和Salesforce专业服务等功能。4.4.ServiceNow:黄仁勋力挺的应用软件开发商与其他公司不同的是,ServiceNow获得了NVIDIA的支持。5月17日,双方发布合作声明,ServiceNow借助NVIDIA的强大软硬件能力,将在其ServiceNowPlatform上搭建独有的LLM,从而大幅度提升流程自动化和生产力。ServiceNow在AI相关产品的研发中奖采用NVIDIAAIFoundationsCloudServices以及NVIDAAIEnterpriseSoftwarePlatform。公司将与NVIDIA一起开发虚拟助手,并且将大幅度提升客户支持团队的效率。ServiceNow反向对NVIDIA赋能。ServiceNow帮助NVIDIA更好地开展ITOperations,包括在NVIDIANeMo框架下用NVIDIA的数据更好地开发支持DGXCloud云端部署和DGXSuperPOD本地部署的应用。公司有机会与NVIDIA成为双子星。ServiceNow明显在借助外部力量来发展AI能力。从2017年开始公司就通过IntentionalM&A对于AI相关公司展开了收购。ServiceNow收购的标的涵盖VirtualAgent、MLPlatform、NLP、Search、AIOps、RPA等领域,公司表示AI能力使得公司的PRO+OfferingsAdoption提高了40%,ASPUplift提升25%。考虑到ServiceNow市值已经超过千亿美元,我们认为,这说明对于小公司来说单枪匹马开发LLM是较为困难的。ServiceNow已经形成了完整的AI战略,建立了完整的生态。ServiceNow将模型分为GeneralPurpose模型和DomainSpecific模型。对于GeneralPurpose模型,ServiceNow表示其已经接入了OpenAI,将探索和Google合作的机会。对于DomainSpecific模型,ServiceNow则是跟NVIDIA和HuggingFace合作,并且已经跟两者建立了合作伙伴的关系。但如果从目前的情况来看,AI仍然没有全新的应用场景。4.5.Datadog:CEO对于LLM有较为不同的认识为什么我们要在这里放入Datadog?因为其作为InfrastructureMonitoring的第一股,其观点极有价值。然而,Datadog的CEOandCo-Founder表明GenerativeLLM不要在私有云上部署。根据Datadog公开电话会,公司CEO表示,采用通用大模型的唯一方法就是真正在云端部署,因为技术变化较快,以至于每六个月或每年可能就要重做一次部署。此外,Datadog表示基于GenerativeLLM的应用需要巧妙管理否则会十分昂贵。公司CEO表示,仅从数字的角度来看,试图将可观测性数据直接发送到大语言模型中的成本将比运行最初产生这些数据的应用程序高出几个数量级,其最大的客户可能不得不花费接近加州GDP的水平才能实现这一目标。尽管看上去有点怂人听闻,但是考虑到其的行业地位,我们认为这是十分重要的观点。从Datadog最新的举措来看,Observation领域并没有全新的AI产品。Datadog最近在AI领域的布局主要包括以下几个方面:WatchdogAI引擎的扩展:Datadog扩展了其WatchdogAI引擎,增加了根因分析和日志异常检测功能。这些新的AI/ML能力使IT团队能够更快地检测、调查和解决应用性能问题,并减少假警报。这是Datadog在AI领域的一个重要发展,有助于提高其产品的智能化程度和用户体验。与OpenAI的集成:Datadog宣布了一项新的集成,可以监控OpenAIAPI的使用情况,帮助组织监控AI的使用情况、成本和性能。这个集成使企业能够更好地理解和管理他们的AI模型,从而提高AI的效率和效果。为Azure组织提供新的能力:Datadog为Azure组织提供了新的能力,帮助他们管理成本、迁移到云端并监控AI模型。这些新的能力和集成为企业提供了一种简单、快速和可扩展的方式来构建和部署AI应用。过往,Datadog的主战场是AWS,但随着Azure凭借GPT模型所获得的强大竞争优势,公司开始在Azure上发力。但是Datadog并没有大幅上调全年指引(只上调了约1000万美元的收入)。我们认为这可能跟CloudOptimization依旧持续以及AI褫夺非AI预算有直接关系。4.6.MongoDB:积极拥抱AI并推出全新产品MongoDB最近举办的InvestorDay展现了公司的巨大野心。MongoDB认为,AI将显著增加公司的Workloads,而MongoDB也将成为AI相关应用首选的开发平台。同时,MongoDB官宣推出的VectorSearch会成为GenerativeAI的重要基础设施,最终的结果则是应用程序的全面革新。MongoDB设想了一个极为大胆的向量数据库架构。我们5月第一周就最前瞻的推出了向量数据库的深度报告,此前我们设想,向量数据库和传统数据库是一个平行的关系,两者可能来自于不同的供应商,由向量数据库进行向量搜索,通过LLM输出结果。但是公司比我们的想象更为大胆,公司推出的AtlasVectorSearch(inPreview)将向量数据库和传统数据库结合在了一起,并且提供统一的API(UnifiedMongoDBQueryAPI)进行调用。在公司的设想下,一个原始的数据将同时以数据本身和向量化数据进行存储,而一个搜索的Query可以同时对两者进行搜索调用,并分别提供给LLM、APP等,这将导致调用和管理的大幅度简化。公司的Atlas服务也将因此迅速抢占市场。MongoDB展示了向量数据库的新的应用场景。以通过声音来鉴别车辆问题为例。MongoDB和某家Top车厂合作,将不同型号的汽车发生不同故障时的声音录制下来,放在向量数据库中。当一个车主发现汽车有问题,其将车开到4S店时,4S的员工通过录制故障声音之后用相似性搜索在向量数据库中搜寻近似声音,可以迅速确定问题。公司表示这可以节约1个小时以上的

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论