2024年中国GenAI技术栈市场报告 -RAG、多代理系统、模型微调、模块化、去中心化、MaaS_第1页
2024年中国GenAI技术栈市场报告 -RAG、多代理系统、模型微调、模块化、去中心化、MaaS_第2页
2024年中国GenAI技术栈市场报告 -RAG、多代理系统、模型微调、模块化、去中心化、MaaS_第3页
2024年中国GenAI技术栈市场报告 -RAG、多代理系统、模型微调、模块化、去中心化、MaaS_第4页
2024年中国GenAI技术栈市场报告 -RAG、多代理系统、模型微调、模块化、去中心化、MaaS_第5页
已阅读5页,还剩83页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

头豹头豹RAG、多代理系统、模型微调、模块化、去中心化、MaaS沙利文联合头豹研究院谨此发布中国生成式式AI系列报告之《2024年中国GenAI技术栈市场报告》。本报告旨在梳理GenAI技术栈状、技术栈核心组件、用户核心需求以及相关技术洞察,明晰市场需求,本市场报告提供的GenAI技术栈发展趋势分析反映出生成式AI行业整体的动向。报告最终对市场排名、领袖梯队的判断仅适用于本年度中国本报告所有图、表、文字中的数据均源自弗若斯特沙利文咨询(中国)及头豹研究院调查,数据均采用四舍五入,小数计一位。 报告提供的任何内容(包括但不限于数据、文字、图表、图像等)均系弗若斯特沙利文及头豹研究院独有的高度机密性文件(在报告中另行标明出处者除外)。未经弗若斯特沙利文及头豹研究院事先书面许可,任何人不得以任何方式擅自复制、再造、传播、出版、引用、改编、汇编本报告内容,若有违反上述约定的行为发生,弗若斯特沙利文及头豹研究院保留采取法律措施、追究相关人员责任的权利。弗若斯特沙利文及头豹研究院开展的所有商业活动均使用“弗若斯特沙利及头豹研究院无任何前述名称之外的其他分支机构,也未授权或聘用其他任何第三方代表弗若斯特沙利文或头豹研究院开展头豹l文头豹LeadLeo400-072-5588567893u名词解释u参考文献u方法论u法律声明l文头豹LeadLeo400-072-55884•GenAI技术栈连接了硬件设施层与终端用户交互,集成了包括基础模型、模型开发、数据处理、模型部署监控以及应用交互等在内的技术和工具,提供从模型初始化到部署全过程的一站式解决方案。协助开发者高效地构建、训练、微调、部署和维护栈。直至2012年AlexNet的突破,AI技术栈开始逐步建立,并在2018年开始的大模型阶段,生成式AI技术栈由原本的碎片化工具格局向更具凝聚力和专业化的生栈的设计目的主要包括为开发者提供更高效的编程语言、开发框架与工具链以提升开发效率,给予生成式AI任务系统级的完善支持以及探索和满足大规模头豹沙利文市场研读章节一行业概述GenAI技术栈连接了硬件设施层与终端用户交互,集成了包括基础模型、模型开发、数据处理、模型部署监控以及应用交互等在内的技术和工具,提供从模型初始化到部署全过程oGenAI技术栈定义:指针对开发和部署生成式AI应用的综合环境和平台,集成了包括基础模型、数据处理、模型训练调优、模型部署监控等在内的生成式AI技术栈是连接硬件设施与GenAI应用的中间层,为开发者提供基础模型服务,以及赋能模型调优、监控与维护和编排部署的一系列工具链,满足开发者针对特定应用领域实现高效与部署与监控•文本生成•语音生成•图像生成•代码生成•视频生成•多模态应用编排模型路由代理框架模型维护模型监控数据采集数据清洗与标注数据存储特征工程数据管道向量数据库上下文缓存硬件设施层用户界面UIAPI用户体验UXAgentWorkflows•模型管理•模型微调FineTunning•模型推理终端用户包括CPU、GPU、存储设备等应用层部署与监控•文本生成•语音生成•图像生成•代码生成•视频生成•多模态应用编排模型路由代理框架模型维护模型监控数据采集数据清洗与标注数据存储特征工程数据管道向量数据库上下文缓存硬件设施层用户界面UIAPI用户体验UXAgentWorkflows•模型管理•模型微调FineTunning•模型推理终端用户包括CPU、GPU、存储设备等应用层来源:沙利文头豹400-072-55886沙利文市场研读章节一行业概述在早期的决策式AI时代,AI技术栈的定义较为模糊,业内尚未出现确立的通用技术栈。直至2012年AlexNet的突破,AI技术栈开始逐步建立,并在2018年开始的大模型阶段,生成式AI技术栈由原本的碎片化工具格局向更具凝聚力和专业化的生态•发展背景:由弱人工智能阶段向统计机器学习阶段发展,进入1990年后,算法和模型开始向多样化发展。•代表性技术成果:•技术栈定义:由基于专家知识和规则的系统向“统计机器学习算法+算力包”结构转变HMM模型HMM模型反向传播卷积网络反向传播卷积网络•发展背景:深度学习的兴起标志着AI技术进入了全新的阶段,GenAI技术栈开始建立。•代表性技术成果:•技术栈定义:深度神经网络+开发框架(TensorFlow,PyTorch)ResNetResNetAttentionTransformerAttentionTransformer•发展背景:2018年之后,大语言模型迅速崛起并高效地适用于不同地应用场景。•代表性技术成果:2021年:CLIP被提出,实现了跨•技术栈定义:基础模型+微调+开发者工具链+模型监督与运维等LLaMABERTLLaMABERTGPTGPT-4),该阶段算法和模型开始向多样化发展,以HMM、LeNet-5等模型正式被提出。该阶段开发人员或团队已经有首选的工具以完成特定的任务,但尚未有统一的技术栈。•深度学习阶段(2012-2017年),GenAI技术栈开始正式建来图像分类的重大进展,也引起了开发人员对于标准化工具和框架的缺失以及针对不同硬件平台需要进行大量调优等局限的重视。•大模型阶段(2018年–至今),GenAI技术栈生态系统逐步完善:随着第一代GPT在2018年发布,大模型时代正式来临,人工智能领域的转变使得重点集中于赋能开发人员快速且大规模地构建应用程序,现今的GenAI技术栈生态系统逐步完善且更关注于实现、优化、评估和监控应用程序及系统,且生成式AI技术栈正在扩展以支持智能体来源:沙利文头豹400-072-55887沙利文市场研读章节一行业概述作为旨在简化生成式AI应用程序开发和管理的解决方案和组件合集,生成式AI技术栈的设计目的主要包括为开发者提供更高效的编程语言、开发框架与工具链以提升开发效率,给予生成式AI任务系统级的完善支持以及探索和满足大规模与跨平台部署等新需求挑战。提供更强大和可扩展的计算能提供更强大和可扩展的计算能扩展与部署,进而支撑分布式计算、弹性计算,让用户按需更直观的编辑、调试和实验工更直观的编辑、调试和实验工生成式AI技术栈的设计在协助开发者提升生成式AI应用开发效率、给予生成式AI任务系统级的•为开发者提供高效编程语言、开发框架和工具链:在生成式AI应用快速且大规模开发构建的需求下,生成式AI技术栈在设计之初即需考虑到为开发者提供可观测性、可调试性以及允许自定义扩展等支持。此外,目前AI工程化场景已然不是灵感一现和单一优化即可迅速获取优势的状态,一套完善的全流程的生命周期管理可以大幅提升AI算法层面的生产力。•生成式AI任务的系统级支持:在多模型环境下,模型训练与推理任务层面产生了新的系统抽象与资源。首先针对大数据和大模型的挑战,技术栈需要支持更大的模型以及更多模态的输入,提供更强大和可扩展的计算能力。其次,面对云与集群场景,将AI任务扩展与部署进而支撑分布式计算、弹性计算,让用户按需使用资源也是生成式AI技术栈需要考虑和支持的。•探索解决新需求挑战:在AI算法发展带来的诸多特性支持需求下,生成式AI技术栈为实现一系列新需求不断演化和重设计。首先,针对多组织、多用户共享集群资源以及迫切使用GPU资源的日益增长的需求,提供公平、平稳以及高效的环境是技术栈的首要考量因素。其次,面对割裂的边缘侧硬件与软件栈,如何使模型通过一次训练即可实现跨平台部署到不同软硬件平台也是有待解决的问题。最后,模型本身的重要信息为权重更容易产生安全问题,对于企业级或公有云环境,技术栈需提供更高的安全和隐私保护举措。来源:Github、沙利文头豹8400-072-5588头豹8•构建完整的端到端GenAI应用涉及到复杂丰富的模块组件与流程,从用户交互至可落地应用的结果输出,涉及了AI模型的准备、调优、服务、以及治理等相关关键模块。在支持GenAI应用构建过程中,用户应依据项目、业务线以及组织成熟度等因素在这些模块组件中进行选择组合,并非每个应用均涉及到所有组件模块。头豹构建完整的端到端GenAI应用涉及到复杂丰富的模块组件与流程,从用户交互至可落地应用的结果输出,涉及了AI模型的准备、调优、服务、以及治理等相关关键模块。在支持GenAI应用构建过程中,用户应依据项目、业务线以及组织成熟度等因素在这些模块组件模型列表、权限管理等SQL查询、Web搜索等进度保存、更新排序等模型列表、权限管理等SQL查询、Web搜索等进度保存、更新排序等输出来源:TheGenAIReferenceArchitecture、沙利文头豹400-072-5588头豹在各行业领域专向模型涌现的环境下,大语言模型在特定领域与企业知识缺失的局限性暴露,因此基于外部数据库,可及时调用最新数据和专有领域知识进行补充的RAG显得至关重要。此外,基于外部权威数据信息的整合及数据源的控制,RAG可提升模型回答准确性及可解释性,数据与模型本身的分离也给予了更好的数据隐私管理。oLLM是出色的推理引擎,但随着各行业模型的涌现,LLM针对特定领域和企业的知识仍较局限,•RAG工作原理及重要性:RAG的核心是通过从外部知识库或文档集合中检索关键信息,并将其作为上下文输入给大语言模型,从而提高生成答案的质量。RAG可将大模型的知识和推理能力进行分离,从而在处理最新的或专有领域的问题时可及时调用外部知识进行补充,同时利用推理能力生成正确答案。RAG的必要性一方面体现在其用于解决大语言模型的局限性(如数据更新不及时、易产生幻觉以及缺乏专业领域知识洞察等另一方面,作为大模型的重要补充,RAG通过外部最新数据的整合,提升了模型回答生成的准确性。•RAG的核心优势:RAG的核心优势主要包括准确性提升、透明度与可解释性的增强、数据隐私准确性的提升:RAG通过外部权威数据信息的整合,可生成基于事实和透明度与可解释性的增强:RAG可保持对数据及信息源的控制,通过引用来另一方面,RAG不需要将数据直接内嵌到模型中,敏感数据与模型的分离有助于降低敏感信成本效益的提升:RAG可处理大规模数据集而无需更新所有参数和创建训练集,使其更具经检索相关文档嵌入提问LLM结合问题与提示器输出有RAG无RAG检索相关文档嵌入提问LLM结合问题与提示器输出有RAG无RAG输入向量块01020102030405为文本数据,进行预处理和索引本转换为向量,并存储在向量数据库中增强模板生成准确答案来源:腾讯云、沙利文头豹400-072-5588头豹多智能体系统是分布式AI的重要分支,其将“大而杂”的任务分解给多个互相服务的单个智能体,通过相互通信、信息与资源共享,以及协作以实现共同的整体目标。在复杂任务下,多智能体系统弥补了单智能体的视角单一难点,在鲁棒性与容错性、灵活性与可扩展短期记忆短期记忆反射反射…代码解释器搜索合作模式…代码解释器搜索合作模式o在GenAI系统处理任务愈发复杂的背景下,通过多个Agent协作配合解决复杂难题的多代理系统成•多智能体系统(MAS)的工作原理及重要性:MAS是指由多个自治运行的Agent组成的集体,通过多个Agent的相互协作(包含合作、竞争、混合以及利己的协作模式),共同解决单个智能体无法解决的难题。目前GenAI系统应用随着各场景深入越发复杂,单个智能体在面对复杂任务时存在视角单一、对Contctwindow要求高等局限性,未来多智能体系统的重要性及应用范围将进一步增长。•多智能体系统(MAS)的核心优势:通过分布式智能和协作来解决复杂问题的多智能体系统在效率、鲁棒性与容错性、灵活性与可扩展性层面具备灵活性和可扩展性:多智能体系统的部分个体可依据任务场景动态加入或离开系统,使得鲁棒性和容错性:多智能体系统的分布式特征驱动系统可以在部分智能体发生故障的情况降低了工具选择成本,其次职责拆分后,每个智能体甚至可使用单独微调的LLM,进而达到更好的生成效果。来源:华为云、沙利文头豹400-072-5588头豹提示工程通过提示词的优化设计,引导模型生成符合预期的回答。提示质量直接影响语境和输出,且具备效率提升、训练成本低、灵活性高等优势,因此对于模型尤为关键。但过于具体的提示也存在限制模型创新性的可能,因此用户需依据平衡点对该模块进行取舍。初始提示设计•输入问题•上下文•初始提示设计•输入问题•上下文•输出设置 数据集提示评价评估LLM 优化LLM评估LLM 优化LLM迭代循环提示更新优化迭代循环o提示工程指通过设计和优化AI提示词,以提高AI模型输出的质量与准确性,提示工程直接影响引导模型生成目标输出的优化方式。通过有效清晰的提示,模型可以更好地理解复杂任务与用户问题,进而做出符合预期的反应。此外,根据目标模型输出内容与评估指标的对齐可不断对提示工程进行优化迭代。提示质量直接影响模型输出的准确性和相关性,因此精心设计•提示工程的核心优势:提示工程在效率提升、控制增强、成本降低以及场景扩展层面具备优效率提升:通过提示的精心设计优化,可以减少模型不相关或低质量的输出,减少用户反复修改和调整,提高整体工作效率。控制增强:提示工程由用户输入端进行调整和设置,允许用户对于AI模型的输出有更精确的控制,以确保输出内容符合特定的需求与预期。成本降低:提示工程通过提示语的直接优化,极大地提升模型生成效果,而不必再对模型进行频繁调整与训练,减少了不必要的模型训练成本。场景扩展:提示词可根据不同的任务与场景进行灵活调整,提升AI模型在不同场景下执行任务的灵活性与适应性,扩展AI模型的应用•详细的提示工程可以为AI模型提供明确的指导,但过于具体的提示存在限制模型输出灵活性和创造性的可能,因此用户在使用提示工程时应找到模型准确性与灵活Prospects、沙利文来源:EvaluatingAIEvaluation:PerilsandProspects、沙利文头豹400-072-5588头豹防护栏•事实性错误内容•带有偏见、不道德内容•大模型调用病毒攻击防护栏•事实性错误内容•带有偏见、不道德内容•大模型调用病毒攻击防护栏的重要性在AI技术动态发展中不可被低估,防护栏在防止AI技术滥用、确保内容公平性、维持公众信任以及遵守法规标准等层面起到核心作用。防护栏是抵御与AI技术部署相关的潜在风险的堡垒,是构建安全可靠应用不•个人身份信息•企业商业机密•人脸特征o防护栏有助于减少生成式AI应用风险,用户从格式规范、消息以及交互流层面对输入与输出防护栏进行设置,进而识别、过滤与防护输入输出信息中的潜在风险。防护栏在增强安全性方面首先,将用户提问输入转换成某种格式规范,据此生成对应的护栏,随后生成具体的行动步骤,以交互流指示大模型一步步完成对应的操作。最后,根据格式规范设置生成符合条件的输出内容。在GenAI技术的动态格局中,系统应用变得更为自主与复杂,防护栏的重要性体现在防止技术的滥用,防护栏通过执行相关政策并监测技术滥用情况确保GenAI技术得到负责任的使用;此外,通过实施积极寻找和减轻AI决策中偏见的防护栏可以确保输出内容的公平性;最后,防护栏对于法律遵守和监管标准至关重要,防护栏的有效实施可以帮助AI系统保持在法律边界内,降低风险且确保平稳的运行,因此防护栏为技术栈中的重要组件。•防护栏的核心优势:防护栏设置在安全安全性与可靠性的提升:防护栏旨在防止滥用、保护用户隐私及相关商业机密,通过集透明度与可解释性的提升:防护栏有助于确保AI系统做出的决策可被理解和解释,透明度允许问责制,确保可以识别和纠正相关错误内容或信息与技术滥用。来源:亚马逊云科技、英伟达、沙利文头豹400-072-5588头豹大模型API服务提供了一种强大、灵活且易于集成的方式协助用户快速将AI功能无缝集成到程序和服务中,进而降低用户的开发门槛,提升开发效率。API服务核心优势体现在促进软件集成、实现数据共享、提高可扩展性以及增强系统安全性等层面。金融交通金融交通政务…文生图对话生成函数调用LLM微调…通用语言语音合成音色定制…语音合成语音识别语音识别RAG在线搜索…特色功能助手构建预置插件文生图图生图模型微调文生图对话生成函数调用LLM微调…通用语言语音合成音色定制…语音合成语音识别语音识别RAG在线搜索…特色功能助手构建预置插件文生图图生图模型微调…插件多模态多模态对话oAPI服务管理协助用户实现AI模型与应用的无缝集成,通过API公开其功能使应用程序访问和集•API服务的工作流程及重要性:API服务包含模型的选择到API管理全流程,根据用户的需求确定API的目标与功能,配置应用程序向大模型发送请求,在收到大模型的响应后,用户根据响应内容进行所需信息的提取,将其集成到应用中。最后根据初步集成后,用户根据具体项目对其进行优化测试与监控运维。API服务的重要性在于提供了一种强大、灵活且易于集成的方式协助用户快速地将AI功能集成到对应的程序和服务中,进而提升开发效率,降低开•API服务的核心优势:API服务协助用户促进软件集成、实现数据共享、提高可扩展性,并增促进软件集成:API可实现不同软件系统之间的无缝集成,通过调用现有的API,用户可避免重复开发功能,提高开发效率。实现数据共享:API可以让不同应用程序共享数据,从而实现企业或用户数据价值最大化。提高可扩展性:软件系统通过API可以在基于现有系统架构基础上,更容易地进行扩展和升级,新功能可以通过添加新的API或者扩展现有API实现。增强系统安全性:利用API可实现跨多云环境管理网络安全风险,并利用API提供的安全来源:商汤科技、ChallengesinDeployingMachineLearning:aSurveyofCaseStudies、百度智能云、沙利文头豹400-072-5588MLOps整合了机器学习的应用开发、系统部署与运维,通过在整个机器学习生命周期中实现自动化和标准化以实现更快速的产品开发上市,更高效的团队合作以及模型的持续性改进优化,是协助企业用户将模型高效部署到生产环境中的重要组件。MLMLMLOps=MLOps=•需求工程•ML用例优先级•数据可用性检查•数据工程•机器学习模型工程•模型测试和验证•机器学习模型部署•CI/CD管道•监控和触发持续部署,从而实现快速更新优化。MLOps在大规模生产环境中自动部署机器学习和深度学习•MLOps的工作流程及重要性:MLOps是涵盖数据管理、模型开发、部署到持续监控一系列步骤的系统化框架,通过自动化和标准化流程来加速模型的部署,并确保模型在生产环境中表现稳定。MLOps在构建GenAI应用中,可极大缩短开发时间,协助企业用户快速响应市场变化,并在模型部署后进行监控以确保模型的最佳性能。因此,MLOps是企业用户构建GenAI应用的重要模块,且在未来将趋向更高效与自动化的发展。•MLOps的核心优势:MLOps在机器学习面临创新与试验性挑战下,指引机器学习项目取上市时间缩短:MLOps一方面为开发组织提供了框架一更快、更高效地实现数据科学目标;其次通过自动创建和部署模型可缩短产品上市时间,降低运协作效率提高:通过统一的平台,开发团队可以在机器学习软件开发全生命周期中进行协作和协调,减少重复性工作,大幅提升工作效持续监控和改进:改善生产中的故障排除和模型管理,MLOps允许模型在部署后自动进行监控,通过将模型工作流和持续交付(CI/CD)管道集成,当模型性能下降时触发重新训练,确保模型保持最佳表现。来源:亚马逊云科技、沙利文头豹400-072-5588头豹•大模型是生成式AI应用构建的核心,针对不同领域的用户,特定场景的成内容质量可控性为模型质量的主要考量因素。模型适配性为用户提供专业领域更具针对性的决策建议,提升相关领域解决方案的灵活性,质量可控性则为用户提升错误决策等潜在风险,安全合规优化在用户权益与隐私保护、市场秩序与企业责任•模型推理是将联结终端场景需求的关键环节,随着生成式AI所融合的业务场景愈发多样化,推理在未来市场的发展潜力巨大,但目前AI支出的主要部分仍集中在推理•大模型发展带来了数据架构新需求,生成式AI应用在用户企业内部落业与模型的数据协同以及数据价值的释放成为了“数据驱动决策”过程中的重要考量因素,数据资产的统一、自动化工具的操作以及高校计算能力均及用户体验反馈等步骤,其中生成式界面设计以及与用户的交互方式等为最直接影响产品应用反馈与迭代的因素。产品应用化是推动生成式AI技术从实验理论迈向实头豹沙利文市场研读章节三用户考量因素大模型是生成式AI应用构建的核心,针对不同领域的用户,特定场景的适配性与生成内容质量可控性为模型质量的主要考量因素。模型适配性为用户提供专业领域更具针对性的决策建议,提升相关领域解决方案的灵活性,质量可控性则为用户提升领域内容生成效率。模型复杂度模型复杂度数据规模数据多样性数据集模型 •更好地匹配用户业务需求•提高用户业务决策质量•提升相关领域生成内容效率o大模型是生成式AI应用构建的核心,针对不同领域的用户,特定场景的适配性以及模型生成内•大模型质量的影响因素:影响大模型质量的主要因素包含数据集质量、参数调整、数据一致性与模型选择等因素影响。其中数据集质量是决定模型性能的关键因素,数据质量直接影响•模型质量的重要性:模型质量的重要性针对不同用户重要体现在模型适配与模型生成内容可模型适配性:随着生成式AI与各产业的深度结合,大模型与下游任务的适配难题成为了主要关注点。大模型在预训练阶段需解决的广泛问题与在实际应用中所需解决问题存在一定隔阂,“隔阂”的最小化可以更好地匹配用户业务需求,为用户在特定领域的相关决策提供更具针对性的建议,进而提升专业领域解决方案的灵活模型内容质量可控性:除了与特殊场景的适配性,生成质量的可控性,即在保持生成内容的有效性、流畅性与多样性以外,保证模型生成内容符合预定的控制条件,满足用户的切实期望,例如场景一致性、语言风格等。模型内容质量的可控性为用户提高相关领域生成内容的效率并直接影响最终产品形态。来源:百度智能云、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素针对不同业务场景的模型适配性,用户可结合计算资源成本、效果呈现以及数据量级等考量因素最优化模型专属化路径,较为常见的模型专属化包含应用层的直接调优、外挂知识业务应用Prompt调优业务流程优化基座大模型3参数高效微调业务应用企业知识库垂直场景大模型标注数据基座大模型业务应用Prompt调优业务流程优化基座大模型3参数高效微调业务应用企业知识库垂直场景大模型标注数据基座大模型 2外挂知识库业务应用业务应用Prompt调优Prompt调优业务流程调优企业知识库基座大模型全量SFT继续预训练Prompt调优业务流程调优全量SFT继续预训练Prompt调优业务流程调优精标数据应用调优业务应用业务应用L2大模型应用调优业务应用业务应用L2大模型模型调优垂直场景企业知识库模型调优垂直场景企业知识库垂直场景L1大模型垂直场景L1大模型无标注数据继续预训练价值对齐基座大模型全量SFT基座大模型无标注数据继续预训练价值对齐基座大模型全量SFT基座大模型•应用层调优:通过从应用端的Prompt工程优化,指引模型对用户需求的理解,该方式所需的数据量级与开发成本均较低,但效果受限于提示工程的质量。•外挂知识库:基于相关领域外挂知识库信息的检索,提高模型预测适配性,该方式在信息的实时动态性与回答相关性层面优势显著,但其效果极大依赖于检索信息的相关性和准确性。•参数高效微调:在冻结与训练模型的大多数参数的基础上,仅微调或添加少量参数以提高生成内容的适用性,该方式在计算资源受限的条件下尤为重要。•全量SFT:通过将预训练模型中的参数进行微调,使其更好地适应目标任务的输入与输出,由于全量SFT需要大量标注数据,对于数据分布差异较大的任务下可能存在过拟合等难题•继续预训练:基于大规模预训练语言模型,针对下游任务的特定语料对模型进行相关领域的继续训练,该方式效果受到预训练模型选择影响且对于计算资源需求极高。来源:商汤科技、腾讯云、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素模型选择与模型评估为提升模型生成内容质量可控性的常用方式,模型选择是理解问题的核心,其依据验证误差最小等原则筛选出业务场景下的最优模型。模型评估则通过准确率等一些列评估指标对模型性能进行量化与优化,决定了模型的预测精度与实用性。“训练+验证+测试”训练、调参、确定模型训练、调参、确定模型算法假设空间损失函数内容生成可控性真相迭代优化训练数据模型评估常用评估方法•数据集划分为训练集算法假设空间损失函数内容生成可控性真相迭代优化训练数据模型评估常用评估方法•数据集划分为训练集常用评估指标常用评估指标o模型选择与模型评估为常见的用于优化模型内容生成质量可控性的方式,根据具体问题和数据•模型选择:模型选择即在某个模型类中选择最优模型的决策过程,模型选择通常包含验证误差最小、过拟合与欠拟合、偏差与方差以及可解释性等常用原则。不同模型适用于不同的数据分布和任务需求,因此选择合适的模型对于提升模型性•模型评估:模型评估通常基于模型选择之后,正确地评估模型是迭代优化模型的关键,常用的模型评估方式包括数据集划分与交叉验证,根据不同场景,通过准确率、精确率和召回率等常用指标对模型性能进行量化和优化,从而提高模型的预测精度和泛化能力。来源:百度智能云、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素生成式AI应用构建的过程涉及到数据、模型等安全合规问题,为用户带来隐私泄露、错误决策等潜在风险,安全合规优化在用户权益与隐私保护、市场秩序与企业责任维护等方面至关重要,因此安全合规性为构建生成式AI应用的主•硬件兼容•硬件篡改•旁路攻击硬件安全••硬件兼容•硬件篡改•旁路攻击硬件安全•恶意软件攻击•服务拒绝攻击•数据传输泄露•未授权访问成员推断攻击属性推断攻击模型反演模型窃取…对抗样本投毒攻击后门攻击提示注入软硬件模型保密性训练数据污染数据偏差数据集不一致性…数据完整性模型鲁棒性数据模型鲁棒性数据数据数据隐私性模型可解释性•敏感数据泄露•数据滥用•身份盗用•算法不透明•系统决策复杂•缺乏严格的数学证明o生成式AI应用的构建涉及到一系列数据与模型等安全合规性挑战,为用户带来了隐私泄露、错•生成式AI应用构建安全合规的影响因素:生成式AI应用构建过程中主要受到软硬件、数据和模型安全合规的影响,其中模型安全合规直接影响模型生成内容,影响因素包含模型鲁棒性、模型保密性以及模型可解释性等。•安全合规优化的重要性:首先,构建生成式AI应用的过程中需要处理大量的敏感数据和个人信息,安全合规的优化将减少用户或企业内部隐私权益受到侵害的风险;其次,大模型的能力存在被用于恶性攻击的风险,例如模型的对抗样本攻击可能导致误导性信息的传播,因此安全合规优化在维护市场秩序层面也至关重要;最后,大模型往往涉及到社会伦理、算法歧视等问题也需要一定的安全合规措施优化相关风险。来源:百度安全、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素在应用构建到业务部署过程中构建完善的安全防御链路是优化安全合规的基础框架,根据已知风险攻击、模型安全以及应用部署架构三个层次,可分别针对性地设计防御检测机制,平台可以为用户提供全流程安全管理工具以实现全面的安全保障。安全率评估语料来源筛选监督训练科学阈值安全率评估语料来源筛选监督训练科学阈值安全策略配置…语料过滤清洗模型部署•防闪避攻击•防药饵攻击•防后门攻击安全策略配置…语料过滤清洗模型部署•防闪避攻击•防药饵攻击•防后门攻击模型推理•数据可解释•模型可验证模型推理•数据可解释•模型可验证•模型可解释•隔离与检测•冗余与熔断•数据自恰性•隔离与检测•冗余与熔断•数据自恰性o从生成式AI应用构建到真实业务场景部署过程中,完善的安全合规防御架构是优化安全合规的•安全合规防御工作链可从三个层次进行防御,首先是攻防安全设计,即针对已存在的攻击进行相关防御机制设计,包含防模型窃取等机制;其次模型安全层面可通过模型验证等防御机制提升模型健壮性;最后将相关应用部署到实际业务场景中所面临的风险,可通过隔离与检测、冗余与熔断等不同的安全机制保障整体的架构安全。来源:华为、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素模型推理是将联结终端场景需求的关键环节,随着生成式AI所融合的业务场景愈发多样化,推理在未来市场的发展潜力巨大,但目前AI支出的主要部分仍集中在推理部分,因此推理成本的降低是助推AI技术发展、提升用户对于生成式AI可及性的重要因素。94%芯片制造、电力消耗等成本高LLM参数越来越大,更大的模型意味着更高的计算需求硬件架构和模型推理特性限制了推理效率50%25%0%94%芯片制造、电力消耗等成本高LLM参数越来越大,更大的模型意味着更高的计算需求硬件架构和模型推理特性限制了推理效率50%25%0%97%96%93%90%业务场景愈发丰富,落地链路拉长带来的计算存储资源501-1,000FTEs业务场景愈发丰富,落地链路拉长带来的计算存储资源501-1,000FTEs5,000FTEs所有企业>26,000FTEs26,000FTEs根据MenloVentures调查数据显示,几乎95%的AI支出都用于推理而非训练,因此降低推理成本o生成式AI推理成本占据支出的主要部分,且随着生成式AI落地场景愈发丰富,计算需求不断提•生成式AI推理成本的影响因素:生成式AI推理成本主要受到生产资料成本、计算需求、推理效率以及落地链路长度等多方因素影响。在生成式AI与各业务场景融合的显著趋势下,为了满足各业务场景多样复杂的需求,通常需要更高的计算资源和存储资源,进而导致推理过程•降低生成式AI推理成本的重要性:首先,AI推理与用户终端场景需求更为紧密,是将AI技术从实验室搬到实际应用的关键步骤,AI推理在未来市场的发展潜力巨大;其次,目前AI支出的主要部分集中在推理支出,推理成本的降低是提高用户对于生成式AI应用可及性与普惠性的关键因素。来源:MenloVentures、百度智能云、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素模型推理优化技术可从数据层、模型层与系统层全方位展开,其中模型层优化措施使用较为广泛,其包含知识蒸馏、模型剪枝、模型量化等在保证模型性能前提下,减小模型大小 ••基于软提示词的压缩•检索增强生成_____)_____)•Transformer替代架构o模型推理优化可分别从数据层、模型层以及系统层进行全面优化,其中知识蒸馏、模型量化等•数据层优化:可分为输入压缩技术与输出规划技术,其中输入压缩包含提示词剪枝等方式,通过对输入内容进行相关性筛查、凝练与压缩进而优化数据层输入。•模型层优化:分为高效结构设计和模型压缩技术,其中包含知识蒸馏、量化等方式的模型压缩知识蒸馏:指通过让小模型实现与大模型相近的性能达到推理成本降模型量化:通过将模型的浮点数参数转换为低精度的定点数参数,从而减小模型的大小和模型剪枝:通过移除模型中的一些冗余参数来减少模型的大小,在保证模型性能的同时降低推理成本。•系统层优化:系统层优化涉及模型的前向传递到服务系统的全方位优化,主要包含推理引擎与服务系统的优化。来源:北京大学、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素大模型发展带来了数据架构新需求,生成式AI应用在用户企业内部落地过程中,企业与模型的数据协同以及数据价值的释放成为了“数据驱动决策”过程中的重要考量因素,数据上下文数据向量数据库数据加载与接入上下文数据向量数据库嵌入模型数据管道嵌入模型数据管道(Python、(Python、LLM缓存API接口/插件提示示例PlaygroundLLM缓存API接口/插件提示示例Playground提问应用托管LLM运维应用托管LLM运维输出评估频繁的数据交互评估大模型在企业落地对数据体系的关键需求换方法••频繁的数据交互带来计算量倍增件工具和模型算法自动化驱动所提供的上下文数据o生成式AI应用落地过程中,数据价值的释放受到数据资产的统一性、计算能力的高效性以及方•生成式AI应用数据价值释放的影响因素:根据数据在生成式AI应用在企业用户内部落地的流通过程,针对数据的加载和接入,数据的一致性与质量为主要影响因素,该阶段数据资产的统一为用户的核心需求;其次针对编排框架部分,自动化工具的操作性为主要影响因素,用户可通过函数调用、数据清洗等工具提升数据处理效率与质量;最后频繁的数据流通带来倍•生成式AI应用数据价值释放的重要性:在用户对于个性化、定制化产品需求不断增加的背景下,数据生命周期缩短,伴随着数据的多样性与复杂性增加,用户的数据质量和一致性难以保障。生成式AI应用数据价值的释放协助企业用户的业务数据流通效率与协同性提升,进而最大化利用生成式AI应用的数据价值,驱动用户做出更精准的决策。来源:a16z、《大模型趋势下的企业数据体系思考》、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素生成式AI应用数据价值的释放可通过算力、模型以及决策三层形成完整的数据优化闭环。其中模型优化与决策优化路径较为轻量灵活,模型层,用户主要通过RAG等方式将专向数据与大模型进行结合产生独特价值;决策优化可通过“AI+BI”工具实现智能决策支持。o数据价值释放优化措施可分为三层,以计算能力的提升为优化底座,支撑包含模型微调、数据•算力优化层:算力优化层主要包含硬件与软件性能优化,以支撑保证大•模型优化层:模型优化相较于算力优化,在成本与灵活性上更具优势。企业用户可通过使用RAG、模型微调或持续预训练,利用专有数据与模型进行结合以产生独特价值,助推生成式AI应用持续发展。此外,针对需频繁调用基模的情况下,企业用户可采取数据缓存策略以降低•决策优化层:决策优化层通过AI与BI工具的结合,可依据用户数据查询和分析需求,通过BI应用、增强分析等,提供进一步深入分析,实现层层递进的智能决策支持。决策流 数据流数据流来源:百度智能云、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素生成式AI产品应用化包含产品应用目标设立、生成式AI工具选择、产品流程整合以及用户体验反馈等步骤,其中生成式界面设计以及与用户的交互方式等为最直接影响产品应用反馈与迭代的因素。产品应用化是推动生成式AI技术从实验理论迈向实践应用的关键过程。o生成式AI产品应用化通常包含产品目标确立、生成式AI工具选择、产品流程整合以及用户体验关注等步骤,该过程不仅要求开发者关注技术前沿,更需要深刻理解业务需求,•生成式AI产品应用化的影响因素:生成式AI产品应用化流程围绕用户体验反哺产品应用目标设定,在用户体验环节,生成式界面设计、与用户的交互方式以及用户的编辑体验等为最直接影响产品应用化的因素;其次,产品目标应用定位与合适的工具选择是产品成功的关键,包含业务场景的调研、生成式AI工具的功能价值、性能等因素;最后,在整合产品流程环节,•生成式AI产品应用化的重要性:生成式AI产品应用化是一项系统工程,其不仅是对前沿技术的持续关注、对业务场景的深度洞察、对模型持续优化的精细调整以及对商业价值最大化的不懈探索等多项融合,更是推动生成式AI技术从实验理论迈向实践应用,从实验室走向市场的关键过程。•数据集成•模型训练和部署(确保•数据集成•模型训练和部署(确保模型可以准确接受传输产品数据)•生成式AI工具的功能价值•生成式AI工具的易用性•生成式AI工具的性能•生成式AI工具的成本•设定具体且可衡量的目标••设定具体且可衡量的目标•定位明确的业务场景及目标用户生成式界面设计编辑体验交互方式设计…产品迭代优化来源:百度云、阿里云、沙利文头豹400-072-5588头豹沙利文市场研读章节三用户考量因素生成式AI产品应用化可从最为直接的用户交互体验进行优化,平台可以对用户操作界面设计创新,例如融合了LUI与GUI交互的CUI对话式用户界面,通过更加直观和自然的语言交互以降低用户的操作难度,为用户提供更智能便捷的交互方式,进而优化产品的用户体验。核心优势:以更加直观和自然的语言交互,降低用户操作难度,直接通过语音或文字与系统进行对话本质是解决“沟通成本”o为优化用户体验,生成式AI产品的用户界面设计不断演变,为改善传统GUI交互方式的高学习•CUI(对话式用户界面):CUI是一种允许用户通过自然语言对话与计算机系统或者软件进行交互的技术,旨在模拟与真人对话,为用户提供更为灵活与便捷的交互方式。较于传统的GUI和LUI交互,CUI融合了两者的优点,即GUI的清晰指引与LUI的灵活交互,解决了传统GUI交互下,各种功能与图标的操作复杂性。目前CUI交互技术仍处于发展前期,区别于以往UI设计师所设计的GUI交互,CUI涉及到跨学科的合作,设计师需要更加注重语言逻辑和用户体验,深入理解用户的语言行为与需求以设计出好的CUI,从而优化用户的交互体验。来源:阿里云、沙利文头豹400-072-5588头豹•目前生成式AI技术栈工具与系统存在碎片化与不兼容性等难题,模块化与标准化将成为未来重要发展方向。通过将技术栈划分为一系列的模块和标准化接口,进而更方便地进行组件替换与升级,提高系统的灵活性与可扩展性。•生成式AI技术栈基于模型开发、场景适配、推理部署以及产用开发生态,形成一站式的开发服务平台。此外,与平台化并行的是平台的简易通过易用工具与开放式API的提供,降低用户开发门槛,为用户提供操作性强的完•目前AI系统仍多依赖于中心化架构以便高效的管理与控制,但随之带来了数•旨在通过一系列工具与服务协助用户降低模型开发门槛的MaaS模式将成为未来大模型的主流商业模式,并对生成式AI应用在商业化生态、产品落地等方面产生连带影•GenAI作为底层创新技术,对于信息商品各环节产生了全面的、革命性的影响,此外,GenAI孕育着创造新信息商品类型的巨大空间,这也助推了全新产品时代与超头豹沙利文市场研读章节四发展趋势目前生成式AI技术栈工具与系统存在碎片化与不兼容性等难题,模块化与标准化将成为未来重要发展方向。通过将技术栈划分为一系列的模块和标准化接口,进而更方便地进行组件替换与升级,提高系统的灵活性与可扩展性。•依赖关系管理便捷o模块化与标准化是许多领域的普遍原则,长期以来深度学习领域一直在寻求从模块化中获得灵感。随着生成式AI技术栈的复杂性不断增加,通过将技术栈划分为一系列的模块和标准化接口•技术栈碎片化现状:目前生成式AI技术栈面临系统和工具链互不兼容和碎片化难题,各种多样复杂的工具链属于技术大蔓延下的产物,他们各有取舍和局限性,且在模式的易用性、可移植性以及可扩展层面阻碍了技术的创新。因此,模块化和标准化将成为未来发展的重要方向,通过将生成式AI技术栈栈划分为一系列独立和标准化接口,进而方便地进行组件的替换和升级,提高系统的灵活性和可扩展性。•模块化与标准化价值:技术栈模块化与标准化的价值体现在维护便捷、系统灵活与可扩展性、维护便捷性:由于技术栈被分解为多个独立模块,因此在维护升级时,无需对整个系统进行大规模的拆卸与重组,仅需对存在问题的模块单独替换维修即可,大幅降低维修成本。系统灵活性与可扩展性:通过模块化与标准化,技术栈可根据不同的需求选择与组合对应可复用性:标准化接口确保了不同模块间的兼容性与互操作性,无论是更换现有模块还是添加新模块,标准化接口都能保证系统运行的稳定性。来源:百度智能云、ModularityinDeepLearning:ASurvey、沙利文头豹头豹d400-072-5588d沙利文市场研读章节四发展趋势生成式AI技术栈基于模型开发、场景适配、推理部署以及产品应用将进一步完善应用开发生态,形成一站式的开发服务平台。此外,与平台化并行的是平台的简易化,通过易用工具与开放式API的提供,降低用户开发门槛,为用户提供操作性强的完整的开发解决方案。应用层调优参数高效微调…加密部署…数据增强模型清洗应用层调优参数高效微调…加密部署…数据增强模型清洗分布式训练…Agent…Agent…o基于模型开发、场景适配、推理部署以及产品应用,生成式AI技术栈逐步趋于一站式平台化与•技术栈平台化现状:目前部分头部厂商已针对用户构建产品的需求,将算法与生产服务融合,形成完善的应用开发生态,为用户提供一站式开发解决方案。随着开发平台的进一步发展成熟,生成式AI平台化生态将愈发完善,并实现规模化应用。•技术栈平台化与简易化价值:参考移动互联网时代的端转手趋势,主流应用将展开向AI平台的迁移,即迅速适应并布局生成式AI大模型内的AI插件,探索AI加持下自身应用的新场景。这些应用可以依赖大模型的AI技术提高用户体验,而大模型则借助这些应用吸引更多用户,网络效应进一步加强了这种相互促进的趋势,从而提升大模型平台的生态价值;大模型的简易化则指使模型的使用更加简单易懂,通过工具的易用性、开放的API接口等形式,进而降低开发者使用门槛。技术栈的简易化不仅降低了开发门槛,更是提升了用户的可操作性与开发来源:阿里云、沙利文头豹400-072-5588头豹沙利文市场研读章节四发展趋势目前AI系统仍多依赖于中心化架构以便高效的管理与控制,但随之带来了数据隐私等风险。AI去中心化旨在将AI的开发、部署以及控制权分散到多个实体或用户之间,以提高透明度、减少滥用风险,是未来发展的一大趋势。•AI中心化现状:现今,AI系统大多依赖于中心化的架构,中心化架构虽便于高效的管理与控制,但也存在数据隐私、垄断以及可持续发展等一系列潜在风险。因此,去中心化架构成为未来发展主要考量,去中心化架构特点主要包含去中心化控制、分布式计算资源以及透明度与参与度等。去中心架构下,数据和算法的控制权分布在网络的多个节点,计算资源由多个参与者提供,并通过协作或联合学习共同处理复杂任务,且所有参与者都有几乎参与AI决策过程。•AI去中心化价值:去中心化架构的优势主要体现在数据隐私保护、垄断减少、鲁棒性与容错维护便捷性:由于技术栈被分解为多个独立模块,因此在维护升级时,无需对整个系统进行大规模的拆卸与重组,仅需对存在问题的模块单独替换维修即可,大幅降低维修成本。系统灵活性与可扩展性:通过模块化与标准化,技术栈可根据不同的需求选择与组合对应可复用性:标准化接口确保了不同模块间的兼容性与互操作性,无论是更换现有模块还是添加新模块,标准化接口都能保证系统运行的稳来源:阿里云、百度智能云、沙利文头豹400-072-5588头豹沙利文市场研读章节四发展趋势旨在通过一系列工具与服务协助用户降低模型开流商业模式,并对生成式AI应用在商业化生态、产品落地等方面产生连带影响,反向重构SaaS应用基于API接口基于API接口优化微调提供SDK产品/一体化解决方案变现NLP大模型AI4S大模型NLP大模型CV大模型CV大模型计算/存储/网络/数据库公有云/私有云/GPU/XPUoMaaS旨在通过一些列工具服务的集合,持•MaaS模式结构:MaaS模式由基础层、中间层以及应用层三部分构建。其中基础层提供基模型与领域大模型,对外开放大模型的调用接口;中间层将付费使用接口,通过直接调用基模型,基于行业特色数据和知识进行精调开发行业大模型;应用层则将进行多样化的SaaS应用以及新一代智能硬件的开发。基础层需依托大算力、大数据以及强算法等核心能力,因此科技头部企业以及部分科研高效竞争聚集于底层;中间层与应用层包含模型精调、应用开发、边缘模型部署等多领域生态,包含初创企业在内的各类企业均有望参与到MaaS商业化生态。•B/G端与C端用户落地差异化:针对C端市场,MaaS落地的主流商业模式为软件订阅费用,以及第三方APP的推广和订阅分成费用,基础层大模型供应商可基于大模型推出类似ChatGPT的单点工具,以订阅费提供产品功能使用;针对B/G端用户,其行业领域和业务场景需进行大量工程工作,但该类用户付费能力强,盈利空间广阔,MaaS落地的主流商业模式将按照数据请求量和实际计算量进行收费,通过对外开放大模型的API调用接口,让开发者灵活地使用基础模来源:百度智能云、沙利文头豹400-072-5588头豹沙利文市场研读章节四发展趋势GenAI作为底层创新技术,对于信息商品各环节产生了全面的、革命性的影响,此外,GenAI孕育着创造新信息商品类型的巨大空间,这也助推了全新产品时代与超级产品诞生o信息商品是指以某类信息为核心价值的产品。GenAI的发展将对信息商品从生产、分配与消费三个经济环节产生影响,其中生产环节的生产要素与生产范围的变化最为深刻,并对分配与消•信息商品的生产效率将脱离生产者的时间和精力限制:创意和算力将成为信息商品的关键生产要素•信息商品的生产范围将更加社会化•信息商品生产端到终端订单需求的逻辑变化由“需求决定分配”转向“需求决定生产”,中间分配环节将弱化甚至消失•用户消费的信息商品类型由GenAI算法能力决定•用户与信息商品交互的方式由GUI向CUI进行转变:从追求效率转向效率与灵活度兼备oGenAI不仅对已有信息产品类型产生oGenAI不仅对已有信息产品类型产生深刻的影响,且孕育着创造新信息•对已有信息类型的影响,能力、质量、效率三个评价维度分别决力、兑现价值以及商业可行性。•对于新信息商品类型尚无具体性方向,但可交互的信息以及信息的模态融合在GenAI技术发展下存在较大新产品形态的可能性。对已有信息商品类型影响在哪些信息商品类型中发种信息商品中能够兑现的价值和被兑现的方式种信息商品中的商业可行来源:沙利文400-072-5588头豹头豹沙利文市场研读章节五竞争力分析针对用户构建GenAI应用面临的匹配需求难、数据与隐私安全、输出质量以及推理成本等挑战,GenAI技术栈厂商是否有匹配高效的工具及技术经验协助用户更便捷、安全地构建来源:沙利文头豹400-072-5588沙利文市场研读章节五竞争力分析本报告设立创新指数评估体系对GenAI技术栈进行评价及分析,下设工作流构建、数据与存储、AI算力基础设施与模型部署、模型质量、应用的高效构建五大指工作流构建工作流构建支持工具与方案编排框架的兼容、工作流支持的目标用例、工作流的持续优化、可配置触发器功能、跨团队协作等全局数据治理组织内部的数据联通、数据质量与一致性、全局数据治理组织内部的数据联通、数据质量与一致性、数据隐私保护、数据共享、配置方式设置、数据与存储数据存储部署技术栈一体式融合的数据存储解决方案、GenAI专用功能集、GenAI数据存储基础设施等AAI芯片类型、算力资源的管理与分配、LaC能力、预置吞吐量与成本效率优化等高性能编译器和运行时、推理GPU优化、推理加速工具集成、自研网络架构等算力供给能力算力供给能力资源利用率优化管理AAI算力基础设施与模型部署模型部署成本优化资源配置商业模式支持、优化咨询服务、模型部署成本优化资源配置商业模式支持、优化咨询服务、灵活的部署模式等模型质量模型质量模型微调缓存与记忆模型评估调优与微调方式、精调模版、全流程自动调优功能等长期记忆功能支持、数据库方式读写用户结构化信息输入模型评估模式支持、打分指标、精确度验证基准、测试数据集等精炼压缩模型模型压缩技巧、模型压缩适配支持等应用的高效构建应用工具及方案企业级生成式AI应用、无代码自动化生成、生成式AI安全隐私的功能和设计等来源:沙利文头豹400-072-5588头豹沙利文市场研读章节五竞争力分析本报告设立增长指数评估体系对GenAI技术栈进行评价及分析,下设基础模型触达、合规与安全、应用开发交互、生态建设支持、行业客基础模型触达基础模型适配性平台内置的各模态基模、基模配置的额外性能适配工具、基模的适用性评估等基础模型可访问性基模的选择配置方式、模型库与配置的一致性、基模推理方式、基模延迟优化等模型合规性模型合规性GenAI模型与应用的安全互动、数据安全、模型常态化监测、合规认证、权限管理等合规与安全用户操作合规性用户权限设置、用户权限保障、角色定义权限等应用开发交互用户交互体验团队开发协作共享、原子能力与应用组建、用户操作界面设计、语言支持、跨平台部署等生态建设支持可持续发展性厂商服务支持与文档用户规模研发投入、规范与标准编撰、研究论文与课题发布、专利数量、人才培育、合作生用户培训、服务支持渠道、服务响应标准、规范化支持文档等个人用户规模及付费用户比例、企业用户规模及付费用户比例、平台注册用户基数增速行业客户与场景应用方案行业客户与场景应用方案各应用行业(金融、医疗等)各行业的覆盖场景、细分场景的服务功能、采用的优势技术与服务来源:沙利文头豹400-072-5588头豹•RAG:检索增强生成(RAG)是一种优化大型语言模型(LLM)输出的方法,使其能够在生成响应之前引用训练数据之外的权威知识库。RAG在LLM强大功能的基础上,通过访问特定领域或组织的内部知识库,而无需重新训练模型,进一步提升了其输出的相关性、准确性和实用性。这是一种经济高效的改进方法,适用于各种情境。•智能体:智能体(Agent),作为人工智能领域的一个重要概念,是指能够自主感知环境、做出决策并执行行动的系统。它具备自主性、交互性、反应性和适应性等基本特征,能够在复杂多变的环境中独立完成任务。智能体的出现,标志着人工智能从简单的•向量数据库:向量数据库是专门用来存储和查询向量的数据库,其存储的向量来自于对文本、语音、图像、视频等的向量化。与传统数据库相比,向量数据库可以处理更多非结构化数据(比如图像和音频)。在机器学习和深度学习中,数据通常以向量形式表•HMM模型:隐马尔可夫模型(HiddenMarkovModel,简称HMM)是一种统计模型,用于描述一个含有隐含未知参数的马尔可夫过程。其难点在于存在被隐藏的无法直接观察到的状态,但可以通过观察到的事件来推断这些状态的概率。H•CTF:CTF(CaptureTheFlag)夺旗赛,在网络安全领域中指的是网络安全技术人员之间进行技术竞技的一种比赛形式。•卷积网络:卷积神经网络(ConvolutionalNeuralNetworks,CNN)是一类包含卷积计算且具有深度结构的前馈神经网络,是深•ResNet:残差神经网络(ResNet)是一种深度卷积神经网络(CNN)的架构,它通过引入“残差学习”来解决深度网络训练中的退化问题。通过绕过某些中间层级,将层的激活值直接链接到后续层,从而创建一个残差块。这些残差块被堆叠起来以创建ResNet。•Attention:Attention机制,又称为注意力机制,是一种能让模型对重要信息重点关注并充分学习吸收的技术。它来源于人类的视觉注意力机制,可以算是仿生学的一个应用。人类视觉通过快速扫描全局图像,获得需要重点关注的目标区域,而后对这一区域投入更多注意力资源,以获取更多所需要关注目标的细节信息,而抑制其他无用信息。Attention最早出现在递归神经网络(RNN•Transformer:Transformer是一种用于处理序列数据的深度学习模型,最核心的特点是使用了自注意力机制和位置编码。最初处理序列到序列的任务,如机器翻译,现在被广泛应用于各种自然语言处理任务。它允许模型捕捉序列内的复杂依赖关系和关联•BERT:BERT代表双向编码器表示来自Transformer(BERT),用于高效地将高度非结构化的文本数据表示为向量。BERT是一个经过训练的Transformer编码器堆栈。•LLaMA:LLaMA(LargeLanguageModelMetaAI)是MetaAI公司于2023年2月发布的大型语言模型。它训练了各种模型,这些模型的参数从70亿到650亿不等。•GLM:在统计学上,广义线性模型(generalizedlinearmodel,缩写作GLM)是一种应用灵活的线性回归模型。该模型允许因变量的偏差分布有除了正态分布之外的其它分布。•闭源模型:闭源模型通常由个人、企业或机构开发并保密,其源代码、数据集和技术细节不对外公开,通常作为商业产品进行销售•开源模型:开源模型是指那些源代码、训练数据和技术文档公开的人工智能大模型。这种开放性允许任何人查看、修改和分发模•API:应用程序编程接口(ApplicationProgrammingInterface,简称:API),是一些预先定义的函数,目的是提供应用程序与开发人员基于某软件或硬件得以访问一组例程的能力,而又无需访问源码,或理解内部工作机制的细•MLOps:MLOps(机器学习操作)是一种范式,包括机器学习产品的端到端概念化、实施、监控、部署和可扩展性等方面的最佳实•Prompt:Prompt是一种基于人工智能(AI)指令的技术,通过明确而具体的指导语言模型的输出。在提示词工程中,Prompt的定义涵盖了任务、指令和角色三个主要元素,以确保模型生成符合用户需求的文本。•LoRA:LoRa是一种低功耗、远距离的局域网无线标准,由Semtech公司开发。它基于chirpspreadspectrum(CSS)扩频调通过线性频率调制产生“啁啾”信号,实现在强干扰环境下的远距离传输。•全量SFT:SFT,全称为SoftmaxFine-Tuning,是近年来在自然语言处理(NLP)及深度学习领域兴起的一种技术方法。SFT作为一种更为精细的调优手段,旨在通过调整模型输出层的So头豹400-072-5588•剪枝:剪枝是一种优化技术,用于减小模型大小并加速推理过程。在深度学习中,剪枝分为结构化剪枝和非结构化剪枝,可以在每层或多层上进行。PyTorch提供了强大的剪枝功能,但剪枝后的模型需要重新训练以保持性能。•SoT:SoT(SystemonaTape)是一种封装技术,用于集成电路封装,以提高电路的密度和性能。•FFN:FFN代表前馈神经网络(Feed-ForwardNeuralNetwork),是深度学习中最基础的网络结构之一。它由输入层、隐藏层和输出层组成,数据从输入层到输出层单向传播,不发生回流。在Transformer架构中,FFN是一个重要组成部分,通常位于自注意力层之后。FFN通常包含两个线性变换,它们之间有一个非线性激活函数。第一个线性层将输入特征映射到一个较大的维度,这称为•算子:算子是一个数学概念,用来描述某种操作或变换。在不同领域中,算子有广泛的应用,例如在物理学中描述物理量之间的关系,工程学中描述系统的动态行为,以及计算机科学中描述算法和数据结构的变化。算子

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论