




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
11 。版权及免责声明本报告版权归中国信通院云计算开源产业联盟所有。本报告所包含的内容、资料与信息,仅供您参考之用,并不构成意见或建议。中国信通院云计算开源产业联盟不保证或担保本报告内容、资料与信息的准确性,完整性,充分性或及时性。中国信通院云计算开源产 。前言年,Meta相继发布Llama和Llama2,很快成为广受欢迎的开源大模型,也成为许多模型的基座模型。开源大模型可以促进技术的共享和交流,加速人工智能的发展,但也存在数据隐私《可信开源大模型案例汇编(第一期)》案例,旨在洞察开源人工智能大模型应用场景,梳理开源人工智能大模型的开源成熟度,提升开源人工智能大模型的创新发展。案例通过调研国内开源大模型的技术细节、应用场景、商业模式、应用治理、发展趋势等,并关注开源大模型技术生态及产业链上下游,全面展现开源大模型及其工具链的发展全貌,为下一代技术浪潮的发 0101开源人工智能大模型发展背开源正成为推动人工智能大模型创新发展的关键引擎0202全球开源人工智能大模型开源人工智能大模型开源成熟度4全球开源人工智能大模型商业模式基本形态5开源人工智能大模型治理开源人工智能大模型开源程度统计开源人工智能大模型商业落地情况开源人工智能大模型基础配套设施建设情况9开源人工智能人工智能大模型优势与不足开源人工智能大模型安全风险与合规情况0404可信开源大模型产业推进ChatGLM大模型紫东太初大模型24Baichuan大模型28DataCanvasAlaya九章元识大模型31TigerBot大模型34ChatLaw大模型38聚宝盆(Cornucopia)金融大模型45Colossal-AI47DingoDB多模向量数据库Xtreme157AutoDev59HyperAI超神经OpenBayes贝式计算63Milvus65—01开源正成为推动人工智能大模型创新发展的关键引擎在人工智能大模型领域,开源能够激发技术创新活力,推动数字时代科技创新。开源汇聚众智、促进多方协同,有效实现了优势互补,激发技术创新活力。开源开放的创新模式相比于工业时代封闭专利的创新模式,更顺应数字时代技术迭代快、应用范围广的发展规律,解决单一主体创新成本过高问题,通过去中心化的异步协作激发各类主体的创新创造活力,以开放协作实现智慧累积,对创新效率和创新质量带来巨大提升。Meta在Llama基础上开源Llama2可以作为OpenAI和谷歌出售的专有模型的补充,有效激发了人工智能大模型共创浪潮。仅22开源人工智能大模型发展历程大语言模型的开源推动了深度学习和人工智能的持续发展,也催生了一系列前沿探索11xuanyuanBELLETigerBotLinly-chinese-BLOOMAIpaca-7Bchinese-LLaMA-AIpacavicuna-13BUtraLM-13Bxuanyuan-70BBELLEBigscience社区BLOOMGPT3开源替代xuanyuanBELLETigerBotLinly-chinese-BLOOMAIpaca-7Bchinese-LLaMA-AIpacavicuna-13BUtraLM-13Bxuanyuan-70BBELLEBigscience社区BLOOMGPT3开源替代GoogleTransformer架构人工智能大模型基础MetaLLaMA2阿里云Qwen-72BQwen-1.8BQwen-AudioQwenMetaLLaMA参数范围7B-65B201820202022202320172018202020222023清华大学GoogIeBERTMetaOPT175BGLM-130B中英双语百川智能智谱AIBaichuan-7BChatGLM3系列2233模型框架模型代码模型参数训练数据模型框架模型代码模型参数训练数据—01开源人工智能大模型开源成熟度模型框架开源是人工智能大模型开源成熟度的第一级别模型框架开源是人工智能大模型开源成熟度的第一级别,在这一级别中,可以通过公开大模型框架,使其他使用者可以复现模型并使用。开源框架程度关系到开源大模型的开发效率、技术水平、稳定性、可行性等方面。模型代码开源是人工智能大模型开源成熟度的第二级别模型代码开源是人工智能大模型开源成熟度的第二级别,在这一级别中,可以通过公开的模型代码直接对模型进行训练和使用。模型代码开源降低了人工智能大模型的使用门槛,同时允许企业的开发人员在模型的基础上进行定制化开发,定向训练数据。模型参数开源是人工智能大模型开源成熟度的第三级别模型参数开源是人工智能大模型开源成熟度的第三级别,在这一级别中,可以通过公开的模型代码与参数直接对模型进行使用和优化。模型参数开源节省了训练阶段的算力消耗,为企业降低算力成本,推动大模型使用普惠化,同时企业可以针对特定场景对模型进行优化。训练数据开源是人工智能大模型开源成熟度的第四级别训练数据开源是人工智能大模型开源成熟度的第四级别,在这一级别中,模型的训练数据也可以公开获得。通过公开训练数据,模型的可用性与透明度进一步增强。同时公开训练数据也进一步降低了企业和用户数据获取的难度。442全球开源人工智能大模型商业模式基本形态的代码软件进行售卖。在开源人工智能大模型企业中,企业开源较低参数规模的大模型,并提供较大参数规模的付费版本。企业根据自身场景和业务需求,为客户定制专属大模型,并针对专业服务模式由传统商业软件的以“产品”为卖点转向以“服务”为卖点,是开源商业公司采用的一种全新的商业模式。由于开源人工智能大模型一种技术密集型产品,需要对大模型进行持续维护、优化、迭代升级才能发挥软件的最大价值。专业服务模式下的开源商业公司针5533开源人工智能大模型治理在数据治理中,开源人工智能大模型关注数据隐私与数据安全质量。开源人工智能大模型训练数据的非法泄露可能会导致敏感信息的暴露,因此确保数据隐私的安全成为治理的重要环节之一。在开发和使用过程中,需确保数据采集、存储和处理符合相关法规。数据的安全质量对于开源人工智能大模型同样重要。为确保数据安全质量,需关注数据的准确性、完整性、代表性等,并关注数据偏差和数据集的平衡性,避免模型在特定群体或场景下产生不公平偏见。在模型治理中,应注重开源协议使用与模型伦理道德问题。开源协议通过明确规定开源项目的使用、修改和分发方式,为企业和用户提供了一定程度的保障。开源许可证保障了开源大模型的自由使用和共享,促进了创新和协作,同时也为开源大模型的作者和用户提供了一定的分模型采用自己定义的许可证。开源人工智能大模型的开发和应用还需关注伦理道德问题。这包括确保模型的公平性、透明度和可解释性,避免歧视性结果,评估和管理模型可能带来的社会影响。此外,还需关注模型在特定领域的合规性和符合道德标准的使用,以确保技术的正面6622%22%—●●方便用户对模型进行微调和二次开发。同时,部分大模型对外公布其训练细节,方便用户研究模型框架模型参数训练数据模型代码模型框架模型参数训练数据7750%40%30%20%10%50%40%30%20%10%2开源人工智能大模型商业落地情况应用占比制造业、企业服务等多个场景,其中,应用于金融、企业服务、制造业和法律领智能办公等场景,通过智能客服与用户进行多轮对话,提出具体的、可行的解决过开源人工智能大模型生成广告和营销内容,提升营销效率,运用开源人工智能在法律领域中,应用开源大模型提供全流程智能辅助办案应用,对法律案件进行拆解、提取关键事件,构建智能审查、量刑预测、文书生成、自动编目、笔录生成等业务能力术辅助办案人员的常规工作,实现案件分析速度的提升。在企业服务中,开源人工智能大模型88并提供智能化的解决方案,从而提高经营决策水平和业务运营效率,赋能企业构建高度自动化与智能化的企业知识库,并进行企业相关文档的摘要、总结、溯源。在制造业领域,开源人工智能大模型已应用于产线运营效率环节,如产品设计研发、质量控制检测、供应链管理、安全3开源人工智能大模型基础配套设施建设情况伴随开源人工智能大模型的发展,数据平台、大模型开发工具、大模型训练部署平台与向量数据库等基础配套设施的开源生态不断完善。开源数据平台使用门槛较低,相比传统数据服务,具有显著的成本优势。开源训练平台用户能够最大限度地提高人工智能模型开源开发工具降低了个人用户和中小企业用户已超万人。大模型开源训练部署平台能够灵活部署,从数据管理、模型开发、训练管理、4开源人工智能人工智能大模型优势与不足 ●优势●在本次调研的开源人工智能大模型中,部分模型在开源模型测评榜单中位居前列,部分开在逻辑推理、幻觉感知等方面有高的精度,配套生态丰富,可以支持行业模型应用。开源人工99 通过调研,目前国内开源人工智能大模型数量较闭源人工智能大模型仍有语言能力,支持的序列长度,推理速度,显存占用等方面仍有进步空间。同时开源人工智能大模型应用创新落地能力仍有提升空间。目前国内外基于大模型的应用多停留在基础阶段,应不5开源人工智能大模型安全风险与合规情况在本次调研的开源人工智能大模型中,通过强化数据安全与保障模型安全以提升模型合规通过从应用到数据、框架、基础设施以及整个的合规体系的建设,以及关注数据在模型安全方面,企业建立安全一系列策略,如训练基于安全和合规的奖励模型,通过用户输入的问题以及模型生成的答案进行审核,注重算法安全,6开源人工智能大模型未来发展展望优化模型逻辑,贴合真实场景需求,就多个细分领域结合专业数据训练细分领域加强开源配套设施建设。通过加强开源数据平台、大模型开发工具、大模型训练部署平台与向量数据库等基础配套设施建设,降低人工智能大模型使用门—●●2023年9月21日,由中国信息通信研究院和中国通信标准化协会联合主办的“2023中国信通院可信开源大模型产业推进方阵第一批成员名单孟子GPT大模型人工智能大模型、行业大模型服务千行百业的应用场景,提升企业应用开源大模型实现专精特22后续计划2023.12-行业报告2023.12-行业报告(2023.12)《可信开源大模型案例集汇编(第二期)》《可信开源大模型洞察报告》产业落地基于行业社区,帮助行业大模型与金融、帮助基础大模型衍生多个垂直场景子模型2024.1-20242024.1-2024.12技术规范可信开源大模型开源成熟度评价2023.12社区成员企业行调研大模型企业发展情况、当前需求、痛点等等生态赋能线上沙龙活动,与优秀开源社区经验互通扩大生态规模开源项目日常检查与安全支持 ChatGLMChatGLM大模型第三代chatGLM对话模型。chatGLM3-6B第三代chatGLM对话模型。chatGLM3-6B采用了全新设计的prompt格式,除正常的多轮对话外。同时原生支持工具调用(Functioncall)、代码执行(codeInterpreter)和Agent任务等复杂场景。8KChatGLM3-6BHuggingfacel魔搭社区|始智社区|swanhubI启智社区ChatGLM3-6B-baseChatGLM38KHuggingfacel魔搭社区|始智社区|swanhub|启智社区ChatGLM3-6B-32k8KHuggingfacel魔搭社区|始智社区|swanhub|启智社区模型介绍上下文token数代码链接模型介绍上下文token数代码链接第三代第三代ChatGLM基座模型。ChatGLM3-6B-Base采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base具有在10B以下的基础模型中最强的性能。第三代ChatGLM长上下文对话模型。在ChatGLM3-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。ChatGLMChatGLM2-6BChatGLM2-6B-int4ChatGLM2-6B-32k第二代chatGLM对话模型。相比-代模型,具有更强的性能,且其基座模型的上下文长度从2k扩展到32k,并在对话阶段使用8k的上下文长度训练。推理速度相比初代提升42%。ChatGLM2-6B的int4量化版本,具备最小5.1GB显存即可运行。INT4量化下,6G显存支持的对话长度第二代chatGLM长上下文对话模型。chatGLM2-6B-32K在chatGLM2-6B的基础上进一步强化了对于长文本的理解能力,能够更好的处理最多32K长度的上下文。具体地,我们基于位置插值(positionalInterpolation)的方法对位置编码进行了更新,并在对话阶段使用32K的上下文长度训练。在实际的使用中,如果您面临的上下文长度基本在8K以内,我们推荐使用chatGLM2-6B;如果您需要处理超过8K的上下文长度,我们推荐使用chatGLM2-6B-32K。8K8KChatGLM232KHuggingfacel魔搭社区|始智社区|启智社区Huggingfacel魔搭社区|始智社区|启智社区Huggingfacel魔搭社区|始智社区|启智社区ChatGLM2-6B-32k-int4chatGLM2-6B-32k的int4版本32KHuggingfacel魔搭社区|始智社区|启智社区ChatGLM-6BChatGLM-6B-int4ChatGLM-6B-int8ChatGLM-6BChatGLM-6B-int4ChatGLM-6B-int8AgentLM-7BAgentLM-13BAgentLM-70B4K4K8K第一代chatGLM对话模型。支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署。ChatGLM-6B的Int4版本。最低只需6GB显存即可部署,最低只需7GB显存即可启动微调(P-Tuning我们提出了一种AgentTuning的方法我们开源了包含1866个高质量交互、6个多样化的真实场景任务的Agent数据集AgentInstruct基于上述方法和数据集,我们利用Llama2微调了具备超强Agent能力的AgentLM-7B、AgentLM-13B、AgentLM-70ChatGLMAgentTuningVisualglm-6BVisuaGLMHuggingfacel魔搭社区Huggingface|魔搭社区HuggingfaceHuggingfacel魔搭社区|始智社区|启智社区Huggingfacel魔搭社区|始智社区|启智社区Huggingfacel魔搭社区|始智社区|启智社区HuggingfaceRepoHuggingfaceRepoHuggingfaceRepo模型介绍代码链接模型下载智谱智谱AI最新的,强大的开源视觉语言模型(VLM)。基于对视觉和语言信息之间融合的理解,CogVLM可以在不牺牲任何NLP任务性能的情况下,实现视觉语言特征的深度融合。我们训练的CogVLM-17B是目前多模态权威学术榜单上综合成绩第一的模型,在14个数据集上取得了state-of-the-art或者第二名的visualGLMvisualGLM-6B是一个开源的,支持图像、中文和英文的多模态对话语言模型,语言模型基于chatGLM-6B,具有62亿参数;图像部分通过训练BLIP2-Qformer构建起视觉模型与语言模型的桥梁,整体模型共78亿参数。RelayRelayDifusionModel:级联扩散模型,可以从任意给定分辨率的图像快速生成,而无需从白噪声生成。codeGeex2是多语言代码生成模型codeGeex(KDD'codeGeex2是多语言代码生成模型codeGeex(KDD'23)的第二代模型。不同于一代codeGeexcodeGeex2是基于chatGLM2架构加入代码预训练实现,得益于chatGLM2的更优性能,codeGe-ex2在多项指标上取得性能提升(+107%>codeGeeX仅60亿参数即超过150亿参数的starcoder-15B近10%)。Huggingfacel魔搭社区webGLM-10BHuggingfacewebGLMwebGLM-2BHuggingface模型介绍代码链接模型下载CodeGeeXCodeGeeX2-6BCodeGeeX2的量化版本HCodeGeeX2的量化版本Hnface魔搭社区-6B-int4第一代codeGeex,第一代codeGeex,具有130亿参数的多编程语言代码生成预训练模型。codeGeex采用华为Mindspore框架实现,在鹏城实验室"鹏城云脑"中的192个节点(共1536个国产昇腾910AI处理器)上训练而成。CodeGeeX-13B利用百亿参数通用语言模型利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统。它旨在通过将网络搜索和检索功能集成到预训练的语言模型中,改进现实世界的应用部署。THUCdTHUCdTHUCd魔搭社区THU-cloudMathGLMMathGLM-2BMathGLM-500MMathGLMMathGLMMathGLM-LargeMathGLM-10BMathGLM-chatGLM-6BMathGLM-chatGLM2-6B在训练数据充足的情况下在训练数据充足的情况下,20亿参数的MathGLM模型能够准确地执行多位算术运算,准确率几乎可以达到100%,其结果显著超越最强大语言模型GPT-4在相同测试数据上18.84%的准确率。采用采用GLM的不同变体作为骨干来训练MathGLM,包括具有335M参数的GLM-large和GLM-0B。此外,还使用chatGLM-6B和chatGLM2-6B作为基座模型来训练MathGLM。这些骨干模型赋予MathGLM基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。MathGLMMathGLM22开源大模型发布时间历程33开源大模型信息/THUDM/ChatGLM3/blob/main/MODEL_LICENSEchatm35433chatm214096chat94403-6b-6bm32023-11-08参考格式:HuggingFace(链接)、GitHub(链接)/THUDM,https://huggingface.co/THUDM44开源大模型的特点上线配套工具包括:API服务DashScope,22开源大模型发布时间历程3开源大模型落地案例及开源商业化进程44开源大模型信息/QwenLM见GitHub项目License模型大小参数规模2.4T/3TGitHub:/QwenLMHuggingFace:https://huggingface.co/QwenModelScope:/organization/qwenOpenCompass:62.4/100参加基准测试名称及分数OpenLLMLeaderboard:60.07/100ChatbotArena:1030/121055开源大模型数据集来源66开源大模型的特点Qwen在多项基础能力测评领先同规模甚至更大规模的其他语言模型,并且中文能力远超诸如77大模型幻觉问题解决方案88开源大模型安全与合规治理99开源大模型未来发展规划平台:22开源大模型发布时间历程3开源大模型落地案例及开源商业化进程44开源大模型信息大模型体验地址:大模型体验地址:中文高质量开源数据集https://huggingface.co/datasets/CASIA-LM/ChineseWebText百亿/千亿55开源大模型数据集来源数据源含公开数据集、自采数据集、行业数据集等。已开源高质量数据集:https://66开源大模型的特点77大模型幻觉问题解决方案88开源大模型安全与合规治理99开源大模型未来发展规划BaichuanBaichuan大模型Baichuan2-192K开源大模型。支持22开源大模型发布时间历程百川智能2023年6月15日发布国内首款开源可免费商用70亿参数量大语言模型Baichuan-3开源大模型落地案例及开源商业化进程4开源大模型信息/baichuan-inc/Baichuan2超600W下载(https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat)GitHub(/baichuan-inc/Baichuan2)https://huggingface.co/baichuan-inc/Baichuan2-13B-Chat55开源大模型的特点百川智能公司在人工智能领域有着深厚的技术功底和丰富经验,其开源模型能力全面领先66大模型幻觉问题解决方案合适的互联网内容做参考,在时效性和知识的正确性层面进行77开源大模型安全与合规治理88开源大模型未来发展规划DataCanvasDataCanvasAlaya九章元识大模型22开源大模型发布时间历程3开源大模型落地案例及开源商业化进程44开源大模型信息/DataCanvasIO/AlayaApache2.055开源大模型数据集来源66开源大模型的特点一些自己特有的商业化应用。Alaya九章元识大模型是全面开源且license友好的“白盒”大模型,遵Alaya九章元识大模型不仅可以支持文本、图像,还能支持时序数据、结构化数据等。九章云极直行业,能够更好地满足用户多样化的需求。九章云极DataCanvas正式开源大模型矩阵中77开源大模型安全与合规治理2、积极在网信办相关部门进行大模型以及算法备案TigerBotTigerBot大模型22开源大模型发布时间历程3开源大模型落地案例及开源商业化进程4开源大模型信息/TigerResearch/TiApache-2.0license6:1Github:/TigerResearch/TigerBotHuggingface:https://huggingface.co/TigerResearchModelScope:/organization/TigerResearch不同size模型得分见链接:/TigerResearch/TigerBot/blob/main/image/eval_chat_0925.png55开源大模型数据集来源66开源大模型的特点在Llama-2-70b的基础上继续预训练,模型综合能力在mmlu等10项主流基准测试中,优于77大模型幻觉问题解决方案88开源大模型安全与合规治理99开源大模型未来发展规划2.计划在海外发布c端类chatgpt的应用,除了在能力上追赶海外领先大模型(需要海外用户的ChatLawChatLaw大模型配套工具平台:网页https://chatlaw.cloud/22开源大模型发布时间历程3开源大模型落地案例及开源商业化进程44开源大模型信息/PKU-YuanGrouphttps://huggingface.co/JessyTsu1/ChatLaw-13B、/PKU-YuanGroup/ChatLaw55开源大模型数据集来源66开源大模型的特点ChatLaw在国产法律领域取得了数据及模型上的领先。在技术方面,有成熟的法律检索模型,推77大模型幻觉问题解决方案88开源大模型安全与合规治理99开源大模型未来发展规划元象大模型XVERSE系列,由元象XVERSE(深圳元象信息科技有限公司)开发。现有XVERSE-7B/13B/65B等尺寸,均为高性能通用22开源大模型发布时间历程33开源大模型信息/xverse-ai7:03:004开源大模型落地案例及开源商业化进程55开源大模型的特点【XVERSE-65B创新能力】●复杂分布式系统设计:借鉴团队研发腾讯围棋AI“绝艺”、王者荣耀AI“绝悟”等大系统上的●全面提升性能:65B训练中采用FlashAttention2加速计算,3D并行基础上采用虚拟流水线(virtualpipeline)技术,降低较长流水线产生过高气泡率,提升计算推理效率;上下文窗口长度从66大模型幻觉问题解决方案77开源大模型安全与合规治理核验方法:为提高标注内容准确性,内容由多人(至少3人)交叉标注,之后对全量标注内容的聚宝盆(聚宝盆(Cornucopia)金融大模型22开源大模型发布时间历程33开源大模型信息/jehttps://huggingface.co/yuyangmu1254开源大模型落地案例及开源商业化进程55开源大模型的特点66大模型幻觉问题解决方案77开源大模型安全与合规治理 Colossal-AIColossal-AIColossal-AI(/hpcaitech/ColossalAI)是高效易用的户能够最大限度地提高人工智能部署的效率,同时大幅降低成本。Colossal-AI系统通过引入统一接口22开源大模型发布时间历程
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年度中药材绿色种植与购销一体化服务合同
- 小学人教版数学四年级教学计划
- 消防工程年终总结
- 公司员工个人上半年工作总结
- 导游个人工作计划范文
- 大学学生会主席工作计划范文
- 二零二五年度员工薪酬保密与公司员工激励计划合同
- 古玩市场装饰改造协议
- 2025年02月黑龙江黑河市政务服务中心公开招聘公益性岗位4人笔试历年典型考题(历年真题考点)解题思路附带答案详解
- 二零二五年度别墅租赁续约及庭院维护合同
- 投资居间协议合同模板
- 多重耐药菌的预防及护理课件
- 抽水蓄能电站课件
- GB/T 25052-2024连续热浸镀层钢板和钢带尺寸、外形、重量及允许偏差
- 河北科大项目实施计划书
- 消防设施操作和维护保养规程
- -精益与智能工厂三年规划
- 中小学校园安全教育主题班会课件:筑牢安全红线、守护校园平安
- 高空作业考试题(带答案)
- 北师大版数学八年级上册1.1探索勾股定理 同步练习【基础版】(附答案解析)
- 《会计信息系统应用》-课件 王新惠 模块二 供应链管理系统
评论
0/150
提交评论