大模型在日志运维场景的应用实践-2023 饶琛琳正式版_第1页
大模型在日志运维场景的应用实践-2023 饶琛琳正式版_第2页
大模型在日志运维场景的应用实践-2023 饶琛琳正式版_第3页
大模型在日志运维场景的应用实践-2023 饶琛琳正式版_第4页
大模型在日志运维场景的应用实践-2023 饶琛琳正式版_第5页
已阅读5页,还剩22页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

分享主题大模型在日志运维场景的应用实践饶琛琳日志易产品副总裁目录Contents01. 02. 03.大模型在日志场景的应用方向实践运用大模型的路径大模型在金融企业应用案例更快捷的分析海量日志更智能的解读和预测故障理想vs现实:估算资源

构建高质量的训练数据背景:某金融企业大量业务日志模型的评估和迭代优化难点:关键字复杂多变产品设计“扬长避短”方案:实现知识库增强的自然语言查询效果:故障排查时间缩短40%大模型在日志场景的应0用方向1更快捷的分析海量日志更智能的解读和预测故障理想vs现实:估算资源谷歌Sec-PaLM的日志概要效果日志问答方案(1):超大窗口问题1:窗口不会无限大,日志却无限多。问题2:对于长文本中部的内容,LLM不太敏感。日志问答方案(2):AgentChain问题1:运维知识理解的要求较高问题2:agent/functioncall能力要求较高日志问答方案(3):模式提问+分段选择资源消耗估算场景看起来很美好,但实际部署时存在一定成本压力。我们进行了一些简单的资源估算:1000条SSH日志大概包含5-6万个tokens。对于这个长度,LLM推理速度较慢,需要10多秒。使用最新的Yi-6b-200k模型测试,24GB显存仅能处理约3ktokens,相当于50行日志。按ChatGLM规模预估,80G显存的单卡最多只能处理200行SSH日志。并行计算时,8块80G卡也只能同时处理约1600行。结论:直接进行日志问答,在理论上可行,但算力需求巨大。该方案实际成本过高,目前的硬件条件难以支撑实际应用。生成和调用现有分析工具相对更现实。实践运用大模型的路径02构建高质量的训练数据模型的评估和迭代优化产品设计“扬长避短”Text2SPL场景介绍/背景TexttoSQL任务是NLP领域的经典课题之一。常见的数据集有:WikiSQL,维基百科数据集主要是单表查询,语句比较简单。Spider,数据集包含join等多表和嵌套,语句比较复杂。在seq2seq之前,模板技术一般评分20+;bert/T5之前,一般评分60+;ChatGPT将评分提升到85+。CoSQL,在Spider的基础上添加了模糊语义多轮对话。目前评分在50+。BIRD:新一代数据集,不光考虑表结构,还要考虑脏数据、执行效率。目前ChatGPT评分为40。

SPL对比SQL的差异:没有预知的tableschema。要自行判断prompt里哪些名词疑似字段名。无法直接套用ChatGPT,SPL目前只是概念通用,语法层无标准:日志易SPL语法和splunk/kusto/esql/ppl/humio有差别。日志易内置字段也和CIM/ECS有差别。通用大模型的表现(1):GPT对比T5的飞跃自然语言提问splunk-google-t5ChatGPTsearchforthetermserror,failfailure,failed,orsevereindex=_internalfail*not[searchindex=_internalsearch(errorORfailORfailureORfailedORsevere)intheeventsthatalsomentionbuttercupgameserror,fail*errorANDbuttercupgamessearchthesourcetypefieldforanyvaluesthatbeginindex=access_*status=200action=purchase|chartsearchsourcetype="access_*"status=200withaccess_,status200,andaction"purchase".usethecount(price)action="purchase"chartcommandtocountthenumberofpurchases.the就这一条是可以直接运行的,还和期望输出有差距|chartcount(action)bycategoryIdsearchspecifiesthepurchasesmadeforeachproduct|evalpurchases=sparkline(count)byusingcategoryId.Thedifferenceisthatthecountof就这一条是不能直接用的。两次追加提示后改对:purchasesisnowanargumentofthesparkline()searchsourcetype="access_*"status=200function.action="purchase"|chartsparkline(count(action))bycategoryIdsearchthesourcetypefieldforanyvaluesthatbeginsourcetype=access_*status=200actionpurchase|topsearchsourcetype="access_*"status=200withaccess_,geteventswithstatus200,andactioncategoryIdaction="purchase""purchase".thencomputethemostcommon|topcategoryIdcategoryIdvalues.searchthesourcetypefieldforanyvaluesthatbeginsourcetype=access_*status=200actionpurchase|topsearchsourcetype="access_*"status=200withaccess_,geteventswithstatus200,andactionclientipaction="purchase""purchase".thencomputetheonemostcommon|top1clientipclientip.searchthesourcetypefieldforanyvaluesthatbeginsourcetype=access_.|statsvalues(price)aspricebysearchsourcetype="access_*"withaccess_,thegetpriceas"Price"byproductName,productName||evalPrice=pricethenrenameproductNamecolumnas"ProductName"|statsvalues(Price)byproductName|renameproductNameas"ProductName"两次追加提示后改的更高效,并且能记住:searchsourcetype="access_*"|statsvalues(price)asPricebyproductName|renameproductNameas"ProductName"通用大模型的表现(2):提示工程不是万能的问题1:基础模型较差时,复杂逻辑完全无法处理问题2:模型的预训练知识在细节处有严重干扰训练数据筹备(1):内外网数据搜集原始数据来源指令说明文档手动编写,含多轮对话内部应用配置:图表标题及SPL语句github上公开的常用日志关键字github上公开的es/splunk/kusto安全分析规则训练数据筹备(2):问答类数据增强ChatGPT成alpaca式的self_instruct方案:通过GPT-3.5接口,自动生成部分微调数据。添加prompt声明圈定问答范围:ActasaSplunkExperttowriteSPL。然后人工复核,调整数据。训练数据筹备(3):丰富提问方式StarChat扮演starcoder是开源LLM中编码能力最强的。实验发现他甚至能给出具体的splunk文档url。通过A/B角色扮演,让starcoder说出对应SPL语句的提问。效果一般,清洗后去掉了三分之二的数据。训练数据筹备(4):加入其他产品知识档问答利用pandoc工具将word文档转为markdown纯文本。来自北交大transGPT交通大模型的LLMforDialogDataGenerate方法,基于文本生成问答。模型的评估与迭代尝试不同基础模型的效果:baichuan2的loss长期不收敛尝试不同数据配比的效果:1:2>1:5>1:1尝试构建除文本匹配以外的验证方案:引入SPLparserAPI语法校验对比索引实际响应内容有趣的是:和Splunk得到了相似的结论。扬长避短的产品设计浏览器插件形式:兼容全部主产品版本、独立迭代锚定搜索页:获取数据集、字段列表等即时知识敏感数据拦截:注重数据安全,避免个人隐私外发大模型在金融企业应用0案例3背景:金融企业大量业务日志难点:关键字复杂多变方案:实现知识库增强的自然语言查询效果:故障排查时间缩短40%案例背景①.金融企业通常有200-600个业务系统,口头叫法大同小异,但开发商输出到日志里,实际用的是什么标识符?

③.找到返回码了,②.业务系统上千个返回码,人只记得住最常见的 不过你问的是什么错误提示呢?10来个。其他的中文含义对应啥返回码?ChatSPL效果

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论