LLM的新技术与新实践-王元_第1页
LLM的新技术与新实践-王元_第2页
LLM的新技术与新实践-王元_第3页
LLM的新技术与新实践-王元_第4页
LLM的新技术与新实践-王元_第5页
已阅读5页,还剩64页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

新实践王元CEngnatGPT游ENmpk游·ChatGPT技术内核:生成式Al时代下的新方法和新实践聊技术前,先捋捋场景UI->交互式;后台->多轮UI->交互式;后台->多轮UI->线性执行;后台->单/多轮新的技术栈多模态语义缓存多模态问题:如何接入私域数据?·全量放入context可能不是最优方式·私域数据的分割,存入向量数据库;·向量数据库召回,召回结果作为LLM的context;私域数据-分割M个文件数据接入数据接入√分隔符√均匀分割√树结构私域数据-召回√重排序拼接LLM私域数据-召回检索私域数据-评估传统检索指标:端到端:私域数据-经验·向量空间的语义搜索,有时会有不靠谱的情况同时放在召回数据前和后,有助于LLM回答·召回可以有更多的考量维度,不仅限于语义相似度角色框架任务拆分,逐个击破行动(感知和改变环境)角色框架-优势Agent机制的好处:提升LLM处理复杂任务的能力,扩大了应用范围角色框架anwser召回anwser角色框架r角色框架-规划角色框架-规划角色框架-规划一些代表性的闭环系统:群体智能雏形(3个LLM)Self-reflection(LM)textEvaluator(LM)Experience(long-termmemory)ActorActor(LM)(short-termmemory)Obs/RewardEnvironmentAction角色框架力内存种类:短期记忆(上下文),长期记忆(向量数据库)内存形式:向量,字符串(text/json/list),数据库内存召回指标:相关性,时效性,重要性角色框架行动角色框架-性能评估迭代轮次(耗时)角色框架-经验Plan-n-Execute>ReAct>Self-Ask工具选择有时会错-工具最好不要固定一个顺序中间结果生成有时会错-GPT4turbo会改善角色框架-挑战·Agent多次调用LLM,除了能力边界提升,成本也提高了·Agent自主创建子目标并执行,可能会有潜在安全风险·Agent机制会激发Al产生自我意识吗?角色框架-推荐·COT(/abs/2201.11903)Reflextion:/noahshinn024/reflexion/tree/mainLangchain:/langchain-ai/langchainMarvin:/PrefectH四Source:Barnoramaattachedtotheroofofa场景不同:自然图片->文字密集型文档问题:对于多模态LLM,OCR是否需要?ItemsAmountAverageItemsAmountTicket难点-text序列化非常难以泛化,错误的排序直接影响LLM做QA或KIEserializationBaselineonsteroids:模型越堆越多,系统越搞越复杂,泛化性依旧成问题多模态-方案1adaptervisionadapterencoder微调形式:高效微调适用,闭源不适用(没API)·预训练的visionencoder多数分辨率低,且不是multi-scale·微调不是端到端的,是2-stage微调多模态方案1 RegularIrregularOccludedOthersCT80COCOCTWTTBLIP-2FlanT5xxL48.0048.8942.1976.0448.6861.7063.5257.0080.9050.1064.5065.7457.1667.7145.5253.9457.8448.1861.1141.7150.8952.4347.3957.2926.2541.8640.5734.5241.0674.2638.0073.7940.5060.6245.5362.6150.4051.4228.90000081.9450.4268.6468.1147.8172.7342.530Supervised-SOTA96.6393.0496.7385.7089.3089.9364.4278.5780.1373.1081.5872.4991.2494.7795.5385.54MethodSTVQAOCRVQATextVQADocVQAInfoVQAChartQAESTVQA(En)ESTVQA(Ch)BLIP-2OPT6.7b8.82BLIP-2FlanT5xxL21.7030.7432.184.8642.460.04OpenFlamingo27.8229.089.1228.200.26LLaVA22.0828.864.4933.480.16MiniGPT44.320.100.00mPLUG-Owl29.2628.6240.286.889.520.440.18Supervised-SOTASource:/abs/2305.07895期待更多开源高分辨率多模态原生大模型的出现!多模态-方案2·预训练Seq2seq模型分辨率高,模型小,只需微调Seq2Seq模型语义缓存LLM服务很贵,以GPT4为例:GPT4接口调用成本很高,千万美元/年接口平均响应时间为3-6秒语义缓存技术可以有效缓解上述挑战语义缓存answersanswerssimilar语义缓存·高速实现attributefiltering,推荐支持hybridsearch的向量数据库并行化支持-evictionmanager的进程安全统一缓存设计

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论