2024年多模态大模型(MLLMs)轻量化方法研究现状和展望报告-中移智库_第1页
2024年多模态大模型(MLLMs)轻量化方法研究现状和展望报告-中移智库_第2页
2024年多模态大模型(MLLMs)轻量化方法研究现状和展望报告-中移智库_第3页
2024年多模态大模型(MLLMs)轻量化方法研究现状和展望报告-中移智库_第4页
2024年多模态大模型(MLLMs)轻量化方法研究现状和展望报告-中移智库_第5页
已阅读5页,还剩21页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

多模态大语言模型(MLLMs)在视觉问答、视觉理解与推理等任务中展现出卓越的性能,但多模态大语言模型庞大的模型规模和高昂的训练、推理成本限制了其在学术界和工业界的广泛应用。因此,研究高效且轻量化的多模态大语言模型,特别是在边缘计算场景中,潜力巨大。本文将全面介绍当前多模态大语言模型轻量化的方法及研究现状,并探讨其局限性及未来多模态大语言模型是一种创新性的人工智能模型,巧妙地融合了大语言模型与多模态处理能力。它能够理解和生成涵盖多种模态的数据,如文本、图像、视频、音频等,并通过多模态信息的融合实现更广泛、更复杂的任务。多模态大语言模型不仅具有强大的语言处理能力,还能通过对图像、视频或其他模态的理解,进行跨模态任务处理,比如视觉问答、视觉推多模态大语言模型的成功主要得益于缩放定律(scalinglaw),即资源投入越多,性能越高。然而,高资源需求限制了其开发和部署。例如,MiniGPT-v2模型[16]的训练耗时超80041.6G内存,资源消耗巨大。目前,主流多模态大语言模型多由少数企业掌控,云端运行模式引发普及化和隐私保护担忧,同时,高算力需求也限制了边缘设备的应用,对公平访问和隐私保护构成挑战。鉴于此,轻量化多模态大语言模型的研究日益受到重视,旨在降低资源消耗、提高适用性,同时尽量减少多模态大语言模型主要由三个核心模块组成:视觉编码器、预训练大语言模型、以及视觉-语言投影器,如图1所示。轻量化多模态大语言模型的优化措施主要集中在对上述三个模视觉编码器:负责接收和处理视觉输入。轻量化的多模态),觉编码器在多模态大语言模型总参数中的占比较小,其轻量化优化的效果不如语言模型显著,因此大部分轻量化多模态大语言模型通常仍沿用大规模多模态大语言模型中广泛采用的视觉预训练大语言模型:大语言模型是多模态大语言模型的核心组件,用于管理多模态信号并执行推理。多模态大语言模型中获取小的大语言模型的方案一般分为两种:一是直接使用小的轻量化模型。轻量化的多模态大语言模型通常使用参数少于30亿的小型语言模型,如微软的phi2-2.7B模型[17]和谷歌的以匹配使用常规数据集训练的25倍大模型。Phi-3-mini模型[2]8x7B[18]模型和GPT-3.5等模型相当。二是使用模型压缩技术对大语言模型进行轻量化处理。一般常用的模型压缩方法包括:量化,剪枝,知识蒸馏,紧凑的架构设计,动态网络等,这些方法在传统的深度学习网络(如CNN和RNN)中已有广泛应用,而在大语言模型的优化中也有了更深入的探索。每种方法的具体实施方案和效果因任务需求和硬件约束而异,在此不再视觉-语言投影器:是连接视觉与文本桥梁,其核心功能是将视觉特征块映射至文本特征空间。针对此模块的轻量化,包括四种:一是基于注意力。如BLIP2[7]引入了Q-Former,一个轻量级的Transformer,使用一组可学习的查询向量从冻结的视觉模型中提取视觉特征。二是基于CNN。如MobileVLMv2[8]提出的LDPv2,通过使用逐点卷积层、平均池化和带有跳跃连接的PEG模块,LDPv2减少了99.8%的参数,在效率上取得了更好的表现。三是基于Mamba。如VL-Mamba[9]在其视觉-语言投影器中实合。四是混合结构。如卷积抽象器通过使用卷积结构高效地建模局部上下文,有助于将视觉特征抽象为任意平方数的视觉已经成为多模态大语言模型轻量化的关键。通过以下几种关键多视图输入:为了利用低分辨率视觉编码器处理高分辨率图像,一种常见的方法是输入高分辨率图像的低分辨率全局视图,和通过分割高分辨率图像获得局部视图。例如,LLaVA-UHD[5]提出了一种图像模块化策略,将原始分辨率图像划分为更token处理:长视觉token序列的处理技术对于高效的多模态大语言模型至关重要,其解决了保持细粒度细节和减少计算复杂度的双重挑战。例如LLaVA-PruMerge[10]和MADTP[19]提出了多尺度信息融合:利用多尺度图像信息对视觉特征提取至关重要。这种方法使模型能够捕捉较小尺度中的细粒度细节和较大尺度中的广阔背景。例如Mini-Gemini模型[11]包括两个编码器,一个用于高分辨率图像,另一个用于低分辨率视觉嵌入。它提出了块信息挖掘,通过低分辨率视觉嵌入作为查询,视频特定方法:视频理解还需要处理大量帧,这可能会突破大语言模型的上下文窗口处理能力,带来巨大计算负担。例如VideoLLaVA[15]基于LanguageBind[20]构建,将视觉表示统一到语言特征空间中,推动基础大语言模型向统一的语言-视觉大模高效的结构是通过优化模型结构或算法设计,以更少的资源实现相近甚至更高的性能,是多模态大语言模型轻量化的关专家混合模型:专家混合模型通过调节模型参数的总数来增强模型容量,同时保持激活参数不变,从而不会显著影响推理速度。MoE-LLaVA[12]提出了一种基于专家混合模型的稀疏M多模态大语言模型框架,能够有效增加参数数量,而不影响计算Mamba:Mamba[21]是一种新型效处理信息密集型数据(如语言建模)而设计。Cobra[13]将性能媲美LLaVA,但参数仅用43%。模型架构,加快推理速度。SPD[14]提多模态大语言模型的轻量化发展仍处于初期阶段,仍有很(一)突破多模态信息处理的局限是关键。轻量化的多模态大语言模型在处理多模态信息时面临挑战,通常仅能接受单一图像,这限制了能够处理更多元模态标记的复杂模型的进一步拓展。而这类复杂模型对于对于理解长视频和分析包含图像与文本混合的长篇文档等应用场景有着极为关键的价值,可以(二)输入输出模态扩展是未来发展的重点。当前主要的轻量化多模态大语言模型支持的是双输入模态-图像和文本,以及单一输出模态-文本,但现实世界中的模态远不止于此。未来,通过扩大高效多模态大语言模型的输入模态范围,以适应更多样化的输入类型,并增强其生成能力,将显著增强其多功(三)可在边缘部署的轻量化多模态大语言模型将推动机器人等智能设备发展。轻量化的多模态大语言模型将赋予终端设备更高效、更智能且多模态的处理能力,使智能设备得以与现实世界无缝互动。特别在机器人领域,轻量化多模态大语言模型将极大提升机器人对环境理解的准确性,增强任务执行的visionlanguageassista[2]YizhangJin,JianLi,YexinLiu,TianjunGu4,KaiWu,YabiaoWang,ChengjieWangandLizhuangMa.EfficientMultimodalLargeLanguageModels:ASurvey.ar[3]HaotianLiu,ChunyuanLi,QingyangWu,andYongJaeLee.GabrielGoh,SandhiniAgarwal,GirishSastry,AmandaAskell,2:Bootstrappinglanguage-imagepretrainingwithfrozvisionlanguagemodel.arXivpreprintarXZhao,MingzhenSun,QiWu,andJingLiu.Vl-mambgemini:Miningthepotentialofmulanguagemodels.arXivpreprinJin,JunwuZhang,MunanNing,anpreprintarXiv:2401.159preprintarXiv:2403.145[16]JunChen,DeyaoZhu,XiaoqianShen,XiangLi,ZechunLiu,multi-tasklearning.arXivpreprintarXiv:2310.09478,2023.smalllanguagemodels.Microsoft[18]AlbertQ.Jiang,AlexandreSablayrolles,AntoineRoux,ArthurMenschandBlancheSavary.Mixtralof[19]JianjianCao,PengYe,ShengzeLi,ChongYu,Yanson

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论