版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
图书馆领域大模型创新应用需求调研报告(征求意见稿
V0.9)上海图书馆(上海科学技术情报研究所)智慧图书馆技术应用联盟2024
年
5
月说
明本报告为《图书馆领域大模型
新应用需求调研报告》的征求意见稿,仅供内部讨论、意见征集使用。在本
告的编纂过程中,得到诸多同仁及联盟成员的宝贵支持和专业意见,对此表示衷心的感谢。本报告版权属于上海图书馆(上海科学技术情报研究所)、智慧图书馆技术应用联盟。本报告第二章节行业应用调研部分,整理自国内外公开网络信息和机构研报特此致谢!感谢各有关机构对大语言模型技术发展与行业应用的深入调研,并公开分享这些宝贵的学习资源。由于大模型技术与应用领域的飞速发展,本报告编写期很多方面如大模型能力、应用框架、多模态和智能体等方面已发生很多进展,虽然本报告尽可能考虑了相关技术对领域应用的影响,但还是强烈建议您在参考本报告内容时,密切关注大模型技术的最新进展和动态。同时,我们深知本报告难免还存在不少疏漏与不足之处,因此我们对此表示歉意,并希望您提供宝贵的反馈建议。报告各章编辑:第一章
前言(嵇婷)第二章
大模型行业应用
研(许磊)第三章
大模型对
书馆的影响(嵇婷、周纲、许磊)第四章
智慧图大模型应用(嵇婷、周纲、许磊)第五章
图书馆典型大模型应用需求及场景举例(嵇婷、周纲、许磊、刘倩倩、姚馨、刘贝玲、徐凡、吕思诗、张春景)第六章
总结与展望(嵇婷)联系方式:如对报告有任何建议,欢迎将反馈意见发送:calsp@。第一章
前人工智能(AI)技术以其迅猛的发展势头,正在成为推动社会进步的重要力量。在
AI
时代浪潮的推动下,以大模型技术为代表的生成式人工智能已经成为推动科技进步和产业变革的重量,为各行各业带来了革新的可能。2023
年
7月,国家互联网信息办公室等七个中央部门联合发布了《生成式人工智能服务管理暂行办法》,文件鼓励生成式人工智能技术在各行业、各领域的创新应用,探索优化应用场景,构建应用生态体系。2024
年,政府工作报告中明确提出深化人工智能研发应用,开展“人工智能+”行动。国家鼓励人工智能技术与经济社各领域深度融合,以推动各行业应用创新,赋能百业智能化转型升
。伴随着新一代
AI
技术的兴起,图书馆界也迎来了重要的契机,步入了一个既充满机遇又面临挑战的新时代。在这一新的技术背景下,图书馆作为信息资源中心和知识服务核心场所,必须适应新时代的发展趋势,把握机遇,积极应对将
AI
融入运营与服务中的复杂挑战。为了有效应对变革,上海图书馆(上海科学技术情报研究所)联合上海人工智能研究院、智慧图书馆技术应用联盟于2023
年
9
月发布了《图书馆大规模模型创新与应用白皮书》。白皮书从宏观层面,解读了智慧图书馆在
AI2.0
时代的发展环境和机遇,勾勒了大模型技术赋能智慧图书馆全景应用视图、实现路径
应用架构,为行业推进场景创新、落地实践、生态建设提出了方向性、建设性的参考与建议。本报告旨在作为《图书馆大规模模型创新与应用白皮书》的补充,深入探讨大模型技术在图域的应用价值与潜在影响。在白皮书提出的图书馆领域大模型应用的总体架
与应用视图的基础上,本报告进一步分析了大模型技术在智慧图书馆中可实践应用的具体领域、场景和需求。本报告旨在揭示大模型在智慧图书馆中的应用潜力与可能性,提供图书馆在探索大模型技术
新应用的参考,以助
图书馆更好地把握人工智能发展所带来的机遇。报告第二章首先对大模型的价值、技术、行业应用进行调研,旨在洞察行业趋势,评估大模型技术在图书馆领域的应用前图书馆的影响后,提出了图书馆应用大模型的第三章在详细分析了大模型对、路径和架构。报告第四章根据当前技术发展和落地现状,梳理了图书馆在智慧服务、智慧业务、智慧管理、智慧空间四个领域中,当前可实
、实施或展望的
AI
应用,并进行总结。第五1章重点聚焦于图书馆中的八个典型领域,通过需求分析、场景举例以及相关实践案例,深入探讨了大模型技术在这些领域的应用潜力。这八个领域是:参考咨询、资源发现、阅读推广、学术服务、采编辅助、资源加工、数字人文和管理决策,通过对这些关键领域的详细讨论告意在激发更多的创新思维,促进图书馆领域在大模型技术的开发应用和产品设计方面的思考与实践。人工智能技术正处于快速演变之中。因此,本白皮书所阐述的观点和建议反映了当前阶段性的探索与思考。这些内容旨在为图书馆领域的未来发展提供启发,并促进对新兴技术趋势的理解和应用。随着技术进步和实践经验的积累,未来应用模式和需求可能会有所变化,需持续对这些变革保持关注,并适时进行调整和优化以适应新的发展趋势。我们深知报告中存在诸多不足之
,因此,我们也诚挚邀
各界人士进行批评指正,我们将借助各方经验对报
进行修改和完善,从而为智慧图书馆大模型创新应用提供有益参考。2第二章
大模型行业应用调研2.1
大模型行业应用价值2022
年
11
月上线的生成式人工智
(AIGC,AI-Generated
Content)应用ChatGPT,在“大模型+大数据+
力”的加持下,其在语义理解、文本创作、代码编写、逻辑推理、知识问答等领域表现卓越,在具备了多场景、多用途、跨学科的任务处理能力,是人工智能技术极为关键的发展节点1。ChatGPT
的横空出世,标志着大语言模型(Large
Language
Model,
LLM,简称“大模型”)突破自然语言处理(Natural
Language
Processing,NLP)领域以小模型为主导的传统发范式。通常认
,大语言模型是基于海量自然语言数据进行预训练
得到的超大型深度学习模型,参数通常从数十亿到超千亿。底层基于
Trmer
深度神经网络,由具有自注意力功能的编码器和解码器组成,编码器和解码器从一系列文本中提取含义,能够理解更大范围上下文的单词和短语之间的语义关系。这种巨量数据训练架构使得大语言模型具有了被称为“涌现”的泛化推理能力2,使其具有了通用人工智能(AGI)的特性。用同样方法对海量图片、音频、视频等多媒体信息结合语言数据进行预训练和指令微调的超大型深度学习模型也是大语言模型的一种发展,通常称为多模态大模型。也可以将上述两者并称为“大模型”。大模型的“涌现能力”不仅可以实
文本、图像、音频、视频的生成,构建多模态,还可以在更为广泛的领域生成新的设计,新的知识,甚至实现广义的艺术和科学的再创造3。大模型的“大规模”和“预训练”属性,决定了其具有能力泛化、技术融合、应用大核心作用4。(1)能力泛
方面,大模型预先在海量通用数据上训练使其具备了通用任务的泛化能力,更可进一步结合垂直行业和业务场景需求进行模型微调和应用适配,摆脱传统
AI
能力碎片化、作坊式开发的束缚。大模型得益于其“大规模预训练﹢
调”的范式,可以很好地适应不同下游任务,展现出它强大的通用性。(2)技术融合方面,文本大模型融合语言、视觉、听觉等多模态信息,通1中国人工智能学会.
中国人工智能系列白皮书——大模型3
版),/index.php?s=/home/article/detail/id/3172.html,
2023.2赵鑫,
李军毅,
周昆,
唐天一,
文继荣.
大语言模型,
https://llmbook-zh.github.io/,
2024.34龙志勇,
黄雯.
大模型时代:ChatGPT
开启通用人工智能浪潮[M].
中译出版社,
2023.海通国际.
MaaS
Model
as
a
Service
模
即服务,
/pdf/H3_AP202302081582885375_1.pdf,
2023.3过对齐预训练和指令微调,实现多模态感知与统一表示;也可集成知识图谱、搜索引擎、代码执行、工具调用等技术,或者与小
型融合,从而实现优势互补,性能上实现“1+1>
2”的效果,显著提升
模型的功能丰富性和性能优越性
1、2。(3)应用支撑方面,大模型能力的重要体现是复杂任务推理
2。复杂推理能够使大模型应用通过与工具、用户和外部环境的互动来完成复杂的指令。这为构建大量应用程序提供了机会,从而使大模型有机会成为下一代计算平台/操作系统,有效支撑智能终端、系统、平台等产品应用落地,解决传统
AI
应用过程中存在的壁垒多、部署难问题。从人工智能到各行业的商业应用,可以看作是上下游的关系。大模型因其自身在能力泛化与技术融合方面的优势,使其在应用支撑方面具
先进性;同时大模型做
了相对标准化,下游可以降低对算法的使用成本,商业应用的适配成本。因此,大模型在“AI+”行业中将承担“基础设施”式的功能,作为底座将
AI技术赋能千行百业。也就是说,在基于数据的互联网时代、基于算力的云计算时代之后,将进入基于大模型的
AI
时代。在未来,基于大模型,人工智能将如供水供电一般流向终端,流向用户和企业。2.2
大模型行业应用服务大模型应用落地场景按照架构层级,一般可分为:模型层、中间层和应用层5。(1)第一层技术基础设施层上游基础模型层,也就是由预训练模型为基础搭建的
AIGC预训练模型的高成本和技术投入,具有较高的进入门槛,不在本文讨论范围。(2)第二层,为中间层,即垂直化、场景化、个性化的模型和应用工具。预训
的大模型是基础设施,在此基础上可以快速抽取生成场景
、定制化、个性化的小模型,实现在不同行业、垂直领域、功能场景的工业流水线式部署,同时兼具按需使用、高效经济的优势。随着兼具
模型和多模态的
AIGC
模型加速成为新的技术平台,模型即服务
(Modelce,MaaS)
开始成为现实。OpenAI
创始人山姆·奥特曼(Sam
Altman)“认为中间那一层会创造很多价值。5腾讯研究院.
AIGC
发展趋势报告
2023,
https://
/report?id=AJJ,
2023.4它们不必创建基本模型,可以只为自己或与人共享来创造应用。这是创业公司能够做的关于数据飞轮的事。”(3)第三层,为应用层,即面向
端用户的文字、图片、音视频等内容生成服务。在应用层,侧重满足户的需求,将
AIGC
模型和用户的需求无缝衔接起来实现产业落地。根据内容生产模态,AIGC
能够被分为四大基础模态,包括文本、音频、图像、视频,每一种模态技术都有着独特的应用场景和特点。此外,这四类模态的融合还带来第五类模态——跨模态内容生成模式,支持创造出更为丰富多彩的
AIGC
生成内容
6。2023
中关村论坛人工智能大模型发展论坛,阿里云智能集团
CTO
周靖人表示,“以模型为中心的开发范式(MaaS)已成为行业标准,未
应用开发的整个链路都
基于这一理念来做”。所谓
MaaS,模型即服务,指用户可以直接通过
API
调用基础大模型,为不同的业务场景,来构建、训练和部署专属模型。云平台提供从数据、模型到应用服务的全周期管理和工具。AI
产业的场景落地一直面临碎片化、长尾场景数据较少导致模型训练精度不够等行业痛点。传统“小模型”范式的
AI
应用开发流程一般针对单一场景,独立地完成一系列开发环节,包括模型选择、数据处理、模型优化和模型迭代。因此,AI
应用在定制化需求、长尾
求下的开发效率较低,且模型精度、性能、可扩展性等指标质量也会受到影响。随着大模型的出现,AI
应用开发流程转变为,调用通用流程、结合行业经验、解决实际问题。Maas
服务商大模型作为重要的生产元素,依托于既有
IaaS
设施与
PaaS平台架构,为下提供以大模型为核心的数据处理、模型托管、模型训练、模型调优、推理部署、智能应用开发等多样化需求,保障客户的大模型
够顺利交付。客户则通过低成本、高效率的
MaaS
平台服务获得
AI
能力,完成
AI
应用的开
、优化及部署,将
AI
能力应用渗透到各行各业的场景业务中7。6横琴粤澳深度合作区数链数字金融研究院,
亚洲数据集产业应用实践,
/wp-content/uploa能行业智能时代的生产力变革:AIGC06/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E8%A1%8C%E4%B8%9A%E6%99%BA%E8%83%BD
E6%97%B6%E4%BB%A3%E7%9A%84%E7%94%9F%E4%BA%A7%E5%8A%9B%E5%8F%98%E9%9D%A9%EF%BC%9AAIGC%E4%BA%A7%E4%B8%9A%E5%BA%94%E7%94%A8%E5%AE%9E%E8%B7%B5-DAFRI
DG.pdf,
2023.7艾瑞咨询.
2023
年中国
AIGC
产业全景报告,
/report/202308/4227.shtml,
2023.5图
2.2:MaaS
行业应用服务模式8目前,微软云
Azure、阿里云、华为云、腾讯云、百度云、京东云等云计算大厂,都已经推出了
MaaS
服务。以微软云的
Azure
OpenAI
服务为例,就支持开发者调用
OpenAI
GPT-4、GPT-3、Codex
和
DALL-E
等模型的
API,来构建、微调模型,为应用提供支持。腾讯云从产业客户需求场景出发,依托腾讯云
TI平台打造模型精选商店。腾讯云已联合行业头部企业,为十大行业输出了超过50
个解决方案,提供一整套模型服务工具链。传统企业软件服务商金蝶利用百度智能云千帆平台所提供的大模型推理、微调以及算力资源服务,发布了新一代企业管理产品金苍穹
GPT9。2.3
大模型行业术方案大语言模型在语言生成、知识利用、复杂推理等基础能力上存在诸多问题,典型如幻觉、知识时效性、专业化生成能力较弱、推理不一致等问题10。在实际应用
需要综合运用提示词工程、检索生成增强、智能体、模型微调等多种策略和技术方案提升大模型的稳定性与一致性。2.3.1
提示词工程简单来说,现阶段基于
Transformer
架大模型,是根据输入预测下8艾瑞咨询.
2023
年中国
AIGC
产业全景报告,
/report/202308/4227.shtml,
2023.9/news/news_f4b25
2-cc8b-406d-98f7-05fbe1b48c2210赵鑫,
李军毅,
周昆,
唐天一,
文继荣.
大语言模型,https://llmbook-zh.github.io/,2024.6一个词元。因此,基于自然语言的提示词工程(Prompt
engineering)成为大模型实际应用的主要方法。所谓提示是经过精心构造由不同要素组成的任务指令来引导模型的输出,使大模型能够在不同的
务和领域中表现出色。而提示的质量也在很大程度上影响了大模型在下务中的表现,因此需要通过人工设计或自动优化的方法来生成合适的任务提示。人工设计大语言提示需要考虑四个关键要素,即任务描述、输入数据、上下文信息和提示策略。基于这四个关键要素,提示设计的基本原则分别是:清晰地表达任务目标;分解为简单且详细的子任务;提供少样本示例;采用模型友好提示格式11。(1)清晰地表达任务目标。在使用大模型时需要给出清
明确的指令。具体来说
一个清晰详尽的任务描述中应当包含任务的各种要素
息,如任务目标、输入/输出数据和回复限制。(2)分解为简单且详细的子任务。将一个复杂任务分解为若干个相对独立但又相互关联的子任务,每个子任务都对应原始任务的某个方面或步骤。这种策略有助于减少复杂任务的解决难度:通过将复杂任务分解为若干个子任务并按照一定的顺序处理这些子任务,模型能够逐步获得最终的答案。(3)提供少样本示例。在提
中加入少量目标任务的输入输出作为任务示例(即少样本示例),有助于大模型在无需调整参数的前提下学习输入与输出之间的语义映射关系,提升大模型解决复杂任务的能力。(4)采用模好的提示格式。大模型采用专门构建的数据集进行预训练,习到大量的语言表达模式,发现并利用这些语言表达模式因此可以从数据可以帮助我们更有效地使用大模型完成特定任务。如
Markdown
语法、XML
标签等。循上述原则设计的简单提示对于大多数的问题都是有效的,但涉及复杂推理任务时,则需要更高级的提示策略。其中被广泛应
的就是思维链(Chain
ofThought,CoT)。为增强大模型在各类复杂推理任务上的Wei
等人12设计了思维链的提1112赵鑫,
李军毅,
周昆,
唐天一,
文继荣.
大语言模型,https://llmbook-zh.github.io/,2024Wei
J,
Wang
X,
Schuurmans
D,
et
al.
in-of-Thought
Prompting
Elicits
Reasoning
in
Large
LanguageModels[J].
arXiv,
2022.7示策略。思维链的主要思想是通过向大模型展示一些少量推理过程,大模型在回答时也会显示推理过程,这往往会引导出更准确的结果。具体来讲思维链提示在原先的少样本示例的输入输出之间,插
了中间的推理步骤来指导从输入到输出的推理过程,即“输入,推理步输出”形式,也可称为少样本思维链提示(Few-Shot
CoT)。另外,最简单的思维链提示,可以在提示中加入如
“Let’s
thinkstep
by
step.”之类的诱导性指令,让大模型先生成思维链再回答问题来提高准确率,也就是零样本思维链提示(Zero-Shot
CoT)13。也有更多基于思维链的优化或变体提示策略,如自洽性(Self-Consistency)、最少到最多提示过程
(LeastMost
promptin
LtM)、思维树(Tree-of-Thoughts、ToT)等。更多特定场景下的提示策略可阅读相关综述14。12图
2.3.1:思维链提示样例常用的提示工具有:PromptPerfect15、prompttools16
、promptfoo17、FlowGPT18等,更多相关工具见
LearnPrompting19。13Kojima
T,
Gu
S
S,
Reid
M,
et
al.
Large
Language
Models
are
Zero-Shot
Reas
ners[J].
arXiv,
2022.14Sahoo
P,
Singh
A
K,
Saha
S,
et
al.
A
Systematic
Survey
of
Ppt
Engineering
in
Large
Language
Models:Techniques
and
Applications[J].
arXiv,
2024.15https://promptperfect.jina.ai/16171819/hegelai/prompttools//promptfoo/promptfoo//docs/intro82.3.2
检索生成增强当大模型处理本地的或特定领域信息时,幻觉、知识过时以及推理过程不透明、不可追踪等问题进一步凸显,不能
足业务实际需求。这就需要在提示中提供更多的专业知识作为上下文背确保大模型输出的准确、可靠。检索增强生成技术(Retrieval-Augmented
Generation,RAG)20通过整合外部数据库的知识,成为一种高效的解决方案。RAG
通过传统的检索方法,用外部来源的最新信息补充大模型的训练数
,使其不仅能够访问专属知识库,还能动态地引入最新数据,从而引导其生成更确的回复。一个典型的
RAG
系统流程分为索引、检索和生成:(1)索引:索引首先从不同格式的文件中提取原始数据
将其转换为统一的纯文
格式。然后,文本被分割成更小的块。最后,使用表示,并存储到矢量数据库中。模型编码为矢量(2)检索:检索时,系统将用户查询转换为向量表示。然后进行语义相似性检索与问题最相关的前
k
个块。(3)生成:将原始问题和检索到的信息块被合并为提示,一并输入大模型生成最终答案。具体来讲,RAG
系统涉及多
不同的组件,每个组件都需要精心设计和优化,以确保整体性能达到令人满意的水平。索引阶段包括了文档智能解析、文本分块、索引构建与优化、向量嵌入等;检索阶段有检索的理解与优化、检索路由与策略等;生成有重排序、上下文过滤与压缩等。根据上述组件与优化方案的选择,RAG
可为原生、增强、模块
3
种类型21。为进一步提高系统的性能,也会引入后置处理环节,如风控检测、结果缓存、指标监控等。而在生产环境中,则可以根据业务需求在原生
RAG
基础上合理选择扩展组件和优化策略。R类工具有
Jina
Reader22、Scrapegraph-ai23、Crawl4AI24等专门为大模型优20Lewis
P,
Perez
E,
Piktus
A,
et
al.
Retrieval-augmented
getion
for
knowledge-intensive
nlp
tasks[J].rge
Language
Models:
A
Survey[J].
arXiv,Advances
in
Neural
Information
Processing
Systems,
2020,
33:21Gao
Y,
Xiong
Y,
Gao
X,
et
al.
Retrieval-Augmented
Generatio2023.222324/jina-ai/reader/VinciGit00/Scrapegrap/unclecode/crawl4aii9化的网络数据爬取工具,也有专门的文档解析与数据处理工具,如
Unstructured25、marker-api26、Open
Parse27等;支持检索、推荐、
滤等功能的
RAG
检索
API28;有专用数据框架
LlamaIndex29,适用于
AG
和语义检索的
Haystack30,基于深度文档理解构建的
RAG
引擎
RAG31,也有用于
RAG
程序搭建的
Verba32;综合开发框架
LangChain33及其衍生低代码平台
Langflow34、Flowise35等;Cohere更推出了专为
RAG
微调优化的大模型
Command
R
和
RAG
开发工具包36。2.3.3
智能体智能体(Agent)简单来说可看作能感知环境及需求、进行决策和执行动的系统。在大模型之前,Agent
主要依赖于规则或强化学习的方法实现。前者容错性较小、后者成本较高,使其无法推广应用到实际的开放环
中。基于大模型的
AI
A
nt
的核心思想是利用大模型的逻辑推理、工具应用
指令遵循等核心能力,将复杂任务分解为若干相关联的子任务,并围绕这些子任务制定包含一系列执行动作(Action)的解决方案,进而简化任务难度37,执行复杂推理任务,丰富大模型在实际业务中的应用场景。2023
年
3
月,微软发布
Microsoft
365Copilot,4
月开源项目
AutoGPT38发布,6
月
Lilian
Weng
发布“LLM
PoweredAutonomous
Agents”39,基于大模型的
AI
Agent
的重要性逐渐成为业界共识40、41、25/Unstructure/unstructured262728293031323334353637383940/VikParuchuri/marker//ruopen-parsec/trievema/llama_index/deepset-ai/haystack/infiniflow/ragflowhtt
s:///weaviate/Verbahttp/langchain-ai/langchainhttp
:///logspace-ai/langflow/FlowiseAI/Flowise/cohere-ai/cohere-toolkitHuang
X,
Liu
W,
Chen
X,
et
al.
Understanding
the
planning/Significant-Gravitas/AutoGPTts:
A
survey[J].
arXiv:2402.02716,
2024.Lilian
Weng.
LLM
Powered
Autonomous
Agents.
https://lilianweng.github.io/posts/2023-06-23-agent//AI-agents41/2024/0
01/1091979/sam-altman-says-helpful-agents-are-poised-to-become-ais-killer-function/1042。从技术角度
AI
Agent
是一种编排软件,它将大模型、规划能力、记忆、工具结合起来,执行各种任务,例如理解和
成自然语言、从内存中存储和检索信息、利用特定功能的工具,甚至评
身的表现。核心组件一般包括记忆模块(Memory)、规划模块(Planning)和执行模块(Execution)43。(1)记忆模块主要用于存储智能体与环境的历史交互记录,包括短期记忆和长期记忆。短期记忆相当于
Transformer
架构约束下的上下文窗口内的输入信息。长期记忆类似于可以根据需要迅速查询和检索的外部向量存储。(2)规划模块赋予智能体类似于人类的解决复杂任务的能力,即将复杂任务分解为一系列简单的子任务,进而逐一进行解决。根据是否
收反馈影响未来行为,
分为无反馈规划和有反馈规划。在无反馈规划中,我们可以采用单路径推理,这种策略将最终任务分解为一系列中间步骤,这些步骤以级联方式连接,每个步骤仅指向一个后续步骤。另一种方法是多路径推理,其中生成的推理步骤被组织成树状结构,每个中间步骤可能有多个后续步骤。此外,还有针对特定领域的长期规划问题的外部规划器,这类规划器基于高效的搜索算法,提供更可靠的规划能力。有反馈规划则包括从环境、人
和模型中接收反馈,以引导反思和提高规划能力。环境反馈通常采用
ReAct
的推理-行动-反馈模式,明确的推理和行动按顺序进行,如果某个行动的反馈未达到预期结果,则重新进行推理直至得出正确答案。人类反馈,人类的价值和偏在环中”模式,通过与人类的互动获取反馈,帮助智能体与一致,并更好地适应实际环境,同时也有助于缓解幻觉问题。模型反馈则涉及使用大型模型作为质量审核专家,对生成的计划进
评估和改进,引入自我完善机制,通过迭代反馈和改进来提高模型的输出效果。)执行模块的目标是将智能体的决策转化为具体结果。它直接与环境互动,决定了智能体完成任务的效率。具体来说,智能体
在行动决策过程中执行规划组件制定的明确行动规划,同时会参考记忆组件中的长短期记忆来帮助执行准确的行动。在技术实现上,执行组件可以型自身来完成预定规划,或42https://www.deeplearning.ai/the-batch/issue-241/43Wang
L,
Ma
C,
Feng
X,
et
al.
A
survey
o
arge
language
model
based
autonomous
agents[J].
Frontiers
ofComputer
Science,
2024,
18(6):
1-26.11者通过集成外部工具来增强其执行能力。工具主要包括
API、外部知识库、第三方模型、大模型自身的内部知识等。最为知名的开发框架是
LangChain
其他框架包括
BabyAGI44、AgentGPT45等;多智能体框架
AutoGen46、Met7等;轻量级框架有
crewAI48、Agently49、phidata50等;可视化工具有
Flowi
e51、Dify52、Bisheng53、FastGPT54、coze55等。更多相关内容可见
awesome-ai-agents56。补齐了大模型短板的
AI
Agent
更具备实用性,将是大模型重要落地方向。但受限于当前技术和市场发展,智能体在记忆与规划上并没有完全成熟,因此入
R
PA(机器人流程自动化)或低代码平台的自动化工作流类智能体成为当前可行的落地方案之一57。如摩根大通推出的
FlowMind
生成系统
,工作流分成
2个阶段
第一阶段为大模型设置上下文、APIs
描述等背景信
,第二阶段则是大模型识别用户查询意图调用相应的工具生成并执行代码。微软
Copilot
则开放测试调用
Power
Automate,与本地系统集成执行更加复杂的自动化任务59。“AIAgent
的工作流程将推动人工智能巨大的进步——甚至可能超过下一代基础模型”60。44/yoheinakajima/babyagi/reworkd/Ag
GPT/microsoft/autogen4546474849505152535455565758//MMetaGPToura/crewAImx/Agently/phidatahq/phidata/FlowiseAI/Flowisehtt
s:///langgenius/difyhttp/dataelement/bishenghttp
:///labring/FastGPT/home/e2b-dev/awesome-ai-agents/ideas/ai-agents-disruptiZeng
Z,
Watson
W,
Cho
N,
et
al.
FlowMind:
Automatic
Workflon/eration
with
LLMs[C]//Proceedings
of
theFourth
ACM
International
Conference
on
AI
in
Finance.
2023:
73-81.59/computing/artificial-intelligence/microsoft-is-giving-windows-copilot-an-upgrade-with-power-automate-promising-to-banish-bo
g-tasks-thanks-to-ai60https://www.deeplearning.ai/the-batch/issue-
41/122.3.4
模型微调如
2.3.2
所述,大模型虽然在通用任务上有出色的表现,但在一些细分专业领域,它们往往无法满足专业需求。如
需要让模型在特定领域有更精准、专业的表现,或者需要模型具备特定
识、能力或风格时,就需要在大模型的基础上进行领域微调。大模型微调是指在预训练的大型语言模型基础上,使用特定领域的数据对其进行进一步的训练。由于大语言模型的参数量巨大,领域微调环节一般进行参数高效微调(Parameter-efficient
Fine-tuning)。这种方法通过只训练模型的一小部分参数,可以在较少的数据和计算资源下实现更好的微调性能。型的微调方案有
LoRa、适配器微调、前缀微调、提示微调等。大模型微调步骤一般包括基础模型选择、训练数据集的搜
与预处理、微调、测试与
估等。基
础模型选择
可参考各大模型评测榜
,如
Open
LLMLeaderboard61,LMSYS
Chatbot
Arena
Leaderboard62,OpenCompass
司南大模型评测63等。训练数据集的构建则是微调的重要一环。格式化数据集构建主要有以下三种方法64:(1)基于现有的
NLP
任务数据集构建。这类方法利用已经存在的、经过验证的
NLP
任务数据集,如机器翻译、情感分析、文本分类等。这些数据集通常有明确的标注和结构,可以直接用于微调模型。这种方法的优点是数据质量高,标注准确,能够快速验证模型在特定任务上的性能。(2)基于日常对话数据构建。这类方法使用来源于实际对话的数据,如社交媒体评论、论模型适应更广泛子、聊天记录等。这些数据具有多样性和自然性,能够帮助使用场景。然而,这些数据往往未经标注,需要进行预处理和标注,以保证数据质量和训练效果。预处理步骤可能包括去除噪声
过滤敏感信息以及标准化对话格式。)基于合成数据构建。合成数据是通过生成模型或规则程序生成的。这种方法适用于特定任务或领域的数据不足的情况。合成
据可以通过数据增强技术、文本生成模型(如
GPT)或者基于规则的
法(如模板生成)来创建。尽61https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard/626364/home赵鑫,
李军毅,
周昆,
唐天一,
文继荣.大语言模型,https://llmbook-zh.github.io/,202413管合成数据在多样性和真实感上可能不如自然数据,但其可以弥补数据不足的问题,并且可以根据需要生成特定类型的数据,具
很高的灵活性。RAG
和微调都是一种基础大模型
领域应用的重要方法。RAG
在动态环境中表现出色,可提供实时知识更有效利用外部知识源,具有很高的可解释性。缺点就是需要从外部数据中实时检索,大模型推理消耗较大,响应速度稍慢,并且最终结果受到检索召回率和准确率的较大影响。而微调更为静态,可以深度定制模型的行为和风格,更好地适应目标领域。但更新时需要重新训练,并且需要大量的计算资源用于数据集的准备和训练。另外,受到训练数据集的影响可能过拟合,泛化能力较弱。RAG
最典型的应用场景是
QA
类的智能客服,而微调则适用于知识密度较高、体系较为成熟的专业领域,如医疗、
融、法律类等领域应用
选择
RAG
还是微调,取决于应用环境中对数据动定制和计算能力的具体需求。更重要的一点是,提示词工程、RAG、智能体和微调并不相互排斥,而是相互补充,增强对方的强项,抵消对方的弱项,在不同层面上增强大模型的能力。各个技术方案的综合应用是实现贴合场景的高性能业务
AI
应用的最佳方法。图
2.3.4:RAG
与微调的方案选择652.4
大模型行业应用案例虽然目前生成式人工智能主要应用于面向
费者的产品,但它也有潜力为企业工作流程增加情景感知和类似于人类的决并彻底改变我们的商业模式。例如,谷歌的客服中心人工智能(CCAI)旨在帮助实现采用自然语言进行客户65Gao
Y,
Xiong
Y,
Gao
X,
et
al.
Retrieval-Aug
nted
Generation
for
Large
Language
Models:
A
Survey[J].
arXiv,2023.14服务交互,而
NVIDIA
的
BioNeMo
则可以加速新药的研发。华为盘古气象大模型也已应用于欧洲中期天气预报中心。随着生成
人工智能的不断推广和应用,其产生的深远影响和潜在价值正在加
推动从实验到消费者领域再到企业领域的应用。大模型能否落地一方面取决于大模型的性能,另一方面与所落地行业的特点是分不开的。数据是大模型的基础燃料,这就意味着数据量大、数据质量高、数据多样性强的行业能够为大模型提供充足的训练和微调的数据,而技术需求
、创新能力强、竞争激烈的行业自身就有着拥抱新技术的热情,这些因素决定下大模型在各国、各行业的成熟度并不一致,在各个应用落地的表现也有所不同。目前,国内外大模型已在办公、教育、医疗、金融、文娱
交通等领域落地应用,
行业渗透率来看,金融业的渗透率最高,已达
78%
在微软、金山办公等龙头企业的带动推广下,在办公领域的渗透率也比较可观,而能源和建筑行业的渗透率较低66。图
2.3
大模型垂直应用行业用成熟度67在全球,已经有金融行业如
Stripe、Bloom
g;
零售行业如可口可乐;生命6667钛媒体.
2023
中美
AI
大模型应用比较研
报告,
/news/newsdetail/68671,
2023.钛媒体.
2023
中美
AI
大模型应用比较研究报告,
/news/newsdetail/68671,
2023.15科学领域如
Profluent、absci;能源行业如
C3
i
开始将生成式
AI
应用到内容创建、知识发现、智能客服等场景,引领了行业企
采用新一代
AI
的风潮68。大模型在垂直领域应用的案例不断涌现,
下作简要介绍,国内外更多的大模型行业应用可见相关文献69、70、71、72、775、76、77。2.4.1
医药健康医学方面,ChatDoctor
是一个在
LLaMA
上微调的医学领域大模型78。在相关研究中,研究团队从在线医疗咨询网站“HealthCareMagic”收集了约
10
万条真实的医患对话,并对这些数据进行了人工和自动过滤等预处理作为训练数据。从在线医疗咨询网站
iCliniq2
收集了大约
1
万条医患对话用于评估模型的性能。对于医疗场景中的问答,研究团队收集并编译了一个数据库,
中包括大约
700种疾病
其相关症状、进一步的医学测试或措施以及推荐的治疗。该数据库可以随时更新,无需重新训练模型。基于此,ChatDoctor
可以检索相应的知识和可靠的来源,以更准确地回答患者的询问。构建完外部知识大脑后,通过构造适当的
prompt
让
ChatDoctor
自主检索其所需要的知识。华南理工大学有一款名为“灵心”的心理陪伴机器人,研究团队构建了超过
15
万规模的单轮长文本心理咨68/report?id=62A069腾讯研究院.向
AI
而行
共筑新质生产力——行
大模型调研报告,
/news/newsdetail/68815,
2024.70IDC&亚马逊云科技.
2024
生成
AI
白皮书,
/document/731681598/Idc-%E4%BA%9A%E9%A9%AC%E9%80%8A%E4%BA%91%E7%A7%91%E6%8A%80-2024%E7%94%9F%E6%88%90%E5%BC%8Fai%E7%99%BD%E7%9A%71%B9%A6,
2024.人民网财经研究国
AI
大模型产业发展报告,
/jiankang/nineteepdf,
202472深圳市人工智能行业协会.2024人工智能发展白皮书,
/?d=hld&type=
f&time=1716431584387&id=7026569&name=%E3%80%8A2024%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%8F%9
E5%B1%95%E7%99%BD%E7%9A%AE%E4%B9%A6%E3%80%8B.pdf,
2024.73北京学技术委员会等.北京市人工智能行业大模型创新应用白皮书(2023
年),htt
s://.cn/ywd
gzdt/202311/t20231129_3321720.html,202374量子位智库.
2024
中国
AIGC
应用全景报告,
s/5R1Y3M5DsFuWuv_bFH821Q,2024.75https://www.blog.aiport.tech/p/the-first-truly-global-gene762024
The
AI
Founder
Report
Business
Impact,Use
Cases,tps://blazpregelj.si/2024-hampton-ai-business-report-uses-tools-and-business-impact/,202477赵鑫,
李军毅,
周昆,
唐天一,
文继荣.
大语言模型,https://llmbook-zh.github.io/,2024.78Li
Y,
Li
Z,
Zhang
K,
et
al.
Chatdoctor:medical
chat
model
fine-tuned
on
a
large
language
modelmeta-ai
(llama)
using
medical
domain
knowled
e[J].
Cureus,
2023,
15(6).16询指令与答案,回答数量超过
50
万(指令数是当前的常见的心理咨询数据集PsyQA
的
6.7
倍),并利用
ChatGPT
与
GPT4,生成总共约
100
万轮次的多轮回答数据(SoulChatCorpus-multi_turn),其选择了
ChatGLM-6B
作为初始化模型,进行了全量参数的指令微调,旨升模型的共情能力、引导用户倾诉能力以及提供合理建议的能力79。2024
年
5
月,Google
发布了基于
Gemini
模型家族的多模态医学
AI
模型
Med-Gemini,通过自训练微调和网络搜索集成进行高级推理,通过微调和自定义编码器提高多模态理解,使用推理链进行长文本处理80,在所有可以直接比较的基准测试中都超过了
GPT-4
系列模型。诸多医药公司将人智能视为核心战略,如制药巨头礼来公司(Eli
Lilly
and
Company)宣布一系列人工智能药物发现合作伙伴关系;诺和诺德(NoNo
nordisk)
AI
视作加速药物开发
潜在关键,自
2022
年以来一直与微软合作构建
AI
型,一个案例是通过分析研究成功提高了预测个体动脉粥样硬化风险的准确度,并计划利用这些发现来指导心血管疾病治疗靶基因的开发81。2.4.2
金融保险金融保险领域中,摩根士丹利财富管理部门开发了一项面向内部的服务,利用
OpenAI
技术和摩根士丹利庞大的智力资本,在几秒钟内将相关内容和见解交付到财务顾问手中,帮助提高效率
规模
82。2024
年
5
月,摩根大通(J.P.
MorganChase)发布了生成主题投资篮子的人工智能工具
IndexGPT。IndexGPT
使用OpenAI
的
GPT-4
模型和自然语言处理技术,生成与特定主题相关的关键词列表,不仅分析新闻文析复杂的金融、识别参与该领域的公司,并且集成了深度分析功能,用于分据,挖掘潜力公司,帮助客户识别有商业价值的股票,扩展投资视野至非传统企业,制定多样化的主题投资策略83。Visa
和万事
两家金融服务企业均将最新的人工智能技术应用于欺诈检测方面,预测交易是否合法。保险
业联合健康(UnitedHealth
Group)正在使用人工智能和自然语言处理来79/scutcyr/SoulChat80Saab
K,
Tu
T,
Weng
W
H,
et
al.
Capabilities
of
Gemin
Medicine[J].
arXiv
preprint
arXiv:2404.18416,
2024.81/s/l30sz3-fMmL8gnF4-fMA_A.82
/customer-stories/morgan-stanley83/news/artificial-int
igence/2024/jpmorgan-chase-unveils-ai-powered-tool-thematic-investing/17加快通话记录速度,从而快速生成消费者与客服中心互动的准确摘要,提升客户服务自动化水平。除此之外,金融保险类企业还通过投资、收购、设立基金等方式加强人工智能最新技术在企业内的应用84。2.4.3
文化教育文化教育领域中,Legible
将
Open
AI
的
ChatGPT
集成到其专有的电子书店搜索引擎中,提供一个全新的方式来访问其目录中的两百万本电子书。LibrarianAI
可用任何语言流利地交谈,提供快速、友好、全面地响应和建议以及有关图书内容的信息85。Storybird
公司的一个绘本制作平台,只需要输入
10词以内的提示词,平台就可以生成一本完整的、带有精美插图的故事书。书籍还能上架网站和亚马逊进行售卖。清华大学于
2023
年
9
月
28
日
动
“清华大学人工智能
能教学试点课程工作方案”,AI
智能助教系统使用
LM
模型为技术底座,通过学科专业资料搭建垂直模型,并辅助知识库,支持个性化学习支持、智能评估和反馈,辅助学生进行深入思考86。北京邮电大学于
2024
年初发布基于讯飞科技文献领域大模型的
AI
科研助手,帮助科研人员进行深入的科研成果调研并进行智能分析,通过对话方式深入探索文献内容,生成研究文献综述87。国内外数据库产商或学术搜索服务商也都推出了各类
AI
应用助手,如
ScopusAI88、Elsevier
SciBite
Chat89、CN
I
AI
学术研究助手90、SciSpace91、Elicit92、Aminer93、ReadPaper94等。此外,中国科学院文献情报中心与科大讯飞合作研发了科技文献大模型,并基于此模型研发了“成果调研、论文研读和学术写作”三大功能的星火科研5。同方知网则与华为共同打造了全栈自主可控的中华知识84/s/l30sz3-fMmL8gnF4-fMA_A8586878889909192939495htt
s://beta.legible.ai/auth/signinhttp/info/1176/109914.htmhttp
:///a/ziyuan/dianziziyuan/AIkeyanzhushou//products/scopus/scopus-ai//https://typeset.io/////news/fwcx/202311/t2023110
_6915220.html18大模型——华知,聚焦科技创新、学术研究、科学决策和数据分析的应用场景96。电子书阅读
APP
微信读书和得到则在
2024
年上半年灰度上线了
AI
功能。前者提供了翻译、大纲总结和智能问答,后
主要功能是内容总结和智能搜索。文化遗产方面,字节跳动和北京大学推出的识典古籍于
2024
年
3
月上线了基于云雀大语言模型开发的“古籍智能助手”。“助手”重点利用检索增强生成技术,利用字典中的条目,或者古籍数据库搜索结果作为上下文,然后通过大语言模型综合总结并给出回复。同时,“助手”也提供语义检索功能,在回答时能参考到虽然文字不一样、但含义相关的古籍段落97。Livdeo
的
Multilingual
Audio
Chatbots
fMuseums
and
ultural
Institutions
利用
NLP
和
AI
技术,支持访客与虚拟的历史艺术名人进行多语种的对话,为参观者提供独特的互动体验9896/97/s/BbemRkm1HHIwdZ5wSLuMTg98/the-ai-revolutio
hits-museums-how-chatbots-are-transforming-the-visitor-experience-e054df5b992f19第三章
大模型对图
馆的影响3.1
图书馆大模型影响分析生成式人工智能的发展可能对图书馆产生“广泛而深刻”的影响。探讨当前大模型技术的能力与影响,有助
图书馆中应用最新的
AI
技术,为智慧图书馆建设提供新的技术路径和赋能支撑。IFLA
人工智能特别兴趣小组在
2023
年
11
月
20
日发布的《图书馆对人工智能的战略响应》中指出,新一代人工智能技术对图书馆领域产生了显著影响。报告特别提到了人工智能技术在图书馆中的应用,包括馆藏资源的规模化描述、AI
增强或创建元数据、智能用户咨询、文献发现服务、后端业务系
的
AI
优化,以及提升公众
AI
素养等方面,对图书馆系统、用户、馆藏、、元数据、设施、推广、培训、策划团队都有重要影响99。大模型被广泛考虑作为多种任务的通用工具,这归功于大模型的核心能力,基于这些能力,大模型能够执行多种任务。为进一步梳理大模型技术的影响,本报告从大模型的核心能力出发,考虑对图书馆行业主要业务具体影响。大模型的核心能力包括语言理解、信息匹配、内容生成、知识承载等基础能力,以及拥有上下文学习、思维链推理、指令跟随等涌现能力100。基于这些能力,大模型能够执行文本生成、语义理解、信息抽取、任务推理、机器翻译、文本分类、总结摘要、模态转换、数据分析、知识图谱构建等各类任务。大模型的这些功能使得大模型在智能问答、信息检索、个性化推荐和内容生成等场景展现出显著的自动化和智势,从而极大地提升了信息处理的效率和输出的质量,推动了人工智能技术
广泛应用和持续创新。表
3.1
从大模型典型任务能力出发,分析其在图书馆中的作用和影响。通过这些能力的运用,图书馆可以提高服务效率、增强用户体验,并推动图书馆服务的创
和发展。作用影响的图书馆领域包含了参考咨询、资源发现、学术服务、数字人文、阅读推广、图书馆系统、采编、知识加工、管理决策等几个典型领域。这些领域融入大模型的能力,可以满足智慧图中不同类型的需求,包括功能99/g/ai/developing-a-library-strategic-response-to-artificial-intelligence/100上海图书馆(上海科学技术情报研究所)等
智慧图书馆大模型创新与应用白皮书,/download-category/whitepaper,2023.20类和性能类的需求,也可以满足体验类和专业类的不同需求,提升了图书馆服务的效果与能力。表
3.1
大模任务功能对图书馆的作用影响大模型典型任务功能作用与影响影响领域举例自动生成各类文档、报告、新闻稿等,文本生成语义理解辅助图书馆内容创作和信息发布。可用
学术研究、阅读推广等于创作、学习与开发。理解用户查询的深层含义,提供更精准的咨询回复、搜索结果等信息服务。可
信息检索、交互问答用于问答式交互。可探索对话式发现,改变图书馆资源检信息抽取任务推理检索推荐、资源发现等索、资源推荐模式。理解并执行复杂的用户指令,自动化完
图书馆服务平台、后端系统成特定的图书馆服务任务。AI
升级、机器流程自动化等将不同语言的文献资料进行互译,扩大服务范围和读者群体。可用于
语言文献服务、跨语言阅读。读者服务、文献服务、学术研究等机器翻译对图书馆资源进行自
分类、自动标注、元数据创建,优化
源组织和检索效率。采编、数字资源加工与开发、数字人文研究等识别分类总结摘要自动生成文献或报告的摘要,帮助用户资源发现、学术研究等阅读推广、数字人文等快握核心内容。息转换为图像或视频,增强信息可访问性和表达力。可用于多媒体模态转换数据分析档案保存、内容制作、信息可视化、阅读障碍支持。可进行数据处理、格式转换、报表分析、指标分析、数据挖掘。可在图书馆数据系统、数据中台基础上,构建
AI
数据分析能力,提升运营效率。业务分析、用户行为分析、决策支持等知识图谱构
可构建和维护知识图谱,增强图书建
知识管理和服务能力。数字人文、知识管理、学术研究、学科服务等21大模型技术对图书馆的影响,主要源于生成式
AI
变革了技术服务模式和内容生产方式,从而带来了三点重要改进。一是人机交互界面的革新推动了图
馆服务场景和业务场景的智能化。生成式
AI
变革了用户与图书馆服务动方式,实现了用户界面的突破,使得用户能更直观、高效地与信息资源互动,提高了信息检索和内容获取的便捷性。大模型能准确理解用户需求,转化为任务,调度资源,最终清晰呈现结果。二是知识管理与服务的智慧化加深促进了图书馆服务模式的创新与变革。生成式
AI
能够实现精准的语义理解和复杂的文本分析,自动化地生成和丰富元据,构建起揭示知识内在联系的知识图谱,同时提供个性化的信息服务和多模态内容处理,加之其趋势预测与模式识别功能,极大地提升了图
馆在知识组织、存储、检索以及服务提供上的效率和深度,从而深化了图书馆
知识管理与服务。三是任务处理的自动化促进了业务流程优化和工作效率的提升。利用生成式AI
的强大的内容生成和处理能力,图书馆能够自动化执行繁琐的任务,从而释放人力资源,提升工作效率和服务质量。生成式
AI
技术实现了知识的高效模式转换,能够执行总结、提炼、抽取、萃取、转换、解析和洞察等多种操作,利用现有数据知识生成丰富多样的内容,包括多模态内容。因此,大模型技术的发展对图
馆的变革影响主要体现在以下五个方面,这些变革共同推动了图书馆未来服务模式的转型,为图书馆的发展开辟了新的可能性。(1)革新知识交式。新一轮的
AI
变革,推动未来人机交互应用从图形化界面向对话式交互变。随着大模型的应用落地,图书馆服务可以提供更智能、更高效、更个性化的交互方式,提供基于自然语言的、多模态的、更直
的参考咨询、文献检索与知识服务。(2)
变知识集成方式。大模型技术通过自动化生成元数据、跨语言处理、知识链接和语义搜索,显著提升了图书馆知识集成的效率和深度,构建起一个多维度、互联互通的知识网络,从而促进了知识的
现和创新。(3)优化资源加工流程。大模型技术通过文语音识别、自动元数据生成、自动标注与分类、自动摘要总结、知识图谱构建等,提高了图书资源加工效率,降低人力成本。这将使图书馆资源的标准化加工流程从手动模式向半自动或自动22模式转变,进一步提高图书馆资源加工的效率和质量。(4)激发本地特色资源价值。利用生成式
AI
技术,对图书馆的古籍资源、地方特色资源等历史文化特色馆藏资源进行开发、挖掘、利用,充分发挥语料价值,增强资源的表现力和吸引力,有化典籍知识,弘扬中华经典文化、区域特色文化,激发这些资源的文化影响力。(5)提升图书馆管理决策能力。大模型应用可以更好地对图书馆的各项业务数据进行指标监控与分析挖掘,提供科学合理的决策支持,为图书馆业务优化、资源配置提供分析建议,从而提升图书馆的智慧化管理水平和效果,辅助图书馆理决策更加科学、合理和有效。图
3.1
大模型技术对图书馆的影响3.2书馆大模型应用策略在
入思考图书馆大模型应用之前,有必要探讨生成式
AI
的应用策略及应用方式。国际图联(IFLA)在其《图书馆对人工智能
战略响应》中,提出了三项策略建议,旨在指导图书馆如何有效利用
I
技术,提升服务效能,同时确保其应用的伦理性和可解释性。三项策略分用图书馆的
AI
能力构建负责任且可解释的描述性
AI
应用;利用图书馆员的数据能力增强组织的
AI
能力;23推广人工智能素养以提升组织和社会的
AI
能力101。此外,美国国会图书馆(Library
of
Congress,简称
LC)提出了
AI
规划框架,强调了在
AI
系统中数据、模型和人员三个要素的重要性,并提出了“理解、实验和实施”分阶段的方法论,以实现负责任的
AI
实践102。图书馆可在上述权威性
AI
应用策略的指导下进行实践,本报告归纳了如下的策略要点供图书馆进行参考:(1)考虑馆藏与数据价值对图书馆数据与资源进行分析,以识别和评估潜在的数据源,特别是对于籍和特藏,明确可以优先应用
AI
技术的数据。高度重视数据治理,包括数据清洗、集成和质量保证,确保数据的准确性和可靠性。推广数据
享、开放性和互操作性(2)进行概念验证与服务转化实施小规模的概念验证项目,以测试生成式
AI
技术在图书馆服务中的可行性。对于技术挑战(例如图像分类等)开发或整合高效的
AI
算法,提升处理的精确度。成功的概念验证项目应转化为可持续的服务,以实现技术的长期价值。(3)持续监控与质量保证建立监控机制,根据反馈持续改进
AI
服务,确保服务质量。考虑使用数据为中心的评估方法,通过科学地评估和测试,确保
AI
系统的稳定性和可靠性。以迭代、循环的方式,长期优化、监控应用。建立质量标准基线,搜集用户反馈。(4)积极培训与参与提升图书馆用户的
AI
素养,并通过社区反馈优化服务。支持并参与图博档机构合作、行业机构联盟,以开放、共享、创新、合作为核心要
,整合来自不同机构的独特资源和专业知识。(5)
好经济性与工具评估对
AI
技术应用进行成本效益分析,确保所选工具
解决方案在预算内提供最大的价值。评估不同
AI
工具的性能,选择那
能够最大化投资回报率的工具。(6)关注法律与伦理框架确保
AI
应用遵守所有相关的法律法规,特别是在数据保护、版权和知识产101/g/ai/developing-a-li
ry-strategic-response-to-artificial-intelligence/102/thesignal/2023/11/intro
ucing-the-lc-labs-artificial-intelligence-planning-framework/24权方面。建立伦理审查流程,确保
AI
应用不会侵犯个人隐私,避免算法偏见和歧视。3.3
图书馆大模型应用路径图书馆应根据领域(场景)需求,探索大模型应用方式与路径,以促进服务优化和提升读者体验。我们鼓励图书馆与软硬件供应商合作,逐步将生成式AI
技术应用于智慧图书馆中,以实现图书馆服务业务的智能化升级。本报告归纳了图书馆整合和应用生成式
AI
技术的六种方式路径。(1)无需开发集成的
AI
服务:图书馆无需进行任何开发工作,重点放在AI
素养、
数据素养等相关内容培训。这种方式不需要图书馆参与技术应用开发,而是侧重于通过馆员组织培训、活动等方式向用户和社会提供
I
服务。该路径无需系
开发、无需数据处理。(2)直接集成应用的
AI
产品工具:图书馆几乎不需要进行开发工作,可以直接集成第三方提供的
AI
产品服务。这种方式主要依赖于第三方
AI
产品的性能和适用性,为图书馆直接所用。例如不少图书馆上线资源商开发的
AI
学术助手产品,以及为图书馆用户提供现成的
AI
画图工具等。该路径可以直接购买服务,开发量低、几乎无需数据处理。(3)需整合开发的
AI
产品与服务:图书馆通过有限的开发工作,实现已有AI
产品的对接。该应用方式下,图书馆需要对运营数
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2024版车位使用权的质押合同2篇
- 2024版智能穿戴设备销售合同:智能手表与健康监测系统的销售协议3篇
- 房屋退租协议书范本
- 2024年教育改革:以教师心理健康为核心的培训课件建设
- 笔记与复习技巧指导计划
- 手机械设备买卖合同范本
- 建立个人品牌的步骤计划
- 2024年质量管理体系文件培训:深入剖析风险管理策略
- 幼儿园亲子阅读推广方案计划
- 美术课程的社会责任感培养计划
- (中级)数据安全管理员(四级)职业技能鉴定考试题库-中(多选、判断题)
- GB/T 44800-2024太阳能光热发电站储热/传热用工作介质技术要求熔融盐
- 直肠癌新辅助治疗
- 2024-2030年中国心血管诊断检测行业应用前景与需求规模预测报告
- 2024年全国教育大会精神全文课件
- 成都银行招聘真题
- 2024秋期国家开放大学《西方行政学说》一平台在线形考(任务一至四)试题及答案
- 国开2023年秋《分析化学(本)》形考任务1-3参考答案
- 文件袋、档案袋密封条模板
- 天蓝色商务发展历程时间轴PPT模板课件
- 公司生产异常管理办法(完整版)
评论
0/150
提交评论