《大语言模型基础》教学大纲_第1页
《大语言模型基础》教学大纲_第2页
《大语言模型基础》教学大纲_第3页
《大语言模型基础》教学大纲_第4页
《大语言模型基础》教学大纲_第5页
已阅读5页,还剩6页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

《大语言模型基础》教学大纲课程名称:大语言模型基础 Foundationoflargelanguagemodels课程编号:CS-301学分:2学分课程简介:本课程旨在介绍大语言模型的基本概念、核心技术、应用场景以及开发流程。通过本课程的学习,学生将能够理解大语言模型的工作原理,掌握大语言模型的基本概念、核心技术、应用场景以及开发流程,掌握模型的训练、微调和应用方法,并能够独立设计和实现基于大语言模型的应用系统,为未来的学术研究和实际应用打下坚实的基础。课程目标:1.知识目标:掌握大语言模型的基本概念、发展历程和技术原理。2.技能目标:能够使用开源大模型进行微调和应用开发。3.应用目标:能够在实际项目中设计和实现基于大语言模型的解决方案。4.伦理目标:了解大语言模型伦理和法律问题,具备负责任的技术应用能力。课程内容:第1章:大模型基础•1.1人工智能基础•1.1.1人工智能的实现途径•1.1.2机器学习和深度学习•1.1.3监督与无监督学习•1.2大模型定义•1.2.1模型预训练和微调•1.2.2大模型的特征•1.2.3大模型的优势•1.3大模型技术的形成•1.3.1Blockhead思维实验•1.3.2大模型的历史基础•1.3.3基于Transformer模型•1.3.4大模型的世界模型问题•1.3.5文化知识传递和语言支持•1.4通用人工智能•1.4.1什么是通用人工智能•1.4.2大模型与通用人工智能•1.4.3人工智能生成内容第2章:大模型与生成式AI•2.1什么是语言模型•2.1.1语言模型的定义•2.1.2注意力机制•2.1.3开源还是闭源•2.2大模型发展三阶段•2.2.1基础模型阶段•2.2.2能力探索阶段•2.2.3突破发展阶段•2.3Transformer模型•2.3.1Transformer过程•2.3.2Transformer结构•2.3.3Transformer模块•2.4生成式人工智能•2.4.1生成式AI定义•2.4.2生成式AI层次•2.4.3生成式预训练语言模型GPT第3章:大模型架构•3.1大模型生成原理•3.1.1上下文学习•3.1.2指令微调•3.1.3零样本/少样本•3.1.4深度学习架构•3.1.5训练策略及优化技术•3.1.6所谓世界模型•3.2多模态语言模型•3.2.1多模态指令微调•3.2.2多模态上下文学习•3.2.3多模态思维链•3.2.4大模型辅助视觉推理•3.3大模型的结构•3.3.1LLaMA的模型结构•3.3.2LLaMA的注意力机制•3.4应用技术架构•3.4.1指令工程•3.4.2函数调用•3.4.3检索增强生成•3.4.4微调•3.5OpenAI的Sora大模型•3.5.1Sora技术报告分析•3.5.2Sora主要技术特点•3.5.3Sora的模型训练过程第4章:人工数据标注•4.1知识表示方法•4.1.1知识的概念•4.1.2知识表示的定义•4.1.3知识表示的过程•4.2什么是数据标注•4.3数据标注分类•4.3.1图像标注•4.3.2语音标注•4.3.33D点云标注•4.3.4文本标注•4.4制定标注规则•4.5执行数据标注•4.6标注团队管理第5章:大模型预训练数据•5.1数据来源•5.1.1通用数据•5.1.2专业数据•5.2数据处理•5.2.1质量过滤•5.2.2冗余去除•5.2.3隐私消除•5.2.4词元切分•5.3数据影响分析•5.3.1数据规模•5.3.2数据质量•5.4典型的开源数据集•5.4.1Pile•5.4.2ROOTS•5.5训练集、测试集、验证集的异同•5.5.1训练、测试与验证数据集的不同之处•5.5.2训练、测试与验证数据集的相似之处•5.6数据集面临的挑战•5.6.1规模和质量待提升•5.6.2大模型与数据集相辅相成•5.6.3标准规范需健全•5.6.4存储性能待提高第6章:大模型开发组织•6.1大模型开发流程•6.2大模型的数据组织•6.2.1数据采集•6.2.2数据清洗和预处理•6.2.3数据标注•6.2.4数据集划分•6.2.5模型设计•6.2.6模型初始化•6.2.7模型训练•6.2.8模型验证•6.2.9模型保存•6.2.10模型测试•6.2.11模型部署•6.3分而治之的思想•6.3.1分布式计算•6.3.2消息传递接口MPI•6.3.3MapReduce模型•6.3.4批处理和流处理•6.4分布式训练与策略•6.4.1什么是分布式训练•6.4.2数据并行性•6.4.3模型并行性•6.4.4流水线并行性•6.4.5混合并行•6.4.6分布式训练集群架构第7章:提示工程与微调•7.1什么是提示工程•7.1.1提示工程的原理•7.1.2提示工程应用技术•7.1.3提示的通用技巧•7.2大模型为什么要微调•7.3提示学习和语境学习•7.3.1提示学习•7.3.2语境学习•7.4上下文窗口扩展•7.5指令数据的构建•7.5.1手动构建指令•7.5.2自动构建指令•7.5.3开源指令数据集•7.6微调及其PEFT流行方案•7.6.1微调技术路线•7.6.2提示微调•7.6.3前缀微调•7.6.4LoRA•7.6.5QLoRA第8章:强化学习方法•8.1强化学习的概念•8.1.1强化学习的定义•8.1.2不同于监督和无监督学习•8.1.3不同于传统机器学习•8.1.4大模型的强化学习•8.1.5先验知识与标注数据•8.2强化学习基础•8.2.1基于模型与免模型环境•8.2.2探索与利用•8.2.3片段还是连续任务•8.2.4网络模型设计•8.3强化学习分类•8.3.1从奖励中学习•8.3.2被动与主动强化学习•8.3.3学徒学习•8.4深度强化学习第9章:大模型智能体•9.1智能体和环境•9.2智能体的良好行为•9.2.1性能度量•9.2.2理性•9.3环境的本质•9.3.1指定任务环境•9.3.2任务环境的属性•9.4智能体的结构•9.4.1智能体程序•9.4.2学习型智能体•9.4.3智能体组件的工作•9.5构建大模型智能体•9.6人工智能内容生成(AIGC)•9.6.1内容孪生•9.6.2内容编辑第10章:大模型应用框架•10.1大模型哲学问题•10.1.1组成性•10.1.2天赋论与语言习得•10.1.3语言理解与基础•10.1.4世界模型•10.1.5知识传递和语言支持•10.2大模型应用流程•10.2.1确定需求大小•10.2.2数据收集•10.2.3数据集预处理•10.2.4大模型预训练•10.2.5任务微调•10.2.6部署•10.3大模型应用场景•10.3.1机器翻译、文本理解与分析•10.3.2自然语言生成•10.3.3搜索与知识提取•10.3.4代码开发•10.3.5检测和预防网络攻击•10.3.6虚拟助理和客户支持•10.3.7SEO关键词优化•10.4案例:Magic突破Q算法第11章:技术伦理与限制•11.1人工智能面临的伦理挑战•11.1.1人工智能与人类的关系•11.1.2人与智能机器的沟通•11.2数据隐私保护对策•11.2.1数据主权和数据权问题•11.2.2数据利用失衡问题•11.2.3构建隐私保护伦理准则•11.2.4健全道德伦理约束机制•11.3人工智能伦理原则•11.3.1职业伦理准则的目标•11.3.2创新发展道德伦理宣言•11.3.3欧盟可信赖的伦理准则•11.4大模型的知识产权保护•11.4.1大模型的诉讼案例•11.4.2大模型生成内容的知识产权保护•11.4.3尊重隐私,保障安全,促进开放•11.4.4边缘群体的数字平等第12章:大模型产品评估•12.1模型评估概述•12.2大模型评估体系•12.2.1知识与能力•12.2.2伦理与安全•12.2.3垂直领域评估•12.3大模型评估实践•12.3.1基础模型评估•12.3.2学习模型评估•12.4大模型产品对比•12.5大模型的大趋势教学方法:•课堂讲授:通过多媒体课件和案例讲解,系统介绍大语言模型的基础知识和技术原理。•实验实训:通过实验室实践,让学生动手操作,掌握大语言模型的训练、微调和应用方法。•小组讨论:组织学生进行小组讨论,探讨大语言模型的实际应用和伦理问题。•项目作业:布置实际项目作业,要求学生

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论