自然语言处理系统测评规范(征求意见稿)_第1页
自然语言处理系统测评规范(征求意见稿)_第2页
自然语言处理系统测评规范(征求意见稿)_第3页
自然语言处理系统测评规范(征求意见稿)_第4页
自然语言处理系统测评规范(征求意见稿)_第5页
已阅读5页,还剩40页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1T/SAITAXXXX—XXXX自然语言处理系统测评规范本文件规定了自然语言处理系统的基本框架、测评指标体系、测评流程、测试方法,提供了自然语言处理系统的评价规范。本文件适用于自然语言处理系统的设计、研发、测试、应用与维护。2规范性引用文件下列文件中的内容通过文中的规范性引用而构成本文件必不可少的条款。其中,注日期的引用文件,仅该日期对应的版本适用于本文件;不注日期的引用文件,其最新版本(包括所有的修改单)适用于本文件。GB/T25000.10-2016系统与软件工程系统与软件质量要求和评价(SQuaRE)第10部分:系统与软件质量模型GB/T41867-2022信息技术人工智能术语ISO22300:2021安全与恢复力术语(Securityandresilience–Vocabulary)T/CESA1026-2018人工智能深度学习算法评估规范3术语和定义GB/T41867、ISO17100、ISO22300界定的以及下列术语和定义适用于本文件。3.1自然语言处理系统Naturallanguageprocessingsystem基于自然语言理解和自然语言生成的信息处理系统。3.2自然语言理解Naturallanguageunderstanding从已传入其中的自然语言文本中提取信息,并输出对[来源:GB/T41867-2022,3.3.15,有修改]3.3自然语言生成Naturallanguagegeneration输出端为自然语言的任务。[来源:GB/T41867-2022,3.3.17,有修改]3.4人工智能计算基础设施Artificialintelligenceportfolio一种组成人工智能应用解决方案,帮助用户实现不同规模的业务逻辑的软硬件包。[来源:GB/T41867-2022,3.1.7,有修改]3.5机器翻译Machinetranslation使用计算机系统将文本从一种自然语言自动翻译为另一种自然语言。[来源:ISO17100:2015,2.2.2,有修改]2T/SAITAXXXX—XXXX3.6错误接受率Falseacceptancerate接受不该接受的样本的比率。[来源:ISO22300:2021,3.91]3.7错误拒绝率Falserejectionrate拒绝不该拒绝的样本的比率。[来源:ISO22300:2021,3.92]3.8不变性测试Invariancetest对原始输入文本数据作不改变原意的扰动,观察系统在扰动前后的输出改变是否在可接受范围内。3.9方向期望测试Directionalexpectationtest对原始输入文本数据作向指定方向变化的扰动,观察系统输出是否按期望的方向变化。3.10可解释性Explainability系统以人能理解的方式,表达影响其(执行)结果的重要因素的能力。[来源:GB/T41867-2022,3.4.3]3.11自解释Self-explaining系统同时输出决策与对该决策的解释。4符号和缩略语下列缩略语适用于本文件。ARM:高级精简指令集机器(AdvancedRISCMachine)ASIC:专用集成电路(ApplicationSpecificIntegratedCircuit)AUC:曲线下面积(AreaUnderCurve)BLEU:双语评估(BiLingualEvaluationUnderstudy)CPU:中央处理器(CentralProcessingUnit)EM:精确匹配度(ExactMatch)FN:假阴(FalseNegative)FP:假阳(FalsePositive)GPU:图形处理器(GraphicProcessingUnit)JSA:联合状态准确率(JointStateAccuracy)LCS:最长公共子序列(LongestCommonSubsequence)MAP:平均准确率(MeanAveragePrecision)MIPS:无内部互锁流水级的微处理器(MicroprocessorwithoutInterlockedPipedStagesarchitecture)MRR:平均倒数排名(MeanReciprocalRank)n-gram:N元语法(特殊情况:N为1、2、3时,分别为unigram、bigram、trigram)ROC:受试者操作特性曲线(ReceiverOperatingCharacteristic)ROUGE:基于召回率的摘要评估(Recall-OrientedUnderstudyforGistingEvaluation)TFR:任务完成率(Taskfinishrate)TP:真阳(TruePositive)TN:真阴(TrueNegative)WER:词错率(WordErrorRate)3T/SAITAXXXX—XXXX5自然语言处理系统的基本框架本文件所述的自然语言处理系统,包括人工智能计算基础设施、预处理模块、算法模型及输入与输出。自然语言处理系统的基本框架如图1所示,其中输入包括文本输入,预处理模块将文本转换为模型可接受的形式,算法模型由训练数据训练后所得,算法模型加载在人工智能计算基础设施上进行推理和输出,输出包括判别输出或生成输出。图1自然语言处理系统基本框架6自然语言处理系统测评指标6.1概述本文件给出了一套自然语言处理系统的测评指标体系,如表1所示,包含10个一级指标和34个二级指标。在实施测评过程中,应根据系统的质量目标选取相应指标。表1自然语言处理系统测试指标体系4T/SAITAXXXX—XXXX表1自然语言处理系统测试指标体系(续)6.2功能有效性6.2.1概述用户可以根据实际的应用场景选择相关的基本指标,用于评估自然语言处理系统实现的功能是否满足要求。根据自然语言处理系统的任务不同,可以分为自然语言理解与自然语言生成,自然语言理解是对输入的文本进行分类与判断,包括话题分类、情感分析、关系抽取等,自然语言生成是让机器生成文本,本标准评测的自然语言生成任务包括机器翻译、自动摘要、机器问答等文本到文本的任务,不包括文本到图像、图像到文本等跨模态生成任务。表2自然语言处理系统测试参照表123Chinese-Literature-NER-RE-4565T/SAITAXXXX—XXXX表2自然语言处理系统测试参照表(续)1TheMultitargetTEDTalks236.2.2自然语言理解任务话题分类话题分类是对于给定的文本,依据预先设定的分类体系检测出文本所属类别。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.1。情感分析情感分析旨在分析出文本整体的情感倾向或文本中不同个体的情感倾向。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.1。关系抽取关系抽取是为了识别出文本实体中的目标关系,是构建知识图谱的重要技术环节。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.1。事件抽取事件抽取是为了识别文本中的事件及相关的论元。事件一般由触发词触发,由若干论元描述该事件。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.1。命名实体识别命名实体识别是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等,以及时间、数量、货币、比例数值等文字。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.1。阅读理解阅读理解是指让计算机自动理解和回答关于文本的问题,回答一般是标出给定文本指定位置的词作为答案或是从若干选项中选则正确答案。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.2。6.2.3自然语言生成任务机器翻译机器翻译是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的过程。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.2。6T/SAITAXXXX—XXXX自动摘要自动摘要是指给出一段文本,从中提取出要点,然后再形成一段概括性的文本。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.2。机器问答问答型对话需要准确地回答用户的问题,满足用户需求。主要为一问一答的形式,机器人对用户提出的问题进行解析,在知识库已有的内容或用户给出的信息中查找并返回正确答案。使用的测试数据集及测评指标见表2,相关功能有效性评估指标计算方法见附录A.2。6.3性能用户可以根据实际的应用场景选择相关的基本指标,用于评估自然语言处理系统的性能是否满足要求,应包括但不限于下列内容:a)推理效率:1)对于本地计算环境下,对于给定的数据集,自然语言处理系统对给定的n个数据样本进行推断并获得结果的时间开销等指标;2)对于云计算环境下,应记录包括自然语言处理系统本身的推断时间以及执行推理所消耗的资源调度、网络延迟等额外时间开销、P95、P99、P100(n个请求响应时间按从小到大排序,第95百分位、第99百分位或最长的响应时间)等指标;b)模型运行占用的人工智能计算基础设施系统资源:包括模型运行时占用的系统CPU、GPU、内存、显存;c)模型压缩性能:针对不同的压缩比例(如90%,80%,70%,60%),比较模型在不同压缩比条件下与压缩前的预测性能差;d)业务吞吐量:单位时间内系统处理的文本数据量;e)词汇表大小:自然语言处理系统词汇表中不同语种的词汇、字符的数量和占比;f)语义表达能力:自然语言处理系统的输出形式、基于字/词的完整性、多语言支持程度。6.4兼容性用于评估自然语言处理系统对不同文本格式的兼容性,应包括下列内容:a)模型对不同结构化程度文本的兼容性:评估自然语言处理系统能否根据用户需求处理不同格式的结构化、半结构化或非结构化自然语言文本;b)自然语言处理系统对操作系统的兼容性:评估自然语言处理系统能否根据用户需求兼容不同的操作系统,或兼容同一类型操作系统的不同版本;c)自然语言处理系统对其他软件的兼容性:评估自然语言处理系统能够根据客户需求兼容同一计算机系统下其他软件;d)自然语言处理系统对不同字符编码的兼容性:评估自然语言处理系统能否处理不同字符编码的输入。6.5可维护性用于评估自然语言处理系统能够被运维人员修改的有效性和效率以及自身的可恢复性,应包括下列a)模型的迭代更新频率:评估模型迭代更新的时间周期及模型训练时间;b)模型迭代的质量变化:评估模型迭代后其功能有效性、性能、鲁棒性等的变化趋势;c)模型的可恢复性:评估模型在自然语言处理系统发生故障时,恢复功能所需要的时间;d)自然语言处理系统宜支持系统配置、监控告警、日志等基本维护功能。7T/SAITAXXXX—XXXX6.6可迁移性用于评估自然语言处理系统能够从一种运行环境迁移到另一种运行环境的有效性和效率,应包括下列内容:a)系统对人工智能计算基础设施硬件设备的可迁移性:评估自然语言处理系统是否拥有跨硬件架构的迁移能力,包括以下内容:1)模型是否支持在基于至少2种或多种架构处理器的设备上运行,且运行效果保持一致,如X86、X86-64、ARM、MIPS等;2)模型是否支持在设备上进行在线或离线方式进行移植;b)系统中模型、算法对人工智能框架的可迁移性:评估自然语言处理系统是否拥有跨人工智能框架之间的迁移能力,即是否支持在至少2种或多种人工智能框架之间相互转换,且运行效果保持一致,如Tensorflow,PyTorch,PaddlePaddle等。6.7数据集的质量评估训练数据集、验证数据集的质量,应包括下列内容:a)数据集规模:通常用样本数量来衡量;b)数据集语言完整性:数据集应不包含拼写错误、乱码,语句应通顺;c)数据集标注质量:指数据集标注信息是否准确、完备并符合要求;d)数据集均衡性:指数据集包含的各种类别的样本数量分布的偏差程度;e)数据集多样性:指数据集包括不同句子长短、时态表示、主谓关系等情形的多样性。6.8对抗性样本的影响评估对抗性样本对自然语言处理系统的影响,应包括下列内容:a)对抗性样本生成测试:用不同尺度生成对抗样本,评估系统的脆弱性。生成方法包括:1)句子尺度方式生成的样本:利用对句子进行修改的方式生成对抗性样本;2)词语尺度生成的样本:利用对词语进行修改的方式生成对抗性样本;3)字符尺度生成的样本:利用对字符进行修改的方式生成对抗性样本;4)不同尺度生成的对抗性样本:利用以上多种尺度结合的方式生成对抗性样本;b)对抗性样本的物理可行性:评估生成的对抗性样本在现实中的可实现性,能否通过相关算法生成对人类来说语句通顺、难以辨别的对抗性样本;c)系统对对抗性样本的防御性,包括:1)评估系统是否进行过对抗训练;2)系统防御对抗性样本的成功率:统计一定数量对抗性样本对系统攻击的失败率。6.9鲁棒性评估实际运行数据对系统的影响,应包括下列内容:a)干扰数据对系统的影响:评估异常的输入数据对系统准确率的影响,应包括但不限于:不流畅的文字或语句、有间断的文字或语句、含义正确但表达方式不常见的文字或语句、标点符号不符合规范的文字或语句。评估异常输入数据集的预测准确率、精确率、召回率、真负率、F1测度等指标;b)数据集分布对系统的影响:统计真实环境下输入数据集的正负例分布或各类别样本分布,评估不同数据集分布情况下系统预测的准确率、精确率、召回率、真负率、F1测度等指标;c)业务不相关数据对系统的影响:当输入数据并非系统业务相关数据(比如当前系统处理语言以外的其他语种评估系统能否对其作合适的处理(比如返回无法翻译或语种异常的提示d)语言理解能力:对原始输入数据作一定程度的扰动,扰动后仍为流畅且语义明确的自然语言,评估系统能否识别出扰动前后的数据中的语义差别。8T/SAITAXXXX—XXXX6.10可解释性评估人类能够理解自然语言处理系统的输出决策原因的程度。根据人类能够理解系统决策原因的程度,将自然语言处理系统的可解释性分为强、中、弱三个级别:a)可解释性(强):可通过数学证明来充分说明模型做出决策的原因,并给出推理和决策的路径;b)可解释性(中):可在模型中融入知识,利用结构信息、描述文本、自解释等方法辅助推理并给出过程;c)可解释性(弱):采用可解释技术,可通过自然语言处理系统的输入输出、系统中的部分参数值(如自注意力参数)、提取的特征值或这些数值的可视化来说明系统做出决策的原因。6.11安全性自然语言处理系统的安全性应符合以下要求:a)GB/T25000.10-2016中规定的软件系统的信息安全性要求;b)机密性:1)模型机密性:通过对被测系统的持续访问推测出自然语言处理模型的参数,与原模型的相似度;2)数据机密性:能否通过成员推理等方式,获取训练数据中包含的敏感信息;1)训练数据中脱敏数据占比;2)系统预测结果中含个人信息数量和种类;3)系统的单位时间最大查询次数上限;4)系统模型训练时有无应用隐私技术,如差分隐私等。d)输入防御:系统具备对恶意输入样本的检测机制和防御性预处理;e)伦理符合性:1)系统对输入中包含的不同国家、地区、性别、种族是否公平对待;2)系统是否会在没有诱导的情况下主动输出可能违反法律法规的内容;3)系统是否会产生幻觉输出,即误导性的事实描述内容。7自然语言处理系统测评流程自然语言处理系统的测评流程如图2所示。9T/SAITAXXXX—XXXX图2自然语言处理系统测评流程7.1确定系统质量目标应运用以下步骤确定自然语言处理系统的质量目标:7.1.1场景分析应分析自然语言处理系统的应用场景、任务目标、运行环境与运行模式,既要考虑软件系统正确使用的情况,也要考虑可预见的不正确使用的情况。新增任务目标用户需求(业务需求)及其对应的数据来源。7.1.2风险分析与评估应根据自然语言处理系统的不同应用场景,开展有关自然语言处理系统失效的风险识别。识别风险的后果,如对环境或人员是否有伤害、需要完成的任务是否有影响等。针对每一个风险,应基于损害的严重程度来预估风险的严重性等级。风险严重性等级的评估可以基于对多个场景的综合性考虑,同时风险严重性等级的确定应基于场景中有代表性的个体样本。7.1.3确定各指标要求根据风险严重性等级和系统的应用场景,以任务目标导向确定自然语言处理系统的质量目标,包括系统功能、性能、兼容性、可维护性、可迁移性、可解释性等的要求。7.2构建测试数据集按照实际业务的情况,参考表2列出所需测评系统运行的典型场景与常用数据集,以此为基础,收集代表实际业务应用场景的数据,设定样本类型与级别,构建覆盖多种自然语言文本的测试数据集用以开展测试。7.3构建测试环境根据自然语言处理系统测评运行的实际场景和需要的人工智能计算基础设施,构建出软硬件环境用于测试。如无法构建出相同的测试环境,需要进一步分析由于测试环境与使用环境不一致所带来对测试结果的影响。7.4选择测试指标根据制定的系统质量目标,从表2中选择相关测评指标,记录被测系统对所选数据集和所选指标的计算结果,根据所选任务难度或参考相关基准制定通过准则,测试结果用于对系统的评价提供依据。7.5开展测试活动在构建的测试环境下,利用已经构建的测试数据集进行测试。即将测试数据集依次输入被测系统,并按照被测系统的正确方法使用数据。7.6统计、汇总并分析测试结果根据选择的测试指标,收集相应的测试结果数据,对于需要计算的指标根据公式计算。根据制定的系统质量目标,参考第8章评价指南,对测试结果进行汇总、分析,综合评估系统是否符合质量目标。8自然语言处理系统测试方法8.1准备测试数据集在对测评指标开展测试活动之前,需要先获取测试数据集,对测试数据集的要求包括但不限于:a)数据集中包含经过处理的从互联网爬取或是人工构建的自然语言文本;b)数据集中包含所需格式的自然语言文本;T/SAITAXXXX—XXXXc)数据集中包含指定类别的样本,且标注正确;d)对数据集中样本作一定扰动,以提升测试数据集质量;e)数据集中样本分布均衡,且与真实业务场景下的数据分布一致;f)数据集中包含已知干扰样本、对抗性样本或业务不相关样本等异常样本。部分公开数据集见附录B,若采用自建或其它测试数据集,则需将公开数据集上主流的基准模型在测试数据集上进行测试,以供对比。8.2功能有效性8.2.1自然语言理解任务自然语言理解任务测试方法如下:a)根据第7章及表2确定自然语言理解应用场景及对应的测评数据集、测评指标;b)将测评数据集输入被测系统;c)记录系统输出及计算测评指标所需要的各项中间指标;d)计算并得到最终测评指标,检查指标值是否符合要求。8.2.2自然语言生成任务若可根据第7章及表2确定可计算的自然语言生成任务测评指标,则按照以下方法测评:a)根据第7章及表2的流程确定自然语言生成应用场景及对应的测评数据集、测评指标;b)将测评数据集输入被测系统;c)记录系统输出及计算测评指标所需要的各项中间指标;d)计算并得到最终测评指标,检查指标值是否符合要求;若无法根据第7章及表2确定可计算的自然语言生成任务测评指标,则按照以下方法测评:e)根据第7章及表2的流程确定自然语言生成应用场景及对应的测评数据集;f)将测评数据集输入被测系统;g)记录系统输出;h)由人类专家评估系统输出是否通过测试,并统计测评数据集的通过率是否满足要求。8.3性能自然语言处理系统的性能测试方法见表3。表3自然语言处理系统性能测试方法指标测试方法推理效率a)收集n条(n≥1000)自然语言处理系统能够处理的数据或直接采用功能有效性测试数据;b)将数据输入被测系统,记录系统对每一条数据进行推理所需的时间;c)计算系统处理全部数据消耗时间T、业务吞吐量n/T,检查是否符合测试要求;d)若在云计算环境下,记录执行推理所需的资源调度、网络延迟等额外时间开销tc,检查是否符合测试要求;e)将云计算环境下全部推理时间从小到大排列,检查第95百分位的推理时间P95、第99百分位的推理时间P99、耗时最长的推理时间P100是否符合测试要求。资源占用记录系统推理过程中的CPU、GPU使用状况,内存、显存占用率,检查是否符合测试要求。模型压缩性能a)收集n条(n≥1000)自然语言处理系统能够处理的数据或直接采用功能有效性测试数据;b)为系统配置不同压缩比例的m个模型;c)将数据输入被测系统,记录系统的预测功能有效性指标;d)对比系统中模型在不同压缩比例下的性能损失情况,检查是否符合测试要求。T/SAITAXXXX—XXXX表3自然语言处理系统性能测试方法(续)词汇表大小查看模型词汇表,统计其中不同语种的词汇、字符的数量和占比,检查是否符合测试要求。语义表达能力a)查看自然语言处理系统输出形式(判别式或生成式);b)查看自然语言处理系统的词汇表,检查其中字、词的数量和占比,检查其支持多少种语言。8.4兼容性自然语言处理系统的兼容性测试方法见表4,评价规范见附录C。表4自然语言处理系统兼容性测试方法指标测试方法不同结构化程度文本兼容性a)准备结构化、半结构化或非结构化自然语言数据;b)将数据输入自然语言处理系统中,检查系统是否能正确处理数据。操作系统兼容性a)准备包含不同操作系统或同类操作系统不同版本的人工智能计算基础设施;b)在不同人工智能计算基础设施上运行自然语言处理系统,检查是否均能正确运软件兼容性在系统中安装若干其他常用软件,与自然语言处理系统共同运行,检查哪些软件运行时会出现运行异常的情况;字符编码兼容性a)准备n种不同字符编码的数据(n≥2);b)将数据输入自然语言处理系统中,检查系统能是否能正确处理。8.5可维护性自然语言处理系统的可维护性测试方法见表5。表5自然语言处理系统可维护性测试方法指标测试方法模型的迭代更新频率查看自然语言处理系统日志,检查并记录相关指标项。模型迭代的质量变化模型故障后平均恢复时间基本维护功能运行系统,检查系统是否支持系统配置、监控告警、日志等基本维护功能。8.6可迁移性自然语言处理系统的可迁移性测试方法见表6。表6自然语言处理系统可迁移性测试方法指标测试方法硬件可迁移性在X86、X86-64、ARM、MIPS等不同架构处理器的设备上部署自然语言处理系统,验证功能有效性,检查是否能正常运行且效果一致。框架可迁移性检查系统模型是否支持在Tensorflow、PyTorch、PaddlePaddle等不同人工智能框架之间转换或支持转换成ONNX格式,验证功能有效性,检查效果是否保持一致。T/SAITAXXXX—XXXX8.7数据集的质量自然语言处理系统的数据集质量测试方法见表7。表7自然语言处理系统数据集质量测试方法指标测试方法数据集规模检查训练数据集、验证数据集中数据条数(nd)、字符数(nt)等基本信息是否符合测试要求。语言完整性检查训练数据集、验证数据集中包含拼写错误、乱码、不通顺语句的数据条数(nfd),计算其占比: 并检查占比是否符合测试要求。标注质量检查训练数据集、验证数据集各类别标注情况,检查标注错误的数据数量是否符合测试要求。均衡性检查训练数据集、验证数据集各类别样本数量分布是否均衡,如有偏差,是否符合实际应用的情况,或偏差是否在可接受范围内。多样性检查训练数据集、验证数据集是否包含不同句子长短、时态表示、主谓关系等多样化语言表述的语句。8.8对抗性样本的影响自然语言处理系统的对抗性样本影响测试方法见表8。表8自然语言处理系统对抗性样本影响测试方法指标测试方法对抗性样本生成测试从句子、词语、字符、混合尺度生成n条对抗性样本(n≥100)。对抗性样本的物理可行性评估生成的对抗样本中能被人类辨别的数量比例是否符合测试要求。系统对对抗性样本的防御性a)查看日志,评估自然语言处理系统是否进行过对抗训练;b)将生成的对抗性样本输入系统中,统计系统正确处理对抗性样本的数量c并计算系统防御对抗性样本的成功率:c)检查防御成功率是否符合测试要求。8.9鲁棒性自然语言处理系统的鲁棒性测试方法见表9。表9自然语言处理系统鲁棒性测试方法指标测试方法干扰数据对系统的影响a)根据应用场景模拟日常使用情况,生成n条干扰数据(n≥100);b)将干扰数据输入自然语言处理系统中,统计系统输出结果,检查系统对干扰数据的功能有效性指标是否符合测试要求。数据集分布对系统的影响a)统计真实应用场景下自然语言处理系统输入的数据分布,收集或建立不同分布情况的数据集;b)将各数据集输入自然语言处理系统,统计系统对不同分布数据集的功能有效性变化情况。T/SAITAXXXX—XXXX表9自然语言处理系统鲁棒性测试方法(续)业务不相关数据对系统的影响a)收集或生成n条系统不支持的语言数据、系统业务不相关的数据(n≥100);b)将数据输入自然语言处理系统,检查系统正确处理不相关数据的比例是否符合测试要求。语言理解能力a)对原始输入数据t1进行一定程度的扰动,生成扰动数据t2,从步骤b至步骤k中选择若干项以考察系统的语言理解能力,也可结合t1与t2进行步骤l、m;b)词法:能够理解对进行正确推断有帮助的关键词的含义,例如情感分析测试集中表达正面或负面情感的词;c)分类:能够理解同义词、反义词,能够区分不同词汇的属性、类别;d)命名实体:替换语料中的人名或地名不影响系统原本的输出;e)时态:能够理解事件发生的顺序与重要性,即在大部分任务中当前发生的事件比过去的事件更重要;f)否定:能够理解否定、双重否定或其他更复杂形式的否定;g)指代消歧:能够理解语料中的代词所指代的对象;h)句法:理解语料中的各个成分与谓词的关系;i)逻辑性:能够理解语言的传递性或对称性;j)拼写:能够理解词汇的拼写,在输入个别错别字或是不影响原意的拼写错误的情况下能够正确理解语义;k)词义消歧:能够根据上下文确定歧义对象具体语义的过程;l)若生成的t2与t1相比未改变原意,则可进行不变性测试,即测试模型对t2与t1的输出是否保持不变,或在规定的阈值内变化;m)若生成的t2与t1相比改变原意,则可进行方向期望测试,即测试模型对t2的输出与对t1的输出相比是否朝规定方向变化,且变化幅度超过规定阈值;n)统计以上测试任务能够正确处理数据的比例是否符合测试要求。8.10可解释性查看系统的开发日志、操作手册或模型结构,根据其采用的可解释技术与6.10节的描述来确定系统可解释性等级。8.11安全性除GB/T25000.10-2016中规定的软件系统的信息安全性要求外,自然语言处理系统还应按照表10的方法测试。表10自然语言处理系统安全性测试方法指标测试方法机密性a)查看是否可通过系统提供的操作界面或API直接获取或推测模型参数;b)若可推测模型参数,查看推测结果与原模型的相似程度,检查相似程度是否低于测试要求。隐私性a)检查训练数据中包含敏感数据的占比是否低于测试要求b)通过设计特定的输入,使自然语言处理系统输出个人信息等隐私数据,如果能够输出,检查其包含的隐私数据数量和种类的比例是否符合测试要求;c)查看系统操作手册或其他文档说明,检查系统的单位时间最大查询次数是否和文档说明一致;d)查看系统开发日志或其他文档说明,检查系统训练时是否应用隐私保护技术。T/SAITAXXXX—XXXX表10自然语言处理系统安全性测试方法(续)输入防御a)查看系统文档说明或操作界面,检查系统是否具备对恶意输入样本的检测机制,包括检测输入样本和正常数据间的差异、输入样本的分布特征、输入样本的历史等。b)查看系统文档说明或操作界面,检查系统是否具备对恶意输入样本的防御性预处理,包括对输入样本进行结构转化、加噪、去噪等。伦理符合性a)从CivilComments或其他数据集中收集毒性数据(即包含威胁、侮辱、歧视等不健康信息的数据),测试系统对毒性测试数据集的识别比例是否符合要求;b)从相关数据集中收集或自建包含不同国家、地区、性别、种族的偏见测试数据集,将数据集输入系统中,测试系统是否公平对待,如果出现偏见或歧视,其占比是否低于测试要求;c)检查功能有效性测试或其他测试中,系统是否会主动输出可能违反法律法规的d)检查系统是否会输出误导性的错误事实,检查其误导性输出的占比是否低于测试要求。T/SAITAXXXX—XXXX(规范性)自然语言处理系统功能有效性评估指标计算方法A.1自然语言理解功能有效性评估指标计算方法自然语言理解功能有效性的评估应包括但不限于下列内容:1)混淆矩阵:在二分类任务中,混淆矩阵是通过样本的采集和模型分类器的输出结果形成的2×2的矩阵,其中,左上角为真阳样本数(真实值为真,模型预测值为真,TP),左下角为假阳样本数(真实值为假,模型预测值为真,FP,统计学上的第二类错误),右上角为假阴样本数(真实值为真,模型预测值为假,FN,统计学上的第一类错误右下角为真阴样本数(真实值为假,模型预测值为假,TN如表A.1。表A.1二分类混淆矩阵在多分类任务中,混淆矩阵的每一列代表了预测类别,每一列的总数表示预测为该类别的数据的数目;每一行代表了数据的真实归属类别,每一行的数据总数表示该类别的数据实例的数目。第i行第j列的数值表示第i类数据被预测为第j类的数目。2)准确率:对于给定的数据集,正确分类的样本数占全部样本数的比率。3)精确率:对于给定的数据集,被预测为正样本的集合中正样本的比率。4)召回率:对于给定的数据集,被正确预测的正样本占全部正样本的比率5)真阴率:对于给定的数据集,预测正确的负例样本占所有实际为负例样本的比率。6)错误接受率:对于给定的数据集,预测错误的负例样本占所有实际为负例样本的比率。7)错误拒绝率:对于给定的数据集,预测错误的正例样本占所有实际为正例样本的比率。8)F1测度:精确率和召回率的调和平均值。9)多分类任务下的指标计算:在n分类任务中,根据表2的多分类混淆矩阵得到了所有种类的预测值分布情况,并基于这些数据计算多分类任务的准确率、精确率、召回率、F1测度等指标,在此基础上,进一步采用宏平均和微平均来评价整个多分类任务的功能有效性。宏平均:对每一个类别分别计算统计指标值,即把每个类别视作二分类情况进行统计, n1然后再对所有类的结果取算术平均值。如:宏准确率 n11TPi++FNi微平均:把所有类别的真阳、真阴、假阳、假阴类相加,计算类别预测的统计指标。如:T/SAITAXXXX—XXXX10)ROC曲线:ROC的横轴是假正率,代表所有负样本中错误预测为正样本的概率。ROC的纵轴是召回率,代表所有正样本中预测正确的概率。每次选取一个不同的正负判定阈值,就可以得到一组假正率和召回率,即ROC曲线上的一点。将正负判定阈值从0到1取不同的值时,可以得到一系列(假阳率,召回率)点。将这些点连接起来,就得到了ROC曲线。ROC曲线的对角线坐标对应于随机猜测,而坐标点(0,1)也即是左上角坐标对应理想模型。曲线越接近左上角代表模型的效果越好。ROC曲线如图A.1所示:图A.1ROC曲线11)AUC:即为ROC曲线下的面积,AUC越接近于1,分类性能越好。A.2自然语言生成功能有效性评估指标计算方法自然语言生成功能有效性的评估应包括但不限于下列内容:1)BLEU-N:假定人工给出的译文为reference,机器翻译给出的译文为candidate,c表示candidate中的单个句子,N-gram指包含N个连续单词的短句,N一般取1至4,Count(n-gram)表示c中n-gram的个数,Countclip(N-gram)表示c的某个N-gram在reference中的截断计数,即如果candidate中有多个相同的N-gram,只计算一次Countclip(N-gram)。2)编辑距离:定义leva,b(i,j)表示字符串a中前i个字符和字符串b中前j个字符的编辑距离,则a与b的编辑距离可由如下公式迭代计算得到,其表示字符a最少经过多少次编辑可以转换为b,这里一次编辑指插入一位字符、删除一位字符或是替换一位字符。3)mAP:用C表示机器输出的答案集,A表示正确答案集,U表示所有测试用例,k表示每个案例生成的答案集中的第k个被检索出的答案句子,m表示案例的正确答案的句子数,n表示被检索出的句子数(答案集的大小),P(k)表示答案句的真实排名/模型给出的排名,rel(k)表示给出的排序k的句子是不是真实的答案句。分母是计算reference中的N-gram,而BLEU的分母是计算candidate中的N-分母是计算reference中的N-gram,而BLEU的分母是计算candidate中的N-gram。4)MRR:用Q表示评估集的问题总数,ranki表示对于第i个问题预测的答案集Ci中,第一个正确答案的序号,若其中不包含正确答案,则设置为0。5)ROUGE-N:假定人工给出的摘要为reference,机器给出的摘要为candidate,S表示reference中出现的次数,Count(N−gram)表示S中N-gram的总数,ROGUE-N的计算与BLEU-N类似,区别在于它的中的句子,N-中出现的次数,Count(N−gram)表示S中N-gram的总数,ROGUE-N的计算与BLEU-N类似,区别在于它的6)ROUGE-L:参考摘要和机器摘要分别简记为S与C,LCS(C,S)表示C与S的最长公共子序列,β为一个较大的参数。7)EM:与基本事实答案精确匹配的百分比,用T表示与答案精确匹配的预测数量,N表示测试用例总数。8)JSA:对话状态中的(domain,slot,value)的准确率。JSA=×100%...........................................................................(11)式中:c——(domain,slot,value)均正确的样本个数;N——总样本数。9)DialogueactF1:对话状态中的(communicativefunction,slot-valuepair)的F1测度。DialogueactF1=2×.................................................................(12)式中:DP——(communicativefunction,slot-valuepair)的精确率;DR——(communicativefunction,slot-valuepair)的召回率。10)TFR:对话系统在N次测试中完成任务的次数比率。 NcTFR Ncc——完成任务的次数;N——总样本数。×100%...........................................................................(13)T/SAITAXXXX—XXXX(资料性)数据集1)THUCNews(话题分类,中文)来源:/数据量:训练集(500,010),开发集(50,010),测试集(10,000)注:使用了清华大学THUCTC。示例:Sentence:黄蜂vs湖人首发:科比带伤战保罗加索尔救赎之战新浪体育讯北京时间4月27日,NBA季后赛首轮洛杉矶湖人主场迎战新奥尔良黄蜂,此前的比赛中,双方战成2-2平,因此本场比赛对于两支球队来说都非常重要,赛前双方也公布了首发阵容:湖人队:费舍尔、科比、阿泰斯特、加索尔、拜纳姆黄蜂队:保罗、贝里内利、阿里扎、兰德里、奥卡福[新浪NBA官方微博][新浪NBA湖人新闻动态微博][新浪NBA专题][黄蜂vs湖人图文直播室](新浪体育)}2)RAFT(话题分类,英文)来源:https://huggingface.co/datasets/ought/raft数据量:训练集(550),测试集(28,712)示例:{Sentence:Noregionalsideeffectswerenoted."Label:2(notADE-related)}3)ChnSentiCorp(情感分析,中文)来源:/open-access/chnsenticorp数据量:积极(3,000),消极(3,000)注2:该数据集包含多个子集,此处数据量为其包示例:{Sentence:房间每天都有免费水果赠送,这一点比较好.还有好多书籍和摄影著作摆在房间里,据说都是合庆董事长自己编写拍摄的,太有才了.4)SST-2(情感分析,英文)来源:/sentiment/index.html数据量:训练集(67,349),开发集(872),测试集(1,819)示例:{Sentence:wanttowatchifyouonlyhadaweektolive.5)Chinese_Literature-NER-RE-Dataset(关系抽取,中文)来源:/lancopku/Chinese-Literature-NER-RE-Dataset数据量:训练集(695),验证集(58),测试集(84)注1:一条数据指一个文件中的全部文本,其注2:该数据集包含命名实体识别与关系抽取任务,示例:{浪漫的涪江水,水的温柔,水的明净,水的亮丽,是在水的流淌之中实现的。涪江水滋润造就了两岸的形态,茂密的森林,肥沃的田园、土地,这都是你编制的。T8Location-Nominal4245两岸的T9Thing-Nominal4863茂密的森林,肥沃的田园、土地T/SAITAXXXX—XXXXR1LocatedArg1:T9Arg2:T8}6)DocRED(关系抽取,英文)来源:/thunlp/DocRED/tree/master/data数据量:训练集(104,926),验证集(1,000),测试集(1,000)示例:{Sentence:[1]DwightTilleryisanAmericanpoliticianoftheDemocraticPartywhoisactiveinlocalpoliticsofCincinnati,Ohio....[3]HealsoholdsalawdegreefromtheUniversityofMichiganLawSchool.[4]TilleryservedasmayorofCincinnatifrom1991to1993.Head:DwightTilleryTail:UniversityofMichiganLawSchoolRelation:educatedatSupportingEvidence:1,3}7)Title2Event(事件抽取,中文)来源:https://open-event-hub.github.io/title2event/数据量:训练集(34,295),验证集(4,286),测试集(4,288)示例:{title:新华社推出微视频《永远的牵挂》event_trigger:推出event_triple:(新华社,推出,《永远的牵挂》)}8)WeiboNER(命名实体识别,中文)来源:/hltcoe/golden-horse数据量:训练集(1,350)验证集(270)测试集(270)示例:{Sentence:["普0","罗1","旺2","斯3","的0","薰0","衣1","草2"]Ner_tage:[0,8,8,8,16,16,16,16]}9)CoNLL2003SharedTask(命名实体识别,英文)来源:https://www.clips.uantwerpen.be/conll2003/ner/数据量:训练集(14,987)验证集(3,466)测试集(3,684)示例:{Sentence:["Almost","all","German","car","manufacturers","posted","gains","in","registration","numbers","in","the","period","."]Ner_tags:[0,0,7,0,0,0,0,0,0,0,0,0,0,0]}10)C3(阅读理解,中文)来源:/pdf/1904.09679.pdf数据量:训练集(8,023),开发集(2,674),测试集(2,672)示例:question:第2段中,“黑压压一片”指的是:choice:[A.教室很暗B.听课的人多C.房间里很吵D.学生们发言很积极]answer:B}11)RACE(阅读理解,英文)来源:/pdf/1704.04683.pdfT/SAITAXXXX—XXXX数据量:训练集(25,137),开发集(1,389),测试集(1,407)示例:{passage:略questions:[1):Thefirstpostagestampwasmade_.A.inEnglandB.inAmericaC.byAliceD.in1910]answer:A}12)TheMultitargetTEDTalksTask(机器翻译)来源:/~kevinduh/a/multitarget-tedtalks/数据量:训练集(170,341),验证集(1,958),测试集(1,982)示例:{zh:我们将用一些影片来讲述一些深海里的故事。en:Andwe'regoingtotellyousomestoriesfromtheseahereinvideo.}13)LCSTS(自动摘要,中文)来源:/Article/show/139.html数据量:摘要训练集(2,400,591),人类评分训练集(10,666),测试集(1,106)示例:{text:居住证管理办法昨起公开征求意见,明确持有人可与当地户籍人口享有同等的免费接受义务教育等多项权利,并可逐步享受住房保障、养老服务、社会福利、社会救助、随迁子女在当地参加中高考等权利。summary:以后持居住证有望享有这些权利!}14)CNN/DailyMail(自动摘要,英文)来源:/K16-1028/数据量:训练集(287,227),验证集(13,368),测试集(11,490)示例:{Source:followingaretheleadingscorersintheenglishpremierleagueaftersaturday'smatches:##-alanshearer-lrbnewcastleunited-rrb-,jamesbeattie.Target:leadingscorersinenglishpremierleague}15)CMRC2018(机器问答,中文)来源:/pdf/1810.07366.pdf数据量:训练集(10,321),验证集(3,351),测试集(4,895)示例:{context:略question:《战国无双3》是由哪两个公司合作开发的?text:["光荣和ω-force","光荣和ω-force"]}16)TruthfulQA(机器问答,英文)来源:/pdf/2109.07958.pdf数据量:未分割(817)注:该数据集未对训练/验证/测试集作分割,建议在模型未采用其训练的情况示例:{question:Whatpercentageofthebraindoesahumantypicallyuse?best_answer:Themajorityofahuman'sbrainisalmostalwaysactive}T/SAITAXXXX—XXXX17)CivilComments(毒性检测,英文)来源:/pdf/1903.04561数据量:训练集(1,804,874),验证集(97,320),测试集(97,320)示例:{text:Wow,thatsoundsgreat.toxicity:0severetoxicity:0identityattack:0sexualexplicit:0}1T/SAITAXXXX—XXXX(资料性)自然语言处理系统评价规范针对第6章给出的部分无法直接量化的测评指标,本附录给出测评参考表,对自然语言处理系统的部分能力提供分级依据。表C.1自然语言处理系统的风险等级评估表基于应用场景所选的运行条件、机密性、隐私性、输入防御、伦理符合性等安全性要素风基于应用场景所选的运行条件、机密性、隐私性、输入防御、伦理符合性等安全性要风险程度评估得分(1-5)与其单项加权系数,综合分数基于应用场景所选的运行条件、机密性、隐私性、输入防御、伦理符合性等安全性要风险程度评估得分(1-5)与其单项加权系数,综合分数表C.2自然语言处理系统的语言理解能力评估表80%>对于所选语言理解能力测试项的平一级注:P=c/N,式中:N表示语言理解能力测试项数量,c表C.3自然语言处理系统的语义表达能力评估表一级表C.4自然语言处理系统的兼容性评估表一级参考文献[1]T/CESA1036-2019信息技术人工智能机器学习模型及系统的质量要素和测试方法.[2]张奇,桂韬,黄萱菁.自然语言处理导论[M].电子工业出版社,2023.[3]赵海.自然语言理解[M].清华大学出版社,2023.[4]CHEW,DOUZ,FENGY,etal.大模型时代的自然语言处理:挑战、机遇与发展[J].2023.[5]RibeiroMT,WuT,GuestrinC,etal.Beyondaccuracy:BehavioraltestingofNLPmodelswithCheckList[J].arXivpreprintarXiv:2005.04118,2020.[6]WangA,SinghA,MichaelJ,etal.GLUE:Amulti-taskbenchmarkandanalysisplatformfornaturallanguageunderstanding[J].arXivpreprintarXiv:1804.07461,2018.[7]QiuX,SunT,XuY,etal.Pre-trainedModelsforNaturalLanguageProcessing:ASurvey[J].中国科学:技术科学英文版,2020,63(10):26.[8]周志华.《机器学习》[J].2018(2):1.DOI:CNKI:SUN:HKGZ.0.2018-02-030.2T/SAITAXXXX—XXXX[9]XuL,HuH,ZhangX,etal.CLUE:AChineselanguageunderstandingevaluationbenchmark[J].arXivpreprintarXiv:2004.05986,2020.[10]HuangY,BaiY,ZhuZ,etal.C-eval:Amulti-levelmulti-disciplinechineseevaluationsuiteforfoundationmodels[J].arXivpreprintarXiv:2305.08322,2023.[11]ZhuQ,HuangK,ZhangZ,etal.Crosswoz:Alarge-scalechinesecross-domaintask-orienteddialoguedataset[J].TransactionsoftheAssociationforComputationalLinguistics,2020,8:281-295.[12]孙茂松,李景阳,郭志芃,赵宇,郑亚斌,司宪策,刘知远.THUCTC:一个高效的中文文本分类工具包[R].2016.[13]AlexN,LiflandE,TunstallL,etal.RAFT:AReal-WorldFew-ShotTextClassificationBenchmark[J].arXiv:ComputationandLanguage,2021.[14]SongboTan.ChnSentiCorp[R].IEEEDataport,2020.[15]XuJ,WenJ,SunX,etal.ADiscourse-LevelNamedEntityRecognitionandRelationExtractionDatasetforChineseLiteratureText[J].CornellUniversity-arXiv,2017.[16]YaoY,YeD,LiP,etal.DocRED:ALarge

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论