




版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、基于软模糊粗糙集模型的多标签文本分类姓名: 学号:内容提要 随着互联网技术的迅猛发展,电子文档很多需要被标记为多个类标签,即划分到多个类别范畴中。当前,对多标签文本分类的研究主要针对特征的选取和分类算法。本文借鉴处理不确定性问题的软模糊粗糙集模型,将其应用于多标签文本的分类问题。通过将多标签文本语料根据文档频率进行特征提取,采用TF-IDF特征表示方法,将特征词集表示成向量空间模型的形式,使数据更加结构化。同时,基于粗糙集理论,采用了软模糊粗糙集模型,并对其加以改进,使其具有处理多标签问题的能力。然后利用这种模型对文本进行类别的划分,得到每个测试文档的类标签集合。最后采用多标签分类特有的评价标
2、准对分类结果进行评估。关键词 软模糊粗糙集,多标签,文本表示,分类算法 1 引言随着网络信息传播的高效性以及人们对电子文档使用的频繁性,各类论坛、门户网站、电子商务网站,以及近年发展起来的微博等,都处于蓬勃发展的状态。同时,各类电子文档已成为这些网络信息传播的有效载体。然而,现实世界中,很多电子文档的内容都是包含多个主题类别的,从文本分类的角度来看,就是文本的多标签问题。面对各类微博网站的蓬勃发展,微博短文本内容与日俱增,更加严峻的任务需要我们来解决。由于微博内容的复杂性,主题的多样性,用户兴趣的广泛性,当我们需要对这类网络文本数据的主题进行分析处理,为得到用户的关注类型及偏好提供帮助时,首先
3、需要研究这类多标签文本的分类问题。对于一篇微博、博客或是新闻文档,考虑它的主题类别时,可能会认为它谈论的是政治方面的内容,但它却延伸到军事或是经济方面的内容。在对这类文本进行分类时,就需要为它标定多个类别标签,然后再对它进行分析处理。文本分类技术对于大量文档的归类问题提供了很好的推动作用。因此,研究多标签文本分类问题具有非常重要的现实意义。当前,对于多标签分类,大多数是理论算法的研究。关于分类方法,主要有两种方式,一是问题的转换,二是算法的适应性。大多数情况下,多标签文本分类算法都是用在英文文本语料上。现今网络上的中文电子文档等数据中也存在着大量需要被当作多标签问题来解决的文本语料。因此,能够
4、从网络上的电子文档中抽取大量的多标签文本语料,用于对中文文本的多标签分类研究,这对自然语言的学习研究是必要的。粗糙集理论已经在特征选择、属性约简、规则学习等实际应用中取得了很好的实际效果。大量实验表明,基于模糊粗糙集的软模糊粗糙集模型在处理噪声和错误标记的样本方面具有很好的效果。本文通过对软模糊粗糙分类器的改进,使其扩展为可以处理多标签分类问题的模型,并将其应用于中文多标签文本分类中,拓宽了粗糙集理论在自然语言处理领域的应用。2 相关工作文本分类是自然语言处理的一个重要分支领域,它通过分析文本内容并运用统计学方法加以处理,使得计算机能够对待分类文档实现自动划分到若干个较合适的类别中的目的,从而
5、达到便于文本组织管理、智能检索以及信息过滤等应用的结果。随着电子文本信息量的急剧增长,文本内容的多样化,只能确定文本单一类别的单标签学习已经难以满足人们对分类的需求。因此,多标签文本分类以其特有的灵活性与实用性吸引了大多数研究学者的注意力。近年来,多标签分类作为多标记学习中的一个重要问题,越来越受到研究学者的关注。Tsoumakas等人1将现有的多标签分类算法归结为两类:算法适应方法和问题转化方法。典型的算法适应方法有AdaBoost.MH算法2、人工神经元网络3、Boosting 算法4等。典型的问题转化方法有:LP(Label Powerset)算法5、BR(Binary Relevanc
6、e)算法16、RAKEL(Random k-labelsets)算法6等。一些学者已经对粗糙集理论进行了较为深入的研究,提出了软粗糙集、软模糊粗糙集等概念。为了能够好的解决模糊粗糙集模型对噪声敏感的问题,胡清华等人78在软间隔SVM的启发下,将基于软阈值的抗噪方式引入到模糊粗糙集模型中,给出了软距离的概念,提出了软模糊粗糙集模型,并基于软模糊下近似隶属度设计了一种单标签的分类模型,被称为软模糊粗糙分类器。由于软模糊粗糙分类器是通过取得待分类样本对某一类别的下近似隶属度,从中选取具有最大隶属度的类标签来标定该样本的类别,对多标签分类来说,将该模型做一定的改造,赋予隶属度合适的阈值,即可把这种针对
7、单标签数据的分类模型改造为可以对多标签数据进行分类的有效分类模型。当前,粗糙集理论在文本分类方面的应用,大多数是利用粗糙集在属性约简方面的优越性。卢娇丽、郑家恒等曾利用粗糙集理论对属性优越的约简特性将其应用于文本分类方面9,并取得了很好的效果。但由于只是针对单标签文本的分类,限制了粗糙集的应用范围。安爽10在其博士论文中,以稳健的软模糊粗糙集理论为基础,将其应用于太阳耀斑预报模型的研究。鉴于软模糊下近似隶属度的特殊性,同时,考虑到多标签分类的实用性,本文将软模糊粗糙集理论应用于文本分类中,给出了一种基于软模糊粗糙集模型的多标签文本分类算法。3 文本结构化表示3.1 文本预处理在文本信息处理中通
8、常可以采用多种粒度的特征,但在文本分类中,普遍采用基于词的文本特征选择方法,其分类效果通常要好于字和短语。由于中文语言的特殊性,需要对中文文档进行分词处理,本文使用中科院ICTCLAS分词软件对全部文档进行分词。分词结果以文本形式存储。3.2 特征提取 首先,对分词后的文本建立停用词表,去除停用词,结果仍以文本形式存储。经过去除停用词等步骤的处理后,文本已经得到了初步的降维。然而,为了得到好的分类效果,需要从这些词集中选出具有较好区分性和代表性的词作为分类特征集,从而达到对特征集缩减降维的效果。现在需要对这些文档词集进行特征提取。特征选择的方法有很多,常用的方法有:文档频率(DF)、信息增益(
9、IG)、2统计量法(CHI-2)和互信息法(MI)等11。信息增益、互信息等特征选择的方法都是与类别相关的,而本文研究的多标签文本分类中,文本的类别是多个的而不是单一的,由于本文使用的DF特征选择方法简单,不受类别影响,因此它比较适用于多标签文本的研究。根据文档频率的特征选择方法,归纳所有文档的分词结果,会得到文档集中所有词的文档频率信息,将这些词按照频率大小排序,去掉在文档中出现很少次数的词。选取出现频率较高的部分词作为文本分类过程中的特征项。这样,减小了特征噪声对分类结果的影响。3.3 权重表示特征权重通常用来界定特征项在文档表示中的代表性和重要性。文本分类中特征权值计算方法有:布尔权重、
10、绝对词频(TF)权重、TF-IDF权重等12。本文采用文本分类中常用的TF-IDF权重表示方法对所有文档的特征词进行表示13。TF-IDF权重不仅考虑特征词在一篇文本中出现的频次,也考虑了它在所有文本中的频率。其计算方法见公式(1)-(2)。 (1) (2)其中,wij是特征词tj在文档Dj中的权重,tfij为特征词tj在文本Dj中出现的频率,nj表示包含特征项的文档在整个文档集中的频率,N为文档总数。3.4 文本表示文本特征表示是文本分类的基础,指将所有文档中的不同文本以及特征项用模型进行表示。文本分类中常用的两种文本表示模型为布尔模型((Boolean Mode)和向量空间模型(VSM)1
11、4。由于VSM对文本的表示形式效果好,且具有广泛的应用,本文采用VSM对文本进行表示。整个文档集的表示见下图1:图1 文档集表示形式其中,矩阵D的每一行表示一篇文档,每一列表示一个特征项,每一个值表示对应特征在相应文档中的权值,权值越大,表示该特征项在这篇文档中的相对重要程度越大。通过文本的预处理,将非结构化的文本表示为结构化的数据,即可将这些数据用于分类器的训练。4 软模糊粗糙集模型4.1 软模糊粗糙集软模糊粗糙集理论将软间隔SVM中选取软阈值的思想引入模糊粗糙集理论中,提出了一种不同于原有的计算样本最近距离方法的软距离的概念8。定义1 给定一个样本实例x和一个样本实体集Y=y1,y2,yn
12、,x和Y之间的软距离被定义为 (3)其中是与之间的距离函数,C是惩罚因子,是满足条件的样本数量。图2给出了一个确定软距离的例子。假定样本x属于类1,其他样本属于类2,用Y表示该样本集。如果把y1当作一个噪声样本并忽略它,SD(x,Y)应该是d2。因此要有一个惩罚项来判定需要忽略多少个噪声样本。如果忽略一个样本,d(x,yj)将会减去C。对于所有的候选距离d(x,yj),取作为x和Y之间的软距离。也就是说,距离d(x,yj)是惩罚了所有被忽略样本之后的最大值。关于参数C的选取,参见4.3节。图2 软距离示意图在软距离的基础上,软模糊粗糙集的定义如下:定义2 把U作为一个非空论域,R是U上的一个模
13、糊等价关系,且F(U)是U的模糊幂集。FF(U)的软模糊上下近似被定义为 (4)其中, (5)C是一个惩罚因子,m是在计算时被忽略的样本的数量,n是计算时被忽略的样本的数量。如果集合A是一个清晰集,那么样本x对于A的软模糊下近似的隶属度就表示为 (6)其中, (7)显然,等于样本x到U-A的软距离。4.2 软模糊粗糙分类器胡清华等人在上述软模糊下近似定义的基础上设计了一个稳健的分类器8,可以用来解决单标签分类问题。它的原理概括为:计算一个待分类样本对于每个类的软模糊下近似隶属度的值。给定一个具有k个类的训练样本集和一个待分类样本x。首先,假定x属于每个类。计算出样本x对于k类的软模糊下近似隶属
14、度的值,然后将x划分到最大隶属度的类别中。用公式表示为 (8)其中,是x对于类的软模糊下近似隶属度。算法描述如下:输入:训练样本集X=(x1,y1),(x2,y2),(xn,yn),测试样本集X'=x1',x2',xm';输出:每个测试样本xi的类别classi。Step1:计算类别个数;Step2:对于每个测试样本xiX,做如下处理:(1) 对每个类classjY(Y=y1,y2,.,yk),计算xi与其异类中每个样本的距离,得到候选距离。(2) 对得到的候选距离排序,再根据公式(3)计算类classj对应的软距离。(3) 由公式(6)-(7)可知,(1)中的
15、得到的xi对异类样本的软距离的值与其对应的下近似隶属度的值相等。于是得到样本xi对每个类的软模糊下近似隶属度。(4) 选取隶属度取最大值时对应的类标签classt并将其返回,即可得到样本xi的类别。Step3:重复step2直到得到每个测试样本的类标签。4.3参数设置由4.1节中的图2可以看出,软模糊粗糙集中惩罚因子C的值对其稳健性具有重要意义。对于参数的设置在文献8中给出了一种方法。假定以一个样本x为例,给出以该样本为球心的软超球的信任度f。当以x为球心计算软超球的信任度时,如果其值大于或等于f,那么当信任度等于f时,软超球与硬超球的半径的差比上软超球中少数几个异类样本的个数,比值即为以样本
16、x为球心得到的C的值。同时,也确保了软模糊下近似的信任度。对于一个含有n个样本的数据集,取以每个样本为球心计算的C的平均值,即可得到这个数据集的参数C的值。对于本文中的多标签数据集,通过将多标签数据转化为多个二分类数据集来选取每个类的参数。BR方法对于不同的类会有不同的参数值,可由公式(9)得出。由SFRC改造后的算法通过取各参数的加权平均值作为它的惩罚因子C的值,权值为每个类中的标签数占所有标签的比重,可由公式(10)得出。计算参数C的公式如下: (9) (10)其中,L为标签总数,wi为类i的权值。本文实验中选取软模糊下近似的可信度大于或等于95%,即软超球中的样本错误率小于5%。5 多标
17、签分类模型的构建5.1 多标签学习现有的分类学习中,大部分是对单标签数据的研究。然而,在某些实际应用中,一个训练样本往往可以归属于多个类,即一个标签的集合YL。这样的数据称为多标签(multi-label)数据。假定D为一个多标签数据集,其中包含|D|个样本。X=x1,x2,xn表示训练样本集,L=y1,y2,ym表示该样本集中的样本所属类标签的集合,其中,n表示训练样本总数,m表示标签总数。那么,数据集D可以表示为:(x1,Y1),(x2,Y2),(xn,Yn),其中,xiX, YjL,xi为一个多标签样本,Yj为该样本对应的类标签的集合。多标签数据集在文献16中已给出了详细说明。5.2 基
18、于问题转换的多标签分类模型的构建问题转换的分类方法的主要思想是,将每一个多标签样本(xi,Yi)处理成|Yi|个单标签数据(xi,yi),其中,yiYi,然后再利用已有的分类模型对转化后的单标签数据集进行分类,将会得到每个测试样本的一个标签的集合。本文采用Binary relevance (BR)方法对数据进行转换。它训练了|L|个二分类器,每个分类器只划分L中的一个类别,|L|表示类标签总数。它将原有的多标签数据集转化为|L|个只存在两个类别的单标签数据集Dp。如果转化后的单标签数据样本Dxi的类标签集合Yi中包含yi,则将其记为“1”,否则将其记为“0”。对于一个多标签样本,BR方法输出的
19、集合中的标签是由|L|个基分类器输出中标签为“1”的类标签组成的。通过对处理后的多标签文本数据进行转换,使用4.2节中给出的单标签分类算法训练学习若干二分类器,就构成了一种基于软模糊粗糙集模型的多标签分类器。5.3 基于算法适应的多标签分类模型的构建算法适应的分类方法的主要思想是,通过对已有算法的改进,使之具有直接处理多标签数据的能力,结果以一个类标签集合的形式给出,集合中的标签即为该样本所属的类别。本文通过对现有的处理单标签数据的软模糊粗糙集模型进行改造,将其用于多标签文本的分类处理。对于现有的软模糊粗糙集模型,其样本的软模糊下近似隶属度是依据待分类样本与异类中样本之间的软距离得出的。与软模
20、糊粗糙分类器的原理相同,需要计算一个待分类样本相对于各个类的软模糊下近似隶属度的值。假定一个多标签数据集共有|L|个类标签,样本xi是待分类样本,Yi表示该样本所属的类标签集合。得到xi的标签集的过程如下:Step1:输入一个多标签数据集。对其类标签的表示形式进行处理,使得每个类标签中,“1”表示样本属于该类别,“0”表示不属于。Step2:先假定多标签样本xi属于每个类,根据软模糊下近似隶属度的计算方法,可以得出|L|个样本xi对于每个类的下近似隶属度的值。这些隶属度是对样本xi隶属于每个类的重要性的度量。Step3:给出一个界限,划分出对样本xi有着较高的贡献度的类别。Step4:输出这些
21、类别的集合,就是样本xi的类标签集Yi。Step5:对每个样本重复24步,即可得到所有样本的类标签集合。公式表示如下: (11)其中,表示样本的隶属度的界限值。对于界限值的选取,给出两种方法。一种是给定一个固定的阈值。用表示类别相关度,将每个隶属度的值转换后用表示,。首先,假定最大隶属度的相关度为1,则其他所有类的隶属度与该最大值的比值,即为每个类的相关度。然后设定一个阈值(如90%),大于这个阈值的,则判定该样本属于相应的类别,将xi对应的标签集中的位置置“1”,否则判定为不属于,将其置“0”。考虑到每个样本的特殊性,总体阈值的选择可能对部分样本不适用。因此,给出了另一种可以考虑到每个样本特
22、殊性的阈值选取方法。即直接取这|L|个下近似隶属度的期望值Mi,以此作为类别判定界限。如果一个样本相对于类yj的下近似隶属度的值大于Mi,则判定该样本属于类yj,否则判定为不属于类yj。6 数据准备与评价指标6.1 数据准备实验数据使用从网络上搜集的微博、博客、新闻等文档构成的1000篇文本语料,其中包含10个类别,分别为:科技、体育、经济、军事、国际、政治、健康、饮食、电子、娱乐。每篇文档至少包含两个类别信息。将所有文档平均分成4份(每份250篇文档),每次实验都从中选取三份作为训练集,一份作为测试集,做四次交叉验证,结果取四次实验的平均值。表1给出了每个训练集中文档类别的统计信息。表1 多
23、标签文本训练集的统计信息 训练集文档标签数 数TrainSet1TrainSet2TrainSet3TrainSet426766806766773434043424313031316.2 多标签分类的评价指标在多标签分类中,由于每个测试样本对应的类别不再是单一的,因此,其性能评价指标与传统的单标签分类有所不同。有效的评估方法也是文本分类的一个重要过程。多标签分类器有多种评价指标17,本文采用常用的六种指标对所使用的多标签分类器的性能作出评价21516。假设S是一个多标签测试数据集,S=(x1,Y1),( x2, Y2),( xs, Ys),包含了S个多标签样本(xi,Yi),i=1s,YiL
24、。把H当作一个多标签分类器,Zi=H(xi)表示由分类器H预测的样本xi的标签集。(1)基于实例的精度匹配度量表示为: (12)这是一个非常严格的评价方法,因为当测试样本的预测标签集中多一个标签或者少一个标签,都会被判别为错误。(2)Schapire 和 Singer 2在2000年提出了Hamming Loss的评价指标,该指标重在考虑样本在单个类别中的分类误差,即原应出现在该样本的标签集中的的类不在标签集中,而不该出现的却在标签集中这样的情况,该指标取值越小表示分类器的性能越好。它的定义如下: (13)其中,表示两个集合的对称差分,相当于布尔逻辑中的异或(XOR)操作。(3)Godbole
25、和Sarawagi于2004年提出了多标签精度测量标准,表示形式如下: (14)它是通过对每个样本真实的和预测的标签集的交集与并集大小的比值的宏平均来度量的,结果越大表示分类性能越好。下面三种指标是从传统的文本分类领域中的评价指标查准率、查全率以及F值度量所派生出的,文献15曾使用过这样的评价指标。(4)Precision考虑了一个标签集中准确预测的标签在原始预测的标签集中所占的比重,计算公式如下: (15)(5)Recall考虑了一个标签集中准确预测的标签在真实标签集中所占的比重,计算公式如下: (16)(6)F值的度量方式是准确率(Precision)和召回率(Recall)的一种权衡表示
26、,常用于信息检索领域。对于文本分类也是一种很好的评估指标。F值度量的表示形式如下: (17)7 实验结果及分析在第3节对文本预处理后得到的文本结构化表示和第5节构建的分类模型的基础上,本节通过实验,采用BR方法构建的SVM和SFRC两种多标签分类器,以及由算法适应方法构建的ML_SFRC分类器得出实验结果。所有实验结果均取四次交叉实验的平均值,以保证数据集对分类性能的稳定性。在实验结果的基础上,对基于软模糊粗糙集模型改造后的两种分类器进行比较分析。7.1 特征项数目对分类结果的影响文本分类中,特征词的选取对分类结果是有影响的。为了得到更好的分类效果,本次实验分别选取文档频率较高的前400、60
27、0、800、1000个特征词作为特征项,采用BR_SFRC和ML_SFRC中以期望值作为界限的ML_SFRC_Mean两种分类器得出实验结果。分类性能仅以精度匹配度量和海明损失、F值三个指标作为参考。表2 选取不同数目的特征词时BR_SFRC分类器的分类结果 特征数指标4006008001000Exact Match0.60600.53500.47800.4220Hamming Loss0.10060.12280.13870.1563F-measure0.76050.70580.66640.6215表3 选取不同数目的特征词时ML_SFRC_Mean分类器的分类结果 特征数指标40060080
28、01000Exact Match0.60000.52400.47100.4200Hamming Loss0.10030.12170.13810.1563F-measure0.75830.70670.66780.6223由表2-表3中结果可以看出,特征词数量为400时得到的结果最好。因此,后续的实验中我们采用文档频率统计结果中前400个特征词作为向量空间模型中的特征项。7.2 分类算法对分类结果的影响文本分类的实验效果与分类算法的选取有关。SVM是一种常用的分类模型17,文中实验采用SVM以及5.2节中构建的BR_SFRC多标签分类模型和5.3节中构建的ML_SFRC多标签分类模型对多标签文本进
29、行分类。分类性能以6.2节中给出的六种多标签分类的评价指标表示。表4 基于问题转换的BR方法下的多标签分类器的分类结果 算法指标BRSVMSFRCExactMatch0.62800.6060Hamming Loss0.05370.1006Accuracy0.79570.7173Precision0.92290.7756Recall0.81540.7563F-measure0.84750.7605由表4可以看出,在BR方法下,使用SVM分类器得到的分类结果中各项指标均优于SFRC。表5 算法适应方法下的ML _SFRC多标签分类器在选取不同阈值时的分类结果 算法指标ML _SFRC90%92%9
30、4%96%98%MeanExact Match0.29900.35100.38700.38700.30900.6000Hamming Loss0.51280.43730.35880.27600.19880.1003Accuracy0.46300.51410.55770.58420.56060.7143Precision0.48110.54890.62340.70470.77020.7806Recall0.96940.93920.89240.81740.68270.7507F-measure0.55890.60330.64250.67040.65740.7583由表5可以看出,基于算法适用得到的
31、ML_SFRC中,界限取期望值时得到的分类结果优于给定一个固定阈值时的结果。7.3结果分析从实验数据结果进行分析,分为以下几种情况:(1)在特征选取方面,并不是特征词越多分类效果越好。判断特征词集合选择的是否合理,主要看所选词是否具有类别标识性。能够将文档归为某一类别,或是由于其中出现了一个具有很强的代表性的词,或是由于一个词在它标识的类别中的频率很高。由表2-表3可以看出,选取文档频率较高的前400个特征词,使得分类结果较好,说明这些词的类别标识性相对较高。(2)从多标签分类方法上看,BR方法由于没有考虑到每个样本所属标签之间的关系,往往会对其泛化性能有所影响。少部分测试样本最终的分类结果可
32、能出现没有标识的情况,因此无法判定其类别。此外,BR方法需要构建等同于标签数目的分类器个数,这无疑增加了算法的复杂度。然而,算法适应方法能够很好地解决这两个问题。如ML_SFRC考虑到各标签之前的相关性,根据隶属度的大小,每个样本被标注上各自该有的标签。(3)单纯就BR方法转换的SVM和SFRC分类器来讲,由于BR方法是将多标签问题转化二分类问题来解决的,而SVM在二分类问题上有显著的实验效果,因此,SVM的各项指标优于SFRC是可以理解的。然而,经实验验证,SVM的分类结果中,有0.8%的测试样本被标注为无标签样本,一定程度上影响了其泛华性能。这对多标签分类有很大影响。(4)对于ML_SFR
33、C,界限的选取很重要。从表5可以看出,选取期望值作为界限值的结果相对较好。当根据类别相关度选取固定值作为界限时,由于各个样本对于类别的隶属程度不同,如果选取的阈值较大,一部分本该属于某些标签的样本被忽略,如果选取的阈值较小,一部分不该属于某些标签的样本将被标识为相关类别,最差结果为样本被标识上全部标签。因此,应该考虑到样本个体的特殊性,选取具有参照意义的期望值作为阈值。综上所述,虽然SFRC的指标劣于SVM,但就复杂度和泛化性能来讲,ML_SFRC还是有一定优势的。通过后续的改善,软模糊粗糙集模型对多标签文本的分类将会有更好的效果。8 结论与展望本文通过搜集整理得到多标签文本的数据集,采用DF
34、特征选择方法,选取词频较高的多种数量的特征词构成特征词集,选择TF-IDF权重表示方法,将文本数据表示成向量空间模型的形式。基于软模糊粗糙集模型,构建出基于问题转换方法和算法适应方法的BR_SFRC和ML_SFRC两种分类模型,结合BR方法得到的SVM分类器,对多标签文本数据进行分类,并采用多种指标对分类结果进行评估。实验表明,特征词的选择方面,选取400个特征词作为特征项较好;对于ML_SFRC,选取隶属度的期望值作为界限的结果最好;相对于BR方法,从复杂度和泛化性能等方面考虑,SFRC算法的适应更好。DF特征选择方法在对特征词进行选择操作时可能会去掉一部分文档频率低却能很好反映类别信息的特
35、征词,而且它只考虑了特征词是否在文档中出现过而忽略了出现次数这一信息。因此,后续工作中,对于文本特征的选择,可以参考信息增益等其他方法,通过适当的改进,使其适用于多标签文本的特征选择,对得到的数据集做出更好的简化。由于多标签数据的独特性,多标签分类在很多方面还需要作进一步的研究。本文使用的多标签数据集标签维度较低,现实中,对于标签维度较高的的多标签分类学习还是有很大困难的。标签的数量会极大地影响一个多标签分类器模型的复杂性,BR方法的复杂度就与标签的数量有很大关系。在后续工作中,需要不断扩充完善多标签文本语料库,使用已构建的分类器训练学习,改善分类算法,以期望得到更高的分类准确率。9 致谢参考
36、文献1Tsoumakas G. Multi-label classificationJ.International Journal of Data Warehousing &Mining. 2007, 3(3):12-16.2Schapire R,Singer Y. BoosTexter:A boosting-based system for text categorizationJ. Machine Learning.2000, 39 (2):135-168.3M-L Zhang,Z-H Zhou. Multi-label neural net-works with applicat
37、ions to functional genomics and text categorizationJ. IEEE Transactions on Knowledge and Data Engineering. 2006,18:13381351.4Schapire R E,Singer Y. Boostexter: A boosting-based system for text categorization J.Machine Learning. 2000, 39(2/3) :135168.5Dimou A, Tsoumakas G, et al. An Empirical Study o
38、f Multi-Label Learning Methods for Video AnnotationC.Proc of the Seventh International Workshop on Content-Based Multimedia Indexing.2009.6Tsoumakas G,Vlahavas I.Random k-labelsets:An ensemble method for multi-label classificationC. Proc of the 18th European conference on Machine Learning.2007: 406417.7Q.H
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 保洁服务行业
- 2025汽车租赁合同范本标准模板
- 2025新款商场租赁合同
- 卡通彩铅画课件
- 2025【合同范本】终止商业房产买卖合同协议书格式
- 2025年四川省商品房买卖合同示范文本
- 2025园林景观设计合同范本
- 冶金行业概况介绍
- 2025畜禽产品购销合同
- 学校校园网安全防护与管理方案
- 2024年上海市普通高中学业水平等级性考试化学试卷(含答案)
- 驾照体检表完整版本
- GB/T 13803.2-1999木质净水用活性炭
- 航海英文单词汇总
- 输配电行业发展变动趋势分析
- 液压与气压传动全书ppt课件汇总(完整版)
- DB62∕T 25-3103-2015 公路隧道防火涂料施工质量验收规程
- pantone色卡电子版U面
- 教学课件:《特种加工(第6版)
- 《水产动物营养与饲料学》课件第6课-能量营养
- 人教版一年级下册数学 6.100以内数的组成专项卷
评论
0/150
提交评论