版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、 基于卷积神经网络的职位描述文本分类方法 陶宏曜+梁栋屹引言随着Internet的发展,网络上的信息量增长迅猛,互联网信息提取技术应运而生。自动分类是数据挖掘中一项关键的技术,在许多领域得到了广泛的应用。为了实现快速对大量文本自动分类,许多学者对这一问题做了大量的探索,在构造分类器时使用的技术大体可分为两类:机器学习和深度学习。在机器学习领域中,有研究较为成熟的算法,如:樸素贝叶斯分类器,支持向量机,信息熵,条件随机场等。这些方法又可以分为三类:有监督的机器学习,半监督的机器学习和无监督的机器学习。其中李荣陆等人使用最大熵实现了对中文文本的分类。李婷婷等通过对文本数据构建若干特征,再利用传统的
2、机器学习方法对文本进行分类。李文波等人提出了一种附加类别标签的LDA算法,该模型很好的解决了基于传统LDA分类算法时强制分配隐含主题的问题。解冲锋等人利用分类文本中旬子内部词语的相关性和句子间的相关性提出了一种基于序列的文本自动分类算法。现有许多分类器效果的好坏大都取决于所构建特征的质量和分类模型。为了得到更好的分类效果,国内学者针对如何选取和生成特征,以及如何优化模型参数等问题做了大量的研究。其中陆玉昌等人深入分析了向量空间模型(VSM)的本质,找出了其分类正确率低的原因,并提出了一种利用评估函数代替IDF函数的改进方法。李荣陆等人提出了一种基于密度的KNN分类器训练样本裁剪方法,克服了KN
3、N方法中存在的计算量大,而且训练样本的分布不均匀会造成分类准确率的下降的问题。尚文倩等人分析了基于矢量空间模型(VSM)的大多数分类器的瓶颈,通过对基尼指数进行文本特征选择的研究,构造了基于基尼指数的文本特征评估函数,提出了一种新的基于基尼指数的文本特征选择算法,进一步提高分类性能。刘赫等人针对文本分类中的特征加权问题,提出了一种基于特征重要度的特征加权方法。明显改善了样本空间的分布状态,简化了从样本到类别的映射关系。唐焕玲等人针对如何从高维的特征空间中选取对文本分类有效的特征的问题,提出了一种结合评估函数的TEF-WA权重调整技术,不仅提高了分类精确度,还降低了算法的时间复杂度。近几年来,有
4、关深度学习的理论研究与技术应用吸引学术界和工业界的广泛兴趣。特别是图像识别,语音识别等领域的成功应用,越来越多的学者尝试引入深度学习到自然语言的处理领域中来。梁军等人利用自动编码技术和半监督机器学习,实现了对微博文本的情感分析,大量减少了人工标注的工作量。陈翠平引入了深度学习的思想来完成文本分类任务,使用深度信念网络来完成提取文本特征的工作。Yoon等尝试利用卷积神经网络结构来解决情感分析和问题分类等若干自然语言处理任务,获得了不错的效果。目前使用机器学习技术实现的中文文本分类器已达到了不错的效果,但仍然存在对混淆类数据处理不佳,特征不稀疏等问题。针对此问题本文提出了一种基于卷积神经网络结合新
5、的TF-IDF算法和Word2vec工具的改良方法。本文在职位描述文本集上展开实验,通过调整调整卷积核,池化层大小以及隐藏层层数,分析新方法和传统方法在不同训练参数情况下,对职业描述文本进行自动分类的性能。1基于卷积神经网络的文本分类模型卷积神经网络是前馈神经网络的一种,其特点有局部感受野、权值共享,可以极大地减少需要训练的参数个数。基于卷积神经网络的文本分类器可以解决传统文本分类器中人工选取特征难且不准确的问题,其具体构架如图1所示:第一层为数据预处理层:该层首先对职位描述文本进行分词处理,然后根据每个词的特性利用现有的算法提取每个词的特征,以作为第二层的输入层。第二层为卷积层:该层通过4x
6、l的卷积核对输入层的词特征进行组合过滤,再使用Relu神经元激励函数计算从而形成更抽象的特征模型。第三层为池化层:对上一层的词特征的相邻小区域进行聚类统计,得到新的特征。第四层为全连接层:在经过卷积层和池化层的处理之后,我们可以认为职位的描述信息已经被抽象成了信息含量更高的特征,需要使用全连接层来完成分类任务。第五层为Softmax分类层:通过Softmax层,可以得到当前职位描述属于不同分类的概率分布情况。数据预处理是整个分类方法的第一步,预处理的好坏直接影响着分类的效果的好坏。接下来将具体探讨职位描述文本词特征的提取问题。2传统TF-IDF算法TF-IDF(词频率一逆文档频率)是一种用于资
7、讯检索与资讯探勘的常用加权技术。它的主要方法是:Key在文档中的权重为该Key在文档中出现的频数反比于包含该Key的文档数目。TF表示Keyw在该文档中出现的频率,IDF表示所有文通过TF-IDF能够提取出一篇文档的Key,其含义是如果词w的在该文档中出现的频率高,在其他文档中出现的频率低,就代表词w能够很好的表示该文档的特征。STF-IDF将文档的内部信息与外部信息综合起来考虑特征词,能较为全面的反应文档的特性,但在IDF的设计中还存在缺陷,Key的权重反比于逆文档频率。在实际情况中,往往判断一个文档的Key权重并不总是反比于逆文档频率,特别是在短文本的Key抽取中使用TF-IDF算法的效果
8、不是很好。假设总文档数为10,以表1为例,工作和javaKey在计算机类别和新闻传媒类别中的逆文档频率分别为2,2和5,0。其中工作的IDF为log(10/4+0.01)=0.41,iava的IDF为log(10/5+0.01)=0.31。在c1类别的同一文档中当wl与w2具有相同的TF时,TFIDF xTFIDFiava。TF-IDF和TF-IDF的值表明,工作比java根据代表力,但从Key工作和iava在计算机和新闻传媒类别中的分布表明,java比工作具有更好的类别区分度。在短文本分类中如果单纯使用TF-IDF作为文本特征的抽取方法,往往达不到分类的效果,导致这一问题的原因可归结为两点:
9、一是TF-IDF设计本身的缺陷;二是对文本表示的特征深度不够。对此可使用Word2vec的Skip-gram进一步提取文本特征来提高分类精确度。endprint3Word2vec Skip-gram模型Word2vec是Mikolov等所提出模型的一个实现,可以用来快速有效地训练词向量。Word2vec包含了两种训练模型,而skip-gram模型是其中的一种。采用该模型的最大优势在于,能够克服传统词向量训练模型中由于窗口大小的限制,导致超出窗口范围的词语与当前词之间的关系不能被正確地反映到模型之中的问题。Skip-gram模型的设计见图2所示。Skip-gram模型的训练目标就是使得下式的值最
10、大。其中,c是窗口的大小,在Skip-gram模型中就是指n-Skip-gram中的n的大小,T是训练文本的大小。在Word2vec中,使用的是c-Skip-gram-bi-grams。基本的Skip-gram模型计算条件概率公式如下:其中,Vw和V分别是词w的输入和输出向量。使用Word2vec对中文文本生成的词向量能够从词性,语法以及语义上表示一个词的特性。相比于TF-IDF算法,词向量所包含的信息量更为深入,所构造出的分类器精确度有所提高,但仍存在对混淆类的数据噪点处理不佳的问题。4改进的TF-IDF表示对于训练数据中存在像混淆类的噪点造成的文本分类不准确的问题,我们可以在保持原有特征信
11、息量不变的基础上,可引入改进的TF-IDF特征表示来缓解问题。对传统TF-IDF的改进工作主要有两点:一是对原算法的应用扩展,二是对函数的改造。传统TF-IDF解决是多个文档的特征提取,此处我们可以上升到对每个类别的Key特征提取,具体算法是:其中TF表示的是W在CJ类别中出现的频率,d代表Wi词在Cj类中出现的文档数,D代表q类的总文档数。公式(7)构造的是一个阈值函数。公式(8)展开需要用到公式(7),N代表总类别数,WiCj含义具体可参照公式(6)的介绍。重新构造的IDF求的是KeyWi在分类时出现概率的对数。此处使用的阈值函数主要是减少数据噪点对计算Wi词的真实IDF的影响。在计算完每
12、个词在每一类中的TF-IDFmcj值后,可以运用概率期望来表示每一个词的TF-IDFwi权值,其具体计算方法详见公式(9)和公式(10)。公式(10)中n是总词数,m是总类别数。利用改进后的TF-IDF词权重表示法结合Word2vec词向量构成的特征组再对卷积神经网络进行训练。实验结果表明这种方法,在缓解数据噪点对精确度的影响大的问题上是有效的。5实验分析5.1数据准备及预处理本文实验采用从web上爬取的职位描述信息,共计四百万条信息。首先对职位描述文本进行分词以及去停词。接着使用Word2vec和改进前和改进后的TF-IDF算法对职位描述文本进行特征提取,并生成与之对应的特征表。5.2测量标
13、准本文实验选择的测量标准有两个:一是最直接衡量分类效果的预测正确率,如公式(11)所示。另一个是经过Softmax回归之后的预测分类和正确分类之间的交叉熵,如公式(12)所示,其中p为正确概率,g为预测概率,x表示预测类别。5.3样本数量训练样本的大小是影响分类效果最直接的因素之一,它也是整个实验研究的基础。在对样本数量考察时,需保证只有样本数量这一变量。本次实验将样本数量分为100000条,200000条和300000条,实验结果见图3所示。结果表明当加大训练数量,可以改善分类的正确率。通过实验还发现随着训练样本数量的线性增加,对正确率的影响并不是线性的,数量越大,对正确率的影响越小。5.4
14、学习率的大小学习率的大小关系到神经网络的收敛速度。实验结果如图4和图5所示,可以观测到当学习率以5.0的速率训练时,整个网络会有很大的波动,且分类的结果也有比较大的误差。当学习率为0.008时,整个网络收敛相对稳定,但是收敛的速度较慢。学习率太大会造成无法收敛,学习率偏小则收敛速度过慢,正确率也得不到很好的提升。通过多次实验,我们发现当学习率为0.07时效果最好,收敛相对较快,且预测的正确率高。5.5卷积核大小和全连接层数量卷积核大小即一次抓取局部多少个的词的长度。全连接的层数表示拟合参数的维度。在相同学习率和训练数据,不同卷积核大小和全连接层节点数的情况下训练分类器,所得结果见表2所示。卷积
15、核为4*1最为合适,如表2的第一行可知当卷积核太小时,整个神经网络学习不到特征间的联系,正确率相对较差。见表2第6行所示,当卷积核太大则会使学习的特征太过泛化,提升不了分类的正确率。经表2第3,4,5行比较显示,全连接层为2层最佳,当层数太低无法学习到更深的规则,当层数过大时对分类效果的影响不大,反而还加大了算法的时间复杂度。5.6不同分类算法和训练特征使用TF-IDF,Word2vec和改进后的TF-IDF的中文词特征提取法。对传统kNN分类器与基于卷积神经网络的分类器进行了对比,实验结果见表3所示。通过对表3的kNN列和CNNs列的比较我们可以发现,无论在哪种情况下使用卷积神经网络来对职位描述文本分类时都占有得天独厚的优势,其中使用Word2vec词向量和改进后的TF-
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 安徽省芜湖市(2024年-2025年小学五年级语文)统编版竞赛题(上学期)试卷及答案
- 2024年人力资源管理教案改革方向
- 《接触网施工》课件 6.1.2 人工进行目测
- 2024故宫课件研讨会:学术研究及教学实践
- 2024年绘本比较:《逃家小兔》与经典童话
- 2023年“中国银行杯”枣庄市“鲁班传人”职业技能大赛-枣庄市高端装备职业技能大赛电工赛项
- 2024年《认识钟表》教案:虚拟现实与实体钟表结合
- 2024年母亲节特色课件:《感恩母亲》的创意应用
- 培养逻辑思维:2024年特色5以内加减法教学
- 陕西省汉中市2024-2025学年高一上学期11月期中校际联考试题 英语 含答案
- 手诊-PPT(精)
- 地标,DB11890-2012城镇污水处理厂水污染物排放标准(北京)
- 模拟电子技术课程思政教学案例探究
- 中职班级精细化管理的实践探究
- 消防安全操作规程(20211127050648)
- 设备包机制度
- 大体积混凝土养护方案
- 1803综采工作面供电设计
- 胎心听诊技术PPT参考课件
- 《三只小猪》剧本
- 药厂生产过程中的危险有害因素分析及安全对策
评论
0/150
提交评论