利用递归卷积神经网络进行文本分类_第1页
利用递归卷积神经网络进行文本分类_第2页
利用递归卷积神经网络进行文本分类_第3页
利用递归卷积神经网络进行文本分类_第4页
利用递归卷积神经网络进行文本分类_第5页
已阅读5页,还剩11页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、循环卷积神经网络用于文本分类12021/8/6问题:文本分类 特征表示: 词袋方法(一元、两元、N元) 其它方法: frequecy , MI , pLSA , LDA 缺点:忽略了词语所在的语境和词语的顺序,不能有效获取词语的语义 EX:A sunset stroll along the South Bank affords an array of stunning vantage points. (Bank 在这里是河岸,而不是银行)22021/8/6已有解决方法1. 增加词袋元素维度:比如扩展到 “stroll along the South Bank”(5-gram)2. 更复杂的特征

2、表示方法:比如Tree Kernels 方法3. 存在问题:数据稀少(data sparsity),即有效的信息量太少,影响分类的准确度。32021/8/6单词表示词向量1.词向量(词向量(word embedding): 传统的词向量: One-hot Representation “话筒” 表示为 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 .“ 麦克”表示为 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 . 缺点:“词汇鸿沟”;纬度高;数据稀疏 改进的词向量: Distributed Representation即一种单词的分布式表示方法,能有效降低

3、数据稀疏问题,经过训练的词向量可以表征句法和语义信息。Distributed Representation表示形式表示形式:0.792, 0.177, 0.107, 0.109, 0.542, .。维度以 50 维和 100 维比较常见。这种向量的表示不是唯一的。特点是越相似的词距离越近。解决了One-hot Representation 表示词汇时不能表示两个词汇关系的问题。42021/8/6文本表示-神经网络神经网络结构:神经网络结构:基本的神经网络结构包含三部分:输入层、隐含层、输出层神经网络的特点:自学习、联想存储、高度并行性、容错性、鲁棒性。52021/8/6文本表示 递归神经网络(

4、递归神经网络(Recursive NN):):利用树结构对语句进行建模。时间复杂度:至少是O(n2),其中n是句子或者文本的长度,因此不适合长句子或者文本。另一方面,两个句子之间的关系很难通过树结构进行表示。62021/8/6文本表示循环神经网络(循环神经网络(Recurrent NN):):对文本进行逐词分析,将已有的文本信息存储在固定大小的隐藏层。时间复杂度: (n)缺点:不公平性,后出现的单词比前出现的单词重要性更高。因此对于整个文本进行分类时会降低有效性。因为文本中重要的单词会在任何地方出现。72021/8/6文本表示卷积神经网络(卷积神经网络(Convolutional NN):):

5、卷积神经网络可以有效解决不公平性问题。时间复杂度O(n)已有的研究大多使用简单的卷积内核,比如固定窗口大小。这样窗口大小成为制约性能的关键因素:太小可能会丢失重要信息、太大会导致参数空间过大而难以训练。82021/8/6本文解决方法利用循环卷积神经网络(RCNN)解决文本分类问题,即将循环神经网络和卷积神经网络结合,对文本进行表示。方法主要贡献:1.利用双向循环神经网络来表征单词的上下文信息2. 利用最大池层自动判断哪个特征在文本分类中的作用更大92021/8/6方法细节单词表示利用单词和它的上下文信息共同表示一个单词:wi = cl(wi);e(wi);cr(wi) cl(wi):单词wi左

6、边的文本内容 cr(wi):单词wi右边的文本内容 e(wi-1):单词wi-1的词向量 W(l):将隐藏层传递到下一层的矩阵 W(sl): 将当前单词的语义和下一个单词左边的文本组合 起来的矩阵 f : 非线性激活函数102021/8/6方法细节单词表示利用循环神经网络对语句“A sunset stroll along the South Bank affords an array of stunning vantage points”进行建模表示。112021/8/6方法细节文本表示 得到单词wi的表示形式xi之后,利用双曲正切函数进行转换,将结果传递到下一层:Yi(2) = tanh(w

7、(2)xi + b(2) 利用卷积神经网络来表示文本,当所有的单词的表示都计算完成后,进行池化操作,这里采用的是最大池化:Y(3) = max yi(2) ( i = 1,2.n) 最大池层将不同长度的文本转换为具有相同长度的向量。采用最大池层的好处是可以发现文本中最重要的语义信息。122021/8/6方法细节输出结果 输出层:y(4) = W(4)y(3) + b(4) 转换为概率: 意义:表示文本属于某个类别的概率132021/8/6参数训练 神经网络的参数:将所有的参数都用来进行对 的训练目标是使得对应的值使得下式最大其中,D是待分类文本,ClassD是该文本的正确分类类别训练过程中采用了梯度下降的方法,为学习速率:142021/8/6参数训练 词向量训练:Skip-gram model.目标:使得上式的值最大。其中,C是训练文本的长度。概率

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论