用Python进行自然语言处理——图文x详解.docx_第1页
用Python进行自然语言处理——图文x详解.docx_第2页
用Python进行自然语言处理——图文x详解.docx_第3页
用Python进行自然语言处理——图文x详解.docx_第4页
用Python进行自然语言处理——图文x详解.docx_第5页
已阅读5页,还剩4页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

用Python进行自然语言处理(一)2014.07.27语言计算:文本和单词,NLTK入门首先应该安装NLTK,可以从官网免费下载,按照说明下载适合你的操作系统的版本。安装完NLTK之后,启动IDLE(Python GUI),输入下面两行命令,然后选择book,如图所示:一旦数据nltk_data下载到你的计算机,输入命令加载所有数据,如图所示:搜索文本以下开始介绍研究文本内容的方法,词语索引视图显示一个指定单词的每一次出现,连同上下文一起显示,查一下text1中的monstrous。如图所示:我们可以通过在被查询的文本名后添加函数similar,然后在括号中插入相关的词来查找相似的词。如图所示在这个过程中,你可能会重复输入相似的命令,可以使用快捷键Alt+P,或者将鼠标光标放置在重复的命令行出,然后press键Enter,就会实现重复输入。函数common_contexts允许我们研究两个或两个以上的次共同的上下文,如图所示:判断词在文本中的位置,从文本开头算起在它前面有多少次,这个位置信息可以用离散图表示,可以用来研究随时间推移语言使用上的变化,如图所示:产生一些随机文本,第一次运行此命令时,由于要搜集词序列的统计信息而执行的比较慢,每次运行它,输出的文本都会不同。而当前使用版本却不支持generate()。计数词汇使用len来获取文本从头到尾的长度,如图所示:使用set命令获得text8的词汇表,因为text8的文本长度最新,计算机运行速度较快,所以选择text8作为示例。如图所示:用sorted包裹起表达式set(),我们得到一个词汇项的排序表,这个表以各种标点符号开始,大写单词排在消协单词的前面,如图所示:现在我们队文本词汇丰富度进行测量,下图展示每个字平均被使用了4次,显示浮点除法不可用。计数一个词在文本中出现的次数:计算一个特定的次在文本中占据的百分比:定义新的函数:频率分布使用FreqDist寻找text8中最常见的40个词,通过切片查看这个联邦的前40项,我们可以产生一个这些词汇的累积频率图,使用以下命令产生:细粒度的选择词对于词汇表V中的每一个词w,我们检查其长度是否大于15,所以其他词汇将被忽略。使用以下命令查找所以长度超过7个字符出现次数超过7次的词:词语搭配和双连词要获取搭配,先从提取文本词汇中的词对,也就是双连词,使用函数bigrams实现,使用collocations()找到频繁出现的双连词:计数其他东西查看文本中词长的分布:可以看出该文本包含由1个字符,2个字符,14个字符组成的词,没有超过15个字符以上的词,可以得到长度为6的词出现的频率:回到Python:决策与控制下面是一些用来从文本中选择词汇的运算符的例子,以“ness”结尾的词,包含“ing”的词,完全由数字组成的词:对每个元素进行操作:回到计数词汇的问题,不重复计数像This和this这样

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论