wordcount计算每个单词的数量_第1页
wordcount计算每个单词的数量_第2页
wordcount计算每个单词的数量_第3页
wordcount计算每个单词的数量_第4页
wordcount计算每个单词的数量_第5页
已阅读5页,还剩3页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

计算每个单词出现的次数任务:在100M的数据量中,使用算子计算出每个单词出现的次数(在Spark的应用场景中)实现代码第一步:创建SparkConf对象,设置Spark引用的配置信息,使用setMaster()SparkConfconf=newSparkConf().setAppName("WordCountLocal").setMaster("local");第二步:创建JavaSparkContext对象,在Spark中,SparkContxt是Spark所有功能的一个入口,JavaSparkContextsc=newJavaSparkContext(conf);第三步:要输入源,创建一个初始化的RDD,输入源中的数据会被打散,分配到RDD的每个partition中,从而形成了一个初始的分布式的数据Ja集,我们这里呢,因为是本地测试,就是针对本地文件。JavaRDD<String>lines=sc.textFile("E://data/wordcount.txt");第四步:对初始化RDD进行transformation操作,也就是一些计算操作。JavaRDD<String>words=lines.flatMap(newFlatMapFunction<String,String>(){ publicIterable<String>call(Stringline)throwsException{ returnArrays.asList(line.split("")); }});JavaPairRDD<String,Integer>pairs=words.mapToPair(newPairFunction<String,String,Integer>(){ publicTuple2<String,Integer>call(Stringword)throwsException{ returnnewTuple2<String,Integer>(word,1); }});接着,需要已单词作为key,统计每个单词出现的次数JavaPairRDD<String,Integer>wordcounts=pairs.reduceByKey(newFunction2<Integer,Integer,Integer>(){publicIntegercall(Integerv1,Integerv2)throwsException{ returnv1+v2; }});

到这里为止,我们已经通过几个算子操作,已经统计出了单词的次数wordcounts.foreach(newVoidFunction<Tuple2<String,Integer>>(){publicvoidcall(Tuple2<String,Integer>wordcount)throwsException{ System.out.println

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论