版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
任务七实训:MapReduce编程一、实验目的1.1掌握MapReduce的编程方法二、实验内容2.1在idea中新建一个Maven工程2.2在pom文件中添加依赖添加依赖<dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.9.2</version></dependency>2.3新建一个class命名为WordCount,importorg.apache.hadoop.conf.Configuration;
importorg.apache.hadoop.fs.Path;
importorg.apache.hadoop.io.IntWritable;
importorg.apache.hadoop.io.Text;
importorg.apache.hadoop.mapreduce.Job;
importorg.apache.hadoop.mapreduce.Mapper;
importorg.apache.hadoop.mapreduce.Reducer;
importorg.apache.hadoop.mapreduce.lib.input.FileInputFormat;
importorg.apache.hadoop.mapreduce.lib.input.TextInputFormat;
importorg.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
importorg.apache.hadoop.mapreduce.lib.output.TextOutputFormat;
importjava.io.IOException;
importjava.util.StringTokenizer;publicclassWordCount{
publicstaticclassMyMapperextendsMapper<Object,Text,Text,IntWritable>{
privateTextword=newText();
privatefinalstaticIntWritableone=newIntWritable(1);
@Override
protectedvoidmap(Objectkey,Textvalue,Contextcontext)throwsIOException,InterruptedException{
StringTokenizeritr=newStringTokenizer(value.toString());
while(itr.hasMoreTokens()){
word.set(itr.nextToken());
context.write(word,one);
}
}
}
publicstaticclassMyReducerextendsReducer<Text,IntWritable,Text,IntWritable>{
privateIntWritableresult=newIntWritable();
@Override
protectedvoidreduce(Textkey,Iterable<IntWritable>values,Contextcontext)throwsIOException,InterruptedException{
intsum=0;
for(IntWritableval:values){
sum+=val.get();
}
result.set(sum);
context.write(key,result);
}
}
publicstaticvoidmain(String[]args)throwsIOException,InterruptedException,ClassNotFoundException{
Configurationconf=newConfiguration();
Jobjob=Job.getInstance(conf);
job.setJarByClass(WordCount.class);
job.setJobName("WordCount");
job.setInputFormatClass(TextInputFormat.class);
job.setOutputFormatClass(TextOutputFormat.class);
FileInputFormat.addInputPath(job,newPath(args[0]));
FileOutputFormat.setOutputPath(job,newPath(args[1]));
job.setMapperClass(MyMapper.class);
job.setReducerClass(MyReducer.class);
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(IntWritable.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
job.waitForCompletion(true);
}
}2.4.配置hadoop环境变量Windows本地解压Hadoop压缩包,然后像配置JDK环境变量一样在系统环境变量里配置HADOOP_HOME和path:%HADOOP_HOME\bin%环境变量。注意:hadoop安装目录尽量不要包含空格或者中文字符。2.5.下载hadoop对应版本补丁MapReduce程序在Linux、mac系统中可以直接运行,但无法直接在Windows下运行,因为MapReduce代码在Windows下运行存在bug,需要添加hadoop补丁才可以。Hadoop补丁下载地址:/cdarlint/winutilsHadoop补丁文件为hadoop.dll和winutils.exe。2.6补丁添加hadoop安装目录hadoop补丁文件下载之后,解压,然后将相应版本中的hadoop.dll和winutils.exe补丁文件,拷贝到{HADOOP_HOME}/bin目录下(可能需要重启IDEA)2.6补丁添加windowsc盘目录如果1.3步骤操作完之后,还无法运行MapReduce程序,则需要将hadoop.dll和winutils.exe补丁文件,拷贝
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026年车间主任转生产经理题库
- 清楚的爱只为中国演讲稿
- 仓库操作培训
- 2026年社区就业创业帮扶政策知识竞赛题库
- 2026年电力应急装备实战化测试与验证方案
- 2026年轻松掌握关键知识点的练习题
- 2026年新媒体运营专员招聘抖音DOU投放题
- 2026年乡镇干部耕地保护激励机制专项测试题
- 2026年知识产权侵权纠纷行政裁决流程及调解协议司法确认试题
- 2026年社会心理学基础知识测试题
- 砂石料供应质量控制及保证措施
- 《制药用水检查指南》2026
- 2026年施工现场防汛应急救援预案方案
- 2026年阿里巴巴人才测试题及答案
- 全国税务机关信访工作规则
- 武汉城投公司笔试题库
- 重庆辅警笔试题目及答案
- 2025年江苏信息职业技术学院辅导员招聘备考题库附答案
- 辅警面试100题及答案解析
- 安徽2021-2025真题及答案
- 2025年空间生态农业示范项目可行性研究报告
评论
0/150
提交评论