hadoop的运行环境配置_第1页
hadoop的运行环境配置_第2页
hadoop的运行环境配置_第3页
hadoop的运行环境配置_第4页
hadoop的运行环境配置_第5页
已阅读5页,还剩12页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

基于Hadoop平台的并行编程实践李东秀内容介绍熟悉hadoop配置环境搭建实验平台编写(矩阵相乘)运算的map,reduce函数在hadoop实验平台上实现配置计算环境:1个Master、3个Slave的Hadoop集群Apache软件基金会下的一个开源分布式计算平台以Hadoop的HDFS和MapReduce为核心的Hadoop为用户提供了系统底层细节透明的分布式基础架构。对于Hadoop的集群来讲,可以分成两大类角色:Master和Salve。一个HDFS集群是由一个NameNode和若干个DataNode组成的。MapReduce框架是由一个单独运行在主节点上的JobTracker和运行在每个集群从节点的TaskTracker共同组成的。1.1Hadoop简介HDFS在MapReduce任务处理过程中提供了文件操作和存储等支持,MapReduce在HDFS的基础上实现了任务的分发、跟踪、执行等工作,并收集结果,二者相互作用,完成了Hadoop分布式集群的主要任务。集群中包括4个节点:1个Master,3个Salve,节点IP地址分布如下:

localhost

20

ubuntu1

21

ubuntu2

22

ubuntu3

23

ubuntu4

1.2环境说明1.3hadoop的主从节点结构分解2.1在所有的机器上建立相同的用户对每个系统进行系统名和ip地址的配置必须在所有的机器上建立相同的用户,设置每个系统的ip地址。2.2配置NameNode和DataNode配置hosts文件修改每台机器的/etc/hosts(包括namenode和datanode))

localhost

20

ubuntu1

21

ubuntu2

22

ubuntu3

23

ubuntu42环境说明和安装配置SSH2.2安装配置SSH安装和启动SSH协议yuminstallssh安装SSH协议yuminstallrsyncservicesshdrestart启动服务

配置Master无密码登录所有SalveHadoop运行过程中需要管理远端Hadoop守护进程,在Hadoop启动以后,NameNode是通过SSH来启动和停止各个DataNode上的各种守护进程的。SSH安装配置这就必须在节点之间执行指令的时候是不需要输入密码的形式,故我们需要配置SSH运用无密码公钥认证的形式,这样NameNode使用SSH无密码登录并启动DataName进程,同样原理,DataNode上也能使用SSH无密码登录到NameNode。在用户目录下建立ssh的安装目录,之后设置权限Master机器上生成无密码密码对,追加权限注意:目录要设成700有执行权限

authorized_keys要设成600否则会出错

还有ssh登陆要加入用户名的SSH配置用root用户登录服务器修改SSH配置文件/etc/ssh/sshd_config,无密码登录本级已经设置完毕,接下来的事儿是把公钥复制所有的Slave机器上配置所有Slave无密码登录Master和Master无密码登录所有Slave原理一样,就是把Slave的公钥追加到Master的".ssh"文件夹下的"authorized_keys"中这样就建立了Master和Slave之间的无密码验证相互登录SSH配置安装jdk1.6.45环境变量配置编辑"/etc/profile"文件,在后面添加Java的"JAVA_HOME"、"CLASSPATH"以及"PATH"内容。exportJAVA_HOME=/usr/java/jdk1.6.0_31exportCLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/libexportPATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin使配置生效

(重要)source/etc/profile验证

Slave安装jdk:Master下的JDK复制到其他Slave的/home/hadoop/下面剩下的事儿就是在其余的Slave服务器上按照步骤安装JDK。3jdk安装配置首先在namenode上配置,配置后在分发到datanode上在“/usr/hadoop”下面创建tmp文件夹安装

把"/usr/hadoop"读权限分配给hadoop用户配置hadoop配置hadoop-env.sh使得能够找到java的路径exportHADOOP_HOME=/usr/hadoopexportJAVA_HOME=/usr/java/jdk1.6.0_29

4Hadoop集群安装配置配置文件也被分成了三个core-site.xml、hdfs-site.xml、mapred-site.xml。修改Hadoop核心配置文件core-site.xml,这里配置的是HDFS的地址和端口号。修改Hadoop中HDFS的配置hdfs-site.xml。(就是Slave的台数默认3个)修改Hadoop中MapReduce的配置文件mapred-site.xml,配置的是JobTracker的地址和端口。4.1配置文件配置masters文件

第一种:修改localhost为Master.Hadoop第二种:去掉"localhost",加入Master机器的IP:21配置slaves文件(Master主机特有)第一种:去掉"localhost",每行只添加一个主机名,把剩余的Slave主机名都填上。第二种:去掉"localhost",加入集群中所有Slave机器的IP,也是每行一个。

4.1配置文件现在在Master机器上的Hadoop配置就结束了,剩下的就是配置Slave机器上的Hadoop。一种方式是按照上面的步骤,把Hadoop的安装包在用普通用户hadoop通过"scp"复制到其他机器的"/home/hadoop"目录下,然后根据实际情况进行安装配置另一种方式是将Master上配置好的hadoop所在文件夹"/usr/hadoop"复制到所有的Slave的"/usr"目录下4.2配置Slave机器上的Hadoop格式化HDFS文件系统只需一次,下次启动不再需要格式化启动hadoop(启动前关闭所有机器的防火墙)可以一次全部启动所有的节点serviceiptablesstopstart-all.sh或是分别启动namenode、datanode、tasktracker、secondarynamenode、jobtracker验证hadoop4.3Hadoop启动及验证用"hadoopdfsadmin-report"查看Hadoop集群的状态。网页查看集群访问"http:20:50030“mapreduce的web页面访问"http:20:50070"hdfs的web页面4.4网

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论