版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
1、都能顺利在Hadoop安装教程_伪分布式配置_CentOS6.4/Hadoop260CentOS 中安装并运行 Hadoop。环境本教程使用如果用的是Centos 6.4 32Ubuntu 系统,位作为系统环境,请自行安装系统(可参考使用VirtualBox安装CentOS )。请查看相应的 Ubuntu安装Hadoop教程。本教程基于原生 Hadoop 2本,例如Hadoop版本,在Hadoop 2.6.0 (stable)版本下验证通过,可适合任何Hadoop 2.x.y 版Hadoop 2.7.1, Hadoop 2.4.1 等。有两个主要版本,Hadoop 1xy和Hadoop 2xy
2、系列,比较老的教材上用的可能是0.20这样Hadoop 2.x 版本在不断更新,本教程均可适用。如果需安装0.20,1.2.1这样的版本,本教程也Hadoop的版本。可以作为参考,主要差别在于配置项,配置请参考官网教程或其他教程。新版是兼容旧版的,书上旧版本的代码应该能够正常运行(我自己没验证,欢迎验证反馈)。装好了 Centos系统之后,在安装 Hadoo p前还需要做一些必备工作。创建hadoop用户如果你安装CentOS的时候不是用的hadoop用户,那么需要增加一个名为hadoop的用户。首先点击左上角的应用程序”- 系统工具”- 终端”,首先在终端中输入su,按回车,输入 root密
3、码以root用户登录,接着执行命令创建新用户hadoop:su#上述提到的以root用户登录创建新用户hadoopuseradd -m hado op -s /bin/bash #如下图所示,这条命令创建了可以登陆的hadoop用户,并使用/bin/bash作为shell。文件 竊1(E) HCV)踐累 线端(T) W(H)dblgibdbl3b 町$ su密码:rooWdblab dblab# useradd -m hadoop -G root -s /bin/bash rooWdblab dbXab # pas詡d hadoopCentOS创建hadoop用户“hadoop”(密码随意指定
4、,若提示无接着使用如下命令修改密码,按提示输入两次密码,可简单的设为 效的密码,过于简单”则再次输入确认就行):P asswd hado op可为hadoop用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题,执行:visudo如下图,找到root ALL=(ALL) ALL这行(应该在第98行,可以先按一下键盘上的ESC键,然后输入:98(按一下冒号,接着输入98,再按回车键),可以直接跳到第98行),然后在这行下面增加一行内容:hadoopALL=(ALL) ALL (当中的间隔为tab ),如下图所示:dblabdblab:;home/clblab_ 口 KS件(F编寵(
5、E)S畫累端(T)帮肋(H)艸 The COMMANDS section ma/ have other options added to it. 理U Allow root to rum any comniands anywhereroot ALL=CALL)ALLhadoopALL=CALL)ALL 1增加该行内容11 -I -Ir *i*ir 1为hadoop增加sudo权限添加上一行内容后,先按一下键盘上的 ESC键,然后输入:wq (输入冒号还有wq,这是vi/vim编辑器的保 存方法),再按回车键保存退出就可以了。最后注销当前用户(点击屏幕右上角的用户名,选择退出 -注销),在登陆界
6、面使用刚创建的 hadoop用户 进行登陆。(如果已经是 hadoop用户,且在终端中使用 su登录了 root用户,那么需要执行 exit退 出root用户状态)准备工作使用hadoop用户登录后,还需要安装几个软件才能安装Hadoop。Centos使用yum来安装软件,需要联网环境,首先应检查一下是否连上了网络。如下图所示,桌面右 上角的网络图标若显示红叉,则表明还未联网,应点击选择可用网络。检查是否联网连接网络后,需要安装SSH和Java。Linux主机,并且在上面运 打开终端执行如下命令进行检安装SSH、配置SSH无密码登陆集群、单节点模式都需要用到SSH登陆(类似于远程登陆,你可以登
7、录某台行命令),一般情况下,CentOS 默认已安装了 SSH client、SSH server,验:rpm -qa | grep ssh如果返回的结果如下图所示,包含了SSH client跟SSH server,则不需要再安装。 XS件(F)缩辑(E) ie(V)攪萦终端(T)帮肚(H) :hadoopSdblab rpm -qa | g即 sshDpenssTi-flsRpflss-5. 3pl-lll. et6. iSEEDpenssh-5.3pl-Ll. eie, 1636LiDsh2-i.4.2-i. eis s.i.ieseDpenssh-server-E, 3pl-lll. e
8、lG. i6S6若需要安装,则可以通过yum进行安装(安装过程中会让你输入y/N,输入y即可):sudo yum in stall open ssh-clie ntssudo yum in stall open ssh-server接着执行如下命令测试一下SSH是否可用:ssh localhost检查是否安装了 SSH此时会有如下提示(SSH首次登陆提示),输入yes。然后按提示输入密码 hadoop,这样就登陆到本机了。hadoopdblab 宀$ ssh localhostThe authenticity of host localho&t (; : if carV t be establ
9、ished,RSA key fingerprint is 99: 9Q: ab; cf; 1; 75: Ic; 99: 58: fb:艸 加予7 3c; 4b: 63.Are you sure you want to continue connecting (yes/no)?|yes | 训arning! PprEanpnTly arlflnri IfvrflhcEt (RSA) to theOt known hosts.|hadooDlocalhQ5f s i3a5sirfod;测试SSH是否可用但这样登陆是需要每次输入密码的,我们需要配置成SSH无密码登陆比较方便。首先输入exit退出刚才
10、的ssh,就回到了我们原先的终端窗口,然后利用ssh-keygen生成密钥,并将密钥加入到授权中:exit退出刚才的 ssh localhostcd /.ssh/若没有该目录,请先执行一次ssh localhostssh-keyge n -t rsa会有提示,都按回车就可以cat id_rsa. pub authonzed_keys #chmod 600 ./authorized_keys #加入授权修改文件权限的含义在Linux系统中,代表的是用户的主文件夹,即“/home用户名”这个目录,如你的用户名为 hadoop,则就代表 “/home/hadoop/ ”。此外,命令中的 #后面的文字
11、是注释。此时再用ssh localhost命令,无需输入密码就可以直接登陆了,如下图所示。编a(E) li(V)搜索缢S(T)帮肋(H):hddoopdbLab . ssh$ ssh locaLhostLast login: Thu Oct S 19;02:06 2015 from localh&it hadoopdblab J J:hddoopgdblab i exitlogoutConnection to localhcst closed.SSH无密码登录安装Java环境Java环境可选择 Oracle的JDK,或是OpenJDK,现在一般 Linux系统默认安装的基本是如 CentOS
12、6.4 就默认安装了OpenJDK 1.7。按 /hadoop/HadoopJavaVersions说的,Hadoop在OpenJDK 1.7 下运行是没问题的。需要注意的是,CentOS 6.4中默认安装的只是 JRE,而不是JDK,为了开发方便,我们还是需要通过 yum进行安装JDK,安装过程中会让输入 输入y即可:OpenJDK,中Java【y/N,sudo yum in stall java-1.7.0-op enjdk java-1.7.0-op enjdk-devel通过上述命令安装OpenJDK,默认安装位置为/usr/lib/jvm/j
13、ava-1.7.0-openjdk(该路径可以通过执行rpm-ql java-1.7.0-o penjdk-devel | grep /bin/javac命令确定,执行后会输出一个路径,除去路径末尾的“/bin/javac,剩下的就是正确的路径了)。OpenJDK 安装后就可以直接使用java、javac等命令了。接着需要配置一下 JAVA_HOME 环境变量,为方便,我们在 /.bashrc中进行设置(扩展阅读:设置Linux 环境变量的方法和区别):vim /.bashrc在文件最后面添加如下单独一行(指向JDK的安装位置),并保存:export JAVA_HOME二/usr/lib/jv
14、m/java-1.7.0-o penjdk如下图所示:窗口菜单網(日童看也)按索第端(D帮肋但)# .bflskc# Source global definitions 一一 /etc/bashrc ;和憎】 ./etc/bashrcf:# Usg specific aliases anJ functionsE叩心T JAVA-H曲氐/uw/Ub/juiVj孩说己njdk |设置JAVA HOME环境变量接着还需要让该环境变量生效,执行如下代码:source /.bashrc #使变量设置生效设置好后我们来检验一下是否设置正确:echo $JAVA_HOME #检验变量值java -vers
15、ion$JAVA_HOME/bi n/java -version #与直接执行java -version 一样如果设置正确的话,$JAVA_HOME/bin/java -version 会输出java的版本信息,且和java -version 的输出结果一样,如下图所示:戈件旧瀟1(0査看也)搜索终端帮助(d)hadoopdblab s vim -/.bashrchadoopgdblab -$ source -/.bashrcliadooidbbb -Is echo $JAVA_HOHE /isr/lib/j yin/java-1.7.fl-opgnjdk ha,doopdltilab li
16、java -version java version l.y.e sipenJDK Runtime Environmert (rhel-2.B.2.2.eL6 7-i396 u91-b0&)nadoopdblab $ 5JAVA H0ME/bin/java -versionjava version 1.7.e_91-OpenJDK Runtine Environinert rhel-2,&,2,2,el6_7 i30b u91b00)OpenJCK Client VM (build 24.9L-b01i nixed mode, sharing)irsrnrrnrinr成功设置JAVA HOME
17、环境变量这样,HadooP所需的Java运行环境就安装好了。安装 Hadoop 2Hado op 2 可以通过 htt p: / pache/hado op/common/或者下载,本教程选择的是2.6.0 版本,下载时请下载hadoop-2.x.y.tar.gz这个格式的文件,这是编译好的,另一个包含src的则是Hadoop源代码,需要进行编译才可使用。下载时强烈建议也下载hadoo p-2.x.y.tar.gz.mds这个文件,该文件包含了检验值可用于检查Hadoop将无法正常运行。hado op-2.x.y.tar.gz的完整性,否则若文件发生了损坏或下载不完整,本文涉及的文件均通过浏览
18、器下载,默认保存在下载”目录中(若不是请自行更改tar命令的相应目录)。另外,如果你用的不是2.6.0版本,则将所有命令中出现的2.6.0更改为你所使用的版本。列出md5检验值cat / 下载 /hadoo p-2.6.0.tar.gz.mds | grep MD5 #head -n6/下载 /hadoop-2.7.1.tar.gz.mds # 2.7.1版本格式变了,可以用这种方式输出计算md5值,并转化为大写,方便比较md5sum / 下载 /hadoop-2.6.0.tar.gz | tr a-z A-Z #./bin/hado op jar ./share/hado op/ma pre
19、duce/hado op -ma preduce-exam pl es-*.jar gre p ./input ./out pu t dfsa-z.+ X若文件不完整则这两个值一般差别很大,可以简单对比下前几个字符跟后几个字符是否相等即可,如下图 所示,如果两个值不一样,请务必重新下载。S件(F) S辑(E) 1S(V)搜索 终端CT)帮珈H)hadoopedbtdb 下載$ cd 77hadoopSdblab 下载$ rat . /haciooD-5. g” 0. tar, a?, mds I qeD HD5hadoop-2. 6. 0. tar. gz:帼=石瓦71 用 AB 6 3B B
20、3JO gg 57 74 肚r hadnopfirihlAhfi fi tar g? | tr a-?37F3?lFAAB033BB8C2C&5i0100C57740C| 7HAD0P-2,6, TAK GZ检验文件完整性我们选择将 Hadoop安装至/usr/local/ 中:sudo tar -zxf /下载 /hadoo p-26O.tar.gz -C /usr/local #解压到/usr/local 中将文件夹名改为 hadoop修改文件权限cd /usr/local/sudo mv ./hadoo p-2.6.0/ ./hadoo p#sudo chow n -R hado op:
21、hado op ./hado op#Hadoop解压后即可使用。输入如下命令来检查Hadoop是否可用,成功则会显示Hadoop版本信息:cd /usr/local/hado op./bin/hado op version相对路径与绝对路径请务必注意命令中的相对路径与绝对路径,本文后续出现的为相对路径,以 /usr/local/hadoo p 为当前目录。例如在./bin/.,./etc/. 等包含./ 的路径,均/usr/local/hado op 目录中执行./bin/hadoopversion 等同于执行 /usr/local/hado op/bin/hado op version 如果
22、你是在主文件夹中执行./bin/hadoop version就不是我们所想要的了。可以将相对路径改成绝对路径来执行,但,执行的会是/home/hado op/bin/hado op versionHadoop单机配置(非分布式)Hadoop默认模式为非分布式模式,无需进行其他配置即可运行。非分布式即单 试。Java进程,方便进行调现在我们可以执行例子来感受下HadooP的运行。Hadoop附带了丰富的例子(运行 ./bin/hadoopjar ./share/hado op/ma pr educe/hado op-map reduce-exam pl es-2.6.0.jar可以看到所有例子)
23、,包括wordcount、terasort、join、grep 等。在此我们选择运行 grep例子,我们将input文件夹中的所有文件作为输入,筛选当中符合正则表达式dfsa-z.+的单词并统计出现的次数,最后输出结果到out put文件夹中。cd /usr/local/hado opmkdir ./i nputcat ./out put/*#查看运行结果若运行出错,如出现如下图提示:文件迟 輪阖目it(y)S索 绻端 帮助但) 14 19:40:40utiSzti赋0血Lq池: Unable to load nativE-hadoop libdy for ycur pZtfom. using
24、冲白 classes where 即plieble|hadoopdblab hadoop$ ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduc 2-exaiLplEE-* -1 且匚 口EG fnaut QutPiir ,iLf 百15/IZ7I4 iTTWPfB INFD Conriguration-deprecationr session.la is deprecatecrrTnst ead, use dfs.metrics.session-id15/13/14 19:46:40 INFO jvm.JvnHetrics: In
25、itializing JVH Metrics with processNan&15去2/14 19 4牴:40 Info metileMtricsUtil: UnabW to obtain hMtName I 佰汩n盲tUnknwnHa5tFxFption: dbL北:dbXbInptTrptirldrp11 npM nra1 Mnt f TnptirIHrp*;laws* 1运行Hadoop实例时可能会报错若出现提示 “WARN util.NativeCodeLoader: Unable to load native -hado op library for your pl atformus
26、ing builtin- java classes where applicable ,该 WARN 提示可以忽略,不会影响 Hadoop 正常运行(可 通过编译Hadoop源码解决,解决方法请自行搜索)。,这若出现提示 “INFO metrics.MetricsUtil: Unable to obtain hostName .UnknowHostExce ption需要执行如下命令修改hosts文件,为你的主机名增加IP映射:sudo vim /etc/hosts主机名在终端窗口标题里可以看到,或执行命令hostname查看,如下图所示,在最后面增加一行 dblab :文件
27、f)编囿E) MEDUCE=0File Input Format CountersBytes Read=123File Output Fomat CountersBVtS WittEn=23hadoopdblab hadoopis cat ./output/*1 dfsadnin程一菇加亍戒功时的输出信息输出运(亍结臬II-!. A Hadoop例子输出结果注意,Hadoop默认不会覆盖结果文件,因此再次运行上面实例会提示出错,需要先将./out put删除。rm -r ./out putHadoop伪分布式配置Hadoop可以在单节点上以伪分布式的方式运行,NameNode 也作为 Data
28、Node,同时,读取的是HadooP进程以分离的Java进程来运行,节点既作为HDFS中的文件。在设置Hadoop伪分布式配置前,我们还需要设置设置:HADO OP 环境变量,执行如下命令在/.bashrc 中gedit /.bashrc这次我们选择用gedit而不是vim来编辑。gedit是文本编辑器,类似于Windows中的记事本,会比较方便。保存后记得关掉整个gedit程序,否则会占用终端。在文件最后面增加如下内容:# Hado op Environment Variables export HADOOP_HOME二/usr/local/hadoop export HADOOP_INST
29、ALL=$HADOOP_HOME export HADOOP_MA PRED_HOME=$HADOOP_HOME export HADOOP_COMMON_HOME=$HADOOP_HOME export HADOOP_HDFS_HOME=$HADOOP_HOME export YARN_HOME=$HADOOP_HOME export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/ native export P ATH=$ PATH:$HADOOP_HOME/sbi n:$HADOOP_HOME/bin保存后,不要忘记执行如下命令使配置生效:s
30、ource /.bashrc这些变量在启动 Hadoop进程时需要用到,不设置的话可能会报错(这些变量也可以通过修改./etc/hado op/hado op-env.sh实现)。Hado op 的配置文件位于/usr/local/hadoo p/etc/hado op/中,伪分布式需要修改 2个配置文件core-site.xml 和hdfs-site.xml 。Hadoop的配置文件是 xml格式,每个配置以声明property 的name和value的方式来实现。修改配置文件core-site.xml(通过 gedit 编辑会比较方便:gedit ./etc/hadoop/core-sit
31、e.xml),将当中vcon figurati on修改为下面配置:vcon figurati onvprop ertyvn amehado op .tm p. dirv/namevvaluefile:/usr/local/hado op/tm pv/valuevdescri ption Abase for other tem porary directories.v/descri ptionv/prop ertyvprop ertyvn amefs.defaultFSv/namevvaluehdfs:/localhost:9000v/valuev/prop ertyv/c on figura
32、ti on同样的,修改配置文件hdfs-site.xmlvcon figurati onvprop ertyvn amedfs.re plicati onv/n amevvalue1v/valuev/prop ertyvprop ertyvn amedfs .n ame no de. name.dirv/namevvaluefile:/usr/local/hado op/tm p/dfs/namev/valuev/prop ertyvprop ertydfs.data no de.data.dirv/namevvaluefile:/usr/local/hado op/tm p/dfs/data
33、v/valuev/prop erty 配置完成后,执行 NameNode的格式化:./bin/hdfs n ame node -format成功的话,会看到successfully formatted 和 “Exitting with status 0 的提示,若为“Exitting with status 1 ”则是出错。B看也)撐索缮端帮毗(旦)15/12/14 721 士珥 TMFD “価的一計门口呼 毎门耐尺 directory /usr/local/hadoop/tnp/dLi f 5/naiie has beenIsuccessfLilly fornatted. |15/12/14
34、 20:15:25niFirTTOnnnOFSnn5eReteitioriManager: Going to retain 1 ima ges with txld = 015/12/14 20:15:25 TINFO util忌itUtil: Editing with status M20:15:25 IINFO nanenode.NemePo3?r5rnrroHinT5?*y+ *:+ + + 4*+*+ + * t * tf* + + f*t*t*4 + + *t + *SHUTDOWN HSGr Shutting 仙 NameNode at dbLab/127.G.0.1执行NameNo
35、de格式化 接着开启 NaneNode和DataNode守护进程:./sbin /start-dfs.sh若出现如下 SSH 的提示 “Are you sure you want to continue connecting ,输入 yes 即可。hadocpdblabi/usr/local/hadoop文件旧编罔E)置看也)攬萦(S)终端帮射但)starting namenodes on localhostlocalhast: starting nareriDde, logging to /dsr/local/hddoop/logs/hadoop-hadoo卩-n占 menods-dblab
36、.Dutlocalhost: starting datanode, logging to /usr/local/hadoop/logs/hadoop-hadoop-da tanods-dblab.outStarting secondary namenodesThe authenticity of hoist G.0.0.0 fe.e-C.ei cant be established*RA k訓 finqerprLnt is 庞:9:力处陀:何:4了门口11:腑口也4(1:98:8d:71:7e:bie.you 戊 you 阀nt to wntinuE conn凯ting |丫莎/2)?代$|首
37、次启动Hadoop时的SSH提示 启动时可能会有 WARN提示 “WARN util.NativeCodeLoader”如前面提到的,这个提示不会影响正常 使用。启动完成后,可以通过命令jps来判断是否成功启动,若成功启动则会列出如下进程:“ NameNode” ” DataNode和 SecondaryNameNode (如果 SecondaryNameNode 没有启动,请运行sbin/stop-dfs.sh 关闭进程,然后再次尝试启动尝试)。如果没有NameNode 或DataNode ,那就是配置不成功,请仔细检查之前步骤,或通过查看启动日志排查原因。h adoopdblab;/u s
38、r/local/hadoc p戈件(巳编劉日查般 缪端任)稱旳(也NameNodeJpsSeconds ryhaiteNcdeDataNodehadoopdbldb hadoopJS jps13437138331372113563hnrlncrJflHh】 ah h aHnnn 1 i通过jps查看启动的Hadoop进程通过查看启动日志分析启动失败原因有时HadooP无法正确启动,如NameNode进程没有顺利启动, 这时可以查看启动日志来排查原因,注意几点:启动时会提示形女 n“ dblab: starting namenode, logging to/usr/local/hadoop/lo
39、gs/hadoop-hadoop-namenode-dblab.out,其中 dblab 对应你的主机名,但启动的日志信息是记录在 /usr/local/hado op/logs/hado op-hado op-namenode-dblab.log中,所以应该查看这个后缀为.log的文件;每一次的启动日志都是追加在日志文件之后,所以得拉到最后面看,看下记录的时间就知道了。一般出错的提示在最后面,也就是写着Fatal、Error或者Java Exception的地方。可以在网上搜索一下出错信息,看能否找到一些相关的解决方法。成功启动后,可以访问 Web界面 http:/localhost:500
40、70查看 NameNode 和 Datanode 信息,还可以在线查看HDFS中的文件。Namenode information - Mozilla Firefox0 3交件旧编(日Miy)历史半歡也IMli)帑肋固-;Nameno)einforTTiatiwn bblhost;利腑nn 二可Ml iHadoo p Overview Datanodes Snapshot Startup ProgssUtilitiesOvSrviSW lOafO5t:9000 i(acTiive)started:Tue Dec 15 ie:45:31CST2015Venion;2;6,0je3496499ecb
41、Bd22Olbfl99dc5ed4c99c3f9e33bblComp 盹(h20141L-13T2L10Z by jenkinsfrom (detached froimei4m9)Cluster ID:ClD-de36a8Sb-5972.445e-a7e5f7d3e6d4c6fBlock Pool 10;BP-558?91瓯 0427 0QlJ45t)l?Q53796QHadopp的 Web界面运行Hadoop伪分布式实例上面的单机模式,grep例子读取的是本地数据,伪分布式读取的则是HDFS上的数据。要使用 HDFS ,首先需要在HDFS中创建用户目录:./bin/hdfs dfs -mkd
42、ir -p /user/hado op用户,并且已创建相应的用户目录绝对路径就是 /user/hadoo p/in put:/user/hadoo p,因此在命令中就可以使用相对路径如input,其对应的./bi n/hdfs dfs -mkdir input./bin/hdfs dfs -put ./etc/hado op /*.xml input复制完成后,可以通过如下命令查看HDFS 中的文件列表:./bi n/hdfs dfs -ls input接着将./etc/hadoop中的xml文件作为输入文件复制到分布式文件系统中,即将/usr/local/hadoop/etc/hadoop
43、复制到分布式文件系统中的/user/hadoop/input中。我们使用的是 hadoop伪分布式运行 MapReduce 作业的方式跟单机模式相同,区别在于伪分布式读取的是HDFS中的文件(可以将单机步骤中创建的本地inp ut文件夹,输出结果 out put文件夹都删掉来验证这一点)。./bin/hado op jar ./share/hado op/ma preduce/hado op -ma preduce-exam pl es-*.jar gre p input out pu t dfsa-z.+查看运行结果的命令(查看的是位于HDFS中的输出结果):./bin/hdfs dfs -
44、cat out put/*结果如下,注意到刚才我们已经更改了配置文件,所以运行结果不同。hadoopdblab:/jsrZlocal/hadoop袁件旧编a(E)査着凹搜索(S)缪端帮肋(出 hadoopvprop ertyvn amema preduce.framework .n ameyar nv/valuev/prop ertyv/c on figurati on接着修改配置文件yarn-site.xml :vcon figurati onvprop ertyvn ameyarn .no dema nager.aux-servicesv/namevvaluema preduce_shuf
45、nev/valuev/prop ertyv/c on figurati on然后就可以启动YARN 了(需要先执行过./sbin/start-dfs.sh):./sbin /start-yar n.sh$启动YARN./sb in/mr-jobhistory-daem on.sh start historyserver #开启历史服务器,才能在 Web中查看任务运行情况 X开启后通过jps查看,可以看到多了 NodeManager 和ResourceManager 两个后台进程,如下图所示。文件(E)编辑旧 童看M)歸 缪端m帮裁(山hadoapdblab hadoopb ./bin/star
46、t-yarn.shstarting yarn daemonsstarting resourcemanager, logging to /usr/local/hadoopAogs/yarn-hadoop-resource managsr-dblab.out启动y日5的諭出信息tocalhost; starting nodenanager, logging to /usrZLocaVhadoop/togs/yarn-hadocp-n nrlpmflnaqp-dhlflhLnmrlhadoapgdblab hadoop1s jps1税盟应药亟至;:爲 jS乐金n 启动成功后多了 ResourceMa
47、nager NodeMlanager16289勺厉1444& Datariode14665 SecondaryNameNodeknJrhnnarJbh1 nk hrhvJnnn 1 f*开启YARN 启动YARN之后,运行实例的方法还是一样的,仅仅是资源管理方式、任务调度不同。观察日志信息可以发现,不启用 YARN时,是 “mapred.LocalJobRunner ”在跑任务,启用 YARN之后,是“ mapred.YARNRunner ”在跑任务。启动 YARN有个好处是可以通过 Web界面查看任务的运行情况: htt p:/localhost:8088/cluster,如下图所示。./sbin/mr-jobhistory-daem on.sh stop historyserver5 fiiCjESSL淌酬JHGWLECKUD|5b?10叮败仍51064翅旳 naoDop grepsortWFflED虹血瓦It帼価Dec sc
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 会计实习期工作总结
- 会计个人述职报告怎么写
- 三千字军训感言(5篇)
- 医师先进事迹材料
- 书法协会工作计划书(11篇)
- 书法活动宣传的标语(130句)
- 上课打瞌睡检讨书
- 七夕节活动策划方案范文15篇
- 个人的收入证明(6篇)
- 白蚂蚁课件教学课件
- 2023年多媒体应用设计师真题题库总结
- 测电阻的多种方法(修改)
- 基坑边坡支护安全技术交底
- 国开电大《农村社会学》形成考核1答案
- 个人理财课程房产规划课件
- 混凝土浇筑及振捣措施方案
- 《思想道德与法治》 课件 第四章 明确价值要求 践行价值准则
- 施工现场消防安全验收表(总平面布置)
- 小学数学教师家长会ppt
- 君子自强不息课件
- 2022人教版高二英语新教材选择性必修全四册课文原文及翻译(英汉对照)
评论
0/150
提交评论