![2023年hadoop常见笔试题答案_第1页](http://file4.renrendoc.com/view/30069ac8fe414808f320d1e9cc67d7b6/30069ac8fe414808f320d1e9cc67d7b61.gif)
![2023年hadoop常见笔试题答案_第2页](http://file4.renrendoc.com/view/30069ac8fe414808f320d1e9cc67d7b6/30069ac8fe414808f320d1e9cc67d7b62.gif)
![2023年hadoop常见笔试题答案_第3页](http://file4.renrendoc.com/view/30069ac8fe414808f320d1e9cc67d7b6/30069ac8fe414808f320d1e9cc67d7b63.gif)
![2023年hadoop常见笔试题答案_第4页](http://file4.renrendoc.com/view/30069ac8fe414808f320d1e9cc67d7b6/30069ac8fe414808f320d1e9cc67d7b64.gif)
![2023年hadoop常见笔试题答案_第5页](http://file4.renrendoc.com/view/30069ac8fe414808f320d1e9cc67d7b6/30069ac8fe414808f320d1e9cc67d7b65.gif)
版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
Hadoop测试题一.填空题,1分(41空),2分(42空)共125分(每空1分)datanode负责HDFS数据存储。(每空1分)HDFS中的block默认保存3份。(每空1分)ResourceManager程序通常与NameNode在一个节点启动。(每空1分)hadoop运营的模式有:单机模式、伪分布模式、完全分布式。(每空1分)Hadoop集群搭建中常用的4个配置文献为:core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml。(每空2分)HDFS将要存储的大文献进行分割,分割后存放在既定的存储块中,并通过预先设定的优化解决,模式对存储的数据进行预解决,从而解决了大文献储存与计算的需求。(每空2分)一个HDFS集群涉及两大部分,即namenode与datanode。一般来说,一个集群中会有一个namenode和多个datanode共同工作。(每空2分)namenode是集群的主服务器,重要是用于对HDFS中所有的文献及内容数据进行维护,并不断读取记录集群中datanode主机情况与工作状态,并通过读取与写入镜像日记文献的方式进行存储。(每空2分)datanode在HDFS集群中担任任务具体执行角色,是集群的工作节点。文献被提成若干个相同大小的数据块,分别存储在若干个datanode上,datanode会定期向集群内namenode发送自己的运营状态与存储内容,并根据namnode发送的指令进行工作。(每空2分)namenode负责接受客户端发送过来的信息,然后将文献存储位置信息发送给client,由client直接与datanode进行联系,从而进行部分文献的运算与操作。(每空1分)block是HDFS的基本存储单元,默认大小是128M。(每空1分)HDFS还可以对已经存储的Block进行多副本备份,将每个Block至少复制到3个互相独立的硬件上,这样可以快速恢复损坏的数据。(每空2分)当客户端的读取操作发生错误的时候,客户端会向namenode报告错误,并请求namenode排除错误的datanode后,重新根据距离排序,从而获得一个新的的读取途径。假如所有的datanode都报告读取失败,那么整个任务就读取失败。(每空2分)对于写出操作过程中出现的问题,FSDataOutputStream并不会立即关闭。客户端向Namenode报告错误信息,并直接向提供备份的datanode中写入数据。备份datanode被升级为首选datanode,并在其余2个datanode中备份复制数据。NameNode对错误的DataNode进行标记以便后续对其进行解决。(每空1分)格式化HDFS系统的命令为:hdfsnamenode–format。(每空1分)启动hdfs的shell脚本为:start-dfs.sh。(每空1分)启动yarn的shell脚本为:start-yarn.sh。(每空1分)停止hdfs的shell脚本为:stop-dfs.sh。(每空1分)hadoop创建多级目录(如:/a/b/c)的命令为:hadoopfs–mkdir–p/a/b/c。(每空1分)hadoop显示根目录命令为:hadoopfs–lsr。(每空1分)hadoop包含的四大模块分别是:Hadoopcommon、HDFS、Mapreduce、yarn。(每空1分)namenode默认的WebUI访问端标语为:50070。(每空1分)ResourceManager默认的WebUI访问端标语为:8088。(每空1分)historyServer默认的WebUI访问端标语为:19888。(每空1分)修改blocksize大小的属性是:dfs.blocksize,在hdfs-site.xml配置文献里。(每空1分)HDFS中namenode的RPC端标语为:8021,其作用是:接受Client连接的RPC端口,用于获取文献系统metadata信息。(每空2分)Mapper类中有4个函数。(每空1分)默认NameNode周期性从DataNode接受心跳信号的时间间隔为:3s。(每空1分)hadoop集群默认机架感知是启用的。是否对的:错误。(每空2分)HadoopMap/ReduceShuffle过程:inputsplit-->map函数—>内存缓冲区Partitionsortcombinespill-->map端merge-->reduce端copy—>mergereduce函数。(每空2分)一个NodeManager可以同时运营最大reduce任务数(默认):2。(每空2分)默认情况下,一个同时运营了namenode,secondarynamenode和ResourceManager的主节点,所使用的内存容量为3000M。(每空2分)Hadoop集群中有三种作业调度HYPERLINK""\o"算法与数据结构知识库"\t"_blank"算法,分别为FIFO调度,计算能力调度和公平调度。(每空1分)HA产生的背景是:为了解决单NN也许出现宕机导致集群不可用或数据丢失的问题。(每空1分)通过Zookeeper管理两个或者多个NameNode,使一个NameNode为active状态,并且同步每个NN的元数据,假如active状态的NN宕机后立即启用状态为standby状态的备用节点。(每空1分)job是客户端需要执行的一个工作单元。(每空1分)Hadoop将作业提成若干个task来执行,其中涉及:maptask和reducetask。(每空2分)combiner是通过Reducer类来定义的。(每空2分)map任务将其输出写入到本地磁盘。(每空2分)reduce的输出通常存储在HDFS中以实现可靠存储。(每空2分)HDFS会对写入的所有数据计算校验和,并在读取数据时验证校验和。(每空2分)序列化用于分布式数据解决的两大领域为:进程间通信和永久存储。(每空2分)hadoop使用自己的序列化格式为:Writable。二.简答题,3分(17题),5分(5题)共75分(3分)简要描述如何安装配置apache的一个开源hadoop,只描述即可,无需列出具体环节,列出具体环节更好。答:1使用root账户登录2修改IP3修改host主机名4配置SSH免密码登录5关闭防火墙6安装JDK7解压hadoop安装包8配置hadoop的核心文献hadoop-env.sh,core-site.xml,mapred-site.xml,hdfs-site.xml9配置hadoop环境变量10格式化hadoopnamenode-format11启动节点start-all.sh(3分)请列出正常的hadoop集群中hadoop都分别需要启动哪些进程,他们的作用分别都是什么,请尽量列的具体一些。答:namenode:管理集群,存储数据的原信息,并管理记录datanode中的文献信息。secondarynamenode:它是namenode的一个快照,会根据configuration中设立的值来ﻫ
决定多少时间周期性的去cp一下namenode,记录namenode中的metadata及其它数据。Datanode:存储数据ResourceManager:ResourceManager负责集群中所有资源的统一管理和分派,它接受来自各个节点(NodeManager)的资源报告信息,并把这些信息按照一定的策略分派给各个应用程序(事实上是ApplicationManager)NodeManager:是YARN中每个节点上的代理,它管理HYPERLINK""\o"Hadoop知识库"\t"_blank"Hadoop集群中单个计算节点ﻩﻩ(3分)请写出以下的shell命令ﻩ(1)杀死一个job(2)删除hdfs上的/tmp/aaa目录(3)加入一个新的存储节点和删除一个节点需要执行的命令答:(1)mapredjob-list得到job的id,然后执行mapredjob–killjobId就可以杀死一个指定jobId的job工作了。(2)hadoopfs-rmr/tmp/aaa或者hdfsdfs–rmr/tmp/aaa(3)增长一个新的节点在新的节点上执行ﻩ hadoop-daemon.shstartdatanode 然后在主节点中执行hdfsdfsadmin-refreshNodesﻩ删除一个节点的时候,只需要在主节点执行hdfsdfsadmin–refreshnodes(3分)请简述mapreduce中的combine和partition的作用答:combiner是发生在map的最后一个阶段,其原理也是一个小型的reducer,重要作用是减少输出到reduce的个数,减少reducer的输入,提高reducer的执行效率。Partition的重要作用就是指定输出到reduce的个数的。(3分)hdfs的体系结构答:HDFS采用了主从(Master/Slave)结构模型,一个HDFS集群是由一个NameNode和若干个DataNode组成的。其中NameNode作为主服务器,管理文献系统的命名空间和客户端对文献的访问操作;集群中的DataNode管理存储的数据(3分)三个datanode中当有一个datanode出现错误时会如何?答:当有一个datanode出现错误的时候,namenode会将那个datanode上的数据拷贝到其他的节点去进行存储。(3分)文献大小默认为64M,改为128M有什么影响?答:更改文献的block块大小,需要根据我们的实际生产中来更改block的大小,假如block定义的太小,大的文献都会被切提成太多的小文献,减慢用户上传效率,假如block定义的太大,那么太多的小文献也许都会存到一个block块中,虽然不浪费硬盘资源,可是还是会增长namenode的管理内存压力。(3分)NameNode与SecondaryNameNode的区别与联系?答:secondaryNameNode更像是Namenode的一个冷备份,当namenode宕机之后,可以从SecondaryNamenode上面恢复部分数据。(5分)在一个运营的hadoop任务中,什么是InputSplit?答:InputSplit是MapReduce对文献进行解决和运算的输入单位,只是一个逻辑概念,每个InputSplit并没有对文献实际的切割,只是记录了要解决的数据的位置(涉及文献的path和hosts)和长度(由start和length决定),默认情况下与block同样大。(3分)参考下列M/R系统的场景:hdfs块大小为64MB,输入类为FileInputFormat,有3个文献的大小分别为64KB,65MB,127MB,Hadoop框架会把这些文献拆分为多少块?答:64k------->一个block65MB---->两个文献:64MB是一个block,1MB是一个block127MB--->两个文献:64MB是一个block,63MB是一个block(5分)hadoop中RecordReader的作用是什么?答:RecorderReader是一个接口,重要是用来读取文献的输入键值对的,我们也可以自定义输入的key,value对的读取规则。属于split和mapper之间的一个过程,将inputsplit输出的行为一个转换记录,成为key-value的记录形式提供应mapper(3分)Map阶段结束后,Hadoop框架会解决:Partitioning,Shuffle和Sort,在这几个阶段都发生了什么?答:Partition是对输出的key,value进行分区,可以自定义分区,按照业务需求,将map的输出归分到多个不同的文献中 将map的输出作为输入传给reducer称为shuffleﻩsort是排序的过程,将map的输出,作为reduce的输入之前,我们可以自定义排序,按照key来对map的输出进行排序(5分)假如没有定义partitioner,那数据在被送达reducer前是如何被分区的?答:Partitioner是在map函数执行context.write()时被调用。用户可以通过实现自定义的Partitioner来控制哪个key被分派给哪个Reducer。hadoop有一个默认的分区类,HashPartioer类,通过对输入的k2去hash值来确认map输出的k2,v2送到哪一个reduce中去执行。(3分)什么是combiner?答:combiner就是规约操作,通过对map输出的数量进行规约,可以减少reduce的数量,提高执行效率。combiner的输入输出类型必须和mapper的输出以及reducer的输入类型一致(3分)分别举例什么情况要使用combiner,什么情况不使用?答:求平均数的时候就不需要用combiner,由于不会减少reduce执行数量。在其他的时候,可以依据情况,使用combiner,来减少map的输出数量,减少拷贝到reduce的文献,从而减轻reduce的压力,节省网络开销,提高执行效率(5分)简述Hadoop中replication(复本)放置策略?答:Hadoop的默认布局策略是在运营客户端的节点上放第一个复本;第二个复本放在与第一个不同且随机此外选择的机架中的节点上(离架);第三个复本与第二个复本放在同一个机架上,且随机选择另一个节点。(5分)如何为一个hadoop任务设立mappers的数量?答:map的数量通常是由hadoop集群的DFS块大小拟定的,也就是输入文献的总块数,正常的map数量的并行规模大体是每一个Node是10~100个,对于CPU消耗较小的作业可以设立Map数量为300个左右,但是由于hadoop的没一个任务在初始化时需要一定的时间,因此比较合理的情况是每个map执行的时间至少超过1分钟。具体的数据分片是这样的,InputFormat在默认情况下会根据hadoop集群的DFS块大小进行分片,每一个分片会由一个map任务来进行解决,当然用户还是可以通过参数mapred.min.split.size参数在作业提交客户端进行自定义设立。尚有一个重要参数就是mapred.map.tasks,这个参数设立的map数量仅仅是一个提醒,只有当InputFormat决定了map任务的个数比mapred.map.tasks值小时才起作用。同样,Map任务的个数也能通过使用JobConf的conf.setNumMapTasks(intnum)方法来手动地设立。这个方法可以用来增长map任务的个数,但是不能设定任务的个数小于Hadoop系统通过度割输入数据得到的值。当然为了提高集群的并发效率,可以设立一个默认的map数量,当用户的map数量较小或者比自身自动分割的值还小时可以使用一个相对交大的默认值,从而提高整体had
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2025年个体工商户雇佣合同(2篇)
- 2025年人才培训劳动合同样本(2篇)
- 通信协议接口
- 2025年五金零部件购销合同(2篇)
- 2025年中医用工合同(三篇)
- 2025年交通事故处理赔偿合同(2篇)
- 武术馆装修施工合同协议书
- 2025年度安全信息共享与协同服务协议
- 植物园装修设计合同范本
- 医疗器械无尘车间装修合同
- 2025版茅台酒出口业务代理及销售合同模板4篇
- 2025年N1叉车司机考试试题(附答案)
- 《医院财务分析报告》课件
- 2024安全事故案例
- 2024年考研政治试题及答案
- 2024-2025学年人教版数学六年级上册 期末综合卷(含答案)
- 天津市部分区2023-2024学年高二上学期期末考试 物理 含解析
- 2025年初级社会工作者综合能力全国考试题库(含答案)
- 2024年潍坊护理职业学院单招职业适应性测试题库附答案
- 《钳工基本知识》课件
- 第八期:风电典型事故案例剖析(二)
评论
0/150
提交评论