Hadoop试题库完整_第1页
Hadoop试题库完整_第2页
已阅读5页,还剩31页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1、1. 以下哪一项不属于Hadoop可以运行的模式_CA. 单机(本地)模式B. 伪分布式模式C. 互联模式D. 分布式模式2. Hadoop的作者是下面哪一位_B。A. MartinFowlerB. DougcuttingC. KentBeckD. GraceHopper3. 下列哪个程序通常与NameNode在同一个节点启动_DA. TaskTrackerB. DataNodeC. SecondaryNameNodeD. Jobtracker4. HDFS默认BlockSize的大小是B。A. 32MBB. 64MBC. 128MBD. 256M5. 下列哪项通常是集群的最主要瓶颈C_。A.

2、 CPUB. 网络C. 磁盘IOD. 内存6. 下列关于MapReduce说法不正确的是C_。A. MapReduce是一种计算框架B. MapReduce来源于google的学术论文C. MapReduce程序只能用java语言编写D. MapReduce隐藏了并行计算的细节,方便使用8. HDFS是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性高可扩展性、高吞吐率等特征,适合的读写任务是_D。A一次写入,少次读B多次写入,少次读C多次写入,多次读D一次写入,多次读9. HBase依靠_A存储底层数据。A. HDFSB. HadoopC. MemoryD. MapRed

3、uce10. HBase依赖_D_提供强大的计算能力A. ZookeeperB. ChubbyC. RPCD. MapReduce11. HBase依赖_A_提供消息通信机制A. ZookeeperB. ChubbyC. RPCD. Socket12. 下面与HDFS类似的框架是_C?A. NTFSB. FAT32C. GFSD. EXT313. 关于SecondaryNameNode下面哪项是正确的_C_。A. 它是NameNode的热备B. 它对内存没有要求C. 它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间D. SecondaryNameNode应与NameNo

4、de部署到一个节点14. 大数据的特点不包括下面哪一项_D_。A. 巨大的数据量B. 多结构化数据C. 增长速度快D. 价值密度高HBase测试题1. HBase来源于哪一项?CATheGoogleFileSystemBMapReduceCBigTableDChubby2. 下面对HBase的描述哪些是正确的?B、C、DA不是开源的B是面向列的C是分布式的D是一种NoSQL数据库3. HBase依靠()存储底层数据AAHDFSBHadoopCMemoryDMapReduce4. HBase依赖()提供消息通信机制AAZookeeperBChubbyCRPCDSocket5. HBase依赖()

5、提供强大的计算能力DAZookeeperBChubbyCRPCDMapReduce6. MapReduce与HBase的关系,哪些描述是正确的?B、CA两者不可或缺,MapReduce是HBase可以正常运行的保证B两者不是强关联关系,没有MapReduce,HBase可以正常运行CMapReduce可以直接访问HBaseD它们之间没有任何关系7. 下面哪些选项正确描述了HBase的特性?A、B、C、DA高可靠性B高性能C面向列D可伸缩8. 下面与Zookeeper类似的框架是?DAProtobufBJavaCKafkaDChubby9. 下面与HDFS类似的框架是?CANTFSBFAT32C

6、GFSDEXT310. 下面哪些概念是HBase框架中使用的?A、CAHDFSBGridFSCZookeeperDEXT3第二部分:HBase核心知识点11. LSM含义是?AA日志结构合并树B二叉树C平衡二叉树D基于日志结构的合并树12. 下面对LSM结构描述正确的是?A、CA顺序存储B直接写硬盘C需要将数据Flush到磁盘D是一种搜索平衡树13. LSM更能保证哪种操作的性能?BA读B写C随机读D合并14. LSM的读操作和写操作是独立的?AA是。B否。CLSM并不区分读和写DLSM中读写是同一种操作15. LSM结构的数据首先存储在()。BA硬盘上B内存中C磁盘阵列中D闪存中16 HFi

7、le数据格式中的Data字段用于()°AA存储实际的KeyValue数据B存储数据的起点C指定字段的长度D存储数据块的起点17 HFile数据格式中的Metalndex字段用于()。DAMeta块的长度BMeta块的结束点CMeta块数据内容DMeta块的起始点18 HFile数据格式中的Magic字段用于()°AA存储随机数,防止数据损坏B存储数据的起点C存储数据块的起点D指定字段的长度19 HFile数据格式中的KeyValue数据格式,下列选项描述正确的是()°A、DB没有固定的结构C数据的大小是定长的D有固定的结构20 HFile数据格式中的KeyValu

8、e数据格式中Value部分是()。CA拥有复杂结构的字符串B字符串C二进制数据D压缩数据第三部分:HBase高级应用介绍31HBase中的批量加载底层使用()实现。AAMapReduceBHiveCCoprocessorDBloomFilter32. HBase性能优化包含下面的哪些选项?A、B、C、DA读优化B写优化C配置优化DJVM优化33. Rowkey设计的原则,下列哪些选项的描述是正确的?A、B、CA尽量保证越短越好B可以使用汉字C可以使用字符串D本身是无序的34. HBase构建二级索引的实现方式有哪些?A、BAMapReduceBCoprocessorCBloomFilterDF

9、ilter35. 关于HBase二级索引的描述,哪些是正确的?A、BA核心是倒排表B二级索引概念是对应Rowkey这个"一级”索引C二级索引使用平衡二叉树D二级索引使用LSM结构36. 下列关于BloomFilter的描述正确的是?A、CA是一个很长的二进制向量和一系列随机映射函数B没有误算率C有一定的误算率D可以在BloomFilter中删除元素第四部分:HBase安装、部署、启动37. HBase官方版本可以安装在什么操作系统上?A、B、CACentOSBUbuntuCRedHatDWindows38. HBase虚拟分布式模式需要()个节点?AA1B2C3D最少3个39. HB

10、ase分布式模式最好需要()个节点?CA1B2C3D最少关于hadoop的选择题1、DougCutting所创立的项目的名称都受到其家人的启发,以下项目不是由他创立的项目是AHadoopBNutchCLuceneDSolr答案:D2、配置Hadoop时,JAVA_HOME包含在哪一个配置文件中Ahadoop-default.xmlBhadoop-env.shChadoop-site.xmlDconfiguration.xsl答案:B知识点:hadoop配置3、Hadoop配置文件中,hadoop-site.xml显示覆盖hadoop-default.xml里的内容。在版本0.20中,hadoo

11、p-site.xml被分离成三个XML文件,不包括Aconf-site.xmlBmapred-site.xmlCcore-site.xmlDhdfs-site.xml答案:A知识点:hadoop配置4、HDFS默认的当前工作目录是/user/$USER,的值需要在哪个配置文件内说明A. mapred-site.xmlB. core-site.xmlC. hdfs-site.xmlD. 以上均不是答案:B知识点:hadoop配置5、关于Hadoop单机模式和伪分布式模式的说法,正确的是A两者都起守护进程,且守护进程运行在一台机器上B单机模式不使用HDFS,但加载守护

12、进程C两者都不与守护进程交互,避免复杂性D.后者比前者增加了HDFS输入输出以及可检查内存使用情况答案:D知识点:hadoop配置6、下列关于HadoopAPI的说法错误的是A.Hadoop的文件API不是通用的,只用于HDFS文件系统B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础的CFileStatus对象存储文件和目录的元数据D.FSDataInputStream是java.io.DataInputStream的子类答案:A/HDFS7、HDFS的NameNode负责管理文件系统的命名空间,将所有的文件和文件夹的元数据保存在一个文件系统树中,这些信息也会在

13、硬盘上保存成以下文件:A. 日志B. 命名空间镜像C. 两者都是答案:C知识点:8HDFS的namenode保存了一个文件包括哪些数据块,分布在哪些数据节点上,这些信息也存储在硬盘上。A. 正确B. 错误答案:B知识点:在系统启动的时候从数据节点收集而成的9、Secondarynamenode就是namenode出现问题时的备用节点A正确B错误答案:B知识点:它和元数据节点负责不同的事情。其主要功能就是周期性将元数据节点的命名空间镜像文件和修改日志合并,以防日志文件过大。合并过后的命名空间镜像文件也在Secondarynamenode保存了一份,以防namenode失败的时候,可以恢复。10、

14、出现在datanode的VERSION文件格式中但不出现在namenode的VERSION文件格式中的是A. namespaceIDB. storageIDC. storageTypeD. layoutVersion答案:B知识点:其他三项是公有的°layoutVersion是一负整数,保存了HDFS的持续化在硬盘上的数据结构的格式版本号;namespacelD是文件系统的唯一标识符,是在文件系统初次格式化时生成的;storageType表示此文件夹中保存的是数据节点的类型11、Client在HDFS上进行文件写入时,namenode根据文件大小和配置情况,返回部分datanode信

15、息,谁负责将文件划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块AClientBNamenodeCDatanodeDSecondarynamenode答案:A知识点:HDFS文件写入12、HDFS的是基于流数据模式访问和处理超大文件的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是A次写入,少次读写B多次写入,少次读写C次写入,多次读写D多次写入,多次读写答案:C知识点:HDFS特性13、HDFS无法高效存储大量小文件,想让它能处理好小文件,比较可行的改进策略不包括A利用SequenceF

16、ile、MapFile、Har等方式归档小文件B多Master设计CBlock大小适当调小D调大namenode内存或将文件系统元数据存到硬盘里答案:D知识点:HDFS特性14、关于HDFS的文件写入,正确的是A支持多用户对同一文件的写操作B用户可以在文件任意位置进行修改C默认将文件块复制成三份存放D复制的文件块默认都存在同一机架上答案:C知识点:在HDFS的一个文件中只有一个写入者,而且写操作只能在文件末尾完成,即只能执行追加操作。默认三份文件块两块在同一机架上,另一份存放在其他机架上。15、Hadoopfs中的-get和-put命令操作对象是A文件B目录C两者都是答案:C知识点:HDFS命

17、令16、Namenode在启动时自动进入安全模式,在安全模式阶段,说法错误的是A安全模式目的是在系统启动时检查各个DataNode上数据块的有效性B根据策略对数据块进行必要的复制或删除C当数据块最小百分比数满足的最小副本数条件时,会自动退出安全模式D文件系统允许有修改答案:D知识点:HDFS安全模式/MapReduce17、MapReduce框架提供了一种序列化键/值对的方法,支持这种序列化的类能够在Map和Reduce过程中充当键或值,以下说法错误的是A实现Writable接口的类是值B实现WritableComparable<T>接口的类可以是值或¥建CHadoop的

18、基本类型Text并不实现WritableComparablevT>接口D键和值的数据类型可以超出Hadoop自身支持的基本类型答案:C18、以下四个Hadoop预定义的Mapper实现类的描述错误的是AIdentityMappervK,V>实现MappervK,V,K,V>,将输入直接映射到输出BInverseMappervK,V>实现Mapper<K,V,K,V>,反转键/值对C.RegexMapper<K>实现MappervK,Text,Text,LongWritable>,为每个常规表达式的匹配项生成一个(match,1)对D.Tok

19、enCountMapper<K>实现Mapper<K,Text,Text,LongWritable>,当输入的值为分词时,生成(taken,1)对答案:B知识点:InverseMappervK,V>实现MappervK,V,V,K>19、下列关于HDFS为存储MapReduce并行切分和处理的数据做的设计,错误的是A.FSDataInputStream扩展了DataInputStream以支持随机读B.为实现细粒度并行,输入分片(InputSplit)应该越小越好C. 一台机器可能被指派从输入文件的任意位置开始处理一个分片D.输入分片是一种记录的逻辑划分,而

20、HDFS数据块是对输入数据的物理分割答案:B知识点:每个分片不能太小,否则启动与停止各个分片处理所需的开销将占很大一部分执行时间20、针对每行数据内容为"TimestampUrl"的数据文件,在用JobConf对象conf设置conf.setInputFormat(WhichInputFormat.class)来读取这个文件时,WhichInputFormat应该为以下的A.TextInputFormatBKeyValueTextInputFormatCSequenceFileInputFormatDNLineInputFormat答案:B知识点:四项主要的InputFor

21、mat类。KeyValueTextlnputFormat以每行第一个分隔符为界,分隔符前为key,之后为value,默认制表符为t21、有关MapReduce的输入输出,说法错误的是A链接多个MapReduce作业时,序列文件是首选格式BFileInputFormat中实现的getSplits()可以把输入数据划分为分片,分片数目和大小任意定义C想完全禁止输出,可以使用NullOutputFormatD每个reduce需将它的输出写入自己的文件中,输出无需分片答案:B知识点:分片数目在numSplits中限定,分片大小必须大于mapred.min.size个字节,但小于文件系统的块22、Had

22、oopStreaming支持脚本语言编写简单MapReduce程序,以下是一个例子:bin/hadoopjarcontrib/streaming/hadoop-0.20-streaming.jarinputinput/filenameoutputoutputmapperdosth.py5'filedosth.pyDmapred.reduce.tasks=123、以下说法不正确的是AHadoopStreaming使用Unix中的流与程序交互BHadoopStreaming允许我们使用任何可执行脚本语言处理数据流C采用脚本语言时必须遵从UNIX的标准输入STDIN,并输出到STDOUTDR

23、educe没有设定,上述命令运行会出现问题答案:D知识点:没有设定特殊的reducer,默认使用IdentityReducer24、在高阶数据处理中,往往无法把整个流程写在单个MapReduce作业中,下列关于链接MapReduce作业的说法,不正确的是A.Job和JobControl类可以管理非线性作业之间的依赖BChainMapper和ChainReducer类可以用来简化数据预处理和后处理的构成C使用ChainReducer时,每个mapper和reducer对象都有一个本地JobConf对象DChainReducer.addMapper()方法中,般对键/值对发送设置成值传递,性能好且

24、安全性高答案:D知识点:ChainReducer.addMapper()方法中,值传递安全性高,引用传递性能word可编辑.25, T0B岑谕迦mwHDFSn°mMcdatanodeazameNodeb)J0b1TackerQDatanoded) secondaryNameNodee) task1Tacker26. HDfS£sbockmMAwiA3®a)3空b)2空C)1空dpFsffl27NameNode亩7寸处ms?mMDa)secondaryNameNodeboataNodeQTaskTrackerd)J0b1Tackerword凹舒曲28Hadoop斋#

25、mMCDougcuttinga) MallinFoworb) Ken1:Beckc) Dougcutting29.HDFSwiABockSizemM-a) 32MBb) 64MBC)128MBanpub) 国皤c) mIods划3LxtHHSecondaryNameNodes®IEss7mMcword凹舒曲a) 它是NameNode的热备b) 它对内存没有要求c) 它的目的是帮助NameNode合并编辑日志,减少NameNode启动时间d) SecondaryNameNode应与NameNode部署到一个节点。多选题:1. 下列哪项可以作为集群的管理?答案:ABDa) Puppetb

26、) Pdshc) ClouderaManagerd) Zookeeper2. 配置机架感知的下面哪项正确:答案ABCa) 如果一个机架出问题,不会影响数据读写b) 写入数据的时候会写到不同机架的DataNode中c) MapReduce会根据机架获取离自己比较近的网络数据3. Client端上传文件的时候下列哪项正确?答案Ba) 数据经过NameNode传递给DataNodeb) Client端将文件切分为Block,依次上传word可编辑.Qc-ieni汨斤塔甫曲>DataNode、浣讪田NameNode$lwBockws47|5_->®HadoopHIGsm-mMABCa) -B富bsitC)J45coudera矍WU肃牌CDH3盖?mM-ARDanouderam

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论