2023年Hadoop试题试题库完整_第1页
2023年Hadoop试题试题库完整_第2页
2023年Hadoop试题试题库完整_第3页
2023年Hadoop试题试题库完整_第4页
2023年Hadoop试题试题库完整_第5页
已阅读5页,还剩18页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

1.以下哪一项不属于Hadoop可以运营的模式___C___。A.单机(本地)模式B.伪分布式模式C.互联模式D.分布式模式2.Hadoop的作者是下面哪一位__B____。A.MartinFowlerB.DougcuttingC.KentBeckD.GraceHopper3.下列哪个程序通常与NameNode在同一个节点启动__D___。A.TaskTrackerB.DataNodeC.SecondaryNameNodeD.Jobtracker4.HDFS默认BlockSize的大小是___B___。A.32MBB.64MBC.128MBD.256M5.下列哪项通常是集群的最重要瓶颈____C__。A.CPUB.网络C.磁盘IOD.内存6.下列关于MapReduce说法不对的的是_____C_。A.MapReduce是一种计算框架B.MapReduce来源于google的学术论文C.MapReduce程序只能用java语言编写D.MapReduce隐藏了并行计算的细节,方便使用8.HDFS是基于流数据模式访问和解决超大文献的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特性,适合的读写任务是__D____。A.一次写入,少次读B.多次写入,少次读C.多次写入,多次读D.一次写入,多次读9.HBase依靠__A____存储底层数据。A.HDFSB.HadoopC.MemoryD.MapReduce10.HBase依赖___D___提供强大的计算能力。A.ZookeeperB.ChubbyC.RPCD.MapReduce11.HBase依赖___A___提供消息通信机制A.ZookeeperB.ChubbyC.RPCD.Socket12.下面与HDFS类似的框架是___C____?A.NTFSB.FAT32C.GFSD.EXT313.关于SecondaryNameNode下面哪项是对的的___C___。A.它是NameNode的热备B.它对内存没有规定C.它的目的是帮助NameNode合并编辑日记,减少NameNode启动时间D.SecondaryNameNode应与NameNode部署到一个节点14.大数据的特点不涉及下面哪一项___D___。A.巨大的数据量B.多结构化数据C.增长速度快D.价值密度高HBase测试题1.HBase来源于哪一项?CATheGoogleFileSystemBMapReduceCBigTableDChubby2.下面对HBase的描述哪些是对的的?B、C、DA不是开源的B是面向列的C是分布式的D是一种NoSQL数据库3.HBase依靠()存储底层数据AAHDFSBHadoopCMemoryDMapReduce4.HBase依赖()提供消息通信机制AAZookeeperBChubbyCRPCDSocket5.HBase依赖()提供强大的计算能力DAZookeeperBChubbyCRPCDMapReduce6.MapReduce与HBase的关系,哪些描述是对的的?B、CA两者不可或缺,MapReduce是HBase可以正常运营的保证B两者不是强关联关系,没有MapReduce,HBase可以正常运营CMapReduce可以直接访问HBaseD它们之间没有任何关系7.下面哪些选项对的描述了HBase的特性?A、B、C、DA高可靠性B高性能C面向列D可伸缩8.下面与Zookeeper类似的框架是?DAProtobufBJavaCKafkaDChubby9.下面与HDFS类似的框架是?CANTFSBFAT32CGFSDEXT310.下面哪些概念是HBase框架中使用的?A、CAHDFSBGridFSCZookeeperDEXT3第二部分:HBase核心知识点11.LSM含义是?AA日记结构合并树B二叉树C平衡二叉树D基于日记结构的合并树12.下面对LSM结构描述对的的是?A、CA顺序存储B直接写硬盘C需要将数据Flush到磁盘D是一种搜索平衡树13.LSM更能保证哪种操作的性能?BA读B写C随机读D合并14.LSM的读操作和写操作是独立的?AA是。B否。CLSM并不区分读和写DLSM中读写是同一种操作15.LSM结构的数据一方面存储在()。BA硬盘上B内存中C磁盘阵列中D闪存中16HFile数据格式中的Data字段用于()。AA存储实际的KeyValue数据B存储数据的起点C指定字段的长度D存储数据块的起点17HFile数据格式中的MetaIndex字段用于()。DAMeta块的长度BMeta块的结束点CMeta块数据内容DMeta块的起始点18HFile数据格式中的Magic字段用于()。AA存储随机数,防止数据损坏B存储数据的起点C存储数据块的起点D指定字段的长度19HFile数据格式中的KeyValue数据格式,下列选项描述对的的是()。A、DA是byte[]数组B没有固定的结构C数据的大小是定长的D有固定的结构20HFile数据格式中的KeyValue数据格式中Value部分是()。CA拥有复杂结构的字符串B字符串C二进制数据D压缩数据第三部分:HBase高级应用介绍31HBase中的批量加载底层使用()实现。AAMapReduceBHiveCCoprocessorDBloomFilter32.HBase性能优化包含下面的哪些选项?A、B、C、DA读优化B写优化C配置优化DJVM优化33.Rowkey设计的原则,下列哪些选项的描述是对的的?A、B、CA尽量保证越短越好B可以使用汉字C可以使用字符串D自身是无序的34.HBase构建二级索引的实现方式有哪些?A、BAMapReduceBCoprocessorCBloomFilterDFilter35.关于HBase二级索引的描述,哪些是对的的?A、BA核心是倒排表B二级索引概念是相应Rowkey这个“一级”索引C二级索引使用平衡二叉树D二级索引使用LSM结构36.下列关于BloomFilter的描述对的的是?A、CA是一个很长的二进制向量和一系列随机映射函数B没有误算率C有一定的误算率D可以在BloomFilter中删除元素第四部分:HBase安装、部署、启动37.HBase官方版本可以安装在什么操作系统上?A、B、CACentOSBUbuntuCRedHatDWindows38.HBase虚拟分布式模式需要()个节点?AA1B2C3D最少3个39.HBase分布式模式最佳需要()个节点?CA1B2C3D最少关于hadoop的选择题1、DougCutting所创建的项目的名称都受到其家人的启发,以下项目不是由他创建的项目是A.HadoopB.NutchC.LuceneD.Solr答案:D2、配置Hadoop时,JAVA_HOME包含在哪一个配置文献中A.hadoop-default.xmlB.hadoop-env.shC.hadoop-site.xmlD.configuration.xsl答案:B知识点:hadoop配置3、Hadoop配置文献中,hadoop-site.xml显示覆盖hadoop-default.xml里的内容。在版本0.20中,hadoop-site.xml被分离成三个XML文献,不涉及A.conf-site.xmlB.mapred-site.xmlC.core-site.xmlD.hdfs-site.xml答案:A知识点:hadoop配置4、HDFS默认的当前工作目录是/user/$USER,fs.default.name的值需要在哪个配置文献内说明A.mapred-site.xmlB.core-site.xmlC.hdfs-site.xmlD.以上均不是答案:B知识点:hadoop配置5、关于Hadoop单机模式和伪分布式模式的说法,对的的是A.两者都起守护进程,且守护进程运营在一台机器上B.单机模式不使用HDFS,但加载守护进程C.两者都不与守护进程交互,避免复杂性D.后者比前者增长了HDFS输入输出以及可检查内存使用情况答案:D知识点:hadoop配置6、下列关于HadoopAPI的说法错误的是A.Hadoop的文献API不是通用的,只用于HDFS文献系统B.Configuration类的默认实例化方法是以HDFS系统的资源配置为基础的C.FileStatus对象存储文献和目录的元数据D.FSDataInputStream是java.io.DataInputStream的子类答案:A//HDFS7、HDFS的NameNode负责管理文献系统的命名空间,将所有的文献和文献夹的元数据保存在一个文献系统树中,这些信息也会在硬盘上保存成以下文献:A.日记B.命名空间镜像C.两者都是答案:C知识点:8、HDFS的namenode保存了一个文献涉及哪些数据块,分布在哪些数据节点上,这些信息也存储在硬盘上。A.对的B.错误答案:B知识点:在系统启动的时候从数据节点收集而成的9、Secondarynamenode就是namenode出现问题时的备用节点A.对的B.错误答案:B知识点:它和元数据节点负责不同的事情。其重要功能就是周期性将元数据节点的命名空间镜像文献和修改日记合并,以防日记文献过大。合并过后的命名空间镜像文献也在Secondarynamenode保存了一份,以防namenode失败的时候,可以恢复。10、出现在datanode的VERSION文献格式中但不出现在namenode的VERSION文献格式中的是A.namespaceIDB.storageIDC.storageTypeD.layoutVersion答案:B知识点:其他三项是公有的。layoutVersion是一个负整数,保存了HDFS的连续化在硬盘上的数据结构的格式版本号;namespaceID是文献系统的唯一标记符,是在文献系统初次格式化时生成的;storageType表达此文献夹中保存的是数据节点的类型11、Client在HDFS上进行文献写入时,namenode根据文献大小和配置情况,返回部分datanode信息,谁负责将文献划分为多个Block,根据DataNode的地址信息,按顺序写入到每一个DataNode块A.ClientB.NamenodeC.DatanodeD.Secondarynamenode答案:A知识点:HDFS文献写入12、HDFS的是基于流数据模式访问和解决超大文献的需求而开发的,默认的最基本的存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特性,适合的读写任务是A.一次写入,少次读写B.多次写入,少次读写C.一次写入,多次读写D.多次写入,多次读写答案:C知识点:HDFS特性13、HDFS无法高效存储大量小文献,想让它能解决好小文献,比较可行的改善策略不涉及A.运用SequenceFile、MapFile、Har等方式归档小文献B.多Master设计C.Block大小适当调小D.调大namenode内存或将文献系统元数据存到硬盘里答案:D知识点:HDFS特性14、关于HDFS的文献写入,对的的是A.支持多用户对同一文献的写操作B.用户可以在文献任意位置进行修改C.默认将文献块复制成三份存放D.复制的文献块默认都存在同一机架上答案:C知识点:在HDFS的一个文献中只有一个写入者,并且写操作只能在文献末尾完毕,即只能执行追加操作。默认三份文献块两块在同一机架上,另一份存放在其他机架上。15、Hadoopfs中的-get和-put命令操作对象是A.文献B.目录C.两者都是答案:C知识点:HDFS命令16、Namenode在启动时自动进入安全模式,在安全模式阶段,说法错误的是A.安全模式目的是在系统启动时检查各个DataNode上数据块的有效性B.根据策略对数据块进行必要的复制或删除C.当数据块最小比例数满足的最小副本数条件时,会自动退出安全模式D.文献系统允许有修改答案:D知识点:HDFS安全模式//MapReduce17、MapReduce框架提供了一种序列化键/值对的方法,支持这种序列化的类可以在Map和Reduce过程中充当键或值,以下说法错误的是A.实现Writable接口的类是值B.实现WritableComparable<T>接口的类可以是值或键C.Hadoop的基本类型Text并不实现WritableComparable<T>接口D.键和值的数据类型可以超过Hadoop自身支持的基本类型答案:C18、以下四个Hadoop预定义的Mapper实现类的描述错误的是A.IdentityMapper<K,V>实现Mapper<K,V,K,V>,将输入直接映射到输出B.InverseMapper<K,V>实现Mapper<K,V,K,V>,反转键/值对C.RegexMapper<K>实现Mapper<K,Text,Text,LongWritable>,为每个常规表达式的匹配项生成一个(match,1)对D.TokenCountMapper<K>实现Mapper<K,Text,Text,LongWritable>,当输入的值为分词时,生成(taken,1)对答案:B知识点:InverseMapper<K,V>实现Mapper<K,V,V,K>19、下列关于HDFS为存储MapReduce并行切分和解决的数据做的设计,错误的是A.FSDataInputStream扩展了DataInputStream以支持随机读B.为实现细粒度并行,输入分片(InputSplit)应当越小越好C.一台机器也许被指派从输入文献的任意位置开始解决一个分片D.输入分片是一种记录的逻辑划分,而HDFS数据块是对输入数据的物理分割答案:B知识点:每个分片不能太小,否则启动与停止各个分片解决所需的开销将占很大一部分执行时间20、针对每行数据内容为”TimestampUrl”的数据文献,在用JobConf对象conf设立conf.setInputFormat(WhichInputFormat.class)来读取这个文献时,WhichInputFormat应当为以下的A.TextInputFormatB.KeyValueTextInputFormatC.SequenceFileInputFormatD.NLineInputFormat答案:B知识点:四项重要的InputFormat类。KeyValueTextInputFormat以每行第一个分隔符为界,分隔符前为key,之后为value,默认制表符为\t21、有关MapReduce的输入输出,说法错误的是A.链接多个MapReduce作业时,序列文献是首选格式B.FileInputFormat中实现的getSplits()可以把输入数据划分为分片,分片数目和大小任意定义C.想完全严禁输出,可以使用NullOutputFormatD.每个reduce需将它的输出写入自己的文献中,输出无需分片答案:B知识点:分片数目在numSplits中限定,分片大小必须大于mapred.min.size个字节,但小于文献系统的块22、HadoopStreaming支持脚本语言编写简朴MapReduce程序,以下是一个例子:bin/hadoopjarcontrib/streaming/hadoop-0.20-streaming.jar—inputinput/filename—outputoutput—mapper‘dosth.py5’—filedosth.py—Dmapred.reduce.tasks=123、以下说法不对的的是A.HadoopStreaming使用Unix中的流与程序交互B.HadoopStreaming允许我们使用任何可执行脚本语言解决数据流C.采用脚本语言时必须遵从UNIX的标准输入STDIN,并输出到STDOUTD.Reduce没有设定,上述命令运营会出现问题答案:D知识点:没有设定特殊的reducer,默认使用IdentityReducer24、在高阶数据解决中,往往无法把整个流程写在单个MapReduce作业中,下列关于链接MapReduce作业的说法,不对的的是A.Job和JobControl类可以管理非线性作业之间的依赖B.ChainMapper和ChainReducer类可以用来简化数据预解决和后解决的构成C.使用ChainReducer时,每个mapper和reducer对象都有一个本地JobConf对象D.ChainReducer.addMapper()方法中,一般对键/值对发送设立成值传递,性能好且安全性高答案:D知识点:ChainReducer.addMapper()方法中,值传递安全性高,引用传递性能高25、下面哪个程序负责HDFS数据存储。答案Cdatanodea)NameNodeb)Jobtrackerc)Datanoded)secondaryNameNodee)tasktracker26.HDfS中的block默认保存几份?答案A默认3分a)3份b)2份c)1份d)不拟定27.下列哪个程序通常与NameNode在一个节点启动?答案Da)SecondaryNameNodeb)DataNodec)TaskTrackerd)Jobtracker28.Hadoop作者答案CDougcuttinga)MartinFowlerb)KentBeckc)Dougcutting29.HDFS默认BlockSize答案:Ba)32MBb)64MBc)128MB30、下列哪项通常是集群的最重要瓶颈:答案:C磁盘a)CPUb)网络c)磁盘IOd)内存31.关于SecondaryNameNode哪项是对的的?答案Ca)它是NameNode的热备b)它对内存没有规定c)它的目的是帮助NameNode合并编辑日记,减少NameNode启动时间d)SecondaryNameNode应与NameNode部署到一个节点。多选题:1.下列哪项可以作为集群的管理?答案:ABDa)Puppetb)Pdshc)ClouderaManagerd)Zookeeper2.配置机架感知的下面哪项对的:答案ABCa)假如一个机架出问题,不会影响数据读写b)写入数据的时候会写到不同机架的DataNode中c)MapReduce会根据机架获取离自己比较近的网络数据3.Client端上传文献的时候下列哪项对的?答案Ba)数据通过NameNode传递给DataNodeb)Client端将文献切分为Block,依次上传c)Client只上传数据到一台DataNode,然后由NameNode负责Block复制工作4.下列哪个是Hadoop运营的模式:答案ABCa)单机版b)伪分布式c)分布式5.Cloudera提供哪几种安装CDH

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论