2023年Hadoop试题试题库完整_第1页
2023年Hadoop试题试题库完整_第2页
2023年Hadoop试题试题库完整_第3页
2023年Hadoop试题试题库完整_第4页
2023年Hadoop试题试题库完整_第5页
已阅读5页,还剩22页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

如下哪一项不属于Hadoop可以运行模式___C___。单机(当地)模式伪分布式模式互联模式分布式模式Hadoop作者是下面哪一位__B。MartinFowlerDougcuttingKentBeckGraceHopper下列哪个程序一般与NameNode在同一种节点启动__D___。TaskTrackerDataNodeSecondaryNameNodeJobtrackerHDFS默认BlockSize大小是___B___。32MB64MB128MB256M下列哪项一般是集群最重要瓶颈——C__。CPU网络磁盘IO内存下列有关MapReduce说法不对的是C_。MapReduce是一种计算框架MapReduce来源于google学术论文MapReduce程序只能用java语言编写MapReduce隐藏了并行计算细节,以便使用HDFS是基于流数据模式访问和处理超大文献需求而开发,具有高容错、高可靠性、高可扩展性、高吞吐率等特性,适合读写任务是-D____o一次写入,少次读一再写入,少次读一再写入,一再读一次写入,一再读HBase依托__A存储底层数据。HDFSHadoopMemoryMapReduceHBase依赖___D___提供强大计算能力。ZookeeperChubbyRPCMapReduceHBase依赖___A___提供消息通信机制ZookeeperChubbyRPCSocket下面与HDFS类似框架是___C____?NTFSFAT32GFSEXT3有关SecondaryNameNode下面哪项是对的—C—。它是NameNode热备它对内存没有规定它目是协助NameNode合并编辑日志,减少NameNode启动时间SecondaryNameNode应与NameNode布署到一种节点大数据特点不波及下面哪一项___D___。巨大数据量多构造化数据增长速度快价值密度高HBase测试题HBase来源于哪一项?CATheGoogleFileSystemBMapReduceCBigTableDChubby下面对HBase描述哪些是对的?B、C、DA不是开源B是面对列C是分布式D是一种NoSQL数据库HBase依托()存储底层数据AAHDFSBHadoopCMemoryDMapReduceHBase依赖()提供消息通信机制AAZookeeperBChubbyCRPCDSocketHBase依赖()提供强大计算能力DAZookeeperBChubbyCRPCDMapReduceMapReduce与HBase关系,哪些描述是对的?B、CA两者不可或缺,MapReduce是HBas。可以正常运行保证B两者不是强关联关系,没有MapReduce,HBase可以正常运行CMapReduce可以直接访问HBaseD它们之间没有任何关系下面哪些选项对的描述了HBase特性?A、B、C、DA高可靠性B高性能C面对列D可伸缩下面与Zookeeper类似框架是?DAProtobufBJavaCKafkaDChubby下面与HDFS类似框架是?CANTFSBFAT32CGFSDEXT3下面哪些概念是HBase框架中使用?A、CAHDFSBGridFSCZookeeperDEXT3第二部分:HBase关键知识点LSM含义是?AA日志构造合并树B二叉树C平衡二叉树D基于日志构造合并树下面对LSM构造描述对的是?A、CA次序存储B直接写硬盘C需要将数据Flush到磁盘D是一种搜索平衡树LSM更能保证哪种操作性能?BA读B写C随机读D合并LSM读操作和写操作是独立?AA是。B否。CLSM并不辨别读和写DLSM中读写是同一种操作LSM构造数据首先存储在()。BA硬盘上B内存中C磁盘阵列中D闪存中HFile数据格式中Data字段用于()。AA存储实际KeyValue数据B存储数据起点C指定字段长度D存储数据块起点HFile数据格式中Metaindex字段用于()。DAMeta块长度BMeta块结束点CMeta块数据内容DMeta块起始点HFile数据格式中Magic字段用于()。AA存储随机数,防止数据损坏B存储数据起点C存储数据块起点D指定字段长度HFile数据格式中KeyValue数据格式,下列选项描述对的是()°A、DA是byte[]数组B没有固定构造C数据大小是定长D有固定构造HFile数据格式中KeyValue数据格式中Value部分是()。CA拥有复杂构造字符串B字符串C二进制数据D压缩数据第三部分:HBase高级应用简介31HBase中批量加载底层使用()实现。AAMapReduceBHiveCCoprocessorDBloomFilterHBase性能优化波及下面哪些选项?A、B、C、DA读优化B写优化C配置优化DJVM优化Rowkey设计原则,下列哪些选项描述是对的?A、B、CA尽量保证越短越好B可以使用中文C可以使用字符串D自身是无序HBase构建二级索引实现方式有哪些?A、BAMapReduceBCoprocessorCBloomFilterDFilter有关HBase二级索引描述,哪些是对的?A、BA关键是倒排表B二级索引概念是对应Rowkey这个“一级”索引C二级索引使用平衡二叉树D二级索引使用LSM构造下列有关BloomFilter描述对的是?A、CA是一种很长二进制向量和一系列随机映射函数B没有误算率C有一定误算率D可以在BloomFilter中删除元素第四部分:HBase安装、布署、启动HBase官方版本可以安装在什么操作系统上?A、B、CACentOSBUbuntuCRedHatDWindowsHBase虚拟分布式模式需要()个节点?AA1B2C3D至少3个HBase分布式模式最佳需要()个节点?CA1B2C3D至少有关hadoop选择题1、DougCutting所创立项目名称都受到其家人启发,如下项目不是由他创立项目是HadoopNutchLuceneSolr答案:D2、配置Hadoop时,JAVA_HOME波及在哪一种配置文献中hadoop-default.xmlhadoop-env.shhadoop-site.xmlconfiguration.xsl答案:B知识点:hadoop配置3、Hadoop配置文献中,hadoop-site.xml显示覆盖hadoop-default.xml里内容。在版本0.20中,hadoop-site.xml被分离成三个XML文献,不波及conf-site.xmlmapred-site.xmlcore-site.xmlhdfs-site.xml答案:A知识点:hadoop配置4、HDFS默认目前工作目录是/user/$USER,值需要在哪个配置文献内阐明mapred-site.xmlcore-site.xmlhdfs-site.xml以上均不是答案:B知识点:hadoop配置5、有关Hadoop单机模式和伪分布式模式说法,对的是两者都起守护进程,且守护进程运行在一台机器上单机模式不使用HDFS,但加载守护进程两者都不与守护进程交互,防止复杂性后者比前者增长了HDFS输入输出以及可检查内存使用状况答案:D知识点:hadoop配置6、下列有关HadoopAPI说法错误是Hadoop文献API不是通用,只用于HDFS文献系统Configuration类默认实例化措施是以HDFS系统资源配置为基础FileStatus对象存储文献和目录元数据FSDataInputStream是java.io.DataInputStream子类答案:A//HDFS7、HDFSNameNode负责管理文献系统命名空间,将所有文献和文献夹元数据保留在一种文献系统树中,这些信息也会在硬盘上保留成如下文献:日志命名空间镜像两者都是答案:C知识点:8、HDFSnamenode保留了一种文献波及哪些数据块,分布在哪些数据节点上,这些信息也存储在硬盘上。对的错误答案:B知识点:在系统启动时候从数据节点搜集而成9、Secondarynamenode就是namenode出现问题时备用节点对的错误答案:B知识点:它和元数据节点负责不一样事情。其重要功能就是周期性将元数据节点命名空间镜像文献和修改日志合并,以防日志文献过大。合并过后命名空间镜像文献也在Secondarynamenode保留了一份,以防namenode失败时候,可以恢复。10、出目前datanodeVERSION文献格式中但不出目前namenodeVERSION文献格式中是namespacelDstoragelDstorageTypelayoutVersion答案:B知识点:其他三项是公有°layoutVersion是一种负整数,保留了HDFS持续化在硬盘上数据构造格式版本号;namespacelD是文献系统唯一标识符,是在文献系统初次格式化时生成;storageType体现此文献夹中保留是数据节点类型11、Client在HDFS上进行文献写入时,namenode根据文献大小和配置状况,返回部分datanode信息,谁负责将文献划分为多种Block,根据DataNode地址信息,按次序写入到每一种DataNode块ClientNamenodeDatanodeSecondarynamenode答案:A知识点:HDFS文献写入12、HDFS是基于流数据模式访问和处理超大文献需求而开发,默认最基本存储单位是64M,具有高容错、高可靠性、高可扩展性、高吞吐率等特性,适合读写任务是一次写入,少次读写一再写入,少次读写一次写入,一再读写一再写入,一再读写答案:C知识点:HDFS特性13、HDFS无法高效存储大量小文献,想让它能处理好小文献,比较可行改善方略不波及运用SequenceFile、MapFile、Har等方式归档小文献多Master设计Block大小合适调小调大namenode内存或将文献系统元数据存到硬盘里答案:D知识点:HDFS特性14、有关HDFS文献写入,对的是支持多顾客对同一文献写操作顾客可以在文献任意位置进行修改默认将文献块复制成三份寄存复制文献块默认都存在同一机架上答案:C知识点:在HDFS一种文献中只有一种写入者,并且写操作只能在文献末尾完毕,即只能执行追加操作。默认三份文献块两块在同一机架上,另一份寄存在其他机架上。15、Hadoopfs中-get和-put命令操作对象是文献目录两者都是答案:C知识点:HDFS命令16、Namenode在启动时自动进入安全模式,在安全模式阶段,说法错误是安全模式目是在系统启动时检查各个DataNode上数据块有效性根据方略对数据块进行必要复制或删除当数据块最小比例数满足最小副本数条件时,会自动退出安全模式文献系统容许有修改答案:D知识点:HDFS安全模式//MapReduce17、MapReduce框架提供了一种序列化键/值对的措施,支持这种序列化类可以在Map和Reduce过程中充当键或值,如下说法错误是实现Writable接类是值实现WritableComparable<T>接类可以是值或键Hadoop基本类型Text并不实现WritableComparable<T>接键和值数据类型可以超过Hadoop自身支持基本类型答案:C18、如下四个Hadoop预定义Mapper实现类描述错误是IdentityMapper<K,V>实现Mapper<K,V,K,V>,将输入直接映射到输出InverseMapper<K,V>实现Mapper<K,V,K,V>,反转键/值对RegexMapper<K>实现Mapper<K,Text,Text,LongWritable>,为每个常规体现式匹配项生成一种(match,1)对TokenCountMapper<K>实现Mapper<K,Text,Text,LongWritable>,当输入值为分词时,生成(taken,1)对答案:B知识点:InverseMapper<K,V>实现Mapper<K,V,V,K>19、下列有关HDFS为存储MapReduce并行切分和处理数据做设计,错误是FSDataInputStream扩展了DataInputStream以支持随机读为实现细粒度并行,输入分片(InputSplit)应当越小越好一台机器也许被指派从输入文献任意位置开始处理一种分片输入分片是一种记录逻辑划分,而HDFS数据块是对输入数据物理分割答案:B知识点:每个分片不能太小,否则启动与停止各个分片处理所需开销将占很大一部分执行时间20、针对每行数据内容为"TimestampUrl”数据文献,在用JobConf对象conf设置conf.setlnputFormat(WhichlnputFormat.class)来读取这个文献时,WhichInputFormat应当为如下TextInputFormatKeyValueTextInputFormatSequenceFileInputFormatNLineInputFormat答案:B知识点:四项重要InputFormat类。KeyValueTextInputFormat以每行第一种分隔符为界,分隔符前为key,之后为value,默认制表符为\t21、有关MapReduce输入输出,说法错误是链接多种MapReduce作业时,序列文献是首选格式FileInputFormat中实现getSplits()可以把输入数据划分为分片,分片数目和大小任意定义想完全严禁输出,可以使用NullOutputFormat每个reduce需将它输出写入自己文献中,输出无需分片答案:B知识点:分片数目在numSplits中限定,分片大小必须不不大于个字节,但不不不大于文献系统块22、HadoopStreaming支持脚本语言编写简朴MapReduce程序,如下是一种例子:inputinput/filename—outputoutput—mapper‘dosth.py5’filedosth.py—Dmapred.reduce.tasks=123、如下说法不对的是HadoopStreaming使用Unix中流与程序交互HadoopStreaming容许我们使用任何可执行脚本语言处理数据流采用脚本语言时必须遵从UNIX原则输入STDIN,并输出到STDOUTReduce没有设定,上述命令运行会出现问题答案:D知识点:没有设定特殊reducer,默认使用IdentityReducer24、在高阶数据处理中,往往无法把整个流程写在单个MapReduce作业中,下列有关链接MapReduce作业说法,不对的是A.Job和JobControl类可以管理非线性作业之间依赖ChainMapper和ChainReducer类可以用来简化数据预处理和后处理构成使用ChainReducer时,每个mapper和reducer对象均有一种当地JobConf对象ChainReducer.addMapper()措施中,一般对键/值对发送设置成值传递,性能好且安全性高答案:D知识点:ChainReducer.addMapper()措施中,值传递安全性高,引用传递性能高25、下面哪个程序负责HDFS数据存储。答案CdatanodeNameNodeJobtrackerDatanodesecondaryNameNodetasktrackerHDfS中block默认保留几份?答案A默认3分TOC\o"1-5"\h\z3份2份1份不确定下列哪个程序一般与NameNode在一种节点启动?答案DSecondaryNameNodeDataNodeTaskTrackerJobtrackerHadoop作者答案CDougcuttingMartinFowlerKentBeckDougcuttingHDFS默认BlockSize答案:BTOC\o"1-5"\h\z32MB64MB128MB下列哪项一般是集群最重要瓶颈:答案:C磁盘CPU网络c)磁盘IO内存有关SecondaryNameNode哪项是对的?答案C它是NameNode热备它对内存没有规定它目是协助NameNode合并编辑日志,减少NameNode启动时间SecondaryNameNode应与NameNode布署到一种节点。多选题:下列哪项可以作为集群管理?答案:ABDPuppetPdshClouderaManagerZookeeper配置机架感知下面哪项对的:答案ABC假如一种机架出问题,不会影响数据读写2写入数据时候会写到不一样机架DataNode中c)MapReduce会根据机架获取离自己比较近网络数据Client端上传文献时候下列哪项对的?答案Ba)数据通过NameNode传递给DataNodeb)Client端将文献切分为Block,依次上传c)Client只上传数据到一台DataNode,然后由NameNode负责Block复制工作下列哪个是Hadoop运行模式:答案ABCa)单机版b)伪分布式c)分布

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论