大数据 (1)附有答案_第1页
大数据 (1)附有答案_第2页
大数据 (1)附有答案_第3页
大数据 (1)附有答案_第4页
大数据 (1)附有答案_第5页
已阅读5页,还剩9页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

大数据[复制]1.关系型数据库属于()数据[单选题]*A.非结构化数据B.半结构化C.结构化(正确答案)2.对于大数据容量描述不正确的是()[单选题]*A.1EB=1024PBB.1GB=1024KB(正确答案)C.1TB=1024GBD.1KB=1024B3.大数据特征包含()等方面。*A.速度(正确答案)B.价值(正确答案)C.种类(正确答案)D.容量(正确答案)4.大数据没有离线处理方式。(F)[填空题]*_________________________________5.Hbase

是一个分布式的、面向列的开源数据库。(F)[填空题]*_________________________________6.HDFS的中文名称是(分布式文件系统)[填空题]*_________________________________7.大数据的整体技术包含数据采集、数据存取、基础架构、数据处理、统计分析、(数据挖掘)、模型预测和结果呈现等。[填空题]*_________________________________8.Hadoop是一个能够对大量数据进行(分布式)处理的软件框架。[填空题]*_________________________________9.(zookeeper)是一个分布式的,开放源码的分布式应用程序协调服务。[填空题]*_________________________________10.(hive)是基于Hadoop构建的一套数据仓库分析系统,适合应用在基于大量不可变数据的批处理作业。[填空题]*_________________________________11.MapReduce是()计算框架[单选题]*A.分布式并行(正确答案)B.分布式并发C.非分布式并行D.非分布式并发12.下述关于hadoop的阐述,正确的是()[单选题]*A.是一个分布式存储与分布式并行运算系统(正确答案)B.是一个分布式数据库与并行计算系统C.是一个分布式存储系统与分布式数据库D.是一个集中式存储与分布式并行运算系统13.Hadoop的优点包括()*A.高扩展性(正确答案)B.高可靠性(正确答案)C.高容错性(正确答案)D.高成本14.MapReduce框架采用了Master/Slave架构,包括一个Master和若干个Slave。Master上运行JobTracker,Slave上运行TaskTracker。(T)[填空题]*_________________________________15.HDFS采用块的概念,默认的一个块大小是64MB。(T)[填空题]*_________________________________16.Hbase底层的数据存储在(

hdfs

)上。[填空题]*_________________________________17.(pig)可以在MapReduce框架中,将程序转化为一系列

Map

Reduce任务。[填空题]*_________________________________18.Mahout基于Hadoop之上的(mapreduce)实现[填空题]*_________________________________19.Hbase是一个针对结构化数据的可申缩、高可靠,高性能、分布式和面向(列)的动态模式数据库。[填空题]*_________________________________20.(sqoop)是Hadoop与结构化数据存储互相转换的开源工具。[填空题]*_________________________________21.分布式文件系统HDFS中的block默认保存几份?()[单选题]*A.3份

2份(正确答案)B.1份C.不确定22.HDFS是基于流数据模式访问和处理超大文件的需求而开发的,具有高容错、高可靠性、高可扩展性、高吞吐率等特征,适合的读写任务是()[单选题]*A.多次写入,少次读写B.一次写入,多次读写(正确答案)C.一次写入,少次读写D.多次写入,多次读写23.Client在HDFS上进行文件写入时,Namenode根据文件大小和配置情况,返回部分Datanode信息。根据Datanode的地址信息,以下哪个选项负责将文件划分为多个Block,按顺序写入到每一个Datanode块?()[单选题]*A.NamenodeB.Client(正确答案)C.DatanodeD.Secondarynamenode24.HDFS集群中的Namenode职责包括?()*A.维护HDFS集群的目录树结构(正确答案)B.负责保存客户端上传的数据C.响应客户端的所有读写数据请求(正确答案)D.维护HDFS集群的所有数据块的分布、副本数和负载均衡(正确答案)25.关于HDFS的文件写入,错误的是?()*A.默认将文件块复制成三份存放B.用户可以在文件任意位置进行修改(正确答案)C.复制的文件块默认都存在同一机架上(正确答案)D.支持多用户对同一文件的写操作(正确答案)26.查看目录/usr下的文件列表hadoopfs-ls/usr。(T)[填空题]*_________________________________27.HDFS中上传文件的命令是(hadoopfs-put),给出关键命令即可,无需给出路径[填空题]*_________________________________28.使用浏览器查看HDFS文件信息时,需要输入的地址是(http://master:50070)[填空题]*_________________________________29.HDFS中统计/user下a.txt文件长度的命令是(hadoopfs-du/user/a.txt)[填空题]*_________________________________30.HDFS删除

/user目录的命令是(hadoopfs-rm-r/user)[填空题]*_________________________________31.HDFS查看

/user目录以及其下所有子目录的命令是(hadoopfs-ls-R/user)[填空题]*_________________________________32.HDFS中删除目录的命令是(hadoopfs-rm-r),给出关键命令即可,无需给出路径[填空题]*_________________________________33.将文件从HDFS下载到本地文件系统的命令是(hadoopfs-get),给出关键命令即可,无需给出路径[填空题]*_________________________________34.HDFS创建/user目录的命令是(hadoopfs-mkdir/user)[填空题]*_________________________________35.关于wordcount的工作顺序,正确的是()[单选题]*A.split->reduce->shuffle->mapB.shuffle->map->split->reduceC.split->shuffle->map->reduceD.split->map->shuffle->reduce(正确答案)36.()不属于JobTracker负责的工作。[单选题]*A.接收客户提交的作业,负责作业的分解和状态监控。B.提交任务、杀死任务(正确答案)C.监控TaskTracker的执行情况D.把任务分给TaskTracker37.split中包含的文件信息有()*A.文件所在主机信息(正确答案)B.长度(正确答案)C.起始位置(正确答案)D.文件名(正确答案)38.一个reduce任务对应一个split。(F)[填空题]*_________________________________39.hadoop运行java程序时,存放运行结果的目录必须是程序运行前不存在的目录。(T)[填空题]*_________________________________40.每个集群只能有一个ResourceManager。(T)[填空题]*_________________________________41.hadoop运行java程序的命令是(hadoopjar),给出关键命令即可,无需给出路径[填空题]*_________________________________42.MapReduce架构由Client、JobTracker、TaskTracker和(hdfs)4个独立的节点构成。[填空题]*_________________________________43.(tasktracker)是JobTracker和Task之间的桥梁。[填空题]*_________________________________44.(nodemanager

)是MapReduce执行应用程序的容器。[填空题]*_________________________________45.Hive的int型数据占据()Byte的存储空间。[单选题]*A.8B.4(正确答案)C.1D.246.使用drop命令删除外部表时,下列说法正确的是()[单选题]*A.需要使用truncate命令才能删除表B.元数据、实际表文件都删除C.只删除元数据、实际表文件不删除。(正确答案)D.只删除实际表文件、元数据不删除。47.Hive的复杂数据类型包含()*A.map(正确答案)B.bucketC.struct(正确答案)D.array(正确答案)48.用户可以通过()访问Hive*A.Hive命令行(正确答案)B.JDBC客户端(正确答案)C.MapReduceD.WebUI(正确答案)49.Hive的数据存储在HDFS上。(T)[填空题]*_________________________________50.Hive适用于网络日志分析。(T)[填空题]*_________________________________51.Hive是基于hadoop的关系型数据库。(F)[填空题]*_________________________________52.Hive命令以;结束。(T)[填空题]*_________________________________53.使用

DROPDATABASE数据库名;命令删除非空数据库时,需要加上关键字(cascade)。[填空题]*_________________________________54.使用

createtablenew_tableasselect*fromexists_table复制表时,如果只复制结构,需要在命令的后面加上(where1=0);[填空题]*_________________________________55.(元数据)是用于描述数据各项属性信息的数据。[填空题]*_________________________________56.查看Hive中所有表的命令是(showtables;)。[填空题]*_________________________________57.ZK节点有的5种操作权限中,除了()其它4种权限都是对自身节点的操作权限。[单选题]*A.ADMINB.READC.DELETE(正确答案)D.WRITEE.CREATE58.ZooKeeper的优点包括()。*A.高可靠性(正确答案)B.功能丰富(正确答案)C.紧密耦合D.结构简单(正确答案)59.ZooKeeper的leader只能由master担任。(F)[填空题]*_________________________________60.ZooKeeper是一个基于Hadoop的分布式应用协调服务程序。(F)[填空题]*_________________________________61.启动Zookeeper,需要在master和slave上分别启动。(T)[填空题]*_________________________________62.Zppkeeper的四字命令只能在超级用户状态下使用。(T)[填空题]*_________________________________63.当一个Leader节点发生故障而失效时,Zookeeper使用(选举)机制产生新的leader。[填空题]*_________________________________64.ZooKeeper可以处理两种类型的队列:一种是()队列,另一种是先入先出队列。[填空题]*_________________________________65.ZooKeeper中创建时自动加编号,随着客户端会话结束自动删除的节点是(临时顺序节点)[填空题]*_________________________________66.启动Zookeeper,需要在[zkpk@masterzookeeper-3.4.10]$提示符下输入(bin/zkServer.shstart)命令。[填空题]*_________________________________67.一个Kafka节点就是一个()[单选题]*A.SegmentB.PartitionC.TopicD.Broker(正确答案)68.Kafka不支持offline的场景。(F)[填空题]*_________________________________69.启动Kafka,必须先启动Zookeeper。(T)[填空题]*_________________________________70.启动Kafka只要在master上启动即可。(F)[填空题]*_________________________________71.查看topic列表的命令是:[单选题]*bin/kafka-topics.sh--(list)--zookeepermaster:2181(正确答案)72.kafka

启动生产者进程的命令是bin/kafka-console-(producer).sh--broker-listmaster:9092--topictest[填空题]*_________________________________73.消息的元数据称为(键)[填空题]*_________________________________74.Kafka启动消费者进程的命令是:[单选题]*bin/kafka-(console)-consumer.sh--zookeepermaster:2181--topictest--from-beginning(正确答案)75.在master创建一个名为test的主题topic的命令是:[单选题]*bin/kafka-topics.sh--(

create)--zookeepermaster:2181--replication-factor1--partitions1--topictest(正确答案)76.查看topic说明信息的命令是:bin/kafka-topics.sh--(describe)--zookeepermaster:2181--topictest[填空题]*_________________________________77.关于HBaseShell命令解释错误的是()[单选题]*A.list:显示表的所有数据(正确答案)B.get:通过表名、行、列、时间戳、时间范围和版本号来获得相应单元格的值C.create:创建表D.put:向表、行、列指定的单元格添加数据78.下列对HBase数据模型的描述错误的是()[单选题]*A.每个HBase表都由若干行组成,每个行由行键(rowkey)来标识B.HBase是一个稀疏的映射表,这张表可以按行键、列族和时间戳索引C.HBase列族支持动态扩展,可以很轻松地添加一个列族或列D.HBase中执行更新操作时,会删除数据旧的版本,并生成一个新的版本(正确答案)79.HBase是一种()数据库[单选题]*A.关系数据库B.行式数据库C.列式数据库(正确答案)D.文档数据库80.HBase和传统关系型数据库的区别在于哪些方面:()*A.存储模式(正确答案)B.可伸缩性(正确答案)C.数据维护(正确答案)D.数据类型(正确答案)81.HBase是一种关系型数据库,现成功应用于互联网服务领域。(F)[填空题]*_________________________________82.HBase多用于存储非结构化和半结构化的松散数据。(T)[填空题]*_________________________________83.HBase是一个行式分布式数据库,是Hadoop生态系统中的一个组件。(F)[填空题]*_________________________________84.[填空题]*_________________________________85.使用--num-mappers指定导入数据的并行度即MapTask个数,Sqoop默认的并行度是()[单选题]*A.3B.2C.4(正确答案)D.186.Sqoop从关系型数据库MySQL导入数据到HDFS时,默认的字段分隔符是()[单选题]*A.,(正确答案)B

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论