Hadoop大数据技术与项目实战智慧树知到期末考试答案2024年_第1页
Hadoop大数据技术与项目实战智慧树知到期末考试答案2024年_第2页
Hadoop大数据技术与项目实战智慧树知到期末考试答案2024年_第3页
Hadoop大数据技术与项目实战智慧树知到期末考试答案2024年_第4页
Hadoop大数据技术与项目实战智慧树知到期末考试答案2024年_第5页
已阅读5页,还剩1页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

Hadoop大数据技术与项目实战智慧树知到期末考试答案2024年Hadoop大数据技术与项目实战ADS数据应用层,在ADS层中,进行最终指标统计,从而服务于报表系统的数据展示。()

A:对B:错答案:对使用列式存储数据采用LZO的压缩格式,目的是提高当前表数据在查询过程中的效率。()

A:对B:错答案:对Flume在数据传输过程中,事件中的Value即body,body是一个字节数组,封装的是传输的数据。()

A:对B:错答案:对删除Kafka主题时,在配置文件中设置delete.topic.enable=true,才是完全删除,否则为标记删除。

A:错B:对答案:对Flume的数据流可以根据headers的信息发送到不同的channel中。()

A:正确B:错误答案:正确外连接中,显示左表所有数据的是右外连接。()

A:错B:对答案:错Hadoop是Apache基金会开发的一款分布式系统基础架构,主要解决海量数据存储和海量数据计算两大问题,从广义上来说,Hadoop通常指的是Hadoop生态圈。()

A:错B:对答案:对MapReduce词频统计案例中,Driver阶段的Configuration会操作job对象实现案例需求()。

A:错B:对答案:对Hive本身没有存储功能,其数据要基于HDFS来存储。()

A:对B:错答案:对在项目中,关于数据迁移的实现是由sqoop完成,主要将HDFS上的数据抽取到MySQL。()

A:对B:错答案:对在HQL关联测试中,测试表是员工表和地址表。()

A:对B:错答案:错Event的最大定义为1024字节,超过会被切割放到下一个Event中。()

A:错B:对答案:错在使用PyEcharts绘制轮播多图时,需要事先导入Timeline类。()

A:对B:错答案:对insertoverwrite命令将数据写入表中()

A:对B:错答案:对可以使用zkServer.shstop命令开启Zookeeper。()

A:对B:错答案:错在使用pyecharts绘制饼图时,需要事先导入PictorialBar类。()

A:对B:错答案:错在Flume数据传输过程中,选择Kafkasink,能把数据写入Kafka对应的Topic中()

A:错B:对答案:对在编写Flume拦截器代码时,configure方法的功能是可以获取到Flume进程在运行过程中的运行参数,然后对其进行引用。()

A:错B:对答案:对在项目中,使用MySQL的应用场景有两个,一是用来存储Hive的元数据信息,二是存储数据仓库统计出来的指标结果()

A:对B:错答案:对在设计Flume数据采集系统时,增加source个数,可以增大source读取能力。()

A:错B:对答案:对使用pyecharts进行可视化时,可以用下哪个选项设置图例不显示?()

A:label_opts=opts.LabelOpts(is_show=False)B:axisline_opts=opts.AxisLineOpts(is_show=False)C:xaxis_opts=opts.AxisOpts(is_show=False)D:legend_opts=opts.LegendOpts(is_show=False)答案:legend_opts=opts.LegendOpts(is_show=False)在Linux命令行中,使用schematool命令()

A:格式化hive元数据库B:刷新配置C:删除hive元数据库D:更新hive元数据库答案:格式化hive元数据库Hive定义了类似于SQL语言的()语言。

A:DQLB:EQLC:HQLD:VQL答案:HQLFlume可以快速消费KafkaTopic数据,然后将消费后的数据转发到()上。

A:HDFSB:SourceC:SinkD:Channel答案:HDFS下列哪条命令可以为f1.sh脚本文件赋予权限()。

A:./f1.shstartB:vimf1.shC:./f1.shstopD:chmodu+xf1.sh答案:chmodu+xf1.sh使用hdfsdfs-count/查看根目录下面数据文件的个数,显示结果为“149458745”,其中9代表的是()

A:文件的嵌套层数B:子目录的个数C:所有文件的字节数D:文件个数答案:文件个数执行聚合统计的函数是()

A:MINB:COUNTC:SUMD:MAX答案:COUNTSqoop的工作本质是()。

A:迁移数据B:存储数据C:接收数据D:处理数据答案:迁移数据在纵向拼接中,可以实现去重的是()。

A:UnionallB:DistinctC:FulljoinD:union答案:union()命令可以查看当前HDFS上面文件内容的数据。

A:catB:cdC:lsD:open答案:cd在Flume数据采集配置文件中,kafka.bootstrap.servers=node1:9092,该配置表示()

A:配置Kafka的路径B:配置Kafka的通信地址C:配置kafka的Topic的数量D:配置Kafka的消费组答案:配置Kafka的通信地址在Hive中,给数据表添加数据,可以将数据文件当中的数据一次性加载到指定的表中的方法是()。

A:insertintoB:appendC:addD:load答案:loadpyecharts中,用以下哪个配置项对图表标题进行设置?()

A:LegendOptsB:AxisOptsC:TitleOptsD:InitOpts答案:TitleOptspyecharts中的()可以实现将多个图表在一个页面中进行布局。()

A:PolarB:PageC:PieD:PictorialBar答案:Page在Sqoop执行数据迁移过程中,当不需要做任何聚合操作时,只需要MR程序当中的()阶段即可。

A:ShuffleB:ReduceC:MapD:Split答案:Map公共字段cm中字段含义为设备唯一标识的字段是()

A:vcB:midC:uidD:vn答案:mid在Flume数据传输过程中,Agent主要由()组成。

A:SinkB:ChannelC:AppD:Source答案:Source###Channel###Sink根据在Flume数据采集脚步中的拦截器配置,程序首先对Builder内部类进行实例化,从而执行类中的两个方法,分别为()。

A:CloseB:initializeC:BuildD:Configure答案:Build###ConfigureFlume在数据传输过程中,事件包含两部分()。

A:ValueB:actionC:MethodD:Key答案:Key###Value下列属于事件日志数据合法校验步骤的是()。

A:对数据进行校验B:校验是否为json格式C:校验服务器时间D:对日志进行切割答案:对日志进行切割###对数据进行校验###校验服务器时间###校验是否为json格式DWT层,构建一张设备主题宽表的字段有哪些()

A:手机型号B:手机品牌C:累积活跃天数D:设备唯一标识答案:设备唯一标识###手机型号###手机品牌###累积活跃天数安装MySQL服务时,需要安装以下()。

A:MySQL所需要的依赖库B:MySQL的客户端服务C:MySQL的公共服务D:MySQL的服务端服务答案:MySQL的公共服务###MySQL所需要的依赖库###MySQL的客户端服务###MySQL的服务端服务内连接使用到的关键字是()。

A:joinB:FulljoinC:LeftjoinD:innerjoin答案:innerjoin下列关于zookeeper的描述,正确的是()。

A:一次数据更新要么成功(半数以上节点成功),要么失败,不存在中间状态,即数据更新原子性B:具有顺序性,即更新请求是按照顺序进行的C:集群中只要有半数以上节点存活,Zookeeper集群就能正常服务D:Zookeeper是一个领导者(Leader),多个跟随者(Follower)组成的集群答案:Zookeeper是一个领导者(Leader),多个跟随者(Follower)组成的集群;集群中只要有半数以上节点存活,Zookeeper集群就能正常服务;一次数据更新要么成功(半数以上节点成功),要么失败,不存在中间状态,即数据更新原子性;具有顺序性,即更新请求是按照顺序进行的在HQL实现过程中,一个语句里要执行()两部分操作。

A:分析数据B:将查询结果直接保存到对应的统计结果表中C:数据可视化的展示D:查询业务数据表中的数据答案:查询业务数据表中的数据###将查询结果直接保存到对应的统计结果表中外连接中,显示左表或者右表所有数据的是()。

A:全外连接B:左外连接C:内连接D:右外连接答案:左外连接###右外连接整个MapReduce的执行过程可以分为split、map、()五个阶段。

A:输出B:输入C:shuffleD:reduce答案:shuffle###reduce###输出下列参数中,哪些是Sqoop导入全部数据命令时用到的参数()?

A:--connectB:--tableC:--passwordD:--username答案:--connect###--username###--password###--table配置hadoop的核心文件有()。

A:core-site.xml,B:mapred-site.xmlC:hadoop-env.shD:hdfs-site.xml答案:core-site.xml###hadoop-env.sh###hdfs-site.xml###mapred-site.xmlyarn集群核心配置的文件是()。

A:hdfs-site.xmlB:yarn-site.xmlC:core-site.xmlD:mapred-site.xml答案:yarn-site.xml###mapred-site.xml在本教材的实战操作中,打开hosts文件,设置三台虚拟机的IP地址及映射名称,需要输入()内容。

A:192.168.100.5node3B:192.168.100.3node1C:192.168.100.4node2D:192.168.100.5node4答案:192.168.100.3node1###192.168.100.4node2###192.168.100.5node3以下描述正确的是()

A:Map阶段产生的数据会通过shuffle阶段,在内存缓冲区中进行数据的分区、排序、分组的处理B:Reduce阶段是将一个大的计算任务分解成多个小任务C:shuffle阶段是整个MapReduce执行过程中最复杂的一步D:整个MapReduce的执行过程可以分为五个阶段答案:AI参考:正确选项为:D:整个MapReduce的执行过程可以分为五个阶段。\n\n整个MapReduce的执行过程可以分为五个阶段,分别是:\n\n1.Map阶段:将输入数据映射成中间键值对,并输出到输

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论