Hadoop中Map Reduce组件擅长处理()场景的计算任务。
A.手动清除警告
B.启停服务实例
C.删除服务实例
D.查询历史监控
A.手动清除警告
B.启停服务实例
C.删除服务实例
D.查询历史监控
A.每个split作为一个map任务的输入
B.每个split作为一个Reduce任务的输入
C.每个split作为一个Reduce任务的输出
D.以上都不对
A.300300
B.3000300
C.600600
D.3000600
A.Partitioner负责控制map输出结果key的分割
B.Reporter用于MapReduce应用程序报告进度
C.OutputCollector收集Mapper或Reducer输出数据
D.Reduce的数目不可以是0
A.抽象类Mapper、接口IReducer
B.接口IMapper、接口IReducer
C.抽象类Mapper、抽象类Rreducer
D.接口IMapper、接口IReducer
A.Spark引进了弹性分布式数据集RDD(ResilientDistributedDataset)的抽象,容错性高
B.Spark提供的数据集操作类型不仅限于Map和Reduce,大致分为:Transformations和Actions两大类
C.Spark程序由Python语言进行编写,不支持Java语言进行的程序编写
D.Spark把中间数据放到内存中,迭代运算效率高
A、Hive最佳使用场景是大数据集的批处理作业
B、Hive可以实现在大规模集群上实现低延迟快速查询
C、Hive构建在基于静态批量处理的Hadoop之上,Hadoop通常有较高的延迟并且在提交作业和调度的时候需要大量的开销
D、Hive查询操作过程严格遵循HadoopMap Reduce的作用执行模型,Hive将用户的HiveSQL语句通过解释器转换为Map ReduceHadoop集群上
A.sqoop可以将HQL/SQL的执行结果导入到Oracle或者Hive
B.不能大于1M
C.sqoop使用参数-m(即--num-mappers)进行导数时,分布在每一个map上的数据是均匀的
D.sqoop将数据导入Oracle时遇到值的长度超长,sqoop会继续将正常的数据导入Oracle