以下文字与答案无关
提示:有些试题内容 显示不完整,文字错误 或者 答案显示错误等问题,这是由于我们在扫描录入过程中 机器识别错误导致,人工逐条矫正总有遗漏,所以恳请 广大网友理解。
spark sql Release 版本
B:引入 Spark R
C:DataFrame
D:支持动态资源分配
HiveContext
B:SparkSession
C:SQLContext
D:SparkContext
HiveContext
B:SparkSession
C:SQLContext D:SparkContext
standalone
B:Spark on Mesos
C:Spark on YARN
D:Local
进入Spark的入口点
B:spark的上下文
C:spark的环境配置函数
D:spark的任务设置函数
dataframe数据处理不在内存中
B:dataframe有表头
C:dataframe的创建接口不同
D:dataframe可以使用sql语言
A、Spark Streaming
B、MLlib
C、GraphX
D、Flink
Catalyst
B:Execution
C:Parser
D:Analyzer
show()
B:map()
C:toDF()
D:printSchema()
要想启动使用Scala语言的Spark shell,用cd命令进入 bin目录(也可以把bin目录设置到path环境变量中),然后输入spark-shell即可
B:可以使用spark shel将一个文本文件读入为DataFrame
C:退出Spark shell,可以按下Ctri-Q
D:在Spark shell中也可以使用import语句
Spark Streaming的基本原理是将实时输入数据流以时间片为单位进行拆分,然后采用Spark引擎以类似批处理的方式处理每个时间片数据
B:Spark Streaming最主要的抽象是DStream(Discretized Stream,离散化数据流),表示连续不断的数据流
Spark Streaming可整合多种输入数据源,如Kafka、Flume、HDFS,甚至是普通的TCP套接字
Spark Streaming的数据抽象是DataFrame
A、在RDD编程中需要生成一个SparkContext对象
B、在Spark SQL编程中需要生成一个SparkSession对象
C、运行一个Spark Streaming程序,就需要首先生成一个StreamingContext对象
D、在Spark SQL编程中需要生成一个StreamingContext对象
show()
B:map() C:toDF()
D:printSchema()
A、Spark Streaming的基本原理是将实时输入数据流以时间片为单位进行拆分,然后采用Spark引擎以类似批处理的方式处理每个时间片数据
B、Spark Streaming最主要的抽象是DStream(Discretized Stream,离散化数据流),表示连续不断的数据流
C、Spark Streaming可整合多种输入数据源,如Kafka、Flume、HDFS,甚至是普通的TCP套接字
D、Spark Streaming的数据抽象是DataFrame
主节点
B:从节点
C:执行器
D:上下文
HBase
B:Hadoop
C:MySQL
D:Spark