168大数据

标题: Spark基本概念 [打印本页]

作者: 168主编    时间: 2018-8-16 11:15
标题: Spark基本概念
Spark专用名词Spark编程模型

下面是Spark的一个日志计数示例,该程序演示了Spark的计算模型:

下面是Spark运行时涉及的各组件的概况图:

从RDD转换和存储角度,用户程序对RDD通过多个函数进行操作,将RDD进行转换。Block Manager管理RDD的物理分区,每个Block就是节点上对应的一个数据块,可以存储在内存或磁盘。而RDD中的partition是一个逻辑数据块,对应相应的物理块Block。
本质上,一个RDD在代码中相当于是数据的一个元数据结构,存储着数据分区及其逻辑结构映射关系,存储着RDD之前的依赖转换关系。

作用于RDD上的操作分为transformantion和action。 经Transformation处理之后,数据集中的内容会发生更改,由数据集A转换成为数据集B;而经Action处理之后,数据集中的内容会被归约为一个具体的数值。
只有当RDD上有action时,该RDD及其父RDD上的所有operation才会被提交到cluster中真正的被执行。

Spark运行态

用Spark的术语来说,static view称为dataset-level view,而dynamic view称为parition-level view,关系如图所示:

在Spark中的task可以对应于线程,worker是一个个的进程,worker由driver来进行管理。

在源码阅读时,需要重点把握以下两大主线:

Spark调度机制

Spark应用提交后经历了一系列的转换,最后成为Task在每个节点上执行。
当有Action作用于某RDD时,该action会作为一个job被提交。
在提交的过程中,DAGScheduler模块介入运算,计算RDD之间的依赖关系。RDD之间的依赖关系就形成了DAG。
每一个Job被分为多个stage,划分stage的一个主要依据是当前计算因子的输入是否是确定的,如果是则将其分在同一个stage,避免多个stage之间的消息传递开销。
当stage被提交之后,由taskscheduler来根据stage来计算所需要的task,并将task提交到对应的worker。
大体概况如下图所示:

关于Spark的调度运行机制详见下一节的RDD详解中的介绍。









欢迎光临 168大数据 (http://www.bi168.cn/) Powered by Discuz! X3.2