马上注册,结交更多数据大咖,获取更多知识干货,轻松玩转大数据
您需要 登录 才可以下载或查看,没有帐号?立即注册
x
【Spark与hadoop一样,是一种开源的集群计算环境,但在特定工作负载情况下比Hadoop更高效。Spark采用基于内存的分布式数据集,优化了迭代式的工作负载以及交互式查询。下面作者将通过单节点本地模式搭建Spark运行环境】 前言: Spark本身用scala写的,运行在JVM之上。 JAVA版本:java 6 /higher edition. 1 下载Spark http://spark.apache.org/downloads.html 你可以自己选择需要的版本,这里我的选择是: http://d3kbcqa49mib13.cloudfront.net/spark-1.1.0-bin-hadoop1.tgz 注意:我这里是运行在Linux环境下。没有条件的可以安装下虚拟机之上! 2 解压缩&进入目录 tar -zvxf spark-1.1.0-bin-hadoop1.tgz cd spark-1.1.0-bin-hadoop1/ 3 启动shell ./bin/spark-shell 你会看到打印很多东西,最后显示 4 小试牛刀 先后执行下面几个语句 val lines = sc.textFile(“README.md”) lines.count() lines.first() val pythonLines = lines.filter(line => line.contains(“Python”)) scala> lines.first() res0: String = ## Interactive Python Shel
—解释,什么是sc sc是默认产生的SparkContext对象。 比如 这里只是本地运行,先提前了解下分布式计算的示意图: 5 独立的程序 最后以一个例子结束本节 为了让它顺利运行,按照以下步骤来实施即可: ————–目录结构如下: 然后simple.sbt的内容如下:
example.scala的内容如下: import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.SparkContext._ object example { def main(args: Array[String]) { val conf = new SparkConf().setMaster(“local”).setAppName(“My App”) val sc = new SparkContext(“local”, “My App”) sc.stop() //System.exit(0) //sys.exit() println(“this system exit ok!!!”) } }
红色local:一个集群的URL,这里是local,告诉spark如何连接一个集群,local表示在本机上以单线程运行而不需要连接到某个集群。 橙黄My App:一个项目的名字, 然后执行:sbt package 成功之后执行 ./bin/spark-submit –class “example” ./target/scala-2.10/simple-project_2.10-1.0.jar 结果如下: 说明确实成功执行了! 结束!
|