引入 Spark

2018-02-24 15:57 更新

引入 Spark

Spark 1.2.0 使用 Scala 2.10 寫應用程序,你需要使用一個兼容的 Scala 版本(例如:2.10.X)。

寫 Spark 應用程序時,你需要添加 Spark 的 Maven 依賴,Spark 可以通過 Maven 中心倉庫來獲得:

groupId = org.apache.spark
artifactId = spark-core_2.10
version = 1.2.0

另外,如果你希望訪問 HDFS 集群,你需要根據(jù)你的 HDFS 版本添加 hadoop-client 的依賴。一些公共的 HDFS 版本 tags 在第三方發(fā)行頁面中被列出。

groupId = org.apache.hadoop
artifactId = hadoop-client
version = <your-hdfs-version>

最后,你需要導入一些 Spark 的類和隱式轉換到你的程序,添加下面的行就可以了:

import org.apache.spark.SparkContext
import org.apache.spark.SparkContext._
import org.apache.spark.SparkConf
以上內容是否對您有幫助:
在線筆記
App下載
App下載

掃描二維碼

下載編程獅App

公眾號
微信公眾號

編程獅公眾號