在 Apache Spark 的本地模式下,使用 SparkContext 的默认文件系统协议是 'file://”。如果您在本地环境下运行 Spark 应用程序,并且想将输出数据写入本地文件系统,您需要使用 'file://” 协议。
以下是一个示例代码,展示如何在 Spark 中使用 'file://”:
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
object LocalFileOutput {
def main(args: Array[String]) {
val conf = new SparkConf().setAppName("LocalFileOutput").setMaster("local[*]")
val sc = new SparkContext(conf)
val data = List("Hello", "world", "Spark")
val rdd = sc.parallelize(data)
rdd.saveAsTextFile("file:///path/to/directory")
sc.stop()
}
}
在上述示例代码中,'/path/to/directory” 是您要写入的本地目录路径。请注意,'file:///” 前面的三个斜杠是必需的,因为 Spark 会将第一个斜杠作为主机名处理。
上一篇:ApacheSolr:ApacheSolr是否可用作用于从不同网站索引和搜索文档的第三方系统?
下一篇:ApacheSpark-ERRORRetryingBlockFetcher:Exceptionwhilebeginningfetchof1outstandingblocks