在Spark应用程序中,通常在main函数中创建driver,SparkContext是driver的入口点。以下是一个示例代码:
from pyspark import SparkConf, SparkContext
if __name__ == "__main__":
conf = SparkConf().setAppName("myApp").setMaster("local[*]")
sc = SparkContext(conf=conf)
# 在这里执行作业代码
sc.stop()
在这个示例中,SparkConf对象用于设置应用程序的名称和Master URL。然后,SparkContext对象被创建,并将SparkConf对象传递给它。在SparkContext对象创建之后,可以执行Spark作业代码。最后,使用sc.stop()
关闭SparkContext对象。该示例可以在本地模式下运行,其Master URL设置为“local [*]”。